КТО НЕСЕТ ОТВЕТСТВЕННОСТЬ ЗА ДЕЙСТВИЯ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА?

Муаллиф: Сангинзода Дониёр

Расм

(  В рамках  принятия резолюции Генеральной Ассамблеи ООН

«Роль искусственного интеллекта в создании новых возможностей для устойчивого развития в Центральной Азии» A/79/L.94 от 25 июля 2025 года)

       Искусственный интеллект (ИИ) трансформирует экономику, социальные процессы и государственное управление, однако его автономность и сложность создают правовые пробелы в определении ответственности за его действия. В 2025 году, когда ИИ активно интегрируется в такие сферы, как медицина, транспорт, финансы и правосудие, вопрос ответственности становится критически важным. Например, аварии с участием беспилотных автомобилей, ошибки медицинских ИИ-систем или использование ИИ для создания дезинформации поднимают вопрос: кто должен отвечать за последствия — разработчик, оператор, пользователь или возможно, сама система?

       Согласно глобальной статистике, риски от ИИ и роботов растут: по данным отчетов 2025 года, более 73% предприятий по миру столкнулись с нарушениями безопасности, связанными с ИИ, со средним ущербом в $4,8 млн на инцидент. В 2023–2025 годах зарегистрировано не менее 40 смертельных случаев на рабочих местах из-за роботов по всему миру. В США за 2015–2022 годы произошло 77 инцидентов с роботами, приведших к ампутациям и другим травмам. Во Франции более 80% организаций сообщили об иинцидентеов безопасности, связанные с ИИ (AI-related security incidents) в 2024–2025 годах. В первом полугодии 2025 года зафиксированы случаи дипфейк-абьюз (deepfake abuse) отказов ИИ-моделей и энергетических перегрузок от дата-центров. Эти данные подчеркивают актуалность проблемы.

       В 2024 году мировой рынок ИИ достиг 244 млрд долларов США, в России — 1 трлн рублей, с инвестициями государства 9,2 млрд рублей. Это развитие синхронизировано с созданием Центра развития ИИ в 2025 году. В Европейском союзе с принятием Закона об искусственном интеллекте (AI Act, 2024) введена классификация ИИ-систем по уровню риска, что напрямую влияет на распределение ответственности. Высокорисковые системы, такие как ИИ в медицинской диагностике или правоохранительной деятельности, подлежат строгому регулированию, включая требования к прозрачности и сертификации. Ответственность за ущерб, причиненный такими системами, возлагается на оператора или разработчика, если доказано нарушение стандартов.

       В США акцент делается на отраслевых стандартах, таких как NIST AI Risk Management Framework (обновленный в 2025 году с учетом приватности), который предлагает добровольные рекомендации для управления рисками ИИ. Судебные прецеденты, например, дела против компаний, использующих ИИ для дискриминационных решений в найме, показывают тенденцию к привлечению к ответственности юридических лиц, управляющих ИИ.

       В Китае действует жесткое государственное регулирование ИИ, включая обязательную сертификацию алгоритмов и требования к прозрачности данных, используемых для обучения. С сентября 2025 года будут введены правила маркировки AI-генерированного контента для предотвращения дезинформации. Ответственность за действия ИИ часто возлагается на оператора системы, но законодательство продолжает развиваться. По данным 2025 года, глобальные инвестиции в ИИ выросли до 131,5 млрд долларов США, с ростом на 52% по сравнению с 2023 годом.

       В странах СНГ, согласно Модельному закону "О технологиях искусственного интеллекта" от 18.04.2025 № 58-8 (далее – Модельный закон СНГ) регулирование основано на риск-ориентированном подходе (ст. 21), с классификацией ИИ по уровням риска: запрещенные высокорисковые, с ограниченным риском и минимальным. Закон подчеркивает принципы антропоцентричности, безопасности и прозрачности (ст. 10–20), что гармонизирует подходы в регионе, включая Россию и Таджикистан.

       В России правовое регулирование ИИ развивается в рамках Национальной стратегии ИИ РФ до 2030 года. Федеральный закон №258-ФЗ «Об экспериментальных правовых режимах в сфере цифровых инноваций» (2020) позволяет тестировать ИИ в «регуляторных песочницах», что помогает определить границы ответственности. Например, в Москве эксперименты с беспилотным транспортом выявили необходимость уточнения ответственности операторов за аварии. В судебной практике России уже появляются дела, связанные с использованием ИИ. Например, в 2024 году Госдума приняла законопроект о страховании гражданской ответственности за вред от ИИ в экспериментальных режимах. Однако законодательство пока не содержит четких норм, регулирующих ответственность за действия ИИ, что создает правовую неопределенность. Согласно Национальной стратегии ИИ РФ (п. 13), Россия обладает потенциалом для лидерства в ИИ благодаря сильной математической школе и компетенциям в моделировании. В 2025 году рынок ИИ в России достиг 1 трлн рублей, с акцентом на создание открытых библиотек ИИ и поддержку научных исследований (п. 32).

       В Республике Таджикистан развитие ИИ координируется в рамках Стратегии развития ИИ до 2040 года (постановление Правительства РТ от 30.09.2022, №483). Эта стратегия направлена на ускоренную индустриализацию страны и приоритет использования ИИ в управлении (п. 4). В частности, "Агентство по инновациям и цифровым технологиям при Президенте Республики Таджикистан определено уполномоченным государственным органом в этой сфере" (п. 33). На практике лаборатории ИИ в Душанбе и Худжанде подготовили более 100 специалистов (п. 42). Однако "правовая, институциональная и кадровая основа еще не сформирована должным образом" (п. 30). Для решения предусмотрена разработка Закона "Об искусственном интеллекте" и поправки к законам (п. 47), определяющие ответственность в сферах образования и промышленности.

       Одним из ключевых вопросов является возможность наделения ИИ юридической субъектностью, например, статусом «электронного лица». В 2017 году Европарламент предлагал рассмотреть такой статус для автономных систем, чтобы упростить распределение ответственности. Однако в 2025 году эта идея остается спорной: критики указывают на отсутствие у ИИ сознания и моральной ответственности, в то время как сторонники подчеркивают, что субъектность могла бы упростить правовые процессы в случаях, когда установить виновника невозможно.

       В России концепция «электронного лица» пока не получила развития, но обсуждения ведутся в рамках экспертных групп, таких как Альянс в сфере ИИ, включая инициативы на AI Journey 2024. Проблема заключается в том, что традиционные правовые категории (физическое или юридическое лицо) не подходят для ИИ, что требует создания новых норм. В Модельном законе СНГ субъектность не вводится напрямую, но подчеркивается ответственность разработчиков и операторов (ст. 3, 26–28).

       Ответственность за действия ИИ представляет собой сложную правовую конструкцию, поскольку ИИ часто функционирует как автономная система, где процесс принятия решений может быть распределен между несколькими участниками цепочки создания и использования. В отличие от традиционных инструментов, где ответственность лежит преимущественно на пользователе или производителе, ИИ требует многоуровневого подхода, учитывающего роли разработчика, оператора и пользователя. Анализ распределения ответственности основан на принципах солидарной и абсолютной ответственности, как это предусмотрено в Модельном законе СНГ "О технологиях искусственного интеллекта" (ст. 15), где подчеркивается, что вред от высокорисковых систем может влечь безвиновную ответственность всех вовлеченных сторон. Это позволяет минимизировать пробелы, когда "черный ящик" ИИ затрудняет установление прямой вины.

       Разработчик несет ответственность за дефекты в алгоритмах или недостатки в обучении системы, поскольку именно на этой стадии закладываются базовые риски. Если данные для обучения предвзяты или алгоритм содержит ошибки, это может привести к систематическим сбоям, за которые разработчик отвечает в полной мере. Например, предвзятость в данных обучения может проявиться в дискриминации при принятии решений, как в случаях использования ИИ для оценки кредитоспособности, где алгоритмы обученные на нерепрезентативных данных, отсеивают кандидатов по этническому или гендерному признаку. В Национальной стратегии ИИ РФ (п. 38) подчеркивается необходимость качественных данных для минимизации таких рисков, а в Модельном законе СНГ (ст. 30) требуются проверка наборов данных на достоверность и отсутствие дискриминации.

       Оператор отвечает за корректное использование ИИ и соблюдение стандартов эксплуатации, включая настройку и мониторинг системы в реальных условиях. Если оператор игнорирует требования к безопасности или неправильно конфигурирует ИИ, ответственность ложится на него, даже если исходный алгоритм был безупречен. Примером служит неправильная настройка в производстве, когда ИИ для управления конвейером не адаптирован к локальным условиям, что приводит к авариям или браку продукции. Согласно Стратегии ИИ Таджикистана (п. 30), правовая база для эксплуатации еще не сформирована, что усиливает риски, а в Модельном законе (ст. 24) для высокорисковых систем требуется система управления рисками, включая мониторинг.

       Пользователь несет ответственность за неправильное применение системы, когда он игнорирует рекомендации или использует ИИ вне предназначенных сценариев. Это включает случаи, когда пользователь полагается на ИИ без проверки, что приводит к ошибкам. Например, игнорирование рекомендаций ИИ в медицине может усугубить диагноз и ответственность за это ложится на врача-пользователя. В Национальной стратегии ИИ РФ (п. 49) этические правила взаимодействия подчеркивают необходимость контроля человека, а в Модельном законе (ст. 28) пользователи обязаны обеспечивать безопасность и воздерживаться от вмешательства.

       Распределение ответственности не всегда линейно: в автономных системах, как указано в Стратегии ИИ РФ (п. 9), сильный ИИ может создавать непредвиденные последствия, требуя солидарной ответственности. Анализ показывает, что эффективное распределение снижает риски, но требует гармонизации норм, как в резолюции ООН A/79/L.94, где подчеркивается международное сотрудничество для этичного ИИ в развитии. Таким образом, ответственность должна быть пропорциональной вкладу каждой стороны, с акцентом на превентивные меры, чтобы избежать ущерба и повысить доверие к технологиям.

       Многие ИИ-системы особенно основанные на глубоких нейронных сетях, работают как «черные ящики» где процесс принятия решений остается непрозрачным даже для разработчиков. Это усложняет определение причин ошибок и соответственно виновных. В 2025 году регуляторы, включая ЕС, требуют внедрения «объяснимого ИИ» (Explainable AI, XAI), чтобы повысить прозрачность и облегчить юридическую оценку. Ключевые технологические разработки включают методы вроде SHAP (SHapley Additive exPlanations) и LIME (Local Interpretable Model-agnostic Explanations), которые позволяют интерпретировать решения моделей, а также интеграцию XAI в фреймворки, такие как обновленный NIST. В Национальной стратегии ИИ РФ (п. 8) отсутствие понимания работы ИИ отмечено как барьер развития.

       Технологические аспекты ответственности фокусируются на инструментах для обеспечения прослеживаемости (traceability) и аудита ИИ. В 2025 году прогресс в XAI позволяет "раскрывать" black box, делая модели более подотчётным. Например, использование блокчейна для логирования решений ИИ обеспечивает неизменяемость данных, а автоматизированные аудиты (например, в ЕС AI Act) помогают выявлять риски на этапе развертывания. Однако вызовы остаются: Генеративный ИИ как DeepSeek-R1 в Китае усложняет прослеживаемость из-за динамичности. В Стратегии ИИ Таджикистана подчеркивается, что "Технологии искусственного интеллекта создают возможность для того, чтобы в ближайшие годы структура экономики и образ жизни людей кардинально изменились" (п. 8), но для прослеживаемости правовая и кадровая база еще не сформирована (п. 30). В Национальной стратегии ИИ РФ (п. 21) ИИ имеет "сквозной" характер в экономике, способствуя оптимизации процессов.

       Мнения экспертов варьируются по регионам. В Европе ученые подчеркивают необходимость строгого регулирования: например, в отчете Европарламента отмечается структурный разрыв между существующими нормами о гражданской ответственности и вызовами автономных ИИ-систем, предлагая адаптацию деликтное право. Профессор из Йеля критикует ослабление AI Act под политическим или корпоративным влиянием влиянием (лобби), что снижает защиту от рисков. Принуждение, обеспечение соблюдения считается ключевым для глобального влияния AI Act.  В Модельном законе СНГ принцип антропоцентричности подчеркивает приоритет прав человека.

       В Азии мнения фокусируются на балансе инноваций и контроля: в Казахстане юристы обсуждают возможность наделения ИИ правовой субъектностью для распределения ответственности. В Японии эксперты подчеркивают умеренный подход, используя существующие рамки без жестких новых законов. Китайские ученые анализируют фреймворк регулирования, акцентируя соблюдение норм и принуждение для предотвращения неправомерного использования.  Фреймворк (от англ. framework — структура, каркас) в контексте регулирования ИИ обозначает систематизированную совокупность правил, принципов, стандартов и процедур, которые формируют основу для управления, контроля и использования ИИ.

       В Америке преобладает децентрализованный подход: гарвардские юристы предлагают совместное управление для диффузных эффектов ИИ, отвергая регулирования сверху вниз (top-down regulation). Профессор Кристина Фрохок предупреждает о рисках фейковых цитат в юридических исследованиях с ИИ. Эксперты ACUS рекомендуют лучшие практики для ИИ в обеспечении соблюдения нормативных требований, балансировании рисков и обещаний.

       В Африке акцент делается на этике и правах человека: ученые подчеркивают роль человечности (Ubuntu) в этике ИИ, критикуя западоцентричные рамки и призывая к африканским перспективам. Эксперты предупреждают о рисках негативной реакции в сфере прав человека при отсутствии правовых механизмов. Африканская обсерватория по ответственности ИИ подчеркивает необходимость этических ограничений для предотвращения предвзятости. Континентальная стратегия Африканского союза считает законы о защите данных ключевыми для управления ИИ.

       Этические вопросы тесно связаны с правовыми и технологическими. ИИ-системы могут усиливать предвзятость, например, при принятии решений о кредитовании или найме, что приводит к дискриминации. В России Центральный банк разработал Кодекс этики использования ИИ в финансовом секторе (2025), который обязывает компании минимизировать риски предвзятости на основе принципов человекоцентричность (human-centricity), справедливость (fairness) и прозрачность (transparency).  Еще одна этическая проблема — использование ИИ для создания дезинформации, например, дипфейков или "отравления" моделей (как в российских кампаниях 2025). Законодательство в России и других странах начинает вводить ответственность за распространение такого контента, но определение виновных остается сложным, особенно если ИИ действует автономно. Технологии XAI помогают этически: они позволяют проверять на предвзятость (bias) до развертывания. Этика  в Стратегии Таджикистана  по  развитию ИИ  указана как приоритет: “Искусственный интеллект должен быть ориентирован на развитие и защиту человека, быть простым в использовании, понятным и полезным” (п. 59). В Национальной стратегии ИИ РФ предлагается разработка этических правил взаимодействия человека с ИИ (п. 49). В Модельном законе СНГ принцип предосторожности (ст. 14) и этические нормы подчеркивают минимизацию рисков.

       Вопрос ответственности за действия ИИ остается одним из самых сложных в правовой науке и практике. Существующие правовые рамки, такие как AI Act в ЕС или российские экспериментальные режимы, являются лишь первыми шагами к решению этой проблемы. Необходимы дальнейшие исследования и разработка новых правовых категорий, таких как субъектность ИИ, а также усиление этических стандартов и технологических инструментов вроде XAI. В условиях стремительного развития технологий ИИ международное сотрудничество и гармонизация законодательства станут ключевыми факторами для обеспечения справедливой и эффективной ответственности. В Стратегии ИИ Таджикистана "Основная цель Стратегии в период реализации — достижение 5% валового внутреннего продукта за счет внедрения технологий искусственного интеллекта" (п. 56), что подчеркивает экономический аспект ответственности. В Модельном законе СНГ принцип солидарной ответственности (ст. 15) и управление рисками (ст. 21–24) предлагают рамки для СНГ, включая Таджикистан.

       Для решения проблем ответственности за действия ИИ предлагаем следующие меры: 

1. Разработка специализированного законодательства. Создание международных и национальных норм, четко определяющих ответственность за действия ИИ. В Таджикистане это может быть реализовано через дополнения к Гражданскому кодексу РТ и принятие отдельного закона «Об искусственном интеллекте». В Стратегии ИИ Таджикистана "Разработка проекта Закона Республики Таджикистан "Об искусственном интеллекте""" предусмотрено (п. 47). 

2. Сертификация ИИ-систем. Введение обязательной сертификации высокорисковых систем, как в ЕС, с четкими требованиями к прозрачности и безопасности, включая XAI. 

3. Страхование рисков ИИ. Создание страховых продуктов для покрытия ущерба, причиненного ИИ, что позволит распределить финансовую ответственность. 

4. Международное сотрудничество. Гармонизация стандартов ответственности между странами для предотвращения правовых конфликтов, особенно в трансграничных кейсах, включая глобальные XAI-стандарты. 

5. Образование и повышение осведомленности. Обучение юристов, разработчиков и операторов ИИ основам этики, правового регулирования и технологий XAI.

 

САНГИНЗОДА Дониёр

заместитель директора Института изучения проблем стран

Азии и Европы НАНТ по науке и учебе

доктор юридических наук, профессор.

БОЗГАШТ