Что происходит, если система ИИ причиняет ущерб, и кто несет ответственность за последствия
Хотим мы это принимать или нет, искусственный интеллект играет в нашем обществе более важную роль, чем когда-либо прежде. От медицинских диагнозов до финансовых решений – системы ИИ все чаще берут на себя задачи, выполняемые людьми.
I. К чему могут привести ошибки ИИ на производстве?
- утечка данных сотрудников/потребителей;
- ошибки в производстве, наносящие ущерб потребителю, – к примеру, некачественный товар;
- травмы на производстве;
- финансовые потери (в связи с простоями техники или участившимся браком товаров);
- и иные
II. Субъекты ответственности
Регулирование в ЕС – на передовой, но со своими трудностями
В ЕС искусственный интеллект регулируется Регламентом (ЕС) 2024/1689 от 13 июня 2024года, которым был принят Акт об искусственном интеллекте (AI Act). Это первый в мире комплексный нормативный акт, регулирующий ИИ. При этом данный документ фактически опускает вопросы ответственности за ошибки, допущенные ИИ в рамках его работы, что порождает множество вопросов. В развитие данного вопроса в ЕС подготовили проект Директивы об ответственности ИИ, которая должна была предусмотреть различные меры ответственности за ущерб, причиненный искусственным интеллектом. Вместе с тем, в феврале этого года директива была отозвана. В качестве причины обозначили следующее – не смогли договориться заинтересованные стороны; также оказали влияние и призывы к упрощению регулирования в цифровом секторе.
Таким образом, в ЕС на данный момент основное регулирование ответственности за ошибки ИИ представляет акт общего характера – Директива ЕС об ответственности за дефектную продукцию (EU Directive on Liability for Defective Products, далее –Директива). Основные положения Директивы, на которые стоит обратить внимание:
- Директива применяется к автономному ПО, в том числе ИИ-системам, за некоторыми исключениями;
- мера ответственности по Директиве – компенсация ущерба;
- любое лицо, имеющее право на компенсацию, может предъявить иск: (i) производителю дефектного продукта; и (ii) производителю дефектного компонента – в определенных случаях. Если производитель находится за пределами ЕС, иски могут быть также предъявлены: (i) импортеру; (ii) уполномоченному представителю производителя ;или (iii) поставщику услуг по выполнению заказов. Предусмотрена солидарная ответственность;
- бремя доказывания дефектности продукта, ущерба и причинной связи между дефектностью и ущербом лежит на пострадавшем;
- для выплативших компенсацию установлено право предъявить регрессное требование виновному в ущербе;
- интересный факт – в качестве основания для освобождения от ответственности Директива предусматривает следующее обстоятельство: объективное состояние научно-технических знаний на момент вывода продукта на рынок или ввода его в эксплуатацию, либо в течение периода, когда продукт находился под контролем производителя, не позволяло обнаружить дефект, нанесший ущерб.
Следует отметить, что Директива не обладает нормативным действием на территории стран-членов и должна имплементироваться в национальные законодательства.
Модельный закон СНГ – тенденции развития законодательств в регионе
В апреле 2025 года был принят модельный закон СНГ «О технологиях искусственного интеллекта» – рекомендательный акт, который может использоваться государствами-участниками при разработке национального законодательства в сфере ИИ.
Основные положения:
- закон распространяет свое действие на технологии ИИ и системы с использованием ИИ;
- закон вводит принцип абсолютной и солидарной ответственности, в соответствии с которым:
1) устанавливается принцип абсолютной ответственности (то есть, ответственность наступает вне зависимости от вины) в сфере отношений, связанных с высокорисковыми технологиями ИИ;
2) устанавливается солидарная ответственность собственников, владельцев, разработчиков и операторов ИИ-технологий;
- предусмотрена возможность привлечения к ответственности в соответствии с нормами уголовного, административного, гражданского и трудового законодательства (при этом конкретные составы правонарушений должны определяться национальным законодательством);
- закрепляется необходимость страхования рисков, связанных с ошибками ИИ (перечень технологий ИИ, подлежащих страхованию, должен определяться на основе национального законодательства уполномоченным государственным органом);
- допускается взаимное страхование с возможностью установления особых условий для страхования рисков причинения вреда во время тестирования и опытной эксплуатации отдельных категорий технологий ИИ.
Ситуация в Беларуси – как сейчас в теории можно урегулировать ошибку, допущенную ИИ на производстве?
На данный момент в белорусском законодательстве отсутствует специальное регулирование ответственности за ущерб, причиненный ошибками ИИ-систем. Существует множество концепций, может ли человек нести ответственность за ошибки робота, в особенности, когда речь идет про работу высоко-автономных систем. Основной подход в настоящее время – ответственность за действия автономных систем несет человек/компания. Так, привлечены к ответственности за причиненный ущерб могут быть:
- компания, создавшая с помощью ИИ некачественный товар, который нанес ущерб (например, ответственность возможна по Закону «О защите прав потребителей») / компания, внедрившая в производство ИИ и неспособная обеспечить безопасные условия труда (при нанесении ущерба сотруднику предприятия). Возможно привлечение к ответственности руководителя организации или иного лица, ответственного за безопасность оборудования и т.д. (например, программист в компании, отвечающий за техническую поддержку ПО);
- компания-разработчик ИИ, интегрированного в производство (возможно предъявление требований в порядке регресса). Важный момент – предприятие должно быть в состоянии доказать, что дефекты в продукции/ иные ошибки были вызваны именно некачественно разработанной ИИ-системой.
III. Страхование рисков
На сегодняшний день в Беларуси отсутствует практика страхования рисков, связанных с использованием ИИ-технологий.
При этом некоторые страны активно начали внедрять страхование в сфере ИИ.
Так, например, на страховом рынке Lloyd`s of London начали предлагать страховку, которая покрывает риски и/или убытки, связанные с ошибками чат-ботов и других инструментов искусственного интеллекта.
Существует мнение, что страхование ответственности при использовании ИИ вписывается в общую концепцию страхования киберрисков. На мировом рынке уже существуют специализированные страховые продукты, такие как киберстрахование, страхование профессиональной ответственности и страхование технологических рисков, которые покрывают убытки от инцидентов с участием ИИ. Например, похожие продукты уже есть в России, причем они могут быть адаптированы для покрытия рисков, связанных с ИИ. Однако пока что рынок находится в начале своего развития.
В тоже время, положения о страховании подобных рисков закреплены и в модельном законе СНГ.
Можно ожидать, что в ближайшие годы белорусское законодательство будет адаптировано с учётом мировых тенденций, а страховые организации начнут разрабатывать специализированные продукты для покрытия убытков, возникающих вследствие применения ИИ в промышленности.


