О чем материал:
Алгоритм отказал клиенту в кредите, HR-система рекомендовала увольнение, беспилотник стал участником ДТП. Во всех этих случаях вред причинен решением машины, но традиционное процессуальное право не дает ответа, к кому предъявлять иск и как доказывать вину.
В России нет специального закона об ответственности за вред от ИИ, судебная практика только формируется. Юристам приходится адаптировать существующие процессуальные институты к новой реальности. В этой статье разберем процессуальные особенности дел с участием ИИ.
Определение надлежащего ответчика
Первая процессуальная проблема в спорах с участием ИИ — определение надлежащего ответчика. Алгоритм не обладает правосубъектностью и не может быть стороной в процессе. Ответственность за решения искусственного интеллекта должно нести конкретное лицо — человек или организация.
Действующее законодательство предлагает два подхода. Первый — применение общих норм деликтной ответственности по статье 1064 ГК РФ, где вред возмещается при наличии вины. Второй — ответственность за вред от источника повышенной опасности по статье 1079 ГК РФ, где ответственность наступает независимо от вины. Выбор правовой конструкции определяет стратегию иска к разработчикам алгоритмов или операторам систем.
Цепочка ответственности: разработчик, оператор, пользователь
Потенциальными ответчиками выступают три категории лиц. Выбор зависит от того, на каком этапе возникла причина вреда.
Разработчик несет ответственность при дефекте в программном коде, архитектуре нейросети или обучающих данных. Типичные примеры: ошибка в логике принятия решений, дискриминационные паттерны в обучающей выборке, несоответствие документации фактическому поведению системы. Гражданская ответственность за действия роботов и алгоритмов в таких случаях ложится на того, кто создал дефектную технологию.
Оператор эксплуатирует ИИ-систему и принимает решения на основе ее выводов. Его ответственность возникает при ненадлежащей эксплуатации: использование не по назначению, игнорирование предупреждений алгоритма, отсутствие человеческого контроля. Пример — банк, который использует скоринг для автоматического отказа в кредите без проверки сотрудником.
Пользователь несет ответственность, когда вред вызван его действиями: введение заведомо ложных данных, обход защитных механизмов, использование ИИ в противоправных целях.
| Категория ответчика | Критерии ответственности | Примеры |
| Разработчик | Дефект кода, архитектуры или обучающих данных | Ошибка в алгоритме скоринга, дискриминационные паттерны |
| Оператор | Ненадлежащая эксплуатация, отсутствие контроля | Автоматический отказ без проверки человеком |
| Пользователь | Умышленные действия при взаимодействии | Введение ложных данных, обход защиты |
Часто вред обусловлен совокупностью факторов на разных уровнях. В таких случаях возможно привлечение нескольких ответчиков к солидарной ответственности.
Алгоритм как источник повышенной опасности
Исследователи цифрового права проводят аналогию с транспортными средствами: как автомобиль может причинить вред независимо от воли водителя, так и алгоритм способен принять решение, последствия которого не контролируют ни разработчик, ни оператор.
Согласно статье 1079 ГК РФ, лица, деятельность которых связана с повышенной опасностью, обязаны возместить вред, если не докажут, что он возник вследствие непреодолимой силы или умысла потерпевшего. Перечень источников повышенной опасности в законе открытый, и судебная практика расширяет его по мере появления новых технологий.
Аргументы в пользу признания ИИ источником повышенной опасности:
- автономность принятия решений (система действует без непосредственного контроля человека),
- непредсказуемость поведения (даже разработчики не всегда предсказывают решение нейросети),
- потенциальный масштаб вреда (одна ошибка может затронуть тысячи людей).
Специфика доказывания: открытие «черного ящика»
Современные нейросети представляют собой «черный ящик» (black box): они обрабатывают данные и выдают результат, но промежуточные этапы непрозрачны. Истец должен доказать некорректную работу алгоритма, но не имеет доступа к коду и обучающим данным. Ответчик владеет всей технической информацией, но не заинтересован в раскрытии. Доказывание в спорах с нейросетями затруднительно или чрезмерно дорого для потерпевших.
Преодолеть асимметрию помогают судебная экспертиза, истребование доказательств, анализ и аудит системных логов.
Судебная экспертиза нейросетей: вопросы эксперту и аудит логов
Судебная экспертиза алгоритмов — относительно новое направление. Единых методик пока не существует, но работа над ними ведется.
В 2020 году Росстандарт совместно с Минэкономразвития утвердил первую программу стандартизации в области ИИ на 2021–2024 годы. За это время разработано около 100 ГОСТов в сфере искусственного интеллекта. В 2026 году Росстандарт продолжит разработку стандартов в сфере ИИ.
Для исследования алгоритма суд назначает судебную экспертизу. Эксперта выбирают из числа специалистов, обладающих познаниями в области машинного обучения и опытом работы с соответствующим классом систем. Суд может поручить экспертизу государственному экспертному учреждению, частной организации или конкретному специалисту по предложению сторон. При назначении стороны и суд формулируют вопросы, на которые эксперт должен ответить. От точности формулировок зависит, получит ли суд информацию, необходимую для разрешения спора.
Примерные формулировки для экспертизы ИИ-систем:
- Каков алгоритм работы исследуемой системы при принятии решения о [конкретное решение]?
- Соответствует ли логика работы алгоритма заявленным техническим характеристикам и документации?
- Содержат ли обучающие данные элементы, которые могли привести к ошибочному результату?
- Возможно ли установить причинно-следственную связь между [входным параметром] и [выходным решением]?
- Фиксировались ли в логах системы события, относящиеся к [дата и время спорного решения]?
- Имеются ли в программном коде дефекты, которые могли привести к [описание вреда]?
Эксперт анализирует системные логи — журналы, в которых ИИ-система фиксирует свою работу. Логи показывают, какие данные поступили, как алгоритм их обработал и какое решение выдал. Эта информация помогает восстановить цепочку событий и понять, где произошел сбой. Чтобы суд принял заключение эксперта, методика исследования должна быть воспроизводимой (другой эксперт при тех же условиях получит тот же результат) и прозрачной (ход исследования можно проверить).
Конфликт права на защиту кода и принципа состязательности
Для доказывания дефекта алгоритма истцу может потребоваться доступ к исходному коду системы. Истец заявляет ходатайство об истребовании доказательств, и суд обязывает ответчика предоставить код для экспертизы. Однако ответчик, как правило, возражает: алгоритмы ИИ часто составляют главный актив компании, и их раскрытие конкурентам может причинить многомиллионные убытки. Возникает конфликт между правом истца на доступ к доказательствам и правом ответчика на защиту коммерческой тайны.
Российское законодательство предлагает механизмы для защиты интересов обеих сторон. Суд может провести закрытое заседание для исследования кода, чтобы информация не стала публичной. Участников процесса предупреждают об уголовной ответственности за разглашение коммерческой тайны. Эксперта обязывают подписать соглашение о неразглашении. Эти меры позволяют истцу получить доступ к цифровым доказательствам в процессе, а ответчику — сохранить конфиденциальность за пределами процесса.
Распределение бремени доказывания
Даже если истцу удалось получить доступ к коду и назначить экспертизу, остается вопрос: на ком лежит обязанность доказать вину или ее отсутствие.
По общему правилу российского права истец должен доказать четыре элемента: факт причинения вреда, противоправность действий ответчика, причинно-следственную связь и вину. В спорах с ИИ это правило работает против потерпевшего: доказать вину разработчика или дефект алгоритма без доступа к документации практически невозможно.
Презумпция вины разработчика в High-Risk AI системах
Европейское законодательство предлагает иной подход. EU AI Act (Регламент ЕС об искусственном интеллекте), вступающий в полную силу с 2026 года, делит все ИИ-системы на категории по степени опасности: чем выше риск для человека, тем строже требования к разработчику и тем проще потерпевшему доказать вину.
Высокорисковыми (High-Risk AI) признаются системы, способные существенно повлиять на права и свободы человека: системы биометрической идентификации, ИИ в медицинской диагностике, алгоритмы для принятия решений о найме и увольнении, скоринговые модели банков, системы правоприменения. Любая система, которая составляет «профиль» человека на основе его данных, автоматически попадает в эту категорию.
Для высокорисковых систем EU AI Act устанавливает жесткие требования: разработчик обязан документировать архитектуру системы, вести логи всех решений, обеспечить прозрачность работы алгоритма, предусмотреть возможность человеческого контроля. Если эти требования не соблюдены и система причинила вред, действует презумпция вины разработчика или оператора. Потерпевшему не нужно доказывать конкретный дефект — достаточно показать, что система не соответствовала требованиям.
Требование объяснимости решений как процессуальный стандарт
Одна из главных проблем нейросетей — они не могут «объяснить» свои решения. Система выдает результат, но почему именно такой, непонятно даже разработчикам. Концепция объяснимого ИИ (Explainable AI, сокращенно XAI) призвана решить эту проблему: алгоритм должен не просто принять решение, но и показать, какие факторы на него повлияли.
В юридическом контексте XAI превращается из технической концепции в процессуальное требование. Статья 86 EU AI Act закрепляет право на объяснение решения ИИ: человек может получить «ясные и содержательные объяснения роли ИИ-системы в принятии решения». Пример: если банк отказал в кредите на основе скоринговой модели, заявитель вправе узнать, какие факторы (возраст, доход, кредитная история) повлияли на отказ и с каким весом.
В российском праве прямого аналога нет, но близкие нормы содержатся в законодательстве о персональных данных. Субъект имеет право не подвергаться решению, основанному только на автоматизированной обработке, если это решение порождает юридические последствия. На практике это означает: если алгоритм принял решение, затрагивающее права человека, человек может потребовать пересмотра с участием живого специалиста. Обжалование автоматизированных решений становится инструментом защиты прав граждан.
Требование объяснимости можно использовать в процессе несколькими способами. Досудебное обращение к оператору с требованием объяснить решение создает доказательственную базу: если оператор отказывает или дает неубедительное объяснение, это можно использовать в суде. В ходе процесса можно заявить ходатайство об истребовании документации о логике работы алгоритма. Если ответчик уклоняется от раскрытия информации, суд вправе признать факт, для выяснения которого истребовалась информация, установленным.
Новые виды обеспечительных мер и исполнение решений
Пока идет судебный процесс, ИИ-система может продолжать работать и причинять вред другим людям. Обеспечительные меры позволяют «заморозить» ситуацию до вынесения решения.
Традиционные меры — арест имущества или запрет совершать определенные действия — применимы и к спорам с ИИ. Однако они требуют адаптации к специфике цифровых объектов.
Судебный запрет на использование нейросети
Суд может запретить использование ИИ-системы, если ее эксплуатация продолжает причинять вред. Технически это означает, что ответчик должен прекратить запуск алгоритма для принятия решений. Пример: если скоринговая модель систематически дискриминирует определенную группу заявителей, суд может запретить банку использовать эту модель до рассмотрения дела по существу.
Предмет запрета зависит от обстоятельств. Полный запрет использования целесообразен, когда любое применение алгоритма создает угрозу вреда. Частичный запрет (в отношении определенной категории субъектов) применим, когда система дискриминирует конкретную группу лиц. Запрет автоматического принятия решений без человеческого контроля подходит для случаев, когда проблема не в самом алгоритме, а в отсутствии проверки его выводов.
«Заморозить» нейросеть — значит прекратить ее использование и сохранить текущее состояние для последующей экспертизы. Контроль исполнения такого запрета может потребовать привлечения технического специалиста: судебный пристав, как правило, не обладает познаниями для проверки того, действительно ли система отключена.
Для удовлетворения ходатайства об обеспечительных мерах истец должен показать, что без принятия мер исполнение будущего решения станет затруднительным, и что запрашиваемые меры соразмерны заявленным требованиям.
Принудительное изменение логики модели по решению суда
Суд может обязать ответчика изменить алгоритм. Это относится к категории решений о понуждении к совершению определенных действий. Однако исполнение такого решения сопряжено с техническими сложностями.
Переобучение нейросети — процесс, результат которого зависит от множества факторов: новых обучающих данных, архитектуры модели, настроек обучения. Невозможно гарантировать, что после переобучения система будет работать именно так, как предписал суд. Исправление одной проблемы может создать другие.
Поэтому на практике альтернативные способы исполнения могут оказаться эффективнее. Возмещение вреда от ошибок ИИ в денежной форме проще в исполнении и не требует изменения алгоритма. Запрет использования системы до устранения дефекта стимулирует ответчика самостоятельно решить проблему. Обязанность обеспечить человеческий контроль над решениями алгоритма подходит для случаев, когда проблема не в самой системе, а в автоматизации принятия решений без проверки.
Запишитесь на курс «Юрист в сфере IT». Обучение стартовал уже 22 января: кейсы от практиков, актуальные гайды и удостоверение о повышении квалификации. Сделайте шаг в цифровое право сейчас, чтобы расти вместе с рынком.





