О чем материал?
Искусственный интеллект (ИИ) уже сегодня работает на благо общества: помогает врачам ставить точные диагнозы, оптимизирует работу городского транспорта, ускоряет получение услуг, внедряется в отрасли экономики. Но по мере его развития растет и обеспокоенность: как обеспечить безопасность ИИ-систем? Как не допустить дискриминации или злоупотреблений?
Во всем мире идет поиск ответов на эти вопросы: формируется правовая база, создаются стратегии и политики. В статье разберем, почему регулирование ИИ необходимо, как оно выглядит в России и других странах сегодня и что делать бизнесу, чтобы использовать технологии безопасно и эффективно.
Текущее регулирование ИИ в России
Действующие законы и инициативы
Первый шаг к формализации подхода к ИИ был сделан в 2019 году, когда вышел Указ Президента №490 «О развитии искусственного интеллекта в Российской Федерации». Документ закрепил официальное определение ИИ в российском законодательстве. Он же стал фундаментом для Национальной стратегии развития искусственного интеллекта до 2030 года. Документ конкретизирует направления работы органов публичной власти, вводит главные термины и закрепляет целевые показатели.
Согласно стратегии:
- объем услуг в сфере ИИ должен вырасти с 12 до 60 млрд рублей к 2030 году;
- число выпускников вузов в области нейросетей увеличится с 3 000 до 15 500 человек;
- доля отраслей с высокой готовностью к внедрению ИИ вырастет с 12% до 95%;
- ИИ должен быть глубоко интегрирован в процессы цифровой трансформации публичной власти;
- на платформе «Гостех» появится реестр доверенных ИИ-технологий, прошедших апробацию;
- будет обеспечен доступ разработчиков к обезличенным персональным данным, а также подготовлено нормативно-правовое регулирование, устраняющее барьеры для создателей программного обеспечения при одновременном соблюдении требований к информационной безопасности.
Пилотные проекты и эксперименты
Основная роль в регулировании и развитии ИИ сегодня принадлежит Минцифры и Роскомнадзору. В министерстве завершается работа над Концепцией развития регулирования искусственного интеллекта до 2030 года. Документ уделяет внимание вопросам этики, контроля человека над ИИ и рисков, связанных с автономным поведением нейросетей.
Одновременно в правительстве реализуется направление по внедрению ИИ в сферы от государственного управления до социальной инфраструктуры. Разрабатываются доверенные ИИ-решения для федеральных и региональных ведомств. По данным аналитиков, которые приводит «КоммерсантЪ», из 43% российских компаний, уже применяющих нейросети, лишь 36% обеспечили им необходимую защиту от рисков и утечек. Кибербезопасность явно требует большего внимания.
Пока одни ведомства разрабатывают концепции, другие внедряют технологии. Например, в Москве в 2022 году запустили спецпроект о технологиях ИИ, а к 2024 году город обучил и внедрил около 300 моделей ИИ.
Примеры ИИ-решений:
- Здравоохранение: ИИ помогает выявлять патологии на снимках и формулировать предварительные диагнозы.
- Транспорт: интеллектуальные системы управления и помощь пассажирам.
- Городское хозяйство: чат-боты и цифровые ассистенты.
- Строительство: генеративное проектирование.
Также Москва открыла доступ к 25 датасетам, с которыми могут работать разработчики и исследователи, подавая заявки на использование городских данных.
Чтобы не пропустить новые материалы «MDS Media», подписывайтесь на наш Телеграм-канал.
Законопроект об ИИ: основные положения
В профессиональном сообществе сейчас обсуждается законопроект «О регулировании систем искусственного интеллекта (ИИ) в России», который разработан для реализации Национальной стратегии развития ИИ до 2030 года. В профильную рабочую группу, который занимается данным проектом, вошли юристы, представители консалтинговых компаний и участники рынка ИИ.
Ключевые тезисы нового закона
Законопроект вводит юридические определения понятий: «искусственный интеллект», «технологии искусственного интеллекта», «система искусственного интеллекта» и «генеративный искусственный интеллект». Также в проекте закреплены роли и статусы участников: разработчики, операторы, пользователи. Это призвано зафиксировать правовую определенность.
На раннем этапе обсуждалась возможность классификации ИИ-систем по четырем уровням риска: неприемлемый, высокий, ограниченный и минимальный. Но после предложение отклонили, так как посчитали слишком жестким. Рабочая группа пришла к выводу, что закон должен иметь рамочный характер, чтобы не тормозить развитие ИИ-технологий.
Предлагаемые требования к разработчикам и операторам ИИ-систем:
- Обязательная маркировка ИИ-систем и создаваемого с их помощью контента. Пользователь должен быть явно и недвусмысленно проинформирован о взаимодействии с ИИ. Правила маркировки устанавливаются оператором системы.
- Вопросы авторского и интеллектуального права: если результат создан исключительно генеративной ИИ-системой, имущественные права принадлежат оператору на срок до 10 лет. В случае, если человек внес существенный творческий вклад (например, задавал параметры или осуществлял отбор результатов), исключительное право на продукт закрепляется за этим человеком.
В случае причинения вреда при использовании ИИ-систем, ответственность за его возмещение наступает по общим нормам гражданского законодательства с учетом особенностей работы ИИ и степени осмотрительности при его эксплуатации.
Обязанности бизнеса и госорганов
- Регистрация и сертификация ИИ-систем
С 2025 года бизнес и государственные организации обязаны внедрять ИИ только при условии соблюдения новых регуляторных требований. В первую очередь, это касается обязательной регистрации и сертификации ИИ-систем. Например, государственные медицинские учреждения могут использовать только те ИИ-решения, которые зарегистрированы в Росздравнадзоре как медицинские изделия. Все ИИ-системы, независимо от отрасли, подлежат сертификации на соответствие национальным стандартам, что должно подтвердить их безопасность и надежность.
- Контроль за данными, используемыми для обучения
Особое внимание в законодательстве уделено безопасности обработки персональных данных. Минцифры разрабатывает единый стандарт обработки таких данных в ИИ-системах. Компании, внедряющие ИИ, обязаны обеспечить:
- обязательное шифрование персональных данных,
- многофакторную аутентификацию пользователей,
- регулярный аудит безопасности ИИ-систем,
- строгий контроль доступа к информации.
Эти меры направлены на снижение рисков неправомерного использования чувствительной информации при обучении ИИ.
- Отчетность перед регуляторами
Организации несут ответственность за использование ИИ-систем, в том числе — административную и уголовную, особенно в высокорисковых сферах (например, здравоохранении). Бизнес обязан:
- обеспечивать прозрачность работы ИИ,
- разрабатывать механизмы объяснения принимаемых ИИ-решений,
- обеспечивать возможность оспаривания решений ИИ со стороны пользователей.
Также особую роль играет обязательная маркировка продукции, созданной или обработанной с помощью ИИ. Это служит элементом публичной отчетности и механизмом защиты прав потребителей.
Ограничения и спорные моменты
Запрет на отдельные виды ИИ, включая deepfake
Одна из мер, которую обсуждают в российском регулировании — запрет на использование систем, потенциально опасных с точки зрения обмана и манипуляции. Прежде всего стоит вопрос о deepfake-технологиях (создание поддельных видео и аудио с имитацией внешности и голоса реальных людей), которые активно применяются в мошеннических схемах. Предполагается, что такие сценарии должны прямо запрещаться, особенно если речь идет об использовании технологии без согласия изображенного лица (в политическом шантаже, фейковых новостях или имитации телефонных звонков от имени родственников).
Многие ИИ-разработки в России связаны с зарубежными инфраструктурными решениями: нейросетевые фреймворки, графические процессоры, облачные сервисы и пр. После 2022 года доступ ко многим из них оказался ограничен.
Даже при наличии прогрессивного законодательства компании могут испытывать трудности с технической реализацией требований. Например, в части аудита моделей или обеспечения полной автономности в обучении. Без доступа к глобальному технологическому стеку или open-source инфраструктурам российским разработчикам будет сложно соответствовать стандартам безопасности, которые формируются на международном уровне.
Другое опасение, которое высказывают представители ИТ-отрасли, высказывают опасения — чрезмерно детализированное законодательство может задушить молодые компании и стартапы, у которых нет ресурсов на юридическое сопровождение, дорогостоящие аудиты или обязательную сертификацию.
Требования законопроекта, например, обеспечить «понятность» решений ИИ могут быть просто технически невыполнимы. Многие алгоритмы работают как «черный ящик», и объяснить, почему система выдала тот или иной результат, бывает крайне сложно или невозможно. В результате под угрозу могут попасть рекомендательные сервисы, голосовые помощники и генеративные модели.
Международный контекст
Аспект | Европейский союз (AI Act) | США |
Подход к регулированию | Единый закон (AI Act) с категоризацией ИИ-систем по уровням риска | Разрозненные меры: указ президента, добровольные обязательства компаний, законы на уровне отдельных штатов |
Классификация ИИ | 4 уровня риска: Запрещенные — Высокий риск — Ограниченный риск — Минимальный риск | Единой классификации нет; акцент на безопасность, защиту прав и технические меры |
Примеры регулирования | Запрет систем социального рейтинга; строгий контроль ИИ в HR, медицине, распознавании лиц | Указ Байдена: стресс-тесты, защита прав, водяные знаки для ИИ-контента; штаты — запреты дипфейков, аудит в HR |
Обязательные требования | Зависят от категории риска: от запрета до обязательной сертификации и контроля | Частично: в основном — добровольные обязательства компаний и локальные законы штатов |
Ответственность компаний | Жесткие требования к прозрачности, безопасности, надзору | Добровольная ответственность (например, у Google, Microsoft, OpenAI); на уровне штатов — отдельные юридические нормы |
Пометка ИИ-контента | Требование обсуждается | Упоминается в указе Байдена и среди обязательств компаний — например, водяные знаки и метки для ИИ-контента |
Цель регулирования | Защита прав, предотвращение вреда, доверие к ИИ-системам | Безопасность, защита гражданских прав, предотвращение злоупотреблений, поддержка инноваций |
Сферы особого внимания | Медицина, HR, правосудие, инфраструктура | Труд, кибербезопасность, дипфейки, защита прав потребителей |
Роль государства и бизнеса | Государство — основной регулятор, бизнес обязан соблюдать правила | Государство задает рамки, бизнес участвует через саморегулирование и партнерства |
Возможности для сотрудничества, несмотря на санкции
Несмотря на ограничения, российские разработчики сохраняют возможности участия в международных проектах. ИИ-разработки базируются на открытом исходном коде, не подпадающем под санкции, что позволяет использовать и адаптировать глобальные ресурсы.
Россия активно развивает свои ИИ-экосистемы через отечественные инициативы. В 2022 году Технологический центр исследования безопасности ядра Linux объединил работу разработчиков из более чем 20 российских компаний-партнеров, среди которых Astra Linux, «Базальт», «Ред Софт», «Роса», «Байкал Электроникс», «Яндекс.Облако» и многие другие.
Российская компания Postgres Professional сейчас контрибьютор в мировой проект по разработке базы данных. Каждый год команда компании вносит в сообщество больше ста правок кода (патчей). В 2022 году по объему вклада Postgres Professional обогнала мировых гигантов Microsoft, Amazon, Fujitsu, Google, Apple.
Подготовка к изменениям: что делать бизнесу
- Провести аудит ИИ-моделей
Оцените, какие ИИ-системы используются, как они обучались, на каких данных работают, соответствуют ли они законодательству, прозрачны ли их решения. Так вы выявите юридические, этические риски и сможете своевременно их устранить. - Внедрить этические принципы разработки и использования ИИ
Зафиксируйте внутри компании базовые принципы: недопустимость дискриминации, приоритет прав человека, прозрачность и безопасность решений, ответственность разработчиков. Это повысит доверие и приблизит к соответствию международным стандартам. - Выстроить взаимодействие с регуляторами
Следите за обновлением законодательства, участвуйте в обсуждении правил (если возможно), выстраивайте диалог с профильными ведомствами, чтобы заранее подготовиться к требованиям и влиять на их формирование.
FAQ: Ответы на частые вопросы
Нужно ли регистрировать ИИ-систему?
В России есть возможность зарегистрировать программу с искусственным интеллектом в реестре российского ПО. Для этого нужно подтвердить, что проект относится к сфере ИИ. Критерии прописаны в Приказе Министерства экономического развития РФ от 29.06.2021 №392.
Какие штрафы за нарушение закона об ИИ?
Отдельных штрафов за нарушение нет, потому что пока не действует закон об ИИ.
Как закон повлияет на ChatGPT и другие сервисы?
В случае принятия закона:
- ChatGPT и подобные модели (голосовые ассистенты, генераторы изображений, видео и текста) могут быть отнесены к ограниченно рискованным или высокорисковым, в зависимости от области применения.
- Могут возникнуть обязательства по маркировке ИИ-контента и информированию пользователей о том, что они взаимодействуют с ИИ.
- Поставщики таких систем могут быть обязаны раскрывать информацию об алгоритмах, источниках данных и механизмах принятия решений.
- Российские пользователи и компании, использующие такие ИИ, тоже могут подпадать под требования закона — в части ответственности за применение ИИ и защиты данных.
Заключение
Россия уверенно движется к регулированию ИИ. Пока закон еще не принят, но направление определено: акцент на безопасность, прозрачность и ответственность. Это означает, что в ближайшие годы ИИ-системы могут попасть под обязательную регистрацию, оценку рисков и контроль со стороны государства.
С одной стороны, такие меры могут повысить доверие к технологиям со стороны бизнеса, пользователей и государства. С другой, чрезмерное регулирование рискует замедлить развитие инноваций, особенно для небольших команд и стартапов. Как будет на практике — покажет реальное действие закона.
Юристам и технологическим компаниям стоит внимательно следить за развитием законопроекта. От своевременного понимания требований будет зависеть их конкурентоспособность. Уже сейчас полезно прокачивать навыки на стыке права и ИИ. Например, на курсе «Юрист в сфере IT» от Moscow Digital School вы разберетесь в сопровождении цифровых продуктов — от защиты интеллектуальной собственности до создания IT-компаний — на кейсах от экспертов из МТС, Яндекса, OZON и НИУ ВШЭ. Это шанс стать экспертом в цифровом праве и расти вместе с рынком.
А если вы уже практикующий юрист, курс «Искусственный интеллект для юристов» поможет освоить основные ИИ-инструменты, грамотно анализировать правовые риски и использовать нейросети в повседневной практике. Вы научитесь формулировать точные запросы, распознавать ошибки в ответах ИИ и создавать юридические документы быстрее и точнее.