Deepfake = риски цифровой фальсификации. Объясняют коллеги Moscow Digital School из Центра Россия-ОЭСР

Deepfake = риски цифровой фальсификации. Объясняют коллеги Moscow Digital School из Центра Россия-ОЭСР

Развитие технологий искусственного интеллекта способствуют увеличению производительности, экономическому развитию и прогрессу в различных отраслях, способствовать развитию ответственного ведения бизнеса. Однако, Центр ответственного ведения бизнеса (ОВБ) ОЭСР отмечает, что использование технологии искусственного интеллекта компаниями может привести к нефинансовым рискам, связанным с нарушением прав человека, прав потребителей, конкуренции и др. В своем докладе «Ответственное ведение бизнеса и искусственный интеллект», Центр ОВБ ОЭСР приводит примеры случаев причинения вреда технологиями ИИ и предлагает решения для минимизации рисков. Так, например, для минимизации риска нарушения права на неприкосновенность частной жизни или причинения вреда репутации посредством видео с использованием технологии Deepfake предлагается развивать технологии распознавания Deepfake. Однако остается открытым вопрос: как можно ограничить использование технологии Deepfake для умышленного причинения вреда, не ограничивая при этом свободу слова?

Рекомендация по развитию искусственного интеллекта (ИИ), в разработке которой принимал участие Российский центр компетенций и анализа стандартов ОЭСР, устанавливает принцип соблюдения прав человека и верховенство закона. Однако в настоящее время учащаются случаи, когда технология искусственного интеллекта является инструментом для мошенничества и нарушения прав человека.

29 апреля компания Roc Nation, основанная рэпером Jay-Z, направила уведомление пользователю видеохостинга Youtube о нарушении авторских прав, заявив о незаконном использовании голоса Jay-Z. Жалоба касалась видео, в котором с помощью технологии искусственного интеллекта Deepfake голос рэппера использовали для исполнения песни Билли Джоэла и чтения монолога Гамлета. Автор удалил видео и заявил, что не имел каких-либо злых намерений при использовании голоса. Тем не менее эксперты считают, что авторское право не сможет эффективно решить проблему связанную с Deepfake.

Технология искусственного интеллекта Deepfake может использоваться для искажения достоверности, дезинформации и других неправомерных действий. Например, известны случаи, когда с помощью технологии Deepfake была испорчена репутация американских политиков. В 2019 г. в штате Калифорния запретили создание видео- и аудиозаписей с помощью технологии искусственного интеллекта Deepfake, а также их распространение в течение 60 дней до выборов с целью предотвращения дезинформации избирателей.

Технология Deepfake только начинает набирать популярность в России. В частности, в рекламной деятельности и развлекательных сферах. Однако некоторые эксперты уже поднимают вопрос о возможных рисках распространения технологии Deepfake для института защиты деловой репутации. В настоящее время нормы о защите деловой репутации относятся к сведениям, распространяемым посредством не только печатных изданий, но и в сети Интернет. В соответствии со ст. 152 ГК РФ, лицо может обратиться в суд для защиты чести, достоинства и деловой репутации. Однако если, например, лицо генерального директора компании использовали в порочащем его репутацию видео с использованием технологии искусственного интеллекта Deepfake, то без соответствующих алгоритмов распознавания технологии Deepfake процесс доказывания будет осложнен.

Технология Deepfake использует искусственный интеллект для создания, изменения цифрового контента. Изначально технология с помощью машинного обучения изменяла только элементы изображения для замены на желаемый образ. Однако технология Deepfake развивается и теперь может использоваться для изменения лица или голоса в видео- и аудиофайлах.

Чем технология Deepfake является с точки зрения права интеллектуальной собственности? По сути, Deepfake – это изменение оригинального произведения с целью создания нового (производного). В таком случае неважно каким образом вносились изменения в оригинальное произведение – при помощи технологий либо при помощи кисти и холста. Подобная переработка другого произведения регулируется ст. 1260 ГК РФ, в соответствии с которой автор производного произведения осуществляет свои авторские права при условии соблюдения прав авторов произведений, использованных для создания производного или составного произведения. Следовательно, подобная переработка не может быть осуществлена без разрешения или лицензии правообладателя. Тем не менее из данного подхода можно выделить исключения, указанные в ст. 1274 ГК РФ, например, применение технологии Deepfake для создания пародии либо карикатуры возможно и без разрешения автора оригинального видео.

С развитием технологии Deepfake расширяются и возможности ее применения. В связи с этим возникают риски цифровой фальсификации изображений, видео- и аудиозаписей, которые охватывают различные сферы:

  • Ложное доказательство: в суде может быть предоставлено в качестве доказательства видео, созданное с помощью технологии Deepfake.
  • Дипломатическая угроза: в видео, созданном с помощью технологии Deepfake, могут быть использованы лица и голоса политиков в целях разжигания конфликтов.
  • Влияние на внутреннюю политику: видео, созданное с помощью технологии Deepfake, может быть использовано для дезинформации избирателей, например, показав кандидата в невыгодном свете или подделав его выступление.

Для решения проблемы предлагается использовать технические и нетехнические решения. Прежде всего необходимо разработать механизм распознавания технологии Deepfake. Цифровые гиганты Facebook, Microsoft, Google и др. предлагают гранты для исследователей с целью разработать алгоритмы для обнаружения технологии Deepfake в цифровом контенте. Для случаев, когда с помощью технологии Deepfake проводят мошеннические операции (например, используется видеоизображение или голос CEO, для подтверждения проведения незаконной транзакции), рекомендуется усилить механизм авторизации.

В российском законодательстве пока не разработано регулирование технологии искусственного интеллекта Deepfake. Национальная стратегия развития искусственного интеллекта на период до 2030 г., утвержденная Указом Президента Российской Федерации от 10 октября 2019 г. № 490, устанавливает только принципы развития и использования технологий искусственного интеллекта, гарантирующие защиту прав и свобод, а также запрещающие использование технологий искусственного интеллекта с целью «умышленного причинения вреда».

Кроме того, одним из инструментов для минимизации цифровых рисков являются механизмы саморегулирования путем возложения на интернет-ресурсы общих обязанностей по выявлению и удалению незаконного контента, на основании правил и критериев, которые будут выработаны сообществами таких интернет-ресурсов на основании общих принципов, которые необходимо будет предусмотреть в законодательстве.

Подробнее про инструменты саморегулирования для борьбы с незаконным контентом вы можете прочитать в Заключении Комиссии по правовому обеспечению цифровой экономики МО АЮР по теме «Правовые средства борьбы с противоправным контентом в сети интернет и использование саморегулирования в данной сфере»

Источник: https://oecd-russia.org/analytics/deepfake-riski-tsifrovoj-falsifikatsii.html

Подписаться на новости

Каждую неделю присылаем полезные и интересные материалы для вас!