28 февраля 2020

ИТ-компании в России должны сами выработать нормы для борьбы с фейк-ньюс

Проблема нуждается в регулировании, отметили участники заседания комиссии по правовому обеспечению цифровой экономики московского отделения Ассоциации юристов России

Работающие в России ИТ-компании должны сами выработать регламенты или нормы работы, которые позволят бороться с недостоверной информацией и фейковыми новостями. К такому выводу пришли участники заседания комиссии по правовому обеспечению цифровой экономики московского отделения Ассоциации юристов России, которое в четверг прошло в Московском государственном юридическом университете.

Директор Института проблем правового регулирования ВШЭ Анна Дупан пояснила корреспонденту ТАСС, что ИТ-компаниям, которые работают в России, предлагается самостоятельно разработать регламенты для определения политики работы с недостоверной информацией.

«Сначала ИТ-компании нужно обязать иметь в России представительство, это необходимо для исполнения законодательства по цифре. Второй шаг — это утверждение собственных политик, условий ведения бизнеса — называть их можно как угодно, то есть норм, которые компании обязуются сами соблюдать. Третий момент — это нужно понять, кто будет контролировать выполнение таких норм компаниями, это может быть саморегулируемая организация или госорган, тот же Роскомнадзор, например», — сказала она.

Дупан добавила, что последним этапом должна стать выработка законодательных актов, которые будут предполагать то или иное наказание за неисполнение организациями собственных норм. «Эта тенденция регулирования соответствует международному опыту, так как многие страны, в том числе Великобритания, кардинально меняют свои подходы к саморегулированию ИТ-компаний», — отметила она.

Директор по связям с государственными органами Mail.ru Group Константин Голуб отметил, что компания уже реализует разные нормы по борьбе с опасным контентом.

Ранее пресс-служба соцсети «ВКонтакте» отчиталась, что за 2019 год удалила почти 7 млн единиц опасного для детей контента, заблокировала более 300 тыс. профилей и 2 тыс. сообществ, где распространялись опасные для детей материалы, связанные с поощрением самоубийств или нанесением увечий (в том числе текстовые публикации, видео, фото и аудиозаписи). Также было удалено более 290 тыс. единиц контента, который пропагандирует насилие в школах, были заблокированы более 6 тыс. профилей и более 300 сообществ.

Сколько в интернете агрессии и преступности? Что не так с методами борьбы с ними?
«Мы считаем, что саморегулирование в этой сфере работает <…>, мы отметили, что, наверное, мы уже соответствуем мировым практикам в этой сфере, но, как всегда, есть несколько нюансов. В нашем случае мы считаем, что саморегулирование — это гибрид между модерацией (жалобы пользователей, внутренний мониторинг, обращения общественных организацией — прим. ТАСС) и обращением госорганов. <…> у соцсети нет права оценивать размещенные материалы, мы не суд, мы не уполномоченный госорган, мы не редакция СМИ, поэтому в спорных случаях решение должно оставаться за третьим лицом», — сказал Голуб.

Он также выразил пожелание о детализации критериев, по которым ИТ-компания может модерировать или блокировать контент. «В 2019 году соцсеть «ВКонтакте» обработала более 70 млн жалоб пользователей при активной аудитории «ВКонтакте» в 90 млн человек. Из них было заблокировано порядка 7 млн единиц контента <…>, и для сравнения, по линии Роскомнадзора мы получили менее 100 тыс. уведомлений», — добавил представитель компании.

Итог дискуссии
Председатель комиссии по правовому обеспечению цифровой экономики московского отделения Ассоциации юристов России, сооснователь Moscow Digital School Александр Журавлев в беседе с ТАСС отметил, что дискуссия о необходимости выработать нормы прошла для профессионального сообщества и представителей отрасли плодотворно.

«Участники пришли к выводу, что, во-первых, эта проблема нуждается в регулировании; во-вторых, какая-то часть регулирования должна остаться прежней, но и новая нормативная база тоже должна быть принята. При этом новые нормы должны идти от самих участников рынка, то есть это может быть неким добровольным объединением, которое сможет консолидировано создавать какие-то правила. Аналогию здесь можно провести с антипиратским меморандумом или работой Ассоциации больших данных; по Big Data, например, законы не приняты, но участники рынка добровольно поддерживают нормы», — сказал собеседник агентства.

Кроме этого, отметил Журавлев, если участники рынка договорятся о самостоятельном регулировании этого вопроса, то не нужно будет разрабатывать множество новых правовых актов. «Может быть, и не нужно будет в дальнейшем принятие закона о саморегулировании в данной сфере, следовательно, не будет дополнительной нагрузки на регулятора, на суды по этой части, а участники за счет собственного администрирования и консолидированных критериев и правил смогут бороться с такими явлениями как фейк-ньюс, распространением недостоверной информации в интернете и с противоправным контентом», — заключил эксперт.

В заседании приняли участие представители Государственной думы, Роскомнадзора, «Яндекса», Mail.Ru Group, Фонда развития интернет-инициатив (ФРИИ) и другие эксперты.

Источник: https://tass.ru/ekonomika/7853631

Пройти обучение в Moscow Digital School

Нажимая на кнопку, вы даете согласие на обработку персональных данных и соглашаетесь c политикой конфиденциальности