20 августа 2020

Баланс между развитием инноваций и безопасностью

«Важно, чтобы государство нашло баланс между развитием инноваций и безопасностью»
Александр Журавлев, сооснователь Moscow Digital School

Об испытаниях инноваций в экспериментальных правовых режимах и возможных рисках в интервью “Ъ” рассказал председатель комиссии по правовому обеспечению цифровой экономики Московского отделения Ассоциации юристов России и сооснователь Moscow Digital School Александр Журавлев.

— Можно ли делать выводы о безопасности применения экспериментальных правовых режимов (ЭПР), исходя из прошедших тестирований?

— На базе «Сколково» проводилось тестирование беспилотных автомобилей, которые после этого выехали на улицы города. При этом тестирование беспилотного транспорта сопряжено с рисками причинения вреда жизни и здоровью граждан, имуществу. Если мы говорим про оживленную трассу или район, там могут возникнуть проблемы с тестированием. Например, в марте 2018 года в Аризоне беспилотный автомобиль Uber, передвигавшийся в автономном режиме с человеком на водительском сиденье, сбил женщину, и она скончалась в больнице от полученных травм. Поэтому тестирование определенных инноваций на ранних стадиях следует применять в малонаселенных регионах или на специальных полигонах.

— Есть ли риски при внедрении ЭПР с точки зрения использования биометрических данных?

— В мире идут жаркие споры по поводу биометрических данных (голос человека, отпечатки пальцев, распознавание лица, сетчатка глаза). Они являются особенно чувствительными, и если они попадут на черный рынок, то в отличие от персональных данных изменить их нельзя. При утечке таких данных злоумышленники получают бесценный товар, а человек становится скомпрометирован навсегда. Это очень серьезный риск, поэтому принимать решение об использовании биометрических данных можно, только проработав все моменты, касающиеся безопасности их обработки и хранения. Многие компании специально начали кампанию по отказу от биометрии: в июне 2020 года IBM, Amazon, Microsoft на фоне протестов в США отказались от технологии распознавания лиц.

— С обработкой персональных данных те же проблемы?

— Анализ и обработка больших массивов данных лежит, например, в основе применения искусственного интеллекта. Правовая основа для работы с такими данными пока не определена, а сбор информации может сопровождаться нарушениями в сфере обработки персональных данных.

Кроме того, не решен вопрос требований к безопасности накапливаемой информации, особенно если она не относится к категориям информации, охраняемой законом. Например, данные, накапливаемые в результате взаимодействия машин (технических устройств), формально не подпадают под установленные законом виды тайн, но утечка такой информации может иметь серьезные последствия для целых отраслей экономики.

— Есть ли решение?

— С одной стороны, для развития инноваций необходима экспериментальная среда, но с другой — на чаше весов — неприкосновенность и безопасность данных человека. Чтобы использовать весь потенциал цифровой экономики, нужно позволить внедрять технологии на опережение, смотреть на результат эксперимента и только после этого вносить изменения в законы по всей стране. Однако важно, чтобы государство нашло баланс между развитием инноваций и безопасностью и, только проработав все моменты, принимало решения об обороте и порядке использования персональных и биометрических данных граждан.

Источник: https://www.kommersant.ru/doc/4458747

Пройти обучение в Moscow Digital School

Нажимая на кнопку, вы даете согласие на обработку персональных данных и соглашаетесь c политикой конфиденциальности