54% россиян считают, что регулировать дипфейки необходимо на законодательном уровне
В современном мире сгенерированный с помощью искусственного интеллекта контент может становиться средством обмана, мошенничества и манипуляции общественным мнением. Поэтому в России все чаще поднимаются вопросы противодействия недостоверной информации такого типа. При этом 54% россиян считают, что регулировать дипфейки необходимо на законодательном уровне.
Об этом генеральный директор АНО «Диалог» и АНО «Диалог Регионы» Владимир Табак рассказал на сессии «Украденная личность. Правовые аспекты регулирования дипфейков и подделок голоса» на ПМЮФ-2024.
За последние годы дипфейк-технологии стремительно эволюционировали и достигли нового уровня развития. Однако последствия их использования могут быть не только положительными, но и отрицательными. Сегодня дипфейки нередко применяются в злонамеренных и преступных целях, представляя реальную угрозу безопасности личности, государству, бизнесу. Поэтому тема опасности дипфейков является актуальной и обсуждаемой, отметил советник генерального директора АНО «Диалог Регионы» Тихон Макаров. На вопросы о том, как должно осуществляться регулирование сгенерированного контента, какие технологии для выявления дипфейков существуют в России сегодня, и где проходит грань между нарушением прав и свободой творчества, ответили эксперты на Петербургском международном юридическом форуме.
По сравнению с 2022 годом в 2023 году количество видеодипфейков выросло в 3 раза, а аудиодипфейков — практически в 8 раз, рассказала начальник Управления Президента Российской Федерации по развитию информационно-коммуникационных технологий и инфраструктуры связи Татьяна Матвеева: «Особенность дипфейков заключается в том, что такой контент кажется настоящим, он вводит в заблуждение и имеет высокую скорость распространения, что не позволяет человеку задуматься. Технологии дипфейков развиваются, поэтому и технологии распознавания должны развиваться. Нам важно, чтобы люди были предупреждены и понимали информационные риски, перепроверяли источники информации. Важно распространять технологию доверенного искусственного интеллекта».
На сегодняшний день самой большой проблемой являются видео- и аудиодипфейки, отметил зампредседателя комитета Госдумы по информационной политике, информационным технологиям и связи, председатель РОЦИТ Антон Горелкин. Однако обсуждаемые меры регулирования, в том числе маркировка, не обеспечивают необходимое решение в полной мере: «Нейросети учатся на своих ошибках, поэтому людям нужен доступный инструмент для проверки контента. Государству сейчас необходимо сконцентрироваться на этой задаче и объединить лучшие проекты, которые есть в России, для распознавания дипфейков. Если говорить о регуляторике, то без такого инструмент нам не обойтись, он должен быть на вооружении и у следователей, и у судей. Но торопиться с регуляторикой не нужно, чтобы, регулируя, не сделать работу наших компаний-разработчиков сложнее».
Согласно результатам исследования, которые озвучил Владимир Табак, 47% россиян знают о дипфейках или что-то о них слышали, но каждый пятый из респондентов дает неправильное определение этому понятию. При этом 50% граждан считают, что дипфейки представляют опасность. Современные технологии позволяют создать дипфейки более качественными и демонстрируют впечатляющие возможности, отметил эксперт. Однако в России существуют технологические решения этой проблемы.
«У нас это сервис «Зефир», который позволяет детектировать дипфейки с интегральной точностью 85%. За три года существования сервисом было проверено более 5 миллионов единиц контента. Количество контента, созданного искусственным интеллектом, кратно возрастает, поэтому мы стоим перед большим вызовом, — заявил Владимир Табак. — Среди недостоверной информации 10% сгенерирована ИИ. При этом в 2023 году, по сравнению с 2022 годом, количество такого контента выросло в 17 раз. Нам критически важно определиться со стратегией работы с дипфейками и искусственным интеллектом, до этого говорить про законодательное регулирование рано».
При этом важно понимать, с какой целью создается сгенерированный с помощью искусственного интеллекта контент. Если технологические средства применяются с намерением похитить личность человека или ввести в заблуждение, то злоумышленника смогут обвинить и наказать, отметил генеральный директор АНО «Институт развития интернета» (ИРИ) Алексей Гореславский: «Во многом проблема появилась не из-за технологического прогресса, а из-за того, что человек доверчив, а где-то его действительно вводят в заблуждение. Можно ли и нужно ли создавать контент с использованием технологий — безусловно да. Если новые синтезированные образы не будут создаваться, мы не будем развиваться и останемся в мире бумажных книг. ИРИ поддержал ряд проектов, в которых есть эти эксперименты. Думаю, эта практика будет продолжаться и дальше», — сказал Алексей Гореславский.
Советник генерального директора Главного радиочастотного центра (ФГУП «ГРЧЦ») по научно-техническому развитию Евгения Рыжова рассказала, что ещё в 2014 году технология ИИ стала технологией «чёрного ящика». Сегодня невозможно полностью контролировать ИИ и предсказать его развитие. Эта технология сегодня имеет несколько уровней назначения: с одной стороны, генеративный ИИ позволяет людям решать задачи по созданию контента, сокращая время на его производство в десятки раз, с другой — он становится оружием в информационной войне. Поэтому для эффективного регулирования сферы необходимо прежде всего определить все сущности технологии ИИ, объекты, субъекты правовых отношений и другие элементы.