В Роскомнадзоре назвали риски развития искусственного интеллекта без достаточного регулирования
19 июня в ведомстве состоялось заседание Экспертного совета по искусственному интеллекту Главного радиочастотного центра. Участники мероприятия обсудили тренды развития ИИ и методы его регулирования.
Глава Роскомнадзора Андрей Липов отметил, что в нашей стране наука о технологиях искусственного интеллекта начала развиваться с 1960-х годов. Этим занималась целая плеяда выдающихся российских ученых под руководством Г.С. Поспелова. Первый симпозиум по искусственному интеллекту прошел в СССР в 1974 году. В 1986 году был образован Научный совет по вопросам ИИ. В 1991 году приняли государственную программу «Перспективные информационные технологии», куда включили раздел по созданию интеллектуальных технологий.
«Сегодня важно возрождать советскую школу искусственного интеллекта. Современные ИИ-модели, например GPT, стремительно развиваются. Необходимо понимать, как они устроены, какой и чей код в них работает и на базе какого массива информации он работает. У используемой в GPT информации есть четыре важных критерия: полнота, достоверность, актуальность и легальность. Манипулируя этими четырьмя параметрами, разработчики кода могут управлять восприятием, объемом знаний и в итоге самим человеком», – обратил внимание глава Роскомнадзора. Андрей Липов добавил, что параллельно есть риск потери навыков критического мышления, самостоятельного поиска и анализа информации и получения знаний, в первую очередь молодежью. У нас только один путь – создавать собственные технологии и сервисы в сфере ИИ.
Советник генерального директора ГРЧЦ по научно-техническому развитию Евгения Рыжова рассказала, что одна из сегодняшних тенденций в области ИИ – развитие технологий управления эмоциями. Например, это чат-боты для комфортного общения или успокоения, психологические консультации для родителей. Злоумышленники с помощью таких технологий могут собирать информацию об интересах и потребностях людей, выявлять слабые места и, используя эти сведения, влиять на их выбор, подчинять своим интересам. Евгения Рыжова считает, что необходимо ввести регулирование сценариев применения ИИ на уровне федерального закона, установить стандарты безопасности искусственного интеллекта, рассмотреть введение ответственности за нарушение требований и причинение вреда с использованием технологий ИИ.
Главный научный сотрудник сектора информационного права и международной информационной безопасности ИГП РАН Виктор Наумов в числе рисков, связанных с развитием ИИ, назвал отсутствие идентификации и маркировки этих технологий, злоупотребление доверием пользователей, которые не знают о негативных последствиях использования технологий, радикальную концентрацию власти в руках производителей ИИ. Эксперт отметил еще одну угрозу: спустя несколько десятилетий, вероятно, произойдет деградация многих свойств человека, например, его творческих и коммуникационных способностей в условиях построения отношений с безальтернативным использованием ИИ.
Помощник руководителя московского отделения «Союза православных женщин» Инна Ямбулатова среди принципов использования ИИ в интересах человека выделила соблюдение духовно-нравственных и моральных ограничений и правил перед внедрением искусственного интеллекта. «Без этого духовного фильтра мы рискуем стать заложниками технологий, которые способны поработить человеческую личность», – сказала эксперт.
Она добавила, что нельзя допускать цифровое насилие над личностью в семье и обществе. Внедрение этических принципов при разработке систем ИИ и запрет на антропоморфизацию (прим.: приписывание объекту или явлению человеческих качеств) во многом способны защитить, прежде всего, несовершеннолетних граждан страны. При этом важно помнить, что главный защитный код – семья и внимание родителей к детям.
Среди участников мероприятия были представители Минэкономразвития, Центра азиатских правовых исследований юридического факультета МГУ им. Ломоносова, Центра ИИ и науки о данных СПбГУ, Департамента права цифровых технологий НИУ ВШЭ, а также руководители крупных компаний и общественных организаций.
Фото: пресс-служба Роскомнадзора