Роскомнадзор и Главный радиочастотный центр совместно с аналитическим центром MINDSMITH и компанией «Ростелеком» определили ключевые технологии с использованием искусственного интеллекта, необходимые для мониторинга интернета и обеспечения безопасности его пользователей. Эксперты предполагают, что уже в ближайшие несколько лет системы на базе искусственного интеллекта будут интегрированы в социальные сети для отслеживания деструктивного контента в режиме реального времени. Но пока полностью доверять нейросетям проверку фактов не стоит.
Эксперты Роскомнадзора, Главного радиочастотного центра (ГРЧЦ), аналитического центра MINDSMITH и компании «Ростелеком» представили обзор трендов и передовых решений в области искусственного интеллекта в России в исследовании «Инструменты ИИ в руках злоумышленников — классификация угроз и способы противодействия». В частности, они выделили 12 групп технологий, соответствующих интересам профильных организаций по мониторингу и обеспечению безопасности интернет-среды. В их число вошли обнаружение дипфейков, определение контекста происходящего на видео, автоматизация мониторинга и модерации контента, распознавание лиц, извлечение смысла из текста, поддержка проверки фактов, распознавание символики, извлечение и анализ метаданных, распознавание эмоций, поддержка решений при информационных атаках, генерация и рекомендация контента.
Одной из важнейших задач государства в последнее время стала борьба с дезинформацией. По мнению аналитиков, информационные системы уже приближаются к проверке фактов в реальном времени и будут впоследствии интегрированы в социальные сети. Например, в будущем они смогут анализировать речь и потоковое видео, проверять их и, при обнаружении ложных новостей, оповещать пользователей о недостоверном контенте. Такие системы будут включать в себя комплекс нейросетей, а внедрить их в соцсети получится в течение 3–5 лет. «Внедрение автоматизированной проверки фактов приведет к тому, что каждая новость будет размечена специальными тегами на крупных платформах. Государства смогут напрямую влиять на фактчекинг, сформировав систему тегов и отслеживая корректность разметки новостей техногигантами», - отмечается в исследовании.
Сегодня нельзя полностью положиться на искусственный интеллект в проверке фактов. Пока наиболее релевантный вариант - автоматизировать часть процессов, отмечает член комитета Госдумы по информационной политике о информационной политике, информационным технологиям и связи Антон Немкин.
На фоне глобальной автоматизации информационных войн и развития генеративных моделей будет крайне проблематично обеспечить когнитивную безопасность населения без внедрения искусственного интеллекта, считают аналитики. При этом государству необходимо решить важную инфраструктурную задачу и разработать процедуры тестирования и оценки моделей ИИ - это позволит держать руку на пульсе развития технологий, отслеживать перспективных разработчиков и проекты. «Сегодня у нашей страны есть все для создания отечественных моделей ИИ, самый ценный наш ресурсы - это специалисты. Уже сегодня они предлагают очень качественные решения, особенно в области распознавания лиц и работы с информационными атаками, число которых в 2023 году продолжает расти, - добавил Немкин. – При этом сама по себе область ИИ должна четко регулироваться, и “Единая Россия” уже работает над законопроектом, который поможет разобраться в этом вопросе и дать людям уверенность в том, что искусственный интеллект станет им помощником, а не врагом».
Генеральный директор исследовательской компании TelecomDaily Денис Кусков также подчеркнул важность разработки законодательных норм для систем на основе ИИ, которые будут фильтровать контент в сети. Он, кроме того, отметил, что нынешний уровень развития ИИ в России позволит начать полноценное использование таких систем в перспективе пяти лет.