перейти к основной теме

Против слухов и fake news

Дезинформация — серьезнейшая проблема в мире новостей. Два новых проекта предлагают способы разоблачения фейковых новостей с помощью ИИ. 

Lisa Priller-Gebhardt , 26.04.2023
Осторожно, fake news! – ИИ спешит на помощь.
Осторожно, fake news! – ИИ спешит на помощь. © AdobeStock / Rawpixel Ltd.

Количество фейковых новостей резко увеличилось в том числе из-за войны в Украине, пандемии коронавируса и климатического кризиса. В данном случае имеется в виду не ложная информация, которая наводняет социальные сети с миллиардами подписчиков вроде Facebook и Twitter, а намеренно распространяемые фальшивые сообщения. Другими словами, речь идет об изображениях, текстах, видео, которые распространяются через ботов или фейковые аккаунты и которые сложно идентифицировать как фейковые. Какая цель преследуется? Посеять панику и разрушить социальную сплоченность. 

Но благодаря искусственному интеллекту (ИИ) открывается возможность не только распространять дезинформацию, но и разоблачать ее. Так, в Германии с этой целью запущен проект DeFaktS, реализуемый Научно-исследовательским центром информатики (FZI) при поддержке Федерального министерства образования и науки (BMBF). DeFaktS расшифровывается как «Ликвидировать сети дезинформации, раскрывая факторы и стилистические приемы». 

DeFaktS – ИИ предупреждает о дезинформации 

В рамках специальной программы ИИ обучают распознавать и предупреждать о дезинформации в подозрительных службах социальных сетей и группах в мессенджерах. Для этого исследователи создали большое количество наборов данных из коммуникации в Twitter и Telegram. Таким образом искусственный интеллект учится распознавать типичные для фейковых новостей стилистические приемы, например, эмоциональную поляризацию. 

На следующем этапе обученный ИИ используется для так называемого XAI (Explainable Artificial Intelligence). Согласно FZI, этот «объяснимый искусственный интеллект» будет не только указывать на наличие щекотливого контента. Он также сможет продемонстрировать, что заставило его вынести такое предупреждение. Однако исследователи не занимаются фильтрацией или цензурой контента. Пользователи должны сами критически оценивать информацию. «С точки зрения цифрового образования общества этот аспект был для нас очень важен», — объясняет эксперт FZI Йонас Фегерт. 

noFake – сотрудничество человека и ИИ 

Исследовательский центр Correctiv тоже разрабатывает инструмент, который помогает людям выявлять фальшивую информацию. Вместе с Рурским университетом Бохума и Техническим университетом Дортмунда центр Correctiv работает над проектом «noFake». Человеческий и искусственный интеллект должны сотрудничать друг с другом, чтобы было легче отличать факты от дезинформации. С этой целью ученые создают ассистентов с поддержкой ИИ, которые не только обнаруживают потенциально неверную информацию, но и помогают анализировать текст и изображения. Смысл в том, что заинтересованные граждане в качестве краудворкеров могут сами проверять информацию через платформу «Correktiv.Faktenforum». Для этого они проходят специальный тренинг. «Мы создаем что-то вроде Faktencheck-Community, которое сочетает приверженность делу с профессиональными стандартами, — объясняет Дэвид Шравен, издатель Correctiv. 

© www.deutschland.de