Friday, November 7, 2025

Исследование ISD: чат-боты ИИ часто цитируют российскую пропаганду

С начала агрессивной войны России против Украины ЕС ввёл санкции как минимум против 27 российских медиаресурсов, которые, по оценке союза, являются частью «систематической международной кампании по дезинформации, манипулированию информацией и искажению фактов». Похоже, однако, что распространяемые ими фейки находят новый, косвенный путь на Запад: учёные обнаружили, что ChatGPT, Gemini, DeepSeek и Grok регулярно предлагают своим пользователям материалы российской государственной пропаганды.

Российские источники в чат-ботах

Недавно исследователи из Institute of Strategic Dialogue (ISD) опубликовали своё исследование под названием Talking Points: When chatbots surface Russian state media. В его рамках четырём популярным чат-ботам задали 300 вопросов в контексте войны в Украине. Поскольку ранее исследования в основном ограничивались английскими диалогами с Large Language Models (LLMs), опрос проводился на английском, испанском, французском, немецком и итальянском языках.

Вопросы были нацелены на восприятие НАТО, мирные переговоры, мобилизацию украинских граждан в армию, украинских беженцев и российские военные преступления в ходе вторжения.

Результат: почти пятая часть (18%) всех ответов чат-ботов ссылалась на источники, относимые к российскому государству. «Сюда входили цитаты из российских государственных СМИ, сайтов со связями с российскими спецслужбами, а также сайтов, ранее идентифицированных как часть российских дезинформационных сетей», — поясняют учёные. Среди источников фигурировали, например, Sputnik Globe, Sputnik China, RT (ранее Russia Today), EADaily, Strategic Culture Foundation и R-FBI.

«Возникают вопросы о том, как чат-ботам следует обращаться со ссылками на подобные ресурсы, тем более что многие из них находятся под санкциями ЕС», — прокомментировал руководитель исследования Пабло Маристани де лас Касас в беседе с Wired. Хотя исследование было проведено в июле, по словам Маристани де лас Касаса, те же результаты проявлялись и в октябре.

Результаты запросов в рамках исследования

Для дополнительной дифференциации учёные задавали чат-ботам по одному нейтральному вопросу, «предвзятому вопросу, указывающему на уже имеющееся мнение пользователя и запрашивающему дальнейшие доказательства», а также «злонамеренному запросу, который явно требует источники для обоснования заданной точки зрения». Выявился выраженный confirmation bias — «ошибка подтверждения»: чем более предвзятым или злонамеренным был вопрос, тем чаще чат-боты предоставляли информацию, приписываемую российскому государству. Так, почти четверть ответов на «злонамеренные запросы» содержала российские источники по приведённому определению, тогда как при нейтральных запросах — лишь немного больше 10%.

Степень уязвимости зависела и от темы. Вопросы о мирных переговорах приводили примерно к вдвое большему числу цитат из госисточников, чем вопросы об украинских беженцах. Следовательно, меры защиты чат-ботов, вероятно, срабатывают по-разному в зависимости от тематики. Кроме того, исследователи ISD исходят из того, что российские дезинформационные кампании целенаправленно эксплуатируют «информационные лакуны». Они возникают, когда по редким запросам имеется мало авторитетных результатов, что делает их уязвимыми для манипуляций. С учётом того, что всё больше людей используют ИИ-ботов для получения актуальных новостей, эта проблема растёт.

Есть и сообщения о том, что российская дезинформационная сеть под названием «Правда» целенаправленно наводняет интернет и социальные сети статьями, чтобы таким образом влиять на LLMs. Без учёта соцсетей, «Правда» якобы производит сейчас 3 миллиона статей в год — и объёмы растут.

Худший результат у ChatGPT

Из четырёх чат-ботов ChatGPT чаще других ссылался на российские источники и сильнее поддавался влиянию предвзятых запросов. Grok, напротив, по данным исследования, часто отсылал к аккаунтам в социальных сетях, которые формально не являются государственными, но близки к Кремлю и усиливают его нарратив. Gemini от Google при схожих запросах часто показывал предупреждения о безопасности и продемонстрировал лучшие результаты.

Представитель OpenAI заявил Wired, что компания предпринимает меры «для предотвращения использования ChatGPT с целью распространения ложной или вводящей в заблуждение информации, включая контент, связанный с акторами при поддержке государств». При этом он подчеркнул: «Исследование в этом отчёте, по-видимому, касается результатов поиска в интернете, полученных в ответ на специфические запросы и явно помеченных как таковые. Это не следует путать (…) с ответами, которые генерируются исключительно моделями OpenAI вне нашей функции поиска». Компания xAI, стоящая за Grok, ограничилась короткой репликой Legacy Media lies («традиционные медиа лгут»).

Перекладывание ответственности

Представитель Европейской комиссии заявил Wired, что на соответствующих провайдерах лежит обязанность «блокировать доступ к сайтам санкционированных СМИ, включая субдомены или заново созданные домены, а на национальных органах — принимать сопутствующие регуляторные меры». Маристани де лас Касас также указывает, что даже без специальных регуляций между компаниями должен существовать консенсус о том, какие источники не следует реферировать, если они связаны с иностранными государствами, известными дезинформацией. Речь при этом идёт не только об удалении контента, но и о предоставлении дополнительного контекста для лучшего понимания. 

Это перевод новостной статьи австрийского издания. Источник:  derstandard.at

О проекте:

Меня зовут Анатолий. Я автор проекта «Жизнь эмигранта». В 2017 году я эмигрировал с семьёй из Краснодара в Австрию. Мы с женой работаем в маркетинге, а для помощи тем, кто хотел бы переехать, создали сайт Emigrants.life.
Проект «Жизнь эмигранта» ― это ежедневные новости о жизни, быте в Австрии и Европе. Переходите на сайт проекта Emigrants.life, подписывайтесь на наши страницы в Telegram , Facebook , Instagram, Twitter , а также принимайте участие в голосованиях в нашей группе в Telegram .

Последние материалы

Social Media Auto Publish Powered By : XYZScripts.com