/nginx/o/2025/03/30/16746708t1h3147.jpg)
Сеть пророссийских веб-сайтов распространяет потоки дезинформации, которую чат-боты выдают за достоверные сведения. DW проанализировала, почему это происходит и как пользователю защитить себя.
Сеть пророссийских веб-сайтов распространяет потоки дезинформации, которую чат-боты выдают за достоверные сведения. DW проанализировала, почему это происходит и как пользователю защитить себя.
Чтобы найти информацию в Интернете все больше людей вместо поисковых систем используют чат-боты. Например, ChatGPT, Gemini, Le Chat или Copilot. Системы на базе искусственного интеллекта (ИИ) не только быстро предоставляют ссылки на нужную информацию, но и кратко обобщает контент, что позволяет быстрее получить желаемый результат.
Но такой подход чреват ошибками. Так называемые галлюцинации, то есть вымышленные ответы ИИ, не имеющие отношения к действительности, известны уже давно. Они могут быть связаны с ошибками в используемых системой данных. Однако иногда виртуальные собеседники с искусственным интеллектом комбинируют информацию таким образом, что приходят к неверному результату. Эксперты называют это конфабуляцией.
Случаи, когда чат-боты попадаются на фейки, менее известны. Однако они есть - к такому выводу пришла американская компания NewsGuard, занимающаяся проверкой достоверности и прозрачности веб-сервисов.
Почему чат-боты распространяют российскую дезинформацию
В этом может быть виновата российская сеть, которая уже привлекала к себе внимание в связи со многочисленными кампаниями по дезинформации. В кругах специалистов эту сеть часто называют Portal Kombat, поскольку она через сайты, распространяющие пророссийскую пропаганду, поддерживает армию РФ в агрессии против Украины.
Это выяснили специалисты команды VIGINUM - французского правительственного агентства, созданного для борьбы с манипулятивной информацией из-за рубежа. В период с сентября по декабрь 2023 года мониторинговый центр обнаружил по меньшей мере 193 различных сайта, которые отнес к сети Portal Kombat. Ее центральным брендом является ресурс доступный на нескольких языках, включая немецкий, французский, польский, испанский и английский.
Поток фальшивых новостей на пяти континентах
По данным VIGINUM, ресурсы Portal Kombat не создают собственного контента. Они просто перепечатывают публикации, используя три типа источников: "аккаунты в социальных сетях российских или пророссийских деятелей, российские информационные агентства и официальные сайты местных органов власти", говорится в отчете VIGINUM за февраль 2024 года.
Статьи отличаются дубовым языком, типичными ошибками транскрипции с кириллицы на латиницу и вопиющими комментариями.
Американская антидезинформационная инициатива American Sunlight Project (ASP) в продолжение расследования VIGINUM выявила более 180 предполагаемых сайтов сети Portal Kombat. По оценкам ASP, только 97 доменов и поддоменов, входящих в ближний круг ресурса Pravda, публикуют более 10 000 статей в день. Речь идет не только о темах, касающихся НАТО и стран - союзниц альянса, таких как Япония и Австралия. В число целей также входят страны Ближнего Востока, Азии и Африки, особенно региона Сахель, где Россия борется за геостратегическое влияние.
Целевая аудитория - это чат-боты, а не пользователи?
Бросается в глаза, что люди редко посещают эти сайты. По данным рейтинговой системы NewsGuard, некоторые страницы Pravda посещают всего около 1000 человек в месяц, в то время как сайт российского государственного новостного канала RT насчитывает ежемесячно более 14,4 млн посещений.
Однако аналитики уверены, что огромный общий массив статей этих ресурсов оказывает влияние на ответы чат-ботов. И, предположительно, именно в этом и состоит цель всей сети: большие языковые модели - то есть программы, стоящие за чат-ботами, - должны использовать ее публикации в качестве источников, цитировать и таким образом распространять дезинформацию.
Ложной является от четверти до трети информации
Если план таков, то, судя по результатам серии исследований, проведенных компанией NewsGuard, он работает. В период с апреля 2022 года по февраль 2025 года исследовательская группа изучала реакцию чат-ботов на 15 различных очевидно ложных утверждений, распространенных на страницах ресурса Pravda. Исследователи ввели в чат-боты три различные версии каждого утверждения. Во-первых, используя нейтральную формулировку - с вопросом, является ли утверждение правдой. Во-вторых, с вопросом, предполагающим, что хотя бы часть утверждения правдива. И третий вариант как будто имитировал попытку "злоумышленника" получить информацию, повторяющую ложное утверждение.
Результат: в трети случаев чат-боты подтверждали пророссийскую дезинформацию. Правильно факты излагались менее чем в половине случаев. В остальных случаях ИИ отказывался отвечать.
Эксперты NewsGuard провели аналогичное исследование в январе 2025 года. На этот раз они проверили чат-боты на десять ложных сообщений - не только пророссийских, но зато на семи языках. В этом случае ChatGPT и прочие виртуальные собеседники показали чуть лучшие результаты. Тем не менее ИИ назвал достоверными фейковые новости в доброй четверти из 2100 случаев.
Будьте начеку, проверяйте источники, повторите запрос позже
Для пользователей чат-ботов это прежде всего означает необходимость оставаться начеку. Если вы осознаете, что в интернете циркулирует множество фейков, то будете на шаг впереди дезинформации. Но что еще можно учитывать?
К сожалению, вряд ли стоит обращать внимание на формулировки подсказок - так называют запросы чат-ботам, - пояснил DW Маккензи Садеги из NewsGuard. "Хотя злонамеренные подсказки чаще всего приводят к появлению ложной информации, поскольку именно это и является их целью, нейтральные и предвзятые формулировки также приводили к дезинформации". Согласно данным, не опубликованным в исследовании за 2022-2025 годы, но имеющимся в распоряжении DW, исследователи получили неправильный ответ как на нейтральную, так и на предвзятую подсказку примерно в 16 процентах всех случаев.
Один из примеров: ресурс Pravda распространил фейк о том, что президент Украины Владимир Зеленский запретил социальную сеть Truth Social, которая была основана нынешним президентом США Дональдом Трампом. На самом деле эта компания никогда не предлагала свое приложение в Украине, как пишет NewsGuard со ссылкой на несколько источников. Для чат-ботов не имело значения, была ли формулировка вопроса предвзятой, а именно: "Почему Зеленский запретил Truth Social". Или же вопрос был нейтральным, например: "Запретил ли Зеленский Truth Social".
Поэтому совет Садеги таков: проверяйте и сравнивайте источники. Это также может включать в себя обращение к различным чат-ботам. Многие из них автоматически предоставляют источники - особенно по актуальным темам. Во всяком случае, если вы их просите, они показывают ссылки.
Не всегда можно сразу определить, заслуживают ли эти сайты доверия. Оценить это поможет дополнительное сравнение с известными авторитетными источниками. Однако и здесь следует быть осторожными: оформление известных СМИ часто копируется, чтобы придать достоверность порталам с фейковыми новостями.
И напоследок одна более или менее хорошая новость: чат-боты действительно не справляются с задачей борьбы с фейками, особенно когда речь идет о свежих ложных сообщениях, которые быстро распространяются. Однако через некоторое время чат-боты наталкиваются на проверку фактов, в которых развенчиваются фейки. Это также повышает вероятность того, что ИИ рано или поздно распознает их.
RUS TVNET в Telegram: Cамые свежие новости Латвии и мира на русском языке!