Настоящее или подделка? Война в секторе Газа сопровождается волной фейков. Один из инструментов дезинформации - изображения, созданные искусственным интеллектом. DW на примерах объясняет, как их распознать.
Фейки от ИИ про войну Израиля с ХАМАС: как распознать? (1)
Искусственный интеллект (ИИ) теперь повсюду - и на войне тоже. В последние годы возможности его применения сильно расширились. Практически любой человек уже может использовать ИИ для создания изображений, которые представляются реальными - по крайней мере, на первый взгляд.
Война Израиля против группировки ХАМАС, признанной ЕС, США, Германией и большинством стран Запада террористической организацией, вспыхнула как раз во время нынешнего скачка в развитии ИИ. В палестино-израильском конфликте, "где градус эмоций очень и очень высок", указывает профессор цифровой криминалистики в Университете Беркли в Калифорнии Хани Фарид, дезинформация, в том числе изображения, созданные ИИ, работает особенно эффективно. Жесткое противостояние сторон - идеальная питательная среда для производства и распространения фальшивого контента и нагнетания эмоций, констатирует Фарид.
Как работают ИИ-фальшивки, какие нарративы они демонстрируют и насколько опасны - DW на конкретных примерах отвечает на самые важные вопросы о роли искусственного интеллекта в палестино-израильском конфликте.
Много ли циркулирует изображений, созданных ИИ?
Фото и видеоролики, созданные с помощью искусственного интеллекта, уже вносили свой вклад в дезинформацию во время войны в Украине - и продолжают это делать и сейчас. Поскольку инструменты ИИ в последнее время развиваются стремительно, многие наблюдатели ожидали, что в войне между Израилем и ХАМАС эта технология будет применяться еще активнее. Однако, по мнению экспертов, большого потока изображений, созданных ИИ, пока не наблюдается.
Мы не видим массового использования таких изображений, констатирует Томмазо Канетта из Европейской обсерватории цифровых медиа. "Если сравнивать с другими формами дезинформации, например, со старыми изображениями и видеозаписями, которые сейчас распространяются в недостоверном виде, то объем довольно мал", - уточняет эксперт. Однако это, по его мнению, не означает, что данная технологии не играет в этом конфликте никакой роли.
Хани Фарид из Университета Беркли в интервью DW поясняет, что не считает количество подделок, созданных при помощи ИИ, в этом случае значимым фактором. "Всего лишь два фото, ставшие вирусными и увиденные сотнями миллионов людей, могут оказать огромное влияние", - предупреждает Фарид. По его оценке, мощь воздействия ИИ-фейков и других форм дезинформации состоит в том, что они "загрязняют информационную экосистему".
Продвижению каких нарративов служат ИИ-фейки?
Циркулирующие в соцсетях фото, созданные с применением ИИ, как правило, способны вызывать у тех, кто их видит, сильные эмоции. Томмазо Канетта выделяет две основные категории: изображения, подчеркивающие страдания мирного населения, вызывающие сочувствие к запечатленным на них людям - а также фейки, преувеличивающие поддержку либо Израиля, либо ХАМАС, либо палестинцев и апеллирующие к патриотическим чувствам.
К первой категории относится, например, находящееся ниже изображение отца с пятью детьми на фоне груды обломков после израильских бомбардировок сектора Газа, которое было многократно ретвитнуто на платформе X и имело сотни тысяч просмотров. Впоследствии эта фотография была признана фальшивкой. Распознать фейк тут можно по различным ошибкам и несоответствиям, типичным для изображений, которые сгенерированы ИИ.
Например, правое плечо мужчины расположено непропорционально высоко. Странно выглядят и две конечности, выступающие из-под свитера - они как будто вырастают из него. Бросается в глаза и то, что руки двух мальчиков, обхвативших шею отца, сливаются воедино. Кроме того, на нескольких руках и ногах на фото слишком много или слишком мало пальцев. Подобные аномалии можно наблюдать и в следующем ИИ-фейке, получившем широкое распространение в соцсети X. В данном случае якобы изображена палестинская семья, обедающая на развалинах.
Ко второй категории относится картинка, на которой запечатлены солдаты, размахивающие израильскими флагами и проходящие через населенный пункт с разбомбленными домами. Аккаунты, разместившие это изображение, например, в Instagram и X, судя по всему, в большинстве своем представляются произраильскими и приветствуют изображаемое событие. DW также обнаружила эту картинку в качестве иллюстрации к статье в болгарской интернет-газете, которая не распознала и не обозначила его как сгенерированную ИИ.
Что здесь производит эффект ненастоящего, так это то, как развеваются израильские флаги. Кроме того, улица в центре выглядит слишком чистой, в то время как обломки - очень однородными. Разрушенные здания также производят впечатление как будто бы копий, расставленных довольно равномерно друг от друга. Одним словом, визуальное впечатление слишком "чистое", чтобы казаться реалистичным. Подобная безупречность, при которой изображения выглядят как нарисованные, характерна и для ИИ.
СМИ также распространяют изображения, созданные ИИ
Большинство изображений, созданных с помощью искусственного интеллекта, распространяются частными аккаунтами в соцсетях. Однако они используются и в журналистике. Вопрос о том, может ли это быть полезным или целесообразным и в каких случаях, обсуждается сейчас во многих медиаструктурах. В связи с этим широкий резонанс вызвали действия компании Adobe, которая в конце 2022 года добавила в свой ассортимент предлагаемых фотографий изображения, созданные ИИ. В базе данных они помечены соответствующим образом.
Теперь Adobe предлагает купить у нее и сгенерированные ИИ изображения, которые связаны с войной на Ближнем Востоке - например, взрывы, протестующие люди или клубы дыма за мечетью Аль-Акса. Критики находят такое предложение весьма сомнительным. Между тем некоторые сайты и СМИ продолжают использовать эти изображения, не указывая, что они созданы ИИ - например, приведенная ниже картинка появилась на сайте Newsbreak без какой-либо ссылки. DW выяснила это с помощью обратного поиска изображений.
Даже Европейская парламентская исследовательская служба, научная служба Европарламента, иллюстрирует онлайн-текст о ближневосточном конфликте одной из подделок из базы данных Adobe - опять же не обозначая ее как изображение, сгенерированное ИИ. Томмазо Канетта призывает журналистов и работников СМИ очень осторожно обходиться с такими картинками. И советует воздержаться от их использования, особенно когда речь идет о реальных событиях, таких как война на Ближнем Востоке. Иначе обстоит дело, когда они иллюстрируют публикации на абстрактные темы, такие как технологии будущего.
Какой ущерб наносят изображения, созданные ИИ?
Осознание того, что в Сети курсирует контент, созданный искусственным интеллектом, ведет к тому, что пользователи начинают чувствовать себя неуверенно во всем, с чем сталкиваются. Профессор из Университета Беркли Хани Фарид поясняет: "Возможность манипулировать фотографиями, аудио- и видеоматериалами приводит к тому, что все ставится под сомнение". Иногда, например, подлинные изображения ошибочно маркируются как неаутентичные.
Так произошло и в данном случае: фотографией, на которой, как утверждалось, изображен обугленный труп израильского младенца, поделились в соцсети X премьер-министр Израиля Биньямин Нетаньяху, консервативный американский комментатор Бен Шапиро и другие. А антиизраильский активист со скандальной репутацией Джексон Хинкл настаивал, что это изображение было создано с помощью ИИ.
Как возможное доказательства Хинкл приложил к своему посту в Х скриншот экрана детектора искусственного интеллекта "AI or not" ("ИИ или нет"), который классифицировал вышеупомянутое изображение как сгенерированное ИИ. Сообщение Хинкла в X было просмотрено более 20 млн раз и вызвало бурные дискуссии. В итоге многие заявили, что изображение, скорее всего, подлинное и что Хинкл, таким образом, не прав. Хани Фарид также заявил DW, что ему не удалось обнаружить в данном изображении никаких несоответствий, которые указывали бы на подделку с помощью ИИ.
Как это может быть? Детекторы ИИ, с помощью которых можно проверить, является ли изображение или текст сгенерированными искусственным интеллектом, пока еще нередко выдают ошибочные результаты. В зависимости от проверяемой картинки они выносят либо правильные, либо неправильные суждения, причем зачастую лишь с разной долей вероятности, а не как стопроцентное утверждение. Поэтому эти детекторы годятся в лучшем случае как дополнительный, но не как единственный инструмент для проверки потенциальных подделок, созданных с помощью ИИ.
Фактчекинг-группа DW также не смогла обнаружить явных признаков манипуляций с помощью ИИ на изображении с телом младенца. Любопытно, что когда группа попыталась самостоятельно проверить это изображение на "AI or not", детектор не классифицировал его как сгенерированное ИИ - но указал на низкое качество картинки. Другой детектор ИИ (модерация Hive) также пришел к выводу, что изображение является подлинным.
RUS TVNET в Telegram: Cамые свежие новости Латвии и мира на русском языке!