Редактор дня:
Artjoms Ļipins

Порноролики со Скарлетт Йоханссон и невероятные признания Обамы? Да, Deepfake это под силу!

Фото: SCANPIX
Обращаем ваше внимание, что статье более пяти лет и она находится в нашем архиве. Мы не несем ответственности за содержание архивов, таким образом, может оказаться необходимым ознакомиться и с более новыми источниками.

Хотя нам и кажется, что мы знакомы с этим явлением очень давно, термин "фейковые новости" в публичном пространстве появился только в 2017 году - чаще всего его связывают с предвыборным периодом президента США. Сегодня, спустя неполных два года, "фейковые новости" вышли на новый уровень - мировому информационному пространству угрожает Deepfake - ложные видеоклипы, созданные при помощи искусственного интеллекта.

За последние десятилетия конца 21 столетия ярко выраженную окраску получила новая тенденция - процесс размещения видео в интернете стал настолько простым, что позволил миллионам людей создать свой контент и сделать его общедоступным.

Взрывная популярность социальных сетей стала отличным стимулом для разработки новых программ и приложений, и профессионалы в области высоких технологий быстро приняли участие в этой гонке.

Первой областью, в которой были испытаны возможности искусственного интеллекта, стала порнография. 

В конце 2017 года, в социальной сети Reddit пользователь с псевдонимом deepfakes разместил в своем профиле несколько видеоклипов порнографического содержания, в которых к телам главных актеров были приделаны головы знаменитостей - Скарлетт Йоханссон, Тейлор Свифт, Канье Уэста и других.  

Посвящённый технологиям сайт Motherboard, который первым сообщил об этих фейковых, либо face swap порноклипах, выяснил, что для создания подобного рода контента пользователю понадобились лишь алгоритм машинного обучения, домашний компьютер, небольшие знания программирования и общедоступные видеоролики.

"We are truly f****d!" - такой красноречивый заголовок для своего материала выбрал Motherboard, и с этим нельзя не согласиться. 

Спустя несколько месяцев, другой пользователь Reddit разместил для всеобщего пользования аппликацию собственной разработки, которая позволяла любому пользователю самому создать ложный порноролик. Теперь героями видео становились бывшие любовники, одноклассники и коллеги по работе. 

Несмотря на то, что бойкотировать фейковые порноклипы вызвался самый знаменитый сайт с фильмами для взрослых - PornHub, а также социальная сеть Twitter и другие популярные интернет-пространства, любой интересующийся сможет за несколько секунд найти в интернете один из таких ложных роликов с участием знаменитостей.

В свою очередь, в группе по интересам вышеупомянутого Reddit уже более 60 000 участников. Кажется, что deepfakes удалось открыть дигитальный ящик Пандоры. 

Поэтому справедливо, что этот выбранный пользователем веб-псевдоним теперь стал названием самого процесса и продукта, который он производит, - фальшивого видео.

Ниджма Хан, представляющая лондонскую компанию по разработке искусственного интеллекта faculty, этот ложный продукт называет синтетическим видео. В конце марта она с презентацией выступила на организованном NATO StratCom COE семинаре в Риге, посвящённом новейшим тенденциям в социальных медиа. 

"К сожалению, становится только хуже", признает Ниджма, "искусственный интеллект демонстрирует новые способности влиять на политические процессы - началась новая эра политической дезинформации".

Первое публичное предупреждение об этой новой эре появилось в апреле 2018 года. 

Это видео было сделано голливудским режиссером Джордоном Пилом - созданный искусственным интеллектом Барак Обама, который повторяет гримасы, движения рта и губ самого Пила. Аудио программа обеспечивает, что сказанное режиссером звучит тембром голоса Обамы - нужно только подражать манере речи экс-президента.

"На самом деле Deepfake - это машинное обучение, используемое с целью создания ложных видео - публичный человек говорит то, что никогда не было сказано. Это новое поколение синтетических аудио и видео.

"Объединив эти две сферы, можно создать мощное политическое дезинформационное оружие", - говорит Ниджма Хана. 

В видео с участием Обамы изображены возможности искусственного интеллекта, доступного в студиях Голливуда. Однако прогресс, достигнутый в области синтетического аудио и видео, теперь позволяет использовать эти технологии вне студии со спецэффектами - как в политических, так и в террористических целях.

"Самая большая проблема заключается в том, что эта технология развивается очень быстро", - отмечает Ниджма. "Когда мы начали ее изучать, прогнозировали, что нам понадобится 2-3 года, пока технологии Deepfake станут более доступными. Спустя пару месяцев уже было понятно, что это произойдет в течение 1-2 лет. Уже через год Deepfake стал повседневностью для СМИ.

Новости на эту тему стали появляться регулярно - это вызвало огромный интерес, но оно также вскрывает серьезную угрозу демократии и общественной целостности".

Лучший пример того, что хорошо финансируемая национальная организация может сделать с искусственным интеллектом, был опубликован 9 ноября 2018 года. 

Официальное китайское информационное агентство Xinhua открыло миру своего синтетического новостного диктора, который может читать новости 24 часа в сутки. 

На данный момент это самый высококвалифицированный проект искусственного интеллекта в мире. 

21 февраля этого года к китайскому диктору присоединилась коллега-женщина. Важно отметить, что оба этих синтетических телевизионных лица имеют определенные прототипы в реальной жизни - телевизионные дикторы, которых публика знает и доверяет.

Если мы будем помнить, что эти личности на синтетическом экране будут зачитывать любой текст, не задумываясь о его правдивости, мы можем лишь представить, насколько огромные возможности манипулирования появляются у канала Xinhua, имеющего сотни миллионов зрителей.

А также, сколько телевизионных каналов последуют примеру Китая в ближайшем или отдаленном будущем. Таким образом, борьба за политическую пропаганду началась и в пространстве искусственно созданной реальности. Такие компании, как faculty, сейчас работают над решениями идентификации видео Deepfake.

"Технологии развиваются, и, если кто-то решит сделать этот программный код общедоступным, нам не придется долго ждать, пока он попадет в руки хакеров более низкого уровня и в наши спальни", считает Ниджма. 

"Единственное, что мы можем, сделать процесс распространения видео Deepfake более сложным, а также работать со всевозможными организациями, чтобы привлечь внимание к этой новой угрозе.

Мы уже сейчас сотрудничаем с правительством Великобритании, чтобы создать инструмент для выявления пропаганды терроризма в сети. На данный момент в разработке находится также инструмент, помогающий журналистам и организациям выявлять фальшивое видео. Это будет доступно каждому".

Однако на данный момент никто не может прогнозировать, что нас ждет в будущем, и как Deepfake повлияет на мир в качестве оружия дезинформации 21-го века. Потому что человек склонен верить в то, во что он хочет верить, не задавая критических вопросов.

Актуальные новости
Не пропусти
Наверх