Дипфейк против искусственного интеллекта: новейший технологический рубеж в контексте недостоверных новостей

0

Виртуальная реальность и феномен дипфейка

Виртуальная реальность – выражение, производное от английской формулировки virtual reality (VR), обозначающее искусственные среды, созданные с помощью компьютера или других электронных устройств таким образом, что моделируемая реальность вызывает на уровне восприятия ощущение реального физического присутствия и принадлежности к новой многомерной среде. В настоящее время виртуальной реальностью можно воспользоваться в любой области. Среди тех, кто непосредственно вовлечен в продвижение инноваций, представляющих искусственный интеллект, а также является сторонником разработки систем VR, и средства массовой информации, как традиционные, перенесенные в виртуальное пространство, так и существующие в своем исконном виде.

Виртуальная реальность – не только кино в форматах 3D, 5D, музыка в формате 8D, созданная с помощью Audio Converter, или дополненная реальность с применением голограмм. Это искусственная среда, предназначенная для имитации всего, что не является реальным, таким способом, как объединение всех перечисленных элементов (воспринимаемых зрением, слухом, прочими органами чувств) и достижение различных эффектов (когнитивного, аффективного, поведенческого), а также гарантирующая определенный тип воздействия.

Информационные технологии за последние десятилетия достигли беспрецедентного уровня развития. Интерактивность, креативность, а также возможность свободно присутствовать в любом месте и в любое время предоставляют неограниченные возможности как отдельным пользователям, так и виртуальным сообществам. Как любой быстрый эволюционный процесс, он выносит на первый план как положительные, так и отрицательные явления. При создании информационного контента устранение пространственно-временных барьеров и ограничений свободы выражения мнения представляет собой положительный аспект. Однако гонка средств массовой информации за как можно более обширной аудиторией, массовое тиражирование информации онлайн на официальных страницах в социальных сетях и оценка определенных новостей привели к возникновению такого явления, как fake news (фейковые новости) – феномену, основанному на старой концепции, но трансформированному с помощью искусственного интеллекта в набор инструментов, которые срабатывают безошибочно, когда целью того, кто стоит за сообщением, является влияние на отдельного человека, группу или даже массы.

Скорость распространения фейковых новостей гарантируется характером информации и вовлеченными сторонами, политическая сфера и политические лидеры в этом отношении лидируют, опережая даже новости о террористических атаках или стихийных бедствиях. Недавние исследования, проведенные специалистами в области СМИ за океаном, продемонстрировали, что к 2022 г. фейковых новостей станет больше, чем реальной информации. Это может вызвать явление, названное исследователями  «головокружением от реальности» (reality vertigo), при котором компьютеры могут генерировать фейковый, но настолько убедительный контент, что большинство людей уже не в состоянии отличить реальность от вымысла.

Этот переход от fake news к reality vertigo (RV) характеризуется еще одним уровнем искажения информационного контента в видео- и аудиоформате – deepfake, вызывающим все больше беспокойства среди экспертов по информационной безопасности.

Дипфейк считается более опасным явлением, оказывающим гораздо более мощное воздействие, поскольку он включает все элементы интегрированного медиапродукта (текст + фотографии + видеозапись + аудиозапись). Сочетание искусственного интеллекта (deep learning) и фейка (fake) основано на концепции под названием Generative Adversarial Network (генеративно-состязательная сеть), которая может использоваться для воспроизведения видеоизображений и наложенного звука, воспринимаемых  человеком как подлинные.

Дан Деметер, румынский исследователь в области кибербезопасности, утверждает, что «дипфейки – это, как правило, видео с реальными лицами, которые говорят и делают то, чего на самом деле не совершали. Эти ролики стараются сделать как можно более достоверными, чтобы обмануть аудиторию и повлиять на нее в соответствии с намерениями того, кто создал и запустил дипфейк в оборот».

На международном уровне дискуссии о дипфейках начались в 2016 г., а с конца 2017 г. они набрали обороты после того, как пользователь под никнеймом Deepfakes создал и разместил в виртуальном пространстве видеоролики, в которых лица обычных пользователей были заменены лицами известных актеров, и/или актеры мгновенно превращаются в своих коллег. 

Вирусные дипфейки

Монтажные приемы в большинстве случаев оказываются довольно удачными и убедительными. Те, кто придумал их, также запустили ряд общедоступных приложений для обработки изображений.

Пока что большинство откликов поступает от представителей киноиндустрии. Примером тому послужило «превращение» актрисы Эми Адамс в актера Николаса Кейджа.

Некоторые из этих «превращений» вызвали веселье, другие спровоцировали резкие реакции, а также приводили к судебным процессам в случаях, когда известные актрисы и актеры обнаруживали свои изображения, с помощью монтажных приемов перенесенные в фильмы для взрослых.

Мишенями для тех, кто создает такие видеоролики, становятся и мировые политические лидеры. В этом смысле ролики, в которых Барак Обама выступает с определенными речами, а Ангела Меркель превращается в Дональда Трампа, стали вирусными.

Дипфейки также могут создаваться в режиме реального времени, связанная с ними технология постоянно совершенствуется, из-за чего обычным пользователям очень трудно определить, что видео является фальшивкой, если у них нет специального программного обеспечения или достаточных знаний в этой сфере.

Еще один вирусный дипфейк, интенсивно обсуждавшийся в международной прессе, относится к «так называемым заявлениям» основателя Facebook Марка Цукерберга о том, что один человек может контролировать персональные данные неограниченного числа пользователей, что нанесло ущерб ему и социальной сети, которой он управляет, после всех скандалов, в которые он оказался втянут в последние годы с Агентством Cambridge Analytica, в связи с похищением личных данных и вовлечением в выборы в Соединенных Штатах.

Самым недавним дипфейком, ставшим вирусным всего за несколько дней, стал ролик с Илоном Маском, запустившим ракету Falcon Heavy, которая считается самой мощной в мире. Миллиардер предстает в роли артиста, исполняющего старую песню на русском языке – «Земля в иллюминаторе». Ролик собрал миллионы просмотров за очень короткое время и распространился в социальных сетях.

Хотя эксперты по кибербезопасности обеспокоены этой проблемой, а международные средства массовой информации называют такие уловки опасными, пользователи Интернета часто распространяют их из-за полного отсутствия знаний и/или ради забавы. Самым тревожным моментом в схеме создания и распространения дипфейков стала уязвимость баз данных, где можно собирать личные данные.

Недавно приложение под названием ZAO, разработанное в Китае, стало вызывать опасения, связанные с мошенничеством и угрозой безопасности. Оно использует искусственный интеллект для того, чтобы переносить лица пользователей в некоторые известные сцены из фильмов. Реакции в этом случае разделились: тогда как некоторые эксперты утверждают, что платформу можно было бы использовать для системы платежей, действующей с использованием систем распознавания лиц, представители крупных компаний пытались отрицать такую возможность.

Инвестиции и меры предотвращения в борьбе с дипфейками

Крупные социальные сети уже готовы бороться с этим явлением. Прошлым летом Facebook объявил, что заключил партнерское соглашение с Microsoft и рядом экспертов в этой области, чтобы быстро обнаруживать дипфейки. Facebook выделил на это десять миллионов долларов. В этой борьбе ИТ-специалистам и исследователям искусственного интеллекта понадобится разработать как можно более реалистичные дипфейки, чтобы получить набор данных, с помощью которого можно создавать инструменты для их обнаружения.

Меры, предпринимаемые Google в этом отношении, включают запуск нескольких сотен тысяч видеороликов-дипфейков, чтобы помочь исследователям разработать инструменты, которые с помощью искусственного интеллекта смогут выявлять дипфейки, способные привести к массовой дезинформации, саботажу в компаниях или кибербуллингу (онлайн-агрессии). Программное обеспечение, над которым они работают, основано на выявлении различных ошибок на уровне пикселей, изменений цвета кожи в записях или даже вариаций и вибраций во время разговора.

На международном уровне с законодательной точки зрения официальные представители штата Калифорния в США предприняли первые меры в борьбе с дипфейками. Так, 7 октября 2019 г. губернатор Гэвин Ньюсом подписал два закона, ставших важным оружием в борьбе с дипфейками. Принятые законы также призваны помочь медиаучреждениям, постоянно стремящимися увеличивать аудиторию и сообщать последние новости, а потому подверженным опасности распространять заявления, которые на самом деле не звучали, или изображения, которые не соответствуют действительности.

В настоящее время наиболее надежными решениями в борьбе с дипфейками являются разработка функциональных алгоритмов и принятие эффективных законов.

Мариана ТАКУ, доктор политических наук,

доцент, ФЖКН, Молдавский государственный университет

____________________
Создание данного анализа стало возможным благодаря щедрой поддержке американского и британского народа посредством Агентства США по международному развитию (USAID) и UK Aid. Высказанные мнения принадлежат авторам (Центру независимой журналистики) и не отражают в обязательном порядке взгляды UK Aid, USAID или Правительства США.