Наука и технологии
20 августа 2020
Поделиться

Deepfake: как искусственный интеллект размывает границы между фейком и реальностью

Deepfake: как искусственный интеллект размывает границы между фейком и реальностью

Иллюстрация: IPQuorum

Пока новости пестрят громкими заголовками про последние достижения в области искусственного интеллекта, футурологи бьют тревогу: не приведет ли бесконтрольное развитие ИИ к сценарию «Восстания машин»? Недавно к пессимистическому лагерю присоединились и юристы, призвавшие обратить внимание на вопросы авторского права и безопасности персональных данных. Катализатором стал громкий случай, произошедший в начале сентября с китайским приложением Zao. При помощи машинного обучения и нейронных сетей сервис позволяет заменять лица актеров фотографиями пользователей, создавая реалистичные «фейковые» видео. Как регулировать создаваемый при помощи ИИ контент, что такое Deepfake и какие перспективы у его применения – разобрался ipquorum.ru.

Безусловно, технологии, связанные с искусственным интеллектом, используются достаточно давно и уже прочно вошли в нашу повседневную жизнь. По оценкам экспертов агентства Statista, представленным в последнем докладе Artificial Intelligence (AI), уже к 2025 году объем рынка ИИ составит более 89 миллиардов долларов – в 2016-м этот показатель не превышал 10 миллиардов. Нейросети и технологии машинного обучения используются в виртуальных помощниках, маркетинговых инструментах, беспилотных автомобилях и медицинской диагностике и многих других сферах.

В творческой среде особый интерес вызвало применение технологии ИИ для создания Deepfake (термин получился в результате слияния понятий deep learning – «глубокое обучение» и fake videos – «поддельные видео») – коротких роликов, в которых пользователи могут заменять лица актеров, редактировать их речь и проводить другие манипуляции с контентом. Как пояснил ipquorum.ru член Российской и Европейской ассоциаций искусственного интеллекта, координатор академических программ департамента стратегических технологий Microsoft Дмитрий Сошников, «Deepfake уже сейчас позволяет генерировать изображения практически фотореалистичного качества. Примерно технология генеративно-состязательных сетей, лежащих в основе Deepfake, работает так: есть генератор, создающий поддельные изображения, и дискриминатор, который пытается распознать настоящие и поддельные изображения. Они тренируются вместе, т. е. одновременно мы разрабатываем сеть, генерирующую подделки, и сеть, распознающую их. Из-за этой особенности принципиально невозможно создать такую сеть, которая сможет стопроцентно распознавать подделки – вторая часть программы сразу же научится ее обманывать». 

Среди профессионалов Deepfake уже давно вызывает опасения. Так, инженеры Стэнфордского университета отказались опубликовать код разработанного ими алгоритма Neural Rendering, позволяющего менять речь и мимику спикеров в видео, и объяснили свое решение стремлением предотвратить случаи клеветы и распространения поддельных новостей. Общественный резонанс вокруг технологии впервые возник после выхода на массовый рынок бесплатных Deepfake-приложений и сервисов. Фейковые порнографические видео популярных актеров и актрис стали появляться в сети с 2017 года, а летом 2019 в Instagram была опубликована целая серия Deepfake с участием основателя Facebook Марка Цукерберга, американской звезды Ким Кардашьян, актера Моргана Фримана и президента США Дональда Трампа.

В главном вирусном ролике, набравшем миллионы просмотров, Марк Цукерберг пристально смотрит на камеру и признается в хищении персональных данных миллиардов людей, а завершает свою речь фразой о том, что тот, кто контролирует информацию – контролирует мир. Оказалось, что опубликованные Deepfake-видео – часть художественного проекта Spectre, призванного привлечь внимание публики к опасностям цифровой пропаганды. Как объяснили создатели, 21-секундный отрывок взят из реального выступления Цукерберга 2017 года, а зачитанный актером озвучки текст подставлен при помощи технологии замещения диалога, разработанной стартапом из Тель-Авива Canny AI.

По мнению сооснователя Canny AI Омера Бен-Ами, «сейчас термином Deepfake называют все видео, полученные путем цифровых манипуляций. Технология, которую мы разрабатываем, – это Video Dialogue Replacement (VDR). Чтобы показать разницу, приведу простой пример: при помощи Deepfake вы можете поменять свое лицо на лицо, скажем, Обамы, но все остальное останется вашим. VDR же позволяет изменить только то, что вы говорите, при этом оригинальные голос и мимика не сохранятся. Мы не считаем, что эта технология по своему существу опасна, скорее, наоборот. С ее помощью можно создать цифрового двойника – это пригодится как актерам для общения с поклонниками из разных стран, так и обычным людям, которые захотят оставить о себе «интерактивную» память. Также VDR – перспективный инструмент для локализации контента, позволяющий убрать языковые и технические барьеры, персонализировать месседж и сократить затраты на производство».

На данный момент на рынке уже существуют механизмы регулирования контента, созданного при помощи ИИ. По словам старшего партнера команды «Сигнализация для бизнеса» Давида Замировича, «согласно классическому подходу к интеллектуальной собственности, Deepfake – это переработка оригинального произведения с целью создания нового, производного произведения. Не важно, кто и каким образом перерабатывает оригинальное произведение: художник кистью на холсте, дизайнер в фотошопе или программист с помощью собственной нейронной сети. Такая переработка, за исключением ряда конкретных случаев (1274 ГК РФ или доктрина fair use на Западе), не может быть произведена без разрешения или лицензии правообладателя. Автор производного произведения будет его полноправным правообладателем только при условии соблюдения прав авторов оригинального произведения и с учетом ограничений, налагаемых на него пользовательским соглашением соответствующего сервиса (если оно применимо)». При этом, добавляет эксперт, инициативы по запрету и ограничению самих технологий ИИ как факта вряд ли будут иметь перспективы, так как это будет противоречить добросовестному использованию произведений в целях пародии, критики или сатиры.

Однако дальнейшее развитие Deepfake и сопутствующих технологий вызывает опасения экспертов как с этической, так и с правовой точки зрения. «Скорость внедрения данной технологии, ее относительная дешевизна и масштабируемость, без сомнения, пугают. Использование Deepfake злоумышленниками уже на текущем этапе ее развития может привести и к обвалу биржевых котировок, и к развязыванию войн, переворотам или гражданским беспорядкам»,  отмечает Давид Замирович.

Специалист в области искусственного интеллекта, адвокат крупной калифорнийской юридической фирмы Ervin Cohen & Jessup Джейсон Хаас объяснил ipquorum.ru, каких последствий популяризации Deepfake стоит ожидать. «На данном этапе развития технологии «фейковость» полученных видео очевидна. Но со временем такой контент будет становиться все более реалистичным, фрагменты будут удлиняться, а движения – усложняться. Такие фейки можно будет использовать для нанесения репутационного ущерба, для вмешательства в выборы, управления поведением потребителей и даже для подделки улик в суде. И это только самые очевидные примеры из обычной жизни», – предупреждает Хаас.

Основываясь на международном опыте, Джейсон Хаас советует комплексно подходить к решению проблемы: «В первую очередь, технологическим компаниям придется вложиться в создание решений, способных идентифицировать Deepfake-контент. Со своей стороны, государственным учреждениям, соцсетям и СМИ нужно усилить процедуры проверки достоверности информации. И наконец, необходимо постоянно информировать общество об опасностях и пределах возможностей Deepfake. Важно не допустить, чтобы люди потеряли доверие в принципе ко всем видео и изображениям. С точки зрения юридической практики это представляет не меньшую опасность, чем сами фейки, так как визуальные материалы являются важной частью доказательной базы при работе в суде».

 

Автор: София Скурлатова

Следите за событиями в нашем новостном телеграм-канале
Читать дальше