EN|FR|RU
Социальные сети:

Проблема дипфейков – в Южной Корее и не только

Константин Асмолов, 02 апреля 2024

дипфейк в Южной Корее

23 февраля 2024 г. в преддверии парламентских выборов в апреле администрация президента РК заявила, что будет решительно реагировать на сфабрикованное в Сети видео с «участием» президента Юн Сок Еля. «Мы выражаем серьезную обеспокоенность тем фактом, что, несмотря на это, некоторые СМИ называют ложное и сфабрикованное видео сатирическим или сообщают о нем так, как будто это нормально, потому что оно помечено как фейковое».

На видео, загруженном в Instagram, Facebook и TikTok, запечатлено, как Юн извиняется за коррупцию и некомпетентность своего правительства, которое совершает отвратительные действия и несправедливость, разрушая нацию и причиняя людям боль. Сообщалось, что речь была создана с использованием технологий Deepfake (дипфейк) и искусственного интеллекта.

Корейская комиссия по стандартам связи (KCSC), надзорный орган в области телекоммуникаций, удалила и заблокировала видео. Полиция инициировала расследование, в ходе которого выяснилось, что впервые «разоблачающее видео» появилось еще в ноябре 2023 г., а основой для него послужил предвыборный ролик Юна, в котором он критиковал демпартию и правительство Мун Чжэ Ина. Автор ролика обнаружен, и если ему предъявят обвинение в клевете и нарушении Закона о выборах государственных служащих, ему может грозит наказание в виде тюремного срока до семи лет или штрафа в размере до 50 млн вон (38 тыс. долл.).

Но хотя в данном случае уровень изготовления поделки оказался ниже ожидаемого, автор не упускает возможности поговорить об очень интересующей его теме.

Напомним, что термин «Deepfake» объединяет понятия «глубокого обучения» и «фейка», и относится к созданным при помощи цифровых технологий изображениям или видео, которые зрители могут ошибочно воспринять как настоящие. Дипфейки часто становятся источником фальшивых новостей, мошенничества и диффамации, открывая очень большой простор для манипулирования.

Возможно, аудитория помнит «скандал в Богемии», — один из лучших рассказов Артура Конан Дойля, в котором Шерлоку Холмсу пришлось выкрасть компрометирующий документ, которым была фотография. Для тех времен это была неопровержимая улика, поскольку почерк можно было подделать, личную печать украсть, а свидетелей подкупить. «Но мы сфотографированы вместе»!

В нынешнем веке фотография перестает быть 100% убойным компроматом: возможности «Фотошопа» или иных программ такого рода сегодня знает почти каждый. Однако, прогресс не стоит на месте и сегодня мы сталкиваемся с целым блоком технологий, который позволяют не только фабриковать факты, но и, по сути, создавать виртуальных двойников существующих личностей.

Первый компонент этой смеси, — «дипфейк». То, что начиналось с попыток «натягивать» на любительское порно лица кинозвезд, начинает получать политическое измерение, когда лица политиков начинают использоваться в пропаганде как за, так и против них. Если ранее для компромата на «человека, похожего на генерального прокурора», требовалось размытое видео неважного качества, в котором зритель скорее угадывал в кучке пикселей нужное лицо, сегодня «прокурор, которого застали врасплох» будет выглядеть как настоящий. Впрочем, справедливости ради отметим и обратный вариант, когда действительно пойманный на горячем будет заявлять, что «все смонтировано».

Второй элемент – это уровень обучаемости нейросетей, которые уже позволяют вариант цифрового мошенничества, заключающийся в том, что имея образец голоса человека, можно создавать от его имени фальшивые сообщения, в которых голос двойника жертвы будет неотличим. Более того, если «скормить» нейросети достаточное количество аудиоинформации, можно имитировать не только сам голос, но и интонации, или характерную манеру разговора, что еще более усложняет возможность разоблачить фейк.

В рамках этого же тренда, получив образец голоса условного политика и какое-то количество текстов его речей, нейросети могут быть способны генерировать его «выступления на заданную тему», при этом неотличимым от оригинала может оказаться не только голос политика, но и его неповторимый стиль общения.

Эта комбинация позволяет поднимать создание фальшивок на принципиально новую высоту, потому что условное выступление политика будет иметь и его лицо, и его голос, и его иные особенности и доказать, что это не он, будет весьма проблематично. Особенно с учетом того, что массовое сознание людей легко верит в то, что оно очень хочет или боится услышать.

Впрочем, создание цифровых копий позволяет творить гораздо более интересные вещи, чем политические фейки под выборы. Куда интереснее то, что автор назвал бы «цифровой некромантией». Допустим, у нас есть уже умерший политик, который оставил довольно большое наследие текстов, из которых понятно его политическая позиция по большинству ключевых вопросов. В такой ситуации нейросеть по сути может использовать его как своего рода оракула, способного высказываться его по той или иной проблематике или отвечать на вопросы. В РК на одном из мероприятий, которое проводил фонд Ким Дэ Чжуна, в выступлении приняло участие голографическое изображение президента, которое для тех, кто видел только трансляцию, смотрелся вполне как настоящий, и более того, рассказывал о своем видении текущих событий, оценивая их, как если бы он еще был жив. В России такого виртуального политика сделали из Владимира Жириновского, чей голос и стиль высказываний оказались весьма похожими на оригинал.

Впрочем, автору пора спуститься с небес фантастики на землю, и вернуться к делам Кореи.

Для Южной Кореи, в которой политическая борьба во многом сводится не противоборству программ, а к закидыванию врага компроматом, такие технологии «очень приятные» и одновременно очень опасное средство политической борьбы. Вброшенный прямо перед выборами фейк даст нужный эмоциональный эффект, за которым последует эффект, политический. А все разоблачения последуют потом, ведь на них нужно время, и успеют они тогда, когда после драки махать кулаками будет уже очень поздно.

На президентских выборах 2022 года как Юн Сок Ель, так и Ли Чжэ Мен, использовали созданные искусственным интеллектом копии самих себя в своих предвыборных видеороликах, из-за чего Юн в какой-то день «выступал в трех местах одновременно». Кандидаты использовали свои аватары, созданные искусственным интеллектом, чтобы обратиться к молодым избирателям, однако позднее появились и настоящие фейки. Во время местных выборов в мае 2022 года в социальных сетях был распространен поддельный видеоклип, изображающий Юна, поддерживающего консервативного кандидата на пост главы округа Намхэ. «Это заставило зрителей ошибочно полагать, что президенту не удалось сохранить политическую нейтральность». А в начале 2024 г. на YouTube было выложено поддельное видео, на котором временный лидер правящей партии Хан Дон Хун во время пресс-конференции сравнивает либералов с гангстерами.

Поэтому с конца 2023 года южнокорейские власти начали борьбу с использованием дипфейков в политической пропаганде.

5 декабря 2023 г. специальный парламентский комитет принял поправку к Закону о выборах, которая предусматривает запрет на использование дипфейков в предвыборной компании за 90 дней до голосования. Нарушителям запрета может грозить максимум семь лет тюремного заключения или штраф в размере до 50 млн вон (35 тыс. долларов). Создатели дипфейковых видеороликов обязаны сообщать о наличии в них синтетической информации, даже если они публикуются до начала 90-дневного периода.

Запрет вступил в действие с 29 января 2024 г., однако по данным центральной избирательной комиссии, с 29 января по 16 февраля в стране было обнаружено 129 дипфейков.

5 марта 2024 г. Национальное управление расследований при Национальном полицейском агентстве разработало программное средство для обнаружения дипфейков, которое может быть использовано для пресечения преступлений с использованием такой технологии. Якобы всего за 5-10 минут программное обеспечение с 80-процентной вероятностью распознает, является ли изготовленное в цифровом формате видео подлинным или фейком. Вероятность ошибочного обнаружения планируется свести к минимуму путем перекрестной проверки с экспертами по искусственному интеллекту.

Как отмечают СМИ РК, эти шаги соответствуют глобальной тенденции регулировать политическую рекламу с использованием дипфейков Крупные технологические компании, такие как Google LLC, Adobe, Amazon, Microsoft, TikTok, OpenAI и Meta Platforms Inc., обновили свои политики, требуя от пользователей добавлять отказ от ответственности за политическую рекламу, созданную deepfake. Федеральная избирательная комиссия США также начала процедуры по регулированию таких агитационных видеороликов перед выборами 2024 года.

Два самых крупных корейских портала объявили, что предпримут шаги против глубоких подделок, созданных искусственным интеллектом. Крупнейший портал страны Naver заявил, что его сервис искусственного интеллекта, основанный на чат-ботах, не будет отвечать на запросы пользователей о создании «неадекватного контента», такого как состав изображений лиц. Naver заявила, что управляет группой мониторинга, занимающейся выявлением онлайн-постов, нарушающих правила проведения выборов, и анализом новых образцов оскорбительного контента, такого как дипфейки.

Kakao, доминирующее корейское мобильное приложение для обмена сообщениями, заявило, что рассматривает возможность внедрения технологии водяных знаков для контента, генерируемого его сервисом искусственного интеллекта, добавив, что конкретный график внедрения пока не определен.

Южнокорейские специалисты оценивают угрозу весьма серьезно. Чон Чхан Бэ, председатель Международной ассоциации этики искусственного интеллекта, отмечает, что наиболее «убойный» вариант применения дипфейка «включал бы загрузку фальшивого видео, порочащего кандидата, всего за день до выборов, и оно набрало бы миллионы просмотров. У прессы или правительства не будет времени проверить это до того, как избиратели отправятся на избирательные участки на следующий день».

Принятие законов по борьбе с дипфейками, по его мнению, «большой шаг вперед. Однако, что важнее законов, так это повышение осведомленности общественности о том, что любые видео и изображения, которые они просматривают в Интернете, могут быть сфабрикованы, и не доверять им за чистую монету».

Профессор информационной безопасности Ким Мен Чжу тоже считает, что дезинформация, генерируемая искусственным интеллектом, может оказать значительное влияние на восприятие колеблющихся избирателей при том, что создать убедительную мистификацию с использованием дипфейка стало «удивительно просто». Это занимает всего около 10 минут с помощью мобильного приложения, так что политические ютуберы или блоггеры могут легко использовать эту технологию для распространения дезинформации о политиках, которые им не нравятся.

Похоже пишет в своей редакционной статье газета «Korea Herald», — «учитывая неумолимо высокую скорость создания онлайн-постов и растущую доступность инструментов редактирования на основе искусственного интеллекта, распространение потока политических фейков через онлайн-сообщества и мобильные мессенджеры — лишь вопрос времени».

Но на взгляд автора с ростом возможности создавать дипфейки может расти и важность цифровой медиаграмотности и критического мышления. И хотя любой фейк, не обязательно дип, рассчитан на то, чтобы укрепить в вере тех, кто и так не будет пытаться перепроверить новости, он надеется, что хотя бы аналитики и эксперты, находящиеся вне «эффекта эхокамеры», смогут отделять зерна от плевел.

 

Константин Асмолов, кандидат исторических наук, ведущий научный сотрудник Центра корейских исследований Института Китая и современной Азии РАН, специально для интернет-журнала «Новое Восточное Обозрение

На эту тему
Тучи над Мун Чжэ Ином. Ч.4. Дела семейные
Германия рушится: цена конфликта на Украине и внутриполитический распад
Осторожно, инфоколониализм: новые планы США в АСЕАН
Возвращение Трампа: сдвиг во внешней политике и глобальной стратегии США?
Конфликт в Судане: текущая динамика противостояния