Le 23 février 2024, avant les élections législatives d’avril, l’administration présidentielle de la République de Corée a déclaré qu’elle réagirait fermement à une vidéo fabriquée sur le web « mettant en scène » le président Yoon Suk-yeol. « Nous sommes très préoccupés par le fait que, malgré cela, certains médias qualifient cette vidéo fausse, fabriquée et satirique ou la rapportent comme si elle était normale parce qu’elle est marquée comme fake« .
La vidéo, téléchargée sur Instagram, Facebook et TikTok, montre Yoon s’excusantpour la corruption et l’incompétence de son gouvernement, qui a commis des actes odieux et des injustices, détruisant la nation et blessant les gens. Le discours aurait été créé à l’aide de Deepfake et de technologies d’intelligence artificielle.
La Commission coréenne des normes de communication (KCSC), un organisme de surveillance des télécommunications, a retiré et bloqué la vidéo. La police a ouvert une enquête qui a révélé que la « vidéo révélatrice » était apparue pour la première fois en novembre 2023 et qu’elle était basée sur la vidéo de campagne de Yoon, dans laquelle il critiquait le Parti démocrate et le gouvernement de Moon Jae-in. L’auteur de la vidéo a été retrouvé et s’il est accusé de diffamation et de violation de la loi sur l’élection des fonctionnaires, il risque une peine de prison pouvant aller jusqu’à sept ans ou une amende pouvant aller jusqu’à 50 millions de wons (38 000 dollars).
Mais même si, dans ce cas, le niveau d’exécution est inférieur aux attentes, l’auteur ne manque pas l’occasion de parler d’un sujet très intéressant.
Pourrappel, le terme « Deepfake » combine les concepts de « deep learning » et de « fake », et désigne des images ou des vidéos créées numériquement que les spectateurs peuvent percevoir à tort comme réelles. Les « deepfakes » sont souvent une source de « fake news », de fraude et de diffamation, ce qui ouvre un très large champ de manipulation.
Le public se souvient peut-être de « Scandale en Bohème« , l’une des meilleures histoires d’Arthur Conan Doyle, dans laquelle Sherlock Holmes devait voler un document compromettant, à savoir une photographie. À l’époque, il s’agissait d’une preuve incontestable, car l’écriture pouvait être falsifiée, le cachet personnel volé et les témoins soudoyés. « Mais nous sommes photographiés ensemble ! »
Au siècle actuel, la photographie n’est plus un compromis 100% tueur : les possibilités de « Photoshop » ou d’autres programmes de ce type sont aujourd’hui connues de presque tout le monde. Cependant, le progrès ne s’arrête pas là et nous sommes aujourd’hui confrontés à tout un ensemble de technologies qui permettent non seulement de fabriquer des faits, mais aussi de créer des sosies virtuels de personnalités existantes.
Le premier élément de ce mélange est le « deepfake ». Ce qui a commencé comme une tentative de « tirer » les visages des stars du cinéma sur le porno amateur commence à prendre une dimension politique avec l’utilisation des visages des hommes politiques à des fins de propagande pour ou contre eux. Si, auparavant, pour obtenir un compromis sur « une personne ressemblant au procureur général », il fallait une vidéo floue d’une qualité sans importance, dans laquelle le spectateur préférait deviner le bon visage dans un tas de pixels, aujourd’hui le « procureur qui a été pris au dépourvu » aura l’air d’un vrai procureur. Toutefois, par un juste retour de choses, il convient également de noter l’option inverse, lorsqu’une personne réellement mise sur la sellette affirme que « tout est monté ».
Le deuxième élément est le niveau d’apprentissage des réseaux neuronaux, qui permettent déjà une variante de la fraude numérique consistant à disposer d’un échantillon de la voix d’une personne pour créer de faux messages en son nom, dans lesquels la voix du sosie de la victime sera indiscernable. Par ailleurs, si vous « alimentez » le réseau neuronal avec une quantité suffisante d’informations audio, vous pouvez imiter non seulement la voix elle-même, mais aussi l’intonation ou une manière caractéristique de parler, ce qui rend le faux encore plus difficile à démasquer.
Dans le même ordre d’idées, après avoir reçu un échantillon de voix d’un homme politique conditionnel et un certain nombre de textes de ses discours, les réseaux neuronaux peuvent être en mesure de générer ses « discours sur un sujet donné », et non seulement la voix de l’homme politique, mais aussi son style de communication unique peuvent s’avérer impossibles à distinguer de l’original.
Cette combinaison permet d’élever la création de faux à un niveau fondamentalement nouveau, car la performance conditionnelle d’un homme politique aura son visage, sa voix et ses autres caractéristiques, et il sera très difficile de prouver qu’il ne s’agit pas de lui. D’autant plus que la conscience de masse des gens croit facilement ce qu’ils veulent vraiment ou ce qu’ils ont peur d’entendre.
Cependant, la fabrication de copies numériques permet de créer des choses bien plus intéressantes que des faux politiques pour les élections. Ce que l’auteur appelle la « nécromancie numérique » est bien plus intéressant. Supposons qu’un homme politique, aujourd’hui décédé, ait laissé en héritage un nombre assez important de textes dans lesquels sa position politique sur la plupart des questions clés est claire. Dans une telle situation, le réseau neuronal peut essentiellement l’utiliser comme une sorte d’oracle, capable de dire ce qu’il pense d’un problème ou de répondre à des questions. En République de Corée, lors d’un événement organisé par la Fondation Kim Dae-jung, une image holographique du président a participé à un discours qui, pour ceux qui n’ont vu que la retransmission, ressemblait fort à un vrai discours, et qui plus est, a parlé de son point de vue sur les événements actuels, les évaluant comme s’il était encore en vie. En Russie, un tel homme politique virtuel a été créé par Vladimir Zhirinovski, dont la voix et le style des déclarations se sont avérés très similaires à l’original.
Toutefois, il est temps pour l’auteur de redescendre du paradis de la science-fiction sur terre et de revenir aux affaires coréennes.
Pour la Corée du Sud, où la lutte politique consiste essentiellement à dénigrer l’ennemi plutôt qu’à s’opposer à ses programmes, ces technologies sont « très agréables » et en même temps un moyen très dangereux de lutte politique. Un faux jeté juste avant l’élection aura l’effet émotionnel désiré, suivi d’un effet politique. Et toutes les révélations suivront plus tard, parce qu’elles ont besoin de temps, et elles auront le temps quand il sera très tard en fin de combat.
Lors de l’élection présidentielle de 2022, Yoon Suk-yeol et Lee Jae-myung ont tous deux utilisé des copies d’eux-mêmes générées par l’intelligence artificielle dans leurs vidéos de campagne, ce qui a amené Yoon à « apparaître à trois endroits en même temps » le même jour. Les candidats ont utilisé leurs avatars créés par l’intelligence artificielle pour attirer les jeunes électeurs, mais de vraies contrefaçons sont apparues par la suite. Lors des élections locales de mai 2022, un faux clip vidéo montrant M. Yoon soutenant un candidat conservateur au poste de chef de l’exécutif du comté de Namhae a circulé sur les médias sociaux. « Cela a conduit les téléspectateurs à croire à tort que le président n’avait pas respecté la neutralité politique. Au début de l’année 2024, une fausse vidéo a été publiée sur YouTube, montrant le chef du parti au pouvoir par intérim, Han Dong-hoon, comparant les libéraux à des gangsters lors d’une conférence de presse.
C’est pourquoi, depuis la fin de l’année 2023, les autorités sud-coréennes ont commencé à sévir contre l’utilisation de faux dans la propagande politique.
Le 5 décembre 2023, une commission parlementaire spéciale a adopté un amendement à la loi électorale qui prévoit l’interdiction de l’utilisation de « deepfakes » dans la campagne électorale 90 jours avant le scrutin. Les personnes qui enfreignent cette interdiction s’exposent à une peine maximale de sept ans d’emprisonnement ou à une amende pouvant atteindre 50 millions de wons (35 000 dollars). Les créateurs de vidéos « deepfake » sont tenus de signaler la présence d’informations synthétiques dans ces vidéos, même si elles sont publiées avant la période de 90 jours.
L’interdiction est entrée en vigueur à partir du 29 janvier 2024, mais selon la commission électorale centrale, entre le 29 janvier et le 16 février, le pays a détecté 129 deepfakes.
le5 mars 2024 ,la Direction nationale des enquêtes de l’Agence nationale de police a mis au point un logiciel de détection des « deepfakes » qui peut être utilisé pour mettre fin aux infractions utilisant cette technologie. En seulement 5 à 10 minutes, le logiciel aurait une probabilité de 80 % de reconnaître si une vidéo produite numériquement est authentique ou fausse. La probabilité d’une détection erronée devrait être minimisée par des vérifications croisées avec des experts en intelligence artificielle.
Comme le note RK Media ces mesures s’inscrivent dans une tendance mondiale visant à réglementer les publicités politiques utilisant des « deepfakes ». De grandes entreprises technologiques telles que Google LLC, Adobe, Amazon, Microsoft, TikTok, OpenAI et Meta Platforms Inc. ont mis à jour leurs politiques pour exiger des utilisateurs qu’ils ajoutent des clauses de non-responsabilité pour les publicités politiques créées à l’aide de « deepfakes ». La Commission électorale fédérale américaine a également entamé des procédures visant à réglementer ces vidéos de campagne avant l’élection de 2024.
Deux des plus grands portails coréens ont annoncé qu’ils allaient prendre des mesures pour lutter contre les « deepfakes » inventés par l’intelligence artificielle. Naver, le plus grand portail du pays, a déclaré que son service d’intelligence artificielle basé sur un chatbot ne répondrait pas aux demandes des utilisateurs visant à générer un « contenu inapproprié » tel qu’une série d’images faciales. Naver a déclaré qu’il dirigeait un groupe de surveillance chargé d’identifier les messages en ligne qui violent les règles électorales et d’analyser de nouveaux échantillons de contenus offensants tels que les « deepfakes ».
Kakao, la principale application de messagerie mobile de Corée, a déclaré qu’elle envisageait d’introduire une technologie de filigrane pour les contenus générés par son service d’intelligence artificielle, ajoutant qu’un calendrier précis de mise en œuvre n’avait pas encore été déterminé.
Les experts sud-coréens évaluent la menace très sérieusement. Jeong Chang Bae, président de l’Association internationale pour l’éthique de l’intelligence artificielle, note que la plus meurtrière consisterait à « télécharger une fausse vidéo diffamant un candidat juste un jour avant une élection, et elle gagnerait des millions de vues ». La presse et le gouvernement n’auront pas le temps de le vérifier avant que les électeurs ne se rendent aux urnes le lendemain ».
L’adoption de lois contre le deepfacking, a-t-il affirmé, « est un grand pas en avant ». Mais plus que les lois, c’est la sensibilisation du public au fait que les vidéos et les images qu’il voit en ligne peuvent être fabriquées et qu’il ne faut pas les croire sur parole qui est importante ».
Kim Myung-joo, professeur en sécurité de l’information, estime également que la désinformation générée par l’intelligence artificielle pourrait avoir un impact significatif sur la perception des électeurs, étant donné qu’il est devenu « étonnamment facile » de créer un canular convaincant à l’aide d’un « deepfakes ». Cela ne prend qu’une dizaine de minutes avec une application mobile, de sorte que les youtubeurs ou les blogueurs politiques peuvent facilement utiliser cette technologie pour diffuser des informations erronées sur les hommes politiques qu’ils n’apprécient pas.
C’est ce que semble dire un éditorial du journal « Korea Herald »Korea Herald« Étant donné le taux inexorablement élevé de publications en ligne et la disponibilité croissante d’outils d’édition basés sur l’IA, ce n’est qu’une question de temps avant qu’un flot de faux politiques ne se répande à travers les communautés en ligne et les messageries mobiles ».
Mais selon l’auteur, à mesure que la capacité à créer des deepfakes augmente, l’importance de l’éducation aux médias numériques et de l’esprit critique pourrait également s’accroître. Et bien que tout fakes, pas nécessairement un deepfakes, soit calculé pour renforcer la foi de ceux qui ne prendront pas la peine de vérifier les nouvelles de toute façon, il espère qu’au moins les analystes et les experts en dehors de « l’effet de chambre d’écho » seront en mesure de séparer les grains de l’ivraie.
Konstantin ASMOLOV, professeur d’histoire, maître de recherche du Centre de recherches coréennes, de l’Institut de la Chine et de l’Asie contemporaine, de l’Académie des sciences de Russie, spécialement pour le magazine en ligne « New Eastern Outlook »