europia logo white

Alerte au Deepfake

futuristic-computer-eq`uipment-glows-dark-connected-by-network-server-generated-by-ai-1080x675.png
19 Jun, 2024

Alerte au Deepfake

par Chiara Sottocorona, Journaliste et Écrivain


Voix clonées ; visages manipulés ou remplacés par des applications des applications d’échange de visages telles que RemakerAi ou Mio-Create ; de fausses vidéos créées en à peine une minute grâce à de nouveaux générateurs de vidéos tels que Sora (OpenAi) ou Veo (Google). L’intelligence artificielle générative brouille la frontière entre le vrai et le faux. Ainsi, les deepfakes sont devenus une arme de propagande redoutable lors des élections européennes qui ont appelé 370 millions de personnes à voter. Le terme vient de la contraction de deep learning (apprentissage profond) et de fake news (fausses nouvelles). « La manipulation d’images et de vidéos, mais aussi de textes, permet de construire de fausses théories attribuées à di;érentes personnalités ou autorités », explique le général Patrick Perrot, expert en intelligence artificielle et sécurité à l’Institut EuropIA et coordinateur pour l’intelligence artificielle à la direction nationale de la gendarmerie française. Ces techniques sont désormais à la portée de tous. La lutte contre l’information à l’ère des « deep fakes » est plus difficile que jamais.

Surtout face à la nouvelle menace : la prolifération de sites automatisés, générés et gérés de manière autonome par l’intelligence artificielle, qui portent la désinformation à une plus grande échelle. « En avril, mon collègue Jack Brewster, rédacteur en chef de NewGuard, a rapporté dans le Wall Street Journal à quel point il est facile, rapide et écologique de créer des fermes de contenu, des usines de contenu entièrement gérées par l’intelligence artificielle, et de les utiliser comme sites de discussion de fausses informations », explique Virginia Padovese, rédactrice en chef pour l’Europe et responsable de l’Italie chez NewsGuard, une organisation internationale de journalistes pour la prévention et la surveillance de la désinformation fondée en 2018 par Steven Brill et Gordon Crovitz, ancien rédacteur en chef du Wall Street Journal. « En seulement deux jours, note Padovese, pour un coût de 105 dollars et sans aucune expertise technique, Jack a lancé un site d’informations locales entièrement automatisé, capable de publier des milliers d’articles à orientation politique copiés et réécrits par Chat-Gpt sans aucune source accréditée. «

Entre avril 2023 et avril 2024, NewsGuard a identifié 840 sites automatisés de ce type. Dans les semaines précédant les élections européennes, on craignait un pic de désinformation, comme lors des élections en Inde, à Taïwan et en Slovaquie en septembre dernier. À peine 48 heures avant l’ouverture des bureaux de vote en Slovaquie, le chef du parti progressiste, Michal Simecka, a été victime d’un deepfake audio diffusé sur les médias sociaux : on pouvait l’entendre expliquer comment acheter les voix de minorités roms. Analysée par le département de vérification des faits et l’agence de presse Afp, la piste audio a été manipulée à l’aide de techniques d’intelligence artificielle.

Selon l’Observatoire européen des médias numériques (Edmo), la diUusion de fausses nouvelles liées à l’UE a atteint en mai son niveau le plus élevé depuis un an, représentant 15 % des désinformations en ligne. Des canulars flagrants ont également été signalés par le centre de surveillance des élections NewsGuard : sur X et Facebook, par exemple, une fausse aUirmation a circulé selon laquelle la présidente de la Commission européenne, Ursula von der Leyen, aurait un lien de parenté avec un officier nazi.

La technique consistant à synthétiser l’image humaine à l’aide de l’intelligence artificielle est de plus en plus utilisée. Parmi les informations en ligne, la part des fausses nouvelles est de 15 %. Données NewsGuard

« En ce qui concerne les élections de 2024 », déclare M. Padovese, « nous avons déjà trouvé 963 sites publiant des informations fausses ou trompeuses et 793 profils sociaux ou chaînes vidéo associées qui ont di;usé de manière répétée de fausses a;irmations sur les élections ». Antonio Parenti est le chef de la représentation de la Commission UE en Italie. « Vaincre la désinformation est une priorité pour les sociétés ouvertes et démocratiques », a-t-il déclaré lors de la conférence « Désinformation, démocratie et élections », organisée par l’Observatoire TuttiMedia à Rome le 27 mai. « Une réponse collective est nécessaire, alors que l’intelligence artificielle joue un rôle de plus en plus important dans la création de contenu et peut être difficile à reconnaître par un public non averti « . « Des règles et des lois pour condamner ceux qui diffusent des fausses nouvelles sont souhaitables », a conclu Maria Pia Rossignaud, vice-présidente de l’observatoire.

Dans la période précédant des élections en Slovaquie un faux film a été diffusé dans lequel un dirigeant de parti expliquait comment acheter des voix.

Firefly_fond_abstrait_intelligence_artificielle_ton_bleu_64069_1536x878_3d9b94eb61.webp 137.98 KB

Les contre-mesures mises en place par l’UE existent, le problème est de les appliquer. Tout d’abord, la DSA (Digital Service Act), qui impose aux plateformes en ligne des codes de conduite en matière de modération des contenus et une plus grande transparence dans l’utilisation des algorithmes.

Elle impose le marquage des faux posts, pour qu’ils ne deviennent pas viraux, et pour lutter contre les deepfakes, le « watermarking » (introduit dans l’Ai Act) pour reconnaître les contenus générés par l’intelligence artificielle. Plusieurs procédures sont en cours contre X, TikTok, Facebook- Instagram, qui n’ont pas respecté les règles. Les amendes pourraient atteindre jusqu’à 6 % du chiffre d’affaires de chaque entreprise.

Nombre de sites web, 840 dans le monde, diffusant des deepfakes automatisés, créés et gérés par AI.


Comment y remédier ?

  • Code de conduite pour les plateformes en ligne comptant plus de 45 millions d’utilisateurs, qui impose de bloquer la diffusion virale de contenus faux ou violents ou de contenus violents ;
  • Marquage obligatoire des contenus altérés ou faux exigé par le DSA auprès des plateformes sociales et de partage de vidéos pour prévenir les deepfakes ;
  • Watermarking pour reconnaître les contenus générés par l’Ai dans le cadre de la DSA et de l’Ai Act ;
  • Procédures contre TikTok et X déjà en cours ;
  • Enquête ouverte sur Facebook-Instagram-Facebook-Instagram soupçonnés de ne pas empêcher la diffusion de fake news et de deepfakes ;
  • Demande d’information envoyée à Microsoft « sur les risques de l’Ai générative de Bing, Copilot et Image Creator »
Partager:
hmyXqiVG_400x400.jpeg
Chiara Sottocorona

Designed by Algoretico © 2024 All Rights Reserved