En quelques clics, une IA peut aujourd’hui créer une image photoréaliste d’un président en train de déclarer la guerre. Mais cette image est totalement fausse. Bienvenue dans l’ère des DeepFakes. Aujourd’hui, la génération d’images est un des principaux atouts de l’IA. Cependant, pour générer des images, il faut un modèle, lui-même entraîné sur des millions d’images trouvées sur Internet, mais également sur des bases de données publiques (photos libres de droits) ou encore des images crées par les entreprises elles-mêmes. Ensuite, la génération d’images atteint aujourd’hui des sommets de réalisme, créant des DeepFakes(voir plus loin), mais posant également des problèmes de droits d’auteur. En effet, les images créées peuvent parfois reprendre le style de certains auteurs. Comme dit précédemment, l’IA atteint aujourd’hui des sommets en termes de réalisme. Il n’est pas compliqué de recréer une photo d’un président ou une vidéo. Ces images hyperréalistes ne sont pas sans conséquences. Elles donnent naissance à un phénomène aussi fascinant qu’inquiétant : les DeepFakes.
Table
Les enjeux des DeepFakes
Aujourd’hui, les DeepFakes posent des enjeux majeurs sur plusieurs niveaux :
La désinformation
Puisque les DeepFakes sont si réalistes, il est facile de faire croire ce que l’on veut aux personnes les plus crédules. De plus, ces mêmes personnes auront tendance à relayer l’information très vite, sans penser à vérifier les sources : une FakeNews se propage, un biais de confirmation se produit, et les gens se retrouvent désinformés
La malveillance
Certaines personnes peuvent utiliser des DeepFakes pour nuire à autrui en mettant certaines personnes en scène pour leur faire dire ou faire des choses qu’elles n’ont jamais réellement dites ou faites. Si diffusées sur les réseaux sociaux, ces vidéos ont de fortes chances de devenir virales, et de provoquer de la désinformation (comme vu plus haut) ou du cyberharcèlement (voir Les Arnaques aux DeepFakes).
La sécurité et la détectabilité
L’enjeu principal des DeepFakes est leur réalisme, qui rend difficile leur détectabilité, cependant, dans le cas de vidéos, il est assez facile de les détecter, car les IA ont du mal avec l’anatomie humaine ou les mouvements. De plus, dans les vidéos, les voix générées par IA sont facilement détectables car plus robotiques.
Comment détecter des images générées par IA ?
Sur les photos, on peut regarder les détails, car les IA ont souvent du mal avec ces derniers. Une expression bien connue : le diable se cache dans les détails. C’est tout aussi vrai pour les images générées par IA, une fourchette avec trop de pointes, une main avec sept doigts ou encore des bijoux trop flous sont le signe d’une image générée par l’IA. Mais malheureusement, cela peut souvent s’avérer ne pas être suffisant. Dans ce cas, il faut étudier la luminosité de l’image et l’expression des visages : Les modèles d’images centrent la lumière sur le personnage à l’écran, et les personnages ont souvent la même expression faciale souriante. Mais plus important encore, il faut prendre du recul et se renseigner sur la personne qui a posté cette photo : Si vous voyez une personne réaliser une grande sculpture avec des aliments, mais qu’elle ne s’appelle ni Phillipe Etchebest ni Cédric Grolet, ou même que son compte n’est pas vérifié, il y a anguille sous roche. Enfin, si quelqu’un que vous ne connaissez pas vous demande de l’argent (peu importe la raison), ne donnez rien, ou, renseignez-vous, posez-vous les bonnes questions : Pourquoi une célébrité me demanderait de l’argent ? Qui est cet enfant avec sa jolie sculpture ?
Fort heureusement, il existe des sites web et applications pour débusquer le vrai du faux qui s’appuient sur le bruit, le niveau de détails, et les éléments dupliqués : Forensically, is it AI… Également, Winston AI peut détecter les DeepFakes générés par IA mais également des textes
Exemples Concrets : Arnaques aux DeepFakes
L’affaire Brad Pitt
Tromperie, harcèlement et dépression, quand l’arnaque va trop loin. Le 12 Janvier 2025 dans l’émission “Sept à Huit”, un reportage est publié sur Anne une femme de 53 ans qui s’est fait escroquer 830.000€ par un faux Brad Pitt. Mais comment est-elle tombée dans le panneau ? Les escrocs ont commencé à envoyer des messages d’amour et de faux selfies à Anne afin de gagner sa confiance, allant même jusqu’à falsifier des documents d’identité. A ce moment-là, le piège était déjà refermé. Les escrocs ont poussé l’arnaque très loin en envoyant des vidéos d’un faux Brad Pitt demandant de l’argent pour différentes raisons, notamment un cancer du rein. Au total, c’est une somme astronomique de 830.000€ qui a été versée aux escrocs. Une fois médiatisée, l’affaire aura ruiné Anne. En effet, elle aura reçu une énorme vague de cyberharcèlement, la poussant à trois tentatives de suicide. Elle a porté plainte et est actuellement hospitalisée dans un établissement spécialisé dans les dépressions graves. Quelques jours après cette affaire, Brad Pitt s’est exprimé sur le sujet et a mis en garde ses fans.
Les sculptures parfaites
Récemment, un nouveau type d’escroquerie a émergé sur Facebook, visant particulièrement les personnes âgées. On y voit circuler des photos impressionnantes : des statues en bouteilles d’eau, des sculptures de fruits ou d’autres créations artistiques improbables, accompagnées d’une légende accrocheuse : « Personne ne m’a félicité, personne n’a aimé mon travail… ». Touchés par cette détresse apparente, de nombreux internautes, souvent des personnes âgées, réagissent avec bienveillance : « Magnifique travail, bravo ! » ou « Quelle patience ! ». Malheureusement, ces images sont souvent générées par intelligence artificielle, conçues pour paraître émouvantes ou admirables. Le problème ne s’arrête pas à une simple duperie visuelle. Ces publications sont souvent utilisées comme appâts pour inciter les internautes à verser de l’argent via des cagnottes, prétendument pour soutenir l’auteur de la création. En réalité, derrière ces comptes se cachent des individus mal intentionnés qui exploitent la compassion pour escroquer les plus vulnérables
Le problème des droits d’auteurs
Création d’images : La complexité des droits d’auteur
A qui appartiennent les images générées ?
D’un côté, les artistes produisent des images en tout genre et de haute qualité, de l’autre, les utilisateurs d’IA génèrent des images via un modèle entrainée sur des images en tout genre, libres de droit ou pas. La question se pose donc : A qui appartient l’image ? Bien souvent, on considère que c’est la personne qui a créé l’IA (GPT, Mistral, MidJourney). Cependant, il existe des exceptions : Si l’image a été commandée par autrui, alors elle lui appartient (pour une utilisation limitée). Il est possible qu’une image générée par une IA soit la vôtre, dans ce cas, vous pouvez prendre des mesures afin de la faire retirer, mais cela reste difficile, car il faudrait prouver que l’image contient votre image. Un peu plus simple : Prouver que l’image reprend – de manière flagrante – votre style graphique, dans ce cas l’image pourrait être protégée, mais encore une fois, la question des droits d’auteur reste floue.
Qu’en est-il des métiers de la création graphique ?
Des métiers comme Artiste IA pourraient bien naître car les IA sont de plus en plus rapides et puissantes (Et les cartes graphiques également). Et plus détaillées aussi car l’artiste IA peut détailler son prompt à souhait. Heureusement le métier de graphiste ne semble pas encore en danger car les créations par IA ont toujours des défauts comme les détails et les chiffres (Voir 1.4)
Quelles sont les législations ?
Aux Etats-Unis (en 2023), les images générées par IA ne peuvent pas être protégés par le droit d’auteur, cependant l’image peut être protégée partiellement si elle a été modifiée par une personne. Cependant, ces lois restent débattables. En France, les lois ne sont également pas complètement définies. Pour qu’une image soit protégée, il faut une intervention humaine. Des discussions sont en cours au sein de l’UE, et l’idée générale serait que l’intervention humaine doit être directe pour autoriser la protection de l’image
Le combat des doubleurs contre l’IA :
Mais les IA ne se limitent pas aux chat Bots et aux images, elles peuvent également créer de la musique, du son, mais ici, nous allons nous intéresser à la voix. En effet une IA est totalement capable de créer la voix d’un personnage dans un jeu ou dans un film, ce qui menace leurs emplois, qui font partie du patrimoine français. Normalement, les voix françaises sont protégées par des droits d’auteurs et des droits voisins, mais si une IA recrée une voix sans utiliser d’enregistrement existant, elle contourne en partie la législation, rendant la situation assez floue. Les doubleurs se sont unis contre cette législation trop floue avec le mouvement “Touche pas à ma VF” afin de demander une législation plus stricte pour protéger les œuvres, les emplois, et la culture.
Trois points à retenir
Détectabilité des images générées par IA
Les IA atteignent des niveaux de réalisme toujours plus élevés. Il est donc important de savoir démêler le vrai du faux, avec des techniques simples, ou des applications externes
Les arnaques au DeepFakes : Un problème social
Avec une image suffisamment réaliste, on peut faire croire tout et n’importe quoi, c’est pour cela qu’il ne faut pas se précipiter et prendre du recul par rapport aux situations, afin de se protéger
Droits d’auteurs et images générées par IA
L’IA pose de nombreuses questions quant à la protection des images générées par IA, à cause de leur origine, mais également quant à la protection des doubleurs. Pour l’instant, les législations sont simplement en train de se mettre en place car ce sont de véritables défis juridiques