par Pedro Guanaes
Ce changement n’est pas une simple idée, il se produit déjà. Depuis plusieurs mois, on voit circuler des vidéos montrant de faux intellectuels, de faux experts et de faux leaders d’opinion. Le visage paraît crédible, la voix semble familière, le ton copie l’original. Pourtant, la personne n’existe pas, tout est fabriqué pour attirer l’attention, gagner la confiance et obtenir de l’argent.
On pourrait penser qu’il s’agit seulement d’un jeu de miroirs numériques ou d’une version moderne des montages et des parodies d’autrefois. Mais ce n’est pas le cas. Ces contenus ne se présentent jamais comme des fictions. Ils ne disent pas qu’ils sont faux. Ils misent sur l’ambiguïté, le flou et le doute. Ils laissent planer le doute. C’est justement cette zone grise qui les rend efficaces.
Ce qui évolue, ce n’est pas seulement la technologie, c’est aussi l’échelle. Avant, la falsification nécessitait beaucoup de moyens. Aujourd’hui, elle est accessible, rapide et producible en grande quantité. On peut créer des dizaines de fausses interventions, les tester, les modifier, les diffuser, les supprimer, puis recommencer. Le mensonge devient un flux continu, optimisé pour les algorithmes et la recherche de profit.
Les premiers visages falsifiés
Les premiers exemples concernaient surtout des personnalités internationales très connues. On a vu passer de fausses vidéos de Warren Buffett, où il tenait des propos simplistes, parfois racoleurs, très différents de son style habituel. Le visage et la voix étaient ressemblants, mais il y avait quelque chose de faux, le discours était trop lisse, trop rapide, trop mécanique, sans hésitation ni nuance.
Vidéo entièrement générée par l'IA de Warren Buffet, contenu extrêmement grave puisqu'il donne des conseils d'investissement financier et peut entrainer des pertes financières colossales chez les personnes qui seraient tentés de suivre ces conseils.
Ensuite, des vidéos attribuées à John Mearsheimer sont apparues. C’était le même principe du décor neutre, de la posture figée, et la voix artificielle. Le discours semblait inspiré par ses analyses, mais manquait de complexité, de prudence et de structure. C’était une imitation grossière, qui pouvait tromper ceux qui ne connaissaient pas son travail, mais qui paraissait absurde à ceux qui le connaissaient bien.
Le cas Emmanuel Todd
La diction est impeccable, même trop. Il n’y a aucune hésitation, aucun temps de réflexion, aucun silence qui montre la pensée en train de se former. Le rythme rappelle celui d’un présentateur standardisé, pas celui d’un chercheur qui réfléchit à voix haute. Un autre détail d'importance manque aussi l’humour. Emmanuel Todd sait souvent être drôle, ironique ou mordant. Ici, il n’y a rien de tout cela. Pas de détour, pas de remarque piquante, rien. Le discours est plat, sans relief.
Le discours imite sa façon de penser, mais sans vraiment la saisir. On retrouve certains thèmes, certains mots, certains points de vue, mais tout manque de profondeur et de structure. Pour ceux qui connaissent bien son travail, la supercherie est évidente. Mais pour un public plus large, qui ne connaît Todd qu’à travers quelques citations ou extraits viraux, l’illusion fonctionne. C’est justement cette zone intermédiaire, entre l’ignorance complète et la connaissance approfondie, que ces faussaires cherchent à exploiter.
Comment fabrique-t-on un double numérique ?
La deuxième étape concerne le visage. À partir de photos et de vidéos, on crée un avatar numérique qui ressemble à la personne, sans être tout à fait identique. Ce petit écart est typique de l’IA, en effet la peau paraît trop lisse, le regard semble un peu fixe et les mouvements sont limités. Pour cacher ces défauts, les vidéos sont souvent filmées sur un fond neutre, avec un cadrage serré, un éclairage uniforme et une posture presque immobile. L’absence de gestes devient alors une stratégie car moins il y a de mouvements, moins il y a de risques de révéler la supercherie.
La troisième étape concerne le texte. Il faut produire un discours qui ressemble à celui de la personne imitée, sans en faire une simple copie. On a alimenté des modèles de langage avec ses écrits, ses interviews et ses expressions. L’outil apprend son style, son ton et ses thèmes habituels. Il peut alors créer des textes « à la manière de ». Le résultat n’est jamais une vraie réflexion, mais plutôt une moyenne de ce qui a déjà été dit, une imitation de cohérence. Dès qu’il s’agit d’événements nouveaux ou de raisonnements complexes, le faux devient visible et tout d'un coup le discours devient vague, contradictoire ou paraît forcé.
Pourquoi ça marche ?
Si ces faux réussissent, ce n’est pas seulement grâce à la technologie. Ils trouvent leur place parce qu’il y a un vide. Beaucoup de personnalités publiques ne sont pas actives sur les réseaux sociaux et n’ont ni chaîne officielle ni compte actif. Pourtant, les gens veulent du contenu à leur sujet. Les faussaires profitent de cet espace inoccupé.
Ils tirent aussi parti d’un réflexe humain simple qui est que nous faisons confiance à ce qui nous est familier. Un visage connu, une voix reconnaissable ou un nom célèbre suffit à nous faire douter moins. Peu de personnes prennent le temps de vérifier d’où vient une chaîne, l’historique d’un compte ou la cohérence du message. L’apparence remplace alors la vraie source.
Enfin, il y a la logique économique des plateformes. Chaque vue rapporte de l’argent. Plus un contenu choque, surprend ou conforte des idées reçues, plus il se propage. Les discours “artificiels” sont souvent simplifiés à l’extrême, polémiques ou caricaturaux. Leur but n’est pas de faire réfléchir, mais de générer des clics. Le mensonge devient alors rentable, puis industriel.
Le risque majeur de la mémoire falsifiée
Demain, on accusera des intellectuels, des responsables politiques ou des personnalités publiques d’avoir tenu des propos qu’ils n’ont jamais prononcés. Beaucoup répondront : « Si, je l’ai vu, je l’ai entendu. »
Ce ne sera pas un mensonge délibéré, mais un souvenir créé. Ce sera une mémoire collective fausse, mais sincère.
C’est ici que l’IA transforme la nature du mensonge. On ne se trompera plus seulement à cause d’une mauvaise compréhension, mais parce qu’on aura vu quelque chose qui n’a jamais existé. Le faux ne sera plus seulement raconté, il sera aussi montré. Et pour beaucoup, ce qui est montré devient difficile à remettre en question.
Effet Mandela et confusion du réel
L’image et la voix donnent au faux une nouvelle force. Elles empêchent souvent l’analyse critique. On peut remettre en question un texte ou discuter d’une citation, mais il est bien plus difficile de douter de ce que l’on pense avoir vu soi-même. Le deepfake crée une nouvelle faiblesse puisque même la preuve visuelle devient incertaine, tout en conservant un impact psychologique.
À long terme, cela constitue une arme puissante et pertinicieuse pour accuser quelqu’un à l’aide d’images. Même si elles sont fausses ou démenties, elles auront déjà eu un effet. Le doute s’installe, la confiance disparaît, et il devient presque impossible de se défendre contre des souvenirs fabriqués mais sincèrement partagés par ceux qui y croient.
Que peut-on faire ?
On parle parfois de labels d’authenticité, de signatures numériques ou de marques telles que “contenu vérifié, humain réel”. L’idée est attirante, mais elle soulève des questions de qui attribue ces labels ? Sur quels critères ? Avec quelle légitimité ? Et surtout, comment faire pour que le public comprenne et utilise vraiment ces outils, plutôt que de simplement suivre ce que propose l’algorithme ?
En réalité, c’est à la fois plus simple et plus difficile car une partie de la responsabilité incombe au public. Il faut maintenant se poser des questions qui semblaient secondaires hier c'est à dire de se demander d’où vient ce contenu ? Qui le publie ? Est-ce une source que je connais, à laquelle j’ai confiance ? Tout ce qui ne fait pas partie de ce cercle de confiance doit être vu avec prudence, même si cela ressemble, parle ou a le visage de quelqu’un de connu.
L’économie du faux
On n’en est qu’au début
Nous entrons dans un monde où voir ne suffit plus pour croire, où entendre ne suffit plus pour savoir, et où même se souvenir ne garantit plus la vérité. La technologie qui permet de créer ces doubles numériques ne va pas disparaître. Elle va devenir plus performante, plus simple et plus accessible à tous. La vraie question n’est donc pas si ces pratiques vont se développer, mais à quelle vitesse et avec quelles conséquences. Conséquences pour les personnes dont on vole l’image et la parole. Conséquences pour les citoyens qui perdent leurs repères. Conséquences pour la démocratie, qui a besoin d’une réalité partagée. Nous ne faisons qu’entrer dans cette ère. Dans ce monde d’images créées et de voix synthétiques, la seule vraie protection, pour l’instant, reste la même qu’avant c'est à dire de douter, de vérifier, et de choisir consciemment les sources auxquelles on accorde sa confiance.
Article complet :