Il y eut au XVIIe siècle une dispute artistique connue sous le nom de querelle du coloris. Elle opposait, en peinture, les tenants du dessin et ceux de la couleur ; ceux pour qui la ligne et la forme du tracé faisaient l’essentiel d’un tableau, et ceux qui ne juraient que par les sentiments suscités par les couleurs.

La synthèse d’image par intelligence artificielle nous ramène, par certains côtés, à cette vieille distinction picturale. Nous acceptons depuis longtemps que les images soient modifiées par des filtres de couleur. Presque toutes les photos professionnelles sont retravaillées de cette manière, pour changer l’exposition, la saturation, la luminosité, les courbes des ombres. Instagram a popularisé cette pratique en proposant l’application facile de filtres de retouche aux photos personnelles. C’était une modification profonde de l’image, dont l’atmosphère et même la signification pouvaient changer du tout au tout par la variation des couleurs. Pourtant, il était rare d’y voir un mensonge. Tout au plus se disait-on que les photos retouchées sur Instagram étaient un peu trop maquillées ; on n’allait pas jusqu’à dire qu’une photo ainsi modifiée pouvait constituer une fake news.

Il en va tout autrement des dernières évolutions de la synthèse d’image. La puissance et la facilité d’utilisation des derniers modèles d’intelligence artificielle générative, qu’ils soient commerciaux comme Midjourney ou en accès ouvert comme le tout récent Flux, ne permettent pas seulement de générer de nouvelles images ; elles permettent aussi, et peut-être surtout, la retouche facile de photographies existantes. Là, la retouche ne concerne pas les teintes et les valeurs ; il s’agit, au sens de la vieille querelle des coloris, de changer le dessin de l’image, en modifiant la position d’un personnage, en en ajoutant d’autres, en changeant le paysage à l’arrière-plan, en enlevant un accessoire. Il devient de plus en plus facile de le faire soi-même, y compris sur son téléphone : la fonctionnalité est incluse dans le dernier téléphone Pixel de Google, fait partie depuis maintenant plusieurs mois des outils centraux de Photoshop, et sera probablement ajoutée, à terme, dans les interfaces des grands réseaux sociaux. Une voiture disgracieuse à l’arrière-plan de la photo que vous allez publier sur Instagram ? Vous pourrez la faire disparaître aussi facilement que vous changez aujourd’hui sa luminosité. Mécontent de votre tenue sur un selfie ? Il sera tout aussi facile de changer votre accoutrement.

Voir de fausses images en permanence ne va pas nous rendre plus crédules — mais beaucoup plus sceptiques.

Raphaël Doan

Curieusement, cette possibilité de retouche nous paraît beaucoup plus importante que la précédente. La peur de la désinformation, de la crédulité généralisée, de la manipulation est désormais agitée au sujet de l’intelligence artificielle générative, alors qu’elle ne l’avait pas été pour les filtres Instagram. C’est peut-être une étrange victoire posthume des tenants du dessin sur ceux de la couleur : nous accordons plus de poids aux traits délimitant les objets sur une image qu’aux variations de son harmonie chromatique. On comprend bien sûr pourquoi. Ajouter une traînée de cocaïne sur le bureau, à l’arrière-plan de la photo d’un homme politique ? Faire apparaître les insignes d’une armée étrangère sur un cliché de guérilla urbaine ? N’importe qui pourra le faire en moins d’une minute, sur un téléphone, de manière convaincante. 

Il faut pourtant s’y résoudre : nous allons voir de plus en plus de contenu modifié par IA, non seulement dans les bas-fonds complotistes d’Internet, mais dans toutes nos consommations habituelles. S’il sera toujours possible, à l’issue d’une enquête, de déterminer si une image a été retouchée ou générée avec de la synthèse d’image, il sera impossible de le voir à l’œil nu. Les fausses photos au rendu plastique d’il y a un an seront remplacées par de fausses photos — parfaitement indiscernables des vraies. La difficulté sera même accrue car beaucoup ne seront que partiellement fausses, avec des retouches localisées. 

Ajoutons l’arrivée de modèles de vidéo de plus en plus fidèles. Nous étions habitués à l’idée qu’une photo peut être retouchée, car le faire sur Photoshop n’était pas extrêmement difficile. En revanche, modifier une vidéo pour y incruster des éléments artificiels était jusqu’ici une tâche extrêmement ardue, réservée aux spécialistes des effets spéciaux de cinéma et aux as du truquage. Ce n’est pas un hasard si les vidéos d’OVNI qui tournent sur internet sont toutes floues, minuscules et tremblottantes : il est plus facile de les fabriquer ainsi qu’en 4k. Ce ne sera bientôt plus le cas, lorsque les modèles d’IA de vidéo seront perfectionnés : la vidéo deviendra alors par principe aussi suspecte que l’image fixe.

Les fausses photos au rendu plastique d’il y a un an seront remplacées par de fausses photos — parfaitement indiscernables des vraies.

Raphaël Doan

Car c’est là l’essentiel : voir de fausses images en permanence ne va pas nous rendre plus crédules — mais beaucoup plus sceptiques. L’image, la vidéo n’auront pas plus de valeur que le texte. Précisément parce que l’IA générative sera intégrée dans nos outils quotidiens, nous saurons tous à quel point les images sont truquées. Le problème ne sera pas de savoir identifier les fausses photographies ; ce sera de croire aux vraies, qui seront elles aussi sujettes aux mêmes suspicions.

Le problème des fausses nouvelles n’a jamais été la crédulité du public ; c’est le manque de confiance dans les institutions. Le complotiste, la victime d’une fake news ont souvent ceci de commun qu’elles exercent trop leur esprit critique, qu’elles mettent en doute trop de choses, tout particulièrement ce qui a l’air officiel. La petite affaire Kate Middleton, qui a agité les réseaux sociaux au printemps 2024, en était une bonne illustration. Alors que la princesse était à l’hôpital puis en traitement pour ce qui s’est ensuite avéré être une maladie grave, les communiqués officiels de la famille royale se sont d’abord abstenus de donner des précisions sur l’état de santé de Kate. Une photo publiée par son compte Instagram officiel le 10 mars comportait des retouches évidentes, ce qui laissait penser qu’elle avait été intégralement recomposée. Il n’en fallait pas plus pour que les rumeurs s’en emparent : cette photo était générée par IA pour cacher la disparition de la princesse, qui avait divorcé, disparu ou pire… Il n’en était rien, bien sûr, et il s’agissait d’une simple retouche traditionnelle, mais l’anecdote est révélatrice. Désormais, toute image suspecte est accusée d’être synthétisée par IA, même quand elle ne l’est pas. Mais si la rumeur a pu enfler ainsi, c’est parce que la famille royale n’avait pas su, auparavant, donner confiance dans ses propres informations.

Le problème ne sera pas de savoir identifier les fausses photographies ; ce sera de croire aux vraies, qui seront elles aussi sujettes aux mêmes suspicions.

Raphaël Doan

Le problème est bien sûr plus grave quand la défiance s’étend à l’ensemble des institutions publiques et des organes de presse. C’est d’ailleurs pourquoi la liberté d’expression devrait, aujourd’hui plus encore qu’hier, être défendue à tout prix. S’il existe de la censure, quelle qu’en soit la raison, il est facile d’imaginer que l’on retouche des images, que l’on en cache d’autres, que l’on ne dit pas toute la vérité. Car le scepticisme ne l’emporte que s’il apparaît que le marché des mots et des images est faussé. Si nous voulons conserver un débat public sain à l’ère numérique, nous aurons besoin de transparence et de liberté.