Invité aux Grandes conférences de la Chaire de recherche du Canada en études cinématographiques et médiatiques, le chercheur a mis en garde contre la « récupération politique de la vectorisation de la culture ».
Olivier Du Ruisseau

Le partenariat cinEXmedia a reçu, à l’Université de Montréal le 29 octobre 2025, Antonio Somaini, professeur de théorie du cinéma, des médias et de la culture visuelle à l’Université Sorbonne Nouvelle et membre senior de l’Institut universitaire de France, dans le cadre des Grandes conférences de la Chaire de recherche du Canada en études cinématographiques et médiatiques.
Approfondissant des réflexions entamées lors d’un travail commissarial pour l’exposition Le monde selon l’IA, présentée d’avril à septembre derniers au Jeu de Paume à Paris, le professeur Somaini a mis en lumière le rôle des espaces latents dans l’utilisation d’archives visuelles par des artistes à l’aide de l’intelligence artificielle (IA), ainsi que leur dimension politique intrinsèque.
Précisons d’emblée qu’un espace latent est une représentation compressée et abstraite de données construite par des algorithmes d’IA. Autrement dit, il s’agit d’un espace numérique dans lequel chaque donnée (image, texte, son) est encodée sous la forme d’un vecteur de nombres. Ces vecteurs, issus du processus d’apprentissage, organisent les informations selon leurs similarités statistiques plutôt que selon des catégories explicites. Par exemple, une IA entraînée sur des images peut apprendre à repérer des objets, des textures ou des styles visuels ; ces caractéristiques seront alors encodées sous forme de positions dans l’espace latent associé à chaque image.
« En préparant l’exposition, je me suis demandé : “Que signifie faire l’expérience du monde à travers l’IA?”, a expliqué Antonio Somaini. “Que signifie reconnaître, imaginer, interagir avec autrui, lire, voir ou écouter, dans un monde de plus en plus infiltré par des modèles d’IA, qui agissent comme des filtres transformant notre manière de percevoir, de penser et d’écrire?” »
Risques de biais idéologiques
En effet, l’intelligence artificielle ne perçoit pas les données de la même façon que les êtres humains. Elle étiquette et encode elle-même toutes sortes d’informations « selon des logiques algorithmiques », souvent sans que l’on sache comment, a précisé le chercheur. Ainsi, une archive visuelle numérique organisée ou même générée par l’IA suscite un rapport au monde radicalement différent de celui d’une archive physique ou numérique traditionnelle.
C’est pourquoi le professeur Somaini a émis une mise en garde contre la « récupération politique de la vectorisation de la culture ». S’inspirant de Michel Foucault qui, dans L’archéologie du savoir (1969), définit l’archive non comme une simple collection de documents, mais comme « le système général de formation et de transformation des énoncés », il a souligné les biais potentiels de l’intelligence artificielle générative.
Dans le contexte actuel de tensions géopolitiques croissantes et de forte concentration industrielle des technologies d’IA, largement dominées par des entreprises états-uniennes, « il est plus pressant que jamais de considérer les espaces latents comme des lieux de pouvoir, a-t-il dit. L’administration Trump a déjà commencé à faire disparaître certains mots des documents officiels de l’État, dont l’adverbe historically, a-t-il ajouté. Cela s’inscrit dans une logique typique des régimes autoritaires, c’est-à-dire présenter une version univoque de l’histoire. »
Des exemples institutionnels et artistiques
Le chercheur a mentionné, à titre d’exemple, le Founder’s Museum, un nouveau musée associé à la Maison-Blanche et financé par des lobbys conservateurs américains, qui a ouvert à l’automne dernier pour marquer le 250e anniversaire de l’indépendance des États-Unis, prévu à l’été 2026. L’institution, qui propose un regard patriotique sur l’histoire du pays et minimise la contribution des Africain·es-Américain·es, a présenté dans sa principale exposition des vidéos réalisées à l’aide de l’IA, animant des images célèbres de figures comme John Adams et Thomas Jefferson.
Celles-ci mêlent des phrases historiquement associées à ces personnages, tirées de véritables sources d’archives, à des dialogues fictionnels. La vidéo de John Adams a semblé particulièrement troublante aux yeux d’Antonio Somaini. Le deuxième président de l’histoire des États-Unis y déclarait notamment : « Facts do not care about your feelings », une phrase souvent énoncée par Ben Shapiro, commentateur conservateur américain associé à PragerU, principal bailleur de fonds de l’institution.
Le chercheur a toutefois conclu sa conférence sur une note plus inspirante en présentant, à travers des extraits de quatre courts métrages, différentes manières dont l’IA générative peut constituer de nouvelles formes d’archives visuelles ou rendre compte de la manière dont l’information est classifiée dans les espaces latents. Ce dernier point a notamment été abordé dans What Do You See, YOLO9000 ? (2014), de Taller Estampa. Sur des images de scènes cultes de classiques du cinéma, comme Deux ou trois choses que je sais d’elle (Jean-Luc Godard, 1967) ou Jeanne Dielman, 23, quai du Commerce, 1080 Bruxelles (Chantal Akerman, 1975), des mots désignant les objets visibles apparaissaient à l’écran, marquant un contraste entre la perception du réel par l’IA, encodée dans les espaces latents, et l’expérience vécue du film par des êtres humains.
Or, de tels réflexes automatiques de l’intelligence artificielle demeurent pour l’instant « limités par l’infrastructure numérique » et reposent donc sur des structures humaines, a conclu Antonio Somaini : « L’espace latent représente une matrice de possibilités, mais il reste aussi à voir comment nous pourrons l’encadrer. »
