Six heures. Le message n'était plus en ligne. Pourtant, cela a suffi à déclencher un petit tumulte numérique. Fin janvier, le British Museum a publié sur Instagram et Facebook des images d'une jeune femme regardant attentivement des objets de la collection. Le message était anodin : “Prendre le temps de regarder de plus près vaut toujours la peine”. Les images ne l'étaient pas. Elles semblaient avoir été générées par l'intelligence artificielle.
Après un flot de réactions négatives, les messages ont disparu aussi vite qu'ils étaient apparus. Ce qui est resté, ce sont des captures d'écran, des critiques et une question inconfortable qui résonne désormais bien plus largement qu'à Londres : que se passe-t-il lorsque des musées - des institutions qui tirent leur autorité de l'authenticité, de l'expertise et de la confiance - utilisent des images artificielles ?
Sans interprétation
L'incident lui-même s'est déroulé dans le calme. Les archéologues et les spécialistes du patrimoine ont réagi avec véhémence. Non pas tant sur l'esthétique des images, mais sur ce qu'ils considèrent comme un dépassement de principe. Les images d'IA, selon les critiques, sapent la distinction entre la documentation et la fiction, entre la représentation et la simulation. Surtout lorsqu'un musée les déploie sans interprétation explicite.
Fait remarquable, les images montraient un modèle qui ‘changeait’ de culture. Dans une image, elle portait des vêtements d'Asie de l'Est, dans une autre des motifs d'apparence mexicaine, tout en regardant un objet aztèque de la collection. Pour les critiques, il s'agit là d'un exemple de problème bien connu en matière d'intelligence artificielle : des ensembles de données inégalement répartis sur le plan culturel et qui reproduisent des stéréotypes. “Comme si toutes ces cultures étaient identiques”, a fait remarquer l'un d'entre eux. .
L'IA génère
Le British Museum a réagi sur la défensive, mais de manière reconnaissable. Il s'agissait d'un “contenu généré par les utilisateurs”, a déclaré le porte-parole. Le musée lui-même ne publie pas d'images d'IA et a supprimé le message “en reconnaissant le caractère potentiellement sensible”. Dans le même temps, le musée a annoncé qu'il travaillait à l'élaboration de lignes directrices pour l'utilisation de l'IA dans l'ensemble du musée.
Ce faisant, l'incident touche à un mouvement plus large. Les musées sont au cœur d'une transition technologique qui n'est pas très différente des transformations numériques précédentes. Déjà à l'époque, le scepticisme était de mise : avec la numérisation des collections, avec les médias sociaux, avec la réalité virtuelle. Ce qui distingue l'IA, c'est la nature de la technologie. Là où les outils précédents reproduisaient ou distribuaient, l'IA génère. Elle crée des images, des textes et des interprétations qui paraissent convaincants mais qui n'ont pas de rapport direct avec la réalité physique. Pour les musées, cette nuance n'est pas anodine.
Fiable
Les institutions qui, pendant des siècles, ont construit leur légitimité sur la préservation et la contextualisation d'objets authentiques entrent soudain dans un domaine où la distinction entre le réel et le synthétique est floue. Non seulement pour les visiteurs, mais aussi pour les professionnels. Lorsqu'une image d'IA est visuellement indiscernable d'une image photographique, la question passe de “est-ce beau ?” à “est-ce fiable ?”. C'est précisément là que se situe le cœur du débat actuel dans les musées.
Les organisations sectorielles internationales mettent désormais explicitement en garde contre ces tensions. L'Association des musées met l'accent sur la transparence comme premier principe : étiqueter l'utilisation de l'IA, préciser ce qui est synthétique et ce qui ne l'est pas. Ce n'est pas par technophobie, mais par responsabilité institutionnelle. Après tout, la confiance est le premier capital d'un musée.
Pouvoir
NEMO, le réseau européen des organisations muséales, place aussi explicitement l'IA dans un cadre de gouvernance et de politique. L'IA n'est pas un outil de communication, mais un développement stratégique ayant des implications pour les droits d'auteur, l'utilisation des données, le marché du travail et la légitimité publique. Les musées, selon cet argument, opèrent dans le domaine public et ont donc un devoir de diligence plus important.
L'UNESCO y ajoute une dimension géopolitique. Les institutions culturelles sont les gardiennes de la mémoire collective. Lorsqu'elles déploient une technologie qui dépend structurellement de modèles commerciaux et d'ensembles de données opaques, elles touchent à des questions de représentation culturelle et de relations de pouvoir.
Précieux
L'incident du British Museum montre comment des discussions politiques abstraites deviennent soudainement concrètes. Un post Instagram devient un test de crédibilité institutionnelle. Non pas parce que les images d'IA sont nécessairement problématiques, mais parce que leur contexte et leur cadrage sont décisifs.
Une image d'IA peut avoir une valeur éducative. Pensez à des reconstitutions, des visualisations ou des applications interactives. Mais elle nécessite une interprétation explicite. Sans ce contexte, elle crée exactement ce que les critiques craignent : une réalité esthétiquement attrayante mais épistémologiquement instable.
Responsabilité
Il en découle une deuxième source de tension. L'IA touche directement les rôles professionnels au sein des musées. Les conservateurs, les éducateurs, les chercheurs et les concepteurs tirent leur position de l'expertise et de l'interprétation. Lorsque l'IA prend en charge des tâches traditionnellement effectuées par des humains, ce n'est pas seulement le travail qui change, mais aussi la responsabilité.
Qui est responsable des erreurs, de la partialité ou des fausses déclarations ? Cette question reste largement sans réponse, mais elle devient de plus en plus urgente.
Paradoxe
Il est tentant de considérer l'IA comme un outil d'efficacité. Plus rapide, moins chère, plus évolutive. Mais pour les musées, l'efficacité est rarement le critère principal. Leur fonction sociale s'articule autour de la fiabilité, de la diligence et de la sensibilité culturelle. L'utilisation de l'IA sans un cadre normatif clair est donc presque inévitablement source d'irritation.
Il reste un paradoxe que de nombreuses institutions reconnaissent aujourd'hui. L'IA offre des possibilités sans précédent en matière de sensibilisation du public, de recherche et d'accessibilité. Dans le même temps, cette même technologie peut éroder précisément ce sur quoi les musées fondent leur autorité.
Miroir
Le British Museum a retiré les images. Cela a mis fin à la controverse immédiate. La discussion sous-jacente, elle, ne l'est pas du tout. Au contraire, l'incident est le symptôme d'une recherche de nouvelles règles de base dans l'ensemble du secteur. Car en fin de compte, le débat sur l'IA dans les musées ne porte pas sur les algorithmes. Il s'agit d'une question de confiance. De la réalité qu'un musée présente et des conditions dans lesquelles le public est prêt à accepter cette réalité.
Un post Instagram de six heures se révèle soudain être un miroir. Non pas de la technologie, mais de la fragilité des institutions culturelles à une époque où même les images perdent leur statut d'évidence.




