Si vous pouvez lire ce document, c'est grâce à nos plus de 400 membres.
C'est bien, n'est-ce pas ?

Quelle est l'ambition du secteur culturel en matière d'IA ?

W

Dans un article précédent Je me suis attardé sur le tollé suscité par l'utilisation de l'intelligence artificielle par le British Museum. Il est apparu qu'il s'agissait moins d'un incident technologique que d'une tension culturelle. La discussion ne portait pas principalement sur les algorithmes, mais sur la confiance, la paternité et la question de savoir qui est responsable lorsque les machines interfèrent dans le domaine du sens et de l'interprétation. Il s'agissait d'un débat dans lequel la technologie a agi comme un catalyseur d'un malaise plus profond.

Ce malaise se retrouve, quoique plus subtilement, dans les récents documents politiques et normatifs du secteur culturel néerlandais. L'IA fait désormais partie intégrante du discours, mais elle y apparaît rarement comme une promesse explicite. Elle est surtout considérée comme un élément à encadrer avec soin. Ou, de manière moins euphémique, comme un élément à contrôler.

Vérifier

Lorsqu'il est Cadre politique du DEN en matière d'IA, le Norme muséale 2025 et si l'introduction de Birgit Donker à De Balie le 5 février, une image remarquablement cohérente se dégage. Les documents diffèrent par le ton, la portée et l'intention, mais partagent une logique sous-jacente. L'IA est abordée sous l'angle du contrôle, de la réglementation et de l'atténuation des risques. Le langage utilisé est celui du contrôle, des procédures et des responsabilités.

Le Cadre politique du DEN en matière d'IA est le plus explicite à cet égard. L'IA apparaît ici comme une pratique administrative qui appelle une politique. La fiabilité, les droits d'auteur et de portrait, la vie privée, la transparence, les préjugés et l'impact sur le travail sont systématiquement passés en revue. Sans exception, les questions posées dans le document sont rationnelles et nécessaires. Comment les résultats de l'IA sont-ils contrôlés ? Comment les organisations gèrent-elles les erreurs ou les hallucinations ? Quel est le rapport entre les applications de l'IA et les droits d'auteur ? Quelles sont les mesures nécessaires pour protéger les données personnelles ? Quand l'étiquetage ou l'explication sont-ils nécessaires ?

L'attitude sous-jacente est d'ordre managérial. L'IA introduit des risques et des incertitudes et nécessite donc des accords explicites. La structure et la responsabilité sont au cœur de la démarche. L'IA apparaît moins comme un moteur créatif que comme une tâche de gestion.

Stabilité

Le Norme muséale 2025 choisit un itinéraire différent, mais aboutit à un résultat similaire. L'IA est à peine mentionnée explicitement, mais elle est implicitement présente partout. La gestion des risques, la numérisation et la sécurité de l'information numérique incluent naturellement des applications de l'IA. La norme ne traite donc pas l'IA comme une technologie exceptionnelle, mais comme un élément des normes professionnelles existantes. Tout ce qui s'applique à l'informatique, aux données et à la continuité s'applique également à l'IA.

Là encore, la stabilité domine. Les procédures, l'assurance, les cycles PDCA et les politiques de continuité forment le cadre. L'IA est intégrée dans une logique institutionnelle axée sur la qualité, la sécurité et le professionnalisme.

Le conférence de Birgit Donker introduit un registre différent. Ici, l'IA passe du niveau organisationnel à un contexte social et économique plus large. L'accent est mis sur les droits d'auteur, la création de valeur et la position des créateurs. L'IA est décrite comme un système qui perturbe les mécanismes de distribution existants, mais il est remarquable que le texte s'ouvre avec emphase sur une reconnaissance qui est souvent sous-estimée dans le débat : L'IA rend beaucoup de choses possibles et offre des opportunités.

Instrument

Ce passage n'est pas purement rhétorique. Le document fait explicitement référence aux artistes et aux créateurs qui utilisent déjà l'IA comme outil et comme matériau. L'IA, l'intelligence artificielle, rend beaucoup de choses possibles, elle offre des opportunités. Des artistes en tirent parti, comme le collectif de performance URLAND avec leur performance l'art vivant à l'heure du numérique. Mme Donker estime que le secteur de la création ne doit pas être considéré exclusivement comme une victime du changement technologique, mais plutôt comme une source d'innovation. Les programmes d'innovation en matière d'IA devraient être ouverts aux artistes, affirme-t-elle, et d'autres parties devraient impliquer structurellement les créateurs. Ici, l'IA n'apparaît pas seulement comme un risque ou une menace, mais comme une opportunité.

Le discours de Mme Donker contient un autre élément qui mérite l'attention : sa proposition d'un prélèvement de 5 % sur les abonnements à l'AI, destiné à financer un fonds de transition pour les créateurs. Le principe de cette proposition ne m'est pas étranger. En tant que président de la commission des médias du Conseil de la culture, j'ai proposé il y a des années un système similaire pour le secteur du streaming : un prélèvement limité sur les abonnements, afin qu'une partie des revenus de la distribution revienne à la production nationale. Cela a pris du temps, mais le principe a fini par être mis en œuvre. Cet argent reste dans le secteur et renforce l'écosystème des créateurs et des producteurs.

Garniture blanche

Avec l'IA, les choses sont plus fondamentalement différentes. Les fournisseurs opèrent à l'échelle mondiale, les chaînes de valeur sont diffuses et les effets s'étendent bien au-delà des arts et de la culture. La transition provoquée par l'IA générative affecte potentiellement le vaste champ des professions en col blanc. Un fonds de transition peut soulager les créateurs, mais le changement structurel deviendra pertinent pour une grande partie des travailleurs de la connaissance. Le débat sur l'IA devient inévitablement un débat sur la conception du travail au 21e siècle.

Après la lecture de ces trois documents, un curieux vide reste palpable. Ce qui domine presque partout, c'est le langage du contrôle. Les cadres juridiques, éthiques et organisationnels définissent le discours. L'IA est réglementée, normalisée, analysée.

Biais

Ce réflexe est compréhensible. Les institutions culturelles opèrent dans un environnement où les fonds publics, la légitimité sociale et la confiance sont essentiels. La prudence n'est pas une faiblesse, mais une nécessité institutionnelle. Pourtant, cela crée un biais subtil. L'IA apparaît avant tout comme une source de risque, et non comme un outil permettant de créer de nouvelles formes de valeur culturelle. Ce qui est moins visible, c'est sa traduction en pratique et en ambition. C'est remarquable, car l'IA offre évidemment plus que le risque, comme le souligne à juste titre Donker.

Ils ouvrent de nouveaux espaces d'interprétation et de présentation. Les modèles de grand langage peuvent établir des liens entre les objets, les contextes et les récits à une échelle qui transcende les méthodes de recherche traditionnelles. Ils ne remplacent pas les conservateurs, mais complètent leurs outils d'analyse. Les interfaces IA permettent des formes d'interaction avec le public dans lesquelles les visiteurs ne sont plus simplement des destinataires passifs, mais des interlocuteurs actifs. La technologie peut améliorer l'accessibilité, favoriser le multilinguisme et renforcer l'inclusivité.

Risque paradoxal

De nouvelles possibilités apparaissent également dans la pratique artistique. Les artistes font déjà de nombreuses expériences avec des systèmes génératifs, des images synthétiques et des récits algorithmiques. L'IA n'y est pas une menace, mais un nouveau matériau. Le Hollandais Jeroen van der Most est un artiste de l'IA de renommée internationale.

Une approche essentiellement défensive de l'IA crée un risque paradoxal. Il ne s'agit pas seulement d'une atteinte à la légalité ou à la réputation, mais d'une perte de pertinence. Les attentes du public évoluent. Les jeunes générations évoluent naturellement dans des environnements numériques interactifs et réactifs. Les institutions qui considèrent l'IA uniquement comme une question de conformité risquent de suivre la technologie plutôt que de contribuer à la façonner.

Risques acceptables

L'innovation et la maîtrise se tolèrent mal lorsqu'elles sont strictement séparées. L'IA se nourrit d'expérimentations, d'itérations et d'applications inattendues. Les cadres politiques supposent la prévisibilité et le contrôle. C'est peut-être la raison pour laquelle l'IA nécessite une couche supplémentaire en plus des normes et des politiques : une vision explicite de l'innovation.

Non seulement les risques à éviter, mais aussi les risques acceptables dans la poursuite de l'innovation. Le secteur culturel possède traditionnellement une capacité unique à explorer les nouveaux médias de manière critique et créative. L'art et la technologie ont toujours entretenu une relation réciproque. Pourquoi l'IA serait-elle une exception ?

La politique en matière d'IA est nécessaire. Mais à elle seule, la politique permet surtout d'éviter les dégâts. C'est l'ambition qui donne la direction. C'est peut-être là que réside la prochaine étape pour le secteur : ne plus considérer l'IA exclusivement comme quelque chose à contrôler, mais comme un nouvel espace dans lequel les institutions culturelles peuvent redéfinir leur propre rôle.

Parce que la technologie évolue sans cesse. La question est de savoir qui en détermine le sens.

PS : il est intéressant de suivre un projet dans lequel ils travaillent à la conception d'une archive mondiale en ligne qui guide l'impact de l'IA sur l'art, la culture et la production de connaissances. https://www.allianceimpact.org/

J'apprécie cet article !

don
Je fais un don

Réagissez !

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.

Articles populaires

Dépenses récentes

Vive l‘’amateur" !’

Vive l‘’amateur" !’

Dans ce numéro : la valeur unique des amateurs, la cybersécurité, le théâtre punk et la maladie d'Alzheimer.
Analogique ou IA ?

Analogique ou IA ?

N'oubliez pas de réfléchir à l'IA. Et le Holland Festival, et Jip et Naaz, et VPRO.
Gros sous et petit art

Gros sous et petit art

Il est tout à fait possible de faire revivre le punk dans le théâtre et loin des grandes technologies.

Catégories