Le journalisme devrait être gratuit.
D'accord ?

Entre confiance et aliénation : ce que l'IA révèle sur les médias, le pouvoir et l'humanité

T

Deux tables rondes organisées lors du congrès de la DLD à Munich la semaine dernière - l'une sur l'avenir des médias à l'ère de l'intelligence artificielle, l'autre sur les implications sociales et morales de cette même technologie - ont mis en lumière une vérité dérangeante. L'intelligence artificielle n'est plus une question technologique externe, mais une force structurelle qui touche au cœur de l'information publique, de la signification culturelle et de la coexistence humaine. Ce n'est pas la technologie elle-même qui est centrale, mais les choix que nous faisons pour savoir qui la contrôle, qui la nourrit et qui la corrige.

photo de Guido van Nispen

Le journalisme, dernière infrastructure humaine

Le panel des médias est remarquablement unanime sur un paradoxe : l'IA sape le journalisme tout en le rendant plus urgent que jamais. Henry Blodget, fondateur de Business Insider et aujourd'hui éditeur indépendant, l'exprime clairement :

“Tant qu'il y aura des êtres humains, nous voudrons toujours savoir ce qui se passe et ce que cela signifie.”

Blodget n'est pas un nostalgique mais un réaliste : la distribution, le résumé et le reconditionnement des informations sont rapidement automatisés. Ce qui reste, c'est la création de sens - et cela nécessite une présence humaine, de la confiance et du contexte.

Le Néerlandais Almar Latour, PDG de Dow Jones, complète fortement ce point de vue. En tant qu'éditeur du Wall Street Journal, il souligne les enjeux structurels du moment :

“L'information a une valeur. Elle ne peut pas être simplement prise, traitée et redistribuée sans autorisation”.”

Latour s'exprime ici non seulement en tant que responsable des médias, mais aussi en tant que défenseur d'une infrastructure publique. Le journalisme, ce sont des données, oui, mais des données qui ont une valeur sociale. Si cette valeur n'est pas reconnue, la source elle-même disparaît. L'histoire de “l'information veut être libre” a conduit, prévient-il, à des déserts d'informations et à un déclin démocratique.

Des économies d'échelle aux économies d'échelle

Alors que les grands acteurs se battent pour la propriété intellectuelle, les petits éditeurs voient un autre champ de tension. Gordon Saft, rédacteur en chef de Rest of World, considère l'IA comme un “accélérateur” des crises existantes : la perte de confiance, la dépendance à l'égard des plateformes et la montée du “Google Zéro”, dans lequel les moteurs de recherche résument les nouvelles sans les rediriger. Dans le même temps, il y voit une opportunité inattendue :

“L'IA peut uniformiser les règles du jeu en ce qui concerne les produits et la technologie.”

Les petits éditeurs peuvent expérimenter plus rapidement, créer de nouveaux formats et desservir des niches qui étaient auparavant inaccessibles. Mais cette émancipation technologique ne résout pas le problème central : comment les citoyens trouveront-ils bientôt ce qui est fiable ?

Cette question touche à ce que Latour appelle la “fuite vers la qualité”. Dans un monde où les informations sont abondantes et générées de manière synthétique, ce n'est pas celui qui produit le plus qui l'emporte, mais celui qui a su instaurer la confiance. Le journalisme passe ainsi du statut de produit de masse à celui d'institution culturelle.

L'IA, un système social et non un outil neutre

Le deuxième panel élargit cette perspective. L'IA y est abordée non pas comme un outil, mais comme une structure de pouvoir. Meredith Whittaker, présidente de la Signal Foundation et ancienne cofondatrice de l'AI Now Institute, met explicitement en garde contre l'idée d'inéluctabilité :

“Il s'agit d'une technologie dérivée d'un modèle d'entreprise très particulier.”

Selon elle, l'IA n'est pas une force de la nature, mais le produit d'un écosystème concentré de données, de capitaux et de pouvoir géopolitique. Lorsque cette infrastructure devient invisible, la société perd sa capacité de contre-pouvoir.

Sa mise en garde contre les “systèmes agentiques”, c'est-à-dire les systèmes d'intelligence artificielle qui agissent de manière autonome au sein des systèmes d'exploitation, touche directement aux libertés fondamentales. Lorsque ces systèmes obtiennent un accès standard à la communication, au comportement et au contexte, la vie privée ne devient plus une condition préalable mais une promesse marketing sans fondement technique. Cela concerne non seulement les entreprises technologiques, mais aussi les institutions culturelles, les médias et les gouvernements qui dépendent de l'infrastructure numérique.

Qu'est-ce qui donne de la valeur aux actions humaines ?

Edward Harcourt, directeur de l'Institut pour l'éthique de l'IA à Oxford, aborde la couche la plus profonde du débat. Il déplace la question de “ce que l'IA peut faire” à “ce que nous perdons” :

“La seule chose qu'une machine ne peut pas faire, c'est compatir, parce qu'elle ne peut pas souffrir.”

Selon Harcourt, la valeur humaine ne réside pas dans la production, mais dans la vulnérabilité partagée : mortalité, empathie, réciprocité. Dès que l'échange d'informations est complètement déconnecté de la présence humaine, sa signification s'appauvrit.

Cette observation est d'une pertinence inconfortable pour la culture et les médias. Alors que les recommandations, les résumés et même les conversations deviennent automatisés, la question demeure : qui partage encore son esprit avec qui ?

L'espoir sans la naïveté

Enfin, l'investisseur Bradley Horowitz propose un autre vocabulaire : non pas l'optimisme, mais l'espoir. L'espoir est une attitude active, qui appelle à l'éthique, à la gouvernance et à l'autolimitation. La technologie peut contribuer au bien-être humain, affirme-t-il, mais seulement si elle est consciemment intégrée à des valeurs et à un contre-pouvoir.

Conclusion : la culture comme ligne de défense

Ce qui relie les deux conversations, c'est la prise de conscience que l'IA n'est pas un détail technologique, mais un test de résistance culturel. Pour le journalisme, cela signifie une réévaluation des origines, du savoir-faire et de la confiance. Pour la société, cela exige de la maturité : poser des questions, reconnaître le pouvoir et protéger la présence humaine dans des systèmes de plus en plus autonomes.

Pour les institutions culturelles et les élites intellectuelles, la tâche est claire. Ne pas rejeter la technologie, mais l'encadrer. Il ne s'agit pas de célébrer la vitesse, mais de préserver le sens. Car à une époque où tout peut être généré, ce qui ne peut être simulé - l'expérience humaine, la responsabilité et le jugement - devient une denrée rare.

J'apprécie cet article !

don
Je fais un don

Réagissez !

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.

Articles populaires

Dépenses récentes

Le monde a besoin de plus de punk

Le monde a besoin de plus de punk

Le système de subventions doit être différent, ce qui est possible si nous appliquons moins de règles. C'est également possible.
Se comporter

Se comporter

Ce que les codes nous apprennent sur ce qui ne vient pas naturellement

Catégories