Twee panelgesprekken op het DLD congres in München afgelopen week – het ene over de toekomst van media in het tijdperk van AI, het andere over de maatschappelijke en morele implicaties van diezelfde technologie – leggen samen een ongemakkelijke waarheid bloot. Kunstmatige intelligentie is geen extern technologisch vraagstuk meer, maar een structurele kracht die raakt aan de kern van publieke informatie, culturele betekenis en menselijk samenleven. Niet de technologie zelf staat daarbij centraal, maar de keuzes die we maken over wie haar beheerst, wie haar voedt en wie haar corrigeert.

De journalistiek als laatste menselijke infrastructuur
In het mediapanel wordt opvallend eensgezind gesproken over een paradox: AI ondermijnt de journalistiek én maakt haar tegelijk urgenter dan ooit. Henry Blodget, oprichter van Business Insider en tegenwoordig zelfstandig uitgever, verwoordt het scherp:
“As long as there are human beings, we will always want to know what is happening and what it means.”
Blodget staat hier niet als nostalgicus, maar als realist: distributie, samenvatting en herverpakking van nieuws worden in hoog tempo geautomatiseerd. Wat overblijft is betekenisgeving – en die vraagt menselijke aanwezigheid, vertrouwen en context.
Dat punt wordt krachtig aangevuld door door Nederlander Almar Latour, CEO van Dow Jones. Vanuit zijn rol als uitgever van The Wall Street Journal wijst hij op de structurele inzet van dit moment:
“Information has value. It cannot just be taken, processed, and redistributed without permission.”
Latour spreekt hier niet alleen als media-executive, maar als verdediger van een publieke infrastructuur. Journalistiek is data, ja – maar data met maatschappelijke waarde. Als die waarde niet wordt erkend, verdwijnt de bron zelf. De geschiedenis van “informatie wil vrij zijn” heeft, zo waarschuwt hij, geleid tot nieuwswoestijnen en democratisch verval.
Van schaalvoordeel naar schaalbreuk
Waar grote spelers vechten om intellectueel eigendom, zien kleinere redacties een ander spanningsveld. Gordon Saft, hoofdredacteur van Rest of World, noemt AI een “accelerant” van bestaande crises: tanend vertrouwen, afhankelijkheid van platforms en de opkomst van “Google Zero”, waarbij zoekmachines het nieuws samenvatten zonder door te verwijzen. Tegelijk ziet hij een onverwachte kans:
“AI can level the playing field on the product and technology side.”
Kleine redacties kunnen sneller experimenteren, nieuwe formats bouwen en niches bedienen die voorheen onbereikbaar waren. Maar die technologische emancipatie lost het kernprobleem niet op: hoe vinden burgers straks nog wat betrouwbaar is?
Die vraag raakt aan wat Latour een “flight to quality” noemt. In een wereld van overvloedig, synthetisch gegenereerd nieuws wint niet wie het meeste produceert, maar wie vertrouwen heeft opgebouwd. Journalistiek verschuift zo van massaproduct naar culturele instelling.
AI als maatschappelijk systeem, niet als neutraal gereedschap
Het tweede panel verbreedt dit perspectief. Hier wordt AI niet besproken als hulpmiddel, maar als machtsstructuur. Meredith Whittaker, president van de Signal Foundation en voormalig medeoprichter van het AI Now Institute, waarschuwt expliciet tegen het idee van onvermijdelijkheid:
“What we are talking about is technology derivative of a very particular business model.”
AI, betoogt zij, is geen natuurkracht maar het product van een geconcentreerd ecosysteem van data, kapitaal en geopolitieke macht. Wanneer die infrastructuur onzichtbaar wordt, verliest de samenleving haar vermogen tot tegenmacht.
Haar waarschuwing over zogenoemde “agentic systems” – AI-systemen die autonoom handelen binnen besturingssystemen – raakt direct aan fundamentele vrijheden. Wanneer zulke systemen standaard toegang krijgen tot communicatie, gedrag en context, wordt privacy geen randvoorwaarde meer maar een marketingbelofte zonder technische basis. Dat raakt niet alleen techbedrijven, maar ook culturele instellingen, mediahuizen en overheden die afhankelijk zijn van digitale infrastructuur.
Wat maakt menselijk handelen waardevol?
De diepste laag van het debat wordt aangeboord door Edward Harcourt, directeur van het Institute for Ethics in AI in Oxford. Hij verlegt de vraag van “wat kan AI” naar “wat verliezen wij”:
“The one thing a machine cannot do is commiserate – because it cannot suffer.”
Volgens Harcourt schuilt menselijke waarde niet in output, maar in gedeelde kwetsbaarheid: sterfelijkheid, empathie, wederkerigheid. Zodra informatie-uitwisseling volledig wordt losgekoppeld van menselijke aanwezigheid, verschraalt de betekenis ervan.
Die observatie is ongemakkelijk relevant voor cultuur en media. Als aanbevelingen, samenvattingen en zelfs gesprekken worden geautomatiseerd, blijft de vraag: wie deelt hier nog zijn geest met wie?
Hoop zonder naïviteit
Tot slot biedt investeerder Bradley Horowitz een ander vocabulaire: niet optimisme, maar hoop. Hoop als actieve houding, die vraagt om ethiek, governance en zelfbeperking. Technologie kan bijdragen aan menselijk welzijn, stelt hij, maar alleen als zij bewust wordt ingebed in waarden en tegenmacht.
Conclusie: cultuur als verdedigingslinie
Wat beide gesprekken verbinden, is het besef dat AI geen technologisch detail is, maar een culturele stresstest. Voor journalistiek betekent dit een herwaardering van oorsprong, vakmanschap en vertrouwen. Voor de samenleving vraagt het om volwassenheid: het stellen van vragen, het erkennen van macht en het beschermen van menselijke aanwezigheid in systemen die steeds autonomer worden.
Voor culturele instellingen en intellectuele elites ligt hier een duidelijke opdracht. Niet om technologie af te wijzen, maar om haar te kaderen. Niet om snelheid te vieren, maar om betekenis te bewaken. Want in een tijdperk waarin alles kan worden gegenereerd, wordt datgene wat niet kan worden gesimuleerd – menselijke ervaring, verantwoordelijkheid en oordeel – het schaarste-goed.





