De terughoudendheid van het publiek ten opzichte van AI-gegenereerd nieuws
Recente onderzoeken in de Europese Unie en de Verenigde Staten tonen dat het publiek nog steeds de voorkeur geeft aan nieuws dat door mensen wordt geproduceerd en bewerkt. Men gelooft dat door mensen geleide verslaggeving betrouwbaarder, transparanter en verantwoordelijker is. Deze waarnemingen worden bevestigd door een ingrijpende verandering in hoe mensen toegang hebben tot, nieuws interpreteren en vertrouwen in de informatie stellen. Deze transformatie wordt gevoed door de opkomst van kunstmatige intelligentie (AI), die de dagelijkse informatiegewoonten van miljoenen beïnvloedt. Toch blijkt uit meerdere internationale studies dat de vertrouwenscijfers in AI-gegenereerd nieuws geleidelijk afnemen, naarmate de blootstelling eraan toeneemt.
Stijging van het gebruik van generatieve AI-systemen en het verlies van vertrouwen
Een belangrijke enquête uitgevoerd door het Reuters Institute onder zes landen laat zien dat het wekelijks gebruik van generatieve AI-platforms bijna verdubbeld is in het afgelopen jaar. Veel mensen gebruiken deze tools vooral om informatie te zoeken – bijvoorbeeld onderwerpen te onderzoeken, vragen te stellen en steeds meer, om daadwerkelijk nieuws te consumeren. Ondanks de snelle adoptie scheidt het vertrouwen zich niet mee. De meest gebruikte AI-tools – zoals ChatGPT, Gemini en Copilot – blijven ver achter bij nieuwsorganisaties als het gaat om publieke vertrouwen.
Veel gebruikers die AI-gegenereerde samenvattingen vinden via zoekopdrachten, klikken niet door om de originele rapportage te lezen. Dit betekent dat de manier waarop journalistiek het publiek bereikt, sterk verandert. Het is al zichtbaar dat meer dan de helft van de respondenten in de afgelopen week AI-gegenereerde antwoorden in zoekresultaten heeft gezien, een percentage dat hoger ligt dan het gebruik van standalone AI-systemen. Hierdoor worden veel mensen geconfronteerd met interpretaties van journalistiek die door AI zijn gegenereerd, zonder dat zij zich daarvan bewust zijn.
Risico’s van schaalvergroting en foutmarges in AI-inhoud
De zorgen over de juiste informatie in AI-gedreven antwoorden zijn niet slechts theoretisch. Een grootschalig, internationaal onderzoek onder 3.000 AI-uitkomsten in 18 landen, georganiseerd door de European Broadcasting Union (EBU) en geleid door de BBC, toont aan dat 45 procent van de antwoorden aanzienlijke fouten bevatte. Hiervan waren er systematische problemen zoals slechte bronvermelding, hallucinerende details en verouderde of misleidende informatie. Gemini presteerde het slechtst, met significante tekortkomingen in meer dan driekwart van de antwoorden. Deze fouten zijn niet onbelangrijk, omdat het publiek vaak aannames doet dat AI-samenvattingen correct zijn, en zowel de AI-tool als de genoemde media verantwoordelijk houdt voor de fouten, zelfs als de fout bij de uitgever ligt.
Voor publieke omroepen die al te maken hebben met desinformatie en scepsis, vormt dit een existentiële bedreiging. Zoals de EBU waarschuwt, wanneer mensen niet kunnen onderscheiden welke informatie betrouwbaar is, vertrouwen ze uiteindelijk helemaal niets meer.
De opkomst van AI-gegenereerde content en de onzichtbare laag
De omvang van de AI-gegenereerde teksten online groeit gestaag en overtreft bijna de hoeveelheid door mensen geschreven materiaal. Uit een analyse van Graphite, op basis van 65.000 artikelen, blijkt dat AI-content eind 2024 het menselijke schrijven heeft overtroffen op het open web. Toch bereikt een groot deel van deze AI-inhoud de lezers niet. Het onderzoek toont aan dat AI-gegenereerde artikelen zelden via zoekmachines als Google of in de resultaten van ChatGPT verschijnen, waardoor een verborgen laag van massaproductie met lage kwaliteit ontstaat onder het zichtbare informatieveld.
Zelfs als deze AI-inhoud niet wordt gezien, worden de zichtbare resultaten – AI-gecurateerde of -geframeerde samenvattingen – ingezet om de publieke perceptie te beïnvloeden. Deze ontwikkelingen veranderen de manier waarop het publiek nieuws begrijpt en interpreteert.
Verval van vertrouwen en maatschappelijke zorgen
Aan de andere kant van de Atlantische Oceaan geeft een recente peiling van het Pew Research Center stof tot bezorgdheid: ongeveer de helft van de Amerikanen verwacht dat AI in de komende 20 jaar een negatieve invloed zal hebben op het nieuwsaanbod. Meer dan de helft verwacht dat het zal leiden tot minder banen in de journalistiek. Zelfs onder degenen die positief zijn over de maatschappelijke voordelen van AI, heersen twijfels over de impact ervan op de nauwkeurigheid van het nieuws. Twee derde van de ondervraagden geeft aan zich grote zorgen te maken over het verspreiden van onjuiste informatie door AI. Opmerkelijk is dat deze zorgen breed gedeeld worden over politieke groepen, wat zelden voorkomt in dergelijke consensus.
Wat de opleidingsniveau betreft, is er wel een verschil: mensen met een hogere opleiding zijn over het algemeen pessimistischer over de rol van AI in de journalistiek en meer terughoudend over de betrouwbaarheid van AI-geschreven nieuws.
De nieuwe machtsverhouding en het ontbrekende wettelijk kader
Deze studies laten een duidelijk patroon zien: AI-tools functioneren al als de facto redactiehulp, waarbij ze samenvattingen maken, bronnen kiezen en de klemtoon bepalen. Ze beïnvloeden de perceptie van wat miljoenen gebruikers lezen, maar opereren buiten de transparantie- en verantwoordingsplicht die voor traditionele media geldt. Dit leidt tot een groeiend regulatorisch gat. Hoewel diverse wetgevingen zoals de Digital Services Act, de AI-verordening en de Media Freedom Act delen van het digitale ecosysteem reguleren, houden ze geen rekening met de realiteit waarin AI tools nieuws zelfstandig selecteren, vormgeven en interpreteren voor het publiek.
Het belang van menselijke verslaggeving en de toekomst van vertrouwen
Ondanks alle onzekerheden blijft één conclusie behouden: het publiek heeft nog steeds meer vertrouwen in menselijke journalistiek dan in AI-gegenereerd nieuws. Ze geven de voorkeur aan berichtgeving die door mensen wordt gemaakt en bewerkt. Men acht menselijke verslaggeving betrouwbaarder, transparanter en verantwoordelijker. Dit biedt een strategisch voordeel voor redactieorganisaties. Het is mogelijk om dat vertrouwen te behouden, zolang zij duidelijk communiceren over hun gebruik van AI en dit op verantwoorde wijze integreren in hun processen. De uitdaging ligt in het waarborgen dat technologische innovaties het vertrouwen niet ondermijnen. Journalisten moeten zorgen dat ze een betrouwbare en verantwoorde rol blijven vervullen in een snel digitaliserend en automatiserend mediaklimaat.









