Attributie, AI en de strijd om betrouwbare informatie
Kunstmatige intelligentie verandert in hoog tempo hoe samenlevingen toegang krijgen tot informatie. Dat gebeurt op een moment waarop betrouwbare kennis cruciaal is voor democratische besluitvorming, terwijl desinformatie, manipulatie en synthetische media zich razendsnel verspreiden.
Wil je liever naar de column luisteren? Beluister dan onderstaande podcast.
In een reeks columns over AI neemt Erik Reuvers, adviseur Digitale Geletterdheid bij Probiblio je mee in de wereld van artificiële intelligentie en wat die betekent voor bibliotheken. Niet alleen technisch, maar juist vanuit de waarden waar bibliotheken voor staan.
Juist in zo’n informatieklimaat wordt een fundamentele vraag steeds urgenter: waar komt de informatie vandaan waarop AI-systemen hun antwoorden baseren, en wie blijft die informatie produceren?
Die vraag wordt steeds relevanter nu ook in Nederland wordt gewerkt aan eigen taalmodellen, zoals GPT-NL van TNO en SURF, en overheidsinitiatieven zoals vlam.ai van SSC-ICT. Deze projecten profileren zich nadrukkelijk als betrouwbare en verantwoorde alternatieven voor commerciële AI-systemen. Transparantie over datagebruik, controle over infrastructuur en aandacht voor publieke waarden staan centraal.
Juist daardoor raken ze aan een kernpunt dat in het internationale AI-debat vaak onderbelicht blijft: attributie. Niet alleen de vraag of een systeem een correct antwoord geeft, maar ook of zichtbaar is waar dat antwoord op gebaseerd is.
Die vraag is belangrijker dan ze op het eerste gezicht lijkt.
Kunstmatige intelligentie maakt informatie toegankelijker dan ooit. Een vraag intypen is voldoende om een ogenschijnlijk helder en compleet antwoord te krijgen. Samenvattingen verschijnen direct, analyses worden automatisch gegenereerd en teksten vormen zich moeiteloos naar de behoefte van de gebruiker. Het voelt alsof kennis onbeperkt beschikbaar is.
Toch is die overvloed misleidend. Er is geen tekort aan informatie, maar wel een groeiend tekort aan betrouwbare informatie die zorgvuldig is geproduceerd. Juist dat type informatie staat onder druk door de manier waarop AI-systemen ermee omgaan.
Betrouwbare informatie ontstaat niet vanzelf. Onderzoeksjournalisten verifiëren bronnen, redacties controleren feiten, experts duiden context en juristen bewaken zorgvuldigheid. Dat zijn processen die tijd kosten en financiële investeringen vereisen. Zonder die inspanningen blijven vooral meningen, geruchten en oppervlakkige teksten over.
Wanneer AI-systemen hoogwaardige journalistiek samenvatten zonder duidelijke bronvermelding, verdwijnt een belangrijk deel van de economische prikkel om die informatie te blijven maken. De maker raakt uit beeld, de herkomst vervaagt en de waarde verschuift naar het platform dat de informatie opnieuw verpakt.
Zo ontstaat een paradox. AI vergroot de hoeveelheid beschikbare informatie, maar ondermijnt tegelijk het economische systeem dat betrouwbare informatie mogelijk maakt.
Dat probleem wordt extra zichtbaar in de manier waarop veel bestaande taalmodellen zijn ontwikkeld. Vroege generaties zijn getraind op enorme hoeveelheden publiek toegankelijke webdata, verzameld via grootschalige crawls van het internet. Daarin zaten nieuwsartikelen, blogs, forums en discussiesites. Platforms zoals Reddit sloten pas later formele licentieovereenkomsten met AI-bedrijven.
Voor veel informatieproducenten voelt dat als een omgekeerde volgorde: eerst wordt content gebruikt als grondstof voor technologische ontwikkeling, daarna volgen pas onderhandelingen over toestemming en vergoeding.
Tegelijkertijd worstelen uitgevers met hun eigen positie. Kwaliteitsjournalistiek is duur, terwijl AI-systemen informatie kunnen hergebruiken en samenvatten tegen minimale kosten. Lezers krijgen antwoorden zonder de oorspronkelijke bron te bezoeken, waardoor advertentie-inkomsten en abonnementen onder druk komen te staan. De relatie tussen maker en publiek verschuift naar het AI-platform.
Dit raakt aan een fundamentele vraag: wie investeert nog in waarheidsvinding als de opbrengsten ervan steeds minder bij de producent terechtkomen?
Naast economische druk ontstaat een tweede risico dat minder zichtbaar maar minstens zo ingrijpend is. AI-systemen dreigen verstrikt te raken in hun eigen output. Generatieve modellen produceren enorme hoeveelheden synthetische tekst die online wordt gepubliceerd en vervolgens weer opduikt in nieuwe datasets.
Zo ontstaat een circulaire informatiestroom waarin menselijke kennis de basis vormt voor AI, AI nieuwe teksten genereert en die kunstmatige teksten vervolgens opnieuw als bronmateriaal worden gebruikt. In zo’n kringloop kunnen onnauwkeurigheden zich snel verspreiden. Fouten, verkeerde interpretaties of verzonnen verwijzingen worden gekopieerd, hergebruikt en steeds moeilijker te onderscheiden van gecontroleerde informatie.
Wanneer kopieën zich sneller verspreiden dan originele verslaggeving, verschuift het informatie-ecosysteem. Meer tekst betekent dan niet meer kennis, maar meer ruis.
In een tijdperk van desinformatie en digitale manipulatie is dat een zorgwekkende ontwikkeling. Juist nu is behoefte aan controleerbare bronnen, transparantie en duidelijke herkomst van informatie.
Daar krijgt attributie een bredere betekenis. Bronvermelding is niet alleen een juridische of technische kwestie, maar een manier om de keten van kennisproductie zichtbaar te houden. Het maakt controle mogelijk, geeft erkenning aan makers en helpt gebruikers onderscheid te maken tussen gecontroleerde informatie en automatisch gegenereerde tekst.
Initiatieven zoals GPT-NL en vlam.ai zijn daarom meer dan technologische projecten. Ze vertegenwoordigen een zoektocht naar een ander AI-model waarin publieke waarden, transparantie en herleidbaarheid zwaarder wegen. Als zulke systemen daadwerkelijk zichtbaar maken welke bronnen worden gebruikt en hoe informatie tot stand komt, kunnen ze een tegenwicht bieden aan een ontwikkeling waarin herkomst steeds diffuser wordt.
De discussie over AI gaat daarmee niet alleen over innovatie, maar ook over verantwoordelijkheid. Niet alleen over wat technologie kan, maar over wat samenlevingen willen beschermen.
De kernvraag blijft eenvoudig maar ingrijpend: wie blijft investeren in betrouwbare kennisproductie wanneer synthetische informatie goedkoper en dominanter wordt?
AI-systemen hebben menselijke kennis nodig om waardevol te blijven. Zonder bescherming van kwalitatieve informatie dreigt het fundament onder die systemen echter langzaam weg te eroderen.
Misschien is de grootste misvatting dat AI automatisch leidt tot een tijdperk van onbeperkte kennis. Wat het ons werkelijk brengt, is een tijdperk waarin we opnieuw moeten bepalen hoeveel betrouwbare informatie ons waard is — en wie bereid is daarin te investeren.