
Image generated with DALL·E through ChatGPT
Mening: De AI-hallucinatie-epidemie, Een Crisis Waar We Niet Klaar Voor Zijn
Ondanks voortdurende beloftes om AI-hallucinaties te verminderen, blijven grote AI-tools – van ChatGPT tot Perplexity tot Gemini, en Apple Intelligence – valse informatie genereren, vaak met verontrustende gevolgen. Experts, inclusief degenen die waarschuwen voor AI-risico’s, zijn gevallen voor verzonnen inhoud, en zelfs geavanceerde tools zoals Deep Research verzinnen rapporten. De waarheid lijkt in menselijke handen te blijven
Chatbots zijn in de loop der jaren steeds beter geworden – veel beter. Er is echter één probleem dat nog niet helemaal is opgelost en bekend staat als “hallucinaties.”
Onze geliefde chatbots delen briljante antwoorden op onze vragen met de vastberadenheid en autoriteit van een sciencefiction Yoda, zelfs als ze vreselijk fout zitten. En we geloven ze. Soms blindelings.
Verschillende wetenschappers, experts en zelfs Chatbot-ontwikkelaars waarschuwen al jaren voor hallucinaties. Toch, terwijl de adoptie snel toeneemt—OpenAI meldde slechts een paar dagen geleden 400 miljoen wekelijkse actieve gebruikers—is de AI-geletterdheid niet op hetzelfde tempo meegegaan.
Recente studies, rechtszaken en dramatische gebeurtenissen blijven aantonen dat desinformatie zelfs gevaarlijker is dan we beseffen.
Het is erger dan we denken
In het begin was het behoorlijk grappig om grote door AI gegenereerde fouten te ontdekken, zoals die beschamende AI-overzichten gegenereerd door Gemini die gebruikers suggereerden om “niet-giftige lijm aan de saus” voor een pizzarecept toe te voegen, of die aanbevolen om “elke dag één kleine steen” te eten vorig jaar. Maar, naarmate we weer vertrouwen krijgen in AI, is de situatie geëscaleerd, steeds zorgwekkender wordend.
In december zagen we hoe Apple’s AI-tool koppen “samenvatte” en valse en misleidende informatie genereerde, zoals de onjuiste bewering dat de BBC had aangekondigd dat Luigi Mangione zichzelf had neergeschoten. Na dit incident diende de publicatie een klacht in tegen Apple en begon met het onderzoeken van de nauwkeurigheid van generatieve AI bij het analyseren van nieuwsinhoud.
De bevindingen van de BBC, een paar dagen geleden gepubliceerd, onthulden alarmerende statistieken: 51% van de antwoorden gegeven door populaire AI Chatbots bevatten aanzienlijke problemen, 13% van de quotes geleverd door de modellen waren volledig verzonnen, en 19% van de data was onjuist.
Tieners behoren tot de meest getroffen bevolkingsgroepen, aangezien ze vaak worstelen om nepnieuws van echt nieuws te onderscheiden, en gemakkelijk beïnvloed kunnen worden door door AI gegenereerde inhoud. Een studie gepubliceerd in januari toonde aan dat 35% van de tieners misleid is door nepinhoud gegenereerd door AI-modellen, en 22% de valse informatie heeft gedeeld.
Maar het zijn niet alleen tieners en verstrooide mensen die voor deze hallucinaties vallen. En het is niet alleen Gemini of Apple Intelligence.
Geen AI Model Is Gespaard, Geen Industrie Is Veilig
Het onderzoek uitgevoerd door de BBC bevestigt een ander probleem: alle AI-modellen hallucineren. Experts hebben de meest populaire modellen, ChatGPT, Gemini, Perplexity en Copilot, in overweging genomen. Geen enkel AI-model is vrij van fouten. Anthropic heeft een pagina gewijd aan dit probleem, waarin ideeën worden voorgesteld om hallucinaties te verminderen.
“Zelfs de meest geavanceerde taalmodellen, zoals Claude, kunnen soms tekst genereren die feitelijk onjuist of inconsistent is met de gegeven context,” stelt het document. Andere AI-bedrijven hebben vergelijkbare pagina’s gedeeld met tips en trucs om nepinhoud te vermijden, maar het is niet zo eenvoudig en het is al geruime tijd een onopgelost probleem.
Terug in 2023 kondigde OpenAI aan dat het werkte aan nieuwe innovatieve manieren om hallucinaties te bestrijden. Spoiler alert: het is vandaag de dag nog steeds een enorm probleem.
In januari 2024—meer dan een jaar geleden—zei CEO Aravind Srinivas dat de hallucinaties van Perplexity voornamelijk voorkwamen bij onbetaalde accounts. “De meeste klachten komen van de gratis versie van het product,” legde Srinivas uit, eraan toevoegend dat ze al meer GPU’s aan het inzetten waren om het probleem op te lossen. Echter, in oktober hadden de New York Post en Dow Jones een rechtszaak aangespannen tegen Perplexity—omdat hun model nepnieuws bleef toeschrijven aan hun publicaties—, en het AI hulpmiddel dat de startup voor de Amerikaanse verkiezingen had ontwikkeld werd getest door experts die inconsistenties onthulden, onnauwkeurige samenvattingen en hallucinaties.
De Hallucinatie Ziekte Bereikt Wetenschappelijke En Academische Niveaus
Een van de grootste zorgen op dit moment is dat zelfs experts – inclusief diegenen die waarschuwen voor de risico’s en gevaren van AI – zijn gevallen voor deze aan hallucinaties onderhevige tools.
In december werd Stanford professor en expert op het gebied van technologie en desinformatie Jeff Hancock beschuldigd van het gebruik van AI om een rechtbankverklaring te vervaardigen. Hancock diende een 12 pagina’s tellende verklaring in ter verdediging van de wet van de staat uit 2023 die het gebruik van deepfakes criminaliseert, inclusief 15 citaten. Echter, twee van die citaten konden nergens worden gevonden – omdat ChatGPT, het door de desinformatie-expert geprefereerde AI-gereedschap, ze simpelweg had verzonnen.
Hancock – dit jaar gepland om “Waarheid, Vertrouwen en Technologie” te doceren – legde uit dat hij de chatbot van OpenAI gebruikte om zijn citaten te organiseren, wat leidde tot de hallucinaties. De onderzoeker bood zijn excuses aan – en bleef achter de substantiële punten van zijn verklaring -, en leerde ons allemaal de waardevolle les dat zelfs experts en degenen die het meest kennis hebben over AI-risico’s er vatbaar voor zijn.
Professor Hancock is natuurlijk niet de enige geweest die documenten met AI-gegenereerde verzinsels heeft ingediend bij de rechtbank. Een andere zaak, waarbij een rechtszaak tegen Walmart betrokken was, ging onlangs viraal omdat de advocaten valse zaken gebruikten die door AI waren gegenereerd om hun argument te onderbouwen. Sterker nog, het probleem is zo frequent geworden in de Amerikaanse rechtbanken dat het advocatenkantoor Morgan & Morgan onlangs e-mails stuurde naar zijn meer dan 1.000 advocaten, hen waarschuwend voor de risico’s van het gebruik van AI-gegenereerde citaten, en de American Bar Association herinnerde zijn 400.000 leden aan de ethische regels voor advocaten – inclusief AI gegenereerde informatie.
Diep Onderzoek Ook
Een van de meest populaire AI-tools op dit moment is “Deep Research”, ontworpen voor experts en wetenschappers die op zoek zijn naar complexere resultaten in hun onderzoek. Ook hallucinaties zijn niet afwezig in deze tool, zelfs al vereiste de versie van OpenAI aanvankelijk een Pro-abonnement van $200 voor toegang.
Gebruikers op Reddit hebben hun zorgen geuit over dit probleem, en melden dat alle populaire modellen met deep research tools – Perplexity, ChatGPT, en DeepSeek – hallucinaties hebben veroorzaakt. Onderzoekers en AI-experts hebben ook verontrustende resultaten gedeeld op andere sociale media platforms zoals X.
“Het hulpmiddel leverde een prachtig geschreven en beargumenteerd rapport op,” schreef een gebruiker die OpenAI’s Deep Research hulpmiddel gebruikte om wiskunde gedaan door jongeren te bestuderen. “Het enige probleem is dat het allemaal verzonnen is.”
“Deep Research verzon een hoop statistieken & analyse, terwijl het beweerde een dataset van duizenden artikelen samen te stellen, & zogenaamd geboortejaar informatie voor elke auteur te verzamelen van gerenommeerde bronnen,” deelde een ander. “Niets hiervan is waar.”
De ergste hallucinatie die ik in een tijdje heb gezien van een sota LLM
Deep Research heeft een heleboel statistieken en analyses verzonnen, terwijl ze beweerden een dataset samen te stellen van duizenden artikelen, en zogenaamd geboortejaar informatie voor elke auteur te verzamelen uit betrouwbare bronnen
Niets van dit is waar https://t.co/ZZk40vTKIM pic.twitter.com/RAnNVcHDmR
— Paul Calcraft (@paul_cal) 18 februari 2025
De Waarheid Blijft In Menselijke Handen
Zullen chatbots ooit stoppen met hallucineren? AI’s zwakke punt is al jaren duidelijk – we zagen het in podcasts zoals Planet Money toen ze AI-gegenereerde afleveringen in 2023 testten en we blijven het zien in de meest geavanceerde modellen, zelfs die ontworpen zijn voor exclusief gebruik door expert en technisch onderlegde gemeenschappen.
Misschien is het tijd om te accepteren dat dit een probleem zal blijven en te begrijpen dat we verantwoordelijkheid moeten nemen voor wat we creëren en delen met behulp van AI tools.
Het feit dat, hoewel het lijkt op een bekend probleem, maar AI-risico-experts zelf vallen voor de overtuigende en overredende schrijfstijl van AI is zeker zorgwekkend. De situatie wordt nog complexer naarmate de adoptie blijft versnellen in volle vaart, de digitale geletterdheid achter zich latend, terwijl inconsistenties en gefabriceerde citaten zich vermenigvuldigen.
Gevallen waarin AI-hallucinaties aan het licht zijn gekomen, blijken vaak situaties te zijn waarin feitencontrole cruciaal is – iets waar Zuckerberg aan herinnerd zou moeten worden nu hij zijn afdeling voor feitencontrole heeft afgeschaft. Dit is met name duidelijk in rechtszalen, waar advocaten en rechters werken aan het verifiëren van feiten en zaken, en in de nieuwsmedia, waar nauwkeurigheid en bronvalidatie van belang zijn.
Maar wat gebeurt er in gevallen waar niemand deze details onder de loep neemt? Wat gebeurt er in alledaagse, meer persoonlijke contexten? Op dit moment leren miljoenen studenten AI-gegenereerde antwoorden uit hun hoofd voor hun studies, volgen gebruikers AI-geleverde instructies om kwalen te behandelen en leren anderen over nieuwe onderwerpen, volledig vertrouwend op de technologie.
De gevolgen van deze nieuwe realiteit waarmee we worden geconfronteerd zijn onmetelijk en onvoorspelbaar, en de waarheid – voor nu – ligt in handen van degenen die de tijd nemen om te bevragen en te verifiëren.
Laat een reactie achter
Annuleer