Mening: AI-modellen zijn mysterieuze “wezens”, en zelfs hun scheppers begrijpen ze niet volledig

Image generated with OpenAI

Mening: AI-modellen zijn mysterieuze “wezens”, en zelfs hun scheppers begrijpen ze niet volledig

Leestijd: 5 minuut

Anthropics recente studie over de werking van haar Claude 3.5 Haiku model belooft baanbrekende openbaringen en een vonk van inzicht in het begrijpen van geavanceerde AI-technologieën. Maar wat bedoelen ze als ze zeggen dat LLM’s “levende organismen” zijn die “denken”?

Een paar dagen geleden, publiceerde Anthropic twee papers met baanbrekend onderzoek naar hoe Large Language Models (LLM’s) werken. Hoewel de technische ontwikkelingen interessant en relevant waren, trok de woordkeuze van de AI-experts mijn aandacht het meest.

In de studie Over de Biologie van een Groot Taalmodel, vergeleken de onderzoekers zichzelf met biologen die complexe “levende organismen” bestuderen die door miljarden jaren heen zijn geëvolueerd.

“Evenzo, hoewel taalmodellen worden gegenereerd door eenvoudige, door mensen ontworpen trainingsalgoritmes, lijken de mechanismen die uit deze algoritmes voortkomen vrij complex te zijn,” schreven de wetenschappers.

In de afgelopen jaren zijn AI-modellen aanzienlijk geëvolueerd. En we zijn getuige geweest van deze snelle evolutie in de afgelopen maanden. We hebben ChatGPT zien veranderen van een tekst-only model naar een sprekende metgezel, en nu naar een multidimensionale agent die ook verbluffende Studio Ghibli-achtige afbeeldingen kan genereren.

Maar, wat als de huidige grensverleggende AI-modellen dat sci-fi niveau bereiken waarbij ze een zodanig geavanceerde redenering ontwikkelen dat zelfs hun scheppers hun processen en systemen niet begrijpen? Er zijn meerdere mysteries rondom AI-technologieën die in 2025 relevant kunnen zijn om te heroverwegen – of in te duiken.

Het Spookachtige Black-Box Paradox van AI-modellen

Er zijn meerdere discussies over AI-adoptie en AI-geletterdheid, en hoe degenen die begrijpen hoe generatieve AI-modellen werken minder geneigd zijn om chatbots als hun ‘vrienden’ of ‘magische’ apps te beschouwen. Echter, er is een andere discussie – onder experts en mensen die meer bekend zijn met de technologie – over het al dan niet vergelijken of beschouwen van LLM’s als onafhankelijke creaties. Wat betreft het laatste, er is een speciaal ingrediënt, een mysterie bekend als ‘de AI black-box paradox’, die een cruciale rol speelt in de discussie.

Diep leersystemen worden getraind om elementen en trends te herkennen op vergelijkbare manieren als mensen dat doen. Net zoals we kinderen leren om patronen te herkennen en specifieke woorden aan verschillende objecten toe te wijzen, zijn LLM’s getraind om unieke verbindingen te maken en netwerken te bouwen die steeds complexer worden naarmate ze ‘groeien’.

Samir Rawashdeh, universitair hoofddocent Elektrotechniek en Informatica, is gespecialiseerd in kunstmatige intelligentie en legt uit dat het, net zoals bij het bestuderen van menselijke intelligentie, bijna onmogelijk is om daadwerkelijk te zien hoe deep learning systemen beslissingen nemen en tot conclusies komen. Dit is wat experts het “black box probleem” noemen.

AI Modellen Uitdaging voor Menselijk Begrip

Het recente onderzoek van Anthropic heeft licht geworpen op de AI black box situatie door uit te leggen hoe zijn model “denkt” in bepaalde scenario’s die voorheen onduidelijk of zelfs volledig fout waren. Zelfs als de studie is gebaseerd op het model Claude 3.5 Haiku, stelt het experts in staat om tools te ontwikkelen en vergelijkbare kenmerken op andere AI modellen te analyseren.

“Het begrijpen van de aard van deze intelligentie is een diepgaande wetenschappelijke uitdaging, die ons begrip van wat het betekent om te ‘denken’ zou kunnen veranderen,” stelt het artikel dat gedeeld is door de onderzoekers van Anthropic.

Echter, de term “denken”, toegekend aan AI technologieën, verontrust bepaalde experts in de industrie en maakt deel uit van de kritiek op het onderzoek. Een Reddit gebruiker legde uit waarom dit een groep mensen irriteert: “Er is veel antropomorfisme in het hele artikel dat het werk vertroebelt. Bijvoorbeeld, het blijft het woord ‘denken’ gebruiken wanneer het ‘berekenen’ zou moeten zeggen. We hebben het over computersoftware, niet over een biologische hersenen.”

Hoewel de “vermenselijkte” termen niet-technische mensen helpen om AI-modellen beter te begrijpen en debat in de gemeenschap aanwakkeren, is de waarheid dat, of we nu “berekenen” of “denken” zeggen, dezelfde uitdaging blijft: we hebben geen volledig begrip of volledige transparantie over hoe LLM’s werken.

Wat Te Verwachten Van Geavanceerde AI-Modellen in de Nabije Toekomst

Kun je je voorstellen dat je het bestaan van geavanceerde AI-technologieën zoals ChatGPT, DeepSeek, Perplexity, of Claude—nu of in de nabije toekomst—negeert? Alle tekenen wijzen erop dat er geen weg terug is. Generatieve en redenerende AI hebben ons dagelijks leven al getransformeerd, en ze zullen alleen maar blijven evolueren.

Bijna elke dag melden we bij WizCase een nieuwe ontwikkeling in de industrie – een nieuw AI-model, een nieuw AI-hulpmiddel, een nieuw AI-bedrijf – dat potentieel een grote impact kan hebben op onze samenleving. Het idee om even pauze te nemen om eerst een beter begrip te krijgen van deze geavanceerde modellen en hoe ze werken – of zelfs enigszins te vertragen – lijkt onmogelijk, gezien het snelle tempo van de AI race en de betrokkenheid van regeringen en de machtigste bedrijven ter wereld.

“AI-modellen oefenen een toenemende invloed uit op hoe we leven en werken, we moeten ze goed genoeg begrijpen om te zorgen dat hun impact positief is,” stelt een paper van Anthropic. Hoewel het misschien een beetje onrealistisch klinkt, blijven de onderzoekers positief: “We geloven dat onze resultaten hier, en de voortgang waarop ze zijn gebaseerd, opwindend bewijs zijn dat we deze uitdaging aankunnen.”

Maar hoe snel kunnen deze ontdekkingen daadwerkelijk voortgaan? Het artikel merkt ook op dat de resultaten slechts een paar gebieden en specifieke gevallen bestrijken, en dat het niet mogelijk is om meer algemene conclusies te trekken. Dus waarschijnlijk niet snel genoeg.

Terwijl toezichthouders maatregelen introduceren zoals de EU AI Act, om meer transparantie te eisen, trekken ze beschuldigingen en tirades van grote techbedrijven naar zich toe omdat ze naar verluidt de vooruitgang vertragen, blijven krachtige AI-modellen zich verder ontwikkelen.

Als samenleving moeten we streven naar een evenwicht tussen het verdiepen van ons begrip van hoe deze technologieën werken en het toepassen ervan op manieren die zinvolle voordelen en vooruitgang voor onze gemeenschappen opleveren. Is dit mogelijk? Het idee om enkel te bidden of te hopen dat deze “wezens” “ethisch” en “goed” blijven, lijkt momenteel niet zo vergezocht.

Vond je dit artikel leuk?
Geef een beoordeling!
Ik vond het verschrikkelijk Ik vond het echt niet leuk Het was redelijk Best goed! Ik vond het geweldig!

We zijn erg blij dat je van ons werk hebt genoten!

Zou je als gewaardeerde lezer je mening over ons willen delen op Trustpilot? Dit neemt niet veel tijd in beslag en zouden we erg op prijs stellen. Bedankt, je bent geweldig!

Beoordeel ons op Trustpilot
0 Gestemd door 0 gebruikers
Titel
Reactie
Bedankt voor je feedback
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Laat een reactie achter

Loader
Loader Meer weergeven...