Is artificial intelligence of AI een gevaar voor de mensheid? Zou AI onze computersystemen kunnen overnemen? Kan dit systeem ons gedrag beïnvloeden zonder dat we daar macht over hebben? De meningen zijn verdeeld. Misschien liggen de echte problemen wel anders.

Overvleugelen
NRC Handelsblad wijdde een hele reeks artikelen aan AI: op 3 juni, 24 juni, 8 juli en 26 augustus 2023, en 25 april 2025. Het Parool deed mee op 27 mei en 23 september 2023. Welk beeld volgt uit dit debat? Onze visie op AI blijkt gekanteld. Zo’n tien jaar geleden werden computers niet gezien als gevaar voor de mensheid. Tegenwoordig is het helemaal niet meer gek om er bang voor te zijn dat AI te slim wordt en de mens voorbij gaat streven. AI zou zo krachtig worden dat wij deze niet meer kunnen controleren.
Deze gedachte speelt in op een al jarenlang bestaande sci-fi subcultuur, waarin de door de mens geschapen krachten ons uiteindelijk overvleugelen. Waardoor wij niet meer in de ontwikkeling kunnen ingrijpen. AI als zelfgeschapen natuurkracht die ons de baas gaat worden. In lijn trouwens met het zelfbewustzijn van veel AI-ontwikkelaars, die mens en wereld zien als entiteiten die volledig in data te vangen zijn. Modellen worden steeds groter, en op een bepaald moment zouden ze de controle kunnen overnemen. Computers zouden geleidelijk een superintelligentie kunnen ontwikkelen waar de mens niet meer tegenin kan gaan – als we al in de gaten hebben dat computers de macht overnemen. Het uitsterven van de mens als mens – een dystopie die onze verbeelding op hol laat slaan. Heel wat meer tot de verbeelding sprekend dan ‘alledaagse’ problemen als ongelijkheid, klimaat en discriminatie.
Stilstand
Maar het beeld klopt niet. Er wordt op fundamenteel niveau al jaren lang geen vooruitgang geboekt; ondanks alle voorspellingen over oncontroleerbare computersystemen. Wel zijn computers veel krachtiger geworden. Veel AI-ontwikkelaars zien de wereld – inclusief de mens – daardoor als volledig in data te vangen. Terwijl het bij nuchtere beschouwing duidelijk wordt dat de mens een rommelig en complex wezen is. Onze problemen zijn eerder saai: ongelijkheid, een klimaat dat uit de hand loopt, discriminatie. Geen problemen waarvoor we de computer verantwoordelijk kunnen houden.
AI-ontwikkelaars stellen daar tegenover dat we alle problemen onder controle kunnen krijgen – als we maar voldoende geld pompen in de ontwikkeling van AI. Maar is dat echt nodig? Het hele mensbeeld van AI wordt gekenmerkt door het idee dat de mens een koelbloedig en rationeel wezen is. Voor zover de werkelijkheid daar niet mee overeenstemt, zouden we hem in die zin moeten herstructureren. Maar het rationalistische mensbeeld bijt op deze manier in zijn eigen staart. Er is geen enkele reden waarom we de werkelijkheid in rationele zin zouden moeten omvormen.
Storm in een glas water
Volgens Emily M. Bender, hoogleraar aan de Universiteit van Seattle, zullen AI-systemen niet intelligenter worden dan de mens. Laat staan dat de mensheid door AI met uitsterven wordt bedreigd. Zogenaamde kunstmatige intelligentie is volgens haar niets anders dan een vorm van automatisering en synthetisering. Het idee dat deze technologie een existentiële bedreiging is, is een verkooptactiek.
Bender verzet zich ook tegen het gebruik van instrumenten als ChatGPT. Deze chatbot baseert zich op heel veel teksten, waar of onwaar, zonder dat we de mogelijkheid hebben na te gaan waar deze vandaan komen. Bender spreekt van vervuiling van ons informatiesysteem, waarbij non-informatie zich als een olievlek kan verspreiden. Zij zou het toejuichen als OpenAI, dat ChatGPT heeft ontwikkeld, aansprakelijk gesteld kan worden voor de output van ChatGPT en fouten daarin. ‘Bijvoorbeeld als het informatie verstrekt die neerkomt op een medische fout, of op smaad.’
Nog een lange weg te gaan
Maar mensen zijn lui. Wij accepteren vaak klakkeloos informatie die uit de computer komt; terwijl deze niet kan denken. Wat de computer wel heel goed kan: patronen herkennen in woorden en zinsneden. Als ze dicht bij elkaar staan legt de computer daartussen een verband – met vaak een overtuigend resultaat tot gevolg. Sinds een paar jaar werkt OpenAI samen met Microsoft. OpenAI wil fouten uit de antwoorden halen, en Microsoft wil zijn taalmodellen verbeteren. Maar misschien komt het resultaat niet in de buurt van menselijk bewustzijn. Want zolang informatieverwerkende systemen geen lichaam hebben dat honger, pijn, genot of de noodzaak tot fysieke overleving voelt, missen ze de fundamentele biologische ankers die aan ons bewustzijn ten grondslag liggen.
In een artikel in Het Parool legt Bennie Mols aan de hand van een stuk van Gary Marcus en Ernest Davis uit welke stappen er door AI moeten worden ondernomen om de menselijke geest te imiteren. Om te beginnen moeten instrumenten een basaal begrip ontwikkelen van tijd, ruimte en causaliteit. Verder moeten ze leren te redeneren met onzekere informatie. Natuurlijk moeten ze ook de omgeving kunnen waarnemen en leren taal te beheersen. Met die vaardigheden zouden machines (d.w.z. AI) moeten leren, AI te begrijpen – nodig om zichzelf te verbeteren. Vervolgens zou AI zichzelf superintelligent moeten kunnen maken, en weten hoe deze aan zijn energie moet komen. Tenslotte zou het systeem zo slim moeten worden dat mensen er niet meer de stekker uit kunnen trekken. Laten we zeggen, een onwaarschijnlijke reeks gebeurtenissen.
Niet onschuldig
Dat wil allemaal niet zeggen dat AI onschuldig is. AI kan leiden tot discriminatie, schending van het auteursrecht en mogelijk ook strafbare feiten als kinderporno. Een onafhankelijke autoriteit zou onderzoek naar AI moeten kunnen doen. Niet eenvoudig bij een industrie die zich snel ontwikkelt. De Europese Unie doet op dit gebied voorloperwerk met een wet die speciaal is gericht op het beteugelen van de uitwassen van AI. Er is duidelijkheid nodig over de strekking van de wet; en transparantie, zodat AI zal blijven binnen de grenzen van democratische waarden en bestuur. Zodat er een einde komt aan het ongereguleerde speelveld waarin de ontwikkelaars zich kunnen bewegen.
Interessant? Lees dan ook:
Maakbaar leven vereist verantwoording en toezicht
Kunstmatige intelligentie: tijdelijke stop op de ontwikkeling?
ChatGPT: kunstmatige intelligentie dringt steeds dieper door in de geschreven tekst