Moeten universiteiten meer grip krijgen op AI-onderzoek?
De ontwikkeling van AI is op dit moment grotendeels in handen van grote, Amerikaanse techbedrijven en dat is een slechte zaak, vinden vooraanstaande AI-experten als Ann Dooms en Luc Steels. Daardoor zijn we veel te afhankelijk geworden van die bedrijven en wordt de ontwikkeling van AI in één richting gestuurd. Volgens hen hebben net de vele omwegen die het onderzoek in het verleden heeft gevolgd voor prachtige resultaten gezorgd. In hun boek History of Ideas in the Science of AI pleiten ze er bovendien voor dat universiteiten een belangrijke rol blijven spelen in AI-onderzoek.
Vraag aan VUB-professor Ann Dooms naar de voorgeschiedenis van AI en je wordt getrakteerd op een stevige uiteenzetting over wiskunde, mechanica en filosofie, waarin zowel de Babyloniërs, Leonardo Da Vinci, Blaise Pascal, Charles Babbage en Ada Lovelace de revue passeren, en die uiteindelijk bij Alan Turing uitkomt. In zijn beroemde artikel Computing Machinery and Intelligence uit 1950 stelde hij namelijk zijn zogenaamde Turingtest voor. In dat experiment probeert men via een gesprek te bepalen of men met een mens of een machine communiceert. Als het verschil niet meer te onderscheiden is, zou je kunnen zeggen dat de machine intelligent gedrag vertoont. Maar volgens Dooms wordt die test vandaag vaak verkeerd geïnterpreteerd. “De Turingtest was nooit bedoelt als een wedstrijdje ‘Wie heeft de slimste computer?’ of zo,” zegt ze. “Het was meer een pragmatische manier om een filosofisch probleem aan te pakken. Want eigenlijk weten we nog altijd niet precies wat ‘denken’ betekent.”
Het is een van de vele momenten waarop een wetenschapper eigenlijk onbedoeld een wezenlijke bijdrage leverde aan de ontwikkeling van AI. “Ada Lovelace was bijvoorbeeld op zoek naar een methode om het werk van rekenmachines te automatiseren. Op dat moment moest je namelijk heel wat stappen in zo’n berekening nog zelf uitvoeren. Op een gegeven moment geraakte ze geïnspireerd door de ponskaarten van het Jacquard-weefgetouw, waarmee automatisch patronen in textiel werden gemaakt. Daardoor heeft ze eigenlijk het programmeren uitgevonden.”
Goud op de wiskunde-olympiade voor… Google
De ontwikkeling van AI is de laatste jaren in een stroomversnelling terechtgekomen door de groei van computerrekenkracht en de opkomst van het internet, waardoor we toegang hebben tot enorme hoeveelheden data. Ook gespecialiseerde grafische chips die eigenlijk uit de game-industrie komen spelen hierin een cruciale rol. Daarmee kunnen we nu op vrij korte tijd AI-systemen trainen met miljoenen voorbeelden. Zo ontstonden uiteindelijk de LLM’s die vandaag generatieve AI aandrijven, maar volgens Dooms blijft dat voorlopig vooral een statistische benadering van taal. “Die modellen herkennen patronen in enorme hoeveelheden tekst,” zegt ze. “Maar ze begrijpen taal nog niet zoals mensen dat doen.”
“Generatieve AI kan indrukwekkende resultaten produceren, maar echt begrip, redenering en inzicht blijven grotendeels onopgeloste uitdagingen”
De vooruitgang die momenteel wordt geboekt in de ontwikkeling van AI is fenomenaal. Sommige AI-systemen nemen bijvoorbeeld deel aan wiskunde-olympiades en winnen daar zelfs gouden medailles. “Dat kan met zogenoemde neurosymbolische AI: systemen die patronen ontdekken in data, zoals taal, maar tegelijk ook kunnen redeneren met formele regels. Een LLM kan daar schitteren door patronen te ontdekken in massa’s opgeloste oefeningen, waardoor die zelf een oplossingsmethode kan voorstellen, maar die tegelijkertijd ook verifiëren via formele berekeningen. Maar dat betekent niet dat computers al slimmer zijn dan mensen. Menselijke intuïtie werkt nog altijd op een fundamenteel andere manier, want menselijke deelnemers behalen dezelfde resultaten met veel minder training en rekencapaciteit. Generatieve AI kan indrukwekkende resultaten produceren, maar echt begrip, redenering en inzicht blijven grotendeels onopgeloste uitdagingen. Op dat vlak is nog veel werk aan de winkel, maar als we enkel inzetten op de verdere optimalisatie van LLM’s gaan we daar nooit toe komen.”
Taal als een mierenpad
Voor de verder ontwikkeling van artificiële intelligentie moeten we volgens Dooms kijken naar de manier waarop de mens wiskundige problemen oplost. Wiskundigen vinden vaak oplossingen door nieuwe wiskunde uit te vinden. En daar zit een parallel met hoe taal evolueert.
En zo komen we bij Remi van Trijp, een van de andere auteurs van het boek. Van Trijp is onderzoeker aan de Sony Computer Science Laboratories in Parijs, maar was hiervoor verbonden aan de Vrije Universiteit Brussel. Hij onderzoekt al meer dan twintig jaar de relatie tussen taal en artificiële intelligentie, een onderzoekslijn die oorspronkelijk werd opgestart door AI-pionier Luc Steels aan de VUB.
Van Trijp ziet taal als een zogenoemd emergent systeem: een systeem dat ontstaat uit lokale interacties tussen individuen. “Een goed voorbeeld is hoe mieren een pad vormen,” zegt Van Trijp. “Geen enkele mier beslist waar het pad komt. Door lokale interacties ontstaat spontaan een globale structuur. Taal werkt op een gelijkaardige manier; mensen ontwikkelen woorden, regels en betekenissen door voortdurend met elkaar te communiceren. Zo verandert taal voortdurend.”
“Door andere vragen te stellen dan de grote technologiebedrijven, kunnen we misschien net de volgende doorbraken vinden”
Zowel LLM’s als neurosymbolische AI schieten op dat vlak te kort, vindt hij. “Taaltechnologie probeert taal altijd te bevriezen, terwijl taal juist voortdurend evolueert. Vandaar dat dergelijke systemen altijd zullen moeten onderdoen voor echte mensen. Wat we eigenlijk moeten begrijpen, zijn de processen die taal voortdurend veranderen.”
En daar is uiteraard fundamenteel onderzoek voor nodig. “Door andere vragen te stellen dan de grote technologiebedrijven, kunnen we misschien net de volgende doorbraken vinden.”
Na de hype: de ontgoocheling
Ook Luc Steels, een van de grootste AI-experten die ons land rijk is, ziet een belangrijke rol in de ontwikkeling van AI weggelegd voor universiteiten. Treffend is dat Steels zijn carrière begon als… student taal- en letterkunde. Computers waren toen nog zeldzaam, maar Steels zag er onderzoekspotentieel in, vooral in taalverwerking door computers. Een van de eerste mijlpalen die Steels zich herinnert, is een systeem van MIT-onderzoeker Terry Winograd uit het begin van de jaren zeventig. Zijn programma kon natuurlijke taal begrijpen en opdrachten uitvoeren in een eenvoudige virtuele wereld. “Je kon bijvoorbeeld typen: ‘pick up the red block’ en dan zorgde het systeem ervoor dat een robotarm het juiste blok effectief oppakte. Vandaag klinkt dat eenvoudig, maar in een tijd waarin computers nog met ponskaarten werkten, was dat revolutionair,” vertelt Steels.
Terwijl AI lange tijd vooral in universiteiten werd ontwikkeld, ligt het zwaartepunt vandaag bij grote technologiebedrijven. Vooral generatieve AI wordt vrijwel volledig door industriële spelers ontwikkeld. Dat heeft volgens Steels een duidelijke reden: schaal. “De technieken zelf bestaan vaak al decennia, maar pas met enorme hoeveelheden data en rekenkracht kunnen ze echt opgeschaald worden. Daarvoor heb je enorme datacenters nodig en die infrastructuur vraagt grote investeringen — van het kaliber dat de mogelijkheden van universiteiten ver overstijgt.”
“Generatieve AI-systemen die hallucineren is geen tijdelijk probleem; het zit ingebakken in de technologie”
Veel bedrijven hopen dat generatieve AI uiteindelijk leidt tot Artificial General Intelligence (AGI): systemen die in alle domeinen even goed of beter presteren dan mensen. “Wie zo’n technologie kan ontwikkelen, controleert potentieel een groot deel van de economie,” zegt hij. “Daarom investeren bedrijven nu miljarden. Maar het is nog helemaal niet zeker dat die belofte ook gerealiseerd kan worden.”
De huidige AI-golf vertoont volgens Steels kenmerken van eerdere technologische hypes. “Waarschijnlijk komt er opnieuw een periode van teleurstelling,” voorspelt hij. “Dat hebben we eerder gezien, bijvoorbeeld bij de expertsystemen uit de jaren ‘80. Een belangrijk probleem bij generatieve AI zijn de hallucinaties: systemen die overtuigend klinkende maar foutieve informatie produceren. Dat is geen tijdelijk probleem, het zit ingebakken in de technologie.”
Universiteiten hebben volgens Steels nog altijd een cruciale rol: niet in het bouwen van de grootste AI-modellen, maar in het verkennen van nieuwe ideeën. “Universiteiten moeten twintig jaar vooruitkijken,” zegt hij. “Niet naar wat vandaag al werkt, maar naar wat morgen mogelijk wordt. Als we hier in Europa de juiste strategie kiezen en investeren in onderzoek, kunnen we opnieuw een leidende rol spelen in de volgende generatie AI.”
Meer over "History of Ideas in the Science of Ai"
History of Ideas in the Science of AI kwam tot stand binnen de Willy Calewaert-leerstoel van deMens.nu, toegekend aan VUB-emeritus en AI-pionier Luc Steels. Het is uitgebracht bij VUBPress en is fysiek verkrijgbaar bij de auteurs en digitaal op Zenodo, Apple Books, Google Books.
Ann Dooms is professor aan het departement Wiskunde & Data Science (WIDS) van de VUB, waar ze momenteel leiding geeft aan de onderzoeksgroep Mathematics & Data Science (MADS). Haar expertise ligt in Digital Mathematics (DIMA), de theoretische basis voor patroonherkenning door computers, met toepassingen in medische beeldverwerking, document- en schilderijanalyse, cryptografie en kunstmatige intelligentie. Dooms is actief in verschillende bestuursfuncties, waaronder voorzitter van de Onderwijscommissie van de European Mathematical Society, vicevoorzitter van de wetenschappelijke raad van BELSPO en van Defensie, en schrijft ze regelmatig over wiskunde voor een breed publiek.
Luc Steels is een Belgische pionier in artificiële intelligentie en emeritus professor aan de Vrije Universiteit Brussel. Hij richtte er een van de eerste AI-laboratoria in Europa op en verwierf internationale bekendheid met onderzoek naar robotica, taal en artificiële agents. Zijn werk over de evolutie van taal en emergente communicatie geldt wereldwijd als baanbrekend.
Remi van Trijp is onderzoeker aan de Sony Computer Science Laboratories in Parijs en voormalig onderzoeker aan de Vrije Universiteit Brussel. Zijn werk situeert zich op het kruispunt van artificiële intelligentie, taalkunde en complexe systemen. Hij onderzoekt hoe taal kan ontstaan en evolueren via interactie tussen artificiële agents, voortbouwend op de onderzoekstraditie rond emergente taal die door Luc Steels werd geïntroduceerd.