Kinderen inspireren slimmere AI: VUB-onderzoek toont nieuwe weg in taaltechnologie

Kindje

Onderzoekers van de Vrije Universiteit Brussel en de Université de Namur hebben een AI-model ontwikkeld dat taal verwerft zoals jonge kinderen dat doen: via interactie, spel en het actief ontcijferen van betekenis in hun omgeving. Daarmee schuiven ze een radicaal andere benadering naar voren dan die van de huidige generatie grote taalmodellen zoals ChatGPT, die puur op tekststatistiek steunen. Het resultaat is een mensgerichter model dat taal niet alleen genereert, maar ook begrijpt.

“Kinderen leren hun moedertaal door in hun leefomgeving te communiceren met de mensen om hen heen. Terwijl ze spelen en met taal experimenteren trachten ze de intenties van hun gesprekspartners te interpreteren. Zo leren ze gaandeweg om taalconstructies te begrijpen en te gebruiken. Dit proces, waarin taal verworven wordt via interactie en betekenisvolle context, vormt de kern van de menselijke taalverwerving”, zegt Katrien Beuls.

“De huidige generatie grote taalmodellen (LLMs), zoals ChatGPT, leren taal op een heel andere manier”, vervolgt Paul Van Eecke. “Door in enorme hoeveelheden tekst te gaan observeren welke woorden vaak in elkaars buurt voorkomen, leren ze teksten te genereren die vaak niet van menselijke teksten te onderscheiden zijn. Dit leidt tot modellen die enorm krachtig zijn in vele vormen van tekstgeneratie, van het samenvatten of vertalen van teksten tot het beantwoorden van vragen, maar die tegelijkertijd een aantal inherente beperkingen vertonen. Zo zijn ze vatbaar voor hallucinaties en vooroordelen, hebben ze vaak moeite met menselijke redeneervormen, en zijn enorme hoeveelheden data en energie nodig om ze te bouwen en te gebruiken.”

De onderzoekers stellen een alternatief model voor waarin kunstmatige agenten taal leren zoals mensen dat doen: door in hun leefomgeving deel te nemen aan betekenisvolle communicatieve interacties. In een reeks experimenten laten ze zien hoe deze agenten taalconstructies ontwikkelen die direct gekoppeld zijn aan hun omgeving en sensorische waarnemingen. Dit leidt tot taalmodellen die:

  • Minder vatbaar zijn voor hallucinaties en vooroordelen omdat hun taalbegrip gebaseerd is op directe interactie met de wereld.
  • Efficiënter omgaan met data en energie, waardoor ze een kleinere ecologische voetafdruk nalaten.
  • Sterker geworteld zijn in betekenis en intentie, waardoor ze op een meer menselijke manier taal en context begrijpen.
     

“Het integreren van communicatieve en gesitueerde interacties in AI-modellen is een cruciale stap in de ontwikkeling van de volgende generatie taalmodellen. Dit onderzoek biedt een veelbelovende weg naar taaltechnologieën die dichter aanleunen bij hoe mensen taal begrijpen en gebruiken”, besluiten de onderzoekers.

Referentie
Katrien Beuls, Paul Van Eecke; Humans Learn Language from Situated Communicative Interactions. What about Machines?. Computational Linguistics 2024; 50 (4): 1277–1311. doi: https://doi.org/10.1162/coli_a_00534

Katrien Beuls is AI-onderzoeker en docent aan de vakgroep Computerwetenschappen van de Vrije Universiteit Brussel. Haar werk focust op adaptieve modellen voor taalverwerving en taalbegrip, zowel ingebed in robots als in multi-agent simulaties. Ze onderzoekt hoe taal ontstaat, zich ontwikkelt en zich aanpast door interactie, en slaat daarbij bruggen tussen artificiële intelligentie, taalkunde en cognitieve systemen.

 

Portret Katrien Beuls

Paul Van Eecke is tenure track research professor (Senior Research Fellow) aan het Artificial Intelligence Laboratory van de Vrije Universiteit Brussel, waar hij onderzoek doet naar mensachtige communicatie bij autonome agents. Hij behaalde masterdiploma’s in Linguïstiek en Artificiële Intelligentie aan de KU Leuven (beide summa cum laude) en promoveerde in 2018 tot doctor in de Computerwetenschappen aan de VUB. Eerder werkte hij als onderzoeker bij Sony Computer Science Laboratories in Parijs, waar hij meewerkte aan de ontwikkeling van Fluid Construction Grammar (FCG). Nadien was hij postdoctoraal onderzoeker en docent aan de VUB, ondersteund door een FWO-mandaat. Zijn onderzoek focust op het ontstaan en de evolutie van taal, computationele construction grammar en het combineren van symbolische en subsymbolische AI voor complexe perceptie-, redeneer- en communicatietaken.

Portret Paul Van Eecke

In dit artikel:

  • Waarom botsen huidige AI-taalmodellen op grenzen in hoe ze taal écht begrijpen?
  • Wat kunnen machines leren van hoe kinderen taal verwerven via spel en interactie?
  • Welke hindernissen staan nog in de weg om deze ‘menselijke’ AI breed toe te passen?