Hoe baby’s zien en horen combineren bij het leren van taal

/

Een interview met Dr. Melis Cetincelik

Wat was de centrale vraag in jouw proefschrift?

In mijn proefschrift onderzocht ik hoe baby’s taal leren door niet alleen te luisteren naar spraak, maar ook gebruik te maken van visuele en sociale signalen van de mensen die tegen hen praten. Wanneer een verzorger met een baby spreekt, gebeurt er immers meer dan alleen het uitspreken van woorden: er is oogcontact, er zijn gezichtsuitdrukkingen, blikken naar objecten in de omgeving en mondbewegingen die synchroon lopen met de spraak. Deze visuele signalen zijn een vanzelfsprekend onderdeel van communicatie, maar we weten nog verrassend weinig over hun rol in de vroege taalontwikkeling. Kijken baby’s beter of leren ze meer wanneer iemand hen direct aankijkt? Helpt het zien van mondbewegingen bij het verwerken van spraak? In mijn proefschrift onderzocht ik deze vragen door te bestuderen hoe baby’s reageren op spraak in verschillende sociale en visuele contexten.

Kun je de (theoretische) achtergrond nader toelichten?

Veel klassieke theorieën over taalontwikkeling richten zich vooral op wat kinderen horen. In de praktijk is taal echter multimodaal: we horen én zien taal. Tijdens interacties tussen verzorgers en baby’s spelen oogcontact, gezichtsuitdrukkingen en zichtbare mondbewegingen een belangrijke rol. Theorieën uit het sociaal leren en de ontwikkelingspsychologie suggereren dat zulke visuele en sociale signalen baby’s helpen door hun aandacht te sturen en extra ondersteuning te bieden bij het begrijpen van spraak.

Daarnaast laten eerdere studies zien dat de hersenen van baby’s zich kunnen afstemmen op het ritme van spraak, bijvoorbeeld op lettergrepen (zoals de drie tellen in ba-na-na) en klemtoonpatronen (waarbij in ba-NA-na de middelste lettergreep sterker is). Door deze ritmes te volgen, kunnen baby’s spraak opdelen in betekenisvolle eenheden. Mijn onderzoek brengt deze inzichten samen door te kijken hoe de hersenen van baby’s reageren op spraak wanneer ze de spreker ook kunnen zien. Zo krijgen we een beter beeld van hoe zien en horen samen bijdragen aan de vroege taalontwikkeling.

Waarom is het belangrijk om deze vraag te beantwoorden?

Om te begrijpen hoe kinderen taal leren, is het essentieel om te kijken naar hoe zij taal in het dagelijks leven ervaren: via zowel gehoor als zicht. Door te onderzoeken hoe visuele signalen, zoals oogcontact en mondbewegingen, de verwerking van spraak beïnvloeden, krijgen we inzicht in hoe verschillende informatiebronnen samenwerken tijdens de vroege taalontwikkeling. Deze kennis is niet alleen theoretisch relevant, maar kan ook praktische toepassingen hebben, bijvoorbeeld voor het adviseren van ouders en verzorgers en voor het ontwikkelen van effectieve strategieën voor vroegtijdige educatie.

Kun je een specifiek project beschrijven (vraag, methode, bevindingen en implicaties)?

In een van mijn projecten onderzocht ik hoe de hersenen van baby’s reageren op de natuurlijke ritmes van spraak, zoals die ontstaan door lettergrepen en klemtoonpatronen. Hiervoor maakte ik gebruik van elektro-encefalografie (EEG). Daarbij krijgt de baby een mutsje op (vergelijkbaar met een zwemmuts) met sensoren die kleine elektrische signalen van de hersenen meten. Zo kunnen we zien hoe de hersenen reageren op wat een baby hoort en ziet.

Baby’s van tien maanden oud kregen video’s te zien van een sprekende persoon, terwijl hun hersenactiviteit werd gemeten. Ik ontdekte dat de hersenen van baby’s zich afstemmen op – of het ritme ‘volgen’ van – spraak. Belangrijk is dat baby’s van wie de hersenen op tien maanden het spraakritme beter volgden, op achttien maanden een grotere woordenschat hadden. Dit suggereert dat het vroeg herkennen van ritmische patronen in spraak een belangrijke rol speelt in het taalverwervingsproces.

Wat inspireerde je om dit onderzoeksonderwerp te kiezen?

Ik vind het fascinerend hoe baby’s in slechts een paar jaar tijd de stap maken van het niet begrijpen van een enkel woord naar het spreken van volledige zinnen. Het is een uiterst complex proces dat toch bijna vanzelf lijkt te verlopen. Tijdens mijn studie, toen ik meer leerde over hersen- en taalontwikkeling, raakte ik vooral geïnteresseerd in de factoren die deze snelle ontwikkeling mogelijk maken. Dat bracht mij ertoe te onderzoeken hoe visuele en sociale signalen bijdragen aan vroege taalontwikkeling en hoe de hersenen deze verschillende informatiebronnen integreren.

Kun je een grote uitdaging tijdens je promotietraject beschrijven en hoe je daarmee bent omgegaan?

Een van de grootste uitdagingen tijdens mijn promotie was de uitbraak van de COVID-19-pandemie. Ik stond op het punt om data te verzamelen voor een studie, toen het onderzoek plotseling stil kwam te liggen. Maandenlang was het niet mogelijk om baby’s in het lab te testen en het was onduidelijk wanneer dit weer zou kunnen. Toen we uiteindelijk opnieuw mochten beginnen, moesten we onze werkwijze aanpassen. We droegen mondkapjes, beperkten fysiek contact en vervingen onze gebruikelijke bellenblaasroutine – waarmee we baby’s afleidden tijdens het opzetten van de EEG-muts – door een bellenblaasmachine. Zo bleef het onderzoek leuk voor de baby’s, maar ook veilig. Terugkijkend was het een vreemde, maar leerzame periode die liet zien hoe belangrijk flexibiliteit en doorzettingsvermogen zijn.

Wat zijn je plannen voor de toekomst?

Momenteel werk ik als postdoctoraal onderzoeker bij de afdeling Cognitieve Neuropsychologie van Tilburg University. Mijn onderzoek richt zich op hoe we spraak verwerken in uitdagende luisteromgevingen, zoals tijdens een gesprek in een druk café. Ik bestudeer hoe de hersenen omgaan met moeilijk verstaanbare spraak, welke extra signalen daarbij worden gebruikt – bijvoorbeeld het zien van het gezicht van de spreker – en hoe deze vaardigheden zich ontwikkelen van de kindertijd tot in de volwassenheid.