Elkaar verstaan is niet altijd even gemakkelijk, vooral als er veel achtergrondlawaai is. Toch slagen we er vaak wel in elkaar moeiteloos te verstaan, met name als je je gesprekspartner aankijkt. Dit omdat we allemaal een beetje liplezen.

matthiasF_author_templateSpraakperceptie, of het kunnen verstaan wat anderen tegen ons zeggen, is een merkwaardige vaardigheid. De manier waarop sprekers klanken en woorden uitspreken kan heel erg verschillen, op basis van waar de spreker vandaan komt, in wat voor gemoed hij of zij is, maar ook op basis van de klanken die er net voor of net na uitgesproken werden. Bovendien is het spraakgeluid dat ons gehoor opvangt meestal vermengd met ruis op de achtergrond: verkeersgeluid op straat, andere sprekers op café of op een feestje, ruis op de telefoonverbinding, enz.… Toch slagen we er het grootste deel van de tijd in om elkaar goed te verstaan. Hoe is dit mogelijk?

Heel wat onderzoekers hebben reeds onderzocht hoe we erin slagen een geluidssignaal (spraak) vol ruis toch te verstaan. Wat we weten is dat sprekers niet alleen de informatie die vervat zit in het spraakgeluid, maar ook andere informatiebronnen kunnen gebruiken. Een voorbeeld is lexicale kennis (woordenschat). Als je als Nederlandse luisteraar een spraakgeluid opvangt dat op ofwel ‘witlof’, ofwel ‘witlos’ lijkt (je hoort niet goed wat de laatste klank was), kan je op basis van lexicale kennis opmaken dat de spreker ‘witlof’ bedoelde: er bestaat namelijk geen Nederlands woord “witlos”. Op deze manier begrijp je wat de spreker bedoelde, zelfs al hoorde je niet precies wat de spreker zei.

We slagen er het grootste deel van de tijd in om elkaar goed te verstaan. Hoe is dit mogelijk?

Een andere bron van informatie die we als luisteraars kunnen gebruiken is visuele informatie, zoals liplezen. In een recent experiment onderzochten we of luisteraars gebruik maakten van liplezen om hun klinkercategorieën aan te passen. Proefpersonen keken naar video’s waarbij de klank ambigu was tussen twee klinkers in (in dit geval hoorden ze een klinker tussen “ee” en “eu” in), terwijl het beeld het gelaat toonde van een spreker die ofwel “ee”, ofwel “eu” zei. Terwijl de klank ambigu was, konden de proefpersonen op basis van het beeld bepalen welke klinker werd uitgesproken (door te “liplezen”).

liplezen
Proefpersonen zagen ofwel de linkervideo, waar de spreker “kapeuk” zegt, ofwel de rechtervideo, waar de spreker “kapeek” zegt. De klank bij beide video’s was echter hetzelfde. Merk op hoe de stand van de lippen het verschil tussen de klinkers aangeeft.

Na het bekijken van enkele van deze video’s, leerden sommige proefpersonen dat het ambigue geluid eigenlijk een “ee” was, terwijl anderen leerden dat het eigenlijk een “eu” was. Met andere woorden, de proefpersonen pasten hun klinkercategorieën aan op basis van de video’s die ze zagen. Als we hen vervolgens vroegen welke klinker de ambigue klank (zonder beeld) moest voorstellen, gaven de proefpersonen die de “ee”-video’s zagen aan dat het om een “ee” ging, terwijl de andere groep aangaf dat het om een “eu” ging.

mensen_praten

Deze resultaten tonen aan dat proefpersonen inderdaad visuele informatie gebruiken bij spraakperceptie. Denk aan een gesprek in een lawaaierige omgeving, zoals een bar of een feestje. Je hebt vast al eens gemerkt dat het gemakkelijker is je gesprekspartner te verstaan als je hem of haar aankijkt. Dit komt omdat je op dat moment ook visuele informatie gebruikt om hem of haar beter te begrijpen. Iedereen kan dus een beetje liplezen!

 

 

 

 

Advertenties