De meest recente revolutie in artificële intelligentie heeft de wereld betoverd. Indrukwekkende toepassingen als Google Translate en het herkennen van objecten op foto’s worden inmiddels dagelijks gebruikt en werken door de in kunstmatige intelligentie: artificële neurale netwerken. Dat artificële neurale netwerken objecten kunnen herkennen heeft met name indruk gemaakt op neurowetenschappers die werken aan hoe wij zien. Zij denken dat met behulp van deze op de hersenen gebaseerde kunstmatige intelligentie we meer kunnen leren over hoe wij met onze hersenen hetzelfde kunnen. De vraag is dus: hoe weten artificële neurale netwerken nou dat op een plaatje bijvoorbeeld een hond staat? En wat zegt dat eigenlijk over het talige brein?

pc_rowan_templateArtificiële neurale netwerken bestaan uit complexe wiskundige algoritmen die van oorsprong gebaseerd zijn op de neurale netwerken in ons eigen brein. Deze netwerken zijn grofweg vergelijkbaar met ingewikkelde sorteermachines. Een sorteermachine is een apparaat dat een groep voorwerpen sorteert op basis van een eigenschap. Neem een sorteermachine die knikkers op kleur sorteert: deze stopt rode knikkers in het rode bakje, groene in het groene bakje, enzovoorts.

Een artificieel neuraal netwerk bestaat vaak uit meerdere van dit soort sorteermachines achter elkaar. Elke opeenvolgende sorteermachine kan een net iets complexere eigenschap detecteren door de eigenschappen die eerder gesorteerd zijn te combineren. Hoe werkt dat dan precies? Op wat voor soort eigenschappen moet een (artificieel) neuraal netwerk dingen sorteren en combineren om bijvoorbeeld een hond te detecteren?

Neem het volgende plaatje van een hond:

dog full colored

We kunnen dit plaatje opdelen in hokjes. Computers doen dat door het plaatje op te slaan als pixels. Onze ogen delen het plaatje niet per se in perfect rechthoekige pixels op, maar hebben wel iets soortgelijks (genaamd receptieve velden):

dog full colored pixelDe eerste sorteermachine sorteert elk hokje op kleur, d.w.z. de sorteermachine kijkt naar elk hokje en stopt hem in het juiste bakje. In computers is dit vaak al gedaan. Een digitaal plaatje op onze computer is namelijk opgeslagen als een aantal pixels met elk een kleurcode.

 

dog pixel

Maar je ziet al: kleuren komen voor naast elkaar. Het is dus mogelijk om hokjes samen te voegen! Dat samenvoegen gebeurt echter niet zomaar. Dit is het werk van de tweede sorteermachine. Deze sorteermachine deelt weer alles op in hokjes en heeft vervolgens als doel om elk hokje te sorteren op lijnen met verschillende typen oriëntaties. Hiervoor gebruikt hij de informatie van het vorige plaatje.

dog-lines

Na afloop van de tweede sorteermachine heeft elke locatie een cijfer die een bepaald type lijnorientatie betekent. Je kunt zien dat het brein/artificieel neuraal netwerk op die manier verschillende objecten kan onderscheiden van elkaar:

 

 

Maar hoe weet het dan dat eendog-lines-2 waargenomen object een hond is? Met behulp van de lijninformatie kan het brein/artificieel neuraal netwerk vervolgens (mbv nog weer andere sorteermachines) sorteren op steeds complexere vormen en patronen, zoals poten, ogen, en een hondenneus. Uiteindelijk, aan het einde van de reeks sorteermachines, kan met behulp van combinaties van deze vormen het juiste woord gekozen wordt.

dog-lines-3

Artificële neuralen netwerken kunnen dus zien dat er een hond op een plaatje staat door het plaatje op te delen in kleine stukjes met simpele eigenschappen (bijv. kleur) en deze stukjes vervolgens successievelijk in steeds complexer wordende categoriën te sorteren. Een reeks van dit soort automatische sorteermachines achter elkaar is op deze manier intelligent genoeg om een kat van een hond te onderscheiden.

We weten al sinds de jaren 50 van de vorige eeuw dat de hersenen een vergelijkbare structuur van sorteermachines hebben die ons helpt waar te nemen. De nieuwe artificiële neurale netwerken kunnen ons helpen om preciezer te zien wat er in onze hersenen gebeurt.

Maar hoe een robot kan zien of iets een hond of een kat is, is niet alleen relevant voor de visiewetenschap, ook de taalwetenschapper kan er van leren. Immers, wanneer een kind/robot ‘hond’ kan zeggen als er een hond langs loopt, dan heeft het geleerd te zien, ja, maar het heeft ook geleerd Nederlands te spreken. Hoe kunstmatige intelligentie het juiste woord bij het plaatje vind, kan ons dus iets vertellen over hoe wij dat ook doen.

model
Het model van een neuraal netwerk. Het plaatje van een hond wordt gesorteerd op de verschillende eigenschappen zodat het uiteindelijk als hond geïdentificeerd wordt.

 

Bovendien stopt het neuraal netwerk in ons brein niet bij het herkennen van het juiste woord. Dat is slechts het begin! Het sorteren gaat verder. Zo stoppen we honden en katten in overkoepelende categoriëen: huisdier of levend wezen. Ook combineren we verschillende objecten en gebeurtenissen in volledige zinnen: “de hond zit op het grasveld naast een bak met eten”. Ten slotte kiezen we (d.w.z. sorteren we) het “juiste” gedrag bij elke situatie, zodat we bijvoorbeeld stoppen bij een rood stoplicht en doorrijden bij groen.

Natuurlijk is dit alles, hoe ingewikkeld ook, nog steeds enorm gesimplificeerd. Menselijk gedrag is enorm complex en niet voor niets is het menselijke brein het meest complexe object ter wereld. Echter, simpele modellen als artifciële neurale netwerken geven hoop voor de toekomst omdat ze ons mogelijk in staat stellen beter te begrijpen hoe het talige brein zijn omgeving begrijpt en er vervolgens over kan praten.

Menselijk gedrag is enorm complex en niet voor niets is het menselijke brein het meest complexe object ter wereld.