Onze ogen houden ons vaak voor de gek, dat zie je bij Escher-achtige schilderijen, maar ook als je simpelweg naar de maan kijkt: die kan soms veel groter lijken dan anders afhankelijk van zijn stand ten opzichte van de horizon. Die trucjes, daar trapt AI lang niet zo makkelijk in als wij mensen.
AI-chatbots en optische illusies
Op zich is het logisch dat AI een optische illusie doorziet: het heeft immers geen ogen. Het heeft alleen maar tech die zoekt naar datapunten en daarin wordt een optische illusie er toch snel uitgehaald. Het is niet voor niets dat AI bepaalde ziektes veel eerder kan zien dan wij. Toch speelt er nog iets anders mee, want AI trapt ook nog wel eens in zo’n optische illusie. Je kunt de
kunstmatige intelligentie daarvoor slecht vinden, maar stiekem vertelt het ons heel veel over hoe dat in ons eigen brein gaat.
Diepe neurale netwerken kunnen doen alsof ze het menselijk brein zijn en zo tonen hoe die illusies kunnen bestaan. Je kunt er onderzoeken mee doen die op het menselijk brein niet ethisch verantwoord zijn. Dat is wel tech die in ontwikkeling is: er is op dit moment geen enkel neuraal netwerk dat alle optische illusies ervaart zoals wij mensen dat doen.
Er zijn overigens wel mensen die zich niet voor de gek laten houden door optische illusies. Dat zijn echter bijzondere gevallen, zoals iemand die zijn zicht verloor als kind en bij wie dit later werd verbeterd. Die persoon kon het Kanizsa vierkant gewoon doorzien. De optische illusie de Barber Pole daarentegen, die hield ook die persoon voor het lapje. Mogelijk omdat die optische illusie met beweging te maken heeft, in tegenstelling tot die met het vierkant.
Onze ogen voorspellen
Een neuraal netwerk is dus iets beter om te bestuderen en begrip te krijgen van het menselijk brein dan een echt menselijk brein: dat is simpelweg te complex. De
onderzoekers gaven het netwerk genaamd PredNet de draaiende slangenillusie, waarbij kleurrijke cirkels stilstaan, maar door hun patronen lijken te bewegen. Dat netwerk gebruikt -net als de mens- iets dat voorspellend programmeren kan worden genoemd: ons visuele systeem is niet een soort passief systeem dat pas reageert als er beeld is: het voorspelt steeds wat het denkt te gaan zien, gebaseerd op wat we kennen. Logisch ook, want zo zien we eerder gevaar.
PredNet heeft ook zo’n voorspellende gave gekregen en de onderzoekers trainden het ook met video’s van de natuurlijke omgeving. Zo leerde het de regels van de visuele wereld en kon het vervolgens wat optische illusies gaan verwerken. Wat blijkt? Door dat voorspellen wat ons brein doet, trapte het neurale netwerk ook in de optische illusie. Alles wat hij dacht te kennen klopte immers ineens niet meer en dat gaat dan als het ware een eigen leven leiden.
Toch is er ook verschil, stellen de onderzoekers. Wanneer we onze blik op een van de draaiende cirkels richten van de illusie, lijkt deze te stoppen met draaien, terwijl de andere schijven in ons perifere zicht blijven draaien. PredNet ziet altijd alle cirkels tegelijk en ze bewegen dan dus allemaal. Dat zou komen omdat PredNet geen aandachtsmechanisme heeft, het kan niet focussen op een plek in de afbeelding. Zo kijkt dus zelfs AI die we trainen om ons brein na te doen toch net weer met andere ogen naar de optische illusie. Het zal niet een oplossing zijn om in een soort dystopische toekomst mensen nog van machines te kunnen onderscheiden, maar het biedt wel weer een interessant inzicht in hoe groot de verschillen tussen AI en de mens kunnen zijn. Of ze dat echter altijd blijven, dat is afwachten: misschien kan AI immers ook wel zo’n aandachtsmechanisme worden aangeleerd.