Het nieuwe computer tijdperk: Cognitieve Computing

Vorig artikel Volgend artikel

We staan er niet dagelijks bij stil, en ik moet u eerlijk bekennen zelfs ik niet. Toch wil ik van deze gelegenheid gebruik maken om u te attenderen op het feit dat wij gezamenlijk op de drempel staan van het nieuwe computer tijdperk, het tijdperk van de zelflerende computersystemen; Cognitieve Computing. Computersystemen die we niet meer hoeven te programmeren. Hierbij brengen we drie wetenschappen bij elkaar; neurowetenschappen, supercomputing en nanotechnologie. Voor vele wetenschappers en technologie nerds "the holy grail" of computing, niet te verwarren met de ridders die werden begeleid met kokosnoten uit de gelijknamige Monthy Pyton film (1974).

Het nieuwe computer tijdperk: Cognitieve Computing

Zoals u inmiddels wellicht weet komt er een enorme tsunami van multimediale data op ons af, ook wel Big Data genoemd. Iedereen is tegenwoordig mobiel, twittert en twettert er grondig op los en het gebruik van smartphones en tablets blijft exponentieel stijgen. Deze ontwikkeling heeft ook het bedrijfsleven getransformeerd en heeft ertoe geleid dat heel wat bedrijven hun businessmodel opnieuw tegen het licht moeten aanhouden. Deze trend heeft ook technologische consequenties: om op een slimme manier in te spelen op deze transformatie, er is immers erg veel capaciteit en performance nodig. Helaas lopen we langzaam tegen de grenzen aan van wat technologisch mogelijk is.

De huidige computersystemen, ja ook uw nieuwe smartphone of tablet zijn nog steeds gebaseerd op de 60 jaar oude Von Neumann Architectuur. Dit betekent concreet dat het verwerken en opslaan van data niet op hetzelfde moment kan plaatsvinden. Het is een lineair, sequentieel proces waarbij de data van processor naar memory gaat en vice versa. Dat is ook de reden dat onze programmatuur tot op de dag van vandaag een lineaire instructieset is, voor de toekomst te langzaam dus. U wilt een Usain Bolt voor het echte grote werk. Niet zo gek dus dat we het menselijke brein als architecturele blauwdruk gaan gebruiken voor de nieuwe zelflerende computersystemen! De mens is namelijk in staat te verwerken en op te slaan op hetzelfde moment, tenminste de meeste mensen dan.

Nieuwe chiptechnologie kan hier mogelijk ook een uitkomst bieden. We kunnen nog een klein aantal jaren vooruit met onze huidige Silicium chips en de Wet van Moore. We kunnen inmiddels al meer transistoren plaatsen op een chip dan dat we kunnen voorzien van electriciteit. De chip zou door de hitte spontaan ontbranden. Is de afstand kleiner dan 7 nanometer tussen atomen dan wordt het systeem onbetrouwbaar. Daarnaast kunnen we atomen helaas niet kleiner maken, tenminste niet dat ik weet. We zijn inmiddels wel in staat om een byte aan informatie kwijt te kunnen op 96 atomen, stabiel!

Tegenwoordig bouwen we de chips op basis van 22 nano meter procede. Combineren we dit met 3D stacking (integratie van processoren en memory), en gebruiken we licht (Photonics) in plaats van elektriciteit voor transport dan hebben we al weer een goede stap in de juiste richting gezet. Bovendien kun je de capaciteit uitschakelen die je op een bepaald ogenblik niet nodig hebt voor verwerking. Zo besparen we weer energieconsumptie en CO2-uitstoot. 

IBM patenteerde zeer recent een chip gebaseerd op carbon nanotubes met een afstand van maar 10 nanometer. Nano komt van het Griekse woord ‘nanos’, wat dwerg betekent. Nanotechnologie is een verzamelnaam. Het verwijst naar toepassingen en technieken die werken op een schaal van 1 tot 100 nanometer. Wordt materie teruggebracht tot deze schaal, dan kunnen zich bijzondere eigenschappen voordoen. Niet-geleidende stoffen worden geleidend, gekleurde stoffen transparant. 

Nanotechnologie maakt het mogelijk om te werken op het niveau van moleculen en atomen. Eén nanometer is een miljardste meter, oftewel 0,000000001 m. Dat is klein. Maar hoe stel je je dat voor? Ter vergelijking: een rode bloedcel is 7000 nanometer groot. Een menselijke haar is zo’n 80.000 nanometer dik. Als je dit in het juiste perspectief plaatst dan zal je begrijpen dat dit heel klein is.

Wetenschappers van IBM Research hebben in samenwerking met andere onderzoeksinstellingen het neurale netwerk brein van een Makaak, een apensoort, volledig in beeld gebracht. Ze hebben inmiddels een chip gebouwd die een breinfunctie kan emuleren, inclusief 256 neuronen (processoren) en synapsen (verbindingen). Je kan 30.000 neuronen kwijt op het puntje van een naald. Kan je nagaan als ze het menselijke brein (85 miljard neuronen en 100 triljoen synapsen) volledig in kaart hebben ! Maar dan zijn we al een jaartje of 10 verder.

Net zo belangrijk is het energiegebruik. Een menselijke brein verbruikt ongeveer 20 Watt aan energie. Een high performance computer zit toch al gauw op 100 MWatt, tel uit je winst.  Hij leert iedere dag meer en op dit moment speelt hij al het spelletje “Pong” , een bekend spelletje voor de Atari. De oudere jongens en meisjes onder ons weten waarover ik het heb. Voor de wat jongere lezers onder ons, dit was Black-Ops van 40 jaar geleden, alleen zonder schieten.

Inmiddels zijn we ook al een stap verder met zelflerende systemen in de praktijk. Ik neem maar even het IBM Watson systeem als voorbeeld, een beslissings ondersteunend systeem die de dialoog kan aangaan zoals een mens dat ook zou kunnen. Hij herkent spraak, begrijpt de context van de vraag en geeft net als een mens antwoord op zeer complexe vraagstukken. In 2011 won Watson het in Amerika bekende Jeopardy spel, een soort omgekeerde 1 tegen 100, en versloeg met twee vingers in zijn neus de beste twee spelers in de wereld. Erg leuk dat je een spelletje wint maar hoe kun je dit concreet maken in de praktijk?

Zo laten we momenteel IBM Watson bijvoorbeeld als analyse- en diagnosetool voor maag, long en hersen onderzoek meedraaien in de meest gerenommeerde kankerinstituten. Het computersysteem adviseert de arts in real-time over de te volgen analyse, diagnose en behandelingsmethode. Dit op basis van kennis en kunde die in het systeem is ingebracht. Het systeem doorzoekt ongeveer 200 miljoen pagina's aan ongestructureerde data (best practices, genomics, oncologisch onderzoek, patient informatie, behandelplannen, journals of medicine) creert hypothesen, conclusies en aanbevelingen binnen een aantal seconden. Goede arts die dit hem nadoet.

Hij is inmiddels zo ver dat hij zijn inzichten kan optimaliseren en op basis van een dialoog met de arts vragen kan stellen om een nog nauwkeuriger antwoord te geven. Dit systeem kan real-time alle data zodanig structureren dat het steeds meer leert en daardoor steeds intelligenter wordt.

De deur naar het nieuwe computer tijdperk staat inmiddels open, het tijdperk van cognitieve computersystemen.

Deze blogpost is geschreven door Gerard E.A. Smit, CTO Benelux, IBM Distinguished Engineer.

Meer content

Reageren is uitgeschakeld omdat er geen cookies opgeslagen worden.

Cookies toestaan Meer informatie over cookies