Menselijke computers: een mogelijkheid, onwaarschijnlijkheid óf realiteit?

Menselijke computers

De film ‘Her’ gaat over een eenzame man die verliefd wordt op het besturingssysteem van zijn computer. Klinkt in eerste instantie vreemd. Hoe kunnen mensen gevoelens krijgen voor computers? Het besturingssysteem heeft geen bewustzijn en is slechts een simulatie van een ‘echt’ persoon. Het gekke is: als je de film ziet, dan kun je je toch inleven in die eenzame man. De handelingen en interacties van het systeem zijn zo realistisch, dat het systeem heel menselijk aanvoelt.

Computers die vermenselijken zie je tegenwoordig steeds vaker, en niet alleen in films. Een computer ‘leert’, een zelfrijdende auto ‘ziet’ en een telefoon ‘luistert’. Bepaalde taken waar normaliter menselijke intelligentie voor nodig was, zoals besluitvorming, beeldherkenning en taalherkenning, worden nu geautomatiseerd. Doordat computers deze complexe zaken van ons overnemen, wordt ons beeld van computers steeds menselijker. Hoe zit dat precies?

Slimme technologieën overheersen in onze maatschappij. Spotify en Netflix bepalen onze voorkeuren en doen vervolgens aanbevelingen. Google Translate gaat verder dan letterlijke, stroeve vertalingen zonder context. Maar we zijn er nog niet, aangezien slimme technologie continu innoveert. Neem beeldherkenning door zelfrijdende auto’s. Deze auto’s leren het verschil tussen bijvoorbeeld wandelaars en fietsers, en gebruiken deze opgedane kennis om beslissingen op te baseren. Dit proces – computers die leren over de realiteit – heet machine learning.

Patroonherkenning

Machine learning is de basis van veel slimme technologieën, en komt neer op patroonherkenning in grote hoeveelheden data. Er zijn talloze machine learning technieken, maar het merendeel hiervan hanteert een overkoepelende werkwijze. Een model – oftewel algoritme – krijgt honderden, soms zelfs duizenden voorbeelden als input. Het model leert van deze input, en doet op basis van deze kennis voorspellingen over eventuele ‘nieuwe’ input, dus nieuwe data. Hier zie je al een overeenkomst met de mens. Laat een kind vaak genoeg voorbeelden van een hond zien, en het kind herkent na een tijdje zelf honden.   

Op welke manier het model precies ‘leert’ van de input, is onder meer afhankelijk van het algoritme. Zo maken Decision Trees onderscheid binnen de input op basis van als-dan regels. Oftewel: als het blaft, dan is het een hond. Een ander algoritme, neem de Naive Bayes, gebruikt kansberekening om te voorspellen. Oftewel: wat is de kans dat iets een hond is, gegeven dat het blaft? Dit zijn slechts twee voorbeelden van de honderden algoritmes die er zijn. Welk algoritme het beste werkt, is afhankelijk van het specifieke probleem waar je mee te maken hebt.  

Neurale netwerken

Er is één groep modellen die meer gemeenschappelijk heeft met de mens dan andere algoritmes: neurale netwerken. Deze netwerken zijn losjes gebaseerd op het menselijk brein. Oftewel: de netwerken komen redelijk goed overeen met onze hersenen. Niet gek dus, dat mensen kunstmatige intelligentie en neurale netwerken door elkaar halen. In werkelijkheid omvat kunstmatige intelligentie echter veel meer dan alleen neurale netwerken.

Decision Trees en Naive Bayes leren op basis van vooraf gespecificeerde kenmerken, zoals blaffen en miauwen. Neurale netwerken leren daarentegen zélf wat de (belangrijkste) kenmerken zijn. Dit doen ze op basis van rauwe, onaangetaste input, zoals afbeeldingen. Bij mensen werkt dit precies hetzelfde. Niemand hoeft ons te vertellen dat een kat een staart, klauwen en snorharen heeft. We kijken naar een kat, en zien zelf dat een kat deze kenmerken heeft.  

Human Robot Interaction (HRI)

Machine learning modellen leren dus grotendeels op dezelfde manier als mensen. Maar dit maakt een machine learning model, bijvoorbeeld in een computer, niet meteen menselijk. Dit verandert echter als machine learning modellen worden ingezet om interactie tussen computers en mensen te faciliteren.

Human Robot Interaction (HRI) is het vakgebied dat onderzoek doet naar deze interactie. Hier gebruikt men kennis uit vakgebieden als computerwetenschappen, robotica, Artificial Intelligence en psychologie om robots met mensen te laten communiceren. Herkenning en generatie van spraak is alleen niet genoeg; menselijke interactie gaat verder. De cognitieve en emotionele processen achter spraak zijn ontzettend belangrijk. Zonder deze processen heb je geen succesvolle interactie. Zo moet een robot leren wat de intentie achter een bepaalde uitspraak kan zijn en hoe je daar gepast op reageert. Menselijkheid ontstaat dus als een robot – en dus computer – in staat is om met emotie en cognitie om te gaan.

Empathische gevoelens

Wanneer het lijkt alsof een robot menselijk communiceert, dan zijn we geneigd menselijke eigenschappen aan robots toe te schrijven. Zo toont een onderzoek aan dat de respondenten een interactieve robot op dezelfde manier omschrijven als mensen; de robot waarmee zij moesten praten, was ‘vriendelijk’, ‘nerveus’ of ‘gemeen’. Als vervolgens werd gevraagd of de robot in kwestie emotie had, ontkende de meeste respondenten. Zij ontkenden echter minder vaak dan de respondenten die de robot niet hadden ‘gesproken’. Alleen al een robot zien praten, kan dus de visie op de menselijkheid van robots veranderen.

Een ander onderzoek bevestigt dit en toont aan dat mensen zich emotioneel verbonden kunnen voelen met robots. Sommige respondenten voelden zelfs empathie voor robots. Een soortgelijk onderzoek liet respondenten beelden zien van een robot die zichzelf per ongeluk in de vinger sneed. Hoe respondenten hierop reageerden? Empathisch, net zoals ze waarschijnlijk bij mensen doen. Sterker nog: hersenscans toonden aan dat respondenten evenveel empathie voelden voor robots als voor mensen. We weten allemaal dat robots niets voelen of denken, maar toch kunnen we op emotioneel vlak moeilijk onderscheid maken tussen robots en mensen.

Robots tegen eenzaamheid

En precies om deze reden gebruikt de zorgsector vaker robots. Zo worden robots bijvoorbeeld ingezet om eenzaamheid onder ouderen tegen te gaan. Dit hoeven niet per se ‘mensenrobots’ te zijn; ‘hondenrobots’ werken ook. Onderzoek laat zien dat een robothond ouderen in verzorgingstehuizen minder eenzaam laat voelen. De ouderen realiseerden zich dat de hond nep was, maar emotioneel gezien voelde de robothond aan als een echte hond.

Een ander onderzoek toont aan dat robots autistische kinderen kunnen helpen. Autistische kinderen hebben vaak moeite met communicatie en begrip. Robots kunnen hierop ingesteld worden, bijvoorbeeld met een beperkt aantal emoties. Hierdoor begrijpen autistische kinderen robots vaak beter dan mensen. Sterker nog, de kinderen uit het onderzoek konden op deze manier makkelijker ‘leren communiceren’, waardoor ‘echte’ communicatie met mensen beter ging.   

Schijn bedriegt

Kortom, computers nemen steeds meer taken van ons over, en worden menselijker in een bepaald opzicht. De technologie ontwikkelt zich razendsnel, maar beperkt zich nog tot taakuitvoering. Wat de mens écht menselijk maakt, emotie en cognitie, kan nu alleen gesimuleerd worden. Maar: niets is wat het lijkt. Als een computer menselijk lijkt, dan zijn we geneigd menselijke eigenschappen aan de computer toe te schrijven.

Nu we dit allemaal weten, is het wellicht makkelijker om je voor te stellen dat de hoofdpersoon uit ‘Her’ verliefd was op zijn besturingssysteem. Sterker nog: het lijkt erop dat dit fictieve scenario langzaam maar zeker onze nieuwe werkelijkheid wordt.  

Posted on 22 november 2019

Share the Story

Back to Top