kunstmatige intelligentie

Kunnen machines denken?

I propose to consider the question, “Can machines think?” This should begin with definitions of the meaning of the terms “machine” and “think.” (1)

Met deze woorden opende Alan Turing in 1950 het artikel waarin hij een test omschreef die inmiddels bekend is onder de naam ‘Turingtest’. Deze test hield grofweg in dat een ondervrager door vragen te stellen erachter moet komen welke van de ondervraagden een mens is en welke een machine zonder deze te kunnen zien. De machine ‘slaagt’ voor de test als het de ondervrager niet lukt onderscheid te maken tussen de twee; als de machine reageert als ware een mens.
De vraag of machines kunnen denken vond Turing ‘te zinloos’ om over te discussiëren (2), maar de Turingtest beïnvloedt zeker de manier waarop men tegenwoordig naar kunstmatig intelligente machines kijkt en zal ook in de toekomst relevant zijn omtrent de vraag of, jawel, computers kunnen denken.
In dit artikel ga ik, in tegenstelling tot Turing, ervan uit dat de machine niet alleen in taaluitingen en ander gedrag, maar ook qua uiterlijk in de toekomst niet van de mens te onderscheiden zal zijn [a]. Voor het gemak zal ik deze machine ‘Tuman’ noemen [b].

Hersencapaciteit van de toekomst?

In 1958 schrijft Norman Malcolm (3) dat computers woorden nooit zullen kunnen begrijpen zoals een kind ze begrijpt, omdat een computer (net als een boom) niet kan handelen en dus niet kan deelnemen aan dezelfde tests als een kind (4). Een aantal jaar later maakt Malcolm onderscheid tussen verschillende opvattingen van ‘denken’ (5): het denken als in ‘een bewustzijn hebben’ en een gedachte hebben als in ‘propositionele attitudes hebben’. Als voorbeeld van dit onderscheid noemt Malcolm dat een hond niet de gedachte kan hebben “er zit een kat in de boom”, maar wel kan denken dat er een kat in de boom zit (6). Zo kan ook een mens denken zonder een gedachte, maar kan Tuman slechts gedachtes hebben zonder werkelijk te denken.

Voor John Searle (7) bestaat er geen twijfel of zijn hond kan denken: hij denkt omdat Searle wéét dat hij denkt (common-sense-argument). Dit zou betekenen dat als Searle van jongs af aan zou zijn opgegroeid met ‘denkende’ Tuman, Searle ook ‘weet’ dat deze denkt. Toch zou Searle het daar niet mee eens zijn; hij geeft met het Chinese-room experiment aan dat mensen van een machine niet zullen zeggen dat het een taal daadwerkelijk ‘kent’ als het slechts blindelings instructies omtrent die taal opvolgt. Dit is wat bij Tuman wél gebeurt. ‘Kennen’ is meer dan correct toepassen; het is daadwerkelijk begrijpen wat er gebeurt.

Volgens Searle en Malcolm kan Tuman dus niet denken. Toch ben ik van mening dat het mogelijk is om Tuman te laten denken op een manier die gelijkend is aan die van mensen, en wel met het invoeren van ‘conflicten’. Zowel bij Donald Davidson (8) als bij Harry Frankfurt (9) wordt ‘denken’ in zekere zin gedefinieerd aan de hand van een notie van conflict, hoewel beide filosofen dit op een verschillende manier uitwerken.

Voor Davidson moet men kunnen realiseren dat men een verkeerde overtuiging had. Pas als je kan denken: “ik had het fout” (en dus ook een fout hebben gemaakt), dan kan je echt denken. Frankfurt koppelt het persoon-zijn (wat voor hem niet per se hetzelfde is als mens-zijn) aan doelgericht handelen op basis desires van verschillende orde[c][d]. Dat desires van verschillende orde bestaan blijkt op het moment dat er een conflict tussen verschillende desires ontstaat. Als men slaagt gedrag te sturen op basis van hogere orde desires, is dat een manifestatie van vrije wil [!]. Een computer zal nooit kunnen zeggen: “ik heb een verkeerde berekening gedaan” (Davidson) of: “ik wil dat ik x zou willen” (Frankfurt). Er moet, om deze eigenschappen van denken te genereren, een bepaalde vorm van ruis geïntroduceerd worden in het lauter rationele proces van Tuman.

Searle en zijn Chinese Room Experiment
Searle en zijn Chinese Room Experiment

Door aan de hand van externe ruis (ERF [e]) random input te genereren, zal Tuman zich menselijker gaan gedragen. Een voorbeeld van ERF is de kosmische achtergrondstraling die reeds door instituten wordt gebruikt om ‘true randomness’ te verkrijgen (10). Als Tuman uitgerust is met een dergelijke ‘stoorzender’, zal het onmogelijk zijn om het gedrag van Tuman precies te voorspellen.

Bij het Chinese-room experiment van Searle wordt niet van ERF uitgegaan; het stellen van dezelfde vragen zal altijd tot het geven van dezelfde antwoorden leiden. Met de ERF zal dit niet het geval zijn. Malcolm op zijn beurt, kon in 1958 nog niet weten dat computers uiteindelijk wél kunnen handelen en dus aan dezelfde tests als kinderen mee kunnen doen. Bovendien, zoals hij in 1973 zelf aangeeft, bestaat er niet zoiets als hét prototype van denken (11). Daarom denk ik dat de argumenten van Malcolm en Searle minder zwaar wegen in het geval van Tuman en kunnen we aan de hand van Davidson en Frankfurt stellen dat Tuman, mits met ERF, denkt.

Notes:
[a] Dat ze er ook hetzelfde uit zien is om het ons makkelijker voor te stellen dat we empathie voor een robot kunnen gaan voelen. Zodoende zal er ook minder snel een discussie ontstaan a la Nagel (12); dat het moeilijk is om een eerste persoonsperspectief in te nemen ten opzichte van een entiteit die niet op een mens lijkt (13). Verder valt Tuman op die manier ook makkelijker onder het analogie-argument zoals geformuleerd door J.S. Mill (14).
[b] Tuman is uiteraard een speelse samentrekking van Turing en Human.
[c] ‘Desire’ wordt niet vertaald, maar zou in de ruime zin als ‘verlangen’ kunnen worden gelezen.
[d] Ik ga in deze tekst niet in op wat hogere orde desires zijn.
[e] ERF = Externe Ruis Factor.

Bronnen:
(1)    Turing, A.M. (1950). Computing machinery and intelligence. Mind, 59, pp. 433-460.
(2)    Ibid., p. 442.
(3)    Malcolm, N. (1958). Knowledge of other minds. The Journal of Philosophy, LV No. 23, pp. 969-978.
(4)    Ibid., pp. 973-974.
(5)    Malcolm, N. (1973). Thoughtless Brutes. Proceedings and Addresses of the American Philosophical Association, 46, pp. 5-20.
(6)    Ibid., p. 15.
(7)    Searle, J.R. (2002). Animal minds. Consciousness and Language, pp. 61-76.
(8)    Davidson, D. (1982). Rational Animals. Dialectica 36, pp. 95-105.
(9)    Frankfurt, H.G. (1971). Freedom of the Will and the Concept of a Person. Journal of Philosophy 68, pp. 5-20.
(10)    Random.org, True Random Number Service. < http://www.random.org/>
(11)    Zie 5, p. 15.
(12)    Nagel, T. (1974). What is it like to be a Bat? Philosophical Review, pp. 435-450.
(13)    Ibid., p. 442.
(14)    Mill, J.S. (1889). An Examination of Sir William Hamilton’s Philosophy. 6th Edition, pp. 243-244.

Liegende advocaat Jm Carrey komt in de film Liar Liar zwaar in de problemen als hij een dag verplicht de waarheid moet spreken. Wij zouden in de toekomst allemaal dat "probleem" wel eens kunnen hebben.

Nooit meer liegen

Stel je voor: leugens om bestwil kunnen niet meer. Nooit meer met een smoesje een afspraak afzeggen omdat je geen zin hebt. Je partner bedriegen met een ander of of een klant belazeren is onmogelijk, want beeldverwerkende computers merken meteen aan je gezicht dat je liegt. Elk moment van je leven wordt opgenomen door snorrende harde schijven. Volgens sommige denkers worden computers in de toekomst zo goed en zijn er overal zoveel camera’s, dat privacy niet meer bestaat en we bij elke leugen onmiddellijk worden betrapt. Hoe zou een wereld er uit zien waarin je niet meer kan liegen?

Liegende advocaat Jm Carrey komt in de film Liar Liar zwaar in de problemen als hij een dag verplicht de waarheid moet spreken. Wij zouden in de toekomst allemaal dat "probleem" wel eens kunnen hebben.
Liegende advocaat Jim Carrey komt in de film Liar Liar zwaar in de problemen als hij een dag verplicht de waarheid moet spreken. Wij zouden in de toekomst allemaal dat "probleem" wel eens kunnen hebben.

Er is een verhaal in de talmoed, een verzameling van joodse legenden en verhalen, over een vrome rabbijn die in een land terecht kwam waar mensen alleen maar de waarheid spraken en nooit stierven. Dat sprak hem wel aan. Hij besloot zich in het land te vestigen. Hij ontmoette er een leuke vrouw en trouwde met haar. Op een gegeven moment was ze zich aan het baden en kwam er bezoek. De rabbijn loog tegen de bezoeker dat ze niet thuis was, waarop zijn vrouw dood neerviel. Het verhaal eindigde er mee dat de rabbijn door de woedende inwoners van het land werd verjaagd.

Onze toekomst zou er wel eens als dit mythische land uit kunnen zien. Apparatuur die gezichtsuitdrukkingen en hersengolven kan lezen, zal eerst voor politieverhoren worden gebruikt. Daarna zal de software steeds goedkoper worden en binnen bereik van bijna iedereen komen. Niemand zal de verleiding kunnen weerstaan. Is ze nou verliefd op me of niet? Houdt hij van me of speelt hij alleen toneel?

Van leuke mensen die je tegenkomt kan je in een fractie van een seconde hun complete doopceel lichten. Joran zou direct betrapt worden als hij een meisje probeert mee te lokken. Oplichters worden een met uitsterven bedreigde groep. Liegende politici ontwikkelen acute cameravrees. We worden misschien vergevensgezinder. Er is namelijk altijd wel een vlekje aan iemand dat we niet meer kunnen verbergen. Beroepsgroepen waarbij liegen belangrijk is, zoals de advocatuur, politiek, verkoop en pr zullen het zwaar krijgen.

Alleen psychopaten zullen nog kunnen liegen zonder dat een camera het merkt. Dat zal ze waarschijnlijk erg gewild maken als verkoper of topmanager. Voor korte tijd, want een tweede ontwikkeling nekt zelfs de meest geraffineerde valsspelers definitief. Bij elke leugen moeten er namelijk aanvullende leugens worden verteld om de leugen consistent te houden. Heb je bijvoorbeeld je baas wijsgemaakt dat je schoonmoeder op sterven ligt terwijl je in werkelijkheid met vrienden aan het vissen bent, dan kan je baas er achter komen dat je schoonmoeder niet in bed op apegapen ligt maar aan het klaverjastoernooi meedoet. Geautomatiseerde kunstmatige intelligente bots of  internet-privedetectives uit lagelonenlanden kunnen dit soort informatie snel boven water halen.

Eerlijk duurt het langst? Wie weet, maar eerlijk zijn  heeft in ieder geval wel de toekomst…

Technische achtergronden

Lifelogging en life caching

Harde schijven zijn tegenwoordig zo groot in capaciteit, 1 TB staat gelijk aan zesduizend uur film (ongeveer een jaar, met slapen meegerekend), dat op een moderne harde schijf een videoregistratie van de belangrijke gebeurtenissen van iemands hele leven kan worden opgenomen. In de lifelogging beweging gebeurt dit ook. Lifeloggers (op dit moment zo’n twintigduizend) slaan elke minuut van hun leven op op de harde schijf (life caching). De capaciteit van harde schijven en andere geheugenopslagmedia neemt nog steeds heel snel toe. Over niet al te lange tijd (rond 2030) zullen we een draagbaar videoarchief van elke seconde van ons hele leven bij ons kunnen dragen. Wat zei u op 21 juni 2012 om tien over drie ’s middags? Even opzoeken…

Paranoia heeft de toekomst

Heeft u het gevoel dat die huisvlieg wel erg verdacht om u heen zoemt? Nu een teken van paranoia, straks een gevoel dat mogelijk overeenkomt met de realiteit. De kleinste commerciële camera’s anno nu zijn zo groot als een suikerklontje maar dalen snel in afmetingen. Rond 2030 zullen ze zo groot zijn als een suikerkorrel. Een cluster van samenwerkende camera’s, door een nieuwsgierige bezoeker rondgestrooid, kan dan een hele ruimte in de gaten houden. Op dit moment werkt het Amerikaanse leger al aan op afstand bestuurbare levende vliegen en kunstvliegen.

Computers lezen gedachten

December 2010 zijn onderzoekers van Cambridge University er in geslaagd een computer eenvoudige lichaamstaal te laten lezen. Het principe van de polygraaf of leugendetector – liegende mensen staan onder hoge emotionele spanning en dat uit zich in lichamelijke veranderingen als zweten en haartjes die rechtop gaan staan – kan in principe met zeer gevoelige (infrarood) camera’s in praktijk gebracht  worden. Ook hier verraadt lichaamstaal of iemand liegt. Als computers in de toekomst nog veel beter worden dan nu, zullen de mogelijkheden nog veel uitgebreider worden.