Kunnen machines denken?
I propose to consider the question, “Can machines think?” This should begin with definitions of the meaning of the terms “machine” and “think.” (1)
Met deze woorden opende Alan Turing in 1950 het artikel waarin hij een test omschreef die inmiddels bekend is onder de naam ‘Turingtest’. Deze test hield grofweg in dat een ondervrager door vragen te stellen erachter moet komen welke van de ondervraagden een mens is en welke een machine zonder deze te kunnen zien. De machine ‘slaagt’ voor de test als het de ondervrager niet lukt onderscheid te maken tussen de twee; als de machine reageert als ware een mens.
De vraag of machines kunnen denken vond Turing ‘te zinloos’ om over te discussiëren (2), maar de Turingtest beïnvloedt zeker de manier waarop men tegenwoordig naar kunstmatig intelligente machines kijkt en zal ook in de toekomst relevant zijn omtrent de vraag of, jawel, computers kunnen denken.
In dit artikel ga ik, in tegenstelling tot Turing, ervan uit dat de machine niet alleen in taaluitingen en ander gedrag, maar ook qua uiterlijk in de toekomst niet van de mens te onderscheiden zal zijn [a]. Voor het gemak zal ik deze machine ‘Tuman’ noemen [b].
In 1958 schrijft Norman Malcolm (3) dat computers woorden nooit zullen kunnen begrijpen zoals een kind ze begrijpt, omdat een computer (net als een boom) niet kan handelen en dus niet kan deelnemen aan dezelfde tests als een kind (4). Een aantal jaar later maakt Malcolm onderscheid tussen verschillende opvattingen van ‘denken’ (5): het denken als in ‘een bewustzijn hebben’ en een gedachte hebben als in ‘propositionele attitudes hebben’. Als voorbeeld van dit onderscheid noemt Malcolm dat een hond niet de gedachte kan hebben “er zit een kat in de boomâ€, maar wel kan denken dat er een kat in de boom zit (6). Zo kan ook een mens denken zonder een gedachte, maar kan Tuman slechts gedachtes hebben zonder werkelijk te denken.
Voor John Searle (7) bestaat er geen twijfel of zijn hond kan denken: hij denkt omdat Searle wéét dat hij denkt (common-sense-argument). Dit zou betekenen dat als Searle van jongs af aan zou zijn opgegroeid met ‘denkende’ Tuman, Searle ook ‘weet’ dat deze denkt. Toch zou Searle het daar niet mee eens zijn; hij geeft met het Chinese-room experiment aan dat mensen van een machine niet zullen zeggen dat het een taal daadwerkelijk ‘kent’ als het slechts blindelings instructies omtrent die taal opvolgt. Dit is wat bij Tuman wél gebeurt. ‘Kennen’ is meer dan correct toepassen; het is daadwerkelijk begrijpen wat er gebeurt.
Volgens Searle en Malcolm kan Tuman dus niet denken. Toch ben ik van mening dat het mogelijk is om Tuman te laten denken op een manier die gelijkend is aan die van mensen, en wel met het invoeren van ‘conflicten’. Zowel bij Donald Davidson (8) als bij Harry Frankfurt (9) wordt ‘denken’ in zekere zin gedefinieerd aan de hand van een notie van conflict, hoewel beide filosofen dit op een verschillende manier uitwerken.
Voor Davidson moet men kunnen realiseren dat men een verkeerde overtuiging had. Pas als je kan denken: “ik had het fout” (en dus ook een fout hebben gemaakt), dan kan je echt denken. Frankfurt koppelt het persoon-zijn (wat voor hem niet per se hetzelfde is als mens-zijn) aan doelgericht handelen op basis desires van verschillende orde[c][d]. Dat desires van verschillende orde bestaan blijkt op het moment dat er een conflict tussen verschillende desires ontstaat. Als men slaagt gedrag te sturen op basis van hogere orde desires, is dat een manifestatie van vrije wil [!]. Een computer zal nooit kunnen zeggen: “ik heb een verkeerde berekening gedaan†(Davidson) of: “ik wil dat ik x zou willen†(Frankfurt). Er moet, om deze eigenschappen van denken te genereren, een bepaalde vorm van ruis geïntroduceerd worden in het lauter rationele proces van Tuman.
Door aan de hand van externe ruis (ERF [e]) random input te genereren, zal Tuman zich menselijker gaan gedragen. Een voorbeeld van ERF is de kosmische achtergrondstraling die reeds door instituten wordt gebruikt om ‘true randomness’ te verkrijgen (10). Als Tuman uitgerust is met een dergelijke ‘stoorzender’, zal het onmogelijk zijn om het gedrag van Tuman precies te voorspellen.
Bij het Chinese-room experiment van Searle wordt niet van ERF uitgegaan; het stellen van dezelfde vragen zal altijd tot het geven van dezelfde antwoorden leiden. Met de ERF zal dit niet het geval zijn. Malcolm op zijn beurt, kon in 1958 nog niet weten dat computers uiteindelijk wél kunnen handelen en dus aan dezelfde tests als kinderen mee kunnen doen. Bovendien, zoals hij in 1973 zelf aangeeft, bestaat er niet zoiets als hét prototype van denken (11). Daarom denk ik dat de argumenten van Malcolm en Searle minder zwaar wegen in het geval van Tuman en kunnen we aan de hand van Davidson en Frankfurt stellen dat Tuman, mits met ERF, denkt.
Notes:
[a] Dat ze er ook hetzelfde uit zien is om het ons makkelijker voor te stellen dat we empathie voor een robot kunnen gaan voelen. Zodoende zal er ook minder snel een discussie ontstaan a la Nagel (12); dat het moeilijk is om een eerste persoonsperspectief in te nemen ten opzichte van een entiteit die niet op een mens lijkt (13). Verder valt Tuman op die manier ook makkelijker onder het analogie-argument zoals geformuleerd door J.S. Mill (14).
[b] Tuman is uiteraard een speelse samentrekking van Turing en Human.
[c] ‘Desire’ wordt niet vertaald, maar zou in de ruime zin als ‘verlangen’ kunnen worden gelezen.
[d] Ik ga in deze tekst niet in op wat hogere orde desires zijn.
[e] ERF = Externe Ruis Factor.
Bronnen:
(1) Turing, A.M. (1950). Computing machinery and intelligence. Mind, 59, pp. 433-460.
(2) Ibid., p. 442.
(3) Malcolm, N. (1958). Knowledge of other minds. The Journal of Philosophy, LV No. 23, pp. 969-978.
(4) Ibid., pp. 973-974.
(5) Malcolm, N. (1973). Thoughtless Brutes. Proceedings and Addresses of the American Philosophical Association, 46, pp. 5-20.
(6) Ibid., p. 15.
(7) Searle, J.R. (2002). Animal minds. Consciousness and Language, pp. 61-76.
(8) Davidson, D. (1982). Rational Animals. Dialectica 36, pp. 95-105.
(9) Frankfurt, H.G. (1971). Freedom of the Will and the Concept of a Person. Journal of Philosophy 68, pp. 5-20.
(10) Random.org, True Random Number Service. < http://www.random.org/>
(11) Zie 5, p. 15.
(12) Nagel, T. (1974). What is it like to be a Bat? Philosophical Review, pp. 435-450.
(13) Ibid., p. 442.
(14) Mill, J.S. (1889). An Examination of Sir William Hamilton’s Philosophy. 6th Edition, pp. 243-244.