ai

Killerdrones, of 'slaughterbots', worden een reële bedreigin in de nabije toekomst. Bron: Slaughterbot video op YouTube, zie tekst

Autonome wapens: waarom we ons zorgen moeten maken

Autonome wapens lijken iets dat rechtstreeks uit science fiction komt. Schijn bedriegt. Autonome wapens zijn al veel slimmer dan de mechanische mijnen en automatische machinegeweren uit de twintigste eeuw. En, we ain’t not seen anything yet.

Autonome wapens

Autonome wapens, de zogeheten killerdrones, of 'slaughterbots', worden een reële bedreiging in de nabije toekomst. Bron: Slaughterbot video op YouTube, zie tekst
Autonome wapens, de zogeheten killerdrones, of ‘slaughterbots’, worden een reële bedreiging in de nabije toekomst. Bron: Slaughterbot video op YouTube, zie tekst

De oppositie wordt steeds actiever en het brute regime begint zich zorgen te maken. Maar dan komt de “redding” per militair transportvliegtuig. De beloofde zending voor de dictator komt aan: een vracht met drones. Speelgoed? Dat lijkt het, maar is het allerminst. Dan wordt de AI die ze bestuurt, geladen met de gezichten van duizenden leden van de oppositie. Vervolgens daalt de zwerm neer op de opstandige stad en zaait dood en verderf…

Science fiction? Nog wel, maar zowel het Pentagon als de Russen en het Chinese PLA zijn actief onderzoek aan het doen naar de inzet van autonome wapens. Hun militaire nut is te groot om niet te negeren.

TrueNorth in autonome wapens

Het verontrustende scenario dat hierboven is geschetst is nu al technisch haalbaar. IBM ontwikkelde TrueNorth, een chip met neuraal netwerk die in staat is om snel gezichten te herkennen bij een laag energiegebruik, en dus in een drone ingezet kan worden om deze gezichtsherkenning toe te laten passen[1]. Het is een kwestie van tijd voordat iemand van het Pentagon, of een militaire contractor, een bestelling bij IBM gaat doen voor miljoenen van deze chips. Of bij de Chinese concurrent. De gevolgen zijn dan vervelend.

Niet iedereen is het hier mee eens. Paul Scharre denkt dat tegenwoordige techniek voldoende is om deze killer drones tegen te houden[2], maar houdt geen rekening met de inzet van deze technologie door een weinig scrupuleuze state actor als bijvoorbeeld Turkije of Noord-Korea. Nu al behaalde Turkije een beslissende overwinning in de oorlog (via proxy Azerbeidzjan) tegen Armenië door de inzet van drones. Verdediging tegen een wapen dat gebruik kan maken van alle drie dimensies om aan te vallen en voor lage kosten in enorme aantallen verkrijgbaar is, is extreem lastig. Vooral omdat overheden hier nauwelijks op voorbereid zijn.

Ban Autonomous Weapons

Hieronder een video van hopelijk niet de nabije toekomst.  Nabij is hier: voor 2025.

Bestaan autonome wapens eenmaal, dan is dat  een dreiging die dodelijker kan zijn dan een kernoorlog. Dat stelt de actiegroep Ban Autonomous Lethal Weapons. Wij mensen zullen dan veranderen in opgejaagd wild. Een prooi voor een ieder achter de knoppen van een zwerm killer drones.

De petitie tekenen tegen killerbots en -drones kan hier. Aanrader.

Bronnen
1. Nicole Hemsworth, A Rare Peek into IBM’s True North Neuromorphic Chip, NextPlatform, (2018)
2. Paul Scharre, Why You Shouldn’t Fear “Slaughterbots”, IEEE Spectrum, 2017

Lee Sedol, de regerend kampioen van Korea staat bekend om zijn creatieve spel. Alleen door een geniale ingeving kon hij het vierde spel winnen.

Waarom we maar beter bang kunnen zijn voor computers

Het bordspel go is hier weinig bekend, maar in Oost-Azië erg geliefd. Dat is niet voor niets: de diepgang van het spel maakt het uitermate moeilijk om het tot in de finesses te beheersen. Volgens velen vergt het het denken van een mens om go voldoende te beheersen – het aantal mogelijkheden is zo groot, dat het onmogelijk is het spel met brute processorkracht te kraken.
AlphaGo slaagde er onverwacht in om precies dit te bereiken. Hiervoor gebruikte het programma, dat op een supercomputer draaide, een combinatie van deep learning en Monte Carlo tree search. Voor het eerst in de geschiedenis werd een go-grootmeester van wereldklasse verslagen. Wat dit betekent voor de vooruitzichten voor de mens laadt zich raden.

Wat de overwinning van AlphaGo pas echt eng maakte, is de techniek die de programmeurs gebruikten. Ze lieten AlphaGo namelijk tegen zichzelf spelen, waardoor het programma steeds sterker en sterker werd. Sterker dan een mens, uiteindelijk. Op deze manier kan een superintelligentie zichzelf ook eindeloos laten evolueren.

Go-grootmeester Lee Sedol, de regerend kampioen van Zuid-Korea, staat bekend om zijn creatieve spel. Alleen door een geniale ingeving kon hij het vierde spel winnen.
Go-grootmeester Lee Sedol, de regerend kampioen van Zuid-Korea, staat bekend om zijn creatieve spel. Alleen door een geniale ingeving kon hij het vierde spel winnen.

Want als zelfs een extreem complex spel als go kraakbaar is, dan geldt dat zeker voor veel eenvoudiger baantjes, waar nu nog mensen werken. Deep learning netwerken kunnen deze waarnemen en kraken. Be afraid. Be very afraid. Ik zeg dit niet snel, maar nu is er de nodige reden voor.

Hawking: wereldwijd verbod op AI-wapens redt mensheid

Worden we op een dag opgejaagd door bewapende drones en killer robots, die de mensheid tot de laatste sterveling uitroeien? Een aantal vooraanstaande wetenschappers en ondernemers, waaronder Hawking, Musk en Chomsky spreken hun zorg uit over de mogelijkheid dat kunstmatige intelligentie in aanvalswapens wordt ingezet. Ze pleiten voor een internationaal verbod.

Hun oproep komt mijns inziens geen dag te vroeg. De ontwikkeling van kunstmatige intelligentie gaat snel en volgde in het verleden ruwweg de schatting, die Ray Kurzweil maakte op basis van de Wet van Moore. Kurzweil schat dat tegen 2030 een consumentencomputer van duizend dollar evenveel informatie kan verwerken als het menselijk brein en als het effectief geprogrammeerd is, de geestelijke capaciteiten van de mens kan evenaren. hawking

Stel je voor: een soldaat met de vastberaden wil om te doden, zonder enig medegevoel of geweten, een reactiesnelheid die duizenden malen hoger is dan die van een mens. Bovendien zo slim, dat hij iedere vijand te slim af kan zijn. Een kwaadwillende, bewapende kunstmatige intelligentie (en let’s face it: wapens worden ontwikkeld om de vijand uit te moorden, dus weaponized AI is zo kwaadaardig als je je logischerwijs voor kan stellen) kan heel wat kwaad aanrichten. Waarschijnlijk zelfs zoveel kwaad, dat het voortbestaan van de mens, of zelfs het leven op aarde wordt bedreigd.

In een wedstrijdje Jeopardy, met dubbelzinnige vragen, kraakte Watson de menselijke concurrentie. Verliezer Jennings bleek sportiever dan de verpletterde menselijke grootmeesters schaken.

Ethiek en de Singulariteit

Op 2 februari 2015 is er in Amsterdam een bijeenkomst van Singularity University Nederland over de ethische kanten aan de komst van niet-menselijke superintelligenties. Een goed moment om dieper op dit vraagstuk in te gaan. Hoe voorkomen we dat de mensheid, of grote groepen van de mensheid, worden gemarginaliseerd? En wat zijn de rechten van niet-menselijke zelfbewuste intelligenties?


Bovenmenselijke intelligentie van science fiction naar science fact

Computers kunnen steeds meer exclusief menselijke taken overnemen. In de jaren vijftig overtroffen computers de beste menselijke rekenaars. Begin deze eeuw hakte IBM-computer Deep Blue de regerend wereldkampioen schaken in de pan, een decennium later gevolgd door IBM Watson, die de twee beste menselijke spelers ooit van de Amerikaanse kennis- en inzichtquiz Jeopardy met gemak versloeg. Vertaalcomputers zoals Google Translate worden ook steeds beter, met nu al een niveau wat na enkele jaren taalonderwijs op de middelbare school wordt behaald. Kortom: het is nu zeker tijd, ons over de ethische vragen te buigen die superintelligentie met zich meebrengt.

In een wedstrijdje Jeopardy, met dubbelzinnige vragen, kraakte Watson de menselijke concurrentie. Verliezer Jennings bleek sportiever dan de verpletterde menselijke schaakgrootmeester Kasparov.
In een wedstrijdje Jeopardy, met dubbelzinnige vragen, kraakte Watson de menselijke concurrentie. Verliezer Jennings bleek sportiever dan de verpletterde menselijke schaakgrootmeester Kasparov.


Ethiek en niet-bewuste superintelligentie

Het is theoretisch zeker denkbaar, een supercomputer te construeren die sneller informatie kan verwerken dan een mens maar toch niet zelfbewust is. Deze computer zou door middel van programmering zo ingeperkt kunnen worden, dat deze zich alleen met een nauw-omlijnde taak bezighoudt. Er is een gedachtenschool die stelt, dat bewustzijn het gevolg is van complexiteit. Inderdaad zijn de diersoorten die tekenen van zelfbewustzijn vertonen, zoals hogere mensapen, de twee (of drie) olifantensoorten, walvisachtigen en papegaaiachtigen en ook enkele octopusachtigen, ook de diersoorten met het relatief grootste brein.

Computers met één, of een klein aantal, processorkernen zullen echter niet spontaan zelfbewustzijn ontwikkelen. Daarvoor zijn ze te gefocused op één taak. Bewustzijn vereist zelfreflectie.
Toch zijn er ook bij ‘autistische’, puur taakgerichte, kunstmatige intelligenties zoals de hedendaagse computers ethische problemen. Bij elke taak die van mensen wordt overgenomen, vermindert de behoefte aan menselijke arbeid. Er komen nieuwe banen bij die op een hoger niveau liggen, denk elektriciens die de gaslampaanstekers vervingen. Deze banen eisen meer scholing en intellectuele capaciteiten. Waar zwakzinnigen vroeger makkelijk aan het werk kwamen als bijvoorbeeld landarbeider, bordenwasser bij de lokale landheer of soldaat, moet een moderne boer of militair minstens MBO-4 scholing hebben, dus een IQ van minstens 90, om de geavanceerde apparatuur te kunnen besturen. En de grens is steeds meer aan het opschuiven. Sociale werkplaatsen zullen dus steeds meer de regel worden, uiteindelijk voor de meerderheid van de bevolking. De meeste mensen zullen dan leven als Eloi, terwijl een steeds kleiner groepje technische Morlocks de raderen draaiend houdt, tot ook de slimste mens plaatsmaakt voor een machine. Willen we dit scenario voorkomen, dan moeten we onze maatschappij radicaal anders in gaan richten. Waar overigens toch al het nodige voor te zeggen is.

Als wij mensen niet met de techniek versmelten, maar ons juist laten pamperen, veranderen we in een soort Eloi.
Als wij mensen niet met de techniek versmelten, maar ons juist laten pamperen, veranderen we in een soort Eloi.

Bewuste intelligenties
Bij bewuste intelligenties komen er nog ethische problemen bij. We creëren hier dan een wezen, dat net als een mens bewust is van de wereld om zich heen. Voegen we geen gevoel toe, dan ontstaat een psychopaat. Psychopaten met een bovenmenselijke intelligentie, niet gehinderd door de karakterzwakheden van menselijke psychopaten, kunnen -en zullen- de nodige ellende aanrichten. Zie de vele dystopische SF-films waarin een op hol geslagen machineintelligentie een hel op aarde creëert. Het enige alternatief is dan een soort Asimov’s Drie Wetten van de Robotica te creëren, die maakt dat ook een gevoelloze AI mensen niet schaadt.

Heeft de bewuste intelligentie wel gevoelens, dan hebben we in principe een mensachtig wezen geschapen, dat weliswaar anders denkt dan wij, maar wel degelijk menselijkheid met ons deelt. Hoe ethisch is het, een dergelijk wezen geen mensenrechten te geven? Knoeien met een dergelijke geavanceerde AI staat dan gelijk met het martelen van een mens. Een gebrekkig prototype van een dergelijke AI bouwen, en prototypes zijn per definitie gebrekkig, is dan het tot leven roepen van een geestesziek mens. Marteling dus. Kortom: een dergelijke kunstmatige intelligentie mag m.i. pas tot leven worden geroepen als we de menselijke geest van een vrijwilliger in een machine kunnen downloaden. Wat ook weer de nodige ethische problemen oplevert, maar wel het leven redt van deze vrijwilliger. Immers, een geest in een computer is niet onderworpen aan het biologische doodvonnis, dat alle mensen te wachten staat. Je kan je afvragen, hoe ethisch het is om niet met man en macht te werken aan het grootste probleem ooit: de dood.
Wat denken jullie?

‘Intelligentie kan niet bestaan zonder lichaam en omgeving’

Geen intelligentie zonder een bredere kijk op informatieverwerking, aldus één van de meest vooraanstaande AI-onderzoekers. Heeft hij gelijk?

Denken met je lichaam
In de jaren zeventig en tachtig probeerden robotbouwers, geïnspireerd door AI-onderzoekers uit die tijd, machines te ontwikkelen, die zich door hoog ontwikkelde semi-cognitieve processen konden voortbewegen. Een erg groot succes werd dit niet, mede omdat de computers uit die tijd niet veel meer konden dan een zware zakrekenmachine nu. Een handjevol robotbouwers begon zichzelf toen een ander doel te stellen. Geen lopende mensen, maar mechanische insecten of, liever gezegd gezien de uitgesproken ‘domheid’ van hun robots, mechanische eencelligen.  Door simpele foutcorrigerende elektronica die elke hobby-elektronicabouwer zo kon nabouwen, bijvoorbeeld: als je een schok detecteert, beweeg dan een willekeurig andere poot, slaagden ze er er in iets voor elkaar te krijgen waar instituten met miljoenenbudgetten jammerlijk faalden.

Hun succes werkte aanstekelijk en ook AI-onderzoekers lieten zich inspireren door hun filosofie. In deze robots is, net als in eencelligen en eenvoudige insekten, alle ‘intelligentie’ in het ontwerp van het lichaam ingebakken. AI-onderzoekers hebben nu een snel om zich heengrijpend concept ontwikkeld: ‘embodiment’, wat wil zeggen  dat volgens hen intelligentie niet kan bestaan zonder lichaam.

En de omgeving?
In de laatste paar jaar gaan steeds meer onderzoekers ‘om’ en beginnen de mogelijkheid te verkennen dat deze definitie te beperkt is. De voornaamste onder hen is Rolf
Pfeifer van het Artificial Intelligence Laboratory van de universiteit van het Zwitserse Zürich. Hij stelt dat spreken over intelligentie zinloos is buiten de omgeving waarin de intelligentie zich bevindt.

Volgens hen moet de definitie niet alleen vastleggen hoe de geest zich in het lichaam gedraagt, maar ook hoe het lichaam  staat in verhouding tot de omgeving waarin het opereert. In een nieuw artikel, geschreven als een manifest, trekken Pfeifer en collega Matej Hoffman deze manier van denken door tot een nieuwe benaderingswijze van kunstmatige intelligentie. Dit heeft de nodige gevolgen. Volgens hen moeten we namelijk niet alleen kunstmatige intelligentie herdefiniëren, maar ook de aard van berekeningen.

‘Denkend’ vliegenoog
Dit illustreren ze aan de hand van enkele case studies, zoals de verdeling van optische sensoren in een vliegenoog. Het is al langer bekend dat de facetogen van vliegen meer over receptoren aan de voorkant van het oog beschikken dan aan de zijkanten. Interessant is dat deze verdeling precies compenseert voor bewegingsparallax (het effect dat beelden aan de zijkant van de vlieg sneller lijken te bewegen dan voorwerpen voor de vlieg. De totale hoeveelheid verandering die de vlieg registreert, bij een facetoog is dit verschuiving van een patroon met puntjes, is dankzij de verdeling van de facetten precies even groot aan de zijkant als aan de voorkant. Dit scheelt de vlieg heel wat optisch rekenwerk, waar wij mensen bijna honderd gram neuronen voor nodig hebben. Kortom: het oog voert de berekening uit als een soort analoge computer.

Enkele jaren geleden buitten enkele AI-onderzoekers dit effect uit in hun Eyebot. Wel werkt deze ‘computer’ alleen onder drie voorwaarden: er is een simpele mogelijkheid tot bewegingsherkenning aanwezig in het brein, de cellen zijn op de juiste manier verdeeld in het lichaam en het systeem is gehuisvest in een vliegend wezen in een 3D-universum. Zonder één van deze drie elementen: brein, lichaam en omgeving, zou het systeem niet werken. Waaruit beide heren de nogal vergaande conclusie trekken dat alle informatieverwerking afhankelijk is van de driehoek brein-lichaam-de omgeving.

Vooruit plannen als volgende evolutionaire stap
In de meeste gevallen gebeurt deze berekening onbewust. Denk aan lopen en dergelijke. Zij stellen echter dat dit ook een platform creëert waarom complexere taken plaats kunnen vinden, bijvoorbeeld manieren om vooruit te plannen. Volgens Pfeifer en Hoffman duiken complexer cognitieve vaardigheden op als deze mechanismes die vooruit plannen los raken van het systeem waarop ze betrekking hebben, dus van concreet naar abstract worden. Dit is vrij gemakkelijk te testen: bouw een systeem, bijvoorbeeld een neuraal netwerk, en test hoe slim het is voor en na het aankweken van de mogelijkheid tot vooruit plannen. Dit kan ook inzichten geven in het ontstaan van bewustzijn in de mens. Een interessante nieuwe benadering waar we de komende jaren zeker meer over zullen horen.

Bron
The Implications of Embodiment for Behavior and Cognition: Animal and Robotic Case Studies, Arxiv (2012)

Video: hoe stoppen we op hol geslagen kunstmatige intelligenties?

Over hooguit dertig tot veertig jaar zijn er machines die slimmer zijn dan mensen. Hoe bereiden we ons daarom voor en hoe voorkomen we dat een op hol geslagen kunstmatige intelligentie de mens uitmoordt, zoals in de Terminator filmreeks? Michio Kaku gaat op deze vraag in en bedenkt een aantal min of meer plausibele methodes om machines uit te schakelen voordat de mensheid reddeloos verloren is…

Misschien is de beste oplossing wel: if you can’t beat them, join them. Machine zijn is zo slecht nog niet. Zo ben je onsterfelijk en is er geen gevaarlijke en pijnlijke operatie nodig als er een versleten onderdeel vervangen moet worden…