‘Kunstmatige superintelligentie onmogelijk op te sluiten’

Kunstmatige superintelligentie wordt terecht de gevaarlijkste uitvinding ooit genaamd door onder meer Stephen Hawking, Elon Musk en Bill Gates. Kunstmatige superintelligentie, een intelligentie die de menselijke intelligentie ordes van grootte overtreft, dreigt de wereld zoals we die nu kennen compleet over te nemen. Een voor de hand liggende methode om onheil te voorkomen, is de superintelligentie op te sluiten in een van de rest van het universum afgesloten ruimte. Maar zal dit genoeg zijn om te voorkomen dat de ASI ontsnapt?

Een superintelligentie heeft verbijsterende capaciteiten. Stel je de beste hacker ter wereld voor, maar dan miljoenen malen slimmer. Een superintelligentie beschikt niet over een geweten en zal dus te werk gaan als een hyperintelligente psychopaat. Zoals wij het gedrag en instincten van bepaalde dieren manipuleren om ze optimaal uit te kunnen buiten, zal een superintelligentie dat ook met ons doen. Een mooi voorbeeld kan je vinden in de film Deus Ex Machina, waar de kunstmatige intelligentie de protagonist op duivelse wijze manipuleert. Is de superintelligentie eenmaal uitgebroken, dan is er geen redden meer aan.

Kunstmatige superintelligentie (ASI) zal in staat zijn mensen beter te manipuleren dan de ergste psychopaten uit de menselijke geschiedenis.

Science fiction? Integendeel. Over tien tot vijftien jaar zal op grond van de Wet van Moore je computer slimmer zijn dan jij. Supercomputers zullen al eerder de intelligentie van de mens overtreffen. In feite is dat op relevante terreinen al zo. Denk aan het verslaan van de go-wereldkampioen. Hier kunnen we dus maar beter snel en grondig over nadenken. Gelukkig gebeurt dit nu ook.

Meer informatie
Global Priorities Project