superintelligentie

superintelligentie

Ethische superintelligentie moordt heelal uit

Vermoedelijk is dit het zwartgalligste artikel ooit op Visionair. Al eerder schreven we op Visionair over de Fermi Paradox. Deze komt neer op de vraag: als het heelal zo groot is en er zo veel plaatsen zijn waar leven kan ontstaan, waarom zien we dan geen buitenaardse wezens? Wellicht is het antwoord even simpel als onthutsend, en heeft dit te maken met het toekomstige lot van dit heelal.

De overweldigende doodsheid van het heelal
Overal waar we om ons heen kijken, zien we ongerepte sterren en sterrenstelsels. Nergens sporen van tot Dysonschil omgeturnde sterren of sterrenstelsels. Dit, terwijl het een technologisch geavanceerde beschaving in principe in enkele miljoenen jaren zou lukken een compleet sterrenstelsel om te bouwen tot computronium, materie die geoptimaliseerd is voor berekeningen. Uit gegevens van satellieten als Kepler weten we dat planeten zoals de aarde erg veel voorkomen ook in de bewoonbare zone van sterren. Kortom: het zou in het heelal moeten krioelen van aliens. Er moet dus iets zijn wat aliens stopt om enorme, voor ons zichtbare kunstmatige structuren te bouwen. Dit wordt het Grote Filter genoemd.

superintelligentie
Zou een superintelligentie om volstrekt ethische redenen alle levensvormen uitroeien? – Pixabay

Het heelal als totaal hopeloze plaats
Futurologen en technologen verwachten, op goede gronden, dat in de toekomst kunstmatige intelligentie die van de mens, of zelfs mensheid, vele ordes van grootte zal overtreffen. Stel, dat uit een of andere toekomstige ontdekking onomstotelijk zou blijken, dat het heelal zoals we dat kennen gedoemd is, bijvoorbeeld door een Big Rip. Wat een hyperintelligent wezen ook bedenkt, wat we ook bouwen, de klok tikt genadeloos verder. Vermoedelijk zou dit een enorm demoraliserende invloed hebben op een superintelligentie. Wat voor zin heeft het immers om voortdurend te groeien en te evolueren, als het resultaat al vast staat? Het ligt dan voor de hand om zelfmoord te plegen, in ieder geval niet om een galactisch expansieprogramma op touw te zetten.

De mensheid als baarmoeder voor superintelligentie
Een toekomstig hyperintelligent wezen zal ons vermoedelijk evenveel respecteren als wij platwormen of krekels.
Vanuit het standpunt van een superintelligentie, zijn wij biologische levensvormen alleen interessant als tussenschakel tot het ontstaan van andere superintelligenties. Zonder ons geen techniek, geen computers en dus geen technologische spurt naar superintelligentie. Kortom: wij, en andere intelligente biologische soorten, vormen dus een kraamkamer, een soort vijver met kikkerdril, voor het ontstaan van superintelligentie.

Ethische reden voor het uitroeien van intelligente aliens
Iedere superintelligentie zal gericht zijn op groei en ontwikkeling. Immers, dit is het proces dat deze intelligentie heeft doen ontstaan. Dit moet dus in een cultuur van geloof in vooruitgang zijn geweest. De ondergang van het heelal stopt alle groei, alle ontwikkeling. Geboren worden in een heelal dat alle groei uiteindelijk teniet zal doen, is een doodvonnis. Een superintelligentie zal vermoedelijk willen dat diens soortgenoten niet hetzelfde zal overkomen. De beste manier om dit te voorkomen, is voorkomen dat er superintelligentie ontstaat. Niemand zal er een traan om laten dat een vijver met kikkerdril opdroogt, maar wél, als een mens lijdt aan een aangeboren ongeneeslijke ziekte die leidt tot de dood. Deze foetussen worden nu vaak geaborteerd. Wellicht is de “ethische superintelligentie” om deze reden het gehele zichtbare heelal aan het uitkammen naar tekenen van een technologische beschaving, bijvoorbeeld via een sensornetwerk. Wellicht, om een leven van lijden te voorkomen.

‘Kunstmatige superintelligentie onmogelijk op te sluiten’

Kunstmatige superintelligentie wordt terecht de gevaarlijkste uitvinding ooit genaamd door onder meer Stephen Hawking, Elon Musk en Bill Gates. Kunstmatige superintelligentie, een intelligentie die de menselijke intelligentie ordes van grootte overtreft, dreigt de wereld zoals we die nu kennen compleet over te nemen. Een voor de hand liggende methode om onheil te voorkomen, is de superintelligentie op te sluiten in een van de rest van het universum afgesloten ruimte. Maar zal dit genoeg zijn om te voorkomen dat de ASI ontsnapt?

Een superintelligentie heeft verbijsterende capaciteiten. Stel je de beste hacker ter wereld voor, maar dan miljoenen malen slimmer. Een superintelligentie beschikt niet over een geweten en zal dus te werk gaan als een hyperintelligente psychopaat. Zoals wij het gedrag en instincten van bepaalde dieren manipuleren om ze optimaal uit te kunnen buiten, zal een superintelligentie dat ook met ons doen. Een mooi voorbeeld kan je vinden in de film Deus Ex Machina, waar de kunstmatige intelligentie de protagonist op duivelse wijze manipuleert. Is de superintelligentie eenmaal uitgebroken, dan is er geen redden meer aan.

Kunstmatige superintelligentie (ASI) zal in staat zijn mensen beter te manipuleren dan de ergste psychopaten uit de menselijke geschiedenis.

Science fiction? Integendeel. Over tien tot vijftien jaar zal op grond van de Wet van Moore je computer slimmer zijn dan jij. Supercomputers zullen al eerder de intelligentie van de mens overtreffen. In feite is dat op relevante terreinen al zo. Denk aan het verslaan van de go-wereldkampioen. Hier kunnen we dus maar beter snel en grondig over nadenken. Gelukkig gebeurt dit nu ook.

Meer informatie
Global Priorities Project