‘AGI nu in zicht’

Sabine Hossenfelder, voormalig theoretisch natuurkundig onderzoekster en nu een ster op YouTube, staat niet bekend om haar bewondering voor kunstmatige intelligentie en de technologische singulariteit. Toch hebben recente ontwikkelingen haar een reden gegeven om te geloven dat dat nu anders is.

In deze video gaat zij in op de argumenten waarom, en hoe het ontwikkelpad van de huidige large language models naar daadwerkelijke AGI volgens haar zal verlopen.

The Path to AGI is Coming Into View

Ze trekt de -m.i. terechte – conclusie dat de huidige large language models dat niet gaan doen. De reden is dat deze modellen weliswaar erg goed zijn in het voorspellen wat het volgende woord zal zijn, maar niet over inzicht in de menselijke zin beschikken. Inzicht vereist een vorm van denken in abstracte concepten, symbolisch redeneren. Dit is de manier waarop AlphaGo ‘denkt’ en het geheim, waarom dit systeem gehakt maakte van toenmalig wereldkampioen Go Lee Sedol.

Symbolisch redenatiemodel

Een probleem is alleen hoe verbale begrippen uit een large language model gekoppeld kunnen worden aan dit symbolische redenatiemodel. Dit kan in principe door middel van taal, een soort ‘woordenboek’ – ongeveer de manier waarop een mens die de letter π leest, dit koppelt aan de verhouding tussen omtrek en straal van een cirkel, of het gedrag van sinus en cosinus. Helaas mis je bij deze vertaling de verbale ‘verfijning’ die het concept uit de LLM met zich meedraagt. Zo is π een letter uit het Griekse alfabet en komt het dus ook volop voor in Griekse teksten en afkortingen. In ons brein zijn wij in staat deze betekenissen tegelijkertijd te handhaven, een hybride model is dat niet.

Hossenfelder denkt daarom dat er gespecialiseerde deelmodellen zullen komen. Het komt niet heel vaak voor dat een getalenteerde schilder ook een geweldige verkoper is, zie Vincent van Gogh, of een briljant wiskundige. Er zijn ook niet veel real-world taken waarbij deze capaciteiten worden gecombineerd.

Moeten we wel AGI willen?

Het is mijns inziens ook de vraag of we AGI, laat staan ASI, moeten willen. AGI en ASI zijn bewust, wat enorme ethische problemen met zich meebrengt. Wis je een AGI of een ASI, dan vermoord je een bewust wezen. Dat ethische probleem is er niet met een niet-bewuste AI.

Naast het ethische probleem is er de oncontroleerbaarheid. Een generieke AI die slimmer is dan een mens, zal deze mensen behandelen, zoals wij een hond of paard behandelen. Je hoeft niet bang te zijn dat een spelcomputer of rekenmachine de wereld gaat overnemen, hoewel ze veel sneller kunnen rekenen dan een mens. Dat, omdat hun ‘intelligentie’ zeer specifiek en beperkt is.

Om die redenen denk ik persoonlijk dat we AGI wereldwijd moeten verbieden, tot we in staat zijn hier op zowel een ethisch verantwoorde als veilige manier mee om te gaan. Niet dat hierop veel kans is. Zowel China als de VS gaan nu full throttle om AGI te verwezenlijken. De Chinese vloek, moge we in interessante tijden leven, is eens te meer van toepassing.

Geef een reactie