AGI

Hoe dicht zijn we bij AGI?

De ontwikkeling van artificial intelligence is de laatste jaren in een stroomversnelling gekomen. Wanneer bereiken we AGI, artificial general intelligence, het punt waarop de eerste computer op alle terreinen minstens zo slim is als een mens?

De AGI stand van zaken, nu

De komst van LLM’s (large language models zoals de GPT-familie van OpenAI) begin 2022, was een spectaculaire doorbraak. Voor het eerst konden computers teksten schrijven die in veel opzichten niet onderdeden voor die van mensen. Heel opmerkelijk, als je bedenkt hoe simpel het principe is waarop deze taalmodellen eigenlijk berusten. In feite zijn het niets anders dan frequentietabellen. Ze plakken het ene woord achter het andere, als dat woord het meest waarschijnlijk is. Zo is de kans dat het woord ijsgrot In de buurt van het woord pinguïn voorkomt, veel groter dan dat “ijsgrot” in de buurt van het woord kameel voorkomt. Dus zal de LLM kiezen voor “pinguïn”.

Aardig op weg naar AGI. Hier zie je zowel de sterke, als zwakke kanten van generatieve AI. De meeste schaduwen kloppen, behalve die van de pinguïn in het midden. o1 noemde dit, terecht, surrealistisch. Bron OpenAI o1 ism DallE-3

Dat de teksten die een LLM genereert toch nog behoorlijk complex zijn, komt omdat de LLM met veel langere woordenreeksen werkt. Deze frequentie tabellen zijn tot stand gekomen omdat deze modellen zijn getraind op wat in feite de complete menselijke kennis inhoudt. In feite heb je dus een dialoog met de complete verzameling van dit soort menselijke kennis, die door middel van brute computerkracht in frequentietabellen is omgezet. En dit blijkt allemaal griezelig effectief, als je bedenkt hoe simpel het principe is waarop het werkt.

Vissen boven een lavarivier. In dit soort mooie en ook surrealistische plaatjes zijn LLM’s meester.

Begrip en inzicht nog een zwak punt

Het zwakke punt van large language models is begrip en inzicht. Zo kan je een LLM nog niet een werkende machine laten ontwerpen. Menselijke taal is vaag en dubbelzinnig, waardoor LLM’s daarmee wegkomen. De natuur, die door wiskundige relaties, de natuurwetten, wordt geregeerd, is minder vergevingsgezind. Maar mogelijk zou dat wél kunnen, als je een LLM zou trainen op de G-code van duizenden machineontwerpen. Hier wreekt zich de beperking van de LLM-strategie. Die variëteit aan ontwerpen per technisch domein is er niet. Machines worden namelijk doorgaans in grote oplages gemaakt, waardoor er maar enkele ontwerpen zijn. Het is hiermee ook zeer lastig om deze modellen te trainen.

En zo is er meer. Pas met de (eind 2024) nieuwe modellen OpenAI o1 en Anthropic Claude 3, worden er echt vorderingen gemaakt wat betreft logisch redeneren. OpenAI is ondanks het open source en non profit begin, nu gekaapt door Sam Altman. Een consequentie hiervan is dat deze AI nu closed-source is. Welke methodes OpenAI gebruikt, weten we dus niet. Maar op de een of andere manier zal het systeem intern het equivalent van woordbegrippen in OpenAI linken aan een logisch model, zoals bijvoorbeeld het geheimzinnige ontologische Cyc van wijlen Douglas Lenat.

AGI, een kwestie van definitie

De meetlat van wat AI is en wat voor altijd buiten bereik van AI zal liggen, is sinds de dagen van de oercomputer ENIAC flink verschoven. Ooit werd schaken (1995), het oostaziatische bordspel go (2015), Jeopardy winnen (2011), vertalen (jaren 00), creativiteit (2020) en het automatisch besturen van voertuigen onmogelijk geacht voor AI. Kunstmatige intelligentie heeft deze voorspellingen stuk voor stuk letterlijk met de grond gelijk gemaakt. Zelfs de Turingtest moest er aan geloven, niet alleen is AI in staat een mens te faken, AI is zelfs overtuigender dan een echt mens.

Er zijn dus steeds minder vaardigheden waarop een mens een AI klopt. Er is geen goede reden waarom dit in de toekomst niet door zou zetten. immers, computers worden steeds sneller (de Wet van Moore), en AI-ontwikkelaars bedenken steeds weer nieuwe technieken om AI beter te maken.

AGI
AGI is, denken veel kenners, een kwestie van nog een handvol jaren. Bron: o1 ism Dall-E 3

Wat kan een mens nog, wat AI niet kan?

ChatGPT 4o heeft hierover het volgende te zeggen:

Ik denk dat ChatGPT hier aan de ene kant de menselijke unieke vaardigheden nogal overschat, belemmeringen, zoals in veel gevallen emoties, als unieke vaardigheden ziet en aan de andere kant echt technische tekortkomingen, zoals de problemen met technisch ontwerp, weglaat. Honden zijn niet voor niets zo populair als huisdier. We vinden ze vaak aardiger dan mensen. Dit hoor ik ook van veel mensen wat betreft large language models als 4o en o1. Juist omdat ze niet egocentrisch en zelfzuchtig zijn. Inderdaad kunnen mensen complexer en rijker geschakeerd denken, maar dit is niet altijd een voordeel, als het doel is om eerlijk en onpartijdig een ethisch oordeel te vellen.

Ook kunnen modellen als o1 behoorlijk creatief zijn als je ze echt whacky vragen stelt, zoals de levensvormen op een planeet die rond een neutronenster draait. Aan de andere kant gaan ze nog geregeld op hun bek bij voor mensen eenvoudige vraagstukken.

Met belichaamde ervaringen heeft o1 een punt, maar de eerste humanoïde robots gaan nu in Shenzhen al in massaproductie. Als je deze robots door een AI als OpenAI o1 laat besturen, of hier een micro-AI in laadt, kan een AI wel degelijk intra-body sensaties waarnemen, zij het natuurlijk niet de exacte zintuiglijke prikkels die een mens ondergaat.

Geef een reactie