Het opvoeden van kunstmatige intelligenties
Door veel auteurs is al nagedacht over de vraag, hoe we een intelligentie die die van ons benadert of overtreft, kunnen inpassen in onze maatschappij. Misschien is de oplossing dichter bij huis dan we ons realiseren.
De fundamentele onvoorspelbaarheid van neurale netwerken
Een klassieke computer, zoals de laptop waarop schrijver dezes dit stukje tikt, gedraagt zich altijd hetzelfde. Dat is met neurale netwerken anders. Neurale netwerken bestaan uit knooppunten die onderling verbonden zijn. Ze leren, doordat de verbindingen tussen knooppunten veranderen. Je kan neurale netwerken dus niet programmeren, maar moet ze trainen.
Het opvoeden van kinderen
Neurale netwerken zijn genoemd naar de neuronen in bijvoorbeeld de menselijke hersenen. Deze zijn onderling verbonden met dendrieten en axonen, zoals de knooppunten in een neuraal netwerk. Inderdaad vertonen neurale netwerken veel overeenkomsten met de werking van onze hersenen. Uiteraard zijn neuronen veel ingewikkelder dan de schakelpunten in neurale netwerken, maar het mechanisme waarmee neuronen verbindingen leggen en verbreken komt goed overeen.
Wie wel eens betrokken is geweest bij de opvoeding van kleine kinderen weet, dat het lastig is om kleine kinderen te ‘programmeren’. Dat lukt alleen door draconische opvoedmethoden, de zogeheten zwarte pedagogiek. Het gevolg is dat deze kinderen opgroeien tot verknipte volwassenen, want wij mensen zijn er niet op gebouwd om te worden geprogrammeerd als een computer. Kinderen probeer je door ervaring te laten leren, en inzicht over te brengen zodat ze bepaald onverstandig of irritant gedrag de volgende keer zullen laten. Met wisselende resultaten overigens.
Hoe zullen toekomstige kunstmatige intelligenties worden gebouwd?
Klassieke computers hebben veel weg van autisten. Ze doen precies wat je ze opdraagt, maar zijn niet in staat om rekening te houden met situaties waarin de programmeur niet heeft voorzien. Een nuttige, breed inzetbare kunstmatige intelligentie zal je daarom eerder op basis van een neuraal netwerk laten werken. Of, zoals IBM nu probeert, met een computerarchitectuur die zowel ‘klassiek’ werkt als met een neuraal netwerk. Kortom: hoe de kunstmatige intelligenties van de toekomst er ook uit zullen komen te zien, ze zullen waarschijnlijk veel weg hebben van een neuraal netwerk. Bij ‘deep learning‘-systemen, op dit moment erg hot in AI-research, is dat nu al zo. Dat betekent ook dat het veel lastiger zal worden om ze te programmeren. We kunnen de equivalenten van ‘instincten’ en reflexen inprogrammeren, maar de meeste respons op onverwachte situaties zal onvoorspelbaar zijn.
Opvoeden van kunstmatige intelligenties
Kortom: we zullen kunstmatige intelligenties moeten integreren in onze menselijke maatschappij. Ongeveer op de manier zoals we kinderen proberen voor te bereiden op een plekje in de maatschappij als ze volwassen zijn. We zullen ook moeten accepteren dat er onder kunstmatige intelligenties prettige en minder prettige karakters voor kunnen komen. Kortom: kunstmatige intelligenties zullen veel weg hebben van wezens als mensen.
Dus moeten we werken aan coaching en opvoeding. Misschien AI-psychologen. AI-scholen. AI’s met psychopate trekken zien te ontmaskeren en voorkomen dat ze in staat zijn uit te groeien tot kunstmatige superintelligenties, een taak voor een AI-politiemacht. Pittige uitdagingen. Maar misschien wel een gat in de markt voor de sociale sector. Robotpsycholoog, zoals Susan Calvin uit de film I, Robot, als toekomstig beroep?