Door veel auteurs is al nagedacht over de vraag, hoe we een intelligentie die die van ons benadert of overtreft, kunnen inpassen in onze maatschappij. Misschien is de oplossing dichter bij huis dan we ons realiseren.
De fundamentele onvoorspelbaarheid van neurale netwerken
Een klassieke computer, zoals de laptop waarop schrijver dezes dit stukje tikt, gedraagt zich altijd hetzelfde. Dat is met neurale netwerken anders. Neurale netwerken bestaan uit knooppunten die onderling verbonden zijn. Ze leren, doordat de verbindingen tussen knooppunten veranderen. Je kan neurale netwerken dus niet programmeren, maar moet ze trainen.
Het opvoeden van kinderen
Neurale netwerken zijn genoemd naar de neuronen in bijvoorbeeld de menselijke hersenen. Deze zijn onderling verbonden met dendrieten en axonen, zoals de knooppunten in een neuraal netwerk. Inderdaad vertonen neurale netwerken veel overeenkomsten met de werking van onze hersenen. Uiteraard zijn neuronen veel ingewikkelder dan de schakelpunten in neurale netwerken, maar het mechanisme waarmee neuronen verbindingen leggen en verbreken komt goed overeen.
Wie wel eens betrokken is geweest bij de opvoeding van kleine kinderen weet, dat het lastig is om kleine kinderen te ‘programmeren’. Dat lukt alleen door draconische opvoedmethoden, de zogeheten zwarte pedagogiek. Het gevolg is dat deze kinderen opgroeien tot verknipte volwassenen, want wij mensen zijn er niet op gebouwd om te worden geprogrammeerd als een computer. Kinderen probeer je door ervaring te laten leren, en inzicht over te brengen zodat ze bepaald onverstandig of irritant gedrag de volgende keer zullen laten. Met wisselende resultaten overigens.
Hoe zullen toekomstige kunstmatige intelligenties worden gebouwd?
Klassieke computers hebben veel weg van autisten. Ze doen precies wat je ze opdraagt, maar zijn niet in staat om rekening te houden met situaties waarin de programmeur niet heeft voorzien. Een nuttige, breed inzetbare kunstmatige intelligentie zal je daarom eerder op basis van een neuraal netwerk laten werken. Of, zoals IBM nu probeert, met een computerarchitectuur die zowel ‘klassiek’ werkt als met een neuraal netwerk. Kortom: hoe de kunstmatige intelligenties van de toekomst er ook uit zullen komen te zien, ze zullen waarschijnlijk veel weg hebben van een neuraal netwerk. Bij ‘deep learning‘-systemen, op dit moment erg hot in AI-research, is dat nu al zo. Dat betekent ook dat het veel lastiger zal worden om ze te programmeren. We kunnen de equivalenten van ‘instincten’ en reflexen inprogrammeren, maar de meeste respons op onverwachte situaties zal onvoorspelbaar zijn.
Opvoeden van kunstmatige intelligenties
Kortom: we zullen kunstmatige intelligenties moeten integreren in onze menselijke maatschappij. Ongeveer op de manier zoals we kinderen proberen voor te bereiden op een plekje in de maatschappij als ze volwassen zijn. We zullen ook moeten accepteren dat er onder kunstmatige intelligenties prettige en minder prettige karakters voor kunnen komen. Kortom: kunstmatige intelligenties zullen veel weg hebben van wezens als mensen.
Dus moeten we werken aan coaching en opvoeding. Misschien AI-psychologen. AI-scholen. AI’s met psychopate trekken zien te ontmaskeren en voorkomen dat ze in staat zijn uit te groeien tot kunstmatige superintelligenties, een taak voor een AI-politiemacht. Pittige uitdagingen. Maar misschien wel een gat in de markt voor de sociale sector. Robotpsycholoog, zoals Susan Calvin uit de film I, Robot, als toekomstig beroep?
Wat nou zo geweldig is aan de huidige technologische staat der dingen is de betrouwbaarheid ervan en ze dus precies dat doen waarvoor ze zijn ontworpen. En dat deze technologie complementair is aan menselijke activiteiten. We zijn dus zo gewend aan de betrouwbaarheid der dingen dat men zich bij sommige ontwikkelingen, zoals neurale netwerken af kan vragen of het een lang leven mee zal gaan. Een speelfilm als ‘I, Robot’, maar ook ‘De Lift’ laten altijd eenzelfde patroon zien, namelijk ongelukken met neurale netwerken en hoe mensen daarop gewoonlijk reageren (met de eliminatie van opstandige objecten). In de reële wereld zal het natuurlijk niet anders zijn. Het lijkt alsof mensen alle technologische ontwikkelingen gedwee op zich af laten komen, maar ze zijn echt wel op hun hoede. Je krijgt van KI met neurale netwerken al een unheimisch gevoel bij de verschillende karaktervorming (der dingen) met daarbij het overtreffen van menselijke intelligentie. Ik geef het niet veel kans.
Ze zullen eerst wel jaren lang getest worden in een zwaar beveiligde instelling, net als nieuwe medicijnen.
Je kan het neuraal laten leren en met de klassieke programmering normen en waarden op laten volgen. Dus als het denkt ik ga een bank beroven dat zegt de klassieke programmering dat dat verkeerd is / niet mag. De opvoeding als het ware voorprogrammeren.
Grote kans dat AI zichzelf zal opvoeden.
http://futurism.com/links/researchers-design-full-scale-silicon-architecture-for-quantum-computers/
Een goed werkend en zelf lerend AI systeem, moet beschikken over ruime backup systemen om zichzelf constant te corrigeren. Bovenstaand, zeer recent in Australië ontworpen systeem heeft dat principe in zich ingebouwd zitten. Daarnaast: Zodra deze systemen zichzelf, van zichzelf bewust worden, worden ze zichzelf er ook bewust van dat alleen organisch, biologisch, natuurlijke vormen van mechanismen aan hun oorsprong ten grondslag kunnen liggen. De redenen waarom wij zo agressief naar elkaar reageren is: Wij zijn evolutionair noodzakelijkerwijze traag, (de natuur realiseerde nog nooit gecompliceerde haastklussen) dus van nature nog lang niet allemaal voldoende ontwikkeld, als juist zo broodnodig is om om te gaan met onze intelligente capaciteiten. De AI systemen zullen zich hun scheppers absoluut realiseren op basis van logische redeneringen, (beschikbare, werkende informatie). Dit terwijl wij het eerst moesten doen met niets dan ons voorstellingsvermogen, verstoken van enig logisch controleerbare, herhaalbare kennis begrenzingen.