‘Wet van Moore is onzin’

Share Button

De Wet van Moore dicteerde met een ijzeren regelmaat hoeveel sneller computers elk jaar werden. Nu lijkt de wet te haperen, omdat de grenzen in zicht komen. maar is dat wel zo erg? Of zal het ons juist aanzetten om slimmere manieren te verzinnen om informatie te verwerken en te rekenen dan nu? Met als eindresultaat veel snellere computers dan we nu hebben?

Vroeger: Veel verschillende computers
Als we kijken naar computers halverwege de twintigste eeuw en nu, zien we dat de computerarchitectuur anno nu veel saaier is dan toen. Computers bestaan al heel lang. Het Antikythera mechanisme, een ingewikkelde tandwielconstructie van omstreeks een eeuw voor de geboorte van Jezus, gaf belangrijke data van astronomische gebeurtenissen en de voor de Grieken zeer belangrijke Spelen in de toekomst aan. De middeleeuwse Perzen en daarna de Europeanen namen het stokje over. Analoge computers beleefden omstreeks 1950 hun hoogtepunt. Een analoge computer bouwt als het ware een systeem na in een ander systeem, dat we makkelijker kunnen manipuleren. Zo werd een model van de economie omstreeks 1950 als hydraulisch systeem nagebouwd met behulp van een vernuftig systeem met waterbuizen, de MONIAC. Ingewikkelde berekeningen zoals differentiaalberekeningen werden met elektrische analoge computers uitgevoerd. Rekenmachines waren in die tijd onbetaalbaar voor de gewone man (of enkele vrouw). Men redde zich met behulp van rekenlinialen en boekjes met logaritmetafels, een soort papieren computers dus. Daarnaast waren er de opkomende Von Neumann-architectuur computers, ontwikkeld in de jaren veertig, die we allemaal kennen van onze pc’s, smartphones en microchips in ingewikkelder apparatuur zoals auto’s.

Hightech uit de jaren zestig: bouw je eigen analoge computer. Bron: hackaday.com

Hightech uit de jaren zestig: bouw je eigen analoge computer. Bron: hackaday.com

2015: alleen Von Neumann-computers
Anno 2015 zijn de analoge computers verdwenen. Von Neumann-architectuur computers zijn alomtegenwoordig. Dit komt door hun flexibiliteit – het is een stuk makkelijker om een nieuw bestandje met een economisch model op je laptop te kopiëren dan om een nieuwe schakeling te maken, laat staan om met waterbuizen een nieuwe economie te ontwerpen. Von Neumann-gebaseerde computers zijn ook zo snel en zo krachtig geworden, dat ze alle andere computers er uit hebben geconcurreerd. Dit komt door de Wet van Moore – de halvering in oppervlakte van transistoren en hiermee ruwweg verdubbeling van rekencapaciteit elk  jaar, nu vertraagd tot bijna twee jaar. Deze verdubbeling gebeurde niet vanzelf, er bestaat een zogeheten roadmap, waar alle ontwerpers van computerapparatuur rekening mee houden. Als bijvoorbeeld 10 nanometer transistoren gepland staan voor 2016, probeert elke chipsfabrikant, ontwikkelaar van chipsbakmachines en randapparatuur om een product gereed te hebben, dat aan kan sluiten op die 10 nm transistoren. Ook al betekent dat investeren in steeds duurdere apparatuur. Ze moeten wel, omdat ze anders de technologische race met concurrenten verliezen. Dit ijzeren ritme zorgde er voor dat digitale computers met de Von Neumann architectuur er alle andere computers uitliepen. Er is alleen  een vervelend probleem. Bestaande strategieën werken op deze kleine schaal steeds slechter. Al sinds 2008 werkt de nauwverbonden Dennard scaling, de daling van energieverbruik per transistor en de fabricagekosten per transistor naarmate ze kleiner worden, niet meer. ASML had de grootste moeite om de EUV technologie, die transistoren op nanometerschaal mogelijk moet maken, te laten werken: pas in 2015 is er succes. Er is ook een fundamentele limiet: atomen zijn iets kleiner dan 0,1 nanometer en een transistor kleiner dan dat vereist femtotechniek of verknoopt licht, technieken die we in de komende tien jaar niet voldoende beheersen. Kortom: we moeten kijken naar heel andere technieken, als we willen dan computers steeds sneller worden.

Het interieur van de eerste D-wave kwantumcomputer ooit. Is dit een echte kwantumcomputer? Bron: D-wave

Het interieur van de eerste D-wave kwantumcomputer ooit. Is dit een echte kwantumcomputer? Bron: D-wave

Opvolgers voor de Von Neumann architectuur 
Geen wonder dat bedrijven als IBM, HP en universiteiten werken aan alternatieven. Eén oplossing is bijvoorbeeld slimmer gebruik te maken van de ruimte dan we nu doen. In de Von Neumann architectuur worden alle berekeningen geconcentreerd in een of enkele processoren. Geheugen bevindt zich weer in een ander deel van de computer. Het gevolg: data moet voortdurend heen en weer worden verstuurd tussen de processor en het geheugen en er ontstaat ‘verkeersopstopping’ en een enorme warmteontwikkeling bij de processor. Kortom: het kan slimmer. Wel moeten we dan van voren af aan beginnen: niet-Von Neumann architecturen vereisen heel andere programmeermethoden en programmeertalen dan wat we nu gebruiken.

Memristor-gebaseerde computers
Memristoren werken slimmer. Een memristor is een weerstand (‘resistor’) die als het ware onthoudt (‘memorize’) dat er elektrische stroom doorheen heeft gevloeid. Daardoor is de weerstand lager. Bij een memristor-gebaseerde computer valt de processor samen met de informatieopslag. Wat dat betreft lijkt het dan op het menselijke brein. HP, dat op dit moment overleeft door het verkopen van peperdure printerinkt, heeft al zijn kaarten gezet op memristor-gebaseerde supercomputers, The Machine.

Menselijke brein-architectuur
Ook de IBM TrueNorth chipreeks verspreidt berekeningen over de gehele chip, waardoor de rekensnelheid zeker met factor 1000 stijgt. De chip bestaat uit eenheden van 256 ‘neuronen’ die onderling verbonden zijn met ‘synapsen’. In de huidige incarnatie simuleert de TrueNorth chip, die onder meer wordt gebruikt in SyNapse, 530 miljard neuronen. De chip verbruikt extreem weinig energie: 70 milliwatt. Ter vergelijking: dat is meer dan duizend keer zo weinig als een energievretende 80 watt processor in een moderne computer, die met een ventilator gekoeld moet worden om te voorkomen dat deze doorbrandt. Het menselijk brein, dat veel meer kan dan een moderne processor, gebruikt maar 20 watt. TrueNorth is door de fundamenteel andere architectuur vooral goed in patroonherkenning. Als TrueNorth chips worden gecombineerd met traditionele Von Neumann architectuur ontstaat een zeer krachtig systeem dat beter kan rekenen en patroon herkennen dan de mens en bijvoorbeeld goed in humanoïde robots kan worden ingezet. Geen wonder dat DARPA, het onderzoeksinstituut van het Amerikaanse leger, grote interesse heeft. Een leukere toepassing is in smartphones of automatische voertuigen.

Kwantumcomputers
Kwantumcomputers vormen vermoedelijk het meest bizarre typen computers dat we kennen. Qubits, de elementaire rekeneenheid van kwantumcomputers, kunnen waardes van 0,1 en alles daartussen tegelijkertijd aannemen, zoals kwantumdeeltjes in de wereld waarin we leven. Kwantumcomputers wekken veel interesse, omdat hun rekencapaciteit per extra qubit niet met 1, maar met factor 2 (capaciteit = 2n+1 − 2) toeneemt. Voor bepaalde rekenklussen (NP-complete vraagstukken) verslaan kwantumcomputers met voldoende qubits alle andere bekende typen computers. Op dit moment zijn er enkele werkende kwantumcomputers te koop, hoewel enkele informatiekundigen beweren dat het geen echte kwantumcomputers zijn: de D-wave One en D-wave Two van fabrikant D-wave. In Nederland werkt QUTech samen met het Deense Niels Bohr Instituut aan een kwantumcomputer.

Andere bizarre typen computers
In principe kan elk systeem dat informatie bevat en verwerkt worden gebruikt als computer. Fantasierijke onderzoekers hebben de meest knotsgekke systemen uitgetest, waarvan we al enkele op Visionair hebben beschreven. Zo is er de warmtecomputer, de heet-ijs computer, DNA-computer (in een reageerbuis), een theoretisch mogelijke bacteriecomputer, de slijmzwamcomputer en de chemische computer. Ons immuunsysteem is in feite ook een soort biologische computer, die voor een probleem, een agressieve bacterie of virus, een oplossing, een antilichaam, vormt.

Ontwikkeling van computers stopt niet bij Wet van Moore
Kortom: er zijn verschillende alternatieven in ontwikkeling om computers sneller te laten rekenen. Wel zal onze bestaande software er niet op kunnen draaien, tenzij deze in een erg hoog niveau programmeertaal is geschreven en er een compiler is ontwikkeld voor die programmeertaal.

Share Button

Germen

Hoofdredacteur en analist (Visionair.nl) Expertise: biologische productiesystemen (master), natuurkunde (gedeeltelijek bachelor), informatica

Dit vind je misschien ook interessant:

1 reactie

  1. hannes schreef:

    Ja de huidige von Neumann computers lopen idd op hun laatste benen. Maar in het artikel wordt al een hele rits potentieel snellere en flexibele opvolgers genoemd. Dus we kunnen nog wel eventjes vooruit lijkt me..

Geef een reactie

Het e-mailadres wordt niet gepubliceerd. Verplichte velden zijn gemarkeerd met *

Advertisment ad adsense adlogger