computers

In dit statief wordt een goede digitale camera met telelens geplaatst. Uit meer dan tienduizend foto's wordt zo een enorme Gigapan samengesteld.

Gigapan: Long view

Een momentopname met meer dan menselijke scherpte vastleggen voor het nageslacht? Nu kan het. Onze verre nazaten kunnen nu zien hoe een regenwoud of een moderne stad er anno 2010 uitzag.

Voorbij de menselijke zintuigen
Ons menselijk gezichtsvermogen is beperkt. Op ons netvlies beschikken we ongeveer over zeven miljoen kegeltjes (die kleur kunnen waarnemen) en honderd miljoen staafjes (voor zwart-wit zicht) [1]. In 2011 scoren de allerbeste digitale camera’s, bijvoorbeeld de Hasselblad H4D-40, rond de veertig miljoen pixels, alle uiteraard kleur. Het record staat in 2011 op 120 megapixels[2], scherper dus dan het menselijk oog. Maar wat krijg je als je een foto maakt van de totale omgeving met honderd miljard pixels, dus rond de  duizend maal zo veel?

In dit statief wordt een goede digitale camera met telelens geplaatst. Uit meer dan tienduizend foto's wordt zo een enorme Gigapan samengesteld.
In dit statief wordt een goede digitale camera met telelens geplaatst. Uit meer dan tienduizend foto’s wordt zo een enorme Gigapan samengesteld.

Gigapan
Het antwoord: Gigapan. Gigapan is een combinatie van een digitale camera met een mechanisch besturingsssysteem en software. Gigapan beweegt de digitale camera heen en weer en maakt zo een groot aantal foto’s. Die worden vervolgens aan elkaar gelast tot één panoramisch beeld, dan driehonderdzestig graden bestrijkt. In totaal is dit honderd miljard pixels, duizend keer zo scherp als het menselijk oog. Zo slaagt Gigapan er in om een volledig moment in de tijd, op een bepaalde plaats, vast te leggen. Honderd miljard pixels is erg veel. Op een complete harde schijf passen er zonder compressie maar enkele van dit soort foto’s, om over beeldbewerking maar te zwijgen. Om die reden hebben de initiatiefnemers van Gigapan.

Moment, bevroren in de tijd
Het maken van een Gigapan betekent dat je het uitzicht op een bepaalde plaats met een bovenmenselijke precisie vastlegt. Het voordeel is dat je niet van tevoren hoeft na te denken wat interessant kan zijn. Met Gigapan wordt alles met een enorme resolutie vastgelegd. Onderzoekers kunnen op die manier de foto nauwkeurig onder de loep nemen en zo achteraf dingen ontdekken die nadere bestudering waard zijn. Dit is een enorm voordeel op bijvoorbeeld Mars – signalen doen er al gauw een kwartier of langer over om heen en weer naar de aarde te reizen. Dit is overigens ook de reden dat NASA betrokken is geweest bij de ontwikkeling van Gigapan (in samenwerking met Carnegie Mellon Universiteit).

Gigapan als flash back
Door de zeer grote resolutie kan iemand uit de toekomst de realiteit anno nu ondergaan alsof hij er zelf staat[3]. Beter zelfs, want je blik is duizend keer zo scherp. Dingen die een menselijke waarnemer anno nu ontgaan omdat ze zo vanzelfsprekend zijn of omdat ze niet opvallen, een bepaald insekt of het serienummer van een apparaatje, kunnen door een historicus uit de toekomst worden geduid. Misschien levert dit essentiële historische data op, denk aan de betekenis die een Griekse potscherf in Mexico zou hebben.

Een tijdcapsule dus. En met de snel toenemende rekensnelheid van computers en grootte van harde schijven, over tien jaar een standaardaccessoire voor digitale camera’s? Wie weet…

Voor wie op Mars wil ronddwalen, is er alvast deze Gigapan. Ook een bezoekje aan Beiroet is een stuk veiliger achter de pc. Behoefte aan een eigen Gigapan? Het model op het plaatje is voor onder de achthonderd euro te bestellen.

Actueel
Anno 2021 is honderd miljard pixels niet zoveel meer. De beste smartphones halen nu standaard 100 miljoen pixels, dat is tien maal meer dan tien jaar geleden. Bigpixel, een Chinees bedrijf, maakt nu standaard 240 miljard pixel opnames, hier van de Tibetaanse hoofdstad Lhasa. Het Gigapan initiatief is nog steeds springlevend. Zie bron.

Bronnen
1. Retina – Wikipedia (EN)
2. Canon develops world’s first 120 megapixel APS-H CMOS sensor, DPreview.com
3. Panoramic Possibilities, LongNow Foundation
4.  Gigapan
5.  Opname van Lhasa, Tibet. Bron: Bigpixel.cn

Raspberry Pi Zero vergeleken met de bulkier voorganger en een kiwi.

Raspberry Pi Zero, computer van vijf euro ontwikkeld

De Raspberry Pi Zero is een verkleinde versie van de bekende Raspberry en ongeveer zo groot als een USB-stick. Toch gaat het hier om een volwaardige computer, die in principe op een monitor en toetsenbord kan worden aangesloten.

Raspberry Pi Zero vergeleken met de bulkier voorganger en een kiwi.
Raspberry Pi Zero vergeleken met de bulkier voorganger en een kiwi.

De Raspberry Foundation, oorspronkelijk opgericht om ook de armsten te laten profiteren van computers, ontwikkelde de baanbrekende Raspberry Pi. Een computertje dat je in je zak mee kan nemen en in een willekeurige niet al te oude monitor of televisie kan prikken. De Pi bleek een doorslaand succes, vooral onder hobbyisten die met dit kleine brein de spectaculairste creaties op touw konden zetten. Geheim achter de Pi en zijn neefjes is de ARM processor, die ook in smartphones wordt toegepast en door een gereduceerde instructieset veel sneller en energiezuiniger kan werken dan een vergelijkbare standaard processor.

De Raspberry Pi Zero is voorzien van micro-USB poorten en micro-HDMI poorten en verloor weinig gebruikte poorten, waardoor het computertje enorm verkleind kon worden, zie afbeelding. Wat elektrotechneuten erg zal aanspreken zijn de veertig connectors waaraan bijvoorbeeld sensoren en motortjes gesoldeerd kunnen worden. De processor is 40% krachtiger. Vooral spectaculair is uiteraard de enorme prijsdaling, waardoor plannen om zelf robotjes en slimme apparatuur te bouwen voor een habbekrats binnen bereik komen.

Helaas is het computertje bij het schrijven van dit artikel (november 2015) uitverkocht, maar het kan nog voor hogere bedragen bij wederverkopers besteld worden. Ook zal de productie nu vermoedelijk snel opgekrikt worden. Wie niet kan wachten: ook is het gebundeld bij het nieuwste nummer van The Magpi, het magazine van de Raspberry Foundation.

Bronnen
Raspberry Foundation

Big Data wordt steeds waardevoller, zeker door deze nieuwe ontdekking waarmee een computerprogramma menselijke datadeskundigen klopt.

Data Science Machine verslaat met algoritmes menselijke intuïtie

Al weer een typisch menselijk domein lijkt nu gesneuveld. Na rekenkracht, gezichtsherkenning en het spelen van schaak is nu de menselijke intuïtie overtroffen door de Data Science Machine.

Algoritme presteert beter dan meeste menselijke dataspecialisten
Big data analyse bestaat uit het zoeken van verborgen liggende patronen die een bepaald soort voorspellende kracht hebben. De mens is nog nodig met het herkennen van bruikbare patronen binnen de data. In een database met bijvoorbeeld de begin-  en einddata van verschillende uitverkoopperiodes en wekelijkse winsten, bestaat de cruciale informatie mogelijk niet uit de datums zelf, maar uit de periode tussen de actieweken en de gemiddelde winst over deze perioden.

Onderzoekers van de Amerikaanse technische universiteit MIT in Boston, Massachusetts, proberen het menselijke element uit big data analyse te halen. Dit met een nieuw systeem dat niet alleen zoekt naar patronen, maar ook kijkt naar wat de meest veelbelovende parameters zijn. Om hun systeem te testen, lieten ze hun “Data Science Machine” meedoen met  drie wedstrijden tegen menselijke teams. In deze wedstrijden moet het systeem voorspellende patronen herkennen in onbekende datasets.  Van de 906 teams die meededen aan de drie competities, presteerde de “Data Science Machine” beter dan 615.

Big Data wordt steeds waardevoller, zeker door deze nieuwe ontdekking waarmee een computerprogramma menselijke datadeskundigen klopt.
Big Data wordt steeds waardevoller, zeker door deze nieuwe ontdekking waarmee een computerprogramma menselijke datadeskundigen klopt. Bron: mit.edu

In de competities scoorde de Data Science Machine respectievelijk 94 procent, 96 procent en 87 procent van de score van de winnende inzendingen. Waar de winnende teams maanden deden over het bedenken en verfijnen van hun algoritmes, deed de Data Science Machine er tussen twee en twaalf uur over per inzending.

De bedenkers van de Data Science Machine, Max Kanter en Kalyan Veeramachaneni, zien hun systeem als complementair aan de menselijke intelligentie. Volgens hem kan door de Data Science Machine veel meer deep data worden geanalyseerd dan nu door de schaarse deep data specialisten.

Hoe werkte het systeem?
In big data analyse zoals die nu plaatsvindt, is de eerste stap, het ontdekken van variabelen die voorspellende waarde hebben. Dit vereist het bedenken van heel mogelijkheden, met andere woorden de nodige creativiteit en inzicht. De auteurs gaven het voorbeeld van het voorspellen van de drop-out hoeveelheid van studenten. Belangrijke variabelen hierbij bleken vooral de mate waarin studenten de e-learning website bezochten, vergeleken met klasgenoten, en hoe lang voor de deadline de student begint met het werken aan de opdracht. Deze informatie was niet direct uit de brondata (van het e-learningplatform van MIT, MITx) af te leiden, maar indirect wel te berekenen.

Het systeem berekent dingen als gemiddelden en dergelijke uit de database. Dit moet wel een relationele database zijn, voor de IT’ers onder u: een database die op is gebouwd uit tabellen. Dit is overigens met de meeste databases het geval. Het systeem gebruikt de koppelingen tussen tabellen als middel om verbanden te vinden. Ook berekent het systeem zaken als gemiddelden, minima, maxima en dergelijke. Dan bestudeert het systeem hoe deze variabelen met elkaar samenhangen.

Ook zoekt het systeem categorische data, denk aan dag van de week of merknamen.

De volgende stap is deze variabelen uitproberen op voorbeelddata en ze fine-tunen, bijvoorbeeld door iets aan de vergelijkingen waarmee ze worden gecombineerd te veranderen, om zo de voorspellende kracht te verbeteren.

De gevolgen
Big data zal door deze ontdekking nog veel waardevoller worden dan nu. Over het algemeen is dat goed nieuws, want daardoor zullen producten en overheidsdiensten beter en goedkoper worden. Aan de andere kant vergroot dat de voorsprong die bezitters van big data, doorgaans overheden en grote bedrijven nu al hebben op de rest van de mensheid.  Het is daarom denk ik belangrijker dan ooit, om big data-bronnen publiek te maken en te houden en open-source big data analysetools te ontwikkelen.

Meer informatie
Data Science Machine crunches numbers faster and more effectively than most humans, MIT CSAIL News, 2015
Deep Feature Synthesis: Towards Automating Data Science Endeavors, 2015. 

Infographic: smartwatch nu even krachtig als supercomputer uit jaren tachtig

In de jaren tachtig vervulde hij menigeen met ontzag: de Cray-2 supercomputer van een slordige miljoen, die door weersvoorspellers werd gebruikt. Anno 2015 moet deze computer het afleggen tegen een nederige smartphone van een B-merk, die je bij de drogist koopt. De reden: computers zijn  in dertig jaar een duizelingwekkende biljoen (dat is een 1 met 12 nullen) maal krachtiger geworden. In deze infographics, afkomstig van de website Expert Exchange, wat duizelingwekkende weetjes.

Ten eerste de exponentieel toenemende opslagcapaciteit van elektronische geheugens, zoals harddisks. Wat kerndata: de informatieinhoud van ons DNA is ongeveer 3 miljard baseparen. Omdat er per basepaar 4 mogelijkheden zijn (AT, TA, GC en CG), staat dit gelijk aan 12 gigabit (1,5 GB). Op een in 2015 al wat verouderde USB-stick van 16 GB zou dus zelfs zonder compressie het DNA van 10-11 mensen kunnen worden opgeslagen.

trillion-fold-increase-computing-perf-1

 

Volgens schattingen van neurowetenschappers bevatten onze hersenen van 10 terabyte tot rond 2,5 petabyte  aan informatie. Om uw, of mijn, geest op te slaan zijn er dus één, tot 250 ultramoderne harde schijven van tien terabyte nodig. Gezien deze explosieve toename aan opslagcapaciteit zou u dus een backup van uw hersens kunnen maken binnen tien jaar. Gesteld uiteraard, dat er een effectieve manier uitgevonden zou worden om een  geest uit te lezen uit de wirwar van neuronen in de menselijke hersenpan.

Waarbij we op het tweede, ook zeer interessante onderwerp komen. Aan een statische kopie heb je niet veel, je moet er ook wat mee kunnen. Hoeveel computercapaciteit is er nodig om de menselijke geest realtime na te bootsen? Allereerst een overzicht van de exponentiële toename van rekencapaciteit in de periode 1965-2015. Ook hier is de infographic afkomstig van ExpertsExchange.

trillion-fold-increase-computing-perf-2

De hier genoemde Chinese Tianhe-2 supercomputer is begin 2015 de snelste en krachtigste computer op aarde. Volgens experts is er een 100.000 maal snellere computer dan dit nodig om de menselijke geest na te bootsen, als er geen slimme sluiproute wordt gevonden. Die sluiproute kan bijvoorbeeld een neuraal netwerk zijn, zoals de SyNAPSE chip waaraan IBM nu werkt.

Lees meer
Experts Exchange

 

 

De Commodore 64 startte op in ongeveer een seconde. Bron: Wikimedia Commons.

Waarom computers vroeger beter waren dan nu

In de jaren tachtig kon je een computer opstarten en was deze direct klaar voor gebruik. Dat is nu wel anders, waar bijvoorbeeld de irritantere versies van Windows  er enkele minuten over doen om op te starten.  En zo waren er meer voordelen. Ontdek het hier.

Wellicht kunnen computerontwerpers van nu wat irritante features er af slopen en computers weer prettig en lekker snel maken.
Of is dit de prijs die we betalen voor de steeds toenemende complexiteit?

De Commodore 64 startte op in ongeveer een seconde. Bron: Wikimedia Commons.
De Commodore 64 startte op in ongeveer een seconde. Bron: Wikimedia Commons.
De Michigan Micro Mote, vergeleken met een Amerikaanse cent. Bron: Michigan State University

Wat is de kleinste computer ooit?

De kleinste computer is veel interessanter dan supercomputers, al komt deze minder in het nieuws. Hoe groot is de kleinste computer ooit geconstrueerd? Antwoord: kleiner dan je wellicht denkt. En dit is nog maar het begin…

Kleinste computer, kleiner dan een rijstkorrel

De Michigan Micro Mote, de kleinste computer ooit. Bron: Michigan State University
De Michigan Micro Mote, de kleinste computer ooit. Bron: Michigan State University

Aan de Amerikaanse staatsuniversiteit van Michigan, werken enkele hoogleraren en tientallen doctoraalstudenten aan de kleinste computer ooit, de M3, voluit Michigan Micro Mote.

Dit computertje heeft, inclusief accu, een doorsnede van kleiner dan twee millimeter en het hart, de Phoenix processor, gebruikt 500 picowatt, ongeveer evenveel vermogen als vijfhonderd menselijke lichaamscellen. Daardoor kan het op een miniatuur-zonnepaneeltje van minder dan een vierkante millimeter werken en zelfs in schemerig licht volkomen zelfstandig functioneren. Het computertje is zo klein, dat het als pakketje op de rug van een vlieg kan worden geplakt.

De kleinste computer ooit is voorzien van sensoren, die beweging, temperatuur en druk kunnen waarnemen. Het kan zelfs van een kleine camera worden voorzien. Het apparaatje wordt geprogrammeerd met lichtsignalen. Vervolgens kan er een radioverbinding worden gelegd. De antennes hebben een bereik van ongeveer twintig meter.

Hoe snel rekent de Phoenix processor?
Nerd alert. Met een kloksnelheid van rond de 0,1 megahertz, of 100.000 berekeningsrondes per seconde (ter vergelijking: moderne chips scoren rond de 1-2 GHz, dat is tienduizend maal sneller) is dit microcomputertje zelfs langzamer dan een antieke Commodore-64, de oudere lezers wellicht nog bekend als eerste homecomputer. Een programma van 2000 instructies, leest de sensoren uit en verstuurt de data per radio. Deze instructies zijn elk tien bits lang, dat is de informatieinhoud van een getal als 1023 (in binaire code: 1 111 111 111). De drie geheugenblokken, één met het ‘woordenboek’, één met het programma en één met de gemeten data, zijn zeer klein, resp.  64×10-bit IROM, een 64×10-bit IMEM en een 52×40-bit DMEM. De totale informatieinhoud van deze computer is hiermee kleiner dan die van deze paragraaf in dit stukje. Minder geschikt dus om, zeg, de nieuwste incarnatie van bijvoorbeeld World of Warcraft op te spelen, maar ideaal voor verzamelen en doorsturen van sensordata.

Wat kan je er mee?
Dit computertje is erg nuttig, omdat hiermee microsensoren aangestuurd kunnen worden en ook zeer kleine ruimtes bereikt kunnen worden. Er is heel veel belangstelling uit de medische wereld, uit de olie-industrie en ook van biologen. Verwerken in een pil, in de bloedbaan brengen of door kleine spleten in rots sturen is in principe geen probleem met deze kleine computer.

En nog veel kleiner
In principe zou het nog veel kleiner kunnen, al zou dit een ongunstige trade-off betekenen voor enkele eigenschappen. De elementen in de Phoenix processor zijn nog relatief grof: elk rond de 180 nanometer, waardoor het computertje nog rond de 1.000.000 nanometer in diameter is. Ter vergelijking: moderne computers werken met elementen die 10x kleiner in diameter zijn dan dit: 18 nanometer. Menselijke cellen zijn rond de 50.000 nanometer in doorsnede. Kan het computertje met nog factor 100 verkleind worden, wat in principe kan met de chiptechniek begin jaren 2020, dan zou zelfs binnen een menselijke cel gemeten kunnen worden. Wel moet er dan een alternatieve energiebron gevonden worden, bijvoorbeeld door suiker te verbranden in een mitochondrion.

Het interieur van de eerste D-wave kwantumcomputer ooit. Is dit een echte kwantumcomputer? Bron: D-wave

‘Wet van Moore is onzin’

De Wet van Moore dicteerde met een ijzeren regelmaat hoeveel sneller computers elk jaar werden. Nu lijkt de wet te haperen, omdat de grenzen in zicht komen. maar is dat wel zo erg? Of zal het ons juist aanzetten om slimmere manieren te verzinnen om informatie te verwerken en te rekenen dan nu? Met als eindresultaat veel snellere computers dan we nu hebben?

Vroeger: Veel verschillende computers
Als we kijken naar computers halverwege de twintigste eeuw en nu, zien we dat de computerarchitectuur anno nu veel saaier is dan toen. Computers bestaan al heel lang. Het Antikythera mechanisme, een ingewikkelde tandwielconstructie van omstreeks een eeuw voor de geboorte van Jezus, gaf belangrijke data van astronomische gebeurtenissen en de voor de Grieken zeer belangrijke Spelen in de toekomst aan. De middeleeuwse Perzen en daarna de Europeanen namen het stokje over. Analoge computers beleefden omstreeks 1950 hun hoogtepunt. Een analoge computer bouwt als het ware een systeem na in een ander systeem, dat we makkelijker kunnen manipuleren. Zo werd een model van de economie omstreeks 1950 als hydraulisch systeem nagebouwd met behulp van een vernuftig systeem met waterbuizen, de MONIAC. Ingewikkelde berekeningen zoals differentiaalberekeningen werden met elektrische analoge computers uitgevoerd. Rekenmachines waren in die tijd onbetaalbaar voor de gewone man (of enkele vrouw). Men redde zich met behulp van rekenlinialen en boekjes met logaritmetafels, een soort papieren computers dus. Daarnaast waren er de opkomende Von Neumann-architectuur computers, ontwikkeld in de jaren veertig, die we allemaal kennen van onze pc’s, smartphones en microchips in ingewikkelder apparatuur zoals auto’s.

Hightech uit de jaren zestig: bouw je eigen analoge computer. Bron: hackaday.com
Hightech uit de jaren zestig: bouw je eigen analoge computer. Bron: hackaday.com

2015: alleen Von Neumann-computers
Anno 2015 zijn de analoge computers verdwenen. Von Neumann-architectuur computers zijn alomtegenwoordig. Dit komt door hun flexibiliteit – het is een stuk makkelijker om een nieuw bestandje met een economisch model op je laptop te kopiëren dan om een nieuwe schakeling te maken, laat staan om met waterbuizen een nieuwe economie te ontwerpen. Von Neumann-gebaseerde computers zijn ook zo snel en zo krachtig geworden, dat ze alle andere computers er uit hebben geconcurreerd. Dit komt door de Wet van Moore – de halvering in oppervlakte van transistoren en hiermee ruwweg verdubbeling van rekencapaciteit elk  jaar, nu vertraagd tot bijna twee jaar. Deze verdubbeling gebeurde niet vanzelf, er bestaat een zogeheten roadmap, waar alle ontwerpers van computerapparatuur rekening mee houden. Als bijvoorbeeld 10 nanometer transistoren gepland staan voor 2016, probeert elke chipsfabrikant, ontwikkelaar van chipsbakmachines en randapparatuur om een product gereed te hebben, dat aan kan sluiten op die 10 nm transistoren. Ook al betekent dat investeren in steeds duurdere apparatuur. Ze moeten wel, omdat ze anders de technologische race met concurrenten verliezen. Dit ijzeren ritme zorgde er voor dat digitale computers met de Von Neumann architectuur er alle andere computers uitliepen. Er is alleen  een vervelend probleem. Bestaande strategieën werken op deze kleine schaal steeds slechter. Al sinds 2008 werkt de nauwverbonden Dennard scaling, de daling van energieverbruik per transistor en de fabricagekosten per transistor naarmate ze kleiner worden, niet meer. ASML had de grootste moeite om de EUV technologie, die transistoren op nanometerschaal mogelijk moet maken, te laten werken: pas in 2015 is er succes. Er is ook een fundamentele limiet: atomen zijn iets kleiner dan 0,1 nanometer en een transistor kleiner dan dat vereist femtotechniek of verknoopt licht, technieken die we in de komende tien jaar niet voldoende beheersen. Kortom: we moeten kijken naar heel andere technieken, als we willen dan computers steeds sneller worden.

Het interieur van de eerste D-wave kwantumcomputer ooit. Is dit een echte kwantumcomputer? Bron: D-wave
Het interieur van de eerste D-wave kwantumcomputer ooit. Is dit een echte kwantumcomputer? Bron: D-wave

Opvolgers voor de Von Neumann architectuur 
Geen wonder dat bedrijven als IBM, HP en universiteiten werken aan alternatieven. Eén oplossing is bijvoorbeeld slimmer gebruik te maken van de ruimte dan we nu doen. In de Von Neumann architectuur worden alle berekeningen geconcentreerd in een of enkele processoren. Geheugen bevindt zich weer in een ander deel van de computer. Het gevolg: data moet voortdurend heen en weer worden verstuurd tussen de processor en het geheugen en er ontstaat ‘verkeersopstopping’ en een enorme warmteontwikkeling bij de processor. Kortom: het kan slimmer. Wel moeten we dan van voren af aan beginnen: niet-Von Neumann architecturen vereisen heel andere programmeermethoden en programmeertalen dan wat we nu gebruiken.

Memristor-gebaseerde computers
Memristoren werken slimmer. Een memristor is een weerstand (‘resistor’) die als het ware onthoudt (‘memorize’) dat er elektrische stroom doorheen heeft gevloeid. Daardoor is de weerstand lager. Bij een memristor-gebaseerde computer valt de processor samen met de informatieopslag. Wat dat betreft lijkt het dan op het menselijke brein. HP, dat op dit moment overleeft door het verkopen van peperdure printerinkt, heeft al zijn kaarten gezet op memristor-gebaseerde supercomputers, The Machine.

Menselijke brein-architectuur
Ook de IBM TrueNorth chipreeks verspreidt berekeningen over de gehele chip, waardoor de rekensnelheid zeker met factor 1000 stijgt. De chip bestaat uit eenheden van 256 ‘neuronen’ die onderling verbonden zijn met ‘synapsen’. In de huidige incarnatie simuleert de TrueNorth chip, die onder meer wordt gebruikt in SyNapse, 530 miljard neuronen. De chip verbruikt extreem weinig energie: 70 milliwatt. Ter vergelijking: dat is meer dan duizend keer zo weinig als een energievretende 80 watt processor in een moderne computer, die met een ventilator gekoeld moet worden om te voorkomen dat deze doorbrandt. Het menselijk brein, dat veel meer kan dan een moderne processor, gebruikt maar 20 watt. TrueNorth is door de fundamenteel andere architectuur vooral goed in patroonherkenning. Als TrueNorth chips worden gecombineerd met traditionele Von Neumann architectuur ontstaat een zeer krachtig systeem dat beter kan rekenen en patroon herkennen dan de mens en bijvoorbeeld goed in humanoïde robots kan worden ingezet. Geen wonder dat DARPA, het onderzoeksinstituut van het Amerikaanse leger, grote interesse heeft. Een leukere toepassing is in smartphones of automatische voertuigen.

Kwantumcomputers
Kwantumcomputers vormen vermoedelijk het meest bizarre typen computers dat we kennen. Qubits, de elementaire rekeneenheid van kwantumcomputers, kunnen waardes van 0,1 en alles daartussen tegelijkertijd aannemen, zoals kwantumdeeltjes in de wereld waarin we leven. Kwantumcomputers wekken veel interesse, omdat hun rekencapaciteit per extra qubit niet met 1, maar met factor 2 (capaciteit = 2n+1 − 2) toeneemt. Voor bepaalde rekenklussen (NP-complete vraagstukken) verslaan kwantumcomputers met voldoende qubits alle andere bekende typen computers. Op dit moment zijn er enkele werkende kwantumcomputers te koop, hoewel enkele informatiekundigen beweren dat het geen echte kwantumcomputers zijn: de D-wave One en D-wave Two van fabrikant D-wave. In Nederland werkt QUTech samen met het Deense Niels Bohr Instituut aan een kwantumcomputer.

Andere bizarre typen computers
In principe kan elk systeem dat informatie bevat en verwerkt worden gebruikt als computer. Fantasierijke onderzoekers hebben de meest knotsgekke systemen uitgetest, waarvan we al enkele op Visionair hebben beschreven. Zo is er de warmtecomputer, de heet-ijs computer, DNA-computer (in een reageerbuis), een theoretisch mogelijke bacteriecomputer, de slijmzwamcomputer en de chemische computer. Ons immuunsysteem is in feite ook een soort biologische computer, die voor een probleem, een agressieve bacterie of virus, een oplossing, een antilichaam, vormt.

Ontwikkeling van computers stopt niet bij Wet van Moore
Kortom: er zijn verschillende alternatieven in ontwikkeling om computers sneller te laten rekenen. Wel zal onze bestaande software er niet op kunnen draaien, tenzij deze in een erg hoog niveau programmeertaal is geschreven en er een compiler is ontwikkeld voor die programmeertaal.

HP memristors op een wafel. Memristors moeten het geheugen radicaal verbeteren.

HP | The Machine: the Future of Computing

Hewlett Packard is net als IBM volop actief in de zakelijke markt. HP doet veel onderzoek naar opvolgers voor de silicium-gebaseerde computers die we nu kennen en is één van de serieuze kanshebbers om het stokje van de Wet van Moore over te nemen. HP’s project wordt door hun marketingafdeling The Machine genoemd. Maak hier kennis met de laatste stand van zaken.

HP denkt dat de enorme hoeveelheid data in de toekomst op vele plekken tegelijk opgeslagen zal worden en dat de cloud helpt de data weer terug te vinden. Dit hele technische ecosysteem gedraagt zich als een supercomputer zo groot als de aarde. Het computergeheugen van transistors zoals we dat nu kennen, wordt vervangen door memristors, een soort lerende schakelingen, die korte- en lange-termijn geheugen vervangen.

Deze computer is geen klassieke Von Neumann/Turing machine maar een radicaal nieuwe computerarchitectuur, die breekt met zo’n zestig jaar traditie. Hierdoor moet er een volkomen nieuw besturingssysteem moet worden geschreven. Dit OS heeft de werktitel Carbon. Een pittige, maar denk ik ook zeer boeiende uitdaging voor programmeurs. Dit is echt een reis naar een nieuw werelddeel. Maar we moeten wel, de Wet van Moore geeft rond 2020 de geest. HP is rijkelijk laat met deze memristorchips, die volgens planning al in 2013 op de markt hadden moeten komen. Sceptici vragen zich dan ook af, of het gestelde doel van 2016 gehaald wordt. Duidelijk is wel dat HP ruim op tijd nadacht over het einde van de Wet van Moore en niet bang is, voor radicaal nieuwe oplossingen te kiezen.

HP memristors op een wafel. Memristors moeten het geheugen radicaal verbeteren.
HP memristors op een wafel. Memristors moeten het RAM-geheugen radicaal verbeteren.

Elementaire magneetjes in grafeen. Bron: UC-R.

Onderzoekers magnetiseren grafeen permanent

Voor het eerst is het gelukt om stukjes grafeen een permanente magnetische lading te geven, zonder dat het atoomdikke kippengaas van koolstofatomen moet worden vervuild met andere atomen. Wat zijn de mogelijkheden?

Duur wondermateriaal
Sinds de ontdekking van grafeen heeft het materiaal al de nodige records gebroken. Zo is het het sterkste materiaal ter wereld en heeft het ook het hoogste specifieke oppervlak. Slechts één ding weerhoudt de industrie van de massale toepassing van grafeen: de lastige en zeer kostbare productiemethode, al zijn ook op dit terrein nu doorbraken bereikt die de kosten met factor 1000 kunnen verminderen. Wat grafeen, zelfs na deze prijsdaling met €1 miljoen per vierkante meter nog steeds erg duur maakt. Maar gezien het grote aantal slimme mensen dat zich nu vastbijt op een goedkope productiemethode, zal dat niet al te lang meer duren. Slagen we erin deze kosten te laten dalen tot, zeg, €1 per vierkante meter, dan is het aantal toepassingen werkelijk krankzinnig groot.

Elementaire magneetjes in grafeen. Bron: UC-R.
Elementaire magneetjes in grafeen. Bron: UC-R.

Magnetisch grafeen
Aan deze toepassingen kan er nu eentje worden toegevoegd: het opslaan en verwerken van informatie.  Jing Shi en zijn mede-onderzoekers van de  University of California, Riverside, hebben grafeen met magnetische eigenschappen gecreëerd. Hiervoor plaatsten ze een stukje grafeen op het magnetische mineraal yttrium-ijzer granaat (YIG in de afbeelding). Er zijn andere materialen die de magnetische eigenschappen van grafeen kunnen veranderen, maar yttrium-ijzer granaat geleidt geen stroom. Daardoor worden de aantrekkelijke elektrische eigenschappen van grafeen niet veranderd. Als het grafeen weer wordt losgepeuterd, blijkt het nog steeds magnetisch te zijn. Omdat het grafeen chemisch gezien ongewijzigd is, moet het grafeen zelf magnetisch zijn geworden.

Spintronics
Onderzoekers zien een belangrijke toepassing in spintronics: elektronica, waarin signalen niet door worden gegeven door bewegende elektronen, maar ompolende magneetveldjes. Isospin is een kwantumeigenschap, die ruwweg overeenkomt met draairichting. Deeltjes en quasideeltjes met isospin kunnen twee, tegengestelde, richtingen op tollen, met slechts één snelheid. We praten dan dus over elektronica op atoomschaal, een factor 100 kleiner dan chips in 2015 , of factor 10.000 meer eenheden per vierkante mm. Grafeen zou ook gebruikt kunnen worden als magnetisch opslagmedium van informatie. Spintronics is ook veel zuiniger dan klassieke elektronica omdat elektronen niet stromen en er dus nauwelijks afvalwarmte wordt geproduceerd. Je smartphone of laptop kan dan opgeladen worden door bewegingen  die je maakt.

Bronnen
Researchers Make Magnetic Graphene – UC Riverside research could lead to new multi-functional electronic devices, UCR Today, 2015
Jing Shi et al., Proximity-Induced Ferromagnetism in Graphene Revealed by the Anomalous Hall Effect, Physics Review Letters, 2015

De komende technische explosie, samengevat in vijf minuten

Steeds meer technologie maakt gebruik van computers als werkpaard, en omdat de rekencapaciteit van computers exponentieel toeneemt, sleurt deze explosieve toename ook deze technologieën mee op een steeds verder versnellend traject. Het gevolg: de komende kwart eeuw zal uitermate ontrwrichtend zijn. Rijker dan ooit, spannender dan ooit en vooral: wonderlijker dan ooit eerder in de geschiedenis.

In dit filmpje van Kurzweils Singularity University een korte samenvatting.
NB: het lijkt er op dat de exponentiële toename van computerrekencapaciteit de laatste jaren aan het afnemen is. Alleen als computermakers overstappen op een radicaal andere technologie dan wat de huidige chipsbakkers ons voorschotelen, maakt de Wet van Moore nog een kans.