informatica

Het interieur van de eerste D-wave kwantumcomputer ooit. Is dit een echte kwantumcomputer? Bron: D-wave

‘Wet van Moore is onzin’

De Wet van Moore dicteerde met een ijzeren regelmaat hoeveel sneller computers elk jaar werden. Nu lijkt de wet te haperen, omdat de grenzen in zicht komen. maar is dat wel zo erg? Of zal het ons juist aanzetten om slimmere manieren te verzinnen om informatie te verwerken en te rekenen dan nu? Met als eindresultaat veel snellere computers dan we nu hebben?

Vroeger: Veel verschillende computers
Als we kijken naar computers halverwege de twintigste eeuw en nu, zien we dat de computerarchitectuur anno nu veel saaier is dan toen. Computers bestaan al heel lang. Het Antikythera mechanisme, een ingewikkelde tandwielconstructie van omstreeks een eeuw voor de geboorte van Jezus, gaf belangrijke data van astronomische gebeurtenissen en de voor de Grieken zeer belangrijke Spelen in de toekomst aan. De middeleeuwse Perzen en daarna de Europeanen namen het stokje over. Analoge computers beleefden omstreeks 1950 hun hoogtepunt. Een analoge computer bouwt als het ware een systeem na in een ander systeem, dat we makkelijker kunnen manipuleren. Zo werd een model van de economie omstreeks 1950 als hydraulisch systeem nagebouwd met behulp van een vernuftig systeem met waterbuizen, de MONIAC. Ingewikkelde berekeningen zoals differentiaalberekeningen werden met elektrische analoge computers uitgevoerd. Rekenmachines waren in die tijd onbetaalbaar voor de gewone man (of enkele vrouw). Men redde zich met behulp van rekenlinialen en boekjes met logaritmetafels, een soort papieren computers dus. Daarnaast waren er de opkomende Von Neumann-architectuur computers, ontwikkeld in de jaren veertig, die we allemaal kennen van onze pc’s, smartphones en microchips in ingewikkelder apparatuur zoals auto’s.

Hightech uit de jaren zestig: bouw je eigen analoge computer. Bron: hackaday.com
Hightech uit de jaren zestig: bouw je eigen analoge computer. Bron: hackaday.com

2015: alleen Von Neumann-computers
Anno 2015 zijn de analoge computers verdwenen. Von Neumann-architectuur computers zijn alomtegenwoordig. Dit komt door hun flexibiliteit – het is een stuk makkelijker om een nieuw bestandje met een economisch model op je laptop te kopiëren dan om een nieuwe schakeling te maken, laat staan om met waterbuizen een nieuwe economie te ontwerpen. Von Neumann-gebaseerde computers zijn ook zo snel en zo krachtig geworden, dat ze alle andere computers er uit hebben geconcurreerd. Dit komt door de Wet van Moore – de halvering in oppervlakte van transistoren en hiermee ruwweg verdubbeling van rekencapaciteit elk  jaar, nu vertraagd tot bijna twee jaar. Deze verdubbeling gebeurde niet vanzelf, er bestaat een zogeheten roadmap, waar alle ontwerpers van computerapparatuur rekening mee houden. Als bijvoorbeeld 10 nanometer transistoren gepland staan voor 2016, probeert elke chipsfabrikant, ontwikkelaar van chipsbakmachines en randapparatuur om een product gereed te hebben, dat aan kan sluiten op die 10 nm transistoren. Ook al betekent dat investeren in steeds duurdere apparatuur. Ze moeten wel, omdat ze anders de technologische race met concurrenten verliezen. Dit ijzeren ritme zorgde er voor dat digitale computers met de Von Neumann architectuur er alle andere computers uitliepen. Er is alleen  een vervelend probleem. Bestaande strategieën werken op deze kleine schaal steeds slechter. Al sinds 2008 werkt de nauwverbonden Dennard scaling, de daling van energieverbruik per transistor en de fabricagekosten per transistor naarmate ze kleiner worden, niet meer. ASML had de grootste moeite om de EUV technologie, die transistoren op nanometerschaal mogelijk moet maken, te laten werken: pas in 2015 is er succes. Er is ook een fundamentele limiet: atomen zijn iets kleiner dan 0,1 nanometer en een transistor kleiner dan dat vereist femtotechniek of verknoopt licht, technieken die we in de komende tien jaar niet voldoende beheersen. Kortom: we moeten kijken naar heel andere technieken, als we willen dan computers steeds sneller worden.

Het interieur van de eerste D-wave kwantumcomputer ooit. Is dit een echte kwantumcomputer? Bron: D-wave
Het interieur van de eerste D-wave kwantumcomputer ooit. Is dit een echte kwantumcomputer? Bron: D-wave

Opvolgers voor de Von Neumann architectuur 
Geen wonder dat bedrijven als IBM, HP en universiteiten werken aan alternatieven. Eén oplossing is bijvoorbeeld slimmer gebruik te maken van de ruimte dan we nu doen. In de Von Neumann architectuur worden alle berekeningen geconcentreerd in een of enkele processoren. Geheugen bevindt zich weer in een ander deel van de computer. Het gevolg: data moet voortdurend heen en weer worden verstuurd tussen de processor en het geheugen en er ontstaat ‘verkeersopstopping’ en een enorme warmteontwikkeling bij de processor. Kortom: het kan slimmer. Wel moeten we dan van voren af aan beginnen: niet-Von Neumann architecturen vereisen heel andere programmeermethoden en programmeertalen dan wat we nu gebruiken.

Memristor-gebaseerde computers
Memristoren werken slimmer. Een memristor is een weerstand (‘resistor’) die als het ware onthoudt (‘memorize’) dat er elektrische stroom doorheen heeft gevloeid. Daardoor is de weerstand lager. Bij een memristor-gebaseerde computer valt de processor samen met de informatieopslag. Wat dat betreft lijkt het dan op het menselijke brein. HP, dat op dit moment overleeft door het verkopen van peperdure printerinkt, heeft al zijn kaarten gezet op memristor-gebaseerde supercomputers, The Machine.

Menselijke brein-architectuur
Ook de IBM TrueNorth chipreeks verspreidt berekeningen over de gehele chip, waardoor de rekensnelheid zeker met factor 1000 stijgt. De chip bestaat uit eenheden van 256 ‘neuronen’ die onderling verbonden zijn met ‘synapsen’. In de huidige incarnatie simuleert de TrueNorth chip, die onder meer wordt gebruikt in SyNapse, 530 miljard neuronen. De chip verbruikt extreem weinig energie: 70 milliwatt. Ter vergelijking: dat is meer dan duizend keer zo weinig als een energievretende 80 watt processor in een moderne computer, die met een ventilator gekoeld moet worden om te voorkomen dat deze doorbrandt. Het menselijk brein, dat veel meer kan dan een moderne processor, gebruikt maar 20 watt. TrueNorth is door de fundamenteel andere architectuur vooral goed in patroonherkenning. Als TrueNorth chips worden gecombineerd met traditionele Von Neumann architectuur ontstaat een zeer krachtig systeem dat beter kan rekenen en patroon herkennen dan de mens en bijvoorbeeld goed in humanoïde robots kan worden ingezet. Geen wonder dat DARPA, het onderzoeksinstituut van het Amerikaanse leger, grote interesse heeft. Een leukere toepassing is in smartphones of automatische voertuigen.

Kwantumcomputers
Kwantumcomputers vormen vermoedelijk het meest bizarre typen computers dat we kennen. Qubits, de elementaire rekeneenheid van kwantumcomputers, kunnen waardes van 0,1 en alles daartussen tegelijkertijd aannemen, zoals kwantumdeeltjes in de wereld waarin we leven. Kwantumcomputers wekken veel interesse, omdat hun rekencapaciteit per extra qubit niet met 1, maar met factor 2 (capaciteit = 2n+1 − 2) toeneemt. Voor bepaalde rekenklussen (NP-complete vraagstukken) verslaan kwantumcomputers met voldoende qubits alle andere bekende typen computers. Op dit moment zijn er enkele werkende kwantumcomputers te koop, hoewel enkele informatiekundigen beweren dat het geen echte kwantumcomputers zijn: de D-wave One en D-wave Two van fabrikant D-wave. In Nederland werkt QUTech samen met het Deense Niels Bohr Instituut aan een kwantumcomputer.

Andere bizarre typen computers
In principe kan elk systeem dat informatie bevat en verwerkt worden gebruikt als computer. Fantasierijke onderzoekers hebben de meest knotsgekke systemen uitgetest, waarvan we al enkele op Visionair hebben beschreven. Zo is er de warmtecomputer, de heet-ijs computer, DNA-computer (in een reageerbuis), een theoretisch mogelijke bacteriecomputer, de slijmzwamcomputer en de chemische computer. Ons immuunsysteem is in feite ook een soort biologische computer, die voor een probleem, een agressieve bacterie of virus, een oplossing, een antilichaam, vormt.

Ontwikkeling van computers stopt niet bij Wet van Moore
Kortom: er zijn verschillende alternatieven in ontwikkeling om computers sneller te laten rekenen. Wel zal onze bestaande software er niet op kunnen draaien, tenzij deze in een erg hoog niveau programmeertaal is geschreven en er een compiler is ontwikkeld voor die programmeertaal.

Niet operatierobots, maar juist supercomputers als IBM Watson zullen de meeste taken van medisch specialisten overnemen.

Medisch specialist kan grotendeels weggeautomatiseerd worden

Ze vormen de spil in de gezondheidzorg voor ernstig zieken: medisch specialisten. Hun aantal groeit sterk. Hun inkomens zijn hoog. Maar zullen ze veilig blijven voor de oprukkende automatisering? IBM lanceert nu de gevreesde computer Watson op gezondheidszorgterrein. Zal technologie de kostenexplosie in de gezondheidszorg kunnen stoppen, zonder dat de gezondheidstoestand van de bevolking verslechtert?

17% zorgkosten door specialisten
De gezondheidszorg in Nederland is uitermate duur: per jaar geven we zo’n 70 miljard euro, dat is rond de vierduizend euro per Nederlander of iets meer dan achtduizend euro per huishouden, uit aan gezondheidszorg. Ondanks de zogeheten marktwerking kachelt de kwaliteit van de zorg elk jaar achteruit. Een niet onaanzienlijk deel van deze kosten worden veroorzaakt door medisch specialisten. Van de plusminus 60.000 geregistreerde artsen in Nederland is 17.000 medisch specialist.  Het gemiddelde salaris van deze beroepsgroep ligt rond de 200.000 euro, waarmee hun salaris- en gedeclareerde kosten ongeveer op 17% van de totale zorgkosten worden begroot [1].

Niet operatierobots, maar juist supercomputers als IBM Watson zullen de meeste taken van medisch specialisten overnemen.
Niet operatierobots, maar juist supercomputers als IBM Watson zullen de meeste taken van medisch specialisten overnemen.

Schaarse en dure kennis
Medisch specialisten staan ingeschreven in het BIG register en vormen per specialisme een zogeheten beschermd beroep. Op zich is dit een logische maatregel: zoals we aan de affaire Jansen Steur zagen, verwoest een beunhazende medisch specialist mensenlevens. In de praktijk, zo wijst het drama rond Jansen Steur  uit, blijkt de bescherming die BIG biedt dus vrij beperkt: is een specialist er eenmaal in gerold, dan moet er heel veel gebeuren voordat de registratie wordt geschrapt. Om medisch specialist te worden, moet een geneeskundestudent na zijn masterstudie (vijf jaar) nog drie tot vijf jaar als arts in opleiding actief zijn. Dat maakt de totale opleidingsduur voor een  medisch specialist, gerekend vanaf de basisschool en de snelste opleidingsroute (via VWO en universiteit), rond de 22 jaar en de opleidingskosten voor een medisch specialist, variërend van € 104.000 voor een “beschouwende”specialist tot rond de € 172.000 voor een chirurgijn – vanaf de opleiding geneeskunde  gerekend –  tot de hoogste in Nederland[2]. Door die hoge kosten is er een zogeheten numerus fixus actief voor geneeskundeopleidingen. Het resultaat is dat er slechts een beperkt aantal geneeskunstenaars afstuderen en hun onderhandelingspositie sterk is. Goedkoop blijkt dus duurkoop: bij een groter aantal medisch specialisten is er meer werkloosheid waardoor hun onderhandelingspositie verzwakt. Nu slagen vrij gevestigde medisch specialisten erin om een naar Europese begrippen zeer hoog inkomen in de wacht te slepen.

IBM Watson overtreft specialisten  in diagnoses
Medisch specialisten voeren twee hoofdtaken uit: diagnosticeren, dat wil zeggen: vaststellen aan welke kwaal een patiënt lijdt, en een behandelingsstrategie vaststellen en dirigeren: de meest geschikte behandeling voor een patiënt vaststellen. Onderdeel hiervan kan doorverwijzing naar andere specialisten zijn. Dit gebeurt ook geregeld. Een misdiagnose is een persoonlijk drama. Op grond hiervan wordt een volkomen verkeerde behandeling, vaak ook gevaarlijke, voorgeschreven, waardoor medicijnschade ontstaat en de oorspronkelijke kwaal voortwoekert. Dit geldt in mindere mate ook voor een slechte behandeling. Artsen maken deze fouten, omdat ze niet op de hoogte kunnen zijn van alle wetenschappelijke ontwikkelingen. De reden dat de specialisten die dat wel kunnen, het hoogste betaald worden.

Paradoxaal genoeg worden niet de basisartsen, maar deze topspecialisten bedreigd door oprukkende expertsystemen[3]. Hun expertise bestaat voornamelijk uit het reproduceren van data en patroonherkenning. En laat dat laatste, patroonherkenning, nu net datgene zijn waar computers nu snel beter in worden. Enkele jaren geleden versloeg IBM-computer Watson de beste menselijke deelnemer aan de kennisquiz Jeopardy. IBM laat nu een team experts medische handboeken massaal in Watson inladen. De eerste resultaten zijn er al. Watson blijkt nauwkeuriger diagnoses te stellen dan een second opinion arts. IBM wil deze kennis nu commercialiseren[4]. Dit betekent goed nieuws voor  patiënten, omdat ze nu een betere behandeling krijgen voor minder geld. En de superspecialisten? Die kunnen zich maar beter wat bescheidener opstellen. De nederige huisarts, waar ze toch vaak op neerkijken, zou wel eens betere overlevingskansen kunnen hebben dan zij.

Bronnen
1. Gezond belonen: beleidsopties voor de salarissen van medisch specialisten, Rijksoverheid, 2012
2. Kostprijsonderzoek Opleiding Medische Specialisten, Berenschot (i.o.v. STZ Ziekenhuizen), 2012
3. Why the highest-paid specialists are the most vulnerable for automatisation, Slate.com, 2o11
4. IBM aims to make medical knowledge a commodity, MIT Technology Review, 2014

Video: visionaire SF-schrijver voorspelt de toekomst van computers

Science fiction schrijver Arthur C. Clarke, die eerder al communicatiesatellieten voorspelde, beschrijft hier in 1974 hoe computers in de toekomst (nu dus) gebruikt zullen worden. Clarke blijkt over een griezelig accuraat inzicht te beschikken over hoe onze door computers beheerste tijd er uit ziet.

Daarom is het verstandig, wat hij over kunstmatige intelligenties voorspelde, uiterst serieus te nemen. In 2025 is de rekencapaciteit van computers zo groot, dat deze die van het menselijk brein overtreft. We hebben dus nog ongeveer tien jaar om ons voor te bereiden op computers als Clarke’s geesteskind HAL 9000. Clarke overschatte de snelheid waarmee computers zich ontwikkelen, maar van uitstel komt geen afstel. Hoe kunnen mensen en geavanceerde AI samenleven?

Koolstofnanobuisjes: voor het eerst is er een complexe schakeling gebouwd. bron: washington.edu

Eerste werkende koolstofcomputer gebouwd

Vergeleken met silicium is koolstof buigzamer, goedkoper en zuiniger. Voor het eerst zijn nu berekeningen uitgevoerd met een computer, inclusief operating system, die geheel is opgebouwd uit koolstofelementen op nanoschaal. Wat zijn de gevolgen?

Transistoren op nanoschaal
Met de ontdekking van de moleculaire voetbal fullereen brak de koolstofrevolutie los. Een van de meest opwindende ontdekkingen is dat koolstofatomen minuscule pijpjes kunnen vormen, koolstofnanobuisjes, die al naar gelang de configuratie van de koolstofatomen zich kunnen gedragen als elektrische geleiders of halfgeleiders. Halfgeleiders zijn een essentieel onderdeel van elektrische digitale computers: een halfgeleider kan namelijk gebruikt worden als schakelaar. Geen wonder dus dat veel onderzoeksgroepen proberen werkende onderdelen van computers te bouwen met de minuscule koolstofstructuren. Hiermee kunnen veel snellere en zuiniger computers worden gebouwd dan die we nu gebruiken.

Koolstofnanobuisjes: voor het eerst is er een complexe  schakeling gebouwd. bron: washington.edu
Koolstofnanobuisjes: voor het eerst is er een complexe schakeling gebouwd. bron: washington.edu

178 nanobuisjes
Door een groep Californische onderzoekers is nu een functionerende computer uit koolstofnanobuisjes gebouwd, bestaande uit 178 transistors. Dit is niet veel vergeleken met de miljarden transistoren die in moderne computers voorkomen. Ook zijn er al eerder computers van andere materialen dan silicium gebouwd. wat deze prestatie uniek maakt is dat het gebeurd is met koolstofnanobuisjes, een materiaal waarvan veel onderzoekers eerder zeiden dat het onmogelijk was er complexe structuren van te bouwen. Dit is de eigenlijke doorbraak. Insiders denken dat dit wel eens even belangrijk zijn als de overstap van radiobuizen naar silicium elektronica. Deze eerdere revolutie leidde tot het verkleinen van computers van het formaat van een huis tot het formaat van een smartphone.

Doorbraak: voor het eerst complexe structuur van koolstofnanobuisjes
De leiders van het onderzoeksteam, Subhasish Mitra en Philip Wong van Stanford University noemen het “een simpele, maar bepaald niet triviale” computer.
Ook de ontdekkers van de koolstofnanotransistoren, Cees Dekker en zijn groep onderzoekers van de Technische Universiteit Delft, zijn erg te spreken over de ontdekking. Dekker is blij na 15 jaar zijn ontdekking praktisch toegepast te zien.

De elektrische eigenschappen van koolstofnanobuisjes maken ze snellere en efficiëntere transistoren, volgens het bronartikel met meer dan een orde van grootte (factor tien). Transistoren kunnen een andere elektrische stroom afsluiten als ze een elektrisch signaal krijgen. Helaas zijn deze objecten op nanoschaal lastig te manipuleren, wat velen zich af deed vragen of het ooit mogelijk zou worden ze efficiënt te benutten. Omdat ze zo klein zijn kunnen nanobuisjes gemakkelijk van hun plaats schieten waardoor kortsluiting ontstaat. Mitra en zijn collega’s lossen dit probleem op door de buisjes te laten groeien op een wafel van kwarts, waarop 99,5% van de buisjes de kristalstructuur van de wafel van quarks volgden. Hierna etsten de onderzoekers alle buisjes weg die verkeerd lagen.
De volgende stap was het aansluiten van een hoge spanning. Hierdoor werden alle normaal geleidende, metallische, buisjes doorgebrand.

Optellen en sorteren
Zodra het team een werkende chip had gebouwd, programmeerden de onderzoekers dit om een optelprogrammaatje en een sorteeralgoritme uit te voeren. De computer kan tussen de twee programma’s heen en weer schakelen waardoor het kan multitasken, net zoals moderne computers. Het basisontwerp is Turing-compleet: dit betekent dat in staat is iedere berekening die een andere Turing-complete computer (zoals de computers die wij uit het dagelijks leven kennen) uit kan voeren, ook uit te voeren (uiteraard doorgaans op een andere snelheid). Erg snel is de computer niet: 1 kHz. Dit is miljoenen malen langzamer dan moderne desktop computers die met gemak een gigahertz halen. Dit komt echter omdat dit computertje verbonden is met experimentele apparatuur die het afremt. Zou deze verdwijnen, dan zou het computertje met gemak de kloksnelheid van bestaande computers kloppen.

Ook na de ontdekking van Mitra en de zijnen van een methode om de koolstofnanobuisjes netjes op een lijn te krijgen, blijft de productie van koolstofchips lastig. Waarnemers denken daarom dat vooral supercomputers van bijvoorbeeld Google en de NSA baat zullen hebben van deze nieuwe techniek. Totdat uiteraard iemand een methode uitvindt om koolstofnanotechnologie in grote oplage te kunnen produceren…

Bron
H.-S. Philip Wong, Subhasish Mitra et al., Carbon nanotube computer, Nature, 2013

Volgens onderzoeker Kwabena Boahen is een computer met de hardwarestructuur van het brein DE oplossing voor de kwantumlimiet die we dreigen te naderen.

Hersensimulator verslaat supercomputer met stukken

Erg snel rekenen doet ons brein niet, maar het kan wel erg veel berekeningen per seconde maken. De reden: elk van de meer dan 100 miljard neuronen in ons brein werkt als een parallelle processoreenheid, waardoor ons brein per saldo toch erg veel informatie per seconde kan verwerken. Geen wonder dat ons brein supercomputers op veel terreinen nog steeds kan kloppen. Daar komt nu verandering in met hardware die een miljoen neuronen kan simuleren.

Volgens onderzoeker Kwabena Boahen is een computer met de hardwarestructuur van het brein DE oplossing voor de kwantumlimiet die we dreigen te naderen.
Volgens onderzoeker Kwabena Boahen is een computer met de hardwarestructuur van het brein DE oplossing voor de kwantumlimiet die we dreigen te naderen.

Nadat computerbouwers en -programmeurs er in slaagden de toenmalige menselijke wereldkampioen schaken Kasparov te verslaan (1996) en de beste menselijke spelers van het vraag- en antwoordspel Jeopardy in te maken (2011), lijkt het er inderdaad op dat computers al aardig op weg zijn om de mens op alle terreinen te overtreffen. Wel zijn er monsterachtig grote supercomputers nodig voor deze prestaties. IBM’s Watson, die de kwis Jeopardy overtuigend won, bestaat bijvoorbeeld uit meer dan tien kubieke meter computerapparatuur. Opvolger IBM Blue Gene/Q Sequoia verbruikt meer elektriciteit dan een klein landje als Malta. Vergeleken hiermee doet het menselijk brein het veel zuiniger, rond de veertig watt. Als je bedenkt dat de kleinste onderdelen van computers nu al onder de 22 nanometer breed zijn, honderden malen kleiner dan de grootte van neuronen, en dat zelfs een enorme supercomputer zoals de 8 megawatt IBM Blue Gene/Q Sequoia die er 1600 maal zo lang over doet op een bepaald neurologisch proces na te bootsen als het biologische brein zelf, dit tegen een elektriciteitsrekening van een slordige 14 miljoen euro per jaar, is duidelijk dat er iets mis moet zijn met de hardwarearchitectuur. Vandaar dat er steeds meer stemmen opgaan om de computerarchitectuur, in ieder geval voor bepaalde toepassingen, meer op die van het menselijk brein te laten lijken.

Een van die stemmen is professor Kwabena Boahen van de Californische universiteit Stanford. Hij bewees zijn kunnen door een werkende retina na te bouwen in silicium (die hij verifieerde door de prestaties te vergelijken met een salamander-retina). In deze TED-talk van 2009 windt hij er geen doekjes om. Al in zijn geboorteland Ghana was hij niet bijster onder de indruk van de architectuur en prestaties van computers. Volgens hem is de oorzaak dat ons brein veel slimmer in elkaar zit dan een computer: ons hele brein is betrokken bij berekeningen, terwijl alle data in een computer via de ‘bottleneck’, de overbelaste processor moeten worden verwerkt. Ook voorziet hij rond 2015 problemen als transistoren zo klein worden dat kwantummechanica een rol gaat spelen. De mooi scherpe blokspanningen (de enen en nullen) veranderen dan in een waziger patroon. De enige oplossing is volgens hem om redunantie in te bouwen (net zoals in ons brein).

Boateng heeft in samenwerking met enkele doctoraalstudenten nu een hardware-prototype gebouwd van een neuronaal computerplatform, Neurogrid, een computer dus die qua architectuur een biologisch brein nabootst. Dit model bevat een miljoen gesimuleerde neuronen. Neurogrid werkt, net als biologische neuronen, met analoge spanningen om berekeningen uit te voeren en digitale signalen om te communiceren.

Interessant genoeg kan deze computer meer dan duizend keer zo snel dan een supercomputer de processen in het brein nabootsen, waardoor Neurogrid even snel werkt als een miljoen biologische neuronen. Dit met behulp van slechts 5 watt vermogen. Uiteraard is Neurogrid, een samengesteld apparaat van 16 neuronische chips van elk rond de 65.000 ‘neuronen’, onderhevig aan dezelfde exponentiële vooruitgang als andere computers. Immers: lithografische processen etc. worden steeds beter, waarop ook niet-Neumanniaanse architecturen (zoals neuronische chips) kunnen meeliften.  De stap naar ons brein is nog groot – dit bestaat uit rond 100 miljard, meer dan honderdduizend maal zoveel, neuronen.

Bron
Neurocore (Stanford University)

Zouden computers betere rechters zijn dan mensen? Minder corrupt zijn ze in ieder geval zeker.

Tijd voor computerrechtspraak

Het Nederlandse juridische systeem is overbelast en wordt, zoals bekend uit onder meer de Demmink- en de Chipsholaffaires, niet gekenmerkt door een buitengewoon zorgvuldige, eerlijke en onpartijdige afweging van bewijzen en getuigenverklaringen. Computers zijn onpartijdig, worden niet beïnvloed door emoties en kunnen niet gechanteerd worden. Wordt het zo langzamerhand geen tijd om computerrechtspraak in te voeren?

Zouden computers betere rechters zijn dan mensen? Minder corrupt zijn ze in ieder geval zeker.
Zouden computers betere rechters zijn dan mensen? Minder corrupt zijn ze in ieder geval zeker.

Juridische taal
In landen met een ontwikkeld rechtssysteem bestaat er een speciaal juridisch jargon, in het Engels vaak spottend ‘legalese’ genoemd, waarin woorden vaak andere betekenissen hebben dan in het dagelijks Nederlands. Hoewel juristen zichzelf graag met een waas van exclusiviteit en elitarisme omgven, is hier een andere goede reden voor. Juridische begrippen hebben een precieze, technische betekenis, die vaak anders is dan die van het woord in het dagelijks gebruik. Een voorbeeld is het woord ‘verbintenis’. In het dagelijks leven is dit een wat archaïsch woord, dat overeenkomst of contract betekent. In de rechtspraak wordt met ‘verbintenis‘ een rechtsverhouding bedoeld, krachtens welke de ene partij (schuldenaar of debiteur) een prestatie verschuldigd is aan de andere partij (schuldeiser of crediteur). Een verkeersboete, of een wijnvlek door het morsen van wijn op iemands dure kleding, is hiermee ook een verbintenis. Omdat juridische taal, in tegenstelling tot taal in het dagelijks leven, ondubbelzinnig is, begrijpen juristen (meestal) waar ze het over hebben. Discussies in de rechtszaal gaan dus niet zozeer over de betekenis van woorden, maar of bepaalde vergrijpen moeten worden gezien als, bijvoorbeeld, openlijke geweldpleging of poging tot doodslag.

Kleine stap naar gecomputeriseerde rechtspraak
Juist omdat juridische taal zo geformaliseerd is, is de afleiding als eenmaal een zaak in juridische termen vertaald is, vrij eenvoudig.  Het hete hangijzer is het vertalen van de dagelijkse werkelijkheid in juridisch formalisme. Op dit moment is dit natte-vingerwerk. Zo vonden in het hoger beroep in de Chipsholzaak de ‘onkreukbare en onpartijdige’ rechters mr. J.R. Krol, voorzitter, mr. E.A. Messer en mr. Z.J. Oosting alle getuigeverklaringen tegen hun, zo bleek uit een eerder vonnis, meinedige collega’s Kalbfleisch en Westenberg ‘niet geloofwaardig’. De argumenten die hiervoor aan werden gevoerd zijn niet erg sterk te noemen (oordeel zelf) en het heeft er alle schijn van, dat Krol, Oosting en Messer hun onfrisse ex-collega’s hebben gematst.

Hoe zou gecomputeriseerde rechtspraak er uit kunnen zien?
Rechtspreken draait om waarheidsvinding en is dus in wezen een combinatie van inductie (het vertalen van een zaak in juridische taal) en deductie (aan de hand van juridische taal komen tot een vonnis). Deductie is vrij eenvoudig door een computer te doen; het gaat hier voornamelijk om inductie. De eerste stap is al de vraag of een bewijsstuk toelaatbaar is in een rechtszaak. Vaak wordt dit op nogal subjectieve gronden beslist. Veel rechtszaken staan of vallen met getuigenverklaringen. Getuigen zijn vaak berucht onbetrouwbaar. Wel zijn er steeds betere technieken om vast te stellen of een getuige liegt of niet. Het computeriseren van de rechtspraak zou zich er dus op moeten richten om methodes voor het toetsen van bewijs te verbeteren.  Hierbij zou je als regel in kunnen voeren dat in principe ieder bewijs toelaatbaar is in een rechtszaak, maar dat de wegingsfactor aan de hand van de betrouwbaarheid en relevantie voor de zaak uiteen kan lopen van nul tot één.

TEDx – Race tegen de machines

Eerder al werden hier een tweetal artikelen gepubliceerd over het boek van deze spreker bij TED in de artikelen: Oorzaak werkloosheid is verloren race tegen de machine & Hoe kunnen we de race tegen de machines winnen?

Hierbij een TED presentatie over ditzelfde onderwerp met een zeer optimistische uitkijk op de toekomst.

Robots and algorithms are getting good at jobs like building cars, writing articles, translating — jobs that once required a human. So what will we humans do for work? Andrew McAfee walks through recent labor data to say: We ain’t seen nothing yet. But then he steps back to look at big history, and comes up with a surprising and even thrilling view of what comes next.

Andrew McAfee studies how information technology affects businesses and society

 

Wat denken de bezoekers van visionair, verwelkomen we allemaal onze toekomstige computer overlords? :-)

Aanverwante artikelen:
-) Oorzaak werkloosheid is verloren race tegen de machine
-) Hoe kunnen we de race tegen de machines winnen?

Het nieuwe biologische DNA geheugen

DNA-boek bereikt oplage van 70 miljard

Meer exemplaren dan de bijbel, de Harry Potter cyclus en het Rode Boekje. Het boek Regenesis: How Synthetic Biology Will Reinvent Nature and Ourselves, zal pas 2 oktober 2012 uitkomen maar bestaat nu al in tientallen miljarden kopieën. Hoe bereik je als auteur een drie maal zo grote oplage als de top-100 best verkochte boeken aller tijden? Antwoord: je vertaalt je boek in de chemische letters die DNA uitmaken en de bacteriën die het DNA dragen, gaan zich vlijtig vermenigvuldigen. Smokkel je voortaan je bibliotheek als bacteriekolonie mee?Het nieuwe biologische DNA geheugen

Jaar aan werelddata in vier gram DNA
Auteur George Church en zijn collega’s vertaalden het boek in DNA. Een gemiddeld boek bestaat uit 100.000 woorden, dus rond een miljoen bytes (1 MB), die op hun beurt weer rond twee miljoen baseparen vertegenwoordigen – de grootte van het genoom van een gemiddelde bacterie. Hierbij bereikte de groep de hoogste dichtheid van informatieopslag (meeste bytes per gram) ooit. Per kubieke millimeter wordt zo 5,5 petabyte opslag mogelijk. Dit is zo dicht dat de totale hoeveelheid informatie die in één jaar geproduceerd wordt, in slechts vier gram DNA opgeslagen kan worden. Aanvullend voordeel is dat DNA niet alleen erg dicht is,maar ook bij kamertemperatuur intact blijft. De alternatieven vereisen vaak zeer lage temperaturen of kostbare apparatuur. De auteur wilde oorspronkelijk bij elk boek een aantal bacteriën met de boek-code leveren maar besloten hier om ethisch redenen (voorkomen verspreiding genetisch gerecombineerde bacteriën in de omgeving) toch vanaf te zien.

Wel kost het nog veel tijd om DNA uit te lezen. Verwacht dus voorlopig geen DNA-lezer in plaats van een harde schijf (al worden DNA sequencers steeds sneller en betaalbaarder).

Levend archief
Voor lange-termijn opslag is DNA  wel heel interessant. Je zou bijvoorbeeld kunnen denken aan een DNA archief waarin we de complete menselijke geschiedenis opslaan. En die inbouwen in een overal aanwezig en onuitroeibaar organisme, een kakkerlak bijvoorbeeld. Dan zullen eeuwen nadat we ons als mensheid hebben uitgeroeid, nog steeds kakkerlakken rondlopen  met de menselijke geschiedenis als ballast in hun DNA.

DNA-boodschap van aliens?
Wat me, ik ben in de stemming, op de volgende visionaire gedachte brengt. Wat als een uitgestorven beschaving, of buitenaardse bezoekers, die boodschap in het DNA hebben achtergelaten van een overal aanwezige soort? Wat als die soort een bepaalde veelzijdige, nieuwsgierige en uitgesproken hebberige apensoort is, die nu zelfs tot op Antarctica voorkomt?

Bron
George M. Church, Yuan Gao, Sriram Kosuri, Next-Generation Digital Information Storage in DNA, Science, 2012, DOI: 10.1126/science.1226355

Een complete cel van de minibacterie Mycoplasma genitalium zit nu in de computer. Hierma kan voor het eerst een levend organisme doorgerekend worden. Bron: Stanford.edu

Eerste complete computermodel van levend organisme ontwikkeld

Voor het eerst is  het wetenschappers gelukt alle levensprocessen van een compleet levend organisme in een computersimulatie na te bootsen.

Een complete cel van de minibacterie Mycoplasma genitalium zit nu in de computer. Hierma kan voor het eerst een levend organisme doorgerekend worden. Bron: Stanford.edu
Een complete cel van de minibacterie Mycoplasma genitalium zit nu in de computer. Hierma kan voor het eerst een levend organisme doorgerekend worden. Bron: Stanford.edu

Eenvoudigste bacterie bekend
Voor het eerst bestaat er nu een organisme zonder een black box. Mycoplasma genitalium, een parasitaire bacterie die in de geslachtsorganen van onder meer de mens leeft, heeft het kleinst bekende genoom van alle bekende bacteriën: slechts 525 genen (waarvan 482 voor eiwitten coderen), die samen 580.070 baseparen (de ‘letters’ van DNA) in beslag nemen. Dit is extreem weinig. De beruchte E. coli-bacterie, bijvoorbeeld, heeft acht maal zoveel genen, de mens zelfs rond de 20 000.  M. genitalium kan zich dit veroorloven vanwege de oparasitaire levenswijze: veel essentiële eiwitten en andere moleculen worden van de gastheercel geroofd. Het probleem tot nu toe was, dat celbiologen wel wisten welke eiwitten ruwweg welke functie hadden, maar het zicht op het grote geheel ontbrak. Nu is daar voor het eerst wel sprake van.

Eerste volledige model
In het celmodel, ontwikkeld door een lab van Stanford Universiteit onder leiding van Markus Covert, zijn de gegevens uit meer dan 900 wetenschappelijke publicaties verwerkt, die de effecten van de verschillende genen beschrijven. M. genitalium is zo eenvoudig dat nu alle interacties bekend zijn en er dus voor het eerst een compleet model van een cel in de computer zit. Het grote voordeel is dat nu zeer veel experimenten op de computer gedaan kunnen worden in plaats van, moeizaam, in vitro in het lab. In het model komen meer dan 1900 experimentele parameters voor, die gegroepeerd zijn in 28 biologische processen. In het model werken deze 28 processen op elkaar in. Het resultaat kan het gedrag van M. genitalium behoorlijk nauwkeurig imiteren, aldus hoofdauteur Jonathan Karr van de groep.

Bio-CAD
De ontwikkeling van dit model maakt het voor het eerst in de geschiedenis mogelijk om biologische organismen op de tekentafel te ontwerpen. Niet door trial and error, op dit moment gebruikelijk in biochemische laboratoria, maar deterministisch. Zoals nu machines ontworpen worden. Een dergelijk bio-CAD systeem zou een revolutie voor de biotechnologie betekenen en een grote sprong voorwaarts betekenen voor de ontwikkeling van bacteriën die bepaalde op dit moment zeer schaarse en dure medicijnen produceren. Ook het omzetten van restafval uit de landbouw in biobrandstof of biologisch afbreekbare plastics – of, waarom niet, voedsel – wordt zo praktisch haalbaar.

Biologisch model van een menselijke cel?
De hoofdprijs bestaat uiteraard uit het volledig vastleggen van alle biochemische processen in een menselijke cel. Deze is extreem veel ingewikkelder dan een M. genitalium bacterie, maar in principe betekent volledige kennis van de menselijke cel, dat onsterfelijkheid en genezing van alle ziekten van de mens binnen bereik komt. Ook kan je denken aan het ontwerpen van een ‘supermens’, met een superieure biochemie en bijvoorbeeld veel meer uithoudingsvermogen of snelheid. De droom van  Fyodorov, de inspirator van het Russische Kosmisme, was de mens uiteindelijk te veranderen in een wezen dat kan leven van zonlicht. Op dit moment is de vereiste computer-rekencapaciteit nog buiten bereik, maar de Wet van Moore stelt dat de computercapaciteit elke twee jaar verdubbelt. Exponentiële groei zal uiteindelijk ook dit binnen bereik brengen.

Bron
Stanford researchers produce first complete computer model of an organism, Stanford persbericht, 2012
Jonathan Karr et al., A Whole-Cell Computational Model Predicts Phenotype from Genotype, Cell, 2012 (alleen abstract gratis)

De inverter. Hiermee keerden de onderzoekers de warmtestroom om. Bron: onderzoekers

Rekenen met warmte

Warmte is in moderne elektronica gevreesd en ongewenst. Nu processoren en geheugens steeds kleiner worden, wordt afvalwarmte een steeds groter problem. Maar wat als de warmte juist wordt gebruikt om me te rekenen? Een aantal onderzoekers hebben nu aangetoond dat het kan. Dit opent de deur naar thermische computers die op lichaamswarmte of andere bronnen van afvalwarmte werken.

Warmtestromen
Warmte stroomt van heet naar koud. Dat betekent dat er zich voortdurend warmtestromen voordoen. Waar elektriciteit uit elektronen bestaaat, bestaat warmte uit elementaire trillingen die een soort pseudodeeltjes vormen: fononen. Een metalen staaf gedraagt zich dan bijvoorbeeld als warmtegeleider (stoffen die goed elektriciteit geleiden zijn vaak ook goede warmtegeleiders). Dit stroomgedrag is precies voorspelbaar en met voorspelbare, manipuleerbare processen kan je rekenen. Dus in principe is het ook mogelijk om met warmte te rekenen.

De inverter. Hiermee keerden de onderzoekers de warmtestroom om. Bron: onderzoekers
De inverter. Hiermee keerden de onderzoekers de warmtestroom om. Bron: onderzoekers

Metamaterialen
Wat de mogelijkheden nog vergroot, is dat materialen warmte op heel verschillende manier kunnen geleiden. Als je bijvoorbeeld laagjes warmtegeleider en warmteisolator stapelt, zal het materiaal warmte vooral richting zijkanten geleiden. Je kan ook denken aan warmtetransistoren: een schakelaar die als deze warmer wordt, een isolerende ruimte vergroot of juist laat verdwijnen. Vergeleken met elektronica zullen dit behoorlijk grote en zeer langzame dingen zijn, elektriciteit beweegt met bijna de lichtsnelheid en warmte met hooguit centimeters per seconde, maar in principe kan je hier een computerachtig ding mee bouwen. Yuki Sato van Harvard, één van de auteurs, zegt dan ook dat warmtestromen in principe net zo te manipuleren zijn als elektriciteit. In zijn nieuwe onderzoek bestudeert hij metamaterialen, waarvan de thermische geleidbaarheid zeer complex is te maken.

Sato en collega Supradeep Narayana deden precies dat. Hun eenvoudigste demonstratie is een thermisch schild: een themisch onderdeel dat warmte uit een bepaald gebied uitsluit. Dit onderdeel bestaat uit een grote cilinder, zo groot als een grote batterij, die bestat uit veertig concentrische lagen natuurrubber en met boornitride gedoopte siliconenrubber. Het tweetal experimenteerde met het onderdeel in warmtegeleidende gel, waarin een temperatuursgradiënt aanwezig was. Zonder dit hitteschild zou de warmte van heet naar koud gestroomd zijn.  Ook bouwden ze een concentrator, die de warmtestroom opzoog. De meest interessante toepassing was de inverter, waarbij de richting van de warmtestroom tot 180 graden om werd gedraaid.

Rekenen met warmte
Van dit begin verdergaan tot een schakeling die ook echt berekeningen kan uitvoeren is een grote stap. Maar niet een onmogelijke stap, aldus Sato. Er bestaan al materialen waarvan de warmtegeleidbaarheid afhangt van de temperatuur. Als dergelijke materialen in de inverter worden gebruikt, dan zou de warmtestroom alleen worden doorgelaten als de omgeving warm genoeg is. De basis voor thermische computers, aldus Sato. Een thermische computer is Turing-compleet en zou dus voor dezelfde dingen kunnen worden gebruikt als een elektrische computer (al zal deze veel langzamer zijn). Eén voordeel vaan een thermische computer is dat deze rechtstreeks afvalwarmte benut om mee te rekenen en zo energie zou kunnen besparen.

Warmtecomputer robuust, maar erg log en langzaam
Dit voordeel  is echter uiterst beperkt: warmtestromen zijn het gevolg van een entropisch proces, de fononen bewegen in tegenstelling tot elektronen kriskras door elkaar, dus veel langzamer en logger dan elektrische stromen (die door een spanningsverschil worden opgewekt), al werken vaste-stof fysici al met fononen en oppervlakte-plasmonen (trillingen in elektronenplasma) op nanoschaal. Deze bewegen soms met zeer hoge snelheden. We hebben ook de voordelen van tientallen jaren elektrische productontwikkeling nog niet. In principe kan een zuinige elektrische schakeling gecombineerd met bijvoorbeeld een thermokoppel die het warmteverschil aftapt en in stroom omzet, de prestaties van de thermische computer, ook wat betreft energieverbruik, daarom verre overtreffen. Er zijn twee toepassingsgebieden waar thermische computers toch interessant kunnen zijn. Ten eerste daar waar sterke elektrische stoorvelden aanwezig zijn die elektronische schakelingen door laten branden en ten tweede waar grote hoeveelheden ioniserende straling aanwezig zijn. Met andere woorden: ruimtevaart, kerncentrales en backupsystemen na een EMP-aanval. Ook kunnen thermische computers interessant zijn voor sensoren.

Wel moeten er nogal wat praktische hordes genomen worden. Anders dan elektriciteit, die door geleiding, inductie (via een magnetisch veld) en door vacuüm bwegende elektronen kan worden overgedragen, kan warmte door drie processen worden overgedragen: geleiding, stroming en straling. Het zal nog de nodige kunstgrepen vergen om uit te sluiten dat er ongewenst warmtetransport plaatsvindt.

Bron
Supradeep Narayana en Yuki Sato, heat flux manipulation with engineered thermal materials, Phy. Rev. Ltrs, 2012 (in press)