Nesten alle datamaskiner som har blitt skapt de siste 70 årene eller så, er basert på en modell eller arkitektur som ble beskrevet av matematikeren og fysikeren John von Neumann i 1945. Den kalles for von Neumann-arkitekturen og består, litt enkelt forklart, av en prosesseringsenhet, en separat minneenhet for både instruksjoner og data, samt enheter for inn- og utdata.
– Når vi ser på datamaskinarkitekturer i dag, bruker de den samme von Neumann-arkitekturen som ble oppfunnet på 1940-tallet. CPU-er og GPU-er har blitt parallell, men hver kjerne er fortsatt en von Neumann-prosessor, forteller Trung Tran ved DARPAs Microsystems Technology Office (MTO), i et intervju med EE Times.
DARPA er det amerikanske forsvarsdepartementets byrå for avanserte forskningsprosjekter.
Flaskehals
Noe av problemet med von Neumann-arkitekturen er den begrensede overføringshastigheten mellom prosessoren og systemminnet. For å redusere denne flaskehalsen noe, er alle moderne prosessorer utstyrt eget cacheminne. Men disse har begrenset størrelse.
Big data, eller stordata, er allerede et begrep. Mange ønsker å behandle enorme datamengder fra for eksempel sensorer og måleapparater, for å kunne finne ny innsikt og raskere å forutse hendelser, enten det dreier seg om for eksempel klimautvikling, spredning av sykdommer, økonomiske trender eller trusler av ulike slag.
Les også: IBM viser prototyp på ny type prosessor
HIVE
– Dagens maskinvare er dårlig egnet til å håndtere slike datautfordringer, og disse utfordringene kommer bare til å bli vanskeligere ettersom mengden av data fortsetter å vokse eksponentielt, sier Tran i en pressemelding.
MTO, altså avdelingen der Tran er ansatt, avduket i fjor sommer et nytt forskningsprogram, hvor deltakerne skal utvikle en ny og kraftig plattform for databehandling som er spesialisert for å analysere og tolke enorme datamengder som uovertruffen hendighet. Programmet kalles for Hierarchical Identify Verify Exploit (HIVE).
Det er nå klar at fem ulike aktører skal delta i prosjektet. Det er Intel, Qualcomm-datterselskapet Qualcomm Intelligent Solutions, Pacific Northwest National Laboratory, Georgia Tech og Northrop Grumman.
– Det vil være et privilegium å jobbe sammen med dette innovative teamet for å utvikle en ny kategori serverprosessorer spesielt designet for å håndtere dagens og morgendagens datamengder, sier Tran, som skal føre tilsyn med HIVE-programmet.
Graph analytics processor
Det sentrale i HIVE-programmet er å skape det som blir kalt for en «graph analytics processor» (GAP). Ved hjelp grafiske representasjoner skal den kunne finne forholdene i et nettverk mer effektivt enn tradisjonelle dataformater og prosesseringsteknikker.
Som eksempler på slike forhold blant dataelementer og -kategorier, nevner DARPA samhandlinger mellom mennesker, men også tilsynelatende uensartede lenker mellom for eksempel legebesøkstrender og geografi, eller bruken av sosiale medier og sosial uro.
Ved å kombinere dette med kommende teknikker innen maskinlæring og andre felt innen kunstig intelligens som kan kategorisere rå dataelementer, og ved oppdatere elementene i grafen etterhvert som ny data blir tilgjengelige, vil en kraftig GAP ifølge DARPA kunne skjelne mellom skjulte årsaksforhold og fortellinger blant dataelementene i grafrepresentasjonene.
Det er selvfølgelig ikke gitt at HIVE blir vellykket, men dersom prosjektet lykkes, mener DARPA at HIVE til komme med en GAP som er tusenvis av ganger mer effektiv enn de beste av dagens beste prosessorer, noe som kan åpne identifisering av strategisk viktige forhold kan identifiseres i langt større grad av sanntid enn det som er tilfellet i dag.
Mer informasjon om HIVE-planene finnes på denne siden.
Også Hewlett Packard Enterprise er i ferd med å utvikle en datamaskinarkitektur hvor man forsøker å omgå flaskehalsen i von Neumann-arkitekturen.