Forskere ved MIT presenterte i forrige uke en ny databrikke som er spesielt designet for implementere nevrale nettverk. Dette skal den kunne gjøre med ti ganger høyere ytelse enn grafikkprosessorene som finnes i dagens smartmobiler.
Brikken vil kunne gjøre det mulig for de mobile enhetene å utføre kunstig intelligens-algoritmer lokalt i enheten, i stedet for å være avhengige av å sende data via internett for at de skal prosesseres store serveranlegg eller nettskyer.
Flere fordeler
Vivienne Sze, førsteamanuensis ved MITs Department of Electrical Engineering and Computer Science, hvor brikken har blitt utviklet, sier i en pressemelding, nevner flere fordeler med å kunne gjøre prosesseringen lokalt på enheten.
For det første fungerer prosesseringen også når enheten ikke har nettilgang. Lokal prosessering kan dessuten være ønskelig av personvernårsaker. Dessuten unngår man forsinkelsen som forårsakes at dataene må overføres via internett.
Den nye brikken kalles for Eyeriss, har 168 kjerner, omtrent like mange som mange grafikkprosessorer. Men den er bygget opp slik at hver kjerne har sin egen minnebank, noe som gjør at den sjeldnere må utveksle data med mer fjerntliggende minneområder. Med dette sparer man både tid og energi, skriver MIT. I tillegg har brikken en krets som komprimerer dataene før de sendes til den enkelte kjerne.
Direkte kommunikasjon
Hver kjerne kan kommunisere direkte med de nærliggende nabokjernene, slik at de blant annet kan dele data uten at dette dataene først må flyttes ut i et felles minne.
– Dette er essensielt i et konvolusjonsbasert, nevralt nettverk, hvor mange noder prosesserer de samme dataene, skriver MIT.
I det lokale minnet til kjernene lagres ikke bare dataene som manipuleres av nettverksnodene som kjernene simulerer, men også dataene som beskriver selve nodene.
Oppgavefordeling
Brikkene har også en spesialkrets som allokerer oppgaver på tvers av kjernene. Denne kan konfigureres om for å støtte ulike typer nettverk og sørge for at begge de typene av data som lagres i kjernenes lokalminne, distribueres automatisk på en slik måte at hver kjerne kan gjøre så mye arbeid som mulig før de må hente mer data fra hovedminnet.
Brikken ble presentert under International Solid State Circuits Conference i San Francisco i forrige uke. Der ble den brukt til å implementere et nevralt nettverk som utfører en bildegjenkjenningsoppgaver. Ifølge MIT, skal dette være første gang at et «state of the art» nevralt nettverk har blitt demonstrert i en spesiallagd brikke.
Ikke alene
Forskningsgruppen hos MIT er dog ikke den eneste som jobber med ideen om å bygge støtte for kunstig intelligens direkte inn i mobile enheter.
Nylig kunngjorde selskapet Movidius at det har inngått et samarbeid med Google om et utviklingssamarbeid knyttet til Movidius' VPU-er (Vision Processing Unit), som også skal kunne utføre nevrale nettverksberegninger innenfor en kompakt og energieffektiv brikke, uten å være avhengig av regnekraften i et datasenter i tillegg.
Movidius har allerede begynt å tilby noen slike prosessorbrikker kommersielt.