Den raske utviklingen innen kunstig intelligens (KI) har skapt et behov for å også utvikle ny maskinvare som er tilpasset den gryende teknologien, og dette har Microsoft nå tatt konsekvensen av.
Under sitt nylig avholdte Ignite-arrangement avduket Windows-giganten to splitter nye brikker som er spesialdesignet for å møte den raskt voksende etterspørselen etter KI-baserte tjenester.
Klare for store KI-oppgaver
Microsoft har ikke tradisjon for å designe egne brikker, så med dette kaster altså selskapet seg inn i et nytt produktsegment.
De nye brikkene lanserer under Azure-paraplyen og har fått navnene Azure Maia AI Accelerator og Azure Cobalt CPU. Førstnevnte er optimalisert for KI-oppgaver og generativ kunstig intelligens, mens sistnevnte er en ARM-basert prosessor som er beregnet på å takle generelle KI-oppgaver i nettskyen.
Azure Maia-prosessoren er ifølge Microsoft spesifikt designet for å oppnå en «absolutt maksimal» utnyttelse av maskinvaren til KI-behov, mens Cobalt-brikken er laget for maksimal energieffektivitet.
Brikkene skal rulles ut tidlig neste år til Microsofts datasentre, og er i første omgang ment å drive blant annet Microsofts Copilot- og Azure OpenAI-tjenester, ifølge selskapet selv. Tanken er å bidra til å dekke det Microsoft kaller den «eksploderende» etterspørselen etter effektiv og skalerbar maskinkraft fra kunder som ønsker å ta del i de seneste KI-gjennombruddene.
Laget i samarbeid med OpenAI
Etterspørselen etter tjenester som ChatGPT, som Microsoft har investert tungt i, er som kjent meget stor og voksende, så det er ikke spesielt overraskende at dette er et nytt satsingsområde for selskapet. Det har for øvrig også versert rykter om at ChatGPT-skaperen OpenAI jobber med å utvikle egne brikker til tjenestene sine (krever abonnement).
Ikke uventet er Microsofts nye brikker utviklet i samarbeid med nettopp OpenAI.
– Siden vi først inngikk partnerskap med Microsoft har vi samarbeidet om å designe Azures KI-infrastruktur på alle nivåene for våre modeller, og for å møte et treningsbehov uten sidestykke. [...] Azures ende-til-ende-KI-infrastruktur, som nå er optimalisert ned til silisiumet med Maia, baner vei for å trene mer kapable modeller og gjør de modellene billigere for våre kunder, sa daværende OpenAI-sjef Sam Altman, som for øvrig nylig ble sparket fra selskapet.
Han la til at OpenAI har jobbet med Microsoft om å teste og raffinere brikkene med selskapets nå godt kjente språkmodeller, og har gitt fortløpende tilbakemeldinger.
Denne KI-prosessoren skal kunne generere tilsvarende hele Wikipedia på bare 18 timer