Serverutgiftene til ChatGPT kan være så høye som 7,4 millioner kroner per dag, ifølge Business Insider.
Den kunstige intelligensen som tjenesten benytter, krever svært dyre servere, og kostnadsanslaget er bare i beste fall, ifølge Dylan Patel, sjefsanalytiker ved SemiAnalysis.
Overslaget på 7,4 millioner kroner er nemlig basert på GPT-3, mens ChatGPT nå bruker den nyere GPT-4, som krever enda mer datakraft – og dermed også er dyrere.
Og det er driftskostnadene fra dag til dag. Man har allerede investert store beløp i AI-ens opplæringsfase.
Microsoft vil lage egen brikke
Ifølge Business Insider føler også Microsoft kostnadene på kroppen og forsøker å finne billigere løsninger.
Microsoft har vært tungt inne i OpenAI siden 2019, og de har i ettertid utvidet sitt engasjement i organisasjonen i både verdi og med hensyn til tidsperspektiv.
Microsoft skal siden 2019 ha jobbet med å utvikle sin egen brikke for AI-formål, som et alternativ til tilsvarende brikker som flere andre allerede leverer. Microsofts ledelse skal ha vært bekymret over at de kunne sakke akterut i forhold til Google, Amazon og Nvidia, som alle har sine egne brikker av typen.
Og de er ikke akkurat billige, heller.
Én enkelt Nvidia A100 AI-brikke av ypperste sort kan koste godt over 100.000 norske kroner per stykk, og et velutstyrt datasenter kan ha tusenvis av dem – i tillegg til alt annet som kreves av infrastruktur, skriver CNBC.
Microsofts egen brikke skal ha fått kodenavnet Athena, og den skal allerede være til testing hos utvalgte medarbeidere hos Microsoft og Open AI, ifølge The Information. Den kan potensielt være klar for internt bruk allerede i 2024, og etter sigende skal det allerede være over 300 ansatte som arbeider med utviklingen av den.
Rapport: Nå skal Chat GPT bli «menneskelig»