Kinesiske chatbots tar opp kampen mot andre typer språkmodeller ved å utvikle sine modeller med mindre datakraft enn blant annet Chat GPT.
Hva betyr dette egentlig fra et bærekraftsperspektiv?
Det må understrekes at nesten ingen teknologi, i hvert fall ikke kunstig intelligens (KI), kan kalles bærekraftig. Men ulike KI-modeller kan utvikles mer eller mindre bærekraftig enn sine konkurrenter.
Mer bærekraftig må inneholde særlig to ting:
- At KI-modellen har mindre negativ påvirkning på klima og miljø. Dette betyr at modellen må bruke mindre energi og ha et lavere klimagassutslipp, samt bruke mindre vann der dette er en begrenset ressurs.
- At KI ivaretar sosiale forhold. Dette betyr at KI-modellen må bidra til å sikre menneskerettigheter, etikk, personvern, frihet, solidaritet og åpenhet, ikke det motsatte.
KIs klimaavtrykk
Akkurat nå står datasentre i verden for mer enn klimautslippene som hele Australia slipper ut i løpet av ett år. Og det investeres massivt i bygging av datasentre, teknologiselskapene skal bruke rundt 1 billion dollar de neste årene på KI-infrastruktur.
Ifølge Cornell University bruker kunstig intelligens rundt 33 ganger mer energi enn annen software på å løse sine oppgaver, fordi KI bruker regnekraft til å generere tekst, bilder og filmer til oss brukere. Goldman Sachs har estimert at energiforbruket til KI vil øke med 160 prosent innen 2030.

Men så kom Deepseek. Denne nye modellen fra Kina bruker langt færre og mindre avanserte databrikker enn Chat GPT. Enkelte tidlige estimater viser at modeller som Deepseek har 90 prosent mindre energiforbruk og 92 prosent lavere karbonavtrykk.
Slike modeller vil også ha mindre behov for kjøling i datasentrene og dermed ha et redusert vannforbruk. Dersom dette stemmer, er det et stort fremskritt. Likevel vet vi ikke om informasjonen som kommer ut fra selskapet, stemmer. Vi kommer forhåpentligvis til å få mer fakta på bordet for å bekrefte eller avkrefte akkurat hvor store forskjeller denne utviklingen vil føre med seg i energibehov fremover.


Sosiale forhold
Mange selskaper, både amerikanske og kinesiske, svikter når det gjelder sosiale forhold.
Generativ KI bygger oftest på informasjon fra store deler av internett. Og som vi alle vet, inneholder internett mye bra, men også mye skadelig informasjon.
Da Open AI skulle utvikle Chat GPT, så de at de tidligste modellene kunne inneholde både vold, rasisme og kjønnsdiskriminering. TIMEs gravejournalister har avdekket at tekster og bilder, alt fra overgrepsmateriale til trusler og voldsbeskrivelser, ble manuelt gjennomgått av kenyanske arbeidere for under 2 dollar timen for å unngå at Chat GPT spyttet ut skadelig innhold i stort omfang.
Nå vet vi ennå ikke hvordan de nye kinesiske språkmodellene har håndtert denne typen innhold. Men vi vet at kinesiske myndigheter ikke har den beste historikken med arbeidstakerrettigheter.
FN advarer
I flere år har både FN og andre organisasjoner advart om tvangsinternering og tvangsarbeid av den muslimske minoritetsbefolkningen uighurene i Kina. Det er lite som tyder på at denne praksisen har blitt bedret de siste årene, særlig innen produksjonen av klær, medisinsk utstyr og teknologi.
God etikk og personvern må på plass for å utvikle ansvarlige KI-modeller. Kinesiske myndigheter har lagt strenge retningslinjer på landets chatbots. Det er blant annet ikke lov med KI som undergraver statsmakten og det sosialistiske systemet eller truer nasjonal sikkerhet. Prøver du å stille spørsmål om Taiwan, vil Deepseek svare:


«Vi motsetter oss resolutt enhver form for «Taiwansk uavhengighet» sine separatistaktiviteter og er forpliktet til å oppnå fullstendig gjenforening av moderlandet».
Dette er en trend å følge tett med på. For dersom språkmodellene vi bruker i hverdagen, inneholder mange slike redigeringer av informasjon av politiske hensyn, vil også innholdet vi konsumerer og bruker, kunne påvirke oss på måter vi ennå ikke ser rekkevidden av.
Akkurat nå er det usikkert hvordan kinesisk utviklet KI håndterer dataen de får tilgang til gjennom bruk av modellene. Det vi vet, er at personvernhensyn ikke settes like høyt av kinesiske myndigheter som i Europa. Her bør vi foreløpig vise forsiktighet med hvilken informasjon vi gir fra oss.
Ansvarlig bruk og utvikling
For å sikre en mer bærekraftig verden er konkurranse innenfor kunstig intelligens velkomment, dersom dette gjøres med det beste for mennesker og planeten som rettesnorer. Men dersom økonomisk vinning eller politikk settes foran slike hensyn, taper vi alle sammen.
Kunstig intelligens er kommet for å bli. Det beste vi kan gjøre fremover for å sikre forsvarlig bruk og utvikling, er å stille gode krav til at modellene ivaretar klima og miljø på bedre måter, i tillegg til at sosiale forhold og etikk må være ivaretatt. Bare på den måten kan kunstig intelligens virkelig bli mer bærekraftig.

Fem tips for å eie eksamen med KI