De siste månedene og ukene er det skrevet mye om ChatGPT og andre produkter og tjenester som via kunstig intelligens kan hjelpe oss med blant annet å skrive saker, dikt og andre tekster. Mange ser også at teknologien bak disse tjenestene vil kunne ha enorme konsekvenser for samfunnet og arbeidslivet.
Mange av våre ansatte er også ivrige etter å ta i bruk ny teknologi for å effektivisere egen arbeidshverdag og for å skape bedre offentlige tjenester, samtidig som andre kan bekymre seg for hvordan utviklingen vil påvirke dem selv og egne oppgaver.
Enkelte forskere antyder at så mye som 80 prosent av arbeidsstyrken vil oppleve at 10 prosent av arbeidsoppgavene påvirkes av slike verktøy, og rundt 19 prosent av arbeidstakere vil oppleve at 50 prosent av oppgavene påvirkes.
De fleste vil merke AI-påvirkningen
De fleste yrker vil merke denne påvirkningen – mens det så langt har vært manuelle, fysiske oppgaver som har vært mest berørt av automatisering, antydes det nå at det er særlig de høytlønnede yrkene som vil påvirkes mest.
Oppgaver som å sammenfatte store tekstmengder og trekke ut essensen, skrive komplekse resonnementer og gi konkrete råd og vurderinger er kun starten på hva disse løsningene kan utføre. Og det er allerede før de får tilgang til å kommunisere med andre systemer for å hente data og kunnskap, eller utføre handlinger som å dokumentere, bestille, oppdatere databaser eller andre oppgaver vi i dag gjør i ulike applikasjoner og fagsystemer.
Hvordan skal vi i Trondheim kommune forholde oss til dette? De potensielle bruksområdene er mange, og for å finne ut hvordan kommunen best kan utnytte teknologien trenger vi en åpen, kompetent og modig organisasjon med stort innovasjonspotensial. Samtidig er det mange fallgruver vi må unngå på veien dit.
Det er naturlig at våre ansatte er nysgjerrige på hva disse verktøyene kan gjøre for oss i arbeidshverdagen, hvilke nye muligheter de kan tilby og hvordan de kan både forbedre eksisterende arbeidsoppgaver og på sikt endre hvordan vi praktiserer offentlig forvaltning og de oppgaver kommunen står overfor.
Mange muligheter, men hvor går grensen
Mulighetene er mange, men vi er ennå i en tidlig fase, både med tanke på funksjonalitet, ytelse og pålitelighet. Hvilke konsekvenser kan bruken ha? Hvilke risikoer er forbundet med bruken, og hva med personvernet?
I det kappløpet som foregår akkurat nå, kan disse spørsmålene komme i bakgrunnen både for dem som utvikler teknologien og for oss som ser etter måter å ta den i bruk på. Skal vi ta i bruk slike løsninger på måter som berører ansatte, innbyggere i Trondheim kommune eller den kommunale tjenesteproduksjonen, er det viktig at bruken av slike verktøy gjennomføres i kontrollerte former.
Ønsket om å innovere og skape bedre tjenester, og medarbeiderdrevet innovasjon er fortsatt viktig for oss, men det er Trondheim kommune som arbeidsgiver som må være i førersetet og har ansvaret for at våre arbeidsverktøy er forsvarlige og egnet for formålet.
ChatGPT er en kunstig intelligent chatbot som du kan spørre om hva som helst, en avansert tekstgenereringsmodell. Den utgaven som er tilgjengelig for alle, er ikke en tjeneste Trondheim kommune kan inngå en databehandleravtale med. Løsningen kan derfor ikke tas i bruk i kommunal tjenesteproduksjon slik den er i dag.
Våre ansatte må gjerne teste ChatGPT og lignende verktøy på egen hånd for å lære og for å bli kjent med mulighetene teknologien tilbyr, men skal ikke bruke kommunal informasjon og data i testingen.
Digitalisering: Mer styring fra toppen er feil svar
Sikker og forsvarlig bruk
Bruken av store språkmodeller i dagens form har ennå noen åpenbare svakheter som vi må ta hensyn til før de innføres i stor skala.
Eksempler på dette er åpenbare svakheter i treningsdata (for eksempel bias som diskriminering og upassende språkbruk), uklarheter i opphav til og lovlighet av bruk av den treningsdata som modellene er laget med, håndteringen av personvernspørsmål knyttet til personopplysninger i treningsdata og ren hallusinering av fakta (hallusinering vil si at modellene finner på fakta – eksempelvis har flere akademikere blitt kontaktet om artikler de aldri har skrevet og som ikke eksisterer).
Disse utfordringene jobbes det med fra de miljøene som utvikler løsningene. Men i det kappløpet som nå foregår, hvor leverandørene kjemper om å være ledende på å inkludere kunstig intelligens i sine produkter, er det en risiko for at disse spørsmålene blir nedprioritert.
Må gjøre egne vurderinger
Som kommune må vi også gjøre egne vurderinger av hvordan teknologien vil påvirke både oss selv, våre oppgaver og samfunnet rundt oss.
Store språkmodeller vil etter hvert bli en integrert del av våre arbeidsverktøy – både Microsoft og Google jobber med å inkludere funksjoner i sine kontorstøtteverktøy. På mer spesifikke anvendelser har vi mulighet til å utvikle tjenester gjennom Microsoft Azure og våre avtaler med Microsoft.
OpenAI har inngått avtale med Microsoft om å tilgjengeliggjøre kontrollerte versjoner av OpenAIs tjenester, inkludert Chat GTP.
Disse kan konfigureres og styres sentralt og settes opp på en slik måte at personvern og databeskyttelse kan ivaretas. Med disse løsningene er det også mulig å gjøre videre tilpasninger, eksempelvis fintuning mot egne datasett og opplæring av tilpassede svar.
Ved innføring av slike løsninger er det flere viktige vurderinger som må gjøres:
- Personvernkonsekvensvurderinger – inkludert hva som behandles av personopplysninger når tjenesten tas i bruk og i de data som behandles. Kravene knyttet til «automatiserte avgjørelser» i henhold til GDPR må også vurderes.
- Risikovurderinger – inkludert sikkerhet knyttet til tilgjengeliggjøring av data for tjenestene, sikker overføring, beskyttelse av data i løsningen og ut mot sluttbruker av tjenestene.
- Vurderinger av risiko knyttet til etisk bruk av kunstig intelligens (AI) – inkludert vurderinger rundt bias i modeller, påvirkninger på ansatte og innbyggere, påliteligheten for svarene fra løsningene, miljømessig påvirkning, hvordan funksjonaliteten i AI-løsningen skal overvåkes i produksjon mv. Her eksisterer det rammeverk, slik som NIST AI Risk management framework eller tilsvarende rammeverk som bør benyttes.
Vi oppfordrer derfor til at:
- Man gjerne utforsker, samskaper og tenker gjennom hvordan man kan ta i bruk disse nye løsningene. Samtidig må man også tenke gjennom hvilke konsekvenser og mulige risikoer som kan følge med.
- Faktisk bruk av nye tjenester følger etablerte prosesser for anskaffelser, risikovurderinger og produksjonssetting.
- Aktuelle bruksområder spilles inn til IT-tjenesten, slik at vi sammen kan finne hensiktsmessige, sikre og forsvarlige former for å etablere løsningene.
Som en moderne og innovativ organisasjon ønsker Trondheim kommune å være i forkant av teknologisk utvikling og utforske hvordan nye løsninger kan forbedre våre tjenester og effektivisere vårt arbeid.
Store språkmodeller, som ChatGPT, gir oss et enormt potensial for å transformere vår måte å drive kommunal tjenesteproduksjon på. Men det er viktig å holde hodet kaldt og ta hensyn til risikoen som følger med bruk av disse løsningene.
På denne måten kan vi nå vårt felles mål om å skape bedre tjenester for våre innbyggere og effektivisere vårt arbeid på en ansvarlig måte.
Norge ligger bakpå i KI-kappløpet og må få opp farten!