Innen vitenskap og teknologi har fortiden ofte vært preget av at banebrytende oppdagelser kommer sammen med etiske overtramp. Studiene i Oslo og Tuskegee om ubehandlet syfilis i Norge og USA er sterke påminnelser om de ødeleggende konsekvensene som oppstår når etikk settes til side for fremskritt. I disse studiene forble pasienter ubehandlet, ikke på grunn av mangel på medisinske løsninger, men i en uetisk jakt på kunnskap som ignorerte grunnleggende menneskerettigheter.
Når vi nå utforsker og etablerer bruk av kunstig intelligens (KI) i store deler av samfunnet, er det avgjørende å lære av disse historiske feiltrinnene for å sikre en fremtid hvor teknologi brukes ansvarlig.
Hvordan utvikle etisk KI?
KI er allerede integrert i nesten alle aspekter av livet vårt, fra smarttelefonene våre til arbeidsplassene. KI-verktøy kan hjelpe oss å utføre mange oppgaver mer effektivt og med høyere kvalitet. KI har også blitt en sentral drivkraft i forskning og innovasjon. Dette reiser et viktig spørsmål: Hvordan kan vi sørge for at KI-utviklingen er etisk og gagner hele samfunnet?
Rapport om KI i staten: – Samordningen er mangelfull
Skyggesiden av KI: eksempler på uetisk bruk
I noen deler av verden har teknologi for ansiktsgjenkjenning blitt brukt til overvåking og profilering av bestemte etniske grupper, noe som fører til grove menneskerettighetsbrudd. Rekrutteringsverktøy som bruker KI har forsterket kjønns- og rasefordommer. Vi har sett tilfeller der KI-selskaper utnytter lavinntektsland for å skaffe store mengder treningsdata uten skikkelig samtykke eller kompensasjon. Det har også vært kontroversielle tilfeller der midler til KI-forskning har blitt kanalisert til prosjekter med tvilsomme etiske hensikter, som utvikling av autonome våpen, uten tilstrekkelige sikkerhetstiltak.
En annen utfordring med KI er at mesteparten av utviklingen og forskningen drives av store kommersielle selskaper. Deres førsteprioritet vil alltid være å skape forretningsmuligheter og hensyn som etikk og ansvarlighet kommer på andreplass. For eksempel oppløste Meta sitt team for ansvarlig innovasjon i september 2022. Det hadde som oppgave å identifisere potensielle skader forårsaket av selskapets produkter.
Nylige hendelser hos OpenAI fremhever risikoen ved at store teknologiselskaper kontrollerer KI-forskning og utvikling uten tilstrekkelig etisk tilsyn. Plutselige endringer i lederskap, uklare motiver og potensielle interessekonflikter mellom OpenAI, dets investorer og store eiere som Microsoft, vekker bekymring. Et siste eksempel er Googles nyeste modell Gemini, som har fått mye oppmerksomhet i mediene. Selv om dette ser imponerende ut, er Google kjent for å være gode til å lage imponerende reklamevideoer. Det de ikke er så gode til, er hvordan de behandler sine etikkforskere, spesielt da det ble påpekt mulige etiske problemer innenfor KI-produktene deres (vi viser til avskjedigelsen av Timnit Gebru etter en forskningsartikkel hun skrev som diskuterte negative aspekter ved en av Googles språkmodeller.)
Norge og Norden kan ta en viktig rolle
Vi kan ikke forvente at disse store selskapene tar hensyn til etikk eller data, mens de befinner seg i en veldig rasktgående konkurranse om det nye store KI-markedet. Når forskningsprioriteter er drevet av kommersielle interesser i stedet for samfunnets interesser, kan det føre til etisk tvilsomme utfall.
Disse eksemplene illustrerer behovet for mer åpen og etisk styring av KI. Uavhengig tilsyn og regulering av kommersiell KI er nødvendig for å sikre at teknologien er i tråd med menneskelige verdier og forhindre misbruk.
Innføringen av GDPR er et godt eksempel på et regelverk som i all hovedsak har lykkes. Datatilsynets sak mot Meta har vist at med et sterkt felleseuropeisk regelverk i ryggen, nytter det å stå opp mot teknologigigantene. På EU-nivå jobber man nå med AI Act, men innføring av nytt lovverk tar tid. Det er behov for å ta grep tidligere, og her mener vi Norge og Norden kan ta en viktig rolle.
Norsk prisvinnende KI-kortfilm hetses på nett
Norge: Et fyrtårn for etisk innovasjon
Norge, med sin demokratiske samfunnsstruktur, etiske prinsipper og inkluderende politikk, er godt posisjonert for å lede utviklingen av KI-løsninger som er både vitenskapelig nyskapende og etisk rettet. Den skandinaviske modellen, med vekt på moral, demokratiske verdier og inkludering, fungerer som en solid ramme for global KI-utvikling som er rettferdig, innovativ og gunstig for menneskeheten.
Vi står ved et veiskille i bruken og utviklingen av KI. Norge har et potensial til å lede verden i utviklingen av teknologier som er innovative og etiske. Ved å fremme et forskningsmiljø som prioriterer moralsk ansvar, vitenskapelig innovasjon og samfunnsbehov, kan Norge akselerere utviklingen av KI-teknologier som er rettferdige, ansvarlige og universelt fordelaktige.
For å sikre kontinuerlig fremgang av etisk rettet og vitenskapelig ny KI, foreslår vi følgende tiltak:
- Øke kunnskapen i samfunnet gjennom å innføre opplæring i ansvarlig bruk av KI i alle utdanninger.
- Etablere veiledning i å utvikle KI-programmer som tar rettferdige beslutninger.
- Utarbeide retningslinjer for transparens og åpenhet i KI-systemer.
- Ikke vente på innføringen av AI Act, men allerede nå etablere et veilednings- og tilsynsorgan for KI i Norge.
- Prioritere grunnforskning på KI som sikrer at vi forstår teknologien og besitter kompetansen i Norge som er nødvendig for å utvikle etisk og ansvarlig KI.
- Prioritere tverrfaglig samarbeid i utviklingen av KI, slik at vi bedre kan forstå alle nødvendige perspektiver.
- Etablere et felles-nordisk samarbeid om utviklingen av etisk og ansvarlig KI. Norge er et lite land, men til sammen bor det 27 millioner mennesker i Norden.
OpenAI o1: Imponerende, men ikke banebrytende