Kunstig intelligens (KI) har tatt verden med storm. Det er mange utfordringer, men det er også stort potensial for effektivisering innen mange bransjer. Den siste tiden har det vært debatt om hvordan KI kan bidra til å forsterke fordommer og diskriminering ved at «sykepleier» blir assosiert med kvinner og «professor» blir assosiert med menn.
Fire personer som jobber med ulike sider av kunstig intelligens deler sine synspunkter:
– Bekymringsfullt
– Fraværet av kvinner i denne bransjen er påfallende og bekymringsfullt, sier professor Ingrid Glad.
Hun forsker på KI og mener det er utfordringer knyttet til at få kvinner er med på å utvikle algoritmene.
– Det er viktig at kvinner ikke er bare er med i beslutninger om, og bruken av, KI, men også at de bidrar til det som er inne i algoritmene, forklarer hun.
Hun forteller at KI vil påvirke svært mange aspekter ved livet vårt fremover.
– Det er viktig for utviklingen av KI at hele befolkningen er med, ikke bare halve. Utviklingen innebærer at vi må ta stilling til mange etiske spørsmål. Jeg tror dette er noe kvinner er både engasjert i og interessert i å delta i, mener Glad. Kvinner kan ha andre innfallsvinkler, andre behov og kanskje andre verdier og talenter, påpeker hun.
Glad er optimist med tanke på fremtiden, til tross for at det er anslått at det på verdensbasis kun er 7 prosent av programmererne som er kvinner, en endring fra den første tiden, da dette var ansett som kvinnearbeid. Glad forteller at 80 prosent av artiklene som handler om forskning på KI, kun har mannlige forfattere. Likevel håper hun flere kvinner vil engasjere seg i KI fremover.
Håper på en Inga-effekt
Klas Pettersen, som er leder for NORA (Norwegian Artificial Intelligence Research Consortium), deler Glads tanker og legger til:
– Dersom kunstig intelligens blir for mannsdominert, påvirker det arbeidsmiljøet. Da kan vi gå glipp av mange talenter.
– Da blir det også vanskelig å rekruttere kvinner. Heldigvis har vi noen gode rollemodeller, slik som Ingrid Glad og Inga Strümke. Vi håper å se en Inga-effekt på rekruttering til KI-feltet, sier Pettersen og viser til at fysiker Inga Strümke har utmerket seg som formidler om KI.
Brogramming
– Det er et problem i tekbransjen at den er dominert av menn. I miljøet kalles dette – dels humoristisk og dels kritisk – for brogramming. Altså programvareutvikling sterkt preget av stereotype maskuline normer. Store språkmodeller, som Gemini fra Google og Chat GPT fra Open AI, baserer seg på data hentet fra internett, slik som nettleksikonet Wikipedia. Dette innholdet er stort sett laget, og skrevet, av hvite menn. Det er anslått at kun 10 prosent av innholdet på Wikipedia er skrevet av kvinner. Og, dersom det er skjevheter i inndata, vil du få skjevheter i utdata, sier Petter Bae Brandtzæg, professor i medieinnovasjon ved Universitetet i Oslo.
For å illustrere poenget forteller han om en chatbot utviklet av Microsoft i 2016. Den skulle læres opp med data fra Twitter. Tanken var å lage en chatbot som jenter kunne snakke med. I løpet av 16 timer med trening på Twitter ble den en kvinnehater som sa «I hate feminists».
– Dette ble hetende Tays lov: Shit in og shit out, som det heter, sier Brandtzæg.
Antikvariske data
Brandtzæg mener det er en utfordring for språkmodellene at de ikke alltid tar opp i seg at samfunnet endrer seg. Språkmodellene er i stor grad trent opp på historiske data. Da vil disse KI-modellene også i liten grad ta opp i seg nye samfunnsbevegelser, som metoo eller blacklivesmatter. Et annet eksempel er at tittelen «helsesykepleier» historisk har vært en kvinnerolle og at språkmodeller ikke nødvendigvis kobler at «sykepleier» er kjønnsnøytralt.
– Det man jobber med nå, er finjustering av modellene, sånn at de ikke har slike skjevheter. Vi er langt fra fri for skjevhetene ennå, men jeg tror vi kan komme dit. Det skjer mye positivt i modellene, og så skal vi huske at også mennesker og samfunnet har kjønnsstereotypier. I fremtiden kan kanskje algoritmene bli mer balanserte enn oss mennesker, sier Brandtzæg.
Klas Pettersen forteller at det nylig har gått motsatt vei: Googles bildegenerator ble beskyldt for å gå for langt i den andre retningen:
– Algoritmene vil i utgangspunktet generere et bilde av en lege som en mannlig lege hvis vi ikke gjør noe med det. Så forsøker man å rette opp i skjevheten ved å påtvinge algoritmen å vise bilder av kvinner og forskjellige etnisiteter. Det kan få litt absurde konsekvenser, sier Pettersen.
Kan KI bli for «woke»?
Da Google hadde lagt til inkludering, ga bildegeneratoren blant annet mørkhudede, kvinnelige paver.
– Det viser urealistiske historiske begivenheter og det gjør at algoritmene blir dårlige. Dette skjer fordi datagrunnlaget er skjevt og også fordi vi har en lang historie med å være et diskriminerende samfunn, sier Pettersen.
Likevel er han optimistisk med tanke på den kunstige intelligensen:
– Datagrunnlaget viser en historisk skjevhet eller diskriminering, men diskriminering kan også ligge i underbevisstheten til en offentlig saksbehandler. Det er lettere å gjøre noe med diskriminering i KI enn i hodet til en saksbehandler.
Diskrimineringen vi ser i KI, er det som har vært. Et annet spørsmål er hvordan samfunnet skal bli. KI kan bidra til å avdekke denne diskrimineringen, sier han.
Ulike språkmodeller for ulike politiske holdninger
Brandtzæg forklarer at dette er en pågående debatt, særlig på plattformen X og i USA. Hva KI-modellen representerer, er blitt en kamp om både politikk og ytringsfrihet.
– Mange mener Chat GPT ikke er nøytral, men venstrevridd og woke og at normene presenterer venstre-liberale verdier i amerikansk politikk, forklarer han.
Ifølge ham har gründeren Elon Musk derfor satset på å lage en språkmodell som skal være mer høyreorientert.
Brandtzæg har blant annet vært kritisk til at Chat GPT er tatt inn i skolene i Oslo:
– Barn må ha lese og skriveferdigheten på plass før de kan håndtere slike mektige KI-verktøy. Chat GPT er knapt ett år gammelt. Vi vet ikke alt om fordeler og ulemper, og det er mange fallgruver. Det er en stor ulempe at vi lener oss på kommersielle aktører i USA, uten å ha kontroll på hva slags data som er i modellene. Det er dessuten store etiske utfordringer knyttet til opphavsrett og feilinformasjon og et normsett i dataene og algoritmene som verken gjenspeiler norsk kultur eller normer, sier han.
Trygghet i samtaleroboter
På ett område kan samtaleroboter som Chat GPT ha en fordel fremfor mennesker, forteller Brandtzæg: De kan oppleves tryggere i situasjoner hvor man trenger hjelp knyttet til mental helse. Han forteller at studier viser at Chat GPT ofte er flinkere enn mennesker til å tolke emosjoner – og derfor kan gi mer balanserte råd. Forskning viser at at unge opplever seg mer sett og hørt av Chat GPT enn av fageksperter.
– Samtaleroboter innenfor mental helse kan av mange oppleves tryggere å snakke med enn et menneske, fordi de ikke har fordommer knyttet til om du har langt hår eller skinnjakke, eller sliter med ting du skammer deg over, sier Brandtzæg.
Skjevheter rammer skjevt
Samtaleroboter som «hater feminister», eller bildegeneratorer som kun gir deg kvinnelige sykepleiere, er ikke det største problemet med kunstig intelligens.
– Feil bruk av kunstig intelligens i offentlig sektor kan få store skadevirkninger. Det rammer ofte dem som allerede er utsatt, sier Margunn Aanestad, professor i digital innovasjon på Universitetet i Oslo.
Hun har flere eksempler på at kunstig intelligens har fått negative samfunnskonsekvenser.
– I Nederland ble KI tatt i bruk for å oppdage svindel med velferdsordninger. De ville flagge risikokandidater for trygdesvindel. En kombinasjon av design og hvilke parametre som ble lagt inn, slik som etnisitet, gjorde at 25.000–30.000 mennesker ble feilaktig merket som trygdemisbrukere, forteller Aanestad.
Hun forteller at det finnes mye forskning på hvordan kunstig intelligens tas i bruk. Selv har hun et prosjekt hvor hun følger Helfos prosess med å ta i bruk KI.
Forsiktighet
– Offentlig sektor bør være forsiktig, men ikke altfor forsiktig, heller. Man må finne de områdene der det er potensial for å gjøre ting mer effektivt enn man gjør i dag, forklarer hun. – Jeg har vært imponert over Helfo med tanke på at det er en grundig prosess for å se på det juridiske handlingsrommet de har og kritisk vurdere hva de egentlig får ut av modellene.
Artikkelen ble først publisert på Titan.uio.no