I kronikken «KI kan svekke likestillingskampen» publisert 15. mars peker digitaliseringsminister Karianne Tung og forskningsminister Sigrun Aasland på hvordan kunstig intelligens kan forsterke kjønnsstereotypier. Da de testet Chat GPT, ba de om et bilde av en toppleder – og fikk en mann i dress. KI risikerer å sementere gamle skjevheter, og ministrene foreslår utdanningsreformer, nye kjøreregler og strengere krav til utviklere. Dette er viktige tiltak for fremtiden – men hva gjør vi i mellomtiden?



%25201%2520(2)%2520(1).png)
Utfordringen ministrene peker på er ikke ny. For 10 år siden dokumenterte forskere fra Universitetet i Washington hvordan Googles søkemotor systematisk vise skjeve resultater på tvers av yrkesgrupper. For eksempel returnerte søk på «toppleder» menn i hele 89 prosent av tilfellene.
Absurde bilder
Til tross for Googles gjentatte forsøk på å løse problemet, får vi fortsatt flest bilder av menn når vi søker på toppleder. Senest i 2024 så vi hvor komplisert dette er da Google forsøkte å korrigere for skjevheter i KI-bildegenerering.
Resultatet ble absurde bilder: Nazi-soldater fremstilt som mørkhudede mennesker og paven som asiatisk kvinne. Dette utløste kraftige reaksjoner og anklager om politisering av teknologi. Så selv med verdens beste ingeniører, forblir dette en utfordring uten raske løsninger.
Mens vi venter på utdanningsreformene, trenger vi praktiske strategier som fungerer der sannsynligheten er høyest for at KI gjør skade, som rekruttering og kredittvurdering.
Selv om EUs nye KI-forordning regulerer disse områdene, er det avgjørende at norske virksomheter forstår risikoen og bruker KI varsomt. Samtidig må forbrukere lære «digitalt selvforsvar» for å identifisere skjeve KI-beslutninger om jobb, lån og forsikring. Den som forstår slike skjevheter, er bedre rustet til å protestere på en urettferdig ansettelse eller lånetilsagn utført av KI.
Tre enkle tips
Vi har tre enkle tips alle kan bruke:
- Lær deg å skrive «strategiske» KI-instrukser som hjelper deg å forstå og motvirke skjevheter. Hvis du ber KI-en om karriereråd, prøv først uten å nevne kjønn. Sammenlign så med hva som skjer når du spesifiserer at du er kvinne, fortsett med alder og deretter etnisitet. Slik avdekker du algoritmisk skjevheter i KIen, samt måter å omgå det.
- Bruk flere KI-er. Ulike KI chatbots er trent på liknende data, men innebygde sikkerhetsmekanismer som skal forebygge skjevheter, varierer. Stol derfor ikke på svaret fra én enkelt KI. Sammenlign svarene fra flere ulike for å få et mer balansert perspektiv.
- Ta ansvar for egen læring og bruk KI så mye du kan. Jo mer du øver på å benytte KI, jo bedre blir du til å finne ut hvordan den kan hjelpe deg og hvor den har svakheter. Dette er spesielt viktig for kvinner som ifølge flere studier ligger etter menn i KI-bruk. En helt reell trussel mot likestillingsarbeidet er at kvinner som gruppe blir hengende etter menn i KI-bruk, og får systematiske karrieremessige ulemper som resultat.
Dette er teknikker enhver kan lære og bruke umiddelbart – uten å vente på store systemendringer. Tung og Aasland løfter frem en viktig debatt om KI og likestilling. Men for å unngå at KI svekker likestilling, mener vi langsiktige utdanningstiltak bør kombineres med mer kortsiktig praktisk opplæring i KI-bruk for virksomheter og forbrukere. Begge deler er avgjørende for en teknologiutvikling som fremmer, snarere enn hemmer et likestilt samfunn.

Deler du bedriftens data med alle?