KUNSTIG INTELLIGENS

Hodeløs bruk av kunstig intelligens er uetisk

– Å benytte seg av kunstig intelligens trenger ikke å være uetisk. Men det blir det om vi ikke tar noe som helst ansvar når vi er bevisst på problemet, skriver Elise Kristiansen i Aplia.

– Vi må ha en plan for hvordan vi kan være med på å gjøre KI-verktøyene mindre diskriminerende. Vi må også bevisstgjøre våre kunder og brukere på hvor fordomsfull teknologien kan være, mener Elise Kristiansen i Aplia.
– Vi må ha en plan for hvordan vi kan være med på å gjøre KI-verktøyene mindre diskriminerende. Vi må også bevisstgjøre våre kunder og brukere på hvor fordomsfull teknologien kan være, mener Elise Kristiansen i Aplia. Foto: Pressefoto
Elise Kristiansen, frontend seniorutvikler i Aplia
13. okt. 2023 - 15:59

Dette debattinnlegget gir uttrykk for skribentens meninger. Ønsker du selv å bidra i debatten, enten med et debattinnlegg eller en kronikk, les retningslinjene våre her.

Kunstig intelligens (KI) tar over mer og mer av hverdagen vår, som seg hør og bør når det kommer teknologier som skal gjøre livet vårt enklere. Det er slik vi alltid har fått fremskritt og nådd nye nivåer i levestandarder. Klesvasken trengs ikke å skrubbes i elva, og internett ble ikke en flopp.

KI-teknologi blir i dag brukt til alt fra å hjelpe folk med middagsplanlegging til programmering. Men dersom man ikke er bevisst på hva KI er og hvilke mangler det har, kan det ha store konsekvenser for fremtiden vår.

For per dags dato er dataene KI-er sitter på, ekstremt diskriminerende. KI-er blir trent på eldre data, og når den skal ta beslutninger om et sannsynlig scenario, vil den ikke bare bruke ren statistikk som grunnlag, men også gamle stereotyper.

Dersom en AI skal generere bilde av en «doktor», vil den i 93 prosent av tilfellene generere bilde av en mann, mot 7 prosent bilder av kvinner eller der kjønn er usikkert. For ingeniører var tallet 99,33 prosent menn, 0,33 prosent kvinne og 0,33 prosent ukjent. Dette avviker fra sannheten, som er 16.5 prosent, og er altså en ekstrem stereotypi (1 av 6 mot 1 av 300).

Dette problemet kommer enda tydeligere fram når KI-er skal generere bilder av for eksempel personer i fengsel. Det var en ekstremt lav andel bilder av hvite sammenlignet med andre nasjonaliteter, kun 6,3 prosent, som avviker langt fra det faktiske antallet. Og slike grove antagelser og fordommer kan få ekstremt alvorlige konsekvenser på lang sikt.

Fordommene vil bli synligere

Den teknologiske verdenen vi beveger oss i, blir i større og større grad formet av KI-teknologi. Når nettsider med tiden kommer til å bestå av KI-genererte bilder og tekster, viskes hele jobben vi har gjort for økt mangfoldsbevissthet, ut. Du kommer ikke lenger til å se kvinnelige utviklere eller melaninrike CEO-er, og de underbevisste, negative holdningene folk sitter på, kommer bare til å bli bekreftet.

Mens vi sitter og venter på at de som utvikler KI-modellene kanskje finner en løsning på problemene, kanskje ved at vi med tiden får en mer mangfoldig gruppe mennesker som utvikler disse teknologiene, har vi utviklere også et ansvar.

For ofte er det vi som sitter og hodeløst tilgjengeliggjør KI-verktøy til uvitende sluttbrukere. Og å tilgjengeliggjøre hjelpeverktøy skal vi fortsette med, for det er slik fremtiden ser ut. Men da må vi vite hva det er vi gjør.

Seks mulige farer

Vi må ha en plan for hvordan vi kan være med på å gjøre KI-verktøyene mindre diskriminerende. Vi må også bevisstgjøre våre kunder og brukere på hvor fordomsfull teknologien kan være.

Uten en god plan kan KI-verktøy føre til:

  • Diskriminering innenfor ansettelser når firmaer bruker KI-verktøy for å luke ut «de
    beste kandidatene».
  • Lønnsforskjeller dersom KI-er skal være med å avgjøre hvem som er mest egnet for høyere lønn, hvem som løser oppgaver best og lignende. Det er allerede slik at dersom det kommer fram på githubprofilen til noen at de er kvinner, får de sjeldnere godkjent PR-er (pull requests) enn det menn gjør, men dersom de gjør profilene sine kjønnsnøytrale, så får de oftere godtatt PR-er enn det menn gjør.
  • Forskjell i studieretninger når KI-er gir forskjellige svar på studieanbefalinger ut fra om det er kvinner eller menn som spør.
  • Færre kvinnelige søkere til jobber hvis man bruker KI-er til å skrive stillingsutlysningene (stillingsannonser skrevet av KI-er har 40 prosent mer maskulint språk enn søknader skrevet av mennesker).
  • Opprettholde stigma mot fedre i barnefordelingssaker, om man benytter KI for å avgjøre hvem som er «best» foreldre.
  • Opprettholde stigmaer mot allerede diskriminerte og undertrykte grupper

Troen på det nøytrale

Og så har du de grove sakene. Tusenvis av politietater i USA benytter allerede i dag KI-verktøy, noe som har ført til feil arrestasjoner av grupper som allerede er sterkt utsatt for negative fordommer. Som om ikke USA har nok problemer fra før med stigmatiserende holdninger, har de nå fått et verktøy de tror er nøytralt og som kan bekrefte alle stereotypiene de sitter på.

Abeba Birhane oppsummerte problemene godt: «Every part of the process in which a human can be biased, AI can also be biased, and the difference is technology legitimizes bias by making it feel more objective, when that’s not at all the case.»

Hvordan skal vi kunne bevege samfunnet framover om verktøyene våre vil ha oss bakover?

Alle som benytter seg av KI-teknologi, har et ansvar for ikke å bidra til å skape en dårligere verden, men noen av oss er kanskje mer involvert enn andre. With great power comes great responsibility og sånn. Å benytte seg av KI trenger ikke å være uetisk. Men det blir det om vi ikke tar noe som helst ansvar når vi er bevisst på problemet.

Del
Kommentarer:
Du kan kommentere under fullt navn eller med kallenavn. Bruk BankID for automatisk oppretting av brukerkonto.