Likestillings- og diskrimineringsombudet (LDO) lanserte lanserte onsdag 8. november sin veileder om innebygget diskrimineringsvern. Teksten tar på en ryddig og lettforståelig måte for seg risikoen som finnes når en skal bruke KI-systemer til å treffe beslutninger om mennesker.
Det er et viktig innspill nå som KI-systemer i stadig større grad blir synlige i folks liv. De som utvikler KI-baserte løsninger, må selvsagt være seg sitt ansvar bevisst! Jeg tror alle som leser rapporten, vil komme ut på andre siden med et balansert syn på hva diskriminering innebærer, hvordan KI-systemer kan bidra til diskriminering og hvordan det kan motvirkes gjennom smart utviklingsmetodikk.
Følger du debatten litt mer på avstand, derimot, og for eksempel bare leser de første par sidene i veilederen, tror jeg det kan danne seg et bilde av at KI-systemer av natur har en særlig stor kapasitet for å diskriminere. Det mener jeg er en uheldig feilslutning.
Ikke verre enn menneskedrevne systemer
Om en tar for seg eksemplene som belyses i rapporten, påviser de ikke diskriminering som er verre enn det en dessverre kan forvente av menneskedrevne systemer.
Harvard-studien fra 2018 demonstrer at ansiktsgjenkjenningssystemer er dårligere til å gjenkjenne egenskaper ved personer med mørk hud enn med lys hud.
Leser du studien sammen med tilsvar fra produsentene, blir det klart at avhengig av hvordan du justerer teknologien, er feilprosenten lav uavhengig av hudfarge. Selv om differansen er stor mellom forskjellige hudfarger, kan en sikre at feilprosenten er lav for alle gruppene. Alle selskapene som ble undersøkt, anerkjente utfordringen, og i senere kontrollrunder var resultatene betydelig forbedret.
Dette er et klart eksempel på at teknologi er egnet til å diskriminere om den brukes feil, samtidig er dette et kroneksempel på at teknologi veldig fort kan utvikles til det bedre, til gode for alle.
Et annet eksempel omhandler et nederlandsk system for å avdekke trygdesvindel som ble lagt ned i starten av 2020. En domstol konkluderte med at systemet krenket retten til privatliv. Det ble ikke konkludert med at systemet diskriminerte. Problemet var først og fremst at de ansvarlige myndighetene ikke ga innsyn i algoritmen. Muligheten for diskriminering var en sentral bekymring, men det ble altså ikke påvist.
Puster lettet ut
Når det er disse eksemplene LDO velger å trekke frem som «skandaler der algoritmer og maskinlæringsmodeller har medført diskriminering, ofte fordi teknologien ikke er grundig nok vurdert», puster jeg lettet ut. Eksemplene er nyanserte og fulle av nyttig læring, men samtidig ikke graverende eksempler på diskriminering. Teknologien er kanskje ikke så ille likevel!?
Det er uheldig om det etterlatte inntrykket hos folk flest er at KI i sin natur har en høy risiko for diskriminering, når situasjonen er som med all annen teknologi; den kan brukes både bra og dårlig, det bør også informasjonslandskapet tydelig gjenspeile.
Dersom den generelle mistroen til KI i samfunnet blir sterk nok til at det hindrer implementering av systemer som tross alt er bedre – om enn ikke perfekte, svikter samfunnet alle dem som opplever å bli diskriminert, og som dermed har mest å vinne på enhver nyvinning som reduserer risikoen for diskriminering.