AI-saksbehandlerne kommer. Hvordan hindrer vi at de blir urettferdige?
Saksbehandlerne du møter i offentlig sektor, vil oftere og oftere være algoritmer basert på maskinlæring. Nå må offentlig sektor finne måter å hindre at algoritmene blir fordomsfulle, rasistiske sexister.
Det må ligge en menneskerettslig risikoanalyse bak både utvikling, gjennomføring og evalueringen av systemer basert på kunstig intelligens, mener Ingrid Stolpestad, politisk rådgiver i Amnesty, her i debatt med Robert Steen, helsebyråd i Oslo Kommune.Skjermbilde: Arendalsuka