DIGITALISERING OG OFFENTLIG IT

AI-saksbehandlerne kommer. Hvordan hindrer vi at de blir urettferdige?

Saksbehandlerne du møter i offentlig sektor, vil oftere og oftere være algoritmer basert på maskinlæring. Nå må offentlig sektor finne måter å hindre at algoritmene blir fordomsfulle, rasistiske sexister.

Det må ligge en menneskerettslig risikoanalyse bak både utvikling, gjennomføring og evalueringen av systemer basert på kunstig intelligens, mener Ingrid Stolpestad, politisk rådgiver i Amnesty, her i debatt med Robert Steen, helsebyråd i Oslo Kommune.
Det må ligge en menneskerettslig risikoanalyse bak både utvikling, gjennomføring og evalueringen av systemer basert på kunstig intelligens, mener Ingrid Stolpestad, politisk rådgiver i Amnesty, her i debatt med Robert Steen, helsebyråd i Oslo Kommune. Skjermbilde: Arendalsuka
Gi bort artikkelen
Kommenter
17. aug. 2022 - 05:00
Gi bort artikkelen
Kommentarer:
Du kan kommentere under fullt navn eller med kallenavn. Bruk BankID for automatisk oppretting av brukerkonto.