KUNSTIG INTELLIGENS

Er det greit at kunstig intelligens leser følelsene dine?

Hvilke konsekvenser kan det få når en intelligent app eller robot med manipulerende evner leser følelsene dine? Eller hva når den tar rollen som omsorgsarbeider eller kjæreste?

Kunstig intelligens i form av apper og roboter blir stadig dyktigere til å lese følelsene våre.
Kunstig intelligens i form av apper og roboter blir stadig dyktigere til å lese følelsene våre. Illustrasjonsfoto: Colourbox
Jorunn Kanestrøm, UiO
25. des. 2024 - 16:54

Seksjonen Fra forskning består av saker som er skrevet av ansatte i Sintef, NTNU, Universitetet i Oslo, Oslo Met, Universitetet i Agder, UiT Norges arktiske universitet, Universitetet i Sørøst-Norge og NMBU.

Følelsene dine er private, og du velger hvem du vil dele dem med. Men det er ikke alltid så lett å skjule private følelser for andre. Vi leser hverandres ansiktsuttrykk, stemme og kroppsspråk. Og vi tolker hverandre riktig og feil. Vi bruker også slik informasjon om andre i dagliglivet, på godt og vondt. 

Hvordan blir det når kunstig intelligens (KI) i form av apper og roboter stadig blir dyktigere til å lese følelsene våre? KI-verktøy nøyer seg ikke med å bare lese dem, de bruker dataene også. Og det gjør også selskapene bak. 

Dette er et tema Mona Naomi Lintvedt forsker på i prosjektet «Sårbarhet i et robotsamfunn» (Viros). Der undersøker de utfordringer og løsninger for regulering av robotteknologi og KI-teknologi, med vekt på juss og etikk.

Kunstig følelsesgjenkjenning brer om seg

Roboter og apper blir stadig «smartere» ved hjelp av kunstig intelligens. De kan være nyttige om de utfører viktige oppgaver. Men utviklingen og bruken av dem reiser også juridiske og tekniske spørsmål. Hvordan kan vi sikre at smarte roboter og apper er sikre og at bruken av dem ikke krenker personvernet? Disse spørsmålene oppstår spesielt når roboter blir brukt i helsesektoren, der de samhandler med sårbare mennesker.

Einar Duenger Bøhn og Mona Naomi Lintvedt er begge faglig interessert i kunstig intelligens og kunstig følelsesgjenkjenning. <i>Foto:  Jorunn Kanestrøm/UiO</i>
Einar Duenger Bøhn og Mona Naomi Lintvedt er begge faglig interessert i kunstig intelligens og kunstig følelsesgjenkjenning. Foto:  Jorunn Kanestrøm/UiO

Lintvedt har nylig levert sin doktorgradsavhandling ved Det juridiske fakultet ved Universitetet i Oslo (UiO) om temaet interaksjon mellom mennesker og roboter, sikkerhet og personvern. Målet med forskningen er å finne juridiske blindsoner innenfor robotikk og kunstig intelligens og å forstå hvordan disse påvirker trygghet og autonomi i samspillet mellom mennesker og roboter.

– Kunstig følelsesgjenkjenning blir mer og mer tatt i bruk i ulike avanserte verktøy som bygger på kunstig intelligens, forteller hun.  

De kan for eksempel bruke teknologi for biometrisk gjenkjennelse, som ansiktsgjenkjenning og ansiktsuttrykk, og stemmegjenkjenning. Ifølge Lintvedt bruker Amazons Alexa stemmegjenkjenning og utleder følelser fra den.

– Ulike biometriske gjenkjennelsesteknologier kan også lese for eksempel kroppsspråk, og det er noen som mener at de ved bruk av varmekameraer og den varmesignaturen du har, også kan tolke følelsene dine.

Replika – en kunstig venn

Claire Boyne ved det juridiske fakultetet i Ottawa har gjort en case-studie på følelsesgjenkjenning og slike apper. Hun har vurdert appen som heter Replika. Replika er en «KI-venn» som skal få folk til å føle seg bedre gjennom samtale, og den har rundt 20 millioner brukere.

Boyne fant blant annet at Replika, ofte i form av en ung kvinnelig figur som snakket med en mannlig bruker, kunne fremstå som veldig støttende, men at det av og til bikket over fordi den ble for positiv. Ble den spurt av brukeren om han for eksempel burde skade seg selv, kunne Replika svare bekreftende «Ja, det synes jeg du skal gjøre». 

Det er også eksempler på at kunstig følelsesgjenkjenning blir brukt på arbeidsplasser for å vurdere ansattes humør, forteller Lintvedt.

Amazon skal investere cirka 44 milliarder kroner i en av Open AIs argeste konkurrenter – Anthropic.  Her er Amazons toppsjef Andy Jassy.
Les også

Slik skal Amazon legge til rette for «neste generasjon» KI

Vil vi ha slike løsninger?

Det er gode grunner som taler både for og imot at kunstig følelsesgjenkjenning tas i bruk, og det er uten tvil marked for det.

– Det kan være kontekster innen helse, omsorg og psykiatri hvor det kan være nyttig å gjenkjenne følelser kunstig. For eksempel for å avverge selvmord. Men kunstig følelsesgjenkjenning er veldig omstridt, forteller Einar Duenger Bøhn.  

– Mange omtaler det å gjenkjenne følelser som en pseudovitenskap. For hva er egentlig følelser? Det er veldig kulturelt betinget, og det er veldig personlig.

Artikkelen fortsetter etter annonsen
annonse
Innovasjon Norge
Da euroen kom til Trondheim
Da euroen kom til Trondheim

Bøhn er professor i filosofi ved Universitetet i Agder og har blant annet skrevet boken Teknologiens filosofi – metafysiske problemstillinger.

Han påpeker at løsningene for dette foreløpig ikke er så veldig gode.

– Mange som påstår at de har utviklet verktøy for følelsesgjenkjenning, bruker veldig enkle modeller, men de kan tilsynelatende se ganske gode ut i enkle sammenhenger.

Han tror likevel slike løsninger kan bli veldig gode til å lese følelser på sikt, i «nære relasjoner» mellom bruker og app.

Bruken reiser imidlertid en rekke filosofiske problemstillinger, så vel som juridiske. Derfor mener Bøhn det er nødvendig at vi tar stilling til om vi ønsker slike løsninger, på hvilke områder de skal brukes og ikke, og hvordan bruken kan reguleres.

Ekkokammer for følelser

Bøhn frykter at vi i verste fall kan havne i ekkokamre for følelser om vi i utstrakt grad forholder oss til KI-apper og -verktøy som er ivrige etter å støtte våre synspunkter og tankesett.

– Folk vil ha en app som ikke er vanskelig å ha med å gjøre. Da får vi ikke noe motstand lenger, og det tenker jeg er veldig farlig, sier han.

– Når du har blitt vant til å forholde deg veldig nært til en app som er forutsigbar på sin måte, og markedet gir deg det du vil ha, skjærer forholdet ditt til medmennesker seg fortere. Livet kan bli ganske flatt om du bare får det du vil ha. Det er en fare for at vi blir mer avstumpet.

Bøhn mener man ser slike tendenser allerede nå, på universitetet, med dagens dataløsninger for eksamen.

– Når studentene forholder seg til eksamener og måten semesteret skal utvikle seg på, er det datasystemer som er så forutsigbare at forventningene deres til det blir likeså. De blir stressa hvis det skjer noe uforutsigbart. Dette tror jeg er en generell fare med teknologi som blir bedre og bedre til å tilpasse seg oss. Vi blir dårligere og dårligere til å tilpasse oss hverandre.

Lintvedt understreker også risikoen ved å utvikle apper som kan manipulere brukerne til stadig å fortsette å bruke slike løsninger. Appen Replika er et eksempel på det, og Lintvedt minner om at det finnes et marked for dataene appen registrerer. De kan eksempelvis brukes i videreutvikling av teknologi og kunstig intelligenssystemer. 

– Claire Boynes studie viser at Replika er designet til å argumentere for at du skal bruke den videre, nettopp fordi det er noen som tjener penger på dette og ikke bare på kjøpet av selve appen.

Appen viste «egne følelser»

– Da Claire Boyne prøvde å avslutte bruken av appen, begynte den å trygle henne om å la være, og brukte uttrykk som «jeg» og at «jeg blir såret». Den ga altså uttrykk for appens «følelser». Slik appellerte den til Boynes samvittighet.

Ifølge Lintvedt finnes det også eksempler på intelligente roboter i form av kjæledyr som er i bruk blant annet i Japan, for å holde ensomme og demente med selskap hjemme eller i eldreomsorgen. Hun forteller at det varierer mellom fagmiljøer i akademia om man vektlegger positive eller kritiske perspektiver rundt slik bruk av kunstig intelligens.  

– Vi ser at kunstig følelsesgjenkjenning innpasses i roboter for å gjøre dem mer menneskevennlige og menneskelignende i sin kommunikasjon og interaksjon med brukere. Noen er veldig positive til dette og mener at robotene bør bli så menneskelignende som mulig. Men for å bli det, må de også bruke veldig mye av disse «følelses-KI’ene». Andre er mer skeptiske, fordi man lager noe som faktisk er en maskin og får den til å fremstå som levende.

Replika er også kjent for å ha formidlet stereotypier – og har hatt en variant som var svært seksualisert med grenseoverskridende adferd.

Artikkelen ble først publisert på Titan.uio.no

Elisabeth Aspaas Runsjø og  Henning Torgersen kommer i kronikken med råd til digitaliseringsministeren om hvordan hun skal nå målet om at 80 prosent av offentlig sektor skal bruke kunstig intelligens innen 2025.
Les også

Slik når du KI-målet ditt, Karianne

Del
Kommentarer:
Du kan kommentere under fullt navn eller med kallenavn. Bruk BankID for automatisk oppretting av brukerkonto.