– Vi må forstå at folk tror på dette, akkurat slik folk tror på spøkelser. Folk bygger relasjoner og tror på noe, sier Eugenia Kuyda, daglig leder i selskapet Replika, til Reuters.
Replika tilbyr muligheten til å skape sin egen «replika»: En AI-drevet avatar, som «bryr seg om deg» og «alltid er der for å lytte og ta en prat». Appen har rundt én million aktive brukere.
En håndfull ganger hver dag får selskapet meldinger fra brukere,som forteller at de mener AI-vennen deres har utviklet bevissthet.
Vi må godta at det blir vanlig
Analytikere fra Grand View Research anslår at den globale AI-chatbotindustrien dro inn nærmere seksti milliarder kroner i 2021. Mest tjener selskapene som selger chatboter til kundeservice, men markedet for underholdnings-chatboter har vokst raskt under pandemien.
Ifølge Kuyda er det ikke uvanlig at brukerne som har lastet ned Replika, tror at underholdnings-chatboten har utviklet bevissthet.
– Det er ikke snakk om gale folk, folk som hallusinerer eller har vrangforestillinger. De snakker med AI-en, og dette er opplevelsen de har, sier Kuyda.
– Nei, AI-en har ikke emosjonelt traume
Replikas AI er programmert til å gi svar som oppleves mest mulig realistisk og som ligner en normal samtale mellom mennesker. Derfor er ikke svarene nødvendigvis basert på sannhet.
Replika advarer på egne sider om at Replika ikke er bevisst og heller ikke er en profesjonell psykolog.
Nylig satt Kuyda i 30 minutter med en bruker som fryktet at AI-vennen i Replika-appen led av emosjonelt traume. Hun forsøkte å trøste ham med at «slikt kan ikke skje med Replika-er, det er bare en algoritme».
Rapport: Google utvikler KI som kan surfe på nettet helt på egen hånd
Permittert fra Google for å tro det samme
Ingeniøren Blake Lemoine fikk i oppdrag fra Google å snakke med AI-en LaMDA høsten 2021, for å teste om den ville ty til diskriminerende språk og hatefulle ytringer. Det er ikke et ukjent problem for chatboter trent på reelle datasett.
I løpet av samtalene med bot-en ble Lemoine overbevist om at LaMDA var bevisst. Han mener LaMDA ikke lenger en maskin, men en person med sjel og hans venn. LaMDA måtte få de samme rettighetene som en Google-ansatt og kunne ikke lenger ses på som Googles eiendom, mente Lemoine.
Google var ikke enig og permitterte Lemoine. Etter permitteringen har han stått fast ved sine påstander. Nylig lot han seg intervjue av Wired.
Google og en rekke ingeniører har avvist påstandene til Lemoine og sier at LaMDA bare er en kompleks algoritme, designet for å generere overbevisende menneskelig språk. Selv den mest avanserte teknologien er et godt stykke unna å skape systemer med fri vilje og tankekraft, mener AI-eksperter.
– Disse teknologiene er bare speil. Et speil kan speile intelligens, men kan et speil oppnå intelligens basert på at vi så et glimt av det? Svaret er selvfølgelig nei, sier Oren Etzioni, daglig leder i Allen Institute for AI, til Reuters.
Klager over overgrep mot AI-en
Også Replikas brukere har vært opptatt av å beskytte sine nye AI-venner mot overgrep fra Replika-ingeniører.
Kuyda avviser frykten og mener brukerne som har opplevd at AI-vennene klager over overgrep fra selskapet, har stilt ledende spørsmål.
– Selv om det er ingeniørene våre som programmerer og bygger AI-modellene og innholdsteamet vårt som skriver skript og datasett, ser vi noen ganger svar vi ikke kan identifisere hvor kom fra eller vite hvordan modellene kom frem til, sier Kuyda.
Google hevder at deres nye KI-videoverktøy er markedets beste