I løpet av 17 timer hadde 47 millioner mennesker sett et pornografisk bilde av Taylor Swift, fremstilt ved hjelp av kunstig intelligens (KI), såkalt deepfake. Dette skjedde få dager etter at pave Frans uttrykte sin bekymring for generativ KI. Paven har også vært offer for genererte bilder av seg selv på motorsykkel og ikledd en moteriktig boblejakke. Morsomt for noen, krenkende for andre – det er på tide at vi alle snakker sammen om etikk og KI.
Maskiner uten moralsk kompass
Generativ KI skiller seg fra teknologien vi allerede er kjent med. Den skaper noe helt nytt – fra datakode og tekst til musikk og visuell kunst. Nå kan alle med tilgang til internett bruke den, og KI-generert innhold sprer seg som ild i tørt gress. Teknologien kommer ikke med et moralsk kompass inkludert. Maskinene vet ikke at det er galt å generere nakenbilder, oppskrifter på bomber eller store politiske løgner. Det betyr at vi som omgir oss med KI og syntetiske medier, må være kildekritiske og ha en forståelse for etisk bruk av teknologien. For hva er greit å manipulere ved hjelp av KI, og når beveger vi oss over på uetisk territorium? Vi må alle ta samtalen. Vi kan ikke overlate den til ekspertene.
Bevisst ondskap og blind tillit
Uetisk bruk av KI kan deles inn i to kategorier: bevisst og ubevisst. Mens bevisst uetisk bruk assosieres med «onde hensikter» og å villede handlinger, kan ubevisst bruk være mennesker som stoler blindt på resultatet av KI-systemer og derfor ender opp med et uetisk resultat. Selv om bevisst uetisk bruk har flere negative konnotasjoner enn motsatsen, kan ubevisst uetisk bruk av KI på være minst like skadelig.
Sikkerhetsselskap: Dette er de viktigste KI-truslene
En deepfake-dystopi
Deepfakes blir ofte generert med hensikt om å villede eller skade – et eksempel på bevisst uetisk bruk av KI. I dag kan man med noen tastetrykk generere bevis som ikke har rot i virkeligheten, men som likevel har en innvirkning på samfunnet. Eksemplene er mange: KI-genererte videoer av presidenter som sier ting de aldri engang har tenkt, pornografiske bilder av medelever og forskningsartikler basert på falske datasett generert av Chat GPT. Å avsløre feilinformasjon er ikke så enkelt som man tror. Nyere forskning viser nemlig at mennesker sliter med å identifisere deepfakes, selv når de får instruksjoner om hvordan man kan avsløre dem.
Effekten av feilinformasjon forsterkes i sosiale medier, der man lett fanges i ekkokamre av raske nyheter. Menneskehjernen er ikke skapt for å håndtere mengdene data vi er omgitt av på nett. Det blir umulig å stille spørsmål ved all informasjonen. Å skille mellom sannhet og desinformasjon blir vanskeligere, særlig når det falske innholdet kan tilpasses den enkelte mottaker. Man kan fort ende opp med å spre informasjonen videre, uten å selv være klar over det. Kildekritikk blir vanskeligere, men også en stadig viktigere ferdighet – og dette gjelder for alle.
Studie: Chat GPT gjør folk «dummere»
Bias og hallusinasjoner
Man kan ubevisst bruke KI uetisk ved å stole blindt på resultatene. Et system som bruker KI, blir ikke bedre enn datagrunnlaget. Dersom man har et skjevt datasett, er det stor fare for et partisk resultat. Dette er én av de største utfordringene ved å bruke KI til å ta viktige beslutninger. Menneskelige fordommer som kan ha satt spor i datasettet, settes i system og forsterkes, og deretter brukes det til å bestemme hvem som får lån eller hvem som skal bli ansatt. Før man tar i bruk KI, er det derfor svært viktig å ha innsikt i datagrunnlaget og være bevisst på svakhetene. For den som blir utsatt for beslutninger tatt av KI, er det viktig å være klar over at roboten ikke er objektiv og at det går an å klage.
Generativ KI kan dikte opp ting som ikke har grunnlag i datasettet. KI-hallusinasjoner er misinformasjon som kan omfatte genererte kilder, sitater og fakta uten rot i virkeligheten. Generative språkmodeller som Chat GPT er skapt for å svare på spørsmål, men ikke nødvendigvis for å gi riktig svar. Dette stiller krav til oss som brukere. Dersom vi ikke kan bekrefte eller avkrefte svaret vi får fra KI-modellen, er det en fare for at vi deler desinformasjon og bidrar til å spre usannheter.
Ta samtalen om rett og galt!
Med populære generative verktøy som kan skape hva som helst, blir det stadig mer krevende å identifisere sannheten. Hvilke bilder av Taylor Swift er ekte, og kjører paven faktisk motorsykkel, slik som de KI-genererte bildene vil ha det til? Vi eksponeres for langt mer informasjon enn vi er skapt for å håndtere. Det er lett å tro på alt man ser og hører i en verden av endeløs skrolling. I 2024 må vi tenke annerledes og ta samtalen om rett og galt. Vi har alle et ansvar for stille spørsmål, selv om beslutningen er tatt av en «objektiv» maskin. Vi må være kildekritiske og sørge for å bruke generativ KI i situasjoner hvor vi har kunnskap til å validere resultatet. Da kan vi bruke den fantastiske teknologien på etisk vis.
Open AI truer Chat GPT-brukere med bannlysning