KUNSTIG INTELLIGENS

Forskere bruker bildeanalyse fra astronomien til å avsløre deepfakes

Forskere har brukt analyse av lysrefleksjoner fra øyeeplet til å vurdere om et bilde av en person er AI-generert. Metoden er kjent fra astronomien, hvor den brukes til studiet av galakser.

Deepfake av Arnold Schwarzenegger som Rambo i filmen Rambo III.
Deepfake av Arnold Schwarzenegger som Rambo i filmen Rambo III. Illustrasjon: DesiFakes
Lasse Skovgaard, Version2.dk
27. juli 2024 - 20:04

Deteksjon av deepfake-innhold er en vanskelig øvelse som gir KI-verdenen grå hår, og nå ser forskere mot astronomien for å løse problemet, skriver Ars Technica.

En gruppe forskere ved University of Hull i England har brukt en fremgangsmåte kjent fra studiet av galakser, hvor man analyserer fordelingen av lys for å bestemme formen på en galakse.

Overført til deteksjon av deepfake-bilder betyr det at hvis lysrefleksjonene i en avbildet persons øyeepler stemmer overens i venstre og høyre øye, så er det sannsynligvis et ikke-KI-generert bilde. Hvis de ikke stemmer overens, så er bildet sannsynligvis KI-generert, fremgår det av en bloggpost fra Royal Astronomical Society.

– Det er imidlertid falske positive og falske negative; det kommer ikke til å fange alt. Men denne metoden gir oss et grunnlag, en angrepsplan, i våpenkappløpet om å oppdage deepfakes, sier Kevin Pimbblet, som er professor i astrofysikk ved University of Hull og har overvåket studiet.

Artikkelen ble først publisert på Version 2.

Nordea i Danmark har hatt utfordringer med å teste kritiske IT-systemer, avdekker en hemmelig rapport fra 2020, som Version2 har sett. Bildet er fra bankens kontor i Oslo.
Les også

Lekket rapport: Nordea klarte ikke å katastrofeteste IT-systemene

Del
Kommentarer:
Du kan kommentere under fullt navn eller med kallenavn. Bruk BankID for automatisk oppretting av brukerkonto.