KUNSTIG INTELLIGENS

Forskere bruker bildeanalyse fra astronomien til å avsløre deepfakes

Forskere har brukt analyse av lysrefleksjoner fra øyeeplet til å vurdere om et bilde av en person er AI-generert. Metoden er kjent fra astronomien, hvor den brukes til studiet av galakser.

Deepfake av Arnold Schwarzenegger som Rambo i filmen Rambo III.
Deepfake av Arnold Schwarzenegger som Rambo i filmen Rambo III. Illustrasjon: DesiFakes
Lasse Skovgaard, Version2.dk
27. juli 2024 - 20:04

Deteksjon av deepfake-innhold er en vanskelig øvelse som gir KI-verdenen grå hår, og nå ser forskere mot astronomien for å løse problemet, skriver Ars Technica.

En gruppe forskere ved University of Hull i England har brukt en fremgangsmåte kjent fra studiet av galakser, hvor man analyserer fordelingen av lys for å bestemme formen på en galakse.

Overført til deteksjon av deepfake-bilder betyr det at hvis lysrefleksjonene i en avbildet persons øyeepler stemmer overens i venstre og høyre øye, så er det sannsynligvis et ikke-KI-generert bilde. Hvis de ikke stemmer overens, så er bildet sannsynligvis KI-generert, fremgår det av en bloggpost fra Royal Astronomical Society.

– Det er imidlertid falske positive og falske negative; det kommer ikke til å fange alt. Men denne metoden gir oss et grunnlag, en angrepsplan, i våpenkappløpet om å oppdage deepfakes, sier Kevin Pimbblet, som er professor i astrofysikk ved University of Hull og har overvåket studiet.

Artikkelen ble først publisert på Version 2.

Stu Sjouwermans IT-sikkerhetsfirma Knowbe4 er blant ofrene for et omfattende nordkoreansk svindelopplegg, der de ved en feil har ansatt en falsk IT-medarbeider fra Nord-Korea. Direktøren er overrasket over hvordan vedkommende klarte å komme seg gjennom selskapets ansettelsesprosess uten å bli avslørt.
Les også

Falske IT-folk fra Nord-Korea infiltrerer vestlige selskaper

Del
Kommentarer:
Du kan kommentere under fullt navn eller med kallenavn. Bruk BankID for automatisk oppretting av brukerkonto.