Den raske utviklingen innen kunstig intelligens har gjort mange begeistret for det produktive potensialet til teknologien, men folk er også genuint bekymret for hva den kan brukes til i gale hender. Nå har Microsoft kommet på banen med særlig én bestemt frykt, melder Reuters.
Visestyreleder og president Brad Smith i Microsoft holdt nylig en tale i Washington om behovet for å regulere kunstig intelligens. Der ga han uttrykk for at det er «deepfake»-fenomenet som er den største trusselen som kunstig intelligens muliggjør.
Vil ha merking av AI-innhold
– Vi må ta skritt for å beskytte oss mot endringer av legitimt innhold med den intensjon å villede eller svindle folk gjennom bruk av kunstig intelligens, sa Smith i talen.
Han refererte blant annet til land som Russland, Kina og Iran, som han mener allerede bruker slik teknologi i et bekymringsfullt omfang.
Smith omtalte også kunstig intelligens-utviklingen i et blogginnlegg han forfattet tidligere denne måneden. I innlegget tar han til orde for tydelig merking av innhold som er generert av kunstig intelligens, noe som ikke minst bør omfatte deepfakes.
– I tillegg bør offentligheten gis myndighet til å «kjenne innholdet» som AI skaper gjennom bruk av et merke eller annen indikator som informerer folk om når en video eller lydfil har blitt produsert av en AI-modell i stedet for et menneske. Denne plikten til å merke bør også beskytte offentligheten mot forandringer av originalt innhold og produksjon av deepfakes, skriver han.
Smith mener det er viktig å få på plass nye lover som forhindrer bruk av av teknologien til å villede mennesker, og at dette til syvende og sist handler om å beskytte demokratiet.
Kan gjøre mye skade
Frykten for at AI-teknologi kan brukes til manipulering og forfalsking i forbindelse med for eksempel valg, er noe både Smith og andre deler. Som Reuters peker på, uttalte også OpenAI-sjefen Sam Altman at AI-teknologiens potensial til å true valgintegriteten er blant de største truslene – og at teknologien derfor bør reguleres.
Deepfakes ble for øvrig også omtalt i en omfattende rapport som Nasjonal sikkerhetsmyndighet nylig la frem her til lands. Rapporten tar for seg sikkerhetsfaglige råd til norske politikere fram mot 2030.

%25201%2520(2)%2520(1).png)
Det finnes mange eksempler på det skadelige potensialet til deepfake-teknologien. Nylig meldte Digi.no for eksempel om kvinner som får frastjålet ansikt og kropp til syntetiske, pornografiske produkter.
Ikke minst brukes teknologien til å svindle andre mennesker. I ett tilfelle ble en audiobasert deepfake brukt til å etterligne stemmen til en person på så overbevisende vis at vedkommendes egne familiemedlemmer ble lurt til å gi fra seg penger. I et annet tilfelle ble en deepfake-stemme brukt til å stjele hele 300 millioner kroner.
Deepfake-kreasjoner har til og med blitt brukt til å søke på jobber som kan utføres hjemmefra, har det amerikanske etterforskningsbyrået FBI advart.

Advarer mot ny trend: Nå brukes AI-skapte mennesker til å søke på jobber