OpenAI sin kreasjon ChatGPT har skapt til dels store bølger i teknologikretsene, og kanskje var det bare et spørsmål om tid før chatbotens popularitet også trengte inn i de mørkere hjørnene av teknologiuniverset. Det ser nå ut til å ha skjedd, melder blant andre Digital Trends.
Sikkerhetsselskapet Check Point Research (CPR) rapporterer at de har oppdaget ondsinnede aktører som benytter ChatGPT til å utvikle skadevare.
Omgår restriksjoner
ChatGPT har flere restriksjoner på plass som er ment å forhindre at folk bruker chatboten til å lage ondsinnet innhold. Disse restriksjonene består blant annet i å nekte å utføre bestemte kommander, slik som for eksempel å etterligne en bank, lage skadevare eller skrive en troverdig phising-epost.
Som Check Point peker på finnes det imidlertid allerede effektive måter å omgå disse restriksjonene på.
Mener AI-hacking må bekjempes av AI-sikkerhet
Én av måtene dette foregår på er ved bruk av Telegram-boter, en metode som også tidligere har blitt brukt til ondsinnet aktivitet. Ifølge sikkerhetsselskapet er disse botene i stand til å komme rundt ChatGPTs restriksjoner ved å bruke OpenAI sitt API – programmeringsgrensesnitt.
Telegram-botene markedsføres aktivt på diverse undergrunnsfora, og selges også som tjenester hvor folk kan betale en slant penger for vedvarende tilgang til den «restriksjonsløse» versjonen av ChatGPT.
Forskerne hos Check Point sier de fant flere eksempler på blant annet phishing-eposter laget av Telegram-boter ved hjelp av OpenAIs API. Metoden brukes imidlertid også til å utvikle, eller heve kvaliteten på, skadevare.
Kan skrive ondsinnet programvare
– CPR-forskere fant nylig et tilfelle av cyberkriminelle som brukte ChatGPT til å «forbedre» koden til en infostealer-skadevare fra 2019, skriver sikkerhetsselskapet. Infostealer er navnet på en type trojaner som er designet for å hente ut data fra ofrenes systemer.
Sikkerhetsselskapet fant også eksempler på at ChatGPT ble brukt til å skrive kode, basert på kommandoer som spesifiserte skadevarens ønskede funksjonalitet – som for eksempel å stjele en bestemt type filer.
Ifølge Check Point eksisterer det for tiden en trend blant cyberkriminelle som innebærer å utforske hvordan ChatGPT kan utnyttes innen skadevareutvikling og generering av phishing-eposter.
At cyberkriminelle benytter seg av kunstig intelligens i sitt virke er for så vidt ingen nyhet, og noe som har pågått en stund allerede. Som Digi.no rapporterte tidligere denne måneden uttalte sikkerhetsarkitekt Pål Aaserudseter i Check Point Norge at kriminelle har mye å vinne på de store fremskrittene innen kunstig intelligens.
– Jo mer data disse maskinlæringsmotorene får tilgang til, jo bedre blir de, og jo lettere er det da etter hvert for andre å utnytte det må en kriminell måte – som kanskje kan gi angrep vi aldri har sett før, sa Aaserudseter til Digi .no.
Gmail-skaperen: – ChatGPT kan ødelegge Googles forretningsmodell innen to år