KI-baserte boter kan utnytte ukjente sårbarheter på egenhånd
Forskere ved Cornell University har demonstrerte at en koordinert gruppe gruppe med boter basert på den store, generiske språkmodellen GPT-4 har vært i stand til autonomt å utnytte ukjente sårbarheter i mer enn halvparten av testnettstedene som forskerne hadde satt opp. Dette skriver nettstedet New Atlas.
Dette ble gjort ved hjelp av en metode som kalles for Hierarchical Planning with Task-Specific Agents (HPTSA). I stedet for å bruke én enkel LLM-agent (Large Language Model) til å forsøke å løse mange komplekse oppgaver, bruker HPTSA en planleggingsagent som har overoppsyn med hele prosessen og starter mange underagenter som er oppgavespesifikke.
I forskningsartikkelen om funnene, skriver forskerne at funnene deres antyder at cybersikkerhet, både på angreps- og forsvarssiden, vil øke takten.
– Nå kan black-hat-aktører bruke KI-agenter for å hack nettsteder. På den annen siden kan penetrasjonstestere bruke KI-agenter for å gjøre hyppigere penetrasjonstesting, skriver forskerne.
De er dog usikre på om KI-agentene vil hjelpe angreps- eller forsvarssiden mest.