KUNSTIG INTELLIGENS

Steve Wozniak ber bransjen bremse AI-utviklingen

Sentrale bransjefolk vil sette treningen av AI-modeller som er kraftigere enn GPT-4 på pause i seks måneder, i påvente av bedre sikkerhetsmekanismer.

Apple-gründeren er på  lista over bransjefolk som har signert brevet. Her i Budapest i 2019.
Apple-gründeren er på lista over bransjefolk som har signert brevet. Her i Budapest i 2019. Foto: Marton Monus
29. mars 2023 - 13:04

I et åpent brev til alle AI-laboratorier, signert av blant annet Apple-grunnlegger Steve Wozniak, Stability AI-sjef Emad Mostaque og Elon Musk, ber en lang rekke bransjefolk om at bransjen setter på bremsene i utviklingen av AI-modeller.

Det melder Reuters.

Brevet, som er ført i pennen av den frivillige organisasjonen Future of Life Institute, er signert av mer enn 1000 mennesker. På lista finner vi internasjonale AI-storheter som professor ved universitetet i Montreal, Yoshua Bengio og professor og leder for senteret for intelligente systemer ved Berkely, Stuart Russel, og norske forskere som Tor Nordam ved NTNU og Hans Martin Seip ved Universitetet i Oslo.

− Kraftfulle AI-systemer bør ikke utvikles før vi føler oss sikre på at effektene vil være positive og risikoen er mulig å håndtere, heter det i brevet.

Etter at OpenAI slapp sin ChatGPT til publikum i fjor høst, har mange advart mot mulig skadelig bruk, som i cyberkriminalitet, nettfiske og desinformasjon. Likevel, lanseringen satte i gang et kappløp i bransjen. Teknologigigantene kjemper om å være først ute med de kraftigste modellene.

Bør ikke delegeres til ikke-valgte ledere

− AI-systemer med intelligens som kan konkurrere mot menneskers intelligens, kan utgjøre en stor risiko mot samfunnet og menneskeheten, heter det i brevet.

Teknologien kan føre til vesentlige endringer i menneskets historie, mener forfatterne. 

− Skal vi la maskiner oversvømme informasjonskanalene våre med propaganda og usannheter? Skal vi automatisere bort alle jobbene, inkludert de vi liker å gjøre? Bør vi utvikle ikke-menneskelige sinn som til slutt kan overstige oss, overliste oss og gjøre oss overflødige? Bør vi risikere å miste kontrollen over sivilisasjonen vår, spør brevet retorisk.

Denne typen spørsmål bør ikke delegeres til ikke-valgte ledere, mener Future og Life Institute.

−  Vi har kommet til et punkt der vi er nødt til å stoppe opp og få en uavhengig vurdering av hvor vi er på vei, mener de.

Ber om pause

− Derfor oppfordrer vi alle AI-laboratorier til umiddelbart å sette på pause, i minst seks måneder, treningen av AI-systemer kraftigere enn GPT-4. Denne pausen skal være offentlig og verifiserbar og inkludere alle sentrale aktører, heter det i brevet.

Pausen bør brukes på å utvikle og implementere et sett felles sikkerhetsmekanismer det blir ført tilsyn med av uavhengige eksperter. Samtidig må utviklere jobbe sammen med politikere og byråkrater for å få fart på arbeidet med regulering, mener blant annet Wozniak.

Del
Kommentarer:
Du kan kommentere under fullt navn eller med kallenavn. Bruk BankID for automatisk oppretting av brukerkonto.