I et åpent brev til alle AI-laboratorier, signert av blant annet Apple-grunnlegger Steve Wozniak, Stability AI-sjef Emad Mostaque og Elon Musk, ber en lang rekke bransjefolk om at bransjen setter på bremsene i utviklingen av AI-modeller.
Det melder Reuters.
Brevet, som er ført i pennen av den frivillige organisasjonen Future of Life Institute, er signert av mer enn 1000 mennesker. På lista finner vi internasjonale AI-storheter som professor ved universitetet i Montreal, Yoshua Bengio og professor og leder for senteret for intelligente systemer ved Berkely, Stuart Russel, og norske forskere som Tor Nordam ved NTNU og Hans Martin Seip ved Universitetet i Oslo.
− Kraftfulle AI-systemer bør ikke utvikles før vi føler oss sikre på at effektene vil være positive og risikoen er mulig å håndtere, heter det i brevet.
Etter at OpenAI slapp sin ChatGPT til publikum i fjor høst, har mange advart mot mulig skadelig bruk, som i cyberkriminalitet, nettfiske og desinformasjon. Likevel, lanseringen satte i gang et kappløp i bransjen. Teknologigigantene kjemper om å være først ute med de kraftigste modellene.
Apple-sjefen om AI: – Fortsatt bekymringer det må ryddes opp i
Bør ikke delegeres til ikke-valgte ledere
− AI-systemer med intelligens som kan konkurrere mot menneskers intelligens, kan utgjøre en stor risiko mot samfunnet og menneskeheten, heter det i brevet.
Teknologien kan føre til vesentlige endringer i menneskets historie, mener forfatterne.
− Skal vi la maskiner oversvømme informasjonskanalene våre med propaganda og usannheter? Skal vi automatisere bort alle jobbene, inkludert de vi liker å gjøre? Bør vi utvikle ikke-menneskelige sinn som til slutt kan overstige oss, overliste oss og gjøre oss overflødige? Bør vi risikere å miste kontrollen over sivilisasjonen vår, spør brevet retorisk.
Denne typen spørsmål bør ikke delegeres til ikke-valgte ledere, mener Future og Life Institute.
− Vi har kommet til et punkt der vi er nødt til å stoppe opp og få en uavhengig vurdering av hvor vi er på vei, mener de.
Ber om pause
− Derfor oppfordrer vi alle AI-laboratorier til umiddelbart å sette på pause, i minst seks måneder, treningen av AI-systemer kraftigere enn GPT-4. Denne pausen skal være offentlig og verifiserbar og inkludere alle sentrale aktører, heter det i brevet.
Pausen bør brukes på å utvikle og implementere et sett felles sikkerhetsmekanismer det blir ført tilsyn med av uavhengige eksperter. Samtidig må utviklere jobbe sammen med politikere og byråkrater for å få fart på arbeidet med regulering, mener blant annet Wozniak.
Stor kunngjøring: Intel skal bruke verdens kraftigste superdatamaskin til å lage ekstremt avansert AI-modell