De siste årenes framskritt innen kunstig intelligens og robotikk har ført til at autonome våpen snart kan være noe man ikke lenger er noe en bare kan se på film.
Dette er bakgrunnen for at grunnleggerne av rundt 90 teknologiselskaper i 26 ulike land som jobber med nettopp kunstig intelligens og/eller robotikk, har undertegnet et åpent brev til FN hvor de ber FN sørge for et forbud mot autonome våpen.
Pandoras eske
– Dødelige, autonome våpen truer med å bli den tredje revolusjonen innen krigføring, Så snart dette har blitt utviklet, vil de åpne for væpnede konflikter som utkjempes i en større skala enn tidligere, og med tidsskalaer som er raskere enn det mennesker kan fatte. Dette kan bli terrorvåpen, våpen som despoter og terrorister bruker mot uskyldige befolkninger, samt våpen som har blitt hacket til å oppføre seg på uønskede måter, heter det i brevet.
– Vi har ikke lang tid på oss til å handle. Så snart Pandoras eske er åpnet, vil det være vanskelig å lukke den.
Brevet ble offentliggjort i forbindelse med International Joint Conference on Artificial Intelligence, som arrangeres i Melbourne i disse dager.
Norsk deltakelse
Brevet er undertegnet av 116 personer. De mest kjente er trolig Elon Musk, gründer eller medgründer av blant annet Tesla og SpaceX, og Mustafa Suleyman, grunnlegger av Google-eide DeepMind.
Norge er representert ved selskapet Blueye Robotics, som utvikler en forbrukerrettet undervannsdrone. De tre medgründerne, Erik Dyrkoren, Martin Ludvigsen & Christine Spiten, har alle undertegnet brevet.
De fleste av de representerte selskapene er fra land i Nord-Amerika eller Vest-Europa, men også selskaper fra blant annet Russland, Kina, India, Australia, De forente arabiske emirater, Sør-Afrika og Japan er representert.
Les også: Har fått en milliard dollar til å hindre at «AI» blir farlig
Har allerede startet
Ifølge en pressemelding fra Faculty of Engineering ved University of New South Wales i Australia, har diskusjonen om autonome våpen allerede blitt startet i FN. De 123 medlemslandene som deltok på FNs Review Conference i desember i fjor vedtok enstemmig å starte formelle diskusjoner om slike våpen. 19 av disse landene har allerede tatt til orde for et direkte forbud.
Ifølge det åpne brevet har FNs Conference of the Convention on Certain Conventional Weapons besluttet å etablere Group of Governmental Experts (GGE) on Lethal Autonomous Weapon Systems. Ambassadør Amandeep Singh Gill fra India er utnevnt som leder av denne gruppen.
Gruppen skulle egentlig hatt sitt første møte den 20. august, men møtet har blitt utsatt til november, angivelig fordi en liten gruppe av nasjoner har unnlatt å betale sine finansielle bidrag til FN.
Dronesvermer
Initiativtakeren til brevet, Toby Walsh som er professor ved University of New South Wales, sier i en pressemelding at kunstig intelligens, i likhet med neste enhver teknologi kan brukes til både gode og dårlige formål.
– Kunstig intelligens kan bidra å takle mange av de presserende problemene som samfunnet møter i dag: ulikhet og fattigdom, utfordringer som følge av klimaendringer og den pågående finanskrisen. Men den samme teknologien kan også bli brukt i autonome våpen til å industrialisere krig, sier Walsh.
– Med mindre folk ønsker å se nye masseødeleggelsesvåpen – i form av enorme svermer med dødelige mikrodroner – spre seg rundt om i verden, er det avgjørende å ta skrittet fram og støtte FNs innsats for å skape en traktat som forbyr dødelige, autonome våpen. Dette er viktig for nasjonal og internasjonal sikkerhet, sier Stuart Russell, grunnleggeren av Bayesian Logic, i pressemeldingen.