Mens enkelte vil forby ChatGPT og kunstig intelligens, mener andre at vi må slippe alt til og så tilpasse oss etter hvert som vi lærer. Begge deler er både farlig og feil, noe internett- og sosiale medier-utviklingen burde være et levende eksempel på. Nå har EU heldigvis begynt å få nødvendige reguleringer på plass, slik at både personinformasjon og -vern blir tilstrekkelig ivaretatt.
Og nå som stort sett alle er på internett, alle bruker ett eller flere sosiale nettverk og stort sett alle kobler seg til nettet ved hjelp av 4- og 5G på sine smarttelefoner, blir det viktigere enn noen gang at vi ikke kommer bakpå i hvordan kunstig intelligens og alle dens bruksområder og tjenester vil påvirke og endre hvordan vi lever, leker, lærer og jobber.
Den eneste riktige måten å møte slik transformerende teknologi på, en teknologiutvikling som vil gjennomsyre alt liv og næringsliv, er gjennom fornuftige reguleringer som sikrer en etisk og moralsk forsvarlig utvikling av kunstig intelligens som både er ansvarlig, trygg og bærekraftig.
Ansvarliggjøring
Her er ni eksempler på hvorfor jeg mener at våre myndigheter bør være proaktive og få etablert fornuftige reguleringer for en etisk utvikling av kunstig intelligens som både er ansvarlig, trygg og bærekraftig.
- Utviklingen av kunstig intelligens bør inkludere klare etiske retningslinjer for å hindre at teknologien skader eller diskriminerer.
- For å hindre at den kunstige intelligensen skader eller diskriminerer, bør vi også få på plass reguleringer knyttet til hvordan utviklere av kunstig intelligens tester sine løsninger.
- Diskriminering er også et omfattende område. Det som regnes som diskriminerende i ett land, trenger ikke nødvendigvis være diskriminerende i et annet. Reguleringer av hvordan man kan gjøre tester for å avsløre preferanser, partiskhet, skjevheter med mer, må også etableres.
- Kunstige intelligens-systemene bør være åpne og transparente, slik at vi har fullt innsyn i hvorfor de gjør som de gjør og for at vi enkelt skal både identifisere og rette opp i eventuelle feil eller mangler.
- Selskaper og individer som utvikler kunstig intelligens-løsninger må kunne være enkle å identifisere og ansvarliggjøres for eventuelle skader, diskrimineringer eller mangler.
- Vi bør ha på plass reguleringer som sier klart og tydelig ifra hvordan lagring, behandling og deling av data den kunstige intelligensen bruker for å trene og lære, skal håndteres på en sikker måte for å beskytte personvernet.
- Den kunstige intelligensen er avhengig av data for å lære, og derfor bør det også komme på plass reguleringer knyttet til markedsføring og reklame av kunstig intelligens-tjenester, for å unngå at vi blir lurt av aktører til å gi fra oss personinformasjon og data som vi ikke forstår eller vet hva blir brukt til.
- For en bærekraftig utvikling av kunstig intelligens bør også det økonomiske ansvaret reguleres. For selv om teknologi og kunstig intelligens kan være svaret på mange utfordringer, kommer det også gjerne med konsekvenser. Kunstig intelligens vil føre til økonomisk gevinst for noen, men økonomisk tap for andre.
- Kunstige intelligens-tjenester forbruker strøm. Noen mer enn andre. Derfor bør vi også ta sikte på å få på plass reguleringer som setter krav til hvor stort miljøavtrykk den enkelte kunstig intelligens-tjenesten kan ha. I tillegg bør det være mulig å regulere energiforbruket, slik at det ikke går på bekostning av mer samfunnskritiske og energiintensive oppgaver.
Sameksistens
Fremtiden vil i økende grad bli preget av teknologi og kunstig intelligens – en fremtid hvor den kunstige intelligensen vil sameksistere med vår menneskelige intelligens. På samme måte som vi har etablerte regler, både juridiske, etiske, moralske og fornuftige, vil vi utvilsomt være best tjent med å få på plass gode reguleringer for å sikre en ansvarlig, trygg og bærekraftig utvikling av kunstig intelligens.
Lar vi utviklerne få lov til å utvikle kunstig intelligens på sine egne premisser, kan jobben med å regulere i ettertid, fort komme for sent. Når teknologiutviklingen skjer i et eksponentielt omfang, er det ikke lenger nok å planlegge for det beste. Vi må også være forberedt på det verste.