KUNSTIG INTELLIGENS

KI: Sikkerhet eller kaos? Instruerbarhet som vår digitale livvakt

Thomas Becke i Ayfie skriver i debattinnlegget at tilfeldigheten som er integrert i språkmodeller, ikke en svakhet, men en styrke som gjør modellene mer dynamiske og tilpasningsdyktige.

Thomas Becke, kommersiell direktør i Ayfie, svarer i dette innlegget på kronikken hvor Geir Arild Engh-Hellesvik i Nasjonal sikkerhetsmyndighet skriver at vi ikke kan nyttiggjøre oss generativ kunstig intelligens om vi ikke har sikkerhet i bunn.
Thomas Becke, kommersiell direktør i Ayfie, svarer i dette innlegget på kronikken hvor Geir Arild Engh-Hellesvik i Nasjonal sikkerhetsmyndighet skriver at vi ikke kan nyttiggjøre oss generativ kunstig intelligens om vi ikke har sikkerhet i bunn. Foto: Pressebilde
Thomas Becke, kommersiell direktør i Ayfie
15. aug. 2024 - 11:51

Geir Arild Engh-Hellesvik fra NSM har satt fingeren på pulsen av en av vår tids største teknologiske paradokser: Hvordan kan vi utnytte den grensesprengende kraften i generativ kunstig intelligens (KI) uten å kompromittere sikkerheten?

Sikkerhet i KI strekker seg langt utover robuste algoritmer og kryptering. Det handler også om å forstå og kontrollere den «randomness» som bevisst er integrert i språkmodeller for å etterligne menneskelig tankegang og kreativitet. Denne tilfeldigheten er ikke en svakhet, men en styrke som gjør modellene mer dynamiske og tilpasningsdyktige. Samtidig skaper det utfordringer for sikkerhet og forutsigbarhet som må adresseres.

Det er også viktig å understreke at språkmodeller ikke er søkemotorer som Google eller Bing. De har ikke tilgang til kontinuerlig oppdatert informasjon på samme måte som søkemotorer. I stedet baserer de seg på det treningsgrunnlaget de har fått, som kan være begrenset i tid og omfang.

Nøkler til forbedring

Instruerbarhet og et rikt treningsgrunnlag er nøklene til å forbedre KI-modeller, spesielt når det gjelder deres evne til å forstå og respektere kulturelle særegenheter og språknyanser. Dette er særlig viktig fordi KI-modeller ofte er trent primært på åpent tilgjengelig tekst, som typisk er dominert av engelskspråklig, formelt innhold. Det er verdt å merke seg at disse modellene i mindre grad er trent på litteratur, innhold fra ulike forum eller sosiale medier. Denne begrensningen i treningsdata kan være innskrenkende for modellenes evne til dypere forståelse av kultur og uttrykksformer, særlig når det gjelder uformelt språk, sjargong og kulturspesifikke referanser.

Mange KI-prosjekter etterlater seg dataspor og ender som «KI-søppel» – noe som igjen påvirker evnen til å nå bærekraftsmåleme, skriver Per Arne Flatebø i IFS i denne kronikken.
Les også

Hvordan balansere KI-investeringer med bærekraftsmål?

Praktiske eksempler

For å illustrere betydningen av instruerbarhet, la oss se på et praktisk eksempel: En mekaniker som ønsker å utføre service på en flymotor, kan bruke en KI-assistent for å få veiledning. Uten instruerbarhet kan KI-systemet gi et generisk svar som ikke tar hensyn til motorens unike egenskaper eller vedlikeholdshistorikk. Men hvis mekanikeren instruerer KI til å konsultere den spesifikke motorens manualer og historikk, kan KI gi en detaljert, skreddersydd prosedyre som tar hensyn til alle relevante faktorer, noe som sikrer en korrekt og effektiv service - med sikkerhet ivaretatt.

Når det gjelder kulturell forståelse og tilpasning, la oss se på et annet eksempel: En internasjonal markedsføringskampanje for et produkt. Uten kulturell kontekst og forståelse kan en KI-assistent generere innhold som er upassende eller til og med støtende i visse kulturer. Men med riktig instruksjon og et rikt treningsgrunnlag som inkluderer kulturspesifikk kunnskap, kan KI-systemet hjelpe til med å skape en kampanje som er sensitiv overfor lokale skikker, tradisjoner og tabuer i ulike markeder.

Disse eksemplene viser hvordan instruerbarhet og kulturforståelse kan forbedre nøyaktigheten og relevansen av KI-systemenes svar, noe som er avgjørende for å håndtere komplekse oppgaver i en rekke fagfelt – fra teknisk arbeid til markedsføring, medisin og juss.

Integritet og ansvarlighet

Det riktig at man skal være varsom med å implementere KI i kritiske systemer. Likevel er det mulig å gjøre det på en sikker måte. Ved å fortsette å utvikle og implementere prinsipper om instruerbarhet, rike treningsgrunnlag og robust sikkerhet, vil KI ikke bare blir et verktøy for verdiskaping, men også et som opererer med integritet og ansvarlighet. Sikkerhet, instruerbarhet og kulturforståelse i KI er ikke motpoler, men samarbeidspartnere som sammen vil forme fremtiden for teknologisk innovasjon. Faren for bakdører og virus gjelder all programvare, ikke bare KI. Installasjoner av KI kan gjøres trygt, uten å måtte gi fra seg data eller med fare for lekkasjer.

Vi kan ikke nyttiggjøre oss generativ kunstig intelligens om vi ikke har sikkerhet i bunn, skriver avdelingsdirektør Geir Arild Engh-Hellesvik i Nasjonal sikkerhetsmyndighet (NSM) i denne kronikken.
Les også

Ingen kan forklare hvordan kunstig intelligens virker

Del
Kommentarer:
Du kan kommentere under fullt navn eller med kallenavn. Bruk BankID for automatisk oppretting av brukerkonto.