KUNSTIG INTELLIGENS

Deler du bedriftens data med alle?

Visste du at ved bruk av kunstig intelligens på arbeidsplassen, foregår 74 til 95 prosent gjennom private kontoer?

En rapport fra Cyberhaven indikerer at ansatte deler juridiske dokumenter, HR-data, kildekoder og annen sensitiv informasjon.
En rapport fra Cyberhaven indikerer at ansatte deler juridiske dokumenter, HR-data, kildekoder og annen sensitiv informasjon. Foto: Vidar Ruud / NTB
Harald Utnes Kvangarsnes, Chief Collaboration Consultant i Advania Norge
12. feb. 2025 - 14:26

Dette debattinnlegget gir uttrykk for skribentens meninger. Ønsker du selv å bidra i debatten, enten med et debattinnlegg eller en kronikk, les retningslinjene våre her.

Tenk deg at mens du jobber målrettet for å beskytte dataene dine, deler ansatte informasjon med store språkmodeller uten at du eller ledelsen vet om det.

Dette fenomenet kaller vi vi ofte for skygge-KI. Begrepet får det til å høres ut som en skummel skygge som lurer i mørket, og for mange bedrifter er det nettopp det – en trussel mot datasikkerheten.

Kunstig intelligens (KI) gir oss store muligheter, spesielt for automatisering og effektivisering. Utfordringen oppstår når KI-verktøyene brukes uten tilsyn, rammeverk eller retningslinjer fra ledelsen.

Deler dokumenter og kildekoder

– Det er på høy tid å ta en proaktiv rolle, lage retningslinjer og skape en kultur for trygg bruk av KI, skriver Harald Utnes Kvangarsnes i Advania Norge <i>Foto:  Advania</i>
– Det er på høy tid å ta en proaktiv rolle, lage retningslinjer og skape en kultur for trygg bruk av KI, skriver Harald Utnes Kvangarsnes i Advania Norge Foto:  Advania

Ifølge en rapport fra Cyberhaven i 2024 skjer nesten 74 prosent av bruken av Chat GPT gjennom private kontoer, for Google Gemini er tallet opp mot 95 prosent.

Rapporten indikerer også at ansatte deler juridiske dokumenter, HR-data, kildekoder og annen sensitiv bedrifts- eller kundeinformasjon.

Når dataene blir en del av treningen til språkmodellen, risikerer du i verste fall at de blir offentlig tilgjengelig for uvedkommende og konkurrenter. 

Et lederansvar

Er det håpløst? Absolutt ikke! Det er nå vi som ledere må koble oss på og reagere! 

Å stenge døren for KI-teknologi er ikke bare urealistisk, det vil også begrense egen konkurransekraft.

I stedet for å frykte teknologien, må vi tilrettelegge for trygg og ansvarlig bruk. Det finnes verktøy i dag som lar deg sjekke egen datasikkerhet og identifisere risiko knyttet til KI-bruken i selskapet. Samtidig er det viktig å rydde opp i interne data, definere graden av sensitivitet og styre tilganger – både for ansatte og for private KI-boter.

Å lagre nøkler i et åpent skap

Å ta i bruk KI uten å ha en solid strategi, er som å oppbevare husnøklene i en safe som ikke er låst.

Ved å bygge kunnskap og en trygg kultur rundt KI-bruken, plasserer du nøklene i den låste safen, hvor bare de rette personene har tilgang.

Det er på høy tid å ta en proaktiv rolle, lage retningslinjer og skape en kultur for trygg bruk av KI. Slik kan skyggen av uautorisert KI-bruk ikke bli en trussel, men et verktøy vi kan dra nytte av.

Meta skal legge en kjempekabel under havet, og dermed forhåpentligvis legge bedre til rette for KI-teknologiens fremtidige kapasitetskrav.
Les også

Meta bygger undersjøisk fiberkabel rundt hele kloden

Del
Kommentarer:
Du kan kommentere under fullt navn eller med kallenavn. Bruk BankID for automatisk oppretting av brukerkonto.