Styret ditt bruker kanskje AI-verktøy som selskapet aldri har sikkerhetsvurdert

Syv av ti styremedlemmer bruker kunstig intelligens i sitt arbeid, og over 80 % av dem mangler formelle retningslinjer. En undersøkelse gjort av NHH og Orgbrain viser at 1 av 5 styremedlemmer jevnlig deler økonomiske prognoser med verktøy som ikke er sikkerhetsklarert.

Urovekkende AI-tall fra (f.v.) Thomas Evensen, Carl Christian Christensen, Dag Asheim, Bram Timmermanns og Bente Sollid
Publisert

Norske styrer somler ikke med AI: Rapporten «AI in the Norwegian Boardroom», utarbeidet av Norges Handelshøyskole (NHH) og styreverktøy-leverandøren Orgbrain, viser at norske styremedlemmers bruk av kunstig intelligens (AI) i styrearbeidet faktisk er nokså utbredt.

I undersøkelsen, som er besvart av 777 styremedlemmer, sier så mye som hele 73 prosent av respondentene at de bruker AI. Samtidig oppgir hele 81 prosent at virksomheten mangler formaliserte retningslinjer for bruken. 

Mye av bruken skjer dermed i et uregulert «gråsone-marked», med personlige abonnementer og åpne verktøy. Spørsmålet blir da om styremedlemmenes iver etter bistand fra AI, rett og slett har løpt fra selskapenes evne til å holde kontroll. 

Betydelig styringsrisiko

Funnene om datadeling er spesielt urovekkende for aktører som revisorer og CFO-er. Rapporten viser nemlig at styremedlemmer jevnlig fôrer sensitive dokumenter inn i AI-løsninger:

  • 18 prosent har benyttet AI til å behandle økonomiske opplysninger som regnskap og prognoser.

  • 17 prosent har benyttet verktøyene til forretningskritiske strategidokumenter.

  • 14 prosent har behandlet juridiske dokumenter og kontrakter gjennom AI-løsninger.

– Det som overrasker mest er ikke at styremedlemmer bruker AI, men at de deler finansiell, strategisk og juridisk informasjon med verktøy som aldri har vært gjennom noen form for organisatorisk vurdering, sier Bram Timmermans, professor ved NHH og forskningsleder for DIG.

Han kaller situasjonen en styringsrisiko de fleste styrer ennå ikke har tatt stilling til.

Risikable «gratis-abonnement»

Et sentralt problem er at enkelte av styremedlemmene ikke ser ut til å være bevisst om at det finnes et betydelig skille mellom sikre bedriftsløsninger og åpne forbrukertjenester. 

Noen av verktøyene som enkelte av styremedlemmer oppgir å benytte, bruker nemlig samtaler og dokumenter som lastes opp til å trene opp modellen videre. 

– Styrene må ta en aktiv holdning og få AI-bruken inn i trygge rammer. Det er få virksomheter der «et gratis AI-abonnement der samtalen brukes til trening» er et ansvarlig nivå å legge seg på når man behandler forretningshemmeligheter, sier Dag Asheim, leder for AI i Orgbrain.

– Heldigvis ser vi at stadig flere kunder etterspør sikre AI-løsninger der sensitive data forblir under virksomhetens kontroll, sier han videre.

Setter grensen ved beslutninger

Nå er det ikke tilfeldig at Orgbrain backer denne studien, siden de leverer nettopp styreverktøy som kan bidra til at arbeidet gjøres på en tryggere måte. Like fullt, de har tusenvis av norske styrer på kundelisten, og kjenner igjen bildet rapporten tegner. Asheim understreker likevel at styremedlemmene ikke er helt indifferente til risikoene ved å bruke AI.

Et av de tydeligste funnene i rapporten handler nemlig om hvor styremedlemmene setter grensen for teknologiens rolle. Mens 60 prosent er komfortable med å bruke AI som referent i møter, faller tilliten kraftig når det gjelder selve beslutningene. Kun 13 prosent er komfortable med at AI opptrer som beslutningstaker.

– Det er en tydelig rød strek når det kommer til å la teknologien ta styrebeslutninger. Respondentene er komfortable med å bruke AI til å forberede og dokumentere styremøtene, men enn så lenge vil de fortsatt kunne ta beslutningene selv, sier Asheim.

Rapporten viser også et markant kompetansegap: Kun 20 prosent av de spurte styrene har medlemmer med dyp kompetanse på feltet. Dette kan et stykke på vei forklare hvorfor de formelle retningslinjene glimrer med sitt fravær.

Powered by Labrador CMS