AI rummer enorme muligheder – men uden stærk governance og tillid kan teknologien skabe compliance-risici, bias og sikkerhedsproblemer. Det er nødvendigt med en proaktiv tilgang til AI-styring for at sikre etiske, transparente og pålidelige systemer. Sådan lyder det fra Josefin Rosén, der er ekspert i troværdig og etisk brug af AI hos SAS Institute.

Kunstig intelligens er allerede blevet en fast del af hverdagen i mange virksomheder, hvor medarbejdere bruger teknologien til alt fra automatisering af kundeservice til tekst- og billedgenerering. Især generativ AI (GenAI) er i gang med at omforme arbejdsprocesser og skabe både effektiviseringer og nye muligheder.
Men med potentialet og mulighederne følger også betydelige risici.
Til eksempel viser SAS-undersøgelser, at op imod 95 pct. af virksomheder savner en klar rammer for AI-styring i arbejdet med GenAI, hvilket gør dem sårbare over for fejl i compliance, juridiske og etiske faldgruber.
Med andre ord har man ikke sine AI-politikker og tilsyn på plads, så risikerer man at forstærke bias, kompromittere datasikkerheden, skabe upålidelige resultater og gøre sig til synder i ulovligheder. Derfor er solid governance alfa og omega, når vi taler om ansvarlig AI.
Lovgivning gør AI-governance uundgåelig
Et af de væsentligste punkter, man som virksomhed har at navigere efter, er den lovgivning, der er på AI-området.
For europæiske virksomheder sætter EU’s AI Act sætter standarden, mens andre lande udvikler deres egne regler. En ting er dog sikkert, at uanset, hvor man befinder sig, så vil de virksomheder, der ikke følger de lovgivningsmæssige rammer, ikke blot risikere juridiske sanktioner, men også et blakket ry, der i sidste konsekvens vil kunne mærkes på bundlinjen.
Har man en stærk AI-styring, sikrer man sig altså både compliance og tillid, samtidig med at man understøtter sine forretningsmål. Særligt i sektorer som finans, sundhed og offentlige instanser er transparens og ansvarlighed afgørende.
En afgørende faktor er tillid
Hvad angår tillid, så kan vigtigheden af tillid til AI og teknologien bag ikke undervurderes. Kunder, medarbejdere og partnere skal føle sig trygge ved, at de AI-systemer, de interagerer med, anvendes ansvarligt og retfærdigt. Hvis tilliden svækkes, risikerer virksomheder at møde modstand både internt og eksternt – og med god grund.
Eksempelvis kan AI, der trænes på forudindtagede data, forstærke samfundsmæssig ulighed eller diskriminere minoriteter. Samtidig er AI-systemer attraktive mål for cyberangreb eller kan misbruges i hybridtrusler, hvilket kan føre til databrud, tyveri af intellektuel ejendom og misinformation. Virksomheder og organisationer, der ikke aktivt arbejder med AI-styring, vil derfor få svært ved at opnå den nødvendige troværdighed, der skal medvirke til at sikre en succesfuld implementering.
Vejen til ansvarlig AI hedder governance-first
Helt grundlæggende kan man altså sige det, at virksomheder kun kan realisere AI’s fulde potentiale, hvis compliance, etik og sikkerhed tænkes ind fra starten. Vil man sikre sig, at ens AI bliver en strategisk løftestang for innovation og konkurrenceevne, så er governance-first vejen frem.
Men det kræver også konkrete investeringer i uddannelse, udvikling af interne AI-politikker og implementering af teknologi, der håndhæver komplekse governancearbejde i stor skala.
Desuden skal man opdyrke en AI-kultur. Virksomhedsledere i dag skal klædes på til at træffe informerede beslutninger og have viden og de værktøjer, der er nødvendige for at implementere AI på en ansvarlig måde.
Kan man få alt det på plads, så vil man kunne sikre sig at AI-systemer prioriterer retfærdighed, sikkerhed, inklusion og robusthed i alle faser af livscyklussen. Lidt højstemt kan man sige, at fremtidens AI ikke bør overlades til tilfældigheder, men formes af dem, der tør tage ansvaret.