Annonce
Nyt lederskab med 
Peter Juul Jørgensen

Hvad stiller du op, når dine medarbejdere går guerilla-GPT?

Foto: MaryValery/GettyImages
22. april 2026 kl. 05.00

I løbet af få år er AI gået fra eksperiment til daglig drift. Ifølge Danmarks Statistik anvender 42 procent af danske virksomheder allerede kunstig intelligens i større eller mindre grad. Det er en tredobling siden 2023 og vidner om, hvor hurtigt teknologien er blevet hverdag.

Men i denne hurtige udvikling skal vi også huske på, at tempo ikke altid er det samme som retning. Overblikket over, hvad der egentlig foregår i organisationens digitale maskinrum, kan let gå tabt. 

Når medarbejdere bruger AI-værktøjer uden for it-afdelingens kontrol, sker det ofte med ønsket om at effektivisere og løse opgaver smartere. Men bag de gode intentioner lurer også en reel risiko: at virksomheden uforvarende kommer til at åbne døren for skygge-AI og dermed for datalæk og manglende compliance. 

”AI væves gradvist ind i virksomhedens tekniske og organisatoriske strukturer, uden at nogen helt har overblik over konsekvenserne.” 

Min erfaring er dog, at det sjældent skyldes modvilje mod retningslinjer – tværtimod handler det om nysgerrighed og et oprigtigt ønske om at bidrage og udforske nye muligheder. For mig handler ledelse i AI-tiden netop om at skabe de rammer, hvor den nysgerrighed kan udfolde sig sikkert og ansvarligt – ikke om at sætte farten ned.

Risikoen ligger dybere end ChatGPT

Når vi taler om skygge-AI, tænker mange straks på medarbejdere, der i det skjulte bruger generative AI-værktøjer som ChatGPT, Copilot eller Mistral til at skrive tekster eller analysere data. Men det er kun toppen af isbjerget. AI er i dag allerede indlejret i en lang række forretningsapplikationer og udviklingsmiljøer – også dér, hvor virksomheden måske ikke har fuldt indblik i, hvordan data håndteres.

Det kan være interne udviklere, der tester open-source-modeller, partnere, der integrerer tredjepartsløsninger, eller leverandører med egne AI-funktioner. Resultatet kan hurtigt blive uigennemsigtige algoritmer, modeldrift og i værste fald dataforgiftning – altså manipulation af træningsdata, der kan skabe fejl i virksomhedens beslutningsgrundlag, uden at nogen opdager det. 

Skygge-AI er derfor sjældent et spørgsmål om enkelte medarbejdere. Det handler snarere om, at AI gradvist væves ind i virksomhedens tekniske og organisatoriske strukturer, uden at nogen helt har overblik over konsekvenserne.

Det er ikke kun et teoretisk problem. Vi ser allerede tendenserne herhjemme, hvor flere kommuner og finansielle virksomheder midlertidigt har forbudt brugen af generativ AI. Ikke fordi de er imod teknologien, men fordi de mangler redskaberne til at styre den sikkert. Det er en forståelig reaktion, men også et tegn på, at vi stadig mangler praktiske rammer til at gøre AI ansvarlig i hverdagen. 

Læs også

Fælles ansvar kræver fælles værktøjer

Skygge-AI skal derfor ikke håndteres som en isoleret it-opgave. Tværtimod kræver det et fælles ansvar på tværs af organisationen. Virksomheder skal sikre, at governance og compliance er forankret dér, hvor AI-beslutningerne træffes, fra appudvikling og leverandørvalg til marketing og HR. 

”Manuel kontrol har sine begrænsninger. Med AI’s tempo og kompleksitet er der også brug for automatiserede værktøjer, der overvåger brugen, håndhæver politikker og uddanner medarbejdere i realtid.”

Men vi må også erkende, at manuel kontrol har sine begrænsninger. Med AI’s tempo og kompleksitet er der også brug for automatiserede værktøjer, der overvåger brugen, håndhæver politikker og uddanner medarbejdere i realtid.

Mange kan med fordel trække på de erfaringer, de allerede har fra arbejdet med at udvikle og drifte software, hvor samarbejde, løbende test, versionsstyring og overvågning sikrer stabile løsninger. Samme metodiske disciplin kan også bruges til at gøre AI mere sikkert og pålideligt – uden at hæmme innovationen. Samarbejde med eksterne partnere kan også være en hjælp til at afprøve og forankre nye AI-løsninger på en sikker og ansvarlig måde. 

Læs også

En klogere vej til ansvarlig innovation

Når medarbejdere fodrer offentlige AI-tjenester med fortrolige oplysninger, svarer det i praksis til at lægge dem åbent på internettet. Derfor bør flere overveje private AI-miljøer, hvor data, træning og modeldrift er under fuld kontrol – og hvor man kan leve op til egne sikkerheds- og compliancekrav.

For det handler netop ikke om at bremse udviklingen, men om at styre den klogt. Skygge-AI skal modgås ved at skabe en kultur, hvor eksperimenter og innovation sker ansvarligt. Det kræver investeringer i de rette værktøjer og processer, men også et skifte i tankegang: fra forsigtighed til forvaltning. Vi skal ikke låse døren til nye teknologier, men sikre, at den åbnes med omtanke.

Om

Peter Juul Jørgensen er landechef for Lenovo Danmark, hvor han har været med til at opbygge Lenovos danske forretning. Han har mere end 40 års erfaring i techbranchen herunder 20 år hos IBM.

Annonce
Mandag Morgen logo

Læs mindre - forstå mere

  • ChefredaktørAndreas Baumann
  • Adm DirektørAnne Marie Kindberg
  • CFOAnders Jørning
  • Ansv. ChefredaktørJakob Nielsen
  • Kommerciel direktørMichael Thomsen
  • Formand og udgiverRasmus Nielsen
AdresseNy Kongensgade 101472 København KTlf. 33 93 93 23mm@mm.dkCVR nr.: 38253395

Mandag Morgen leveres af Mandag Morgen ApS, der ejes af Alrow Media ApS.

Copyright © Mandag Morgen, 2026