National strategi for anvendelse af Militær AI: ChatGPT's Deep Research

 Tak for afklaringen! Jeg går nu i gang med at skrive en strategi for Danmarks anvendelse af militær AI målrettet Forsvaret. Den vil være i rapportformat og baseret både på indholdet fra podcasttransskriptionen (med Jeppe Teilskov-Jakobsen) og den rapport, han omtaler, samt øvrige relevante internationale kilder – især fra USA, NATO og lignende.

Jeg vender tilbage med en færdig rapport til dig snart.

Strategi for Danmarks anvendelse af militær kunstig intelligens (AI)

Indledning

Det danske forsvar står over for en ny virkelighed, hvor kunstig intelligens (AI) bliver en uundgåelig del af både den militære organisation og militære operationer. Udviklingen internationalt er hastig: Stormagter som USA og Kina investerer massivt i militær AI for at styrke deres teknologiske forspring og operationelle effektivitet. USA har f.eks. på ét år (2022-23) indgået AI-kontrakter for over 557 mio. USD og formået at omgå tunge indkøbsprocedurer – en tilgang der placerer dem helt i front med implementeringen af militær AI. Samtidig vurderes Kina at være mindst lige så langt fremme som USA, om end det er svært at afgøre præcist, da meget foregår under radaren. Begge lande betragter AI som afgørende for fremtidig militær magtbalance. NATO-allierede har også forpligtet sig til at accelerere anvendelsen af AI på forsvarsområdet, men understreger, at det skal ske på en ansvarlig måde i overensstemmelse med fælles værdier og international lov.

Ruslands invasion af Ukraine i 2022 har desuden fungeret som et ufrivilligt ”eksperimentarium” for militær AI. I Ukraine-konflikten anvendes AI-værktøjer allerede i praksis – bl.a. til efterretningsanalyse og måludpegning for angreb. Et eksempel er det amerikanske softwarefirma Palantirs AI-platform, som ifølge offentlige udtalelser understøtter størstedelen af Ukraines måludpegning. De erfaringer, der høstes i Ukraine, kommer de allierede til gode: Amerikanerne har kunnet teste og forbedre deres AI-systemer under virkelige krigsforhold, hvilket f.eks. har været med til at modne det AI-baserede analyseprojekt Project Maven (til identifikation af vejsidebomber) fra kun at virke i teori til at fungere i praksis. Denne krigserfaring illustrerer, at AI kan give en reel militær fordel, men også at adgangen til valide træningsdata fra realistiske scenarier er afgørende.

På denne baggrund er det rettidigt, at Danmark formulerer en strategi for militær AI. Formålet med denne rapport er at give Forsvaret et operationelt og strategisk udgangspunkt for at igangsætte eller videreføre anvendelsen af AI-teknologier i militære sammenhænge – på en ansvarlig og fremtidsorienteret måde. Strategien baserer sig på indsigter fra både nationale og internationale erfaringer: dels en nylig rapport fra Center for Militære Studier om Militær AI: Amerikanske erfaringer, danske muligheder forfattet af Jeppe T. Jacobsen, dels den tilhørende diskussion i podcasten Frontlinjen med samme forfatter, og endelig de nyeste strategier og erfaringer fra udlandet – især USA, NATO samt aktører som Kina og erfaringerne fra krigen i Ukraine.

I det følgende præsenteres først en inddeling af militær AI i tre hovedkategorier med eksempler på anvendelser. Derpå identificeres de strategiske fordele ved at integrere AI i forsvarets kapaciteter, såvel som de udfordringer der skal overvindes. Herefter følger et afsnit om etiske og folkeretlige overvejelser ved militær AI, inden rapporten munder ud i en række konkrete anbefalinger vedrørende datafundament, organisatorisk transformation, eksperimentering, samarbejde med forskningsmiljøer og industri samt test- og evalueringsregimer.

Kategorier og anvendelsesområder for militær AI

Militær AI kan dække over et bredt spektrum af systemer og applikationer. For overskuelighed opdeles det her i tre funktionelle kategorier: drifts-AI, beslutningsstøtte-AI og AI-våbensystemer. Disse kategorier overlapper til dels hinanden på et kontinuum, men de giver nyttige nedslagspunkter for at forstå forskellige anvendelser og de vilkår, som AI fungerer under i militær kontekst. Nedenfor beskrives hver kategori med typiske eksempler.

Drifts-AI

Drifts-AI refererer til AI-applikationer der anvendes i relativt kontrollerede miljøer inden for den militære organisation, hvor data er rigeligt tilgængelig, opgaverne er forudsigelige, reaktionstiden ikke behøver være høj, og konsekvensen af eventuelle fejl er begrænset. Med andre ord handler det om at optimere og automatisere Forsvarets interne forvaltning og støttefunktioner. Eksempler på drifts-AI inkluderer:

  • Logistik og vedligeholdelse: AI kan forudsige hvornår materiel trænger til eftersyn eller udskiftning (predictive maintenance), ved at analysere store datamængder fra sensorer og finde afvigelser fra normale mønstre. Dette muliggør mere effektiv vedligehold og mindre nedetid for f.eks. køretøjer, fly og skibe.

  • Administrative systemer: Inden for HR og administration kan AI automatisere rutineprægede opgaver og databehandling. Et konkret eksempel er Forsvarets brug af en robotsoftware til at støtte registreringen af værnepligtige, hvilket frigør tid og reducerer fejl.

  • Uddannelse og træning: AI-baserede simuleringsværktøjer kan optimere træning ved at tilpasse scenarier til den enkelte soldats niveau og læringsmønstre. Ligeledes kan AI bruges til at analysere lessons learned fra øvelser og indsatser for løbende at forbedre doktriner og procedurer.

Drifts-AI minder på mange måder om, hvordan enhver moderne virksomhed kan bruge AI til at optimere processer og arbejdsgange. Forskellen er, at i en militær kontekst skal disse systemer også sikres mod fjendtlige aktører. Selvom drifts-AI sjældent har direkte indflydelse på våbenanvendelse, kan de alligevel udgøre mål for fjendtlige hackerangreb, der ønsker at lamme fx logistikkæder eller administrative systemer. Sårbarheder i drifts-AI skal derfor adresseres med cybersikkerhed, da angreb på disse støttefunktioner kan få afledte konsekvenser for forsvarets evne til at føre krig.

Beslutningsstøtte-AI

Beslutningsstøtte-AI dækker over AI-systemer, som hjælper mennesker med at træffe bedre og hurtigere beslutninger på baggrund af enorme datamængder og komplekse informationsstrømme. Disse applikationer opererer ofte i et mere dynamisk miljø end drifts-AI – de skal kunne indsamle og analysere data fra både interne og eksterne kilder i realtid og levere anbefalinger, der kan være kritiske for missionens udfald. Her er menneskelig reaktionstid vigtigere, og fejl kan få større konsekvenser end i rent administrative sammenhænge. Eksempler på beslutningsstøtte-AI omfatter:

  • Efterretningsanalyse og overvågning: AI kan hurtigt gennemtrawle store datamængder fra sensorer, droner, satellitter, radarbilleder m.v. og identificere mønstre eller trusler, som mennesker ville overse. Et kendt eksempel er det amerikanske Project Maven, som blev lanceret i 2017 for at bruge maskinlæring til at analysere dronevideooptagelser og opdage improviserede vejsidebomber (IEDs) i Irak og Afghanistan. Projektet mødte indledningsvist udfordringer, men har gennem fortsat udvikling og afprøvning (senest i Ukraine) demonstreret, hvordan AI kan forbedre måludpegning og trusselsidentifikation i felten.

  • Command & Control (C2) og operationsplanlægning: Beslutningsstøtte-AI kan integrere data fra mange forskellige kilder for at give førere et helhedsbillede og foreslå optimale handlemuligheder. I et moderne multidomain-scenarie – hvor operationer på land, til vands, i luften, cyber og rummet skal koordineres – kan AI sammenkøre enorme mængder data og eksempelvis beregne den bedste rute eller taktik for en enhed under givne omstændigheder. Sådanne systemer kan anbefale, hvor og hvornår styrker bør indsættes for størst effekt. Det danske forsvarschef Flemming Lentfer har netop fremhævet behovet for “servere før kampvogne” for at muliggøre denne slags datadrevne operationer, hvor alle sensorer og enheder deler oplysninger og udnytter AI til at skabe fælles situationsforståelse.

  • Beslutningsstøtte på strategisk niveau: Udover det taktiske niveau kan AI også støtte beslutninger på højere niveau, fx ved spilteoretiske simuleringer af konfliktscenarier, optimering af forsyningskæder under kriser, eller analyse af store tekstmængder (rapportering, efterretningsrapporter, nyhedsstrømme) for at varsle om sikkerhedspolitiske ændringer.

Beslutningsstøtte-AI fungerer oftest i samspil med analytikere og beslutningstagere. Mennesket er stadig i loopet, men støttes af AI’ets evne til at behandle big data og tilbyde anbefalinger. Et kerneformål er at håndtere den informationsoverload, som moderne militære operationer indebærer – NATO’s vision for multidomæne-operationer afhænger netop af at kunne analysere voksende datamængder på tværs af domæner. Udbyttet er potentielt bedre beslutninger og hurtigere reaktion, men samtidig rejser det krav til at beslutningstagerne har tillid til AI’ets output og forstår begrænsningerne (se Udfordringer nedenfor).

AI-våbensystemer

AI-våbensystemer er AI-applikationer, der direkte indgår i våbenplatforme eller kampoperationer, hvor de kan påvirke eller selv foretage målangivelser og våbenindsættelse. Dette er den mest kontroversielle og risikofyldte kategori, da AI her opererer under de mest uforudsigelige og tidskritiske forhold, og potentielt med menneskeliv på spil. Modsat drifts- og støttesystemer befinder AI-våbensystemer sig i et dynamisk, omskifteligt og kun delvist kontrollerbart miljø – fx midt på en kampplads – hvor adgang til stabile dataforbindelser og cloudressourcer kan være begrænset, men hvor konsekvenserne ved fejl er enorme.

Eksempler på AI-våbensystemer inkluderer:

  • Autonome våbenplatforme: Droner eller landkøretøjer der ved hjælp af AI selv kan navigere, identificere mål og eventuelt træffe beslutning om våbenindsats uden direkte menneskelig styring. Et eksempel er USA’s Skyborg-projekt, der udviklede en AI-styret autonom kampdrone som “vingmand” til bemandede jagerfly. Ligeledes eksperimenterer flere lande (bl.a. USA, Kina, Tyrkiet) med sværme af autonome droner, som koordineret kan angribe mål.

  • Defensive våbensystemer med AI: AI kan integreres i luftforsvars- eller missilforsvarssystemer for hurtigere og mere præcist at detektere trusler og iværksætte modforanstaltninger. For eksempel kan et AI-understøttet luftforsvar automatisk klassificere indkommende trusler og fordele afværge-ressourcer optimalt.

  • Præcisionsvåben og missilstyring: Moderne missiler og præcisionsvåben kan bruge AI-algoritmer til billedegenkendelse eller sensorfusion, så de bedre kan finde og ramme bevægelige eller camouflerede mål. Kina undersøger bl.a. AI-baseret målsøgningssystemer for hypersoniske glidefartøjer og krydsermissiler, og USA har lignende programmer.

AI-våbensystemer repræsenterer det måske mest disruptive potentiale ved militær AI, men også den største bekymring rent etisk og folkeretligt. Våbensystemer med autonome funktioner udfordrer princippet om meningsfuld menneskelig kontrol med magtanvendelse (se afsnittet Etik og folkeret). Ikke desto mindre er de ikke længere kun science fiction – flere af disse systemer er en militær realitet eller under anskaffelse allerede i dag. Derfor må Forsvaret forholde sig aktivt til, hvordan sådanne kapaciteter evt. skal integreres på forsvarlig vis, og hvordan man samtidig beskytter dem mod modforanstaltninger (f.eks. fjendtlig vildledning af AI-modellerne eller hacking).

Strategiske fordele ved militær AI

En offensiv og ansvarlig udnyttelse af AI rummer en række potentielle fordele for Forsvaret:

  • Forbedret beslutningstagning og tempo: AI kan analysere langt større datamængder langt hurtigere end mennesker. Dette kan give danske enheder et informationsmæssigt forspring på kamppladsen, så de kan “se” og forstå situationen før modstanderen, træffe bedre beslutninger og reagere hurtigere. Kombineret med præcisionsvåben kan dette øge effektiviteten af militære operationer markant.

  • Ressourceoptimering og øget effektivitet: Gennem automatisering af rutineopgaver og bedre vedligeholdelsesplanlægning kan AI frigøre mandskab og midler. For eksempel kan predictive maintenance reducere udgifter til reparationer og øge materieltilgængeligheden. AI kan også optimere logistikkæder, så de rette forsyninger når frem i rette tid, selv under komplekse operationer.

  • Situationsforståelse på tværs af domæner: AI er en mulig nøgle til at realisere NATO’s vision om multidomæne-operationer, hvor land-, sø-, luft-, cyber- og rumdomænet integreres. AI kan sammenstille data fra alle disse kilder til én samlet situationsforståelse og derved muliggøre bedre koordinerede indsatser. Dette styrker både kollektivt forsvar og krisestyring, som er centrale NATO-kerneopgaver.

  • Innovationsdrev og fremtidssikring: Ved at satse på AI sender Forsvaret et signal til omverdenen (herunder allierede) om, at Danmark er indstillet på at løfte sin del af byrden i udviklingen af fremtidens forsvarsteknologier. Det sikrer også, at Forsvaret forbliver en attraktiv samarbejdspartner for højteknologiske allierede som USA. Som CMS-rapporten fremhæver, er USA strategisk first mover på grund af frygten for at sakke bagud i det militærteknologiske kapløb, mens Danmark traditionelt har været second mover motiveret af at understøtte NATO og relationen til USA med minimalt aftryk. En dansk AI-strategi vil hjælpe med at lukke dette gap og følge med den teknologiske udvikling, de alliancemæssige forventninger og det ændrede trusselsbillede.

  • Afskrækkelse og forsvarsevne: En moderne forsvarsmagt der effektivt udnytter AI, vil være sværere at overraske eller overmatche. Det kan virke afskrækkende på en potentiel modstander, at Forsvaret råder over kapaciteter som fx autonome systemer, avanceret overvågning og hurtig måludpegning. Samtidig forbedres evnen til at opdage og reagere på trusler (f.eks. droner eller missiler) i tide gennem AI-assisteret overvågning.

Sammenfattende kan militær AI – når den implementeres klogt – blive et force multiplier for danske forsvarsevner. Teknologien kan hjælpe med at opretholde et kvalitativt overtag selv for en lille styrke, forudsat at de menneskelige beslutningstagere, doktrinerne og organisationen forstår at udnytte AI korrekt.

Udfordringer ved integration af AI i Forsvaret

Selvom potentialet er stort, er der en række strategiske og praktiske udfordringer, der skal håndteres, før militær AI for alvor kan komme til sin ret i Forsvaret. CMS-rapporten identificerer syv gennemgående udfordringer, som international erfaring (især fra USA) viser, ofte bremser udvikling og implementering af militær AI. Disse udfordringer – som også gør sig gældende i dansk kontekst – beskrives her:

  • Datakvalitet og -tilgængelighed: AI’s output er kun så godt som det datagrundlag, den fodres med. En stor udfordring er at sikre høj datakvalitet på tværs af Forsvarets mange systemer. Data er ofte gemt i forskellige formater og siloer, og skal renses og standardiseres før det kan udnyttes af AI-modeller. Skal store datamængder fra forskellige sensorer og systemer “tale sammen”, kræver det et stort arbejde at integrere dem. Hertil kommer, at nogle typer militær AI også behøver data fra kilder uden for organisationen (f.eks. åbne kilder, efterretninger fra allierede eller realtidsdata fra kampzonen), hvilket kan være svært at skaffe i tilstrækkelig mængde og kvalitet, især opdaterede “krigsdata” i fredstid. Datakvalitetsudfordringen er mest overkommelig inden for drifts-AI, hvor data internt kan struktureres, men vokser for beslutningsstøtte- og våbensystemer, der opererer i uforudsigelige miljøer.

  • Forklarbarhed og “black box”-problemer: Moderne AI (fx dybe neurale netværk) kan være ugennemsigtige i deres beslutningsgrundlag. I militær sammenhæng opstår en forklarbarhedsudfordring: Hvordan sikrer man, at brugerne forstår hvorfor AI’en anbefaler en given beslutning, eller på hvilket grundlag den identificerede et mål? Manglende forklarbarhed gør det svært at stole på systemet – især hvis der står menneskeliv på spil. Udfordringen er mindre kritisk ved simple driftsapplikationer, men bliver betydelig ved AI, der påvirker taktiske eller strategiske beslutninger. Selvom forskningen i Explainable AI (XAI) gør fremskridt, er det endnu ikke givet, at komplekse militære AI-modeller kan gøres helt gennemskuelige.

  • Etik og folkeret (LOAC/IHL): AI-våbensystemer rejser fundamentale etiske og juridiske spørgsmål. Hvordan bevarer man meningsfuld menneskelig kontrol med liv-og-død beslutninger, når AI er indblandet? Kan en autonom drone træffe beslutning om at engagere et mål, og hvem bærer ansvaret, hvis noget går galt? Disse spørgsmål knytter sig til folkerettens krav, herunder den humanitære folkeret (krigens love). For drifts- og beslutningsstøttesystemer er de folkeretlige aspekter ikke så udtalte (der er fx ingen juridiske hindringer for at bruge AI til logistik eller analyse), men for våbensystemer er de folkeretlige og etiske udfordringer store. Denne udfordring uddybes i det særskilte afsnit om Etik og folkeret senere.

  • Tillid og menneskelig faktor: Uanset teknologiens fortræffeligheder skal de militære brugere – fra menige soldater til øverstkommanderende – have tillid til AI-systemerne, før de virkelig tages i anvendelse. Hvis der hersker tvivl om pålidelighed eller forståelse for, hvordan AI’en når sine konklusioner, vil operatører tøve med at følge dens råd. I den modsatte grøft kan overdreven tillid (automation bias) også være farligt, hvis mennesket blindt følger AI’en uden at udøve kritisk sans. Det er en balance: Tillidsudfordringen er forholdsvis lille ved enkle støtteværktøjer, men vokser, jo mere AI bevæger sig ind på kerneområder af operationer og kamp. At opbygge passende tillid kræver træning, kulturændringer og track record af succesfulde tests, så personel oplever, at “AI virker” og ledelsen har tillid til det.

  • Organisatorisk viden og kompetencer: Implementering af AI kræver nye kompetencer, som Forsvaret traditionelt ikke har dyrket bredt. Der er brug for specialister i datavidenskab, maskinlæring og softwareudvikling, men også for ledere og analytikere, der forstår AI’ens muligheder og begrænsninger – og som kan bygge bro mellem teknologi og militære behov. Lige nu mangler der specialiseret viden og oversættelseskompetencer i organisationen. Med oversættelseskompetencer menes evnen til at forbinde det militærfaglige domæne med det datatekniske – fx at kunne identificere hvor i doktriner eller operationer, AI kan gøre gavn, og omvendt formidle militære krav til teknologer. Uden disse profiler risikerer AI-projekter at falde mellem to stole: Enten teknologier der ikke passer til brugernes behov, eller brugere der ikke formår at anvende teknologien optimalt.

  • Indkøb, udvikling og bureaukrati: Forsvaret er kendt for lange anskaffelses- og udviklingscyklusser, hvilket er problematisk på et område som AI, der udvikler sig ekstremt hurtigt. Traditionelle udbudsprocedurer og stive kravspecifikationer passer dårligt til agile softwareprojekter. Hvis man insisterer på flerårige projekter med fastlåste krav, risikerer man, at løsningen er forældet ved leveringen. USA har i nogen grad adresseret dette ved at etablere forsvars-innovationsenheder og ved at fremskynde indkøb gennem fx DIU (Defense Innovation Unit) og OTA’er (Other Transaction Authority) for tech-kontrakter. Danmark står med den udfordring, at rigide offentlige indkøbsregler og silo-opdelte budgetter kan kvæle AI-innovation, medmindre der findes veje til smidigere processer.

  • Samarbejde med eksterne parter og sikkerhed: Forsvaret har brug for at trække på det omliggende økosystem af private virksomheder og universiteter for at få det bedste ud af AI – innovationen sker primært civilt. Men et tæt samarbejde møder praktiske barrierer: militære data kan være klassificerede og meget sensitive, hvilket gør det vanskeligt at involvere eksterne udviklere og forskere. Der er behov for løsninger, der tillader eksterne partnere at arbejde med militære data under kontrollerede forhold (f.eks. sikre laboratorier eller datamiljøer). Ydermere kræver samarbejde med industrien fleksible kontraktformer (se ovenfor) og måske nye partnerskabsmodeller. Hvis ikke disse rammer kommer på plads, vil Forsvaret ikke kunne udnytte det dynamiske civilt drevne AI-marked fuldt ud.

Disse udfordringer er væsentlige at erkende på forhånd. Den gode nyhed er, at erfaringer fra især USA viser, at de kan håndteres med de rette tilgange. Amerikanerne har gennem de seneste år søsat en bred vifte af initiativer netop for at imødegå de nævnte problemer – fra datastrategier, agile eksperimenter, nye træningsprogrammer, offentlig-privat innovationssamarbejde til etiske retningslinjer. Danmark kan derfor med fordel lade sig inspirere af disse erfaringer og springe nogle af de “børnesygdomme” over, som andre allerede har kæmpet med. I sidste ende kræver integration af AI en kombination af teknologiske, organisatoriske og kulturelle forandringer i Forsvaret.

Etiske og folkeretlige overvejelser

Anvendelsen af AI i militæret rejser en række etiske dilemmaer og juridiske spørgsmål, som Forsvaret skal adressere fra starten. Særligt AI-våbensystemer – altså potentielt dødelige autonome systemer – aktualiserer diskussionen om, hvorvidt man kan og bør overlade dele af beslutningen om liv og død til maskiner.

Et centralt princip i folkeretten (herunder krigens love) er kravet om meningsfuld menneskelig kontrol over brugen af dødelig magt. Med indførelsen af AI skal vi spørge: Hvor opretholdes denne kontrol? Risikoen er, at jo mere man fjerner det menneskelige led (for eksempel ved at have en autonom drone, der udpeger og angriber et mål uden menneskelig indgriben i realtid), desto lettere kan det blive at anvende dødelig vold – den psykologiske og moralske tærskel sænkes, når man er distanceret fra konsekvensen. Som det blev drøftet i Frontlinjen-podcasten, kan større fysisk og mental afstand til målet gøre det nemmere at træffe beslutningen om at tage liv. Dette stiller spørgsmål ved, hvornår det overhovedet er meningsfuldt at tale om menneskelig kontrol, og om vi risikerer at kompromittere krigens love om skelnen og proportionalitet, hvis en algoritme står for udvælgelsen af mål.

Et andet aspekt er ansvarsplacering. Folkeretten forudsætter, at der kan placeres et ansvar, hvis der sker krigsforbrydelser eller utilsigtede civile tab. Med AI opstår spørgsmålet: Hvem har ansvaret, hvis et autonomt system begår en fejl? Er det operatøren, programmøren, kommandomyndigheden eller producenten af systemet? Den nuværende lovgivning er ikke udtømmende på dette felt, og det kan blive nødvendigt at opdatere lovgivning og doktriner for at håndtere ansvarsspørgsmålene i tilfælde af autonome systemer. Danmark bør her tilstræbe at gå foran sammen med ligesindede nationer i at afklare rammerne – f.eks. inden for FN eller som forslag i NATO-regi – så der skabes international konsensus om ansvar og kontrol med militær AI.

NATO har allerede udstukket seks Principper for Ansvarlig Brug af AI i forsvarssammenhæng, som kan tjene som rettesnor. Disse principper omfatter bl.a.: Lovlighed (AI skal udvikles og anvendes i overensstemmelse med national og international lov, inkl. humanitær folkeret); Ansvarlighed (der skal være klar menneskelig ansvarlighed knyttet til AI-systemers brug); Forklarlighed og Transparens (AI-beslutninger skal så vidt muligt kunne forklares og verificeres); Pålidelighed (AI-systemer skal testes for sikkerhed og robusthed gennem hele deres livscyklus); Styrbarhed (det skal være muligt for mennesker at overvåge og om nødvendigt afbryde eller deaktivere AI-systemer, hvis de opfører sig uforudset); og Bias-minimering (man skal modvirke utilsigtet skævvridning i data og algoritmer). Danmark har tilsluttet sig disse principper via NATO, og de bør omsættes til praksis i vores egen strategi.

Et konkret tiltag i forlængelse af ovenstående er udviklingen af test- og evalueringsregimer for AI, der inkluderer etiske og juridiske tjekpunkter. Som Jeppe T. Jacobsen påpeger, kan grundige test- og evalueringsforløb afhjælpe mange bekymringer ved AI. Ved at afprøve AI-systemer under kontrollerede forhold og mod strenge kriterier kan man afdække fejl, bias eller uforudsete konsekvenser, inden systemerne tages i brug operativt. Testregimerne bør også indeholde klare governance-strukturer for, hvem der godkender et givent AI-system til brug, og hvem der har ansvaret under anvendelsen. Danmark har en stærk tradition for at lægge vægt på folkeretten og krigens love; det er derfor oplagt, at vi – eventuelt i samarbejde med nære allierede som de nordiske lande – tager initiativ til at udvikle internationale standarder for afprøvning og kontrol af militære AI-systemer.

Sammenfattende skal etikken ikke ses som en barriere for AI, men som en integreret del af strategien. En ansvarlig implementering er afgørende for legitimiteten af militær AI – både internt i Forsvaret, politisk, og i offentlighedens øjne. Ved at adressere etiske og folkeretlige spørgsmål proaktivt sikrer vi, at ny teknologi indpasses i overensstemmelse med danske værdier og internationale forpligtelser. Det vil i sidste ende styrke – ikke svække – Forsvarets evne til at anvende AI effektivt.

Anbefalinger for implementering af militær AI

For at høste gevinsterne ved AI og adressere ovenstående udfordringer har det danske forsvar brug for en helhedsorienteret tilgang. Nedenfor præsenteres en række konkrete anbefalinger, der tilsammen udgør en strategi for at komme i gang med – og skalere – anvendelsen af AI i Forsvaret. Anbefalingerne dækker behovet for et solidt datafundament, organisatorisk transformation, fokuseret eksperimentering, samarbejde med eksterne partnere samt robuste test- og evalueringsmekanismer.

Styrkelse af datafundamentet

En afgørende forudsætning for militær AI er, at Forsvaret etablerer et stærkt datafundament. Uden adgang til rigtige, rene og sammenhængende data vil selv de bedste AI-algoritmer være værdiløse. Konkret anbefales det at:

  • Gennemføre en datatransformation i Forsvaret: Forsvaret bør strategisk prioritere at samle, strukturere og dele data på tværs af værn og enheder. Det indebærer at udvikle fælles datastandarder og -arkitekturer, så information kan udveksles sømløst mellem systemer. Som det amerikanske forsvar har erfaret, kræver en sådan overordnet datainitiativ både tekniske løsninger og organisatorisk fokus – men det er fundamentet, der gør det muligt at få AI til at fungere. Vi skal med andre ord “have servere før kampvogne” i den forstand, at digital infrastruktur og datahåndtering opprioriteres i kapacitetsplanlægningen.

  • Etablere en central data-platform og governance: Opret evt. et Forsvarets Datahub, hvor relevante operationelle og administrative data opsamles og gøres tilgængelige for AI-udvikling (under de fornødne sikkerhedsforanstaltninger). Datahub’en skal drives med klare retningslinjer for datakvalitet, ejerskab og adgang. Dette vil også fremme, at ny data genereres og lagres systematisk fremadrettet, så “AI-klare” datasæt opbygges over tid.

  • Juridisk afklaring af dataanvendelse: Sikr at juridiske rammer for deling af data internt og med eksterne partnere er på plads. Ofte kan persondataregler eller klassifikationsbestemmelser hæmme dataudnyttelse; her må man finde balancerede løsninger, der både beskytter sensitiv information og giver mulighed for at anvende data til træning af AI. Klare ROE (Rules of Engagement) for data kan hjælpe udviklere og analytikere til at vide, hvad der er tilladt.

  • Investér i datainfrastruktur og -sikkerhed: Opgrader netværk, lagringskapaciteter og beregningskraft (herunder cloud og edge computing) i Forsvaret, så håndteringen af store datamængder og træning af AI-modeller kan foregå effektivt. Samtidig skal datasikkerheden være i top – bl.a. gennem kryptering og sikring mod cyberangreb – da modstandere kunne være interesserede i at manipulere eller stjæle træningsdata for at svække vores AI-systemer.

En styrkelse af datafundamentet er en træg og “kedelig” øvelse, men den er nødvendig. Som det blev anført i Frontlinjen, er det det “kedelige benarbejde” der skal til, før de mere opsigtsvækkende AI-projekter kan lykkes. Uden solid dataingrediens, ingen brugbar AI-kage.

Organisatorisk transformation og kompetenceopbygning

For at AI kan blive en integreret del af Forsvaret, skal organisationen tilpasses og menneskelige kompetencer udvikles. Dette indebærer:

  • Udform en klar AI-strategi og handlingsplan: Ledelsen bør formelt vedtage en strategi for militær AI (som denne rapport kan danne grundlag for) og udstikke en plan med milepæle. En tydelig strategisk retning er nødvendig for at koordinere indsatsen på tværs af Forsvaret. Strategien bør fastlægge prioriterede indsatsområder, ansvarsfordeling og ressourcetildeling, så AI-udvikling ikke sker ad hoc men målrettet.

  • Opbyg et AI-kompetencecenter: Etabler en central enhed eller et tværgående team, der kan fungere som vidensknudepunkt for AI i Forsvaret. Dette Center for Militær AI kunne bemandes med data scientists, udviklere og militærfaglige eksperter side om side. Centret skal støtte konkrete projekter på tværs af hæren, søværnet, flyvevåbnet og cyberdomænet – og dele “best practices” samt rådgive om fx leverandørvalg, algoritmeetik osv.

  • Kompetenceudvikling af personel: Udrul uddannelsesprogrammer, der løfter den generelle AI-forståelse i organisationen. Det gælder både brugeruddannelse (så soldater og ansatte lærer at bruge AI-værktøjer og forstår deres output) og lederuddannelse (så beslutningstagere forstår potentialer og risici ved AI). Desuden bør man identificere talenter internt med flair for teknologi og tilbyde specialiserede uddannelsesforløb – gerne i samarbejde med universiteter – så Forsvaret selv “avler” nogle af de nødvendige AI-specialister. Samtidig vil rekruttering udefra af it-professionelle kunne tilføre vigtige kompetencer (her kunne man fx målrette rekrutteringskampagner mod dataloger/ingeniører til Forsvarets kontekst).

  • Kulturel tilpasning og ledelsesmæssig forankring: Organisatorisk transformation handler også om mentalitet. Forsvaret skal bevæge sig fra en kultur, der traditionelt er hardware-centrisk, til at omfavne en software- og data-drevet kultur. Ledelsen skal gå forrest i at anerkende vigtigheden af digitale kapaciteter ved at belønne innovation og ikke kun klassiske militære meritter. Det bør kommunikeres klart, at AI ikke er et eksotisk IT-projekt, men en kernekomponent for fremtidens forsvar – på linje med nye våbensystemer.

Organisatorisk transformation er vanskelig i en stor og hierarkisk institution som Forsvaret. Men eksemplet fra USA illustrerer, at det er nødvendigt at tage et opgør med tunge procedurer og gamle siloer, hvis man vil lykkes. Danmark kan her drage nytte af sin mindre størrelse og smidighed: kortere kommandoveje og fleksibilitet er en fordel, når nye tiltag skal implementeres. Med en fremsynet ledelse, kompetente folk og viljen til at justere vante processer kan Forsvaret blive datadrevet i sin organisation – et must for at udnytte AI.

Start småt: Eksperimentering og læring

En hovedanbefaling er at kickstarte udviklingen gennem målrettet eksperimentering. I stedet for at vente på den fuldendte, perfekt integrerede AI-løsning (som måske aldrig kommer, hvis man ikke øver sig), skal Forsvaret hurtigst muligt prøve ting af i det små. Dette indebærer:

  • Pilotprojekter på prioriterede områder: Identificér nogle konkrete use-cases, hvor AI relativt let kan afprøves med eksisterende data og teknologi. Det kan fx være et pilotprojekt for predictive maintenance på et specifikt køretøjssystem, eller en AI-assistent til efterretningsofficerer i en international mission. Sæt en kort tidsramme (måneders varighed, ikke år) og definér klare succes-kriterier. Formålet er at skabe proof-of-concept og lære af processen.

  • Sandbox-miljøer og eksperimentelle enheder: Opret “sandkasser” hvor nye AI-værktøjer kan testes uden at påvirke kritiske systemer. Det kan være i form af et afsondret testnetværk eller ved at dedikere en mindre enhed (eller del af en enhed) som eksperimentel testbed. For eksempel kunne et udvalgt kompagni få lov at afprøve en række AI-baserede beslutningsstøtteværktøjer under øvelser, mens man evaluerer effekten.

  • Agile udviklingsmetoder: Bryd med vandfaldsmodellen og anvend agile metoder (scrum, dev/ops) i forsvarsregi, hvor man løbende udvikler, tester, retter til og udvikler videre. Inviter slutbrugerne (soldaterne, analytikerne) med ind i udviklingsprocessen, så de giver feedback i iterative loops. Dette kræver måske en mentalitetsændring i forhold til traditionelle forsvarsprojekter, men vil sikre at de løsninger man ender med faktisk virker i praksis.

  • Fejl frem for stagnation: Accepter, at ikke alle forsøg vil lykkes. En vigtig del af en innovativ kultur er tolerancen for fejl og fiaskoer – så længe man lærer af dem. Ledelsen bør give mandat til at eksperimentere og risiko til at fejle i lille skala uden at der falder brænde ned. Som amerikanske erfaringer viser, fremmer en eksperimentel tilgang ude i enhederne kombineret med en vis risikovillighed evnen til at håndtere og overvinde AI-udfordringerne. I et domæne præget af hastig udvikling er det langt mere risikabelt ikke at prøve nyt end at fejle i et forsøg.

Eksperimentering er dermed både en læringsproces og en måde at skabe early wins, der kan bygge momentum. Når et pilotprojekt viser gode resultater (fx hurtigere sagsbehandling, bedre vedligeholdelsesforudsigelser eller lign.), kan man opskalere denne løsning bredere i organisationen. Jeppe T. Jacobsen understregede i Frontlinjen, at det er en nøgleanbefaling at komme i gang med at eksperimentere i Forsvaret – man behøver ikke vente på, at “alt data er samlet i ét stort univers” før man gør noget. Små afgrænsede projekter kan fint køres parallelt med den store datatransformation og vil ofte fungere som driver for sidstnævnte, idet de påviser værdien af AI i praksis.

Offentligt-privat samarbejde og vidensnetværk

Danmark besidder en stærk IT-sektor og forskningsmiljøer i verdensklasse inden for AI og digitalisering. Det er afgørende at bygge bro mellem Forsvaret og dette eksterne økosystem, så begge parter drager nytte af hinandens kompetencer. Anbefalinger hertil:

  • Styrk partnerskaber med industrien: Indgå strategiske samarbejdsaftaler med teknologivirksomheder – både de store systemintegratorer og små innovative startups. Inspireret af USA’s model med DIU kan Forsvaret etablere en innovationsenhed, der scanner markedet for lovende AI-løsninger og faciliterer hurtige pilotprojekter med virksomheder. Danmark kunne også trække på NATO’s kommende Defence Innovation Accelerator for the North Atlantic (DIANA), hvor nationale testcentre matches med private løsninger. Formålet er at få adgang til nyeste teknologi og ekspertise uden for murene.

  • Involver forskningsinstitutioner: Universiteternes AI-forskere bør integreres i forsvarsprojekter gennem fx fælles udviklingscentre eller professorater støttet af Forsvaret. Muligheder for dobbeltbrug (dual-use) af teknologi kan udforskes, hvor forskning finansieret civilt også kan komme militære anvendelser til gode. Konkret kan man oprette et netværk eller konsortium af forskere, som sikkerhedsgodkendes og får faciliteret adgang til relevante (afrystede) data, så de kan hjælpe med at udvikle algoritmer til Forsvaret.

  • Fjern barrierer for samarbejde: Tag livtag med de praktiske barrierer, der hæmmer samarbejde. Fx bør processer for sikkerhedsgodkendelse af civile eksperter optimeres, så det ikke tager urimelig lang tid at få nøglepersoner adgang til klassificerede projekter. Et andet tiltag er at etablere skalerede sikkerhedszoner, hvor eksterne kan arbejde på militære data under opsyn og med tekniske foranstaltninger, der forhindrer datalæk. Dette kunne være fysiske faciliteter (secure labs) eller virtuelle miljøer med streng adgangskontrol.

  • Internationalt engagement med allierede og partnere: Danmark bør også samarbejde med allierede omkring AI. Dels kan fælles øvelser og deling af best practices gavne (fx i nordisk regi eller via NATO Smart Defence initiativer), dels kan byrden ved udvikling og test af nye systemer deles mellem lande. Et eksempel: Sammen med de nordiske lande kunne Danmark oprette et fælles testcenter for militær AI, hvor man i fællesskab evaluerer nye prototyper under forskellige forhold (dette kunne også kobles op på NATO DIANA). Samarbejde betyder samtidig, at Danmark positionerer sig internationalt som en aktiv spiller på AI-området – vi kan bringe vores værdier ind i udviklingen, frem for passivt at importere andres løsninger.

Jeppe T. Jacobsen pointerede, at samarbejde med industripartnere og forskere er sindssygt centralt for at kunne lave projekter og eksperimenter i fællesskab. Amerikanerne har investeret tungt i offentligt-privat samarbejde, netop fordi de fundamentale forskelle mellem Silicon Valley og Pentagon kræver brobygning. For Danmarks vedkommende vil et tæt samarbejde med vores agile tech-sektor og dygtige universiteter kunne blive et kæmpe force. Vi skal udnytte de særlige styrkepositioner, som danske softwarevirksomheder og forskningsmiljøer allerede har opnået inden for AI – f.eks. inden for kryptologi, algoritmeetik, computer vision m.m. – og bringe dem i spil til gavn for Forsvaret.

Test- og evalueringsregimer

For at sikre at AI-systemer er pålidelige, sikre og i overensstemmelse med både operative krav og etiske normer, skal der etableres robuste test- og evalueringsregimer. Anbefalinger i den forbindelse:

  • Etabler et nationalt testcenter for militær AI: Opret en dedikeret testfacilitet, hvor AI-systemer kan gennemgå grundige afprøvninger. Dette center skal kunne simulere realistiske militære miljøer (fx kampplads-scenarier) og teste systemernes adfærd under stress, herunder mod tænkelige modforholdsregler (som elektronisk krigsførelse eller forsøg på at snyde algoritmen). Testcenteret skal samarbejde tæt med domæneeksperter (piloter, kommandører, ingeniører) for at definere relevante testcases. NATO planlægger AI-testcentre som del af sin strategi – Danmark bør melde sig på banen her, eventuelt ved at lade et dansk center indgå i NATO-netværket, så vi både bidrager til og drager nytte af alliancens samlede viden.

  • Definér testprocedurer og certificering: Ligesom vi ikke ville indsætte et nyt missilsystem uden først at have gennemtestet det, skal AI-systemer certificeres før operativ brug. Udarbejd standardiserede testprocedurer, der bl.a. tjekker for: nøjagtighed (fx hvor præcist identificerer en målogkendelses-AI rigtige mål vs. civile objekter), robusthed (hvordan påvirkes systemet af støj, ufuldstændige data eller bevidste spoofing-forsøg), forklarbarhed (er der log-mekanismer eller værktøjer der gør operatøren i stand til at forstå AI’ens beslutning), og sikkerhed (kan systemet fejle på en farlig måde?). NATO’s princip om Reliability foreskriver netop test og sikring af AI-systemers sikkerhed gennem hele livscyklussen. Danmark kan indføre en form for “AI-worthiness” certificering analogt til airworthiness i luftfarten.

  • Løbende evaluering og versionering: AI-modeller ændrer sig potentielt over tid (f.eks. når de retrænes med nye data). Derfor skal evaluering ikke være en engangsbegivenhed. Implementér en proces for løbende overvågning af feltede AI-systemers præstationer og en protokol for, at de tages ud af drift eller retrænes, hvis performance degraderer. Det kan sammenlignes med at have regelmæssige syn af et køretøj. Hvis fx en algoritme til billedgenkendelse pludselig får en høj fejlrate under nye forhold, skal det opdages og håndteres.

  • Inkludér etisk “governance” i testregimet: Som tidligere nævnt bør test- og evalueringsprocessen også adressere spørgsmål om ansvar og compliance. Før et AI-våbensystem godkendes, skal det eksempelvis afklares præcist, hvem der autoriserer systemets anvendelse, under hvilke regler det må operere, og hvordan det kan afbrydes, hvis noget afviger fra det forventede. Et formelt organ – fx en tværfaglig komité med jurister, etikere, operatører og teknikere – kan gennemgå nye AI-systemer ud fra et folkeretligt og etisk tjekskema inden implementering.

Ved at indføre stringente test- og evalueringsregimer skaber Forsvaret et sikkerhedsnet under AI-udrulningen. Dette er afgørende for at opbygge tillid hos både brugere og offentlighed. Tilsvarende vil det gøre det lettere politisk at stå inde for brugen af AI, når man kan dokumentere, at hvert system er afprøvet og fundet forsvarligt. Test og evaluering handler således om at institutionalisere ansvarlighed: det skal ikke være op til den enkelte operatør alene at vurdere et AI-systems pålidelighed – systemet skal være kvalitetssikret på forhånd gennem en struktureret proces.

Afsluttende perspektiv

Implementeringen af kunstig intelligens i Forsvaret er en rejse, der kræver både ambition og omtanke. Denne strategi har skitseret, hvordan Danmark kan gribe det an: ved først at få styr på data og organisation, dernæst kaste sig ud i innovation gennem eksperimenter, alt imens man samarbejder bredt og holder sig inden for ansvarlige rammer sat af etik og lov. AI er ikke en mirakelkur i sig selv, men et redskab – et meget potent et – som i samspil med menneskelig dømmekraft kan løfte Forsvarets kapaciteter markant.

Danmark har mulighed for at være proaktiv og forme udviklingen af militær AI, snarere end reaktivt at blive presset til det af omstændighederne. Ved at følge de anbefalinger, der er givet her, kan Forsvaret begynde eller fortsætte sin AI-implementering på en måde, der både lever op til vores teknologiske og sikkerhedsmæssige behov og vores værdier som samfund. Med en ansvarlig, målrettet og fremtidsorienteret AI-strategi vil Forsvaret stå bedre rustet til at imødegå fremtidens trusler og udnytte fremtidens muligheder – i tæt alignment med vores allierede og i tråd med Danmarks sikkerhedspolitiske interesser.

Klar til fremtiden: Militær AI bliver en integreret del af morgendagens forsvar. Nu er tidspunktet at lægge det solide fundament, så Danmark kan navigere sikkert og styrket ind i den nye æra, hvor bits og bytes bliver lige så vigtige våben som stål og krudt.

Kommentarer

Populære opslag fra denne blog

En amerikansk ø med 68 inuitter kan måske lære grønlænderne noget?

National strategi for Militær AI: Google Gemini's Deep Research