Overblik
Uddannelser
Efteruddannelse
Skoler
Forsvarsakademiets seminar om kunstig intelligens stillede skarpt på, hvordan teknologien gør os hurtigere og bedre til at nedkæmpe en fjende, men også hvordan automatiseringen påvirker vores forhold til militære mål, kamp og krig.
Elke Schwarz fra Queen Mary University London. Foto: Marie Prangsgaard, Forsvarsakadmiet
Af Forsvarsakademiet
Alle pladser var booket et godt stykke i forvejen, da Forsvarsakademiet torsdag sidste uge bød velkommen til det stort anlagte seminar ’Smart War? The Promises and Pitfalls of Military AI’.
”Det er nu, vi skal stille os selv de svære spørgsmål: Hvordan vil krige blive udkæmpet med kunstig intelligens, og hvilke værdier og begrænsninger bør guide os, så vi bruger AI korrekt og ansvarligt,” indledte seminarets tovholder Daniel Møller Ølgaard, der til daglig er adjunkt ved Forsvarsakademiets Institut for Militærteknologi.
Daniel Møller Ølgaard. Foto: Marie Prangsgaard, Forsvarsakademiet
Første oplægsholder var Antoine Bousquet fra den svenske Försvarshögskolan i Stockholm. Han brugte især sin taletid til at gøre opmærksom på AI’ens begrænsninger:
”Vi taler meget om alle de ting, AI kan, men det er måske endnu vigtigere at tale om alt det, AI ikke kan: Kunstig intelligens er god til mange ting så som at genkende mønstre ud fra uoverskuelige datamængder, men den er ofte enormt dårligt til at gøre ting, som vi mennesker gør uden at tænke videre over det, sagde han og uddybede, at det også gælder sociale dynamikker som krig:
”Krig er komplekst, målet ændrer sig hele tiden, og man prøver konstant at udmanøvrere sin menneskelige modstander, hvilket kræver kreativitet og evnen til at sætte sig i den andens sted. Derfor kan du ikke bede AI svare på, hvordan du vinder en krig.”
Antoine Bousquet fra den svenske Försvarshögskolan i Stockholm. Foto: Marie Prangsgaard, Forsvarsakadmiet
En anden væsentligt pointe var hastighed og skalering, og hvad det betyder for os mennesker, når maskinen bliver ekstremt hurtig til at udvælge militære mål. Det forklarede Elke Schwarz fra Queen Mary University London:
”Den hastighed, hvormed AI kan udføre beregninger, udfordrer menneskelige beslutningstageres evne til at tage velovervejede og ansvarlige beslutninger. Faren er, at hastighed bliver den dominerende faktor i krig, og at mennesket forsvinder ud af den beslutningsproces, der afgør, hvorvidt et mål er militært og skal nedkæmpes eller ej.”
Hun tilføjede: ”At udvælge mål i en krig er en etisk beslutning, og vi skal derfor interessere os mere for, hvad det er, AI gør ved os som mennesker: Hvem er ansvarlig, hvis automatiske måludpegnings-processer tager fejl? Og omvendt; bliver det nemmere at fralægge sig et ansvar, fordi ”det var det autonome våbensystem, der begik fejlen”?
Seminarets sidste taler var Ingvild Bode fra Syddansk Universitets Center for War Studies, der fokuserede på, hvordan man kan regulere brugen af AI, herunder blandt militære styrker:
”De sidste 10 år er der sket et stor udvikling, og vi taler ikke længere om dræberrobotter som i Terminator-filmene, men om AI, der understøtter og - måske i fremtiden – overtager beslutningsprocesser.” I Ukraine bruger både ukrainske og russiske styrker i dag autonome våben og kunstig intelligens.”
Ingvild Bonde afsluttede: ”Der er brug for politisk og international regulering af militær AI nu, både gennem juridiske principper, som vi kender det, og ved hjælp af sociale normer, der skal sikre, at brugen af kunstig intelligens sker på en forsvarlig måde.”
Ingvild Bonde fra Syddansk Universitets Center for War Studies. Foto: Marie Prangsgaard, Forsvarsakademiet
Seminaret 'Smart War? The Promises and Pitfalls of Military AI’' blev afholdt på Svanemøllens Kaserne torsdag den 2. maj og blev samtidig streamet til deltagere online.