Dræberdrone forsøgte at slå soldater ihjel uden at have fået ordre på det

En ny rapport fra FN beskriver, hvordan dronen angreb soldater i Libyen ‘af sig selv’.

Krigsdroner bruges efterhånden mange steder. Her ses en drone smide tåregas under et sammenstød i Gaza-striben. Der er ikke tale om samme type drone som den, artiklen handler om. (Foto: © ABBAS MOMANI, AFP or licensors)

I marts sidste år var en gruppe soldater på flugt i Libyen.

Soldaterne var en del af den krig, som hærgede landet, og de flygtede fra et sammenstød med libyske regeringsstyrker.

Midt under flugten bliver tropperne pludselig angrebet fra luften af en armeret drone, som skyder vildt på dem.

Et droneangreb er selvsagt ikke noget uvant syn i en moderne krigszone, men angrebet skilte sig alligevel ud.

Dronen angreb nemlig på ’egen hånd’.

Hændelsen med den autonome drone skete i det Nordafrikanske land Libyen. Libyen har siden 2011 været præget af ustabilitet og kampe om magten.

En rapport fra FN’s Sikkerhedsråd beskriver, hvordan dronen ikke har haft kontakt til mennesker, inden den eftersatte fjenden. Den har derimod handlet autonomt.

Et yderst skræmmende - men desværre ikke så overraskende - scenarie, fortæller Thomas Bolander, som er lektor ved DTU Compute og ekspert i kunstig intelligens.

- Jeg har gennem længere tid mistænkt, at det her skete i krigszoner rundt om i verden. Våbensystemer, som for eksempel denne her drone, kan i dag programmeres sådan, at de også kan angribe på egen hånd. Det er dybt uforsvarligt og meget farligt, når teknologien bruges på den måde, siger han.

’Det kan gå grueligt galt’

I rapporten fra FN’s sikkerhedsråd antyder eksperter, at droneangrebet førte til ét eller flere dødsfald.

Hvis de antagelser bliver bekræftet, vil det være første gang, at en autonom dræberdrone er skyld i, at nogen mister livet.

Men det vil langt fra være sidste, medmindre der kommer klare regler for den slags selvopererende våbensystemer, fortæller Thomas Bolander.

- Hvis dronen får lov til at køre på autopilot, kan vi mennesker ikke længere holde opsyn med, hvad den gør og ikke gør. Den skal selv vurdere og reagere i de situationer, den møder – og så meget kan vi simpelthen ikke stole på teknologien endnu. Vi kan ikke udelukke, at noget går galt, og dronen pludselig begynder at skyde på alt og alle, siger han.

Når dronen bliver styret manuelt, vil de vigtige valg i sidste ende være op til et menneske.

De helikopterlignende dræbermaskiner er ved hjælp af kunstig intelligens blevet trænet til at genkende fjender ud fra påklædning eller ansigter.

Men selvom de er lærenemme, risikerer de at træffe nogle meget firkantede valg, hvis ikke de er under opsyn, fortæller Thomas Bolander.

- Hvis dronen for eksempel er programmeret til at skyde på alle i grønne uniformer, vil den lynhurtigt og effektivt kunne spotte potentielle fjender. Men hvis der pludselig står et barn i grønt tøj, vælger den så at skyde eller lade være? Vi overlader krig og død til algoritmer, hvis vi lader bevæbnede droner agere autonomt, siger han.

Angrebet var ikke en komplet tilfældighed

Det kan hurtigt lyde som en scene fra filmen The Matrix, når der er tale om robotter, som på egen hånd går til angreb på mennesker.

Situationen i Libyen er dog på ingen måde et eksempel på et sci-fi oprør, hvor robotterne har udviklet deres egen fri vilje, understreger Thomas Bolander.

- Det er på ingen måde tilfældigt, at dronen pludselig går til angreb. Den er formentlig nøje programmeret til at genkende og angribe fjenden, og den type drone har tilmed en decideret funktion, hvor den autonomt kan fortsætte, selvom man mister kontakten med den, siger han.

Dronen gør egentlig bare det, den har lært, når den slår over på ’autopilot’.

Algoritmer og kunstig intelligens klæder den på til de opgaver, den skal være med til at løse – også når den arbejder autonomt.

Derfor ligger ansvaret hos de mennesker, som programmerer den til at reagere på en bestemt måde, hvis kontakten skulle blive afbrudt, mener Thomas Bolander.

- Man kunne i stedet indstille dronen til at flyve tilbage til basen, så snart kontakten blev afbrudt. På den måde vil man helt undgå situationer, hvor dronerne risikerer at angribe autonomt. Det, synes jeg, er en langt mere forsvarlig måde at gøre det på, siger han.

’Det er at misbruge kunstig intelligens’

Sammen med en lang række andre forskere, interesseorganisationer og ledere i erhvervslivet har Thomas Bolander underskrevet flere åbne breve, hvor de har udtrykt stor bekymring omkring autonome våbensystemer.

For det første mener de, at teknologien bag kunstig intelligens langt fra er moden til at blive brugt i autonome våbensystemer, fortæller Thomas Bolander.

- Der er nogle klare grænser for, hvad man kan give kunstig intelligens ansvaret for på nuværende tidspunkt. Vi er kommet rigtig langt, men at bruge det i autonome våbensystemer er satset og frem for alt utroligt risikabelt, fordi konsekvenserne er så enorme, hvis noget skulle gå galt, siger han.

Derudover har Thomas Bolander også underskrevet de kritiske breve, fordi de autonome våbensystemer udgør en trussel mod hele det forskningsfelt, som beskæftiger sig med kunstig intelligens, fortæller han.

- For mig at se misbruger man kunstig intelligens, når man anvender det til autonome våbensystemer. Jeg har en romantisk forestilling om, at AI i fremtiden kommer til at udrette et hav af gode ting – det er derfor, jeg har dedikeret min forskning til området. Derfor gør det ondt at se, at det bliver brugt uforsvarligt og til at gøre skade, siger han.