Forskere advarer mod kunstig intelligens i militær-robotter

Førende forskere mener ikke at militær-robotter skal udstyres med kunstig intelligens. De kan komme til at dræbe civile og starte et våbenkapløb.

Militærdroner som denne kan snart udstyres med kunstig intelligens - og på sigt kan det være helt overflødigt at sende mennesker på slagmarken. Men det er ikke nødvendigvis en god ting, mener talsmanden for organisationen ICRAC - den internationale komité for kontrol med våbenbærende robotter. (Foto: US AIR FORCE © Scanpix)

Robotter og kunstig intelligens vinder frem i alle brancher. I sundhedssektoren hjælper kunstigt intelligente assistenter med at stille diagnoser og i transportsektoren arbejdes der på højtryk på teknologi, så lastbiler kan blive selvkørende.

Men også våbenproducenter fra hele verden er begyndt at undersøge om kunstig intelligens kan give en fordel på slagmarken og dermed også på deres bundlinje. Fordelen ved at stater bruger intelligente robotter på slagmarken er, at de ikke skal sende mennesker af sted, som risikerer at blive slået ihjel.

Dræberrobotter er snart mulige

Og teknologien til at sende kamprobotter af sted er ikke langt ude i fremtiden, mener professor emeritus Noel Sharkey, som også er formand for ICRAC, den internationale komité for kontrol med våbenbærende robotter.

- Det eneste, der bremser udviklingen af kunstig intelligens på slagmarken, er at man gerne vil overholde krigens love. Men den holdning kan ændre sig meget hurtigt, siger han.

- Det skete med holdningen til luftbombardementer og u-både. Historisk set blev de anset for at være ulovlige, da de ikke kan kende forskel på ven og fjende, men i en konflikt, hvor staten er presset, blæser man på de regler.

Ønsket om at skifte soldater ud med robotter ses over hele verden. I Rusland arbejder man på en ny type kampvogn, der på sigt skal kunne køre uden menneskelig indflydelse. I Israel arbejder man på selvkørende biler, som kan patruljere grænsen. Og den amerikanske våbenproducent Lockheed Martin arbejder på intelligente missiler, der selv kan flyve uden om fjendtlige skibes forsvarsmekanismer.

Kan ikke skelne mellem ven og fjende

Men ønsket om at fjerne mennesker fra slagmarken kan være en farlig glidebane, mener Noel Sharkey. Ifølge ham går der lang tid før kunstigt intelligente robotter kan lave de vurderinger og overvejelser, som menneskelige soldater skal kunne.

- Vi er besat af betegnelsen “kunstigt intelligent”. Sandheden er, at intelligente robotter slet ikke er intelligente, de er faktisk ret dumme, siger han og fortsætter:

- Hvis det eneste, du kunne, var at spille skak i verdensklasse, men ikke kunne føre en samtale eller brygge en kop te, ville vi ikke sige, du var intelligent - tværtimod. Det er den måde kunstig intelligens udvikler sig. De bliver bedre og bedre til specialiserede opgaver.

Og det er et problem, da krig i dag er meget mere kompliceret end tidligere. I dag foregår krigsførelse ofte i miljøer hvor fjenden kan blande sig med civilbefolkningen. Og hvor det kan være svært for menneskelige soldater at skelne mellem civile og militære mål er det umuligt for en robot.

- Vi er ikke nået dertil, hvor en robot kan skelne mellem et barn med et baseballbat og en fjende med et våben - den kan måske nogle gange, men den ville ikke kunne skelne mellem de to konsekvent. Og det er umuligt at sige, om teknologien nogensinde bliver god nok til at skelne mellem de to hver gang, siger Noel Sharkey.

Kan give et nyt våbenkapløb

Desuden tvivler han på, om en robot overhovedet kan navigere og udføre sine opgaver i en uforudsigelig krigszone.

- Hvordan tager man højde for de mange forskellige hændelser, der kan ske på en slagmark? Mange sætter deres lid til selvlærende algoritmer, men jeg har arbejdet med machine learning i 25 år, siden det startede. Det kræver meget store mængder data for at at fungere, men i virkeligheden sorterer man de usandsynlige hændelser fra, så dem kan robotten ikke håndtere, siger han.

Det, der bekymrer ham allermest er, at kunstig intelligente robotter snart kan være klar til brug på slagmarken uden at det internationale samfund og FN har taget stilling til, hvordan man begrænser brugen af dem.

- Intelligente militærrobotter skal bruges i store sværme - det er sådan de er tænkt. Men hvad sker der hvis to sværme mødes ved en grænse? Hvad sker der, hvis der ved et uheld udbryder en konflikt, som ikke er startet af et menneske? Hvad sker der hvis der kommer et våbenkapløb på det her område?

- Jeg frygter at det kommer til at skade den internationale sikkerhed i høj grad, siger han.

Hør mere om kunstig intelligens og robotter i denne uges udgave af Harddisken på P1 i eftermiddag klokken 16.03 på FM eller nu på dr.dk.