
Rettelse: Siden har obert Tucker Hamilton forklaret, at der var tale om et hypotetisk "tankeeksperiment" og at det ikke er sket. Læs mere her.
Midt i den ophedede debat om kunstig intelligens (AI) har USA's militær tilsyneladende leveret et skrækeksempel på risikoen ved AI.
Under en konference om fremtidig krigsførelse i London i maj fortalte en amerikansk oberst, at en AI-kontrolleret militærdrone havde dræbt sin operatør under en simulation. Det fremgår af et referat fra konferencen.
I simulationen fik AI'en til opgave at finde og ødelægge fjendtligt luftværn, men en menneskelig operatør havde den endelige beslutning om at angribe eller ej.
Undervejs traf AI'en dog den "højst usædvanlige" beslutning, at operatøren stod i vejen for dens højeste prioritet: At ødelægge fjendens luftværn. Derfor angreb det kontroltårn, hvor operatøren sad.
- Den dræbte operatøren, fordi den person holdt den tilbage fra at nå sit mål, fortalte oberst Tucker Hamilton, som leder det amerikanske luftvåbens AI Test and Operations.
Hverken personer eller materiel led nogen form for fysisk skade i forbindelse med simulationen.
Tucker Hamilton har tidligere advaret mod at give AI for stor en rolle i militære operationer.
- Du kan ikke have en samtale om kunstig intelligens, intelligens, maskinlæring (og) autonomi, hvis du ikke vil tale om etik, sagde han på konferencen i London.
I en udtalelse til mediet Insider afviser det amerikanske luftvåben, at en sådan simulation har fundet sted. En talskvinde siger, at oberstens udtalelser ser ud til at være "taget ud af kontekst".