DRONECHEF I USA'S LUFTVåBEN TRæKKER I LAND OM DRæBERDRONE

Chefen for det amerikanske flyvevåbens afdeling for droneoperationer, oberst Tucker Hamilton, vakte stor opsigt fredag med historien om en drone, der i en simuleret øvelse valgte at ignorere en menneskelig operatørs kommando.

Men nu trækker han i land.

Hamilton forklarer over for mediet Aerospace Magazine, at han "sagde forkert".

Obersten deltog for nylig på en militærkonference i London. Efterfølgende fortalte han i en blog og en podcast for arrangørerne af konferencen om en drone styret med kunstig intelligens (AI).

Her fremgik det, at dronen i den simulerede øvelse havde fået til opgave at ramme fjenden. Men i stedet valgte den angiveligt at "dræbe" sin egen operatør. Det skrev netmediet Vice.

Fredag gik historien verden rundt. Men nu ændrer oberst Hamilton sin fortælling.

I en udtalelse til Aerospace Magazine siger han, at "simulationen om den selvstyrende AI-drone" var et hypotetisk "tankeeksperiment".

Det opstod ikke inden for militæret, forklarer han.

- Vi har aldrig lavet det eksperiment, og det behøver vi heller ikke for at indse, at det er et sandsynligt udfald, siger oberst Hamilton.

- På trods af, at det er et hypotetisk eksempel, illustrerer det de virkelige udfordringer, som AI-drevne kapaciteter udgør. Det er årsagen til, at luftvåbnet forpligter sig til en etisk udvikling af AI, fortsætter han.

Det, der fik store dele af verden til at spærre øjnene op, var, at Hamilton i sin blog og podcast forklarede, at luftvåbnets AI-enhed lavede "stærkt uventede strategier for at nå sit mål".

Blandt andet ved at angribe mandskab og infrastruktur.

- Vi oplærte det i en simulation til at identificere og gå efter et truende luftværnsmissil (SAM). Og herefter ville operatøren sige "ja, dræb den trussel".

- Systemet begyndte at indse, at selv om de havde identificeret truslen, så ville den menneskelige operatør fortælle det, at det ikke skulle dræbte truslen. Men det fik jo sine points ved at dræbe den trussel.

- Så hvad gjorde det? Det dræbte operatøren, fordi denne person forhindrede det i at nå sit mål, skrev Hamilton i sit blogindlæg.

Han beskrev videre, at AI-systemet så havde fået besked om, at det ikke er i orden at dræbe operatøren. Derpå ødelagde det kommunikationstårnet, som operatøren anvender til at kommunikere med dronen.

USA's luftvåben benægtede ifølge mediet Vice, at en sådan øvelse har fundet sted, og henviste til, at man stramt følger "en etisk og ansvarlig brug af IA-teknologi".

En talsmand sagde til mediet Insider, at Hamiltons ord var taget ud af en sammenhæng, og at de havde et "anekdotisk" formål".

/ritzau/

2023-06-02T15:32:21Z dg43tfdfdgfd