Panel: USA har en moralsk forpligtelse til at udvikle AI-våben

Illustration: Yacobchuk /Big Stock

USA skal holde sig uden for en aftale om at forbyde udviklingen af automatiske våben, der styres af kunstig intelligens (AI). Det fremgår af udkastet til en rapport til den amerikanske kongres udarbejdet af panelet ‘National Security Commission on Artificial Intelligence’, der er udpeget af regeringen. Det skriver The Guardian.

Med tidligere administrerende direktør i Google, Erik Schmidt, i spidsen konkluderede panelet tirsdag, at verdens største militærmagt bør overveje AI i relation til landets sikkerhed og i udviklingen af ny teknologi.

Læs også: Britisk general: Robotsoldater kan udgøre en fjerdedel af hæren i 2030'erne

Ifølge panelets næstformand og tidligere forsvarssekretær Robert Work forventes de autonome AI-våben at lave færre fejl i kamp end mennesker, reducere antallet af døde og minimere risikoen for at angribe fejlidentificerede mål.

»Det er et moralsk imperativ i det mindste at forfølge hypotesen,« lød det fra næstformanden.

En moralsk rød linje

Udvikling og anvendelse af AI-våben møder imidlertid hårdnakket modstand. Ifølge organisationen Campaign to Stop Killer Robots, der i omkring otte år har advaret og kæmpet for et forbud mod AI-våben, overtræder brugen af autonome våben en moralsk rød linje.

‘Ingen vil være sikker’, står der på organisationens hjemmeside, hvor det også fremgår, at Europa-Parlamentet, 30 lande og mere end 140 NGO'er og 4.500 AI-eksperter vil forbyde brugen af fuldt ud autonome våben.

Ifølge Campaign to Stop Killer Robots er menneskelig kontrol nødvendig for at bedømme angrebenes proportionalitet og for at kunne rette anklager for eventuelle krigsforbrydelser mod mennesker.

Kun atomvåben skal kræve menneskelig indblanding

Mens mulighederne inden for autonome våben har eksisteret i flere årtier, er der stigende bekymringer ved at lade AI styre våbensystemerne, i takt med at forskere finder bias i AI samt flere eksempler på misbrug af software bygget på kunstig intelligens.

Panelet National Security Commission on Artificial Intelligence anerkendte på sine møder i denne uge disse problemer. Eksempelvis advarede et af panelets medlemmer, som er ansat i Microsoft, at presset for at bygge maskiner, der reagerer hurtigt, kan være med til at optrappe konflikter.

Men kun når det gælder beslutningen om at affyre atomvåben, vil panelet stille krav om, at mennesker skal være involveret . Panelet anbefaler en aftale om antispredning frem for en traktat med et forbud mod de autonome våben, fordi det vil være i strid med amerikanske interesser og en svær opgave at håndhæve, skriver The Guardian.