Är inte robotar mer precisa och säkrare än människor?

De som förespråkar utvecklingen av mördarrobotar hävdar att vapnen kommer att ge ökad säkerhet och effektivitet vid väpnade konflikter, att de skulle kunna arbeta i otillgängliga miljöer, att de skulle kunna rädda liv genom att minska behovet av soldater, att de skulle öka precisionen, och att de skulle fungera avskräckande och på så vis förhindra att konflikter bryter ut. Som med många vapensystem som varit och är föremål för förbudsförhandlingar står vikten av reglering mot en militär logik där vapensystemen ofta ses som nödvändiga för att skapa militär säkerhet och tekniskt övertag. Dessa argument behöver bemötas och de långsiktiga och globala riskerna ställas mot de ofta mer kortsiktiga nationella militära (och ekonomiska) intressena.

Liknande argument har använts tidigare för andra urskillningslösa vapentyper, som landminor och klustervapen. Dessa vapen krävde hundratusentals offer innan de förbjöds genom humanitära nedrustningsavtal. Tusentals forskare och experter och hundratals företag som arbetar inom techindustrin har uppmärksammat att mördarrobotar skulle vara oförutsägbara och opålitliga, sårbara för hacking och inte kunna fatta de komplexa beslut som krävs för att följa krigets lagar. Genom att reagera med sin miljö på oväntade sätt skulle de öka riskerna för både soldater och civila. Dessutom finns stora frågetecken vad gäller ansvarsutkrävande. Vem ska ställas till svars för våld som utförs av en robot?

De potentiella fördelar med mördarrobotar kan på inget sätt väga upp för de allvarliga hot mot internationell humanitär rätt och mänskliga rättigheter och säkerhet som vapensystemen skulle innebära.