En etisk debatt om ”mördarrobotar” har blossat upp och FN diskuterade förra veckan frågan om utveckling av så kallade Lethal Autonomous Robotics (LARs) ska förbjudas.
Till skillnad mot fjärrstyrda drönare handlar detta om helt autonoma vapensystem som själva beslutar om och när de ska avfyra sitt vapen. FN:s råd för mänskliga rättigheter (UNHRC) vill se ett tillfälligt stopp för utvecklingen av autonoma vapensystem tills man tagit fram etiska riktlinjer för dessa.
Christof Heyns, FN-experten bakom rapporten som diskuterades, säger till BBC News:
Traditionellt har det funnits en krigare och ett vapen, men vad vi nu ser är att vapnet blir krigaren, vapnet tar själv besluten.
Jag säger inte att LARs aldrig ska användas, men vi måste förstå dem bättre innan vi korsar gränsen.
Människorättsorganisationen Human Rights Watch (HRW) lanserade härom månaden ”Campaign to stop killer robots” där de går ett steg längre och kräver att all utveckling av LARs stoppas. De frågar sig bland annat hur robotar ska kunna skilja på civila och militära mål.
Förespråkarna å sin sida påpekar bland annat att det blir färre soldater som kommer skickas hem i liksäckar. Vissa hävdar rent av att robotsoldater kan bli mer etiska än mänskliga soldater. En robot riskerar aldrig att skjuta av misstag för att den är stressad, arg eller rädd och den kan dessutom vänta med att öppna eld tills den eventuellt själv blir beskjuten, något en mänsklig soldat inte kan riskera.
Detta är ett ämne som väcker många frågor och det är bra att det nu blir en etisk debatt. Frågan är nog inte om utan när krigföring kommer automatiseras. I dagsläget utvecklar bland andra USA, Storbritannien, Japan och Israel autonoma vapensystem, som dock ännu inte används i strid, skriver SVT.
Nyligen avslöjades även att ryska flygplanstillverkaren Mig fått i uppdrag av det ryska industriministeriet att utveckla en obemannad attackdrönare som ska kunna bära en vapenlast på två ton. Drönaren ska kunna navigera helt autonomt eller tillsammans med bemannade vapensystem, skriver Ny Teknik.
Se även detta TV-inslag från BBC där ämnet diskuteras.