”Robotar kan bli mer etiska än mänskliga soldater”


USA satsar mångmiljardbelopp på obemannade flygplan och andra former av militära robotar. På bilden en av tull- och gränsbevakningens MQ-9 Reaper, även kallad Predator B. Foto: Wikimedia

Engelskspråkiga AlJazeera har gjort ett reportage om framtidens (och nutidens) krigföring där förarlösa flygplan och andra robotar mer och mer tar över. Hur påverkar detta vår syn på krig och ska robotar få fatta egna beslut om att få döda? Det är några av de frågor man ställer sig.

USA spenderar miljarder dollar på olika former av militära robotar och det uppskattas att Pentagon kommer investera nära 37 miljarder dollar på utveckling av förarlösa flygplan fram till år 2020.

I reportaget intervjuas bland annat P.W Singer som skrivit boken ”Wired For War: The Robotics Revolution and Conflict in the 21st Century”. Medverkar gör även robotetikern Dr. Ron Arkin som anser att robotar kommer kunna göras mer etiska än dagens soldater och därmed lämpligare att fatta beslut i strid än människor. ”We can engineer out the emotions that get in the way.”, säger Arkin i intervjun och menar att man kan bygga bort känslor som ilska, rädsla, frustration och liknande som kan bidra till impulsiva och ogenomtänka beslut i stressade situationer.

I julas rapporterade dessutom LA Times om att polisen i USA för första gången gripit amerikanska medborgare på hemmaplan efter att ha använt sig av förarlösa plan för att spåra dem, vilket startat en integritetsdebatt i landet. Drönaren de lånade, en Predator B, tillhör i vanliga fall U.S. Customs and Border Protection som använder åtta Predators vid landets norra och sydvästra gränser i jakt på illegala invandrare och smugglare.

Lyssna: Fler amerikanska drönare bevakar Mexiko-gräns

SE ÄVEN:

Det här inlägget postades i Artificiell intelligens, Debatt, Fjärrstyrda robotar, Humanoida robotar, Militära robotar, Obemannade flygfarkoster och har märkts med etiketterna , , , , , , , , , , , , , , , , , , , , , , . Bokmärk permalänken.

Kommentarer inaktiverade.