fredag 29 juli 2016

Roboten, en mänskligare soldat


Organisationen Human Rights Watch arbetar för att autonoma vapensystem ska förbjudas. Det forskas på olika militärers forskningsinstitut om robotar som kan användas i strid och i andra militära operationer. Forskningen har visat resultat (som roboten Big Dog), men det är fortfarande en bit kvar tills modeller kan tas i bruk i fält.

Det kan mycket väl vara så att autonoma vapensystem under strid bättre kan skydda de mänskliga rättigheterna än soldater med konventionella vapen gör nu.

Den relevanta diskussionen är om användningen i krig som förs enligt den omfattande internationella juridik som omger det. Alla som struntar i Genèvekonventionen och andra avtal kan vi redan räkna bort, för de kommer inte bry sig i vilket fall som helst.

För att idag vara lagligt, måste ett vapen kunna skilja mellan stridande och icke-stridande samt inte orsaka onödigt lidande. Det har haft effekten av att vapen som personminor samt kemiska och biologiska stridsmedel har förbjudits, avtalats bort eller minskat i användning. Om autonoma vapensystem kan skilja mellan soldater och civila och strida så att de inte orsakar onödigt lidande så är de inte olagliga i sig.

Autonoma vapensystem skulle inte göra fel grundade på känslor, rädsla, trötthet, ilska. Faktorer som definitivt drabbar även de mest vältränade officerare och soldater när de är i fält. De kan ta in och utvärdera mycket mer information i realtid än mänskliga soldater. De har, så att säga, Genèvekonventionen uppslagen hela tiden. Dessutom skulle de kunna spela in sina egna och andras handlingar på slagfältet i ett minne som bara lämnas öppet för en skiljedomstol.

Om ett lands armé släppt ut stridsrobotar och drönare med dålig programmering på slagfältet så ligger ansvaret fullt tydligt på arméledningen. Idag hamnar ansvaret ofta på underlydandes misstag; politisk och militär ledning kan ofta begränsa sitt ansvar. Automatiska vapensystem skulle sätta en än större press på generalstaberna att faktiskt förstå sina vapensystem, sina doktriner och vad de praktiskt leder till i fält. Det är redan en viktig uppgift för en modern armé, och det är bra lägga än större vikt på den.

För det är ju dagens situation är det stora problemet, med lidande för både stridande och icke-stridande parter, och det är där man bör lägga ned handfast arbete. Deklarationer om vad som skulle kunna vara framtida vapensystem kanske inte trampar någon på tårna idag, men de ger ingen vägledning om vad som ska göras och vilka värderingar som är lämpliga när dessa vapensystem väl kommer fram. Om vi alltid förbereder oss på det värsta, kan vi bli handlingsförlamade när det värsta inte händer.

Autonoma vapensystem är inte heller så lätta att isolera för ett förbud. Idag sker debatten ofta kring spekulationer om möjliga utvecklingar. Ett förbud skulle bli tvunget att försöka förbjuda utvecklingar i många breda områden inom artificiell intelligens, mekatronik, sensorteknik etc. Breda förbud som skulle sätta stopp för viktiga områden på fredliga användningar. Där behövs en klokare riskhantering och innovationspolitik.

Läs även andra bloggares åsikter om , , , , , , ,

Intressant

Google Gemini - the innovator's dilemma?

Det var många som reagerade på Googles AI Gemini. I sitt försök att korrigera tidigare bias i sökmotorn har Google fått kritik för att ha gå...