Deset důvodů, proč se začít vážně zabývat zákazem „robotů-zabijáků“

Napsala Rasha Abdul Rahim, advokátka/poradkyně na kontrolu zbraní, bezpečnostní obchod a lidská práva v Amnesty International.

V listopadu proběhlo v Ženevě setkání vlád zaměřené na debatu o „robotech zabijácích“. Amnesty International vyzývá k vytvoření formálního vyjednávacího postupu, který by vedl k celosvětovému zákazu smrtících „robotů zabijáků“, a to jak v boji, tak při policejních akcích. Zde uvádíme deset důvodů, které dokládají, proč je zákaz nezbytný.

1. „Roboti zabijáci“ už nikdy nebudou patřit pouze do science fiction

Jedná se o reálné zbraně, které po své aktivaci mohou vybírat, útočit, zranit a zabíjet lidské cíle, aniž by byly lidmi řízeny. Kdysi šlo jen o součást dystopických science fiction, nyní se tyto tzv. plně autonomní zbraně (fully autonomous weapon systém – AWS) stávají skutečností.

Mnoho předobrazů těchto technologií již existuje. Například dron s názvem Shadow Hawk od firmy Vanguard Defense Industries může být vyzbrojen granátovým odpalovacím zařízením, palnou zbraní s laserovým zaměřovačem nebo méně nebezpečnými zbraněmi jako např. elektrickým paralyzérem. V roce 2011 úřad šerifa v oblasti Montgomery v Texasu zakoupil z dotací ministerstva pro vnitřní bezpečnost neozbrojený dron Shadow Hawk. V srpnu tohoto roku se Severní Dakota stala prvním americkým státem, ve kterém bylo legalizováno užití dronů k dálkovému paralyzování lidí elektrošoky o vysokém napětí.

2. Nezodpovědné vlády je budou využívat k represím

Některé vlády argumentují, že „roboti zabijáci“ by mohli snížit bezpečnostní rizika vojáků nasazených na bojištích nebo policistů během nebezpečných operací. Jejich užití by mohlo vládám zjednodušit vstup do nových ozbrojených konfliktů a užití síly například při kontrole protestů. Ačkoli by se jednalo o posílení bezpečnosti vojáků a policistů, zároveň by mohlo vést k nárůstu konfliktů, a tedy i většímu nebezpečí pro civilisty.

Zastánci „robotů zabijáků“ argumentují, že v případě strojů absence emocí eliminuje negativní lidské vlastnosti jako strach, pomstychtivost, zuřivost a jakákoli další „selhání lidského faktoru“. Lidské emoce ale zároveň fungují jako důležitá kontrolní pojistka při zabíjení a zraňování civilistů. Roboti mohou být snadno naprogramováni k úkonům nerozlišujících civilisty a vojáky či arbitrárních útoků na lidi, a to dokonce i v masovém měřítku. „Roboti zabijáci“ nebudou schopni odmítnout rozkaz, což v určitých situacích může zachránit lidské životy. Například během masových protestů v Egyptě v lednu 2011 odmítla armáda pálit na protestující, což bylo rozhodnutí vyžadující přirozený lidský soucit a respekt k právnímu řádu.

3. Nebudou kompatibilní s právními předpisy v oblasti lidských práv a mezinárodních policejních norem

Mezinárodní policejní normy zakazují užití střelných zbraní kromě případů obrany před bezprostřední hrozbou smrti nebo vážného zranění. Násilí může být použito pouze v nejmenší možné míře. Je velice obtížné představit si stroj zastupující lidský úsudek v situacích, kdy existuje bezprostřední riziko, že jedna osoba chce zabít jinou.  Představit si, že v takový okamžik užije vhodně sílu v minimální možné míře potřebnou k zastavení útoku. Dosud byl takovýto úsudek nesmírně důležitý během rozhodování policisty či vojáka při užití zbraně. Ve většině situací navíc normy OSN vyžadují na prvním místě užití nenásilných způsobů, jako jsou přesvědčování, vyjednávání a deeskalace před použitím jakéhokoli druhu síly.

Efektivní dohled navíc znamená mnohem víc než jenom užití síly; vyžaduje jedinečné lidské schopnosti empatie a vzdoru, a schopnost odhadnout a reagovat na často dynamické a nepředvídatelné situace. Tyto dovednosti nelze zúžit na pouhé algoritmy. Rozhodování o životě a smrti zkrátka nesmí být nikdy přenecháno strojům.

4. Nemuseli by se vždy řídit pravidly války

Rozlišování, přiměřenost a preventivní opatření jsou tři pilíře mezinárodního humanitárního práva, práva válečného. Ozbrojené síly musí rozlišovat mezi bojovníky a ne-bojovníky. Civilní oběti a škody na civilních objektech musí být přiměřené k očekávanému vojenskému zisku. Všechny strany musí dbát na rozumná předběžná opatření v ochraně civilistů.

Výše uvedené nepochybně vyžaduje lidský úsudek. Roboti postrádají schopnost analyzovat záměry stojící za lidskými činy nebo dělat komplexní rozhodnutí o přiměřenosti nebo nezbytnosti útoku. Nemusíme zmiňovat potřebu soucitu a empatie s civilisty postiženými válkou.

5. Hrozí vznik značných nejasností o nositeli odpovědnosti za jejich užití

Pokud bude robot jednat nezákonně, jak se k tomu postaví justice? Ti, kteří se podíleli na programování, výrobě a nasazení, stejně jako nadřízení důstojníci a politici by mohli být voláni k odpovědnosti. Nicméně pro všechny tyto aktéry bude nemožné rozumně předvídat, jak budou „roboti zabijáci“ na určitou okolnost reagovat; potenciálně tak vytváří vakuum odpovědnosti.

Již nyní jsou vyšetřování ve věci nezákonného zabití během útoku dronů ojedinělá a vyšetřování odpovědnosti jsou ještě vzácnější. Amnesty ve své zprávě o útocích amerických dronů v Pákistánu poukázala na tajnosti obklopující užití dronů k zabíjení lidí vládou USA, která odmítla podat vysvětlení ohledně užití mezinárodního práva v jednotlivých útocích. To vyvolává obavy, že útoky v pákistánských kmenových oblastech mohou porušovat lidská práva.

6. Rozvoj „robotů zabijáků“ podnítí další závody ve zbrojení

Čína, Izrael, Rusko, Jižní Korea, Velká Británie a USA patří mezi několik států, které v současné době vyvíjejí systémy, jež by strojům v boji poskytly větší autonomii. Obchodní společnosti v mnoha zemích již vyvinuly poloautonomní robotické zbraně, které mohou během operací bezpečnostních složek pálit slzný plyn, gumové projektily a šipky způsobující omráčení elektrickým šokem.

Historie vývoje zbrojařství napovídá, že je pouze otázkou času, než tato situace vyvolá nové hi-tech závody ve zbrojení. Státy vyvíjející a pořizující tyto systémy se budou snažit o jejich široké rozšíření. Tyto systémy by tak mohly skončit v arzenálu bezskrupulózních vlád a možná i v rukou nestátních aktérů včetně skupin ozbrojených opozic a kriminálních gangů.

7. Povolení strojům zabíjet nebo užívat násilí je útok na lidskou důstojnost

Pokud dovolíme strojům, aby měly moc nad lidskými životy, překračujeme morální hranici, která nikdy být překročena neměla. Užití strojů k zabíjení lidí je vrchol neúcty k člověku a jeho důstojnosti.

8. Jakmile budou „roboti zabijáci“ jednou nasazeni, bude téměř nemožné je zastavit

Vzrůstající a nekontrolované užití dronů ukázalo, že jakmile jsou jednou tyto bojové systémy nasazeny, je nesmírně obtížné či téměř nemožné regulovat jejich užití.

V nedávné době uveřejnil americký internetový zpravodajský server The Intercept dokument s názvem „Drone Papers“, který pokud bude potvrzen, vykresluje alarmující obraz smrtícího amerického programu užívajícího drony. Podle dokumentu bylo v průběhu pěti měsíců 90 % lidí zabitých během útoků amerických dronů usmrceno bezděčně. To podtrhuje dlouhotrvající selhání vlády USA neochotné zveřejnit fungování programu dronů.

Může se zdát, že je na zákaz užití ozbrojených dronů příliš pozdě, ale přesto musí být jejich užití razantně omezeno kvůli záchraně lidských životů. „Roboti zabijáci“ výrazně zvýší riziko nezákonného zabití. To je důvod, proč tito roboti musí být preventivně zakázáni. Pokud budeme jen čekat a přihlížet, povede to k dalším investicím do vývoje těchto systému a k jejich rychlému šíření.

9. Tisíce odborníků na roboty volají po zákazu „robotů zabijáků“

V červenci 2015 čelní světoví vědci, výzkumníci a spříznění odborníci zabývající se umělou inteligencí podepsali otevřený dopis vyzývající k naprostému zákazu „robotů zabijáků“.

Do této chvíle dopis podepsalo 2 587 zainteresovaných včetně 14 současných a bývalých prezidentů organizací a profesních asociací zabývajících se umělou inteligencí a robotikou. Mezi významnými signatáři jsou například výkonný šéf Google Deep Mind Demis Hassabis, Tesla CEO Elon Musk, spoluzakladatel Applu Steve Wozniak, spoluzakladetel Skype Jaan Tallin a profesor Stephen Hawking.

Pokud se tisíce vědců a odborníků na právo takto obávají vývoje a možného užití „robotů zabijáků“ a souhlasí s Kampaní k zastavení robotů zabijáků, na co ještě vlády čekají?

10. Během uplynulých dvou let se hodně mluvilo, ale málo jednalo

Od dubna 2013, kdy se o problémech spojených s „roboty zabijáky“ poprvé začalo mluvit, se odehrálo pouze jediné významné mezinárodní setkání na toto téma. Jednalo se o dvoutýdenní neformální setkání odborníků v Ženevě na konferenci o Úmluvě OSN o některých konvenčních zbraních (CCW). Je absurdní, jak málo času bylo věnováno tak vážnému riziku a jak omezený pokrok byl učiněn.

Pro Amnesty International a její partnery v kampani k zastavení „robotů zabijáků“ je jediným skutečným řešením naprostý zákaz vývoje, nasazení a užití autonomních smrtících zbraních.

Svět nemůže již déle čekat na aktivní krok proti tak vážné hrozbě. Je na čase zcela a jednou provždy „roboty zabijáky“ zakázat.

Podobné příběhy