Jak dál s autonomními smrtícími roboty?
Autonomní smrtící systémy jsou za dveřmi. Experti se dohadují, zda je zakázat anebo regulovat. Přes emotivní prohlášení vědeckých celebrit se zdá, že totální zákaz takzvaných vraždících robotů není na pořadu dne.
Vývoj robotických zbraní a umělých inteligencí nabírá na obrátkách. Nové technologie se objevují jedna za druhou a jak už to tak bývá, spolu s nimi se objevují i obavy z jejich použití. Online portál časopisu Nature na konci května věnoval prostor etice umělých inteligencí, kde se vyjádřil i specialista na umělé inteligence Stuart Russell z Kalifornské univerzity v Berkeley, který se zajímá o autonomní zbraňové systémy.
Podle Russella teď komunity vědců vyvíjejících umělé inteligence a roboty stojí před významným etickým rozhodnutím – zda podpořit anebo odmítnout vývoj smrtících autonomních zbraňových systémů (LAWS, Lethal Autonomous Weapons Systems). Očekávání jsou prý velmi vysoká, mnozí považují systémy LAWS za třetí zásadní revoluci ve vojenských technologiích – po střelném prachu a jaderných zbraních.
Smrtící autonomní systémy jsou takové, které si vyberou cíle a zaútočí na ně bez účasti lidského operátora. Oproti běžně rozšířeným představám to nejsou bojové drony, o jejichž cílech rozhodují pozemní operátoři ani automaticky naváděné křižující střely, mohou to ale být třeba kvadrikoptéry vyzbrojené smrtící zbraní, které by vyhledávaly a dle svého uvážení likvidovaly nepřátelské bojovníky v městské zástavbě.
Nejspíš to není žádné sci-fi. Všechny klíčové komponenty takových technologií už existují a stačí je jenom vhodně spojit dohromady. Smrtící autonomní systémy se tak mohou objevit za pár let nebo snad i měsíců, vzhledem k současné geopolitické situaci spíš dřív, nežli později. Russell upozorňuje, že hned dva programy amerických vojenských vývojářů DARPA dávají tušit použití systémů LAWS. Program Fast Lightweight Autonomy (FLA) podporuje vývoj malých vrtulníkových dronů, které by měly autonomně létat v hustě zastavěných oblastech a dokonce i uvnitř budov. V programu Collaborative Operations in Denied Environment (CODE) se zase vyvíjejí autonomní drony, které by měly zvládnout všechny fáze útočné mise za situace, kdy elektronický úder protivníka vyřadí komunikaci mezi dronem a pozemním operátorem.
Russell se jako specialista na umělé inteligence zúčastnil dubnového setkání expertů na LAWS ve švýcarské Ženevě, které se odehrálo pod taktovou Úmluvy o některých konvenčních zbraních (CCW, Convention on Certain Conventional Weapons). Dotyčná Úmluva, která omezuje užívání zbraní způsobujících nadměrné utrpení či nerozlišujících při svých účincích, v tuto chvíli zahrnuje protokoly omezující 1. tříštivé zbraně, 2. nástražné miny, 3. zápalné zbraně, 4. oslepující laserové zbraně a 5. výbušné zbytky z války (zejména kazetovou munici).
V debatě expertů šlo o to, jestli by měl být vytvořen šestý protokol Úmluvy CCW, který by se věnoval autonomním smrtícím systémům. Podle všeho se tam střetávaly především dva pohledy. Podle prvního z nich by se systémy LAWS měly zařadit do stejné kategorie jako biologické a chemické zbraně a tím pádem kompletně a preventivním účinkem zakázat. Druhý pohled byl pragmatický a prosazoval zařazení autonomní smrtící systémy do stejné kategorie jako přesně naváděnou munici a regulaci jejich používání.
Nevládní organizace jako Amnesty International, Human Rights Watch nebo Women's International League for Peace and Freedom nedávno spustily kampaň proti „vražedným robotům“ Campaign to Stop Killer Robots. Dožadují se v ní preventivního totálního zákazu systémů LAWS, podobného zákazu oslepujících laserů a zákazu protipěchotních min. Argumentují v podstatě tím, že pověřovat roboty zabíjením lidí je nemorální.
Mnozí s nimi ale zásadně nesouhlasí. Ron Arkin z Georgijské techniky a další navrhují, že by systémy LAWS měly být považovány za novou generaci chytrých bomb. Autonomní smrtící systémy jsou v porovnání se současnými chytrými bombami přesnější a vlastně důsledněji ctí Mezinárodní humanitární právo (IHL). A když na to přijde, v čem je vlastně morálnější zabíjení lidí lidmi? Autonomní systém jen těžko zpanikaří, nebude se mstít a nesplete si cíle kvůli duševnímu rozpoložení. Když Ruskem vyslaní separatisté na Ukrajině omylem sestřelili civilní letadlo letu Malaysia Airlines 17 (MH17), bylo to všechno zcela v lidských rukou.
Nicméně, v době setkání expertů na LAWS v Ženevě totální zákaz LAWS podporovala jenom hrstka států, konkrétně Kuba, Ekvádor, Egypt, Pákistán a Svatá stolice. Zbývající země se dohadují o potřebných definicích a přiklánějí se spíše k názoru, že systémy LAWS už fakticky jsou regulovány Mezinárodním humanitárním právem (IHL). Pro odpůrce „vražedných robotů“ je kromě toho velmi problematické, že systémy LAWS lze sestavit z komponent, které je prakticky nemožné zakázat. Senzory, jako jsou radary, mají široké vojenské i civilní využití, software rozeznávání lidí jako cílů se prakticky neliší od spousty jiných programů s primitivní umělou inteligencí, rozeznávajících cokoliv zajímavého, a smrtící zbraně pro LAWS, jako například rakety vzduch-země Hellfire, jsou úplně stejné jako ty, co se odpalují stiskem tlačítka člověkem. Tady už pro zákazy příliš prostoru nezbývá.
V posledních dnech se také objevil otevřený dopis vyzývající k zákazu LAWS, podepsaný více než tisícovkou expertů na AI a mediálně zaštítěný univerzálními vědeckými a technologickými celebritami, jako Hawking, Musk, Wozniak nebo chronický aktivista Chomsky. Dopis očividně cílí na konferenci o umělých inteligencích (International Joint Conference on AI), právě probíhající v Buenos Aires, a jeho zásadním poselstvím je, že závody ve zbrojení s umělými inteligencemi by byly pro lidstvo špatné, protože všudypřítomné LAWS by destabilizovaly státy a poháněly etnické čistky. Zvláštní na tom je, že dnešní svět je plný destabilizovaných zemí a etnických čistek, ačkoliv se vraždící roboti zatím neobjevili.
Poprask kolem vraždících robotů nakonec důvěrně připomíná obavy z geneticky vylepšených organismů, nanotechnologií nebo kondenzačních stop proudových letadel, ačkoliv LAWS, jako vojenské technologie, nejspíš budou doopravdy zabíjet. Géniové by se měli méně dívat na filmy o terminátorech a pokud je milují tak, jako autor tohoto komentáře, měli by si hlídat dostatečný nadhled. Elon Musk ostatně v rozhovoru pro americký kanál CNBC výslovně uvedl, že jeho obavy z umělé inteligence souvisejí se sledováním Terminátora.
Jak se zdá okamžitý zákaz autonomních smrtících systémů není na pořadu dne. Jejich odpůrci by se nicméně měli mít na pozoru, aby nesehráli roli užitečných idiotů ve prospěch zemí, které ve vývoji autonomních smrtících systémů a vůbec dronů citelně zaostávají. V tomto směru existují rozsáhlé zkušenosti ze studené války, kdy Sovětský svaz používal takzvaná protiválečná hnutí jako účinnou zbraň proti Západu.
Podobný článek vyšel na serveru OSEL.cz
Vývoj robotických zbraní a umělých inteligencí nabírá na obrátkách. Nové technologie se objevují jedna za druhou a jak už to tak bývá, spolu s nimi se objevují i obavy z jejich použití. Online portál časopisu Nature na konci května věnoval prostor etice umělých inteligencí, kde se vyjádřil i specialista na umělé inteligence Stuart Russell z Kalifornské univerzity v Berkeley, který se zajímá o autonomní zbraňové systémy.
Podle Russella teď komunity vědců vyvíjejících umělé inteligence a roboty stojí před významným etickým rozhodnutím – zda podpořit anebo odmítnout vývoj smrtících autonomních zbraňových systémů (LAWS, Lethal Autonomous Weapons Systems). Očekávání jsou prý velmi vysoká, mnozí považují systémy LAWS za třetí zásadní revoluci ve vojenských technologiích – po střelném prachu a jaderných zbraních.
Smrtící autonomní systémy jsou takové, které si vyberou cíle a zaútočí na ně bez účasti lidského operátora. Oproti běžně rozšířeným představám to nejsou bojové drony, o jejichž cílech rozhodují pozemní operátoři ani automaticky naváděné křižující střely, mohou to ale být třeba kvadrikoptéry vyzbrojené smrtící zbraní, které by vyhledávaly a dle svého uvážení likvidovaly nepřátelské bojovníky v městské zástavbě.
Nejspíš to není žádné sci-fi. Všechny klíčové komponenty takových technologií už existují a stačí je jenom vhodně spojit dohromady. Smrtící autonomní systémy se tak mohou objevit za pár let nebo snad i měsíců, vzhledem k současné geopolitické situaci spíš dřív, nežli později. Russell upozorňuje, že hned dva programy amerických vojenských vývojářů DARPA dávají tušit použití systémů LAWS. Program Fast Lightweight Autonomy (FLA) podporuje vývoj malých vrtulníkových dronů, které by měly autonomně létat v hustě zastavěných oblastech a dokonce i uvnitř budov. V programu Collaborative Operations in Denied Environment (CODE) se zase vyvíjejí autonomní drony, které by měly zvládnout všechny fáze útočné mise za situace, kdy elektronický úder protivníka vyřadí komunikaci mezi dronem a pozemním operátorem.
Russell se jako specialista na umělé inteligence zúčastnil dubnového setkání expertů na LAWS ve švýcarské Ženevě, které se odehrálo pod taktovou Úmluvy o některých konvenčních zbraních (CCW, Convention on Certain Conventional Weapons). Dotyčná Úmluva, která omezuje užívání zbraní způsobujících nadměrné utrpení či nerozlišujících při svých účincích, v tuto chvíli zahrnuje protokoly omezující 1. tříštivé zbraně, 2. nástražné miny, 3. zápalné zbraně, 4. oslepující laserové zbraně a 5. výbušné zbytky z války (zejména kazetovou munici).
V debatě expertů šlo o to, jestli by měl být vytvořen šestý protokol Úmluvy CCW, který by se věnoval autonomním smrtícím systémům. Podle všeho se tam střetávaly především dva pohledy. Podle prvního z nich by se systémy LAWS měly zařadit do stejné kategorie jako biologické a chemické zbraně a tím pádem kompletně a preventivním účinkem zakázat. Druhý pohled byl pragmatický a prosazoval zařazení autonomní smrtící systémy do stejné kategorie jako přesně naváděnou munici a regulaci jejich používání.
Nevládní organizace jako Amnesty International, Human Rights Watch nebo Women's International League for Peace and Freedom nedávno spustily kampaň proti „vražedným robotům“ Campaign to Stop Killer Robots. Dožadují se v ní preventivního totálního zákazu systémů LAWS, podobného zákazu oslepujících laserů a zákazu protipěchotních min. Argumentují v podstatě tím, že pověřovat roboty zabíjením lidí je nemorální.
Mnozí s nimi ale zásadně nesouhlasí. Ron Arkin z Georgijské techniky a další navrhují, že by systémy LAWS měly být považovány za novou generaci chytrých bomb. Autonomní smrtící systémy jsou v porovnání se současnými chytrými bombami přesnější a vlastně důsledněji ctí Mezinárodní humanitární právo (IHL). A když na to přijde, v čem je vlastně morálnější zabíjení lidí lidmi? Autonomní systém jen těžko zpanikaří, nebude se mstít a nesplete si cíle kvůli duševnímu rozpoložení. Když Ruskem vyslaní separatisté na Ukrajině omylem sestřelili civilní letadlo letu Malaysia Airlines 17 (MH17), bylo to všechno zcela v lidských rukou.
Nicméně, v době setkání expertů na LAWS v Ženevě totální zákaz LAWS podporovala jenom hrstka států, konkrétně Kuba, Ekvádor, Egypt, Pákistán a Svatá stolice. Zbývající země se dohadují o potřebných definicích a přiklánějí se spíše k názoru, že systémy LAWS už fakticky jsou regulovány Mezinárodním humanitárním právem (IHL). Pro odpůrce „vražedných robotů“ je kromě toho velmi problematické, že systémy LAWS lze sestavit z komponent, které je prakticky nemožné zakázat. Senzory, jako jsou radary, mají široké vojenské i civilní využití, software rozeznávání lidí jako cílů se prakticky neliší od spousty jiných programů s primitivní umělou inteligencí, rozeznávajících cokoliv zajímavého, a smrtící zbraně pro LAWS, jako například rakety vzduch-země Hellfire, jsou úplně stejné jako ty, co se odpalují stiskem tlačítka člověkem. Tady už pro zákazy příliš prostoru nezbývá.
V posledních dnech se také objevil otevřený dopis vyzývající k zákazu LAWS, podepsaný více než tisícovkou expertů na AI a mediálně zaštítěný univerzálními vědeckými a technologickými celebritami, jako Hawking, Musk, Wozniak nebo chronický aktivista Chomsky. Dopis očividně cílí na konferenci o umělých inteligencích (International Joint Conference on AI), právě probíhající v Buenos Aires, a jeho zásadním poselstvím je, že závody ve zbrojení s umělými inteligencemi by byly pro lidstvo špatné, protože všudypřítomné LAWS by destabilizovaly státy a poháněly etnické čistky. Zvláštní na tom je, že dnešní svět je plný destabilizovaných zemí a etnických čistek, ačkoliv se vraždící roboti zatím neobjevili.
Poprask kolem vraždících robotů nakonec důvěrně připomíná obavy z geneticky vylepšených organismů, nanotechnologií nebo kondenzačních stop proudových letadel, ačkoliv LAWS, jako vojenské technologie, nejspíš budou doopravdy zabíjet. Géniové by se měli méně dívat na filmy o terminátorech a pokud je milují tak, jako autor tohoto komentáře, měli by si hlídat dostatečný nadhled. Elon Musk ostatně v rozhovoru pro americký kanál CNBC výslovně uvedl, že jeho obavy z umělé inteligence souvisejí se sledováním Terminátora.
Jak se zdá okamžitý zákaz autonomních smrtících systémů není na pořadu dne. Jejich odpůrci by se nicméně měli mít na pozoru, aby nesehráli roli užitečných idiotů ve prospěch zemí, které ve vývoji autonomních smrtících systémů a vůbec dronů citelně zaostávají. V tomto směru existují rozsáhlé zkušenosti ze studené války, kdy Sovětský svaz používal takzvaná protiválečná hnutí jako účinnou zbraň proti Západu.
Podobný článek vyšel na serveru OSEL.cz