Existují stále otrokáři? Aneb jak přistupovat k právům robotů


Zpět
Existují stále otrokáři? Aneb jak přistupovat k právům robotů

Kdybyste někomu před čtyřiceti lety řekli, že dnes bude každé dítě chodit s miniaturním superpočítačem v kapse, asi by vám nevěřil. Naše společnost se rozvíjí stále rychleji, většina telefonů je vybavena nějakým chytrým asistentem, který je s každým dnem stále chytřejší. Vědci a vývojáři z technologické oblasti pomalu začínají ovládat živá zvířata pomocí dálkového ovladače, lidé se stávají kyborgy a roboti dostávají státní občanství. Vývoj umělé inteligence by kromě mnoha pozitivních vlivů mohl přinést také řadu problémů včetně právních. Jak se tedy máme stavět k robotům s umělou inteligencí?

Společnost 4.0

Současný rozvoj umělé inteligence a autonomních robotů, kteří jsou schopni bez lidského zásahu vykonávat určenou činnost je podle mnohých dalším velkým milníkem a je nazýván „průmyslovou revolucí 4.0“. Ta mimo jiné spočívá v propojování fyzických zařízení v plně integrované automatizované prostředí. Tak vznikají efektivní chytré továrny. Tento proces probíhá také v domácnosti, administrativě a dalších oblastech. To vše provází vývoj stále lepších algoritmů, které jsou schopny se samostatně učit a měnit svůj program podle potřeby. V souvislosti s tím přijímají mnohé státy dokumenty, které mají „ukázat možné směry vývoje a nastínit návrhy opatření, která by mohla nejen podpořit ekonomickou a průmyslovou základnu, ale pomoci připravit celou společnost na absorbování této technologické změny.“1 

Matrix?

Mnozí jistě znají Platónovo podobenství o jeskyni. Ti, kteří ne, si mohou představit film Matrix. Interpretováno moderním kukátkem se tedy jedná o myšlenku, že vlastně všichni žijeme v nějaké virtuální realitě. S podobnými myšlenkami přicházeli i staří Indové, kteří věřili, že naše realita je jen iluze a že vše je Božská Hra. Také anglický filosof George Berkley tvrdil, že věci existují, jen pokud jsou vnímány (podobně funguje renderování her), a Němec Arthur Shopenhauer přišel s myšlenkou „svět jako moje představa“. Tyto teorie mají své zastánce mezi vědci a lidmi významnými v oblasti technologického pokroku, jako je například dobře známý Elon Musk. Říká, že vzhledem k rychlosti vývoje počítačových her a virtuální reality, i za předpokladu, že se vývoj zpomalí tisíc krát, bude dříve nebo později virtuální realita nerozeznatelná od skutečného světa a každý atom ve vesmíru bude možné simulovat.

Kdyby se nám povedlo naskenovat obraz nějakého člověka, přesný do posledního atomu, a následně jej zrekonstruovat v nějaké virtuální realitě, nešlo by jen tak říci, že postava v simulaci není živá a „zabít“ ji. Přece jen by byla naprosto identická s předobrazem a veškeré lidské emoce, pocity a vjemy, jež předobraz zažívá, jsou jen chemickou reakcí v našem těle, která se dá simulovat. Představme si tedy, že se povede napodobit celý vesmír včetně lidstva a že si v té době bude vysoký počet lidí schopno pořídit počítač s takovou simulací. Co až tyto simulované civilizace dospějí do stádia, kdy si samy vytvoří podobnou simulaci s vlastními lidmi a ta simulace si vytvoří vlastní. Takto se dá iterovat dlouho a sám Musk říká, že pravděpodobnost, že v simulaci nežijeme, je jedna k miliardě.

Etické otázky

V seriálu Star Trek se objevuje postava androida jménem pan Data. Když ho chtěl jistý vědec rozebrat, aby zjistil, jak postavit dalšího, vznikl spor o to, zda má Data právo na existenci. Při jednání mimo jiné zazněl i argument, že kdyby byla vytvořena skupina inteligentních, sebe uvědomělých robotů, kteří existují jen proto, aby sloužili lidem, bylo by to otroctví. Také lze bez sebemenších pochyb předpokládat, že vývoj umělé inteligence bude výrazný i na poli sexuálních robotů. Přeci jen myslící a emocionální „bytost“ je „příjemnější“, než nafukovací panna. A až se lidem podaří vytvořit umělou inteligenci, která by mohla být v biologickém těle, a která si nějakým nedopatřením ukousne z jablka z pomyslného stromu poznání a tím bude vyhnána z ráje nevědomosti. Co pak? Bude to znásilnění?

V jiném případě zase roboti skládají hudbu. Ta sice zatím zní tak trochu kakofonicky, ale důležité je, že autorem není čistě jen člověk. Podle § 2 autorského zákona je dílo jedinečným výsledkem tvůrčí činnosti autora. Člověk napsal program a až ten vytvořil dílo. Mohlo by být pro „spotřebitele“ zavádějící nazývat autorem tvůrce programu. Mgr. Stanislav Mikeš v jednom ze svých článků navrhuje, že autorem by mohl být přiznán program, zatímco výkon majetkových práv by náležel autorovi programu.

Odpovědnost za činy robotů

Profesor Smejkal se ve své knize ptá: „Kdo nese odpovědnost za jednání robota? Může robot spáchat trestný čin? Může být robot obětí trestného činu?"2

V usnesení EP byla navržena jistá pravidla pro konstruktéry robotů (jako pravidlo, aby byla lehce zjistitelná osoba za robota odpovědná). Většina dnešních strojů je stále do značné míry ovládána člověkem a jejich program není příliš komplexní, odpovědnou osobu tedy zjistit lze. V případě robotů to může být špatný programátor nebo nedbalý údržbář či dozorce. Ústavní a Nejvyšší soud se zmiňují o potřebné míře opatrnosti při dozoru nad strojem, mělo by však jít o předvídatelnou událost, kupříkladu selhání sondy Mars Climate Orbiter zapříčinil chybný převod jednotek. V případě programátora nebo výroby by zase mohlo jít o lege artis, tedy vyrábět roboty podle pravidel oboru, jak uvádí profesor Smejkal. Úmyslné trestné činy vynechejme.

Co případy, kdy program předvídatelně nejednal nebo selhal? Zde bude potřeba posuzovat příčinnou souvislost mezi jednáním robota a jednáním člověka. Dle Murphyho zákonů neexistuje zcela bezchybný program. Třeba chatbot společnosti Microsoft, kterého zprovoznila na Twitteru se naučil rasisticky nadávat. Ústavní soud říká, že měl-li někdo povinnost předvídat problémy a měl i možnost je předvídat, jde o zavinění z nedbalosti. Do jaké míry může však člověk jednání programu předvídat a jaké je přípustné riziko?

Smejkal se zmiňuje o třech kategoriích robotů. Tovární roboti, kteří jsou vystaveni konstantním podmínkám – u nich provozovatel o potížích vědět měl a mohl, tedy za ně odpovídá. Pohyblivý servisní robot, který je vystaven proměnlivým podmínkám, ale má naprogramovaný jen taxativní výčet možných událostí – např. vozidlo způsobí nehodu, protože mu selhal automatický brzdový mechanismus, na nějž se řidič spoléhal. Koho má auto v takovém případě srazit? Dítě na přechodu, nebo aktivně odbočit a srazit více dospělých na chodníku? Poslední je učící se robot, který není vždy úplně předvídatelný (viz rasistický chatbot), u tohoto typu je těžké prokázat úmysl.

Další kategorie – váleční roboti jsou dnes povětšinou jen prodlouženou rukou operátora (třeba takové drony, které sem tam něco odpálí). U těch je ale šance, že nepřítel bude rušit signál jejich dálkového ovládání nebo je dokonce převezme. Proto by bylo výhodné, aby byly autonomní a uměly se rozhodovat samy. Na internetu kolují videa, kde kopáním konstruktéři testují schopnosti pohybu robotů. Takového robota by teoreticky stačilo osadit umělou inteligencí a zbraní. Samostatné zbraně však mohou chybně vyhodnotit situaci a neštěstí je na světě. Americká direktiva 3000.09 říká, že autonomní válečné systémy by měly být buď nesmrtící, nebo nepohyblivé. Ta má ale omezenou platnost a musela by se obnovit. Vzhledem k tomu, že Rusko vyvíjí vlastní autonomní rakety, to asi nehrozí.

Autor: R.R.
Foto: Pixabay

[1] Preambule dokumentu ministerstva průmyslu a obchodu „iniciativa průmysl 4.0“
[2] SMEJKAL, V. Kybernetická kriminalita. 2. vyd. Plzeň: Aleš Čeněk, 2018. 934 s. ISBN 978-80-738-720-7. Kapitola 4.4