Autonomní vozidla optikou ČAP: Etické aspekty


			Autonomní vozidla optikou ČAP: Etické aspekty
15.3.2018 Spektrum

Česká asociace pojišťoven představila zajímavou publikaci autorů Petra Jedličky a Lukáše Housky Analýza autonomních vozidel. Ta vychází z dostup­ných podkladů ze zahraničí, zejména od zajistitelů, přičemž některé aspekty pozitivních dopadů byly modelovány na situaci vozového parku v České republice s využitím dostupných dat a statistik především za povinné ručení. Analýza se na danou problematiku dívá z celé řady úhlů pohledu. V aktuálním příspěvku se zaměřme na etickou stránku.

Plně autonomní vozidlo (úroveň 5 automatiza­ce) je vysoce komplexní inteligentní stroj. Takový stroj bude schopen strojově se učit (např. pomocí neuronových sítí) a na základě takto získaných in­strukcí bude analyzovat svět kolem sebe a násled­ně provádět nezávislá rozhodnutí. Proces učení bude dynamický a bude se provozem neustále zdokonalovat.

Tento inovativní přístup však přináší i možné problematické aspekty, např. nediskrimi­nace, transparentnost a srozumitelnost rozhod­nutí, dodržování řádných postupů, kybernetický útok za účelem převzetí řízení vozidla či ovlivnění rozhodnutí atd. V současné době je velice obtížné domyslet všechny možné negativní dopady vyplý­vající z výše zmíněného.


Mohlo by vás zajímat: Allianz 2017: Výsledky umožňují zvýšit dividendu o 5 %


Na plně autonomní vozidlo by mohlo být nahlíže­no jako na robota. V obecné rovině by tedy mělo dodržovat tzv. „Asimovovy zákony robotiky“, kdy první zákon říká: „Robot nesmí ublížit člověku ani svou nečinností dopustit, aby bylo člověku ublíženo.“

Asimovovy zákony byly formulovány v roce 1942 a jsou možná až příliš jednoduché, nicméně i aktuální charta robotiky[1] obsahuje mj. body Prospěšnost: roboti by měli jednat v nejlepším zájmu lidí, a Neškodlivost: doktrína „především nepáchat škodu“, podle níž by roboti neměli způsobovat lidem újmu. Slabinou těchto zásad je absence řešení v případě, kdy je zranění či smrt jednoho či více lidí nevyhnutelné.

Nicméně tyto zákony jsou potenciálně v rozporu s mediálně zajímavým problémem tzv. „morální­ho dilematu autonomního vozidla“, tedy když se vozidlo dostane do takové situace, která má dvě negativní řešení, a to že buď přejede např. chod­ce (zástup dětí z mateřské školy, těhotnou ženu atp.), nebo že provede úhybný manévr, při kterém zemře posádka vozu (např. náraz do zdi).


Mohlo by vás zajímat: Swiss Re 2017: Čistý zisk 331 milionů USD


Jak­koli je taková situace velice nepravděpodobná, není vyloučeno, že nemůže nastat, neboť silniční provoz je velice složité prostředí a plodí nepředví­datelné momenty, pro něž nelze auta jednoduše naprogramovat.

K tomuto dilematu mohou existovat dva základní přístupy, v nichž není jasné, který z nich se větši­nově prosadí:

  • „společensky odpovědný“ přístup, kdy algorit­mus bude založený na minimalizaci počtu obětí bez ohledu na to, zda se potenciální oběti na­cházejí ve vozidle nebo mimo něj. Podstatnou otázkou je, zda a jak algoritmus bude schopen detekovat člověka např. od figuríny, zvířete apod. V tomto případě je možné, že algoritmus v mezní situaci „upřednostní“ místo ochrany posádky v autě záchranu osob mimo něj;
  • přístup orientovaný na zákazníka (na posádku ve vozidle), tzn. že primárním cílem algoritmu bude ochrana posádky ve vozidle, s čímž souvi­sí posilování důvěry spotřebitelů v nákup nebo sdílení autonomních vozidel v situaci, kdy bude primárně chráněna právě posádka vozidla.

Pokud by vozidlo řídil člověk, pro lidské vnímání se většinou vše seběhne tak rychle, že chování člověka v takových situacích podléhá spíše pod­vědomým reakcím a reflexům a „automatická“ rozhodnutí si člověk následně ospravedlňuje. Takové jednání je pro nás pochopitelné a jeho dů­sledky přijímáme. Pro výkonný počítač je i zlomek vteřiny dost na to, aby situaci vyhodnotil a učinil rozhodnutí dle svých instrukcí. Nenaprogramovat ho a ponechat dění náhodě jako u lidských nehod však dost dobře nelze.


Mohlo by vás zajímat: Pojišťovna VZP slaví rekordní rok. Rostla o 6,25 %


Jak by mělo být autonomní vozidlo naprogra­mováno, má-li v hraničních situacích určit, koho nechat naživu a kdo zemře? Nevyhnutelně se při takovýchto úvahách dostáváme k tématu hodnoty lidského života, např.: Je život dítěte cennější než život důchodce, a má tedy auto místo dítěte, které mu vběhlo pod kola, přejet důchodce na protějším chodníku? Roste cena životů s jejich počtem, a má se tedy auto rozhodnout podle toho, zda je skupina dětí na silnici početnější než posádka auta?

Samy automobilky zatím tento problém ko­mentují velice diplomaticky. Většinou se jejich oficiální prohlášení nesou v duchu, že by bylo špatné a možná také nelegální, kdyby auto­nomně řízené vozidlo aktivně samo rozhodlo, že někomu ublíží, aby zachránilo někoho jiného. Automobilky proklamují, že se chtějí zaměřit na předcházení těmto nebezpečným situacím, aby se něco podobného v budoucnu vůbec nestalo. Další sporná věc může spočívat v útoku hackera na řídicí systém vozidla. V současné době existují dvě koncepce autonomních vozidel:

  • vozidla spoléhající se výhradně na svá čidla a senzory. Touto cestou se vydala např. auto­mobilka Tesla. Tato vozidla sice nekomunikují s okolím, přesto jsou vybavena bezdrátovým datovým připojením (pro komunikaci s centrá­lou výrobce atd.);
  • vozy kombinující vestavěné senzory se zaříze­ním pro komunikaci s okolím, tedy s ostatními automobily (Vehicle to Vehicle, V2V), a s dopravní infrastrukturou (Vehicle to Infrastructure, V2I), příp. s dalšími prvky. Obecně se tento koncept nazývá „V2X“.

A právě v možnosti napadení vozidla skrze tyto ko­munikační protokoly se nachází potenciální zrani­telné místo. Útočník může v krajním případě buď zcela ovládnout vozidlo a řídit ho on-line, na dálku, nebo změnit rozhodovací instrukce a tím změnit chování vozidla a přeměnit ho ve zbraň.


Mohlo by vás zajímat: Případ „arbitr“: Neplatných smluv IŽP může být milion


Další kontroverze se týká „obyčejných“ doprav­ních nehod. Je zřejmé, že provozem autonom­ních vozidel budou vznikat dopravní nehody také – autonomní systém řízení nemůže být nikdy zcela bezchybný. Jistě se budou objevovat kritic­ké názory na chování autonomních vozidel (zma­tečnost, různé chyby aj.), ale experti se shodují, že celkově by mělo vznikat řádově méně doprav­ních nehod. Do budoucna je podstatná shoda v tom, jaká míra nehodovosti je akceptovatelná, a kdy by tedy mohla být autonomní vozidla puš­těna do provozu.

Z pohledu statistické teorie lze nastavení robust­nosti systému autonomních vozidel aplikovat na klasický problém vyváženosti chyby 1. a 2. druhu známého ve statistickém testování hypotéz; viz např. (7). V případě optimálního nastavení chy­bovosti autonomních vozidel (nulovou chybovost nikdy nelze zaručit) chceme minimalizovat úro­veň rizika nehody, usmrcení posádky a dalších účastníků dopravního provozu (chodci, cyklisté apod.), což představuje kontrolovanou úroveň chyby 1. druhu (jejíž překročení je pro nás z po­chopitelných důvodů obtížně přijatelné).

Nicmé­ně je třeba mít na paměti, že s poklesem chyby 1. druhu narůstá velikost chyby 2. druhu, kterou v případě spolehlivosti autonomních vozidel můžeme chápat jako přehnanou obezřetnost algoritmu řízení vozidla v situaci, v níž to reálně není nutné a kterou by řidič vozidla schopný im­provizace a adaptace na ztížené podmínky (např. chybějící podélné značení nebo špatně nato­čená dopravní značka, zúžení silnice apod.) bez problémů zvládl, zatímco autonomní vozidlo by při přehnané obezřetnosti zvolilo např. variantu zastavení, kdy se sice minimalizuje riziko chyby 1. druhu (tj. vznik nehody, usmrcení a zranění), ale na druhou stranu, vzrůstající riziko, že „se nikam nedojede“, také není přijatelné.

[1] Http://www.europarl.europa.eu/sides/getDoc.do?pubRef=-//EP//TEXT+REPORT+A8-2017-0005+0+DOC+XML+V0//CS#_part1_def2

Sledujte nás

Facebook Twitter LinkedIn

Komentáře

Přidat komentář

Nejsou žádné komentáře.

Související články