Proto volá 85 % dotázaných po jasném označení produktů a aplikací, v nichž UI hraje roli. Rovněž stejný podíl 85 % oslovených si myslí, že produkty UI by se měly octnout na trhu teprve poté, kdy byla jejich bezpečnost ověřena nezávislým úřadem. A 78 % dotázaných chce, aby stát garantoval vydání zákonů a předpisů k regulaci UI. Pro TÜV výzkum provedla agentura Ipsos na vzorku 1000 osob ve věku nad 16 let. Umělou inteligenci zná v Německu téměř každý. S pojmem bylo ve studii obeznámeno 94 % oslovených, přičemž ale 16 % respondentů není schopno vysvětlit, co se za ním skrývá, a 47 % to ví jen zhruba.
Mohlo by vás zajímat: Pandemie a pojištění. Těžce kalkulovatelné riziko
UI má jednoznačný přínos, ale…
Pozitivně hodnotí široká německá veřejnost další vývoj UI ve výzkumu (75 %), v průmyslu (73 %) a v medicíně (65 %). Převážně pozitivně vidí vylepšení UI v boji se zločinem (65 %) a ve zprostředkování poznatků, například při vývoji osobních asistentů (64 %). Jako negativní vidí respondenti náhradu lidských kontaktů prostřednictvím UI (69 %). Převážně kriticky vnímají oslovení nasazení UI v obraně (50 %) a v péči o staré občany (49 %).
Podle studie se ale 72 % občanů velmi obává hackerských útoků, které by mohly být přes UI automatizované a také personalizované. Na druhém místě (71 %) panuje starost, že by bylo možné UI zneužít k manipulaci lidí. A konečně 67 % si myslí, že by UI mohla dělat kritické chyby v některých ošemetných aplikacích, jakými jsou například autonomní auta. Podle takových úvah není UI schopna správně vyhodnotit dopravní situaci a mohla by způsobit těžké havárie. Další obavy panují směrem k odlidštění (62 %). Více než polovina respondentů (56 %) má velkou či velmi velkou starost, že UI bude brát lidem práci.
Jednou z oblastí, kde vidí dotázaní perspektivu UI pozitivně, je medicína. Podle 69 % z nich by UI mohla podporovat lékaře v jejich rozhodnutích. Lékař sám o sobě by si ale měl sám ponechat konečnou pravomoc rozhodnout v každé situaci. Jen 24 % by se spolehlo na výhradní doporučení algoritmů.
Mohlo by vás zajímat: Hokejový šampionát kvůli epidemii koronaviru zrušen. Jak to je s pojištěním?
Jak jsou respondenti tolerantní k chybám UI?
Čtyři z deseti dotázaných očekávají 100% jistotu bez jakýchkoli chyb. 34 % oslovených jsou o něco tolerantnější, vyskytnou-li se v systému výjimečně chyby. Pro 17 % respondentů jsou chyby „normální“. Mnohem méně ochoty připustit chybu jsou respondenti v oblasti automatických vozidel: podle 84 % musí auta jezdit naprosto bezchybně. A stejný podíl dotázaných požaduje, aby systémy samořiditelných aut byly nejprve kontrolovány a testovány nezávislými ústavy.
Jak uhlídat vývoj UI
Nová Evropská komise vyhlásila, že přijde se strategií vývoje UI. Státní úřady řady zemí se chystají vliv UI hlídat a sledovat v různých oblastech, například na trhu práce a v právních otázkách lidské existence. Například Německo si ale současně uvědomuje, že by nemělo brzdit regulací inovace. Testování a ověřování by se mělo vždy řídit potenciální škodou, jakou může UI způsobit.
Mohlo by vás zajímat: Profesoři z Bulovky ke koronaviru: Trvalá imunita není vůbec jistá!
Německý TÜV připravil doporučení pro politiky, jimiž by se měli při usměrňování UI řídit:
- Aplikace UI zařadit do různých tříd rizika. Podle třídy potom rozhodnout, zda a v jaké míře ověřovat účinky.
- Prověřování systémů UI s vysokým nebo velmi vysokým rizikem nechat otestovat nezávislý úřad.
- Předpokladem pro nezávislé kontroly algoritmických systémů je přístup k nezbytným bezpečnostním datům. Ten však dnes zkušebním organizacím chybí.
- Pro systémy UI se strojovým učením jsou nutné průběžné testy. Přitom periodické zkoušky jednou za rok či dva mohou být v nynější digitální době už brzy zastaralé.
- Samotné zkušebny musí přispět k etickým standardům vývoje UI. Musí interně kontrolovat a certifikovat své provozní procesy v podniku.
Komentáře
Přidat komentář