Může jít robot do vězení? aneb Právo v AI
29. 3. 2021

Může jít robot do vězení? aneb Právo v AI

Pokud podnikáte například v oblasti potravin, pravděpodobně znáte potravinářskou legislativu od A do Z. Pokud se ale vrháte do podnikání v oblasti strojového učení, dost možná se nemáte čeho pevně chytit. Nic jako zákon pro tuto oblast neexistuje a veškerá legislativa bude vznikat s odstupem času. V následujících řádcích proto shrnujeme, jak legislativa v oblasti umělé inteligence funguje a co se dá s velkou pravděpodobností očekávat do budoucna.

Legislativa týkající se umělé inteligence nemálo svádí k tomu, abychom ji onálepkovali jako „pomalou“. Její rozvážné stavění „ex post“ ale má svůj význam a podle odborníků je jedině ku prospěchu. Pokud by totiž zákony vznikaly dopředu, stavěly by nechtěné mantinely, které by možnosti technologií zbytečně brzdily. Patrné je to na příkladu autonomních aut. Přestože ještě nejezdí po českých silnicích, zákonodárci už téměř deset let řeší legislativu, která stále není definitivní. Nejasná zodpovědnost v případě nehody dostává výrobce aut, pojišťovny i případné kupce do velké nejistoty. Na brzdě rychlého a neuváženého sázení paragrafů stojí i Evropská unie, která se snaží o to, aby technologie neměly negativní dopady – a aby se tak důvěra veřejnosti v umělou inteligenci zbytečně nezakalila.
 

Přestože se autonomní technologie dnes používají v celé řadě aplikací, nic jako zákon o umělé inteligenci zatím neexistuje – a nejspíš ani existovat nebude. „Z hlediska práva je to problém, není možné definovat jeden use case a na ten napasovat nějaká pravidla,“ vysvětloval na jednom z meetingu nové platformy Brno AI Radim Polčák, který se jako vedoucí Ústavu práva a technologií na Právnické fakultě MU zabývá problematikou právních regulací autonomních technologií. Další překážkou je podle něj v cestě za legislativou také tzv. pluralita subjektů. Na fungování jednoho konkrétního autonomního systému se totiž většinou podílí více subjektů. Použít stejné předpisy, které určují odpovědnost třeba za chování zvířete, tak v případě autonomních systémů není možné. A protože s fungováním těchto technologií ještě nemáme mnoho zkušeností (a pokud ano, tak spíše v rámci „sterilního“ prostředí bez interakce s okolím), je třeba přesunout regulaci ze standardní situace, kdy se počítá pravděpodobnost rizika, do oblasti tzv. compliance.  

Autonomní vozidla vyvíjí i brněnský startup BringAuto

 

Performativní vs. behaviorální pravidla

Vývojáři umělé inteligence se tak budou muset řídit tzv. performativními pravidly. Představte si rodiče, který jako autorita dává svým dětem zákazy a příkazy. Takový rodič udává tzv. behaviorální pravidla. Na druhé straně je pak rodič, jehož přístup k výchově je spíš postavený na nastavení hranic. Dá mu důvěru v jasně vymezeném prostoru a nechává na něm samotném, jak se bude na pevně vytyčeném hřišti chovat. Performativní pravidla jsou přesně taková. Často se rozdíl mezi těmito dvěma pravidly udává v souvislosti s maximální povolenou rychlostí na dálnicích. Behaviorální pravidlo v českých zákonech povoluje plošně nejvýše 130 km/hod., přitom už ale nikdo nehodnotí technickou výbavu auta (jeho stáří či kvalitu brzd) nebo (ne)zkušenost řidiče. „Mnoho lidí si myslí, že v Německu můžou řidiči jezdit rychle, jak chtějí, není to ale pravda. Rychlostní limit je postaven tak, že každý jede tak rychle, jak je to bezpečné. Tím pádem každý má povinnost stanovit si rychlostní limit sám pro sebe,“ vysvětluje Polčák. Na stejném principu je založená známá ochrana osobních údajů (tzv. GDPR) a také vývoj v oblasti kyberbezpečnosti.
 

Pravidla v rámci performativního přístupu jsou velmi obecná. Určeny jsou hranice a každý se jim přizpůsobí podle svého nejlepšího vědomí a svědomí. Je proto logické, že například možností, jak chránit osobní údaje v rámci korporátu, je velmi mnoho. „V tomto případě neexistuje trochu lépe nebo trochu hůře. Pokud bude soud rozhodovat o sankcích, rozhodne proti regulovanému subjektu pouze v případě, že jednal absolutně špatně,“ upozorňuje Polčák.

Certifikace jako světlo na konci nejistoty

Takový stav podle něj ale může přinést nejistotu a s tím spojenou neochotu podnikatelů se ve svém oboru odvážněji angažovat. Dokud nepřijde externí kontrola, která potvrdí, že interní pravidla dané firmy jsou v pořádku, bude firma fungovat tak trochu „na vodě“. Řešením je (a bude) podle Radima Polčáka certifikační systém, který bude určitou zárukou „správného“ chování umělé inteligence. Jedná se v podstatě o proces, ve kterém si firma sama na sebe ušije bič. Zodpovědné orgány pak nebudou kontrolovat produkty této firmy. Budou kontrolovat, zda pravidla, která si na sebe firma vymyslela, jsou v pořádku a zda dodržují principy týkající se lidské důstojnosti nebo základních práv a svobod. Povinný by měl být pro rizikové sektory, jako je třeba zdravotnictví, finance nebo doprava.
 

Přestože jsou certifikační pracoviště plánovaná spíše ve velkých evropských státech, Česká republika bude mít minimálně jedno vlastní. Před nedávnem ho totiž založila i Masarykova univerzita spolu s Vysokým učením technickým a Českým vysokým učením technickým. „Zatím by měl pokrývat certifikační schémata v oblasti kybernetické bezpečnosti, postupem času by se ale rozsah jeho působnosti měl rozšířit i na autonomní technologie,“ vysvětluje Roman Polčák.

 

Zelená pro subjekt vs. zelená pro produkt

Samotná certifikace ale už teď vyvolává pár otazníků. Tak jako v případě známého dilematu, jestli byla dřív slepice nebo vejce, je na stole otázka, jestli certifikovat subjekt (slepici) nebo jeho produkt (tedy vejce). V případě jednodušších systémů je podle Radima Polčáka možné certifikovat produkt. „Například v případě nové generace mobilních sítí, tzv. 5G sítě, se ale jedná o extrémně komplexní projekt. Měli bychom se proto zajímat o to, jaký subjekt nám technologii vyvíjí a poskytuje. Už na úrovni subjektu by tak měly existovat mechanismy, které zajistí, že technologie bude bezpečná,“ zamýšlí se Polčák. Medicínské technologie už vlastní certifikační mechanismy mají, stejně tak letectví nebo automobilový průmysl. Otázkou proto bude také způsob, jak budou jednotlivé certifikace koexistovat – zda paralelně nebo hierarchicky. 
 

Radim Polčák pracoval v Evropské komisi v době, kdy vyšla již zmiňovaná GDPR regulace. Měl proto srovnání toho, jak jednotlivé členské státy na performativní pravidla reagovaly. „Firmy, které to pochopily, jsou na tom dobře. Firmy, které to nepochopily, způsobily ohromný humbuk, který byl u nás snad největší ze všech evropských států,“ vzpomíná Radim Polčák. A s regulacíoblasti autonomních technologií to s velkou pravděpodobností nebude jinak. Kdo zavčas pochopí, jak na ni, bude mít před ostatními přinejmenším záviděníhodný náskok.