Může jít robot do vězení? aneb Právo v AI

29. 3. 2021

Pokud podnikáte například v oblasti potravin, pravděpodobně znáte potravinářskou legislativu od A do Z. Pokud se ale vrháte do podnikání v oblasti strojového učení, dost možná se nemáte čeho pevně chytit. Nic jako zákon pro tuto oblast neexistuje a veškerá legislativa bude vznikat s odstupem času. V následujících řádcích proto shrnujeme, jak legislativa v oblasti umělé inteligence funguje a co se dá s velkou pravděpodobností očekávat do budoucna.

Legislativa týkající se umělé inteligence nemálo svádí k tomu, abychom ji onálepkovali jako „pomalou“. Její rozvážné stavění „ex post“ ale má svůj význam a podle odborníků je jedině ku prospěchu. Pokud by totiž zákony vznikaly dopředu, stavěly by nechtěné mantinely, které by možnosti technologií zbytečně brzdily. Patrné je to na příkladu autonomních aut. Přestože ještě nejezdí po českých silnicích, zákonodárci už téměř deset let řeší legislativu, která stále není definitivní. Nejasná zodpovědnost v případě nehody dostává výrobce aut, pojišťovny i případné kupce do velké nejistoty. Na brzdě rychlého a neuváženého sázení paragrafů stojí i Evropská unie, která se snaží o to, aby technologie neměly negativní dopady – a aby se tak důvěra veřejnosti v umělou inteligenci zbytečně nezakalila.

Přestože se autonomní technologie dnes používají v celé řadě aplikací, nic jako zákon o umělé inteligenci zatím neexistuje – a nejspíš ani existovat nebude. „Z hlediska práva je to problém, není možné definovat jeden use case a na ten napasovat nějaká pravidla,“ vysvětloval na jednom z meetingu nové platformy Brno AI Radim Polčák, který se jako vedoucí Ústavu práva a technologií na Právnické fakultě MU zabývá problematikou právních regulací autonomních technologií. Další překážkou je podle něj v cestě za legislativou také tzv. pluralita subjektů. Na fungování jednoho konkrétního autonomního systému se totiž většinou podílí více subjektů. Použít stejné předpisy, které určují odpovědnost třeba za chování zvířete, tak v případě autonomních systémů není možné. A protože s fungováním těchto technologií ještě nemáme mnoho zkušeností (a pokud ano, tak spíše v rámci „sterilního“ prostředí bez interakce s okolím), je třeba přesunout regulaci ze standardní situace, kdy se počítá pravděpodobnost rizika, do oblasti tzv. compliance.  

Autonomní vozidla vyvíjí i brněnský startup BringAuto

 

Performativní vs. behaviorální pravidla

Vývojáři umělé inteligence se tak budou muset řídit tzv. performativními pravidly. Představte si rodiče, který jako autorita dává svým dětem zákazy a příkazy. Takový rodič udává tzv. behaviorální pravidla. Na druhé straně je pak rodič, jehož přístup k výchově je spíš postavený na nastavení hranic. Dá mu důvěru v jasně vymezeném prostoru a nechává na něm samotném, jak se bude na pevně vytyčeném hřišti chovat. Performativní pravidla jsou přesně taková. Často se rozdíl mezi těmito dvěma pravidly udává v souvislosti s maximální povolenou rychlostí na dálnicích. Behaviorální pravidlo v českých zákonech povoluje plošně nejvýše 130 km/hod., přitom už ale nikdo nehodnotí technickou výbavu auta (jeho stáří či kvalitu brzd) nebo (ne)zkušenost řidiče. „Mnoho lidí si myslí, že v Německu můžou řidiči jezdit rychle, jak chtějí, není to ale pravda. Rychlostní limit je postaven tak, že každý jede tak rychle, jak je to bezpečné. Tím pádem každý má povinnost stanovit si rychlostní limit sám pro sebe,“ vysvětluje Polčák. Na stejném principu je založená známá ochrana osobních údajů (tzv. GDPR) a také vývoj v oblasti kyberbezpečnosti.

Pravidla v rámci performativního přístupu jsou velmi obecná. Určeny jsou hranice a každý se jim přizpůsobí podle svého nejlepšího vědomí a svědomí. Je proto logické, že například možností, jak chránit osobní údaje v rámci korporátu, je velmi mnoho. „V tomto případě neexistuje trochu lépe nebo trochu hůře. Pokud bude soud rozhodovat o sankcích, rozhodne proti regulovanému subjektu pouze v případě, že jednal absolutně špatně,“ upozorňuje Polčák.

Certifikace jako světlo na konci nejistoty

Takový stav podle něj ale může přinést nejistotu a s tím spojenou neochotu podnikatelů se ve svém oboru odvážněji angažovat. Dokud nepřijde externí kontrola, která potvrdí, že interní pravidla dané firmy jsou v pořádku, bude firma fungovat tak trochu „na vodě“. Řešením je (a bude) podle Radima Polčáka certifikační systém, který bude určitou zárukou „správného“ chování umělé inteligence. Jedná se v podstatě o proces, ve kterém si firma sama na sebe ušije bič. Zodpovědné orgány pak nebudou kontrolovat produkty této firmy. Budou kontrolovat, zda pravidla, která si na sebe firma vymyslela, jsou v pořádku a zda dodržují principy týkající se lidské důstojnosti nebo základních práv a svobod. Povinný by měl být pro rizikové sektory, jako je třeba zdravotnictví, finance nebo doprava.

Přestože jsou certifikační pracoviště plánovaná spíše ve velkých evropských státech, Česká republika bude mít minimálně jedno vlastní. Před nedávnem ho totiž založila i Masarykova univerzita spolu s Vysokým učením technickým a Českým vysokým učením technickým. „Zatím by měl pokrývat certifikační schémata v oblasti kybernetické bezpečnosti, postupem času by se ale rozsah jeho působnosti měl rozšířit i na autonomní technologie,“ vysvětluje Roman Polčák.

Propojíme vás s novými byznysovými partnery

Naše klienty propojujeme mezi sebou, otevíráme jim dveře k českým i zahraničním kontaktům a představujeme jejich práci a nápady nadnárodním korporacím. Staňte se naším klientem.

 

Chci vědět víc

Zelená pro subjekt vs. zelená pro produkt

Samotná certifikace ale už teď vyvolává pár otazníků. Tak jako v případě známého dilematu, jestli byla dřív slepice nebo vejce, je na stole otázka, jestli certifikovat subjekt (slepici) nebo jeho produkt (tedy vejce). V případě jednodušších systémů je podle Radima Polčáka možné certifikovat produkt. „Například v případě nové generace mobilních sítí, tzv. 5G sítě, se ale jedná o extrémně komplexní projekt. Měli bychom se proto zajímat o to, jaký subjekt nám technologii vyvíjí a poskytuje. Už na úrovni subjektu by tak měly existovat mechanismy, které zajistí, že technologie bude bezpečná,“ zamýšlí se Polčák. Medicínské technologie už vlastní certifikační mechanismy mají, stejně tak letectví nebo automobilový průmysl. Otázkou proto bude také způsob, jak budou jednotlivé certifikace koexistovat – zda paralelně nebo hierarchicky. 

Radim Polčák pracoval v Evropské komisi v době, kdy vyšla již zmiňovaná GDPR regulace. Měl proto srovnání toho, jak jednotlivé členské státy na performativní pravidla reagovaly. „Firmy, které to pochopily, jsou na tom dobře. Firmy, které to nepochopily, způsobily ohromný humbuk, který byl u nás snad největší ze všech evropských států,“ vzpomíná Radim Polčák. A s regulacíoblasti autonomních technologií to s velkou pravděpodobností nebude jinak. Kdo zavčas pochopí, jak na ni, bude mít před ostatními přinejmenším záviděníhodný náskok.


Nejnovější
Trendy a témata

ESG reporting od A do Z. Víme, která data sledovat

29. 9. 2022

Zatímco ještě před rokem nebylo o zkratce ESG slyšet, dnes už ji zná skoro každý. Zaměření na životní prostředí (E), společenská témata (S) a řízení (G) vede firmy k odpovědnému a udržitelnému přístupu k podnikání, který je nezbytný pro zvládnutí zelené transformace. Ondřej Janků z Frank Bold pro nás shrnul to nejdůležitější, na co se připravit.

Nejnovější
Příběhy úspěšných firem

Kosmetika Lobey: Za rok z nuly na 70 milionů korun

19. 5. 2022

Cenné zkušenosti z korporátu, hledání nové motivace a hlavně obrovská touha podnikat a být vlastním pánem. Takový byl ve zkratce příběh tří manažerů, který vedl až k založení firmy Lobey vyrábějící kosmetiku na přírodní bázi. Od mužů pro ženy. Během roku vyrostl obrat firmy z 0 na 70 milionů korun a počet zaměstnanců až na 10 lidí.

Nejčtenější

AI|ffinity: Z akademického výzkumu do byznysu s podporou Prototypuj a ověřuj

4. 4. 2022

Thomas Evangelidis se jako vědec zabývá metodami, které umožňují levnější a rychlejší objev nových léčiv. Sedm let se věnoval vývoji v institutu CEITEC Masarykovy univerzity. Loni se rozhodl, že potenciál projektu přenese do podnikání. A pro svůj spin-off podporu v programu Prototypuj a ověřuj.

Zpět na Trendy a témata