Umělá inteligence nikdy nezapomíná, proto ji musíme naučit odpouštět

Garry Kasparov 14 Lis 2019

Umělá inteligence naslouchá a nedá se to zastavit. Všichni ale musíme chránit soukromí dětí.

„Je tolik věcí, o kterých musíme každý den přemýšlet, tolik nových poznatků, které si musíme osvojovat. Nové směry, nové znalosti, novou techniku, nová slova… Současně ale existují věci, které zapomenuty nebudou, bez ohledu na to, kolik uplyne času nebo co se stane. Jsou vzpomínky, na které čas nemá vliv. Existují věci, které si neseme v sobě jako kámen.“ – Haruki Murakami, „Kafka na pobřeží“

Uživatelé digitálních asistentů, jako je Alexa od Amazonu nebo Siri od Applu, podle nedávné studie Microsoftu nadále dávají přednost pohodlí před možnými hrozbami pro soukromí. Osmdesát procent uživatelů tvrdí, že jim tato zařízení vyhovují, a jen polovina z nich (41 %) má obavy o zabezpečení dat, která jsou těmito zařízeními sbírána. Jak už jsem zmínil dříve, jsme v digitálním věku, ve kterém musíme dělat kompromisní rozhodnutí – a ať už se rozhodneme jakkoli, žádné naše rozhodnutí není vysloveně správné ani špatné. Existují ale informovaná a neinformovaná rozhodnutí a já mám podezření, že respondenti této studie se řádně nezamysleli nad tím, jak data, kterými živí své virtuální asistenty, mohou být používána. Jakmile se vaše data dostanou do spárů algoritmům, ztratíte nad nimi veškerou kontrolu. Dětem to může způsobit neférovou přítěž a také to pro ně může znamenat bezpečnostní riziko.

Firmám, které sbírají vaše data, a algoritmům, které tato data analyzují a používají, můžete důvěřovat, ale přesto tam někde existuje riziko, že se k těmto datům dostanou hackeři. Dokážeme si představit, co asi zločinní hackeři chtějí provést s údaji o naší platební kartě a osobními údaji, ale nemůžeme si být jistí, k čemu by došlo, kdyby se někdo dostal k analýze našeho chování, k našim biometrickým údajům a k dalším citlivým datům. Někteří státní aktéři by taková data mohli používat ke kradení tajemství, k zasahování do voleb nebo k manipulaci s vysokými úředníky, případně k jejich vydírání. Represivní státy už pomocí pokročilých hackerských nástrojů útočí na disidenty a jiné občanské skupiny.

Vaše osobní údaje krmí umělou inteligenci

Digitální asistenty je pořád nutné používat ostražitě. Jejich obchodní model tkví v nepřetržitém zdokonalování jejich přesnosti a inteligence. Data, která dostávají, jsou začleňována do algoritmů strojového učení a pomáhají umělé inteligenci vyhýbat se předchozím chybám a lépe předvídat. Zatímco uživatel tato zařízení normálně používá, poskytuje jim další a další materiál k jejich zlepšování. Přibližně v době, kdy Microsoft zveřejnil výše uvedenou studii, vyšlo najevo, že Amazon má vyhrazený tým zaměstnanců, kteří poslouchají hlasové záznamy z Alexy a podle nich vylepšují její fungování. Amazon na to reagoval, že se jedná jen o naprosto minimální vzorek záznamů a že tyto záznamy mu slouží ke zlepšování služeb zákazníkům. Těmito manuálními kontrolami mohly procházet i záznamy od uživatelů, kteří si nepřáli jejich ukládání, což je hodně znepokojivé. Facebook zase přiznal, že platil externí pracovníky za poslech a přepisování konverzací přes Messenger. Posléze se přiznal Apple, že jeho zaměstnanci poslouchali nahrávky ze Siri, údajně i nahrávky uživatelů při sexu. Jinými slovy, informace předané digitálnímu asistentovi nejsou zpracovávány jen algoritmy umělé inteligence. Velice snadno se mohou dostat do rukou ostatním lidem, a to dokonce cestou, která je k vám zpětně vystopovatelná.

Máme sklon se obávat, že se k našim datům dostanou jiní lidé, ale co když se k nim dostanou samotné algoritmy? Tento problém se netýká jen určitého druhu produktů, jako jsou digitální asistenti. Váže se k širším etickým záležitostem ohledně umělé inteligence. Kusé informace, podle kterých nás lze identifikovat a které předáváme chytrým strojům, jsou po začlenění do sítě strojového učení anonymizovány. Práva uživatelů na taková data a související předpisy tak ztrácejí na uplatnitelnosti. Dnes jsou naše data nepřetržitě začleňována do složitých algoritmů, které často nejsou transparentní ani pro své tvůrce.

Jednotlivá vstupní data posilují a rozšiřují systémy umělé inteligence, ale zároveň přestáváme být jejich vlastníky. U dat, která předáme umělé inteligenci, už není možné změnit názor a žádat o jejich vrácení. Je třeba zdůraznit, že se nejedná jen o čistě filosofický problém. Jako příklad si vezměme Obecné nařízení o ochraně osobních údajů (GDPR), které začalo minulý rok platit v Evropské unii: Hned po začátku jeho platnosti se objevily velmi zásadní problémy s jeho zaváděním. Jak mohou regulátoři prosazovat „právo být zapomenut“, když byla dotyčná data začleněna do procesů učení umělé inteligence?

Chyby dětí by měly být zapomenuty

Také bychom měli brát v potaz konkrétní dopady na různé skupiny lidí, jako je generace, která mezi těmito technologiemi vyrůstá. Jak bylo popsáno v tomto důležitém článku na webu Wired, děti budou čelit problémům, se kterými se předchozí generace nikdy nesetkala. Především budou mít rozsáhlé digitální záznamy, které dokumentují jejich život už od dětství a které je pronásledují při každém pracovním pohovoru či žádosti o úvěr, nemluvě o případných rande.

Digitální asistenti ani jiné technologie založené na umělé inteligenci dětem ani dospívajícím nevysvětlují dlouhodobé dopady záznamů, které vytvářejí. Sbírají data bez ohledu na konkrétního člověka. Data, která posbírají, mohou být začleněna do algoritmů, které mohou ovlivňovat postavení člověka ve společnosti. Například student, který byl na videozáznamu nachytán při podvádění, může zůstat v jejich paměti, může být za svůj přečin trestán ještě v dospělosti a v důsledku toho se může dostat do začarovaného kruhu neúspěšnosti a dalších následků. Chtěli bychom vytvářet společnost, která dětem dává prostor chybovat a učit se z vlastních chyb. Jenže tím, že umělé inteligenci předáváme ohromnou moc, děláme přesný opak: vytváříme svět, kde jsou naše chyby nesmazatelně zaznamenávány a znesnadňují nám snahu se zlepšovat.

Při hledání řešení těchto problémů musíme jako vždy najít rovnováhu mezi neuvěřitelnými schopnostmi technologií a jejich odpovídajícími riziky. Systémy umělé inteligence bychom měli dále zlepšovat, aby nám lépe sloužily. Čím tyto stroje budou chytřejší a efektivnější, tím nám budou víc pomáhat při budování rozmanité a prosperující lidské společnosti.

Problémy, které jsem v tomto článku zmínil, jsou závažné a vyžadují naléhavou pozornost. Pokud naše základní hodnoty nebudou pro nás na prvním místě a pokud se naše diskuse nebudou točit kolem nich, správná řešení těchto problémů nenajdeme. Předpisy se musí snažit o to, aby měl každý nárok na soukromí, a měly by být přizpůsobené digitálnímu věku. (Tento problém se s námi vleče nejméně od vynálezu telefonu, jak vysvětlím ve svém příštím příspěvku na blogu.) Úžasnou výhodou umělé inteligence je schopnost nacházet v datech spojitosti, které lidské mysli unikají, takže se nezamýšleným důsledkům jejího používání nevyhneme.

Ruku v ruce s technologickým pokrokem musíme hledat řešení, která jsou globálnější a která odpovídají povaze technologií, pro něž jsou určená. Tato řešení musí chránit naše práva na soukromí a zároveň nesmí klást překážky dalšímu technickému vývoji. Jako otce malých dětí mne spíše těší (než straší), že mé děti vyrůstají v této revoluční době. Jenže aby nám digitální nástroje, které máme k dispozici, byly k něčemu prospěšné, musíme brát v potaz dlouhodobé důsledky jejich používání – zejména pro ty nejmladší.

--> -->