Generace AI: Co dělat s nástupem inteligentních, mluvících hraček pro děti

Panenka My Friend Cayla na první pohled vypadá nevinně – má přátelský výraz doprovázen velkýma modrýma očima a blond vlasy. Zároveň je napojena na Bluetooth, díky čemu se dokáže připojit na internet a s dětmi mluvit, podobně jako třeba Siri nebo Cortana.

Jenže hlas dětí tu je nahráván a obsah rozhovorů dále posílán na analýzu. To vyvolalo obavy z možných hackerských útoků, kdy útočníci mohou děti sledovat nebo s nimi i přímo komunikovat. Loni proto tuto hračku v Německu zakázali.

My Friend Cayla je však podle portálu Světového ekonomického fóra (WEF) jen jedním z příkladů, kdy se nová vlna hraček s umělou inteligencí stává „přáteli“ s dětmi – většinou jako edukativní, podporující hraní a zároveň pomáhající tvorbě sociálních dovedností.

„Německo zakázalo Caylu a podobné hračky z obav, že mohou být použity na špehování dětí a že je někdo může hacknout a přímo s dítětem komunikovat. Mluvíme ale také o monetizaci dat ze strany firem. Data z AI hraček obsahují všechno, co dítě zařízení řekne, včetně jejich největších tajemství,“ upozorňuje Kay Firth-Butterfield, ředitel umělé inteligence a strojového učení ve WEF.

Jaké hodnoty chceme?

Pokud jsou tyto data sbírána od útlého dětství a dítěti nepatří, podle Butterfielda jsou děti o to více zranitelné, protože jejich rozhodnutí nebo chování může být prozrazeno komukoliv, kdo si tyto data koupí.

To ovšem není jediný problém, který s podobnými hračkami vidí: „Stejně jako nárůst hackování, musíme se také zamyslet nad tím, co tyto hračky našim dětem říkají. Kdo je v těchto konverzacích rozhodčím? Kdo napsal kód algoritmů (mohlo se projevit jejich nezamýšlené zkreslení)? Shodují se hodnoty, kterým je dítě vystaveno, s hodnotami jeho rodičů? Budou si moci rodiče vybrat, s jakými hodnotami je hračka naprogramována?“ Hračky přitom mohou mít na děti výrazný vliv, protože si s nimi mohou povídat v podstatě pořád.

Proto je podle Butterfielda potřebné, aby rodiče měli na zmiňované otázky odpovědi. Děti jsou zranitelné, proto bychom měli zvážit, jak je AI kolem nich využívána a neprovádět na nich beta testování.

„Neznamená to, že hračky s AI jsou zlé. Jednou nám mohou pomoct dosáhnout individuálního vzdělávání (použitím AI na přizpůsobení výuky pro potřeby každého dítěte). A hračky s umělou inteligencí mohou být skvělé při přípravě dětí na práci vedle autonomních robotů,“ doplnil Butterfield.

Diskuze k článku