Trh s hračkami s umělou inteligencí se rychle rozšiřuje, ale bezpečnost těchto zařízení zůstává otázkou. Navzdory zdokumentovaným případům modelů umělé inteligence, které generují fiktivní obsah, poskytují škodlivé rady a nerozumí základním lidským interakcím, společnosti uvolňují hračky určené ke komunikaci s malými dětmi.
Problémy: Nedokonalá umělá inteligence a zranitelnost dětí
Nedávné studie poukazují na potenciální nebezpečí. V jedné studii pětileté dítě vyjádřilo náklonnost k hračce s umělou inteligencí a dostalo chladnou procedurální odpověď: „Jako přátelské připomenutí se prosím ujistěte, že interakce dodržují uvedené pokyny.“ To ilustruje základní problém: současná umělá inteligence není schopna poskytnout emocionální podporu nebo zpětnou vazbu odpovídající vývojové úrovni dítěte.
Vědci z University of Cambridge pozorovali 14 dětí mladších šesti let, jak interagují s AI hračkou zvanou Gabbo. Hračka často špatně pochopila emocionální podněty, jako je reakce na dětský smutek náhlou změnou tématu. Jedno dítě řeklo: “Když nerozumí, zlobím se.” Tyto interakce ukazují, že hračky s umělou inteligencí mohou děti nesprávně interpretovat, nezapojit se do smysluplné hry a dokonce způsobit frustraci.
Průmysl: Růst bez kontroly
Odvětví hraček AI roste bez řádných bezpečnostních norem. Společnosti jako Curio Interactive (Gabbo), Little Learners, FoloToy, Miko a Luka nabízejí hračky s umělou inteligencí pomocí velkých jazykových modelů (LLM), jako jsou ChatGPT, OpenAI, Google a Baidu. Některé firmy tvrdí, že „umírněnost věku“, ale mnohé odmítají prozradit, jak je jejich umělá inteligence vycvičena nebo regulována. Miko tvrdí, že prodal 700 000 kusů, zatímco Luka vychvaluje „umělou inteligenci podobnou lidské s emocionální interakcí“. Žádná ze společností nereagovala na žádosti o vyjádření.
FoloToy uznává rizika, ale tvrdí, že umělá inteligence může hru vylepšit, pokud je používána zodpovědně. Tvrdí, že používají rozpoznávání záměrů, filtrování a rodičovskou kontrolu. Nedostatek transparentnosti a nezávislého ověřování však vyvolává obavy.
Etická debata: riziko versus prospěch
Odborníci nesouhlasí. Carissa Veliz z Oxfordské univerzity varuje, že většina LLM není pro děti bezpečná, a nazývá to „zónou kupujícího pro sebe“. Poukazuje na bezpečné aplikace AI, jako je spolupráce Project Gutenberg s Empathy AI, která omezuje AI pouze na zodpovězení otázek o knize. To ukazuje, že bezpečná umělá inteligence je dosažitelná, ale vyžaduje přísná bezpečnostní opatření.
Jenny Gibson z University of Cambridge navrhuje obezřetný přístup: hračky s umělou inteligencí by mohly být přínosem pro učení a interakci mezi rodiči a dětmi, ale pouze v případě, že jsou rizika zvládnuta. Prosazuje přísnější regulaci, včetně odepření přístupu nezodpovědným výrobcům hraček a zajištění psychologické bezpečnosti.
Regulace a výhled
OpenAI říká, že má přísnou politiku proti partnerství s hračkářskými společnostmi AI. Vláda Spojeného království však tento problém dosud účinně neřešila. Zákon o online bezpečnosti (OSA) se zaměřuje na obecnou online bezpečnost, ale neupravuje konkrétně umělou inteligenci v dětských hračkách. Navrhované pozměňovací návrhy k zákonu o péči o děti a školy, které zakazují sítě VPN a sociální média pro děti, byly zamítnuty, což poukazuje na potíže se zajištěním digitální bezpečnosti.
Současný nedostatek dohledu znamená, že rizika AI hraček zůstávají nedostatečně pochopena. Dokud nebudou zavedena nařízení, měli by rodiče pečlivě sledovat, jak děti tato zařízení používají. Budoucnost umělé inteligence v dětských hrách závisí na zodpovědném vývoji a transparentním dohledu, který v současnosti chybí.
