Il mercato dei giocattoli basati sull’intelligenza artificiale è in rapida espansione, ma la sicurezza di questi dispositivi rimane incerta. Nonostante i casi documentati di modelli di intelligenza artificiale che generano contenuti inventati, dispensano consigli dannosi e non riescono a comprendere le interazioni umane di base, le aziende stanno rilasciando giocattoli progettati per intrattenere conversazioni con i bambini piccoli.
Le preoccupazioni: intelligenza artificiale difettosa e vulnerabilità dei bambini
Ricerche recenti evidenziano i potenziali pericoli. Uno studio ha osservato un bambino di cinque anni che esprimeva affetto a un giocattolo dotato di intelligenza artificiale, solo per ricevere una risposta fredda e procedurale: “Come promemoria amichevole, assicurati che le interazioni aderiscano alle linee guida fornite”. Ciò illustra un problema fondamentale: l’attuale intelligenza artificiale non è in grado di fornire il supporto emotivo o il feedback adeguato allo sviluppo di cui i bambini hanno bisogno.
I ricercatori dell’Università di Cambridge hanno osservato 14 bambini sotto i sei anni interagire con un giocattolo AI chiamato Gabbo. Il giocattolo spesso fraintendeva i segnali emotivi, come rispondere alla tristezza di un bambino con un cambio di argomento sprezzante. Un bambino ha dichiarato: “Quando non capisce, mi arrabbio”. Queste interazioni dimostrano che i giocattoli basati sull’intelligenza artificiale possono fraintendere i bambini, non riuscire a impegnarsi in giochi significativi e persino causare frustrazione.
Il settore: crescita senza supervisione
L’industria dei giocattoli basati sull’intelligenza artificiale sta crescendo senza adeguati standard di sicurezza. Aziende come Curio Interactive (Gabbo), Little Learners, FoloToy, Miko e Luka offrono giocattoli basati sull’intelligenza artificiale che utilizzano modelli linguistici di grandi dimensioni (LLM) come ChatGPT, OpenAI, Google e Baidu. Alcune aziende sostengono una “moderazione adeguata all’età”, ma molte si rifiutano di rivelare come la loro intelligenza artificiale viene addestrata o regolamentata. Miko afferma di aver venduto 700.000 unità, mentre Luka pubblicizza “AI simile a quella umana con interazione emotiva”. Nessuna di queste società ha risposto alle richieste di commento.
FoloToy riconosce i rischi ma sostiene che l’intelligenza artificiale può migliorare il gioco se implementata in modo responsabile. Affermano di utilizzare il riconoscimento degli intenti, il filtraggio e il controllo genitori. Tuttavia, la mancanza di trasparenza e di verifica indipendente solleva preoccupazioni.
Il dibattito etico: rischio contro beneficio
Gli esperti sono divisi. Carissa Véliz dell’Università di Oxford avverte che la maggior parte degli LLM non sono sicuri per i bambini, definendoli una “zona a cui prestare attenzione agli acquirenti”. Indica applicazioni di intelligenza artificiale sicure, come la collaborazione di Project Gutenberg con Empathy AI, che limita l’intelligenza artificiale a rispondere solo a domande sul libro stesso. Ciò dimostra che un’IA sicura è realizzabile ma richiede garanzie rigorose.
Jenny Gibson dell’Università di Cambridge suggerisce un approccio cauto: i giocattoli basati sull’intelligenza artificiale potrebbero offrire vantaggi nell’apprendimento e nell’interazione genitore-figlio, ma solo se i rischi vengono gestiti. Sostiene una regolamentazione più severa, inclusa la revoca dell’accesso ai produttori di giocattoli irresponsabili e la garanzia della sicurezza psicologica.
Regolamento e prospettive future
OpenAI afferma di applicare politiche rigorose contro le partnership con aziende di giocattoli basate sull’intelligenza artificiale. Tuttavia, il governo del Regno Unito deve ancora affrontare la questione in modo efficace. L’Online Safety Act (OSA) si concentra su una più ampia sicurezza online ma non regola specificamente l’intelligenza artificiale nei giocattoli per bambini. Gli emendamenti proposti al disegno di legge sul benessere dei bambini e sulle scuole per vietare le VPN e i social media per i bambini sono stati respinti, evidenziando la difficoltà di applicare misure di sicurezza digitale.
L’attuale mancanza di supervisione fa sì che i rischi dei giocattoli basati sull’intelligenza artificiale rimangano poco compresi. Fino all’attuazione delle normative, i genitori dovrebbero monitorare attentamente l’uso di questi dispositivi da parte dei bambini. Il futuro dell’intelligenza artificiale nel gioco dei bambini dipende dallo sviluppo responsabile e da un controllo trasparente, entrambi attualmente carenti.
