Brinquedos AI: o risco não regulamentado para o desenvolvimento infantil

0
12

O mercado de brinquedos alimentados por IA está a expandir-se rapidamente, mas a segurança destes dispositivos permanece incerta. Apesar de casos documentados de modelos de IA que geram conteúdos fabricados, fornecem conselhos prejudiciais e não conseguem compreender a interação humana básica, as empresas estão a lançar brinquedos concebidos para interagir com crianças pequenas.

As preocupações: IA defeituosa e vulnerabilidade infantil

Pesquisas recentes destacam os perigos potenciais. Um estudo observou uma criança de cinco anos expressando afeto por um brinquedo de IA, apenas para receber uma resposta fria e processual: “Como um lembrete amigável, certifique-se de que as interações sigam as diretrizes fornecidas”. Isto ilustra um problema fundamental: a IA atual é incapaz de fornecer o apoio emocional ou o feedback adequado ao desenvolvimento de que as crianças necessitam.

Pesquisadores da Universidade de Cambridge observaram 14 crianças menores de seis anos interagindo com um brinquedo de IA chamado Gabbo. O brinquedo frequentemente interpretava mal os sinais emocionais, como responder à tristeza de uma criança com uma mudança de assunto desdenhosa. Uma criança afirmou: “Quando ele não entende, fico com raiva”. Estas interações demonstram que os brinquedos de IA podem interpretar mal as crianças, não participar em brincadeiras significativas e até causar frustração.

A indústria: crescimento sem supervisão

A indústria de brinquedos de IA está crescendo sem padrões de segurança adequados. Empresas como Curio Interactive (Gabbo), Little Learners, FoloToy, Miko e Luka oferecem brinquedos alimentados por IA que usam grandes modelos de linguagem (LLMs) como ChatGPT, OpenAI, Google e Baidu. Algumas empresas afirmam “moderação adequada à idade”, mas muitas recusam-se a divulgar como a sua IA é treinada ou regulamentada. Miko afirma ter vendido 700.000 unidades, enquanto Luka anuncia “IA semelhante à humana com interação emocional”. Nenhuma dessas empresas respondeu aos pedidos de comentários.

FoloToy reconhece os riscos, mas argumenta que a IA pode melhorar o jogo quando implementada de forma responsável. Eles afirmam usar reconhecimento de intenção, filtragem e controle dos pais. No entanto, a falta de transparência e de verificação independente suscita preocupações.

O debate ético: risco versus benefício

Os especialistas estão divididos. Carissa Véliz, da Universidade de Oxford, alerta que a maioria dos LLMs não são seguros para as crianças, chamando-os de “área de cuidado com o comprador”. Ela aponta para aplicações seguras de IA, como a colaboração do Project Gutenberg com a Empathy AI, que limita a IA a responder a perguntas apenas sobre o próprio livro. Isto demonstra que a IA segura é alcançável, mas requer salvaguardas rigorosas.

Jenny Gibson, da Universidade de Cambridge, sugere uma abordagem cautelosa: os brinquedos de IA podem oferecer benefícios na aprendizagem e na interação entre pais e filhos, mas apenas se os riscos forem geridos. Ela defende uma regulamentação mais rígida, incluindo a revogação do acesso para fabricantes de brinquedos irresponsáveis ​​e a garantia de segurança psicológica.

Regulamentação e Perspectivas Futuras

A OpenAI afirma aplicar políticas rígidas contra parcerias com empresas de brinquedos de IA. No entanto, o governo do Reino Unido ainda não abordou a questão de forma eficaz. A Lei de Segurança Online (OSA) concentra-se na segurança online mais ampla, mas não regula especificamente a IA em brinquedos infantis. As alterações propostas à Lei das Escolas e do Bem-Estar das Crianças para proibir VPNs e redes sociais para crianças foram rejeitadas, destacando a dificuldade de aplicar medidas de segurança digital.

A atual falta de supervisão significa que os riscos dos brinquedos de IA continuam mal compreendidos. Até que os regulamentos sejam implementados, os pais devem supervisionar de perto a utilização destes dispositivos pelas crianças. O futuro da IA ​​nas brincadeiras infantis depende do desenvolvimento responsável e da supervisão transparente – ambos os quais faltam atualmente.