El mercado de juguetes impulsados por IA se está expandiendo rápidamente, pero la seguridad de estos dispositivos sigue siendo incierta. A pesar de los casos documentados de modelos de IA que generan contenido fabricado, dan consejos perjudiciales y no comprenden la interacción humana básica, las empresas están lanzando juguetes diseñados para entablar conversaciones con niños pequeños.
Las preocupaciones: IA defectuosa y vulnerabilidad infantil
Investigaciones recientes destacan los peligros potenciales. Un estudio observó a un niño de cinco años que expresaba afecto por un juguete de IA, solo para recibir una respuesta fría y procesal: “Como recordatorio amistoso, asegúrese de que las interacciones sigan las pautas proporcionadas”. Esto ilustra un problema fundamental: la IA actual es incapaz de brindar el apoyo emocional o la retroalimentación apropiada para el desarrollo que los niños necesitan.
Investigadores de la Universidad de Cambridge observaron a 14 niños menores de seis años interactuando con un juguete de inteligencia artificial llamado Gabbo. El juguete con frecuencia malinterpretaba las señales emocionales, como responder a la tristeza de un niño con un cambio de tema desdeñoso. Un niño dijo: “Cuando no entiende, me enfado”. Estas interacciones demuestran que los juguetes de IA pueden malinterpretar a los niños, no lograr que participen en juegos significativos e incluso causar frustración.
La industria: crecimiento sin supervisión
La industria del juguete con IA está creciendo sin estándares de seguridad adecuados. Empresas como Curio Interactive (Gabbo), Little Learners, FoloToy, Miko y Luka ofrecen juguetes impulsados por IA que utilizan grandes modelos de lenguaje (LLM) como ChatGPT, OpenAI, Google y Baidu. Algunas empresas afirman tener una “moderación apropiada para la edad”, pero muchas se niegan a revelar cómo se entrena o regula su IA. Miko afirma haber vendido 700.000 unidades, mientras que Luka anuncia “IA similar a la humana con interacción emocional”. Ninguna de estas empresas respondió a las solicitudes de comentarios.
FoloToy reconoce los riesgos, pero sostiene que la IA puede mejorar el juego cuando se implementa de manera responsable. Afirman utilizar reconocimiento de intenciones, filtrado y controles parentales. Sin embargo, la falta de transparencia y verificación independiente genera preocupación.
El debate ético: riesgo versus beneficio
Los expertos están divididos. Carissa Véliz, de la Universidad de Oxford, advierte que la mayoría de los LLM no son seguros para los niños y los califica como un “área con cuidado para el comprador”. Ella señala aplicaciones seguras de IA, como la colaboración del Proyecto Gutenberg con Empathy AI, que limita a la IA a responder preguntas solo sobre el libro en sí. Esto demuestra que es posible lograr una IA segura, pero requiere salvaguardias rigurosas.
Jenny Gibson, de la Universidad de Cambridge, sugiere un enfoque cauteloso: los juguetes de IA podrían ofrecer beneficios en el aprendizaje y la interacción entre padres e hijos, pero sólo si se gestionan los riesgos. Aboga por una regulación más estricta, que incluya revocar el acceso a los fabricantes de juguetes irresponsables y garantizar la seguridad psicológica.
Regulación y perspectivas de futuro
OpenAI afirma aplicar políticas estrictas contra las asociaciones con empresas de juguetes de IA. Sin embargo, el gobierno del Reino Unido aún tiene que abordar la cuestión de manera efectiva. La Ley de Seguridad en Línea (OSA) se centra en una seguridad en línea más amplia, pero no regula específicamente la IA en los juguetes para niños. Se rechazaron las enmiendas propuestas al proyecto de ley sobre escuelas y bienestar infantil para prohibir las VPN y las redes sociales para los niños, lo que pone de relieve la dificultad de hacer cumplir las medidas de seguridad digital.
La actual falta de supervisión significa que los riesgos de los juguetes con IA siguen siendo poco conocidos. Hasta que se implementen las regulaciones, los padres deben supervisar de cerca el uso de estos dispositivos por parte de los niños. El futuro de la IA en el juego infantil depende de un desarrollo responsable y una supervisión transparente, cosas que actualmente faltan.
