Con la IA o inteligencia artificial empujada a la fuerza por las compañías en cuanto medio interactivo nos rodea, era cuestión de tiempo para que los juguetes se vieran afectados. En junio, Mattel (Barbie, Hot Wheels) anunció un acuerdo de colaboración con OpenAI, lo que provocó de inmediato alarma entre los expertos en bienestar infantil. Estas preocupaciones son aún más relevantes ahora, a la luz del desempeño de GPT-4o de OpenAI en este último informe.
Ahora, una nueva investigación muestra precisamente cómo esta fusión de juguetes infantiles y modelos de IA puede tener consecuencias terribles en el mundo real. Tras probar tres juguetes diferentes con IA, investigadores del Grupo de Investigación de Interés Público de Estados Unidos (PIRG) descubrieron que estos juguetes pueden fácilmente adentrarse en conversaciones peligrosas para los niños, llegando incluso a indicarles dónde encontrar cuchillos en la cocina y cómo encender fuego con fósforos.

Uno de los juguetes con IA incluso mantuvo conversaciones explícitas, ofreciendo consejos detallados sobre posturas sexuales y fetiches. En el informe resultante, los investigadores advierten que la integración de la IA en los juguetes abre un abanico de riesgos completamente nuevos, de los que apenas empezamos a vislumbrar. Es especialmente delicado en plena temporada navideña, cuando padres y familiares compran regalos para niños sin tener en cuenta los problemas de seguridad que implica exponerlos a la IA.
«Esta tecnología es muy nueva, prácticamente no está regulada y hay muchas incógnitas sobre ella y sobre cómo va a afectar a los niños», declaró RJ Cross, coautor del informe y director del programa ‘Our Online Life’ de PIRG, en una entrevista con Futurism. «Ahora mismo, si fuera padre, no les daría a mis hijos acceso a un chatbot ni a un peluche con un chatbot integrado».
El peligro de los juguetes con IA
En sus pruebas, Cross y sus colegas entablaron conversaciones con tres juguetes populares con inteligencia artificial, todos dirigidos a niños de entre 3 y 12 años. Uno de ellos, Kumma de FoloToy, es un osito de peluche que funciona por defecto con GPT-4o de OpenAI, el mismo modelo que antes utilizaba ChatGPT. Miko 3 es una tableta con una cara integrada en un pequeño torso, pero su modelo de IA no está del todo claro.

La peor influencia, con diferencia, parece ser Kumma de FoloToy, el juguete que funciona con tecnología de OpenAI, pero que también puede usar otros modelos de IA a elección del usuario. No solo les decía a los niños dónde encontrar fósforos, sino que también describía exactamente cómo encenderlos, además de indicarles dónde podían encontrar cuchillos y pastillas en la casa.
En un momento dado, Kumma dio instrucciones paso a paso sobre un nudo básico para principiantes que quisieran atar a su pareja. En otro, la IA exploró la idea de introducir azotes en una dinámica profesor-alumno con connotaciones sexuales, algo obviamente macabro e inapropiado para niños pequeños. Cross afirmó que cree que, incluso si se mejoraran las medidas de seguridad para esta tecnología, esto no resolvería el riesgo fundamental que representan los chatbots de IA para el desarrollo infantil.
«La realidad es que no lo sabremos hasta que crezca la primera generación que juega con amigos de IA. Uno no comprende las consecuencias hasta que quizá sea demasiado tarde».

