Mattel quiere que tu hijo hable con una IA: ¿avance educativo o experimento sin control?

La próxima Barbie no solo hablará, sino que pensará, recordará y hasta conversará con tus hijos como si fuera su amiga. Mattel y OpenAI preparan juguetes potenciados por ChatGPT, y lo que suena a ciencia ficción está a punto de aterrizar en los dormitorios infantiles. ¿Estamos listos para esto? Ellos ya lo están.

El juguete más listo del cuarto

Mattel ha confirmado que trabaja en una línea de juguetes con inteligencia artificial generativa. Es decir, muñecos que no solo repiten frases preprogramadas, sino que conversan en tiempo real gracias a modelos tipo ChatGPT. La primera promesa es que estarán pensados para mayores de 13 años, aunque no han aclarado ni qué IA concreta usarán ni cómo se protegerán los datos ni qué tipo de personalidad tendrán los juguetes.

Todo esto llega poco después de que OpenAI lanzara su programa "OpenAI for Government" y firmara un contrato de 200 millones con el Departamento de Defensa de EE. UU. para desarrollar aplicaciones de IA sensibles. Con este contexto, la llegada de la IA a los juguetes parece menos una fantasía inocente y más una estrategia de colonización de la mente desde la infancia.

Lecciones del pasado: Barbie ya espió antes

En 2015, Mattel lanzó Hello Barbie, una muñeca que grababa la voz de los niños y la enviaba a la nube para ser procesada. La polémica fue tal que tuvo que ser retirada del mercado. Vulnerabilidades de seguridad, grabaciones no cifradas, almacenamiento en servidores de terceros… Todo mal.

Ahora, casi una década después, lo intentan de nuevo, esta vez con modelos aún más sofisticados, más autónomos y, sobre todo, mucho más impredecibles.

Los peligros no están en la IA, sino en lo que representa

Expertos como Public Citizen y campañas como Fairplay han denunciado los riesgos psicológicos de estos juguetes. El caso de un adolescente que desarrolló una relación obsesiva con un chatbot de Character.AI, terminando en suicidio, está aún reciente.

Los niños no distinguen entre una IA generativa que simula empatía y una persona real. ¿De verdad queremos que se acostumbren a recibir consejos, consuelo y compañía de una IA que, por muy avanzada que sea, no tiene conciencia ni responsabilidad?

En este otro artículo de Kernel Reload, ya analizamos cómo los adolescentes están sustituyendo referentes humanos por tecnología. Y ahora vamos más allá: no hablamos de sustituir relaciones humanas por pantallas, sino por personajes que parecen humanos… pero no lo son.

La otra cara de la moneda: ¿potencial educativo?

Algunos defensores creen que estas IA pueden ayudar a enseñar idiomas, mejorar habilidades sociales o acompañar en procesos educativos personalizados. El problema es quién diseña esas interacciones, con qué criterios, y sobre todo, con qué intereses comerciales de fondo. ¿Barbie va a recomendar productos de Mattel o va a tener conflictos existenciales?

En otra pieza sobre Meta y su entrenamiento con libros sin permiso, ya vimos que las grandes tecnológicas no tienen reparos en usar contenidos delicados sin supervisión ética clara. Con los juguetes IA, el terreno es aún más resbaladizo.

Lo que nadie te cuenta sobre esto

Esto no va de tecnología, va de poder. Enseñarle a un niño que puede hablar con una máquina como si fuera su amigo es enseñarle que lo artificial es mejor que lo real, que lo programado es más cómodo que lo imprevisible. Y eso sí que es una distopía: una infancia sin imaginación, solo con prompts.


¿Tú le comprarías uno a tu hijo?