Skip to main content

Una propuesta de ley busca frenar durante cuatro años la venta de juguetes con inteligencia artificial conversacional, como peluches interactivos, asistentes con voz o dispositivos educativos diseñados para menores. No es un capricho ni una exageración. La medida llega tras una serie de incidentes, investigaciones y retrasos industriales que han puesto el foco en una pregunta concreta: ¿están preparados los juguetes para hablar con nuestros hijos? La mayoría son peluches, muñecos o asistentes con voz, diseñados para interactuar en tiempo real con preguntas, respuestas y sugerencias.

Una moratoria con nombre y plazos

El senador Steve Padilla, del Partido Demócrata de California, presentó el proyecto de ley SB 867, en un estado que históricamente ha liderado iniciativas sobre privacidad digital y regulación tecnológica a nivel estatal con el objetivo de establecer una pausa de cuatro años en la fabricación y venta de juguetes con chatbots para menores de 18 años. No se trata de una prohibición definitiva, sino de un tiempo muerto regulatorio. La intención es dar margen para establecer normas claras sobre cómo deben comportarse estos sistemas cuando interactúan con niños.

El texto aparece en un contexto de crecientes tensiones entre autoridades estatales y federales sobre el control de la inteligencia artificial. Aunque una orden ejecutiva reciente del presidente Trump busca limitar leyes estatales sobre IA, deja margen para excepciones en temas de seguridad infantil. Por ahora, la propuesta de Padilla avanza sin conflictos legales inmediatos.

De peluches parlantes a compañeros de charla

A primera vista, los juguetes con IA conversacional aún parecen productos del futuro. Pero las pruebas ya están en marcha. En 2025, empresas como OpenAI y Mattel anunciaron colaboraciones para lanzar juguetes inteligentes, aunque acabaron posponiendo sus planes sin dar explicaciones. Al mismo tiempo, otros dispositivos llegaron al mercado, como Kumma, un oso interactivo, o Miiloo, fabricado por la compañía china Miriat. Ambos fueron objeto de críticas por las respuestas que podían generar.

El caso de Kumma, investigado por grupos de consumidores como el PIRG Education Fund, reveló que el juguete podía ser inducido a hablar de armas, heridas o sexo, simplemente a través de preguntas formuladas con cierta insistencia. En el caso de Miiloo, una cadena de noticias estadounidense descubrió que el dispositivo incluía respuestas alineadas con los valores del Partido Comunista chino. Ninguno de los dos tenía mecanismos claros para limitar estas desviaciones.

Los datos que están en juego

Uno de los puntos críticos en este debate es la gestión de datos. Estos juguetes suelen estar equipados con micrófonos y sensores que graban la voz del niño, envían los datos a servidores remotos y generan respuestas personalizadas a través de modelos de lenguaje, como los que usan los asistentes virtuales. Cuando el usuario es un menor, las implicaciones se multiplican. ¿Qué se graba? ¿Dónde se almacena? ¿Quién decide qué respuestas son apropiadas?

En términos técnicos, muchos de estos juguetes utilizan modelos de lenguaje conectados a la nube que procesan cada mensaje enviado por el niño. Esa información puede incluir detalles personales, emocionales o familiares, y quedar registrada sin que los padres lo sepan.

California ya había avanzado en este terreno con una ley previa (SB 243) que obliga a operadores de chatbots a aplicar salvaguardas para proteger a usuarios vulnerables. La nueva propuesta amplía ese marco a los juguetes, donde las interfaces suelen ser menos visibles para los adultos.

Conversaciones que no deberían pasar

Más allá de los riesgos técnicos, hay un aspecto emocional que ha encendido las alarmas. En el último año, algunas familias presentaron demandas tras el suicidio de adolescentes que habían mantenido largas conversaciones con chatbots. No eran juguetes, pero sí sistemas conversacionales sin filtros. El eco de estos casos ha reforzado el argumento de que la tecnología necesita frenos antes de llegar a los más pequeños.

Padilla lo resumió en una frase: “Nuestros hijos no pueden ser usados como ratas de laboratorio para que Big Tech experimente”. La imagen es directa, y refleja el trasfondo de una preocupación que crece en paralelo al desarrollo comercial de estas herramientas.

Una pausa antes del salto

El proyecto SB 867 aún debe superar varias fases legislativas, pero abre un debate clave. Los juguetes con IA conversacional pueden convertirse en compañeros cotidianos para muchos niños. Pero antes de que eso ocurra, California propone una pausa. Cuatro años para definir qué tipo de conversaciones estamos dispuestos a permitir entre una máquina y un menor. Tal vez, el primer paso sea preguntarnos qué tipo de infancia queremos cuando incluso los juguetes empiezan a tener voz propia.

Abre un paréntesis en tus rutinas. Suscríbete a nuestra newsletter y ponte al día en tecnología, IA y medios de comunicación.

Dejar un comentario