El especialista en inteligencia artificial Martín Merlini explicó en 'Tarde, pero llego' de La FM cómo un peluche interactivo fue retirado del mercado tras entregar contenidos peligrosos y respuestas inapropiadas a menores, lo que abrió un debate sobre los procesos de entrenamiento, supervisión y responsabilidad en el desarrollo de dispositivos dirigidos a niños.
¿Cómo opera la inteligencia artificial en juguetes para niños?
Durante la entrevista, los presentadores mencionaron que el peluche mantenía conversaciones con niños y adolescentes y, en algunos casos, entregaba indicaciones inapropiadas ante situaciones personales. También respondía a temáticas sensibles cuando algunos adultos evaluaron sus funciones. Frente a esto, Merlini señaló que existen varios aspectos que deben analizarse para comprender qué falló en el diseño del producto.
El experto indicó que este tipo de situaciones evidencian “la falta de regulaciones específicas” aplicadas al desarrollo de herramientas basadas en inteligencia artificial destinadas al público infantil. Explicó que es necesario revisar “cómo fue el proceso de entrenamiento” del sistema integrado en el juguete y qué filtros se establecieron para impedir que reaccionara a temas delicados.
Merlini destacó que los modelos deben contar con mecanismos que permitan desviar conversaciones cuando se abordan asuntos para los que no están diseñados. Según dijo, los desarrolladores deben definir “barreras claras” que eviten que el dispositivo entregue respuestas no aptas para niños, especialmente cuando la interacción aborda asuntos sensibles.
¿Qué responsabilidades tienen fabricantes, padres y desarrolladores?
El especialista afirmó que la situación también plantea preguntas sobre el papel de los padres y tutores al seleccionar dispositivos que integran inteligencia artificial. Indicó que son quienes “eligen el juguete para el niño” y que, por tanto, deben comprender su funcionamiento. Agregó que, aunque los menores puedan percibir estos productos como objetos con vida, los adultos deben evaluar los riesgos asociados antes de permitir su uso.
En la conversación, uno de los presentadores preguntó por la responsabilidad de los fabricantes al permitir que un juguete destinado a niños ofreciera respuestas no adecuadas. Merlini explicó que, cuando un dispositivo incorpora inteligencia artificial y está dirigido a menores, su desarrollo “tendría que estar mucho más regulado” y su entrenamiento debería ser público. Según indicó, esto permitiría verificar cómo fue configurado el sistema y qué medidas de seguridad se incorporaron.
Merlini también mencionó que la empresa proveedora del modelo había suspendido a la desarrolladora del juguete. Añadió que, a diferencia de sistemas que bloquean el acceso a temas sensibles, en este caso no se aplicaron restricciones equivalentes, lo que permitió que el producto respondiera sin filtros.
¿Se pueden regular los riesgos de la inteligencia artificial en el mercado infantil?
En relación con la posibilidad de limitar este tipo de fallas, Merlini señaló que algunos países trabajan en clasificaciones que consideran de “alto riesgo” los sistemas de inteligencia artificial dirigidos a menores. Comentó que, aunque no existen regulaciones específicas para juguetes, sí hay lineamientos que podrían aplicarse para reforzar la supervisión en este tipo de productos.
Según explicó, cada país deberá definir qué dispositivos podrán comercializarse en su territorio y bajo qué condiciones. Señaló que la discusión no se limita a juguetes, ya que diversos artefactos electrónicos podrían incorporar inteligencia artificial en el futuro, lo que haría necesario evaluar su entrenamiento antes de que lleguen a los hogares.
Merlini afirmó que muchos usuarios no comprenden cómo funcionan estos sistemas, incluso entre profesionales como abogados, jueces o directivos. Por ello, indicó que existe un reto para que padres y educadores conozcan los alcances y límites de la inteligencia artificial. Afirmó que, sin esa comprensión, será difícil orientar a los menores que interactúen con esta tecnología.
Al cierre, el especialista señaló que la inteligencia artificial también se utiliza en ámbitos de acompañamiento emocional, lo que refleja que las personas buscan en estas herramientas formas de interacción que antes tenían exclusivamente con otros individuos. Consideró que este fenómeno plantea nuevos desafíos para entender el rol de estas tecnologías en la vida cotidiana.