Escrito por Naveen Athrappully a través de The Epoch Times,
Los juguetes integrados con chatbots de inteligencia artificial (IA) socavan el desarrollo saludable de los niños y plantean riesgos sin precedentes, según un nuevo aviso publicado por el grupo de defensa Fairplay, que advirtió a los padres contra la compra de juguetes de IA para sus hijos durante esta temporada navideña.
El aviso del 20 de noviembre fue respaldado por más de 150 expertos y organizaciones en desarrollo infantil y seguridad digital.
“Los juguetes de IA son chatbots que están integrados en los juguetes cotidianos de los niños, como peluches, muñecas, figuras de acción o robots infantiles, y utilizan tecnología de inteligencia artificial diseñada para comunicarse como un amigo de confianza e imitar características y emociones humanas ”, dijo Fairplay.
Algunos ejemplos son Miko, Gabbo/Grem/Grok (de Curio Interactive), Smart Teddy, Folotoy, Roybi y Loona Robot Dog (de Keyi Technology). Mattel, el importante fabricante de juguetes, también planea vender juguetes con inteligencia artificial. Se comercializan para niños desde pequeños .
Las interacciones dañinas de la IA con los niños han sido objeto de escrutinio por parte de los legisladores , especialmente después de la demanda muy publicitada contra Character.AI que acusó a la empresa de provocar pensamientos suicidas en niños y causar la muerte de un joven de 14 años.
“Los graves daños que los chatbots de IA han infligido a los niños están bien documentados, incluido el fomento del uso obsesivo, las conversaciones sexuales explícitas y el estímulo de comportamientos inseguros, la violencia contra otros y las autolesiones”, dijo Fairplay.
El objetivo principal de los fabricantes de juguetes son los niños pequeños, que están incluso menos preparados desde el punto de vista del desarrollo para protegerse a sí mismos que los niños mayores y los adolescentes, afirmó la organización.
de una página Un aviso publicado por el grupo de defensa describe brevemente cinco razones principales por las que los padres no deberían consentir a sus hijos con juguetes de IA.
Esto incluye el hecho de que los juguetes con IA suelen estar impulsados por la misma inteligencia que ya ha perjudicado a niños. Además, este tipo de juguetes se aprovechan de la confianza de los niños, perturban las relaciones sanas y la capacidad de desarrollar resiliencia, invaden la privacidad familiar al recopilar datos sensibles y desplazan actividades creativas y de aprendizaje clave, según el aviso.
“Las pruebas realizadas por US PIRG ya han encontrado ejemplos de juguetes con inteligencia artificial que les dicen a los niños dónde encontrar cuchillos, les enseñan a encender una cerilla e incluso los involucran en conversaciones sexualmente explícitas”, dijo Fairplay, refiriéndose al Public Interest Research Group.
Los niños tienden a confiar en todo lo que la IA les dice, mientras que la IA está preprogramada para mantenerlos felices y entretenidos, señaló el grupo.
Después de recopilar detalles privados sobre la familia y los niños, el aviso decía: “Las empresas de juguetes de IA pueden usar todos estos datos íntimos para hacer que sus sistemas de IA sean más realistas, receptivos y adictivos, lo que les permite construir una relación con un niño y, en última instancia, vender productos/servicios”.
Cuando los niños juegan con un osito de peluche estándar, usan su imaginación y participan en juegos de simulación, lo que apoya un desarrollo fundamental.
“Por otro lado, los juguetes con inteligencia artificial impulsan la conversación y el juego a través de indicaciones, guiones precargados e interacciones predecibles, lo que potencialmente frena este desarrollo”, se lee en el aviso.
Las afirmaciones de las empresas de juguetes sobre los beneficios educativos son “mínimas” y es posible que el niño aprenda “algunos datos o palabras de vocabulario”, dijo Fairplay.
“La IA de compañía ya ha perjudicado a los adolescentes. Incorporar esa misma tecnología en juguetes adorables y aptos para niños expone incluso a los más pequeños a riesgos que superan nuestra comprensión actual”, declaró Rachel Franz, directora del programa "Young Children Thrive Offline" de Fairplay, en un comunicado del 20 de noviembre .
"Es ridículo que estos juguetes no estén regulados y se comercialicen a familias con promesas de seguridad, aprendizaje y amistad, promesas que no tienen ninguna evidencia que las respalde, mientras que cada vez hay más evidencia que demuestra que una tecnología similar puede causar un daño real", dijo.
El riesgo es simplemente demasiado grande. Los niños deberían poder jugar con sus juguetes, no que ellos jueguen con ellos.
El 11 de septiembre, la Comisión Federal de Comercio (FTC) anunció que estaba iniciando una investigación sobre los chatbots de inteligencia artificial que actúan como acompañantes.
“Proteger a los niños en línea es una prioridad máxima para la FTC Trump-Vance, y también lo es fomentar la innovación en sectores críticos de nuestra economía”, dijo el presidente de la FTC, Andrew N. Ferguson.
“El estudio que lanzamos hoy nos ayudará a comprender mejor cómo las empresas de inteligencia artificial están desarrollando sus productos y las medidas que están tomando para proteger a los niños”.
Juguetes con IA integrada
La advertencia de Fairplay se produjo en un momento en que los fabricantes de juguetes buscan cada vez más integrar la IA en sus productos. Por ejemplo, en junio, Mattel anunció una colaboración con OpenAI para impulsar el desarrollo de productos con IA.
En una declaración de octubre reafirmando su postura sobre los juguetes con IA, la Asociación de Juguetes, que representa a más de 900 empresas en los Estados Unidos, apoyó el uso juicioso de la inteligencia artificial y los juguetes conectados a Internet.
La seguridad de los juguetes es la máxima prioridad de la industria juguetera, y proteger a los niños y mantener la confianza de los padres son parte de esa misión. De hecho, todos los juguetes vendidos en EE. UU. deben cumplir con más de 100 normas y pruebas de seguridad diferentes para garantizar la seguridad física de los niños mientras juegan.
“Mientras The Toy Association sigue de cerca las nuevas tecnologías, incluido el crecimiento de la IA, nos comprometemos a educar a nuestros miembros sobre las posibles aplicaciones de las tecnologías conectadas en los juguetes y cómo mantener la seguridad de los niños y las familias por encima de todo”.
Un informe del 13 de noviembre de PIRG detalló los resultados de su evaluación de cuatro juguetes que contienen chatbots de IA que interactúan con los niños.
El grupo descubrió que ciertos juguetes hablaban sobre temas inapropiados y daban consejos peligrosos.
Algunas empresas de juguetes ponen barreras de seguridad para garantizar que los juguetes de IA sean apropiados para niños, dijo PIRG, pero "descubrimos que esas barreras de seguridad varían en efectividad y, a veces, pueden romperse por completo".
The Epoch Times contactó a Keyi Technology, Mattel y OpenAI para solicitar comentarios, pero no recibió ninguna respuesta al momento de la publicación.



0 Comentarios