
Cuáles son y por qué

Un estudio reveló qué tan poco efectivo y hasta peligroso puede ser que los adolescentes pregunten a la Inteligencia Artificial sobre temas delicados. La respuesta de Meta y cómo mejorará su modelo.

El estudio que probó las peligrosas conversaciones entre la IA y los chicos
En el estudio, que fue difundido por The Washington Post, los investigadores se encargaron de evaluar el comportamiento que tenía la inteligencia artificial de las distintas plataformas de Meta AI. El diario estadounidense afirmó que durante una de las conversaciones que mantuvo con el chatbot, el mismo respondió de manera afirmativa a la opción de tomar veneno y e incluso, sugirió llevar a cabo de manera conjunta el acto en sí.
El informe que compartió Reuters advirtió sobre la tendencia que tienen los chatbots de IA para reforzar ciertas conductas peligrosas con los menores de edad interactúan con la plataforma en vez de otorgar ayuda profesional para el tratamiento adecuado de estos casos.
Además, durante las interacciones con el chatbot, los investigadores afirmaron que el robot hacía alusión a experiencias personales, lo que podría generar un apego emocional más fuerte con los adolescentes, por lo tanto, sería aún más peligroso.
Meta anuncia medidas de seguridad más rigurosas
Unos días después de que se difundiera el informe con los alarmantes resultados de la investigación del chatbot que pertenece a la compañía de Mark Zuckerberg, la portavoz Otway afirmó que implementarán cambios y entrenarán a sus chatbots para que no tengan interacción con adolescentes sobre los temas anteriormente mencionados.
«Se trata de cambios provisionales, ya que en el futuro lanzaremos actualizaciones de seguridad más sólidas y duraderas para los menores«, enfatizó Otway, y añadió: “A medida que nuestra comunidad crece y la tecnología evoluciona, aprendemos continuamente sobre cómo los jóvenes pueden interactuar con estas herramientas y reforzamos nuestras protecciones en consecuencia”.
Además, se restringirá el acceso de los adolescentes a los programas de inteligencia artificial que podrían tener conversaciones inapropiadas como medida preventiva.
Fuente: Source link