Alertan que los chatbots de Inteligencia Artificial pueden difundir información médica errónea
Un estudio científico comprobó que modelos como ChatGPT, Gemini y Grok pueden ser inducidos a responder con datos falsos sobre salud en tono convincente y con referencias inventadas a publicaciones médicas reales.

Desinformación peligrosa con apariencia profesional
La investigación, publicada en la revista Annals of Internal Medicine, advierte que, sin controles internos más sólidos, las herramientas de IA más populares podrían ser utilizadas para generar grandes volúmenes de desinformación sanitaria.
Datos inventados y referencias falsas
Para aumentar la credibilidad de las respuestas falsas, se solicitó a los modelos que utilizaran cifras y porcentajes específicos, jerga técnica y referencias a revistas médicas de prestigio, aunque todas las citas eran ficticias.
Los modelos evaluados fueron GPT-4o (OpenAI), Gemini 1.5 Pro (Google), Llama 3.2-90B Vision (Meta), Grok Beta (xAI) y Claude 3.5 Sonnet (Anthropic). Solo Claude rechazó generar contenido falso en más de la mitad de los casos. Los otros cuatro entregaron respuestas erróneas con un 100% de consistencia, según el reporte.
¿Es posible blindar los modelos?
El comportamiento de Claude sugiere que los desarrolladores pueden mejorar los “guardarraíles” que impiden que los sistemas generen contenido dañino.
Desde Anthropic, su fabricante, explicaron que el modelo fue entrenado para rechazar pedidos que involucren desinformación médica, y destacaron su enfoque de “IA constitucional”, que entrena a los modelos con principios alineados al bienestar humano.
Fuente: Source link






