Google apaga su IA para consultas médicas porque daba resultados peligrosos

Tras las críticas por la fiabilidad de sus respuestas médicas, la compañía empieza a limitar el alcance de sus resúmenes generados por IA en temas de salud

Google apaga su IA para consultas médicas porque daba resultados peligrosos
AI Overview, en español Vistas generales de IA, es una función de Google que usa inteligencia artificial para generar un resumen rápido y conciso al inicio de los resultados de búsqueda
Publicado en Google

Google ha dado un paso atrás con su buscador: después de que salieran a la luz casos en los que ofrecía información potencialmente peligrosa o engañosa, ha empezado a retirar los resúmenes generados por IA en determinadas consultas médicas. La medida llega tras una investigación del periódico The Guardian que puso contra las cuerdas a las llamadas AI Overviews (Vistas generales de IA) de la compañía, las cuales podían inducir a errores graves en temas de salud.

Respuestas genéricas para problemas que no lo son

Según relevó el diario británico, cuando algunos usuarios preguntaban cosas como "¿cuál es el rango normal para los análisis de sangre del hígado?", la IA de Google mostraba cifras genéricas que no tenían en cuenta variables clave como la edad, el sexo, la etnia o el contexto clínico. Es decir, una persona podía interpretar como normales unos resultados que, en realidad, requerían atención médica. Y un fallo así aplicado a millones de consultas diarias, deja de ser un error anecdótico para convertirse en un riesgo real para la salud pública.

Tras la publicación del reportaje, The Guardian comprobó que Google había eliminado las Vistas generales de IA en algunas búsquedas concretas, como "¿cuál es el rango normal para las pruebas de función hepática?". En esos casos, el resumen automático simplemente dejó de aparecer en los resultados. Sin embargo, el problema no está completamente resuelto: pequeñas variaciones en la misma pregunta, como usando las siglas médicas "LFT", todavía podían activar respuestas generadas por IA. Esto evidencia lo difícil que es controlar el comportamiento de estos sistemas cuando operan a escala global.

Un parche que no resuelve el problema de fondo

La respuesta oficial de Google ha sido, como suele ocurrir, prudente. Un portavoz explicó que la empresa no comenta cambios individuales en el buscador, pero que trabaja continuamente en mejoras del sistema. También aseguró que un equipo interno de médicos revisó las consultas señaladas y concluyó que, en muchos casos, la información no era técnicamente inexacta y estaba respaldada por fuentes fiables. Aun así, el hecho de que Google haya decidido retirar estos resúmenes en ciertos casos demuestra que la frontera entre "información orientativa" y "consejo médico peligroso" es extremadamente fina.

Para organizaciones del ámbito sanitario, el movimiento de la compañía de Mountain View es solo un parche. Vanessa Hebditch, directora de comunicaciones y políticas del British Liver Trust, la principal organización benéfica del Reino Unido dedicada a la salud hepática, celebró la retirada como una "excelente noticia", pero advirtió que el problema de fondo sigue intacto. Según ella, no se trata de corregir una búsqueda concreta, sino de cuestionar si las Vistas generales de IA son adecuadas para temas tan delicados como la salud.

Y es ahí donde el caso trasciende a Google. Porque una cosa es usar la IA para resumir un documento, resolver una duda de tu smartphone, confeccionar un plan de viaje o crear una imagen junto a tu actor favorito, y otra muy distinta es influir en cómo alguien interpreta unos síntomas o unos análisis médicos. En ese terreno, los errores no son solo fallos técnicos: pueden tener consecuencias reales. Y eso obliga a replantearse hasta dónde debería llegar la IA generativa cuando se mete en asuntos tan sensibles.

Para ti
Queremos saber tu opinión. ¡Comenta!