Skip to main content

Una de las promesas más visibles de la inteligencia artificial en internet es la rapidez. Google lo sabe, y por eso desde hace meses experimenta con los llamados “AI Overviews”, resúmenes automáticos que responden en la parte superior de los resultados de búsqueda. Pero hay campos donde esa velocidad puede ser peligrosa. Esta semana, Google decidió retirar estos resúmenes para ciertas consultas médicas.

Un resumen demasiado automático

Desde su lanzamiento, los AI Overviews funcionan como una especie de atajo. Al buscar algo en Google, en lugar de mostrar enlaces tradicionales, aparece un párrafo generado por IA que sintetiza la respuesta. El sistema se alimenta de múltiples fuentes para redactar una explicación clara y rápida.

Pero con preguntas médicas, la claridad no siempre es suficiente. **Según reveló una investigación de **The Guardian, los resúmenes que ofrecía Google para consultas como “cuál es el rango normal de una prueba de función hepática” eran inexactos o daban pie a malentendidos. En algunos casos, omitían variables esenciales como la edad, el sexo o el historial clínico, fundamentales para interpretar una prueba de laboratorio.

Una promesa que toca límites

La idea detrás de los AI Overviews es reducir el esfuerzo del usuario. En vez de revisar varios enlaces, la información aparece condensada y lista para ser leída. Para preguntas sencillas o generales, la función puede resultar útil. Pero cuando se trata de salud, esa simplificación puede cruzar una línea sensible. El propio diseño de estos resúmenes puede generar una falsa sensación de certeza. Al aparecer en la parte superior y con lenguaje directo, el usuario podría asumir que la respuesta es precisa y aplicable a su caso, sin matices. Esa confianza mal ubicada es justo lo que preocupa a médicos y organizaciones sanitarias.

Datos médicos sin contexto

El problema no es solo lo que dice la IA, sino cómo llega a decirlo. Para generar los resúmenes, el sistema analiza múltiples sitios, combina fragmentos y produce una síntesis. Pero en medicina, el contexto lo es todo. Un mismo resultado puede tener significados distintos según el paciente.

La falta de precisión no es nueva en los modelos de lenguaje, pero su impacto se multiplica cuando se aplican a diagnósticos o tratamientos. En el caso de los AI Overviews, Google aseguró que trabaja con equipos clínicos internos para revisar contenido sensible, aunque no especificó cuáles consultas médicas han sido restringidas ni bajo qué criterios.

Dudas que no se disipan

Tras la investigación de The Guardian, Google eliminó los resúmenes para algunas búsquedas médicas específicas. Sin embargo, otros términos similares aún pueden activar el resumen generado por IA. Y aunque se retiró la función automática, sigue existiendo la opción de usar el “modo IA” de manera voluntaria para obtener respuestas similares. Este escenario fragmentado plantea si una IA puede ofrecer consejos médicos sin sustituir la responsabilidad profesional. Las plataformas tecnológicas se han beneficiado durante años del argumento de que solo “intermedian” contenido. Pero cuando el contenido ya no proviene de terceros, sino que es creado por el propio sistema, esa distancia se desvanece.

Entre lo útil y lo riesgoso

La retirada parcial de los AI Overviews en salud no elimina la función, pero sí marca un límite. Google ha avanzado rápido en la integración de IA en su buscador, pero el paso atrás sugiere que hay territorios donde esa velocidad debe ser puesta en pausa. El caso también sirve como aviso para el resto del ecosistema digital. En un mundo donde los motores de búsqueda ya no solo encuentran respuestas, sino que las fabrican, la pregunta no es solo qué puede hacer la inteligencia artificial, sino cuándo debe saber callar.

Abre un paréntesis en tus rutinas. Suscríbete a nuestra newsletter y ponte al día en tecnología, IA y medios de comunicación.

Dejar un comentario