Autor: Diego Branca – Argentina

Vivimos en una era donde la inteligencia artificial promete mejorar todo—detección precoz, seguimiento remoto, decisiones más informadas, personalización del tratamiento—y sin embargo, un estudio reciente nos pone frente al espejo: ¿y si parte de ese avance tiene un lado oscuro?.

¿Qué se encontró? de los 100 médicos entrevistados, más del 60 % de sus pacientes llega con algo que vio en Internet: Google, redes sociales, incluso chats con IA generativa.

Las fuentes más citadas: Google (~72 %), redes como Facebook/Instagram (~35,5 %), y ChatGPT u otras IA (~25 %). Y acá está lo grave: muchos pacientes, tras revisar lo que encuentran online, dudan de sus médicos, abandonan tratamientos, o toman decisiones precipitadas. Por ejemplo, alguien que suspendió su medicación por mareos que creyó intolerables, o quien prefirió terapia naturista tras un diagnóstico erróneo de una app.

Los que trabajamos en salud digital, hablamos mucho de adopción, eficiencia, algoritmos éticos, privacidad… pero a veces el elemento humano queda en segundo plano. Este estudio pone énfasis en algo clave: la alfabetización digital en salud: no basta con que la tecnología esté al alcance. Hay que enseñar a pacientes a filtrar, a distinguir calidad, a poner en contexto lo que leen.

Si el paciente llega ya convencido de algo que leyó, el rol del profesional cambia. No sólo hay que explicar qué hacer; hay que conversar, entender los temores, desmontar mitos.

Los algoritmos que eligen lo que vemos tienen sesgos, amplifican ciertas voces, promueven lo espectacular, lo polémico — no necesariamente lo más veraz o útil tanto en salud, como también en otros ámbitos.

Creo que hay tres ideas claves para navegar este contexto:

1) Integrar alfabetización digital en los servicios de atención
Crear recursos — charlas, videos, módulos online — como parte del tratamiento, no extra. Enseñar a los pacientes a evaluar fuentes, interpretar riesgos.

2) Formación continua para el personal sanitario
Que los médicos, enfermeras, profesionales de salud no sólo sepan de IA y herramientas digitales, sino también de cómo los sesgos digitales influyen en la percepción del paciente.

3) Diseñar tecnologías con feedback humano real
Que las apps, los simuladores, los chatbots, no funcionen en un vacío. Que tengan mecanismos de corrección, de redirección hacia profesionales, de verificación. Que no fomenten la auto-interpretación sin guía.

La inteligencia artificial no es ni ángel ni demonio: es una herramienta. Depende de nosotros dirigirla, encausarla. Si no ponemos cuidado, este tipo de tecnología aplicada en salud puede debilitar lo más valioso: la confianza entre paciente y profesional, y con ello la adherencia al tratamiento, la eficacia, la salud misma.

Dejo varias notas que abordan esta problemática:

https://www.agenciasinc.es/Noticias/La-IA-no-previene-de-la-desinformacion-sanitaria-es-vulnerable-a-ella

https://www.elciudadano.com/salud/el-lado-oscuro-de-la-salud-digital-cuando-la-inteligencia-artificial-debilita-la-adherencia-a-los-tratamientos/09/04/