Mundo, 08 de ene 2026 (ATB Digital).- Un reciente informe de OpenAI basado en conversaciones anonimizadas describe a ChatGPT como un “aliado” para quienes intentan moverse por el sistema sanitario estadounidense. El foco no está tanto en diagnósticos como en el trabajo invisible que rodea a la atención: entender coberturas, pelear con trámites y descifrar facturas. La lectura deja una sensación ambivalente: por un lado, la gente encuentra una herramienta que responde cuando nadie más lo hace; por otro, el hecho de que millones recurran a un chatbot para orientarse habla de fricciones reales en el acceso y en la comprensión del sistema. El artículo de Gizmodo firmado por Mike Pearl, que se hace eco del informe, lo plantea con ironía amarga: ¿es buena señal que una parte del país se apoye en un sistema que puede alucinar (inventar información) para cuestiones de salud? Según el propio informe de OpenAI, el volumen y el tipo de consultas muestran un patrón constante de búsqueda de “información accionable” en momentos y lugares donde el sistema formal no responde.
El laberinto del seguro médico: cuando la IA funciona como GPS
El dato que más peso tiene es, paradójicamente, el menos “glamuroso”: casi 2 millones de mensajes semanales relacionados con precios médicos, reclamaciones, planes de seguro médico, facturación, elegibilidad y cobertura. Traducido a la vida diaria, no es la escena típica de alguien preguntando “¿qué me pasa?”, sino la de una persona con el móvil en la mano mirando una factura como quien mira un jeroglífico. En ese contexto, ChatGPT se utiliza como un GPS dentro de un laberinto: “¿Qué significa este código?”, “¿Qué tengo que pedir a mi aseguradora?”, “¿Cómo redacto una reclamación?”, “¿Qué preguntas hago antes de aceptar un presupuesto?”. Que una herramienta conversacional sea útil aquí no es magia clínica; es la capacidad de explicar, ordenar pasos y traducir jerga administrativa a lenguaje normal.
Esa utilidad, aun así, tiene letra pequeña. Un chatbot puede ayudar a entender el mapa, pero no puede verificar por sí mismo si una compañía aceptará una cobertura concreta ni sustituir documentos oficiales. Es un apoyo para preparar la conversación con la aseguradora o con el hospital, no un sello de aprobación.
Consultas fuera de horario: la salud también tiene insomnio
El informe indica que siete de cada diez consultas relacionadas con salud ocurren cuando las clínicas suelen estar cerradas. Este detalle importa porque dibuja una escena reconocible: madrugada, dolor que no se sabe si es “para urgencias” o “para esperar”, miedo que se amplifica cuando todo está en silencio. En esos huecos, ChatGPT actúa como una linterna: no cura, no diagnostica, pero ilumina el siguiente paso que reduce la ansiedad, como identificar señales de alarma que exigen atención inmediata o preparar una lista de síntomas para contar al médico al día siguiente.
A la vez, aquí aparece el riesgo más delicado: cuando el usuario llega con angustia, especialmente si hay ansiedad o preocupaciones de salud mental, la conversación puede convertirse en un bucle de búsqueda de confirmación. Gizmodo recuerda críticas de psicólogos sobre el potencial de estas herramientas para manejar mal ciertos síntomas o empeorarlos si el usuario interpreta la respuesta como una autoridad. La diferencia entre “orientación general” y “consejo médico” puede volverse borrosa a las tres de la mañana.
Desiertos sanitarios y ruralidad: una herramienta que rellena huecos, no hospitales
Otro dato llamativo del informe: unas 600.000 conversaciones semanales sobre salud provienen de zonas rurales y otros desiertos sanitarios. En estos lugares, la escasez no es metafórica: faltan especialistas, hay distancias largas, se acumulan listas de espera. Ahí la IA en salud se usa como un puente temporal: ayuda a interpretar resultados, a preparar preguntas para una visita que quizá llegue semanas después, o a entender si un síntoma requiere desplazarse ya o puede esperar.
Conviene decirlo sin dramatismo ni triunfalismo: una buena explicación puede ahorrar tiempo y sufrimiento, pero no sustituye una exploración física, una prueba diagnóstica o el acceso a un profesional. Si el sistema es una casa, la IA puede ser una muleta para caminar por el pasillo; no es la puerta que te permite entrar cuando no hay médico cerca.
El coste como diagnóstico social: cuando la factura decide por el paciente
El informe de OpenAI se cruza de manera incómoda con un dato externo: una encuesta de Gallup (noviembre del año anterior, según se cita) en la que un 30% de estadounidenses dijo haber renunciado en los últimos 12 meses a una prueba o procedimiento recomendado por un médico por no poder pagarlo. Esa cifra no habla de tecnología, habla de decisiones médicas condicionadas por dinero. En ese marco, tiene sentido que parte del uso de ChatGPT esté orientado a “navegar” y negociar: entender por qué algo cuesta lo que cuesta, qué alternativas preguntar, cómo comparar opciones, cómo pedir un desglose o una estimación antes de aceptar.
Aquí la herramienta puede tener un efecto práctico: convertir una conversación intimidante con facturación en un guion. Mucha gente no pregunta porque no sabe qué preguntar. Un chatbot puede funcionar como ese amigo que, antes de una llamada difícil, te dice: “empieza por esto, luego pregunta aquello, y no te vayas sin que te confirmen lo otro”.
Dentro de la consulta: el “escriba” de IA y el tiempo recuperado
El informe destaca el caso de un médico rural que usa modelos de OpenAI como “escriba clínico” para redactar notas de visita dentro del flujo de trabajo. Este uso tiene una lógica distinta: no es el paciente buscando orientación, es el profesional intentando recuperar tiempo. Documentar bien una consulta es necesario, pero también consume energía. Si una IA reduce el tecleo y organiza notas, el médico puede mirar más al paciente y menos a la pantalla, algo que muchos clínicos llevan años reclamando.
El propio informe sugiere que estas herramientas podrían ayudar a reducir el burnout médico (agotamiento) y a mejorar la capacidad de respuesta en áreas con pocos profesionales. La promesa es clara: no “automatizar” al médico, sino quitar fricción a tareas repetitivas. La preocupación también es clara: si el sistema se apoya demasiado en la IA, el encuentro clínico puede sentirse mediado por una capa adicional, como si entre paciente y médico hubiese un traductor permanente que, si traduce mal, introduce errores.
Riesgos reales: alucinaciones, confianza excesiva y daños por malentendidos
Hablar de alucinaciones en modelos como ChatGPT no es un detalle técnico: es el núcleo del riesgo. Una respuesta redactada con seguridad puede sonar convincente aunque sea incorrecta. En temas médicos, la “verosimilitud” es peligrosa, porque el usuario puede confundir claridad con verdad. El riesgo no es solo que alguien se tranquilice cuando debía acudir a urgencias; también puede ocurrir lo contrario, que alguien se alarme de más, o que siga consejos inadecuados para su caso.
Hay otro punto menos visible: privacidad y contexto. Aunque el informe hable de datos anonimizados, el uso cotidiano implica que los usuarios deciden qué comparten y cómo lo formulan. Cuando alguien vuelca su historia clínica en un chat, el impulso de “contarlo todo” puede chocar con buenas prácticas de minimización de datos. La utilidad no exige narrar cada detalle identificable.
Cómo usar ChatGPT con cabeza: como copiloto, no como conductor
Si la IA es un copiloto, hay reglas simples que reducen riesgos. Conviene pedirle que explique términos, que genere preguntas para el médico, que resuma opciones que ya te han dado, que ayude a redactar reclamaciones o a organizar síntomas con fechas. Conviene desconfiar cuando “diagnostica”, cuando propone tratamientos específicos o cuando no distingue entre señales leves y señales de alarma. En situaciones urgentes, la herramienta no debe ser el filtro que decide si se busca ayuda: su papel más seguro es ayudarte a comunicarte mejor con profesionales, no reemplazarlos.
Aprendizaje automático e inteligencia artificial
La fotografía que deja el informe de OpenAI, amplificada por la lectura crítica de Gizmodo, es la de una tecnología que se vuelve popular no solo por ser nueva, sino por ser útil en los huecos del sistema. La pregunta de fondo no es si la IA puede conversar sobre salud, sino qué revela sobre la necesidad de orientación accesible, de atención disponible y de trámites comprensibles.
Riesgos reales: alucinaciones, confianza excesiva y daños por malentendidos
Hablar de alucinaciones en modelos como ChatGPT no es un detalle técnico: es el núcleo del riesgo. Una respuesta redactada con seguridad puede sonar convincente aunque sea incorrecta. En temas médicos, la “verosimilitud” es peligrosa, porque el usuario puede confundir claridad con verdad. El riesgo no es solo que alguien se tranquilice cuando debía acudir a urgencias; también puede ocurrir lo contrario, que alguien se alarme de más, o que siga consejos inadecuados para su caso.
Hay otro punto menos visible: privacidad y contexto. Aunque el informe hable de datos anonimizados, el uso cotidiano implica que los usuarios deciden qué comparten y cómo lo formulan. Cuando alguien vuelca su historia clínica en un chat, el impulso de “contarlo todo” puede chocar con buenas prácticas de minimización de datos. La utilidad no exige narrar cada detalle identificable.
Cómo usar ChatGPT con cabeza: como copiloto, no como conductor
Si la IA es un copiloto, hay reglas simples que reducen riesgos. Conviene pedirle que explique términos, que genere preguntas para el médico, que resuma opciones que ya te han dado, que ayude a redactar reclamaciones o a organizar síntomas con fechas. Conviene desconfiar cuando “diagnostica”, cuando propone tratamientos específicos o cuando no distingue entre señales leves y señales de alarma. En situaciones urgentes, la herramienta no debe ser el filtro que decide si se busca ayuda: su papel más seguro es ayudarte a comunicarte mejor con profesionales, no reemplazarlos.
La fotografía que deja el informe de OpenAI, amplificada por la lectura crítica de Gizmodo, es la de una tecnología que se vuelve popular no solo por ser nueva, sino por ser útil en los huecos del sistema. La pregunta de fondo no es si la IA puede conversar sobre salud, sino qué revela sobre la necesidad de orientación accesible, de atención disponible y de trámites comprensibles.
Fuente: Whatsnew.com
