OpenAI ha lanzado ChatGPT Health, una plataforma que combina inteligencia artificial con datos personales de salud para ofrecer respuestas personalizadas y confidenciales sobre bienestar y medicina. La compañía indica que esta herramienta responde a una demanda elevada de información sanitaria: más de 230 millones de personas consultan semanalmente a ChatGPT sobre temas de salud y bienestar.
La intención es que los usuarios puedan conectar de forma segura sus registros médicos y aplicaciones de salud —como Apple Health o MyFitnessPal— para obtener explicaciones sobre analíticas, hábitos o rutinas, prepararse antes de consultas médicas y resolver dudas frecuentes relacionadas con dieta y ejercicio.
Aunque incorpora nuevas medidas de privacidad y control de datos, OpenAI recalca límites claros: ChatGPT Health no está diseñado para realizar diagnósticos ni prescribir tratamientos.
La plataforma fomenta explícitamente la consulta con profesionales sanitarios ante síntomas relevantes o situaciones críticas. Además, incluye salvaguardas que evitan respuestas alarmistas y que redirigen automáticamente a recursos presenciales cuando se detectan indicios de peligro, en especial en temas de salud mental.
En el desarrollo del servicio participaron más de 260 médicos de 60 países y múltiples especialidades. Durante dos años, este panel revisó más de 600.000 interacciones del modelo para definir criterios clínicos que priorizan la seguridad, la claridad y la pertinencia de las recomendaciones.
OpenAI ha creado además estándares de evaluación propios, como el marco HealthBench, orientados a medir la utilidad práctica de las respuestas y su alineación con criterios médicos reales, no solo con evaluaciones teóricas.
En la práctica, ChatGPT Health permite conectar aplicaciones —por ejemplo Function y MyFitnessPal— para analizar hábitos alimentarios y actividad física, y servicios de intercambio seguro de datos médicos como b.well, una red utilizada por más de 2,2 millones de proveedores en Estados Unidos.
Esta conectividad es opcional y, según OpenAI, las aplicaciones externas solo acceden a la información con el consentimiento explícito del usuario. La compañía aplica una política de recopilación mínima y exige revisiones de seguridad antes de integrar nuevas plataformas en ChatGPT Health.
Securidad y control: una arquitectura separada para la confidencialidad
ChatGPT Health opera en un entorno aislado: los diálogos y archivos médicos se almacenan por separado del resto de conversaciones en ChatGPT y disponen de una memoria reservada para reducir el riesgo de filtraciones.
Las comunicaciones y los datos en reposo están cifrados mediante una arquitectura concebida para información sensible. OpenAI recomienda activar la autenticación multifactor (MFA) para aumentar la protección frente a accesos no autorizados.
Los usuarios pueden revisar o eliminar de forma individual los historiales médicos almacenados y gestionar los permisos de las apps conectadas desde la configuración de la plataforma.
OpenAI afirma que los datos guardados en ChatGPT Health no se utilizan para entrenar sus modelos de lenguaje, lo que limita el riesgo de uso secundario de información personal.
Cuestiones legales, disponibilidades y alcance geográfico
Aunque se han reforzado las protecciones, el sistema no ofrece cifrado de extremo a extremo (end-to-end). Además, OpenAI ha señalado que, ante órdenes judiciales o emergencias, podría verse obligada a facilitar datos a las autoridades.
La compañía también aclaró que el cumplimiento de la normativa HIPAA de Estados Unidos no aplica automáticamente a usos de consumo individual, sino en contextos clínicos o profesionales regulados.
Por ahora, la función para conectar registros médicos y ciertas aplicaciones está limitada a Estados Unidos. El acceso general al producto se está ampliando de forma gradual y de prueba para usuarios de las versiones gratuitas y de pago de ChatGPT, excluyendo temporalmente al Espacio Económico Europeo, Suiza y Reino Unido.
El acceso requiere inscripción en una lista de espera y OpenAI prevé ampliar la disponibilidad a más regiones en las próximas semanas.
Riesgos y controversias: de la ansiedad a la salud mental
En la presentación, los responsables de OpenAI reconocieron riesgos asociados al mal uso de ChatGPT Health, especialmente en áreas sensibles como la salud mental, donde podría aumentar la ansiedad o la hipocondría en algunos usuarios.
Informes recientes han documentado respuestas inexactas o potencialmente peligrosas de sistemas de IA en contextos sanitarios, incluyendo indicaciones erróneas sobre dietas, pruebas médicas o conductas de riesgo.
OpenAI asegura haber ajustado el modelo para reducir el alarmismo y priorizar la derivación a servicios de salud convencionales cuando existen señales de riesgo.
No obstante, la empresa ha sufrido incidentes de ciberseguridad: en marzo de 2023 se produjo una brecha que expuso nombres, correos y datos parciales de pagos de algunos usuarios, lo que subraya la necesidad de manejar con precaución información especialmente sensible.


