La llegada de ChatGPT Salud, una versión específica de la popular inteligencia artificial orientada a responder preguntas y procesar información médica, ha generado una mezcla de interés y preocupación entre profesionales sanitarios y expertos en privacidad. Aunque la promesa de una IA que ayude a interpretar datos médicos parece atractiva, varios médicos españoles han pedido prudencia ante la invitación a subir datos clínicos personales a la plataforma.
Qué es ChatGPT Salud y cómo funciona
OpenAI ha puesto en marcha esta función dentro del menú de ChatGPT para permitir a los usuarios subir historiales médicos, datos de aplicaciones de salud como Apple Health, Function o MyFitnessPal, y obtener explicaciones sobre resultados de pruebas, consejos sobre hábitos saludables o apoyo para prepararse antes de una consulta médica. La empresa aclara que la herramienta está diseñada para informar y educar, no para diagnosticar ni tratar enfermedades.
Según la propia OpenAI, los datos de salud estarán cifrados, aislados y no se usarán para entrenar otros modelos de IA, lo que representa un nivel extra de protección frente a las conversaciones generales de ChatGPT. Aunque esta funcionalidad aún no está disponible en Europa, se espera que se publique en breve.
Las advertencias de los profesionales sanitarios
Sin embargo, representantes de los médicos en España, como el presidente del Consejo General de Colegios Oficiales de Médicos (CGCOM), han pedido cautela extrema antes de compartir información médica sensible con esta clase de servicios. Para estos profesionales, es esencial saber quién accede a los datos, cómo se procesan y con qué fines, algo que no siempre queda claro en las plataformas tecnológicas.
Además, subrayan que aunque la IA pueda ofrecer información basada en evidencia científica, también tiene limitaciones inherentes: no tiene juicio clínico propio, puede incurrir en errores o sesgos (por ejemplo, en la interpretación de afecciones en distintos tipos de piel o grupos demográficos), y no sustituye la relación médico‑paciente.
Riesgos de privacidad y seguridad
Más allá del contexto específico de ChatGPT Salud, la comunidad internacional ha expresado inquietudes similares sobre el uso de chatbots en salud:
Compartir información médica sensible con herramientas que no están certificadas para el entorno sanitario puede violar normas de protección de datos como HIPAA o el GDPR europeo, ya que no siempre existe un acuerdo de tratamiento de datos con el proveedor de IA.
La transmisión y almacenamiento de datos a través de terceros pueden exponerlos a ciberataques o accesos no autorizados, un riesgo que preocupa especialmente a médicos de atención primaria.
Reportes de autoridades reguladoras han mostrado que decisiones empresariales sobre datos sin una base legal sólida han resultado en multas significativas por violaciones de privacidad, lo que resalta la importancia de una protección jurídica clara.
Beneficios potenciales
A pesar de las advertencias, la IA en salud tiene aplicaciones valiosas cuando se usa con cuidado: puede ayudar a interpretar resultados médicos, recordar citas o medicación, y ofrecer explicaciones comprensibles sobre conceptos complejos. Algunos expertos en telemedicina incluso ven un futuro en el que estas tecnologías complementen la atención médica, siempre que los sanitarios estén formados para usarlas y los pacientes sepan sus límites.
Recomendaciones para proteger tus datos al usar ChatGPT Salud
Aunque ChatGPT Salud promete seguridad y cifrado de la información, los expertos en privacidad y profesionales de la salud aconsejan seguir ciertas pautas para minimizar riesgos al compartir información médica:
- Evita subir datos identificables: No compartas información como nombre completo, dirección, número de seguridad social o historial médico completo. Mantén los datos anónimos o resumidos siempre que sea posible.
- Revisa las políticas de privacidad: Antes de usar la herramienta, verifica cómo OpenAI almacena, procesa y protege los datos, y asegúrate de que cumple con regulaciones locales como GDPR en Europa.
- No sustituir la opinión médica profesional: Usa ChatGPT solo como complemento para entender información médica o hábitos de salud, no como diagnóstico ni tratamiento.
- Limita la información sensible: Evita subir resultados de pruebas muy recientes o información que pueda identificarte directamente; proporciona solo datos necesarios para la consulta.
- Cierra sesión y borra archivos después de usarlos: Una vez que hayas recibido la respuesta de la IA, elimina los documentos subidos y cierra tu sesión para reducir la exposición de datos.
- Utiliza conexiones seguras: Asegúrate de usar la plataforma desde dispositivos confiables y con redes seguras, evitando Wi‑Fi públicas cuando manejes información sensible.
- Mantente informado sobre actualizaciones: Las políticas de IA y protección de datos cambian constantemente. Revisa regularmente los avisos de privacidad y nuevas funcionalidades para estar protegido.
Siguiendo estas recomendaciones, puedes aprovechar las ventajas de ChatGPT Salud sin comprometer tu privacidad ni la seguridad de tu información clínica.
Preguntas frecuentes sobre ChatGPT Salud
¿ChatGPT Salud puede diagnosticar enfermedades?
No. La herramienta solo ofrece información educativa y orientativa sobre resultados médicos o hábitos saludables. No reemplaza la evaluación de un profesional sanitario.
¿Mis datos médicos estarán seguros si los subo?
OpenAI cifra los datos y los mantiene aislados del entrenamiento de otros modelos, pero siempre existe un riesgo residual. Se recomienda no subir información sensible identificable.
¿Puedo usar ChatGPT Salud en cualquier país?
Sí, pero debes tener en cuenta las regulaciones locales sobre protección de datos (por ejemplo, GDPR en Europa o HIPAA en EE. UU.) antes de subir información clínica.
¿Qué tipo de información puedo compartir?
Se aconseja compartir solo datos necesarios y anónimos, como resultados de pruebas generales, tendencias de hábitos o información de aplicaciones de salud, evitando datos que puedan identificarte personalmente.
¿Los médicos pueden usar ChatGPT Salud con sus pacientes?
Sí, pero solo como herramienta complementaria. No sustituye la revisión clínica ni la relación médico‑paciente, y siempre se debe mantener la confidencialidad según la normativa vigente.
¿Qué hago si detecto un error en la respuesta de la IA?
No tomes decisiones médicas basadas en esa información. Consulta siempre a un profesional de la salud para interpretar correctamente cualquier resultado o síntoma.
¿Cómo elimino la información que he subido?
Se recomienda borrar los documentos después de recibir la respuesta y cerrar sesión en la plataforma para minimizar riesgos de exposición.
Fuente: Efesalud