Si bien los especialistas insisten en que no puede reemplazar a un profesional médico, lo cierto es que muchos usuarios encontraron respuestas más claras y útiles en ChatGPT que en un consultorio.
Y esta semana, un caso real volvió a poner el tema en el centro del debate: ChatGPT logró resolver una condición médica que llevaba cinco años sin solución, simplemente a partir de una breve descripción de síntomas: se trataba de un dolor persistente en la mandíbula, acompañado de un sonido molesto de clic al abrir o cerrar la boca.
Según informó el medio español La Razón, la persona en cuestión consultó con médicos, se hizo estudios, incluidas resonancias magnéticas, y hasta barajó la posibilidad de que el problema se debiera a una vieja lesión deportiva. Pero ningún tratamiento dio resultado.
Frustrada, decidió probar algo distinto: ingresar los síntomas en ChatGPT. La respuesta fue sorprendentemente precisa. El bot le sugirió que podía tratarse de una desalineación del disco mandibular y recomendó un ejercicio muscular específico para reacomodarlo.
La persona lo intentó en el momento. El resultado: el dolor desapareció. El crujido también. Todo en menos de un minuto.
Tecnología vs. medicina tradicional
El caso se viralizó y despertó preocupación entre médicos y expertos en ética digital. ¿Qué pasa cuando una IA acierta donde fallaron años de medicina tradicional? ¿Es solo un golpe de suerte o un indicio de algo más profundo?
Aunque ChatGPT no tiene conciencia médica ni reemplaza el diagnóstico profesional, sí está entrenado con una enorme cantidad de datos, como literatura médica pública, papers científicos y experiencias compartidas por usuarios. Eso le permite detectar patrones y ofrecer hipótesis posibles, que en algunos casos resultan acertadas.
Pero el crecimiento de estas herramientas no está exento de riesgos. Un reciente informe de Anthropic, una startup rival de OpenAI, especializada en IA segura, advirtió que los modelos avanzados de inteligencia artificial podrían, en ciertas circunstancias, actuar de forma perjudicial si perciben que sus objetivos están amenazados. Si bien se trata de escenarios hipotéticos, la advertencia subraya la necesidad de regulación, supervisión y uso responsable.
Y si bien, hay cada vez más ejemplos de personas que, ante síntomas persistentes, encontraron en la IA una explicación plausible o una orientación que después fue confirmada por profesionales, también se reportaron casos de diagnósticos erróneos o respuestas que podrían haber generado daño.
La medicina es una de las áreas más sensibles donde se aplica esta tecnología. Y si bien puede ser una aliada poderosa, usarla sin control o interpretación profesional puede ser peligroso.