Miercoles 25 de Marzo de 2026







 25/03/2026 - SALUD
La IA no llega al 60% al juzgar afirmaciones científicas y médicas

Quienes dependen de los chatbots para su información científica y médica, estén advertidos: la inteligencia artificial (IA) recibe una "D" cuando se le pide evaluar si una afirmación es verdadera o falsa, según un nuevo estudio.


La precisión de ChatGPT para evaluar afirmaciones científicas fue solo aproximadamente un 60% mejor que la de las conjeturas aleatorias, una puntuación que le valdría una baja "D" en un aula, según informaron recientemente investigadores en Rutgers Business Review.


"No solo hablamos de precisión, estamos hablando de inconsistencia, porque si haces la misma pregunta una y otra vez, obtienes respuestas diferentes", dijo el investigador principal Mesut Cicek, profesor de marketing y negocios internacionales en la Universidad Estatal de Washington en Pullman, Washington.



"Usamos 10 prompts con exactamente la misma pregunta. Todo era idéntico", dijo Cicek en un comunicado de prensa. "Respondería que sí. Después, dice que es falso. Es verdad, es falso, falso, verdad. Hubo varios casos en los que cinco fueron verdaderos, cinco falsos."


Para el nuevo estudio, los investigadores introdujeron más de 700 afirmaciones en ChatGPT y le pidieron que juzgara si cada afirmación era verdadera o falsa, basándose en toda la investigación previa.


El programa de IA tenía alrededor del 80% de precisión, pero la puntuación bajó al 60% después de que los investigadores tuvieran en cuenta las suposiciones aleatorias, es decir, las probabilidades de que una suposición rápida tenga un 50-50 de probabilidad de acertar.


Los resultados refuerzan la necesidad de aplicar escepticismo y precaución al utilizar IA, especialmente en tareas que implican matices o razonamientos complejos, según los investigadores.


La capacidad de los chatbots con el lenguaje enmascara la falta de inteligencia conceptual de las IA, concluyó el equipo.


La IA puede producir un lenguaje fluido y convincente, pero su capacidad para razonar sobre preguntas complejas queda corta porque no puede realmente "pensar", dijeron los investigadores.


Como resultado, la IA puede ofrecer explicaciones persuasivas para respuestas incorrectas, lo que podría engañar a quienes se basan en ella, advirtieron los investigadores.


"Las herramientas de IA actuales no entienden el mundo como nosotros -- no tienen un 'cerebro'", dijo Cicek. Solo memorizan, y pueden darte alguna perspectiva, pero no entienden de lo que hablan."


¿El consejo de Cicek?


"Siempre sé escéptico", dijo. "No estoy en contra de la IA. Lo estoy usando. Pero tienes que tener mucho cuidado."











PINAMAR24 EN FACEBOOK


© 2022 - PINAMAR 24
PROPIETARIO: DIEGO ANDRES URIBE
DIRECTOR GENERAL: DIEGO ANDRES URIBE
FECHA 25/03/2026 EDICIÓN: NÚMERO
DOMICILIO LEGAL: JASON 429 PINAMAR
REGISTRO DNDA EN TRÁMITE