La inteligencia artificial se está haciendo un hueco en el campo de la medicina, planteando la posibilidad de que en un futuro los profesionales de la salud puedan ser sustituidos por modelos guiados por IA. Sin embargo, estudios recientes han demostrado que estos modelos, aunque puedan superar exámenes médicos estándar, presentan dificultades cuando se trata de razonar de manera profunda en casos más complejos.
Investigadores de la Universidad de Stanford han puesto a prueba modelos de IA como GPT-4o y Claude 3.5 Sonnet, encontrando que su precisión se desploma ante cambios leves en la redacción de las preguntas. Esto evidencia una comprensión superficial por parte de estos modelos, que parecen basar su eficacia en patrones aprendidos más que en un razonamiento profundo. Por lo tanto, su uso en la práctica clínica debe ser supervisado y validado por profesionales humanos antes de tomar decisiones de salud.
A pesar de los avances en IA, la investigación sugiere que los modelos actuales pueden no ser capaces de enfrentarse a situaciones clínicas reales que requieren un razonamiento más allá de un procedimiento estándar. La autora del estudio, Suhana Bedi, destaca la importancia de mantener la supervisión humana y validar las respuestas de los modelos antes de confiar en ellos para tomar decisiones de salud. En definitiva, la IA puede tener un gran potencial en la educación y el apoyo preliminar en el campo de la medicina, pero su uso en la práctica clínica debe ser cuidadoso y prudente.
Fuente: LA RAZÓN | URL: Ver noticia original









