La IA no mejora los diagnósticos médicos, pero puede ser buena ayuda
Los hospitales van incorporando la inteligencia artificial a sus procedimientos con la intención de mejorar la atención al paciente. Ahora, un nuevo estudio ha estudiado si esta nueva herramienta favorece un mejor diagnóstico medico.
La investigación, realizada por el sistema sanitario de la Universidad de Virginia (Estados Unidos) y publicada en la revista 'JAMA Network Open', ha descubierto que el uso de Chat GPT Plus no mejora significativamente la precisión de los diagnósticos de los médicos en comparación con el uso de los recursos habituales.
En el estudio, realizado por el doctor Andrew S. Parsons y sus colegas, 50 médicos de medicina de familia, medicina interna y medicina de urgencias pusieron a prueba Chat GPT Plus. A la mitad se le asignó aleatoriamente el uso de Chat GPT Plus para diagnosticar casos complejos, mientras que la otra mitad recurrió a métodos convencionales como los sitios de referencia médica y Google.
Los investigadores compararon los diagnósticos resultantes y comprobaron que la precisión de ambos grupos era similar. Sin embargo, Chat GPT superó por sí sola a ambos grupos, lo que sugiere que sigue siendo prometedora para mejorar la atención al paciente. No obstante, los investigadores concluyen que los médicos necesitarán más formación y experiencia con esta tecnología emergente para aprovechar todo su potencial.
Por ahora, los investigadores afirman que Chat GPT se utiliza mejor como complemento que como sustituto de los médicos.
"Nuestro estudio demuestra que la IA por sí sola puede ser una herramienta eficaz y potente para el diagnóstico --afirma Parsons, que supervisa la enseñanza de habilidades clínicas a los estudiantes de medicina de la Facultad de Medicina de la Universidad de Virginia y codirige la Clinical Reasoning Research Collaborative--. Nos sorprendió descubrir que añadir un médico a la mezcla reducía la precisión del diagnóstico, aunque mejoraba la eficacia. Estos resultados probablemente significan que necesitamos formación formal sobre la mejor manera de utilizar la IA".
Los chatbots llamados 'grandes modelos lingüísticos' que producen respuestas similares a las humanas están ganando popularidad, y han demostrado una capacidad impresionante para tomar historiales de pacientes, comunicarse con empatía e incluso resolver casos médicos complejos pero, por ahora, siguen necesitando la intervención de un médico humano.
Parsons y sus colegas deseaban por determinar cómo se puede utilizar la herramienta de alta tecnología de la forma más eficaz, así que pusieron en marcha un ensayo aleatorizado y controlado en tres hospitales punteros: UVA Health, Stanford y el Centro Médico Beth Israel Deaconess de Harvard.
Los médicos participantes realizaron diagnósticos para 'viñetas clínicas' basadas en casos reales de atención a pacientes. Estos estudios de casos incluían detalles sobre los historiales de los pacientes, exámenes físicos y resultados de pruebas de laboratorio. A continuación, los investigadores puntuaron los resultados y examinaron la rapidez con la que los dos grupos realizaban sus diagnósticos.
La precisión diagnóstica media de los médicos que utilizaron Chat GPT Plus fue del 76,3%, mientras que la de los que emplearon métodos convencionales fue del 73,7%.Los miembros del grupo de Chat GPT llegaron a sus diagnósticos ligeramente más rápido en general: 519 segundos frente a 565 segundos.
A los investigadores les sorprendió lo bien que funcionó Chat GPT Plus, con una precisión diagnóstica media superior al 92%. Afirman que esto puede deberse a las indicaciones utilizadas en el estudio, lo que sugiere que los médicos probablemente se beneficiarán de la formación sobre cómo utilizar las indicaciones de forma eficaz.
Como alternativa, afirman, las organizaciones sanitarias podrían adquirir instrucciones predefinidas para implementarlas en el flujo de trabajo clínico y la documentación.
Los investigadores también advierten de que Chat GPT Plus probablemente funcionaría peor en la vida real, donde entran en juego muchos otros aspectos del razonamiento clínico, sobre todo a la hora de determinar los efectos posteriores de los diagnósticos y las decisiones de tratamiento.
Por todo ello, instan a realizar estudios adicionales para evaluar las capacidades de los grandes modelos lingüísticos en esas áreas y están llevando a cabo un estudio similar sobre la toma de decisiones de gestión.
"A medida que la IA se integra más en la asistencia sanitaria, es esencial entender cómo podemos aprovechar estas herramientas para mejorar la atención al paciente y la experiencia del médico --indica Parsons--. Este estudio sugiere que hay mucho trabajo por hacer en términos de optimizar nuestra asociación con la IA en el entorno clínico".