Capacidad resolutiva de ChatGPT en un examen de competencias médicas basado en la clínica ampliada

Autores
Badr, Pablo Julián; López, Silvina E.; Bugatti, Federico A.; Bavio, José Manuel; García, Alejandro Javier
Año de publicación
2024
Idioma
inglés
Tipo de recurso
artículo
Estado
versión publicada
Descripción
La aplicación de herramientas de inteligencia artificial (IA) ha cambiado los límites de lo posible en cuanto a la educación y evaluación médica. La carrera de medicina de la Universidad Nacional del Sur ha desarrollado un software específico para evaluar la adquisición de competencias profesionales bajo el encuadre de la clínica ampliada, con respuestas en formato ensayo, que pueden ser simuladas por la IA. Método: Se analiza la capacidad del sistema ChatGPT 3.5 de interpretar y resolver problemas clínicos bajo este encuadre, comparando de forma ciega su desempeño con medidas de distribución de frecuencias de la población control. Resultados: ChatGPT 3.5 presentó un desempeño global del 44.84% (Z-score: –1.14), con desempeño menor a la media del grupo control en 6 de 10 problemas clínicos. En las dimensiones de competencia «Subjetivo» y «Problematización» el desempeño fue aceptable (Z-score –0.02 y 0.05, respectivamente) y pobre en las dimensiones «Objetivo» y «Plan de acción» (Z-score: –2.40 y –1.46, respectivamente). Las respuestas de ChatGPT incluyeron el 60% de los ítems que evalúan la pertinencia de decisiones al contexto sociofamiliar (Z-score: –0.70). Conclusiones: ChatGPT presentó capacidad moderada para resolver evaluaciones en el marco de la clínica ampliada, pero sorprende su capacidad de generar respuestas pertinentes al contexto sociofamiliar. Esto sugiere una utilidad potencial para el desarrollo de competencias blandas en la formación médica. El uso masivo de estas herramientas obliga a revisar las competencias médicas que desarrollar y los mecanismos de evaluación pertinentes que garanticen su seguridad, validez e impacto educativo.
The application of Artificial Intelligence (AI) tools has changed the limits of what is possible in terms of medical education and evaluation. The Medical School at the National University of the South has developed specific software to evaluate the acquisition of professional skills under the framework of the expanded clinic, with answers in essay format, which can be simulated by AI. Method: This study analyzes the ability of the ChatGPT 3.5 system to interpret and solve clinical problems under this framework, blindly comparing its performance with frequency distribution measures of the control population. Results: ChatGPT 3.5 presented an overall performance of 44.84% (Z-score: –1.14), with performance lower than the average of the control group in 6 of 10 clinical problems. In the competence dimensions “Subjective” and “Problematization” the performance was acceptable (Z-score: –0.02 and 0.05, respectively) and poor in the dimensions “Objective” and “Action plan” (Z-score: –2.40 and –1.46, respectively). ChatGPT responses included 60% of the items that evaluate the relevance of decisions to the socio-familial context (Z-score: –0.70). Conclusions: ChatGPT presented moderate capacity to resolve evaluations in the framework of the expanded clinic, but its capacity to generate responses relevant to the socio-familial context is surprising. This suggests potential utility for the development of soft skills in medical training. The massive use of these tools forces us to review the medical skills to be developed, and the relevant evaluation mechanisms that guarantee their safety, validity and educational impact.
Fil: Badr, Pablo Julián. Universidad Nacional del Sur. Departamento de Ciencias de la Salud; Argentina
Fil: López, Silvina E.. Universidad Nacional del Sur. Departamento de Ciencias de la Salud; Argentina
Fil: Bugatti, Federico A.. Universidad Nacional del Sur. Departamento de Ciencias de la Salud; Argentina
Fil: Bavio, José Manuel. Universidad Nacional del Sur. Departamento de Matemática; Argentina. Consejo Nacional de Investigaciones Científicas y Técnicas. Centro Científico Tecnológico Conicet - Bahía Blanca; Argentina
Fil: García, Alejandro Javier. Consejo Nacional de Investigaciones Científicas y Técnicas. Centro Científico Tecnológico Conicet - Bahía Blanca. Instituto de Ciencias e Ingeniería de la Computación. Universidad Nacional del Sur. Departamento de Ciencias e Ingeniería de la Computación. Instituto de Ciencias e Ingeniería de la Computación; Argentina
Materia
EDUCACIÓN MÉDICA
INTELIGENCIA ARTIFICIAL
MODELOS DE LENGUAJE
Nivel de accesibilidad
acceso abierto
Condiciones de uso
https://creativecommons.org/licenses/by-nc-nd/2.5/ar/
Repositorio
CONICET Digital (CONICET)
Institución
Consejo Nacional de Investigaciones Científicas y Técnicas
OAI Identificador
oai:ri.conicet.gov.ar:11336/259254

id CONICETDig_b6c912db2133ae5f07eac66a0f1c0ee7
oai_identifier_str oai:ri.conicet.gov.ar:11336/259254
network_acronym_str CONICETDig
repository_id_str 3498
network_name_str CONICET Digital (CONICET)
spelling Capacidad resolutiva de ChatGPT en un examen de competencias médicas basado en la clínica ampliadaBadr, Pablo JuliánLópez, Silvina E.Bugatti, Federico A.Bavio, José ManuelGarcía, Alejandro JavierEDUCACIÓN MÉDICAINTELIGENCIA ARTIFICIALMODELOS DE LENGUAJEhttps://purl.org/becyt/ford/1.2https://purl.org/becyt/ford/1La aplicación de herramientas de inteligencia artificial (IA) ha cambiado los límites de lo posible en cuanto a la educación y evaluación médica. La carrera de medicina de la Universidad Nacional del Sur ha desarrollado un software específico para evaluar la adquisición de competencias profesionales bajo el encuadre de la clínica ampliada, con respuestas en formato ensayo, que pueden ser simuladas por la IA. Método: Se analiza la capacidad del sistema ChatGPT 3.5 de interpretar y resolver problemas clínicos bajo este encuadre, comparando de forma ciega su desempeño con medidas de distribución de frecuencias de la población control. Resultados: ChatGPT 3.5 presentó un desempeño global del 44.84% (Z-score: –1.14), con desempeño menor a la media del grupo control en 6 de 10 problemas clínicos. En las dimensiones de competencia «Subjetivo» y «Problematización» el desempeño fue aceptable (Z-score –0.02 y 0.05, respectivamente) y pobre en las dimensiones «Objetivo» y «Plan de acción» (Z-score: –2.40 y –1.46, respectivamente). Las respuestas de ChatGPT incluyeron el 60% de los ítems que evalúan la pertinencia de decisiones al contexto sociofamiliar (Z-score: –0.70). Conclusiones: ChatGPT presentó capacidad moderada para resolver evaluaciones en el marco de la clínica ampliada, pero sorprende su capacidad de generar respuestas pertinentes al contexto sociofamiliar. Esto sugiere una utilidad potencial para el desarrollo de competencias blandas en la formación médica. El uso masivo de estas herramientas obliga a revisar las competencias médicas que desarrollar y los mecanismos de evaluación pertinentes que garanticen su seguridad, validez e impacto educativo.The application of Artificial Intelligence (AI) tools has changed the limits of what is possible in terms of medical education and evaluation. The Medical School at the National University of the South has developed specific software to evaluate the acquisition of professional skills under the framework of the expanded clinic, with answers in essay format, which can be simulated by AI. Method: This study analyzes the ability of the ChatGPT 3.5 system to interpret and solve clinical problems under this framework, blindly comparing its performance with frequency distribution measures of the control population. Results: ChatGPT 3.5 presented an overall performance of 44.84% (Z-score: –1.14), with performance lower than the average of the control group in 6 of 10 clinical problems. In the competence dimensions “Subjective” and “Problematization” the performance was acceptable (Z-score: –0.02 and 0.05, respectively) and poor in the dimensions “Objective” and “Action plan” (Z-score: –2.40 and –1.46, respectively). ChatGPT responses included 60% of the items that evaluate the relevance of decisions to the socio-familial context (Z-score: –0.70). Conclusions: ChatGPT presented moderate capacity to resolve evaluations in the framework of the expanded clinic, but its capacity to generate responses relevant to the socio-familial context is surprising. This suggests potential utility for the development of soft skills in medical training. The massive use of these tools forces us to review the medical skills to be developed, and the relevant evaluation mechanisms that guarantee their safety, validity and educational impact.Fil: Badr, Pablo Julián. Universidad Nacional del Sur. Departamento de Ciencias de la Salud; ArgentinaFil: López, Silvina E.. Universidad Nacional del Sur. Departamento de Ciencias de la Salud; ArgentinaFil: Bugatti, Federico A.. Universidad Nacional del Sur. Departamento de Ciencias de la Salud; ArgentinaFil: Bavio, José Manuel. Universidad Nacional del Sur. Departamento de Matemática; Argentina. Consejo Nacional de Investigaciones Científicas y Técnicas. Centro Científico Tecnológico Conicet - Bahía Blanca; ArgentinaFil: García, Alejandro Javier. Consejo Nacional de Investigaciones Científicas y Técnicas. Centro Científico Tecnológico Conicet - Bahía Blanca. Instituto de Ciencias e Ingeniería de la Computación. Universidad Nacional del Sur. Departamento de Ciencias e Ingeniería de la Computación. Instituto de Ciencias e Ingeniería de la Computación; ArgentinaPermanyer2024-07-12info:eu-repo/semantics/articleinfo:eu-repo/semantics/publishedVersionhttp://purl.org/coar/resource_type/c_6501info:ar-repo/semantics/articuloapplication/pdfapplication/pdfhttp://hdl.handle.net/11336/259254Badr, Pablo Julián; López, Silvina E.; Bugatti, Federico A.; Bavio, José Manuel; García, Alejandro Javier; Capacidad resolutiva de ChatGPT en un examen de competencias médicas basado en la clínica ampliada; Permanyer; Revista Mexicana de Educación Médica; 11; 1; 12-7-2024; 1-150188-2635CONICET DigitalCONICETenginfo:eu-repo/semantics/altIdentifier/url/https://www.revistaeducacionmedica.com/frame_esp.php?id=41info:eu-repo/semantics/altIdentifier/doi/10.24875/RMEM.23000013info:eu-repo/semantics/openAccesshttps://creativecommons.org/licenses/by-nc-nd/2.5/ar/reponame:CONICET Digital (CONICET)instname:Consejo Nacional de Investigaciones Científicas y Técnicas2025-10-15T14:25:02Zoai:ri.conicet.gov.ar:11336/259254instacron:CONICETInstitucionalhttp://ri.conicet.gov.ar/Organismo científico-tecnológicoNo correspondehttp://ri.conicet.gov.ar/oai/requestdasensio@conicet.gov.ar; lcarlino@conicet.gov.arArgentinaNo correspondeNo correspondeNo correspondeopendoar:34982025-10-15 14:25:02.777CONICET Digital (CONICET) - Consejo Nacional de Investigaciones Científicas y Técnicasfalse
dc.title.none.fl_str_mv Capacidad resolutiva de ChatGPT en un examen de competencias médicas basado en la clínica ampliada
title Capacidad resolutiva de ChatGPT en un examen de competencias médicas basado en la clínica ampliada
spellingShingle Capacidad resolutiva de ChatGPT en un examen de competencias médicas basado en la clínica ampliada
Badr, Pablo Julián
EDUCACIÓN MÉDICA
INTELIGENCIA ARTIFICIAL
MODELOS DE LENGUAJE
title_short Capacidad resolutiva de ChatGPT en un examen de competencias médicas basado en la clínica ampliada
title_full Capacidad resolutiva de ChatGPT en un examen de competencias médicas basado en la clínica ampliada
title_fullStr Capacidad resolutiva de ChatGPT en un examen de competencias médicas basado en la clínica ampliada
title_full_unstemmed Capacidad resolutiva de ChatGPT en un examen de competencias médicas basado en la clínica ampliada
title_sort Capacidad resolutiva de ChatGPT en un examen de competencias médicas basado en la clínica ampliada
dc.creator.none.fl_str_mv Badr, Pablo Julián
López, Silvina E.
Bugatti, Federico A.
Bavio, José Manuel
García, Alejandro Javier
author Badr, Pablo Julián
author_facet Badr, Pablo Julián
López, Silvina E.
Bugatti, Federico A.
Bavio, José Manuel
García, Alejandro Javier
author_role author
author2 López, Silvina E.
Bugatti, Federico A.
Bavio, José Manuel
García, Alejandro Javier
author2_role author
author
author
author
dc.subject.none.fl_str_mv EDUCACIÓN MÉDICA
INTELIGENCIA ARTIFICIAL
MODELOS DE LENGUAJE
topic EDUCACIÓN MÉDICA
INTELIGENCIA ARTIFICIAL
MODELOS DE LENGUAJE
purl_subject.fl_str_mv https://purl.org/becyt/ford/1.2
https://purl.org/becyt/ford/1
dc.description.none.fl_txt_mv La aplicación de herramientas de inteligencia artificial (IA) ha cambiado los límites de lo posible en cuanto a la educación y evaluación médica. La carrera de medicina de la Universidad Nacional del Sur ha desarrollado un software específico para evaluar la adquisición de competencias profesionales bajo el encuadre de la clínica ampliada, con respuestas en formato ensayo, que pueden ser simuladas por la IA. Método: Se analiza la capacidad del sistema ChatGPT 3.5 de interpretar y resolver problemas clínicos bajo este encuadre, comparando de forma ciega su desempeño con medidas de distribución de frecuencias de la población control. Resultados: ChatGPT 3.5 presentó un desempeño global del 44.84% (Z-score: –1.14), con desempeño menor a la media del grupo control en 6 de 10 problemas clínicos. En las dimensiones de competencia «Subjetivo» y «Problematización» el desempeño fue aceptable (Z-score –0.02 y 0.05, respectivamente) y pobre en las dimensiones «Objetivo» y «Plan de acción» (Z-score: –2.40 y –1.46, respectivamente). Las respuestas de ChatGPT incluyeron el 60% de los ítems que evalúan la pertinencia de decisiones al contexto sociofamiliar (Z-score: –0.70). Conclusiones: ChatGPT presentó capacidad moderada para resolver evaluaciones en el marco de la clínica ampliada, pero sorprende su capacidad de generar respuestas pertinentes al contexto sociofamiliar. Esto sugiere una utilidad potencial para el desarrollo de competencias blandas en la formación médica. El uso masivo de estas herramientas obliga a revisar las competencias médicas que desarrollar y los mecanismos de evaluación pertinentes que garanticen su seguridad, validez e impacto educativo.
The application of Artificial Intelligence (AI) tools has changed the limits of what is possible in terms of medical education and evaluation. The Medical School at the National University of the South has developed specific software to evaluate the acquisition of professional skills under the framework of the expanded clinic, with answers in essay format, which can be simulated by AI. Method: This study analyzes the ability of the ChatGPT 3.5 system to interpret and solve clinical problems under this framework, blindly comparing its performance with frequency distribution measures of the control population. Results: ChatGPT 3.5 presented an overall performance of 44.84% (Z-score: –1.14), with performance lower than the average of the control group in 6 of 10 clinical problems. In the competence dimensions “Subjective” and “Problematization” the performance was acceptable (Z-score: –0.02 and 0.05, respectively) and poor in the dimensions “Objective” and “Action plan” (Z-score: –2.40 and –1.46, respectively). ChatGPT responses included 60% of the items that evaluate the relevance of decisions to the socio-familial context (Z-score: –0.70). Conclusions: ChatGPT presented moderate capacity to resolve evaluations in the framework of the expanded clinic, but its capacity to generate responses relevant to the socio-familial context is surprising. This suggests potential utility for the development of soft skills in medical training. The massive use of these tools forces us to review the medical skills to be developed, and the relevant evaluation mechanisms that guarantee their safety, validity and educational impact.
Fil: Badr, Pablo Julián. Universidad Nacional del Sur. Departamento de Ciencias de la Salud; Argentina
Fil: López, Silvina E.. Universidad Nacional del Sur. Departamento de Ciencias de la Salud; Argentina
Fil: Bugatti, Federico A.. Universidad Nacional del Sur. Departamento de Ciencias de la Salud; Argentina
Fil: Bavio, José Manuel. Universidad Nacional del Sur. Departamento de Matemática; Argentina. Consejo Nacional de Investigaciones Científicas y Técnicas. Centro Científico Tecnológico Conicet - Bahía Blanca; Argentina
Fil: García, Alejandro Javier. Consejo Nacional de Investigaciones Científicas y Técnicas. Centro Científico Tecnológico Conicet - Bahía Blanca. Instituto de Ciencias e Ingeniería de la Computación. Universidad Nacional del Sur. Departamento de Ciencias e Ingeniería de la Computación. Instituto de Ciencias e Ingeniería de la Computación; Argentina
description La aplicación de herramientas de inteligencia artificial (IA) ha cambiado los límites de lo posible en cuanto a la educación y evaluación médica. La carrera de medicina de la Universidad Nacional del Sur ha desarrollado un software específico para evaluar la adquisición de competencias profesionales bajo el encuadre de la clínica ampliada, con respuestas en formato ensayo, que pueden ser simuladas por la IA. Método: Se analiza la capacidad del sistema ChatGPT 3.5 de interpretar y resolver problemas clínicos bajo este encuadre, comparando de forma ciega su desempeño con medidas de distribución de frecuencias de la población control. Resultados: ChatGPT 3.5 presentó un desempeño global del 44.84% (Z-score: –1.14), con desempeño menor a la media del grupo control en 6 de 10 problemas clínicos. En las dimensiones de competencia «Subjetivo» y «Problematización» el desempeño fue aceptable (Z-score –0.02 y 0.05, respectivamente) y pobre en las dimensiones «Objetivo» y «Plan de acción» (Z-score: –2.40 y –1.46, respectivamente). Las respuestas de ChatGPT incluyeron el 60% de los ítems que evalúan la pertinencia de decisiones al contexto sociofamiliar (Z-score: –0.70). Conclusiones: ChatGPT presentó capacidad moderada para resolver evaluaciones en el marco de la clínica ampliada, pero sorprende su capacidad de generar respuestas pertinentes al contexto sociofamiliar. Esto sugiere una utilidad potencial para el desarrollo de competencias blandas en la formación médica. El uso masivo de estas herramientas obliga a revisar las competencias médicas que desarrollar y los mecanismos de evaluación pertinentes que garanticen su seguridad, validez e impacto educativo.
publishDate 2024
dc.date.none.fl_str_mv 2024-07-12
dc.type.none.fl_str_mv info:eu-repo/semantics/article
info:eu-repo/semantics/publishedVersion
http://purl.org/coar/resource_type/c_6501
info:ar-repo/semantics/articulo
format article
status_str publishedVersion
dc.identifier.none.fl_str_mv http://hdl.handle.net/11336/259254
Badr, Pablo Julián; López, Silvina E.; Bugatti, Federico A.; Bavio, José Manuel; García, Alejandro Javier; Capacidad resolutiva de ChatGPT en un examen de competencias médicas basado en la clínica ampliada; Permanyer; Revista Mexicana de Educación Médica; 11; 1; 12-7-2024; 1-15
0188-2635
CONICET Digital
CONICET
url http://hdl.handle.net/11336/259254
identifier_str_mv Badr, Pablo Julián; López, Silvina E.; Bugatti, Federico A.; Bavio, José Manuel; García, Alejandro Javier; Capacidad resolutiva de ChatGPT en un examen de competencias médicas basado en la clínica ampliada; Permanyer; Revista Mexicana de Educación Médica; 11; 1; 12-7-2024; 1-15
0188-2635
CONICET Digital
CONICET
dc.language.none.fl_str_mv eng
language eng
dc.relation.none.fl_str_mv info:eu-repo/semantics/altIdentifier/url/https://www.revistaeducacionmedica.com/frame_esp.php?id=41
info:eu-repo/semantics/altIdentifier/doi/10.24875/RMEM.23000013
dc.rights.none.fl_str_mv info:eu-repo/semantics/openAccess
https://creativecommons.org/licenses/by-nc-nd/2.5/ar/
eu_rights_str_mv openAccess
rights_invalid_str_mv https://creativecommons.org/licenses/by-nc-nd/2.5/ar/
dc.format.none.fl_str_mv application/pdf
application/pdf
dc.publisher.none.fl_str_mv Permanyer
publisher.none.fl_str_mv Permanyer
dc.source.none.fl_str_mv reponame:CONICET Digital (CONICET)
instname:Consejo Nacional de Investigaciones Científicas y Técnicas
reponame_str CONICET Digital (CONICET)
collection CONICET Digital (CONICET)
instname_str Consejo Nacional de Investigaciones Científicas y Técnicas
repository.name.fl_str_mv CONICET Digital (CONICET) - Consejo Nacional de Investigaciones Científicas y Técnicas
repository.mail.fl_str_mv dasensio@conicet.gov.ar; lcarlino@conicet.gov.ar
_version_ 1846082679609491456
score 13.221938