Capacidad resolutiva de ChatGPT en un examen de competencias médicas basado en la clínica ampliada
- Autores
- Badr, Pablo Julián; López, Silvina E.; Bugatti, Federico A.; Bavio, José Manuel; García, Alejandro Javier
- Año de publicación
- 2024
- Idioma
- inglés
- Tipo de recurso
- artículo
- Estado
- versión publicada
- Descripción
- La aplicación de herramientas de inteligencia artificial (IA) ha cambiado los límites de lo posible en cuanto a la educación y evaluación médica. La carrera de medicina de la Universidad Nacional del Sur ha desarrollado un software específico para evaluar la adquisición de competencias profesionales bajo el encuadre de la clínica ampliada, con respuestas en formato ensayo, que pueden ser simuladas por la IA. Método: Se analiza la capacidad del sistema ChatGPT 3.5 de interpretar y resolver problemas clínicos bajo este encuadre, comparando de forma ciega su desempeño con medidas de distribución de frecuencias de la población control. Resultados: ChatGPT 3.5 presentó un desempeño global del 44.84% (Z-score: –1.14), con desempeño menor a la media del grupo control en 6 de 10 problemas clínicos. En las dimensiones de competencia «Subjetivo» y «Problematización» el desempeño fue aceptable (Z-score –0.02 y 0.05, respectivamente) y pobre en las dimensiones «Objetivo» y «Plan de acción» (Z-score: –2.40 y –1.46, respectivamente). Las respuestas de ChatGPT incluyeron el 60% de los ítems que evalúan la pertinencia de decisiones al contexto sociofamiliar (Z-score: –0.70). Conclusiones: ChatGPT presentó capacidad moderada para resolver evaluaciones en el marco de la clínica ampliada, pero sorprende su capacidad de generar respuestas pertinentes al contexto sociofamiliar. Esto sugiere una utilidad potencial para el desarrollo de competencias blandas en la formación médica. El uso masivo de estas herramientas obliga a revisar las competencias médicas que desarrollar y los mecanismos de evaluación pertinentes que garanticen su seguridad, validez e impacto educativo.
The application of Artificial Intelligence (AI) tools has changed the limits of what is possible in terms of medical education and evaluation. The Medical School at the National University of the South has developed specific software to evaluate the acquisition of professional skills under the framework of the expanded clinic, with answers in essay format, which can be simulated by AI. Method: This study analyzes the ability of the ChatGPT 3.5 system to interpret and solve clinical problems under this framework, blindly comparing its performance with frequency distribution measures of the control population. Results: ChatGPT 3.5 presented an overall performance of 44.84% (Z-score: –1.14), with performance lower than the average of the control group in 6 of 10 clinical problems. In the competence dimensions “Subjective” and “Problematization” the performance was acceptable (Z-score: –0.02 and 0.05, respectively) and poor in the dimensions “Objective” and “Action plan” (Z-score: –2.40 and –1.46, respectively). ChatGPT responses included 60% of the items that evaluate the relevance of decisions to the socio-familial context (Z-score: –0.70). Conclusions: ChatGPT presented moderate capacity to resolve evaluations in the framework of the expanded clinic, but its capacity to generate responses relevant to the socio-familial context is surprising. This suggests potential utility for the development of soft skills in medical training. The massive use of these tools forces us to review the medical skills to be developed, and the relevant evaluation mechanisms that guarantee their safety, validity and educational impact.
Fil: Badr, Pablo Julián. Universidad Nacional del Sur. Departamento de Ciencias de la Salud; Argentina
Fil: López, Silvina E.. Universidad Nacional del Sur. Departamento de Ciencias de la Salud; Argentina
Fil: Bugatti, Federico A.. Universidad Nacional del Sur. Departamento de Ciencias de la Salud; Argentina
Fil: Bavio, José Manuel. Universidad Nacional del Sur. Departamento de Matemática; Argentina. Consejo Nacional de Investigaciones Científicas y Técnicas. Centro Científico Tecnológico Conicet - Bahía Blanca; Argentina
Fil: García, Alejandro Javier. Consejo Nacional de Investigaciones Científicas y Técnicas. Centro Científico Tecnológico Conicet - Bahía Blanca. Instituto de Ciencias e Ingeniería de la Computación. Universidad Nacional del Sur. Departamento de Ciencias e Ingeniería de la Computación. Instituto de Ciencias e Ingeniería de la Computación; Argentina - Materia
-
EDUCACIÓN MÉDICA
INTELIGENCIA ARTIFICIAL
MODELOS DE LENGUAJE - Nivel de accesibilidad
- acceso abierto
- Condiciones de uso
- https://creativecommons.org/licenses/by-nc-nd/2.5/ar/
- Repositorio
- Institución
- Consejo Nacional de Investigaciones Científicas y Técnicas
- OAI Identificador
- oai:ri.conicet.gov.ar:11336/259254
Ver los metadatos del registro completo
id |
CONICETDig_b6c912db2133ae5f07eac66a0f1c0ee7 |
---|---|
oai_identifier_str |
oai:ri.conicet.gov.ar:11336/259254 |
network_acronym_str |
CONICETDig |
repository_id_str |
3498 |
network_name_str |
CONICET Digital (CONICET) |
spelling |
Capacidad resolutiva de ChatGPT en un examen de competencias médicas basado en la clínica ampliadaBadr, Pablo JuliánLópez, Silvina E.Bugatti, Federico A.Bavio, José ManuelGarcía, Alejandro JavierEDUCACIÓN MÉDICAINTELIGENCIA ARTIFICIALMODELOS DE LENGUAJEhttps://purl.org/becyt/ford/1.2https://purl.org/becyt/ford/1La aplicación de herramientas de inteligencia artificial (IA) ha cambiado los límites de lo posible en cuanto a la educación y evaluación médica. La carrera de medicina de la Universidad Nacional del Sur ha desarrollado un software específico para evaluar la adquisición de competencias profesionales bajo el encuadre de la clínica ampliada, con respuestas en formato ensayo, que pueden ser simuladas por la IA. Método: Se analiza la capacidad del sistema ChatGPT 3.5 de interpretar y resolver problemas clínicos bajo este encuadre, comparando de forma ciega su desempeño con medidas de distribución de frecuencias de la población control. Resultados: ChatGPT 3.5 presentó un desempeño global del 44.84% (Z-score: –1.14), con desempeño menor a la media del grupo control en 6 de 10 problemas clínicos. En las dimensiones de competencia «Subjetivo» y «Problematización» el desempeño fue aceptable (Z-score –0.02 y 0.05, respectivamente) y pobre en las dimensiones «Objetivo» y «Plan de acción» (Z-score: –2.40 y –1.46, respectivamente). Las respuestas de ChatGPT incluyeron el 60% de los ítems que evalúan la pertinencia de decisiones al contexto sociofamiliar (Z-score: –0.70). Conclusiones: ChatGPT presentó capacidad moderada para resolver evaluaciones en el marco de la clínica ampliada, pero sorprende su capacidad de generar respuestas pertinentes al contexto sociofamiliar. Esto sugiere una utilidad potencial para el desarrollo de competencias blandas en la formación médica. El uso masivo de estas herramientas obliga a revisar las competencias médicas que desarrollar y los mecanismos de evaluación pertinentes que garanticen su seguridad, validez e impacto educativo.The application of Artificial Intelligence (AI) tools has changed the limits of what is possible in terms of medical education and evaluation. The Medical School at the National University of the South has developed specific software to evaluate the acquisition of professional skills under the framework of the expanded clinic, with answers in essay format, which can be simulated by AI. Method: This study analyzes the ability of the ChatGPT 3.5 system to interpret and solve clinical problems under this framework, blindly comparing its performance with frequency distribution measures of the control population. Results: ChatGPT 3.5 presented an overall performance of 44.84% (Z-score: –1.14), with performance lower than the average of the control group in 6 of 10 clinical problems. In the competence dimensions “Subjective” and “Problematization” the performance was acceptable (Z-score: –0.02 and 0.05, respectively) and poor in the dimensions “Objective” and “Action plan” (Z-score: –2.40 and –1.46, respectively). ChatGPT responses included 60% of the items that evaluate the relevance of decisions to the socio-familial context (Z-score: –0.70). Conclusions: ChatGPT presented moderate capacity to resolve evaluations in the framework of the expanded clinic, but its capacity to generate responses relevant to the socio-familial context is surprising. This suggests potential utility for the development of soft skills in medical training. The massive use of these tools forces us to review the medical skills to be developed, and the relevant evaluation mechanisms that guarantee their safety, validity and educational impact.Fil: Badr, Pablo Julián. Universidad Nacional del Sur. Departamento de Ciencias de la Salud; ArgentinaFil: López, Silvina E.. Universidad Nacional del Sur. Departamento de Ciencias de la Salud; ArgentinaFil: Bugatti, Federico A.. Universidad Nacional del Sur. Departamento de Ciencias de la Salud; ArgentinaFil: Bavio, José Manuel. Universidad Nacional del Sur. Departamento de Matemática; Argentina. Consejo Nacional de Investigaciones Científicas y Técnicas. Centro Científico Tecnológico Conicet - Bahía Blanca; ArgentinaFil: García, Alejandro Javier. Consejo Nacional de Investigaciones Científicas y Técnicas. Centro Científico Tecnológico Conicet - Bahía Blanca. Instituto de Ciencias e Ingeniería de la Computación. Universidad Nacional del Sur. Departamento de Ciencias e Ingeniería de la Computación. Instituto de Ciencias e Ingeniería de la Computación; ArgentinaPermanyer2024-07-12info:eu-repo/semantics/articleinfo:eu-repo/semantics/publishedVersionhttp://purl.org/coar/resource_type/c_6501info:ar-repo/semantics/articuloapplication/pdfapplication/pdfhttp://hdl.handle.net/11336/259254Badr, Pablo Julián; López, Silvina E.; Bugatti, Federico A.; Bavio, José Manuel; García, Alejandro Javier; Capacidad resolutiva de ChatGPT en un examen de competencias médicas basado en la clínica ampliada; Permanyer; Revista Mexicana de Educación Médica; 11; 1; 12-7-2024; 1-150188-2635CONICET DigitalCONICETenginfo:eu-repo/semantics/altIdentifier/url/https://www.revistaeducacionmedica.com/frame_esp.php?id=41info:eu-repo/semantics/altIdentifier/doi/10.24875/RMEM.23000013info:eu-repo/semantics/openAccesshttps://creativecommons.org/licenses/by-nc-nd/2.5/ar/reponame:CONICET Digital (CONICET)instname:Consejo Nacional de Investigaciones Científicas y Técnicas2025-10-15T14:25:02Zoai:ri.conicet.gov.ar:11336/259254instacron:CONICETInstitucionalhttp://ri.conicet.gov.ar/Organismo científico-tecnológicoNo correspondehttp://ri.conicet.gov.ar/oai/requestdasensio@conicet.gov.ar; lcarlino@conicet.gov.arArgentinaNo correspondeNo correspondeNo correspondeopendoar:34982025-10-15 14:25:02.777CONICET Digital (CONICET) - Consejo Nacional de Investigaciones Científicas y Técnicasfalse |
dc.title.none.fl_str_mv |
Capacidad resolutiva de ChatGPT en un examen de competencias médicas basado en la clínica ampliada |
title |
Capacidad resolutiva de ChatGPT en un examen de competencias médicas basado en la clínica ampliada |
spellingShingle |
Capacidad resolutiva de ChatGPT en un examen de competencias médicas basado en la clínica ampliada Badr, Pablo Julián EDUCACIÓN MÉDICA INTELIGENCIA ARTIFICIAL MODELOS DE LENGUAJE |
title_short |
Capacidad resolutiva de ChatGPT en un examen de competencias médicas basado en la clínica ampliada |
title_full |
Capacidad resolutiva de ChatGPT en un examen de competencias médicas basado en la clínica ampliada |
title_fullStr |
Capacidad resolutiva de ChatGPT en un examen de competencias médicas basado en la clínica ampliada |
title_full_unstemmed |
Capacidad resolutiva de ChatGPT en un examen de competencias médicas basado en la clínica ampliada |
title_sort |
Capacidad resolutiva de ChatGPT en un examen de competencias médicas basado en la clínica ampliada |
dc.creator.none.fl_str_mv |
Badr, Pablo Julián López, Silvina E. Bugatti, Federico A. Bavio, José Manuel García, Alejandro Javier |
author |
Badr, Pablo Julián |
author_facet |
Badr, Pablo Julián López, Silvina E. Bugatti, Federico A. Bavio, José Manuel García, Alejandro Javier |
author_role |
author |
author2 |
López, Silvina E. Bugatti, Federico A. Bavio, José Manuel García, Alejandro Javier |
author2_role |
author author author author |
dc.subject.none.fl_str_mv |
EDUCACIÓN MÉDICA INTELIGENCIA ARTIFICIAL MODELOS DE LENGUAJE |
topic |
EDUCACIÓN MÉDICA INTELIGENCIA ARTIFICIAL MODELOS DE LENGUAJE |
purl_subject.fl_str_mv |
https://purl.org/becyt/ford/1.2 https://purl.org/becyt/ford/1 |
dc.description.none.fl_txt_mv |
La aplicación de herramientas de inteligencia artificial (IA) ha cambiado los límites de lo posible en cuanto a la educación y evaluación médica. La carrera de medicina de la Universidad Nacional del Sur ha desarrollado un software específico para evaluar la adquisición de competencias profesionales bajo el encuadre de la clínica ampliada, con respuestas en formato ensayo, que pueden ser simuladas por la IA. Método: Se analiza la capacidad del sistema ChatGPT 3.5 de interpretar y resolver problemas clínicos bajo este encuadre, comparando de forma ciega su desempeño con medidas de distribución de frecuencias de la población control. Resultados: ChatGPT 3.5 presentó un desempeño global del 44.84% (Z-score: –1.14), con desempeño menor a la media del grupo control en 6 de 10 problemas clínicos. En las dimensiones de competencia «Subjetivo» y «Problematización» el desempeño fue aceptable (Z-score –0.02 y 0.05, respectivamente) y pobre en las dimensiones «Objetivo» y «Plan de acción» (Z-score: –2.40 y –1.46, respectivamente). Las respuestas de ChatGPT incluyeron el 60% de los ítems que evalúan la pertinencia de decisiones al contexto sociofamiliar (Z-score: –0.70). Conclusiones: ChatGPT presentó capacidad moderada para resolver evaluaciones en el marco de la clínica ampliada, pero sorprende su capacidad de generar respuestas pertinentes al contexto sociofamiliar. Esto sugiere una utilidad potencial para el desarrollo de competencias blandas en la formación médica. El uso masivo de estas herramientas obliga a revisar las competencias médicas que desarrollar y los mecanismos de evaluación pertinentes que garanticen su seguridad, validez e impacto educativo. The application of Artificial Intelligence (AI) tools has changed the limits of what is possible in terms of medical education and evaluation. The Medical School at the National University of the South has developed specific software to evaluate the acquisition of professional skills under the framework of the expanded clinic, with answers in essay format, which can be simulated by AI. Method: This study analyzes the ability of the ChatGPT 3.5 system to interpret and solve clinical problems under this framework, blindly comparing its performance with frequency distribution measures of the control population. Results: ChatGPT 3.5 presented an overall performance of 44.84% (Z-score: –1.14), with performance lower than the average of the control group in 6 of 10 clinical problems. In the competence dimensions “Subjective” and “Problematization” the performance was acceptable (Z-score: –0.02 and 0.05, respectively) and poor in the dimensions “Objective” and “Action plan” (Z-score: –2.40 and –1.46, respectively). ChatGPT responses included 60% of the items that evaluate the relevance of decisions to the socio-familial context (Z-score: –0.70). Conclusions: ChatGPT presented moderate capacity to resolve evaluations in the framework of the expanded clinic, but its capacity to generate responses relevant to the socio-familial context is surprising. This suggests potential utility for the development of soft skills in medical training. The massive use of these tools forces us to review the medical skills to be developed, and the relevant evaluation mechanisms that guarantee their safety, validity and educational impact. Fil: Badr, Pablo Julián. Universidad Nacional del Sur. Departamento de Ciencias de la Salud; Argentina Fil: López, Silvina E.. Universidad Nacional del Sur. Departamento de Ciencias de la Salud; Argentina Fil: Bugatti, Federico A.. Universidad Nacional del Sur. Departamento de Ciencias de la Salud; Argentina Fil: Bavio, José Manuel. Universidad Nacional del Sur. Departamento de Matemática; Argentina. Consejo Nacional de Investigaciones Científicas y Técnicas. Centro Científico Tecnológico Conicet - Bahía Blanca; Argentina Fil: García, Alejandro Javier. Consejo Nacional de Investigaciones Científicas y Técnicas. Centro Científico Tecnológico Conicet - Bahía Blanca. Instituto de Ciencias e Ingeniería de la Computación. Universidad Nacional del Sur. Departamento de Ciencias e Ingeniería de la Computación. Instituto de Ciencias e Ingeniería de la Computación; Argentina |
description |
La aplicación de herramientas de inteligencia artificial (IA) ha cambiado los límites de lo posible en cuanto a la educación y evaluación médica. La carrera de medicina de la Universidad Nacional del Sur ha desarrollado un software específico para evaluar la adquisición de competencias profesionales bajo el encuadre de la clínica ampliada, con respuestas en formato ensayo, que pueden ser simuladas por la IA. Método: Se analiza la capacidad del sistema ChatGPT 3.5 de interpretar y resolver problemas clínicos bajo este encuadre, comparando de forma ciega su desempeño con medidas de distribución de frecuencias de la población control. Resultados: ChatGPT 3.5 presentó un desempeño global del 44.84% (Z-score: –1.14), con desempeño menor a la media del grupo control en 6 de 10 problemas clínicos. En las dimensiones de competencia «Subjetivo» y «Problematización» el desempeño fue aceptable (Z-score –0.02 y 0.05, respectivamente) y pobre en las dimensiones «Objetivo» y «Plan de acción» (Z-score: –2.40 y –1.46, respectivamente). Las respuestas de ChatGPT incluyeron el 60% de los ítems que evalúan la pertinencia de decisiones al contexto sociofamiliar (Z-score: –0.70). Conclusiones: ChatGPT presentó capacidad moderada para resolver evaluaciones en el marco de la clínica ampliada, pero sorprende su capacidad de generar respuestas pertinentes al contexto sociofamiliar. Esto sugiere una utilidad potencial para el desarrollo de competencias blandas en la formación médica. El uso masivo de estas herramientas obliga a revisar las competencias médicas que desarrollar y los mecanismos de evaluación pertinentes que garanticen su seguridad, validez e impacto educativo. |
publishDate |
2024 |
dc.date.none.fl_str_mv |
2024-07-12 |
dc.type.none.fl_str_mv |
info:eu-repo/semantics/article info:eu-repo/semantics/publishedVersion http://purl.org/coar/resource_type/c_6501 info:ar-repo/semantics/articulo |
format |
article |
status_str |
publishedVersion |
dc.identifier.none.fl_str_mv |
http://hdl.handle.net/11336/259254 Badr, Pablo Julián; López, Silvina E.; Bugatti, Federico A.; Bavio, José Manuel; García, Alejandro Javier; Capacidad resolutiva de ChatGPT en un examen de competencias médicas basado en la clínica ampliada; Permanyer; Revista Mexicana de Educación Médica; 11; 1; 12-7-2024; 1-15 0188-2635 CONICET Digital CONICET |
url |
http://hdl.handle.net/11336/259254 |
identifier_str_mv |
Badr, Pablo Julián; López, Silvina E.; Bugatti, Federico A.; Bavio, José Manuel; García, Alejandro Javier; Capacidad resolutiva de ChatGPT en un examen de competencias médicas basado en la clínica ampliada; Permanyer; Revista Mexicana de Educación Médica; 11; 1; 12-7-2024; 1-15 0188-2635 CONICET Digital CONICET |
dc.language.none.fl_str_mv |
eng |
language |
eng |
dc.relation.none.fl_str_mv |
info:eu-repo/semantics/altIdentifier/url/https://www.revistaeducacionmedica.com/frame_esp.php?id=41 info:eu-repo/semantics/altIdentifier/doi/10.24875/RMEM.23000013 |
dc.rights.none.fl_str_mv |
info:eu-repo/semantics/openAccess https://creativecommons.org/licenses/by-nc-nd/2.5/ar/ |
eu_rights_str_mv |
openAccess |
rights_invalid_str_mv |
https://creativecommons.org/licenses/by-nc-nd/2.5/ar/ |
dc.format.none.fl_str_mv |
application/pdf application/pdf |
dc.publisher.none.fl_str_mv |
Permanyer |
publisher.none.fl_str_mv |
Permanyer |
dc.source.none.fl_str_mv |
reponame:CONICET Digital (CONICET) instname:Consejo Nacional de Investigaciones Científicas y Técnicas |
reponame_str |
CONICET Digital (CONICET) |
collection |
CONICET Digital (CONICET) |
instname_str |
Consejo Nacional de Investigaciones Científicas y Técnicas |
repository.name.fl_str_mv |
CONICET Digital (CONICET) - Consejo Nacional de Investigaciones Científicas y Técnicas |
repository.mail.fl_str_mv |
dasensio@conicet.gov.ar; lcarlino@conicet.gov.ar |
_version_ |
1846082679609491456 |
score |
13.221938 |