¿Es capaz GPT-4 de aprobar el MIR 2023? Comparativa entre GPT-4 y ChatGPT-3 en los exámenes MIR 2022 y 2023

Introducción: La inteligencia artificial (IA) está generando nuevas controversias, oportunidades y riesgos en la educación médica. Este estudio evalúa la capacidad de las versiones de inteligencia artificial (IA) ChatGPT-3 y GPT-4 para responder a las preguntas del examen de acceso a la formación m...

Full description

Bibliographic Details
Main Authors: Alvaro Cerame, Juan Juaneda, Pablo Estrella-Porter, Lucía de la Puente, Joaquín Navarro, Eva García, Domingo A. Sánchez, Juan Pablo Carrasco
Format: Article
Language:English
Published: Universidad de Murcia 2024-02-01
Series:Revista Española de Educación Médica
Subjects:
Online Access:https://revistas.um.es/edumed/article/view/604091
_version_ 1797296391881490432
author Alvaro Cerame
Juan Juaneda
Pablo Estrella-Porter
Lucía de la Puente
Joaquín Navarro
Eva García
Domingo A. Sánchez
Juan Pablo Carrasco
author_facet Alvaro Cerame
Juan Juaneda
Pablo Estrella-Porter
Lucía de la Puente
Joaquín Navarro
Eva García
Domingo A. Sánchez
Juan Pablo Carrasco
author_sort Alvaro Cerame
collection DOAJ
description Introducción: La inteligencia artificial (IA) está generando nuevas controversias, oportunidades y riesgos en la educación médica. Este estudio evalúa la capacidad de las versiones de inteligencia artificial (IA) ChatGPT-3 y GPT-4 para responder a las preguntas del examen de acceso a la formación médica especializada MIR en España, comparando el rendimiento entre las convocatorias de 2022 y 2023. Metodología: Se realizó un estudio descriptivo transversal, utilizando GPT-4 para responder a las 210 preguntas del examen MIR 2023, comparando los resultados con los de ChatGPT-3 en el examen MIR 2022. Se utilizó análisis estadístico para determinar el porcentaje de acierto en función de la especialidad, tipo de pregunta y contenido de la misma. Resultados: GPT-4 consiguió 173 aciertos de un total de 210 preguntas, rendimiento superior al de ChatGPT-3, que obtuvo 108 aciertos en el examen de la convocatoria anterior. Se observó una mejora notable en especialidades como Reumatología, Pediatría, Geriatría y Oncología, aunque algunos campos como Neumología y Oftalmología mostraron menos progreso o incluso resultados inferiores. Conclusión: GPT-4 demostró un mejor rendimiento en comparación con ChatGPT-3, indicando avances en el procesamiento y análisis de datos por parte de la IA, así como en su comprensión contextual y aplicación de conocimientos médicos. Sin embargo, se enfatiza la importancia de reconocer las limitaciones de la IA y la necesidad de un enfoque crítico en su uso en educación médica.
first_indexed 2024-03-07T22:04:00Z
format Article
id doaj.art-308143cf2e1f41e7bd13fdff9abc4e04
institution Directory Open Access Journal
issn 2660-8529
language English
last_indexed 2024-03-07T22:04:00Z
publishDate 2024-02-01
publisher Universidad de Murcia
record_format Article
series Revista Española de Educación Médica
spelling doaj.art-308143cf2e1f41e7bd13fdff9abc4e042024-02-23T22:09:53ZengUniversidad de MurciaRevista Española de Educación Médica2660-85292024-02-015210.6018/edumed.604091¿Es capaz GPT-4 de aprobar el MIR 2023? Comparativa entre GPT-4 y ChatGPT-3 en los exámenes MIR 2022 y 2023Alvaro Cerame0https://orcid.org/0000-0003-0469-8461Juan Juaneda1https://orcid.org/0000-0002-6048-2457Pablo Estrella-Porter2https://orcid.org/0000-0003-4137-7691Lucía de la Puente3Joaquín Navarro4https://orcid.org/0000-0002-7983-7289Eva García5Domingo A. Sánchez6https://orcid.org/0000-0003-2073-0679Juan Pablo Carrasco7Plan de Atención Integral al Profesional Sanitario Enfermo, Servicio Madrileño de Salud, MadridServicio de Medicina Preventiva y Salud Pública, Hospital Universitari i Politècnic La Fe, ValenciaServicio de Medicina Preventiva, Hospital Clínico Universitario de Valencia, ValenciaDepartamento de Atención Primaria, Hospital Universitari i Politècnic La Fe, ValenciaServicio de Cuidados Intensivos, Área de Gestión Sanitaria Norte de Huelva, HuelvaServicio de Cardiología, Complejo Hospitalario Universitario Toledo, ToledoServicio de Oncología Médica Hospital Universitario Morales Meseguer, Grupo de Oncología Clínica y Translacional IMIB-Arrixaca, MurciaServicio de Psiquiatría, Hospital Provincial de Castellón, Castellón Introducción: La inteligencia artificial (IA) está generando nuevas controversias, oportunidades y riesgos en la educación médica. Este estudio evalúa la capacidad de las versiones de inteligencia artificial (IA) ChatGPT-3 y GPT-4 para responder a las preguntas del examen de acceso a la formación médica especializada MIR en España, comparando el rendimiento entre las convocatorias de 2022 y 2023. Metodología: Se realizó un estudio descriptivo transversal, utilizando GPT-4 para responder a las 210 preguntas del examen MIR 2023, comparando los resultados con los de ChatGPT-3 en el examen MIR 2022. Se utilizó análisis estadístico para determinar el porcentaje de acierto en función de la especialidad, tipo de pregunta y contenido de la misma. Resultados: GPT-4 consiguió 173 aciertos de un total de 210 preguntas, rendimiento superior al de ChatGPT-3, que obtuvo 108 aciertos en el examen de la convocatoria anterior. Se observó una mejora notable en especialidades como Reumatología, Pediatría, Geriatría y Oncología, aunque algunos campos como Neumología y Oftalmología mostraron menos progreso o incluso resultados inferiores. Conclusión: GPT-4 demostró un mejor rendimiento en comparación con ChatGPT-3, indicando avances en el procesamiento y análisis de datos por parte de la IA, así como en su comprensión contextual y aplicación de conocimientos médicos. Sin embargo, se enfatiza la importancia de reconocer las limitaciones de la IA y la necesidad de un enfoque crítico en su uso en educación médica. https://revistas.um.es/edumed/article/view/604091Inteligencia ArtificialChatGPT-3GPT4Educación MédicaIAMIR
spellingShingle Alvaro Cerame
Juan Juaneda
Pablo Estrella-Porter
Lucía de la Puente
Joaquín Navarro
Eva García
Domingo A. Sánchez
Juan Pablo Carrasco
¿Es capaz GPT-4 de aprobar el MIR 2023? Comparativa entre GPT-4 y ChatGPT-3 en los exámenes MIR 2022 y 2023
Revista Española de Educación Médica
Inteligencia Artificial
ChatGPT-3
GPT4
Educación Médica
IA
MIR
title ¿Es capaz GPT-4 de aprobar el MIR 2023? Comparativa entre GPT-4 y ChatGPT-3 en los exámenes MIR 2022 y 2023
title_full ¿Es capaz GPT-4 de aprobar el MIR 2023? Comparativa entre GPT-4 y ChatGPT-3 en los exámenes MIR 2022 y 2023
title_fullStr ¿Es capaz GPT-4 de aprobar el MIR 2023? Comparativa entre GPT-4 y ChatGPT-3 en los exámenes MIR 2022 y 2023
title_full_unstemmed ¿Es capaz GPT-4 de aprobar el MIR 2023? Comparativa entre GPT-4 y ChatGPT-3 en los exámenes MIR 2022 y 2023
title_short ¿Es capaz GPT-4 de aprobar el MIR 2023? Comparativa entre GPT-4 y ChatGPT-3 en los exámenes MIR 2022 y 2023
title_sort es capaz gpt 4 de aprobar el mir 2023 comparativa entre gpt 4 y chatgpt 3 en los examenes mir 2022 y 2023
topic Inteligencia Artificial
ChatGPT-3
GPT4
Educación Médica
IA
MIR
url https://revistas.um.es/edumed/article/view/604091
work_keys_str_mv AT alvarocerame escapazgpt4deaprobarelmir2023comparativaentregpt4ychatgpt3enlosexamenesmir2022y2023
AT juanjuaneda escapazgpt4deaprobarelmir2023comparativaentregpt4ychatgpt3enlosexamenesmir2022y2023
AT pabloestrellaporter escapazgpt4deaprobarelmir2023comparativaentregpt4ychatgpt3enlosexamenesmir2022y2023
AT luciadelapuente escapazgpt4deaprobarelmir2023comparativaentregpt4ychatgpt3enlosexamenesmir2022y2023
AT joaquinnavarro escapazgpt4deaprobarelmir2023comparativaentregpt4ychatgpt3enlosexamenesmir2022y2023
AT evagarcia escapazgpt4deaprobarelmir2023comparativaentregpt4ychatgpt3enlosexamenesmir2022y2023
AT domingoasanchez escapazgpt4deaprobarelmir2023comparativaentregpt4ychatgpt3enlosexamenesmir2022y2023
AT juanpablocarrasco escapazgpt4deaprobarelmir2023comparativaentregpt4ychatgpt3enlosexamenesmir2022y2023