¿Es capaz GPT-4 de aprobar el MIR 2023? Comparativa entre GPT-4 y ChatGPT-3 en los exámenes MIR 2022 y 2023
Introducción: La inteligencia artificial (IA) está generando nuevas controversias, oportunidades y riesgos en la educación médica. Este estudio evalúa la capacidad de las versiones de inteligencia artificial (IA) ChatGPT-3 y GPT-4 para responder a las preguntas del examen de acceso a la formación m...
Main Authors: | , , , , , , , |
---|---|
Format: | Article |
Language: | English |
Published: |
Universidad de Murcia
2024-02-01
|
Series: | Revista Española de Educación Médica |
Subjects: | |
Online Access: | https://revistas.um.es/edumed/article/view/604091 |
_version_ | 1797296391881490432 |
---|---|
author | Alvaro Cerame Juan Juaneda Pablo Estrella-Porter Lucía de la Puente Joaquín Navarro Eva García Domingo A. Sánchez Juan Pablo Carrasco |
author_facet | Alvaro Cerame Juan Juaneda Pablo Estrella-Porter Lucía de la Puente Joaquín Navarro Eva García Domingo A. Sánchez Juan Pablo Carrasco |
author_sort | Alvaro Cerame |
collection | DOAJ |
description |
Introducción: La inteligencia artificial (IA) está generando nuevas controversias, oportunidades y riesgos en la educación médica. Este estudio evalúa la capacidad de las versiones de inteligencia artificial (IA) ChatGPT-3 y GPT-4 para responder a las preguntas del examen de acceso a la formación médica especializada MIR en España, comparando el rendimiento entre las convocatorias de 2022 y 2023.
Metodología: Se realizó un estudio descriptivo transversal, utilizando GPT-4 para responder a las 210 preguntas del examen MIR 2023, comparando los resultados con los de ChatGPT-3 en el examen MIR 2022. Se utilizó análisis estadístico para determinar el porcentaje de acierto en función de la especialidad, tipo de pregunta y contenido de la misma.
Resultados: GPT-4 consiguió 173 aciertos de un total de 210 preguntas, rendimiento superior al de ChatGPT-3, que obtuvo 108 aciertos en el examen de la convocatoria anterior. Se observó una mejora notable en especialidades como Reumatología, Pediatría, Geriatría y Oncología, aunque algunos campos como Neumología y Oftalmología mostraron menos progreso o incluso resultados inferiores.
Conclusión: GPT-4 demostró un mejor rendimiento en comparación con ChatGPT-3, indicando avances en el procesamiento y análisis de datos por parte de la IA, así como en su comprensión contextual y aplicación de conocimientos médicos. Sin embargo, se enfatiza la importancia de reconocer las limitaciones de la IA y la necesidad de un enfoque crítico en su uso en educación médica.
|
first_indexed | 2024-03-07T22:04:00Z |
format | Article |
id | doaj.art-308143cf2e1f41e7bd13fdff9abc4e04 |
institution | Directory Open Access Journal |
issn | 2660-8529 |
language | English |
last_indexed | 2024-03-07T22:04:00Z |
publishDate | 2024-02-01 |
publisher | Universidad de Murcia |
record_format | Article |
series | Revista Española de Educación Médica |
spelling | doaj.art-308143cf2e1f41e7bd13fdff9abc4e042024-02-23T22:09:53ZengUniversidad de MurciaRevista Española de Educación Médica2660-85292024-02-015210.6018/edumed.604091¿Es capaz GPT-4 de aprobar el MIR 2023? Comparativa entre GPT-4 y ChatGPT-3 en los exámenes MIR 2022 y 2023Alvaro Cerame0https://orcid.org/0000-0003-0469-8461Juan Juaneda1https://orcid.org/0000-0002-6048-2457Pablo Estrella-Porter2https://orcid.org/0000-0003-4137-7691Lucía de la Puente3Joaquín Navarro4https://orcid.org/0000-0002-7983-7289Eva García5Domingo A. Sánchez6https://orcid.org/0000-0003-2073-0679Juan Pablo Carrasco7Plan de Atención Integral al Profesional Sanitario Enfermo, Servicio Madrileño de Salud, MadridServicio de Medicina Preventiva y Salud Pública, Hospital Universitari i Politècnic La Fe, ValenciaServicio de Medicina Preventiva, Hospital Clínico Universitario de Valencia, ValenciaDepartamento de Atención Primaria, Hospital Universitari i Politècnic La Fe, ValenciaServicio de Cuidados Intensivos, Área de Gestión Sanitaria Norte de Huelva, HuelvaServicio de Cardiología, Complejo Hospitalario Universitario Toledo, ToledoServicio de Oncología Médica Hospital Universitario Morales Meseguer, Grupo de Oncología Clínica y Translacional IMIB-Arrixaca, MurciaServicio de Psiquiatría, Hospital Provincial de Castellón, Castellón Introducción: La inteligencia artificial (IA) está generando nuevas controversias, oportunidades y riesgos en la educación médica. Este estudio evalúa la capacidad de las versiones de inteligencia artificial (IA) ChatGPT-3 y GPT-4 para responder a las preguntas del examen de acceso a la formación médica especializada MIR en España, comparando el rendimiento entre las convocatorias de 2022 y 2023. Metodología: Se realizó un estudio descriptivo transversal, utilizando GPT-4 para responder a las 210 preguntas del examen MIR 2023, comparando los resultados con los de ChatGPT-3 en el examen MIR 2022. Se utilizó análisis estadístico para determinar el porcentaje de acierto en función de la especialidad, tipo de pregunta y contenido de la misma. Resultados: GPT-4 consiguió 173 aciertos de un total de 210 preguntas, rendimiento superior al de ChatGPT-3, que obtuvo 108 aciertos en el examen de la convocatoria anterior. Se observó una mejora notable en especialidades como Reumatología, Pediatría, Geriatría y Oncología, aunque algunos campos como Neumología y Oftalmología mostraron menos progreso o incluso resultados inferiores. Conclusión: GPT-4 demostró un mejor rendimiento en comparación con ChatGPT-3, indicando avances en el procesamiento y análisis de datos por parte de la IA, así como en su comprensión contextual y aplicación de conocimientos médicos. Sin embargo, se enfatiza la importancia de reconocer las limitaciones de la IA y la necesidad de un enfoque crítico en su uso en educación médica. https://revistas.um.es/edumed/article/view/604091Inteligencia ArtificialChatGPT-3GPT4Educación MédicaIAMIR |
spellingShingle | Alvaro Cerame Juan Juaneda Pablo Estrella-Porter Lucía de la Puente Joaquín Navarro Eva García Domingo A. Sánchez Juan Pablo Carrasco ¿Es capaz GPT-4 de aprobar el MIR 2023? Comparativa entre GPT-4 y ChatGPT-3 en los exámenes MIR 2022 y 2023 Revista Española de Educación Médica Inteligencia Artificial ChatGPT-3 GPT4 Educación Médica IA MIR |
title | ¿Es capaz GPT-4 de aprobar el MIR 2023? Comparativa entre GPT-4 y ChatGPT-3 en los exámenes MIR 2022 y 2023 |
title_full | ¿Es capaz GPT-4 de aprobar el MIR 2023? Comparativa entre GPT-4 y ChatGPT-3 en los exámenes MIR 2022 y 2023 |
title_fullStr | ¿Es capaz GPT-4 de aprobar el MIR 2023? Comparativa entre GPT-4 y ChatGPT-3 en los exámenes MIR 2022 y 2023 |
title_full_unstemmed | ¿Es capaz GPT-4 de aprobar el MIR 2023? Comparativa entre GPT-4 y ChatGPT-3 en los exámenes MIR 2022 y 2023 |
title_short | ¿Es capaz GPT-4 de aprobar el MIR 2023? Comparativa entre GPT-4 y ChatGPT-3 en los exámenes MIR 2022 y 2023 |
title_sort | es capaz gpt 4 de aprobar el mir 2023 comparativa entre gpt 4 y chatgpt 3 en los examenes mir 2022 y 2023 |
topic | Inteligencia Artificial ChatGPT-3 GPT4 Educación Médica IA MIR |
url | https://revistas.um.es/edumed/article/view/604091 |
work_keys_str_mv | AT alvarocerame escapazgpt4deaprobarelmir2023comparativaentregpt4ychatgpt3enlosexamenesmir2022y2023 AT juanjuaneda escapazgpt4deaprobarelmir2023comparativaentregpt4ychatgpt3enlosexamenesmir2022y2023 AT pabloestrellaporter escapazgpt4deaprobarelmir2023comparativaentregpt4ychatgpt3enlosexamenesmir2022y2023 AT luciadelapuente escapazgpt4deaprobarelmir2023comparativaentregpt4ychatgpt3enlosexamenesmir2022y2023 AT joaquinnavarro escapazgpt4deaprobarelmir2023comparativaentregpt4ychatgpt3enlosexamenesmir2022y2023 AT evagarcia escapazgpt4deaprobarelmir2023comparativaentregpt4ychatgpt3enlosexamenesmir2022y2023 AT domingoasanchez escapazgpt4deaprobarelmir2023comparativaentregpt4ychatgpt3enlosexamenesmir2022y2023 AT juanpablocarrasco escapazgpt4deaprobarelmir2023comparativaentregpt4ychatgpt3enlosexamenesmir2022y2023 |