RENDIMIENTO DE LOS MODELOS DE INTELIGENCIA ARTIFICIAL GENERATIVA EN LAS PREGUNTAS DE LOS EXÁMENES PÚBLICOS DE ODONTOLOGÍA: UN ESTUDIO COMPARATIVO DE LA TASA DE PRECISIÓN EN LA SALUD BUCAL COLECTIVA

Autores/as

DOI:

https://doi.org/10.70187/recisatec.v6i1.414

Palabras clave:

Inteligencia Artificial Generativa, Salud Bucal, Salud Pública

Resumen

El avance de la inteligencia artificial generativa ha despertado interés en odontología, pero son escasos los estudios sobre su rendimiento en contextos específicos, como la resolución de preguntas de exámenes de servicio público en salud bucal colectiva. Este estudio evaluó y comparó las tasas de precisión de tres modelos gratuitos (ChatGPT, Gemini y DeepSeek) en 100 preguntas de concursos para odontólogos realizados entre 2016 y 2026, abarcando epidemiología oral, políticas del SUS, vigilancia, determinantes sociales y gestión de servicios. Cada pregunta se aplicó individualmente con un consigna estandarizada, sin historial previo, calculándose la tasa de acierto donde cada respuesta correcta equivalía a 1 punto porcentual. Los resultados mostraron que ChatGPT obtuvo el mejor rendimiento (75 aciertos), seguido por Gemini (47) y DeepSeek (23). Todas las diferencias fueron estadísticamente significativas (p < 0,001), superando ChatGPT a Gemini en 28 puntos porcentuales y a DeepSeek en 52 puntos. Se concluye que, entre los modelos gratuitos evaluados, solo ChatGPT alcanzaría la puntuación mínima para aprobar en la mayoría de los exámenes públicos para cirujanos dentistas en salud bucal colectiva, mientras que Gemini y DeepSeek, en las versiones analizadas, no demostraron ser herramientas fiables para este fin.

Descargas

Los datos de descarga aún no están disponibles.

Biografía del autor/a

  • Tânia Adas Saliba, Universidade Estadual Paulista "Júlio de Mesquita Filho". (UNESP). Araçatuba, São Paulo, Brasil.

    Doutora em Odontologia Legal e Deontologia. Universidade  Estadual  Paulista  "Júlio  de  Mesquita  Filho". (UNESP). Araçatuba, São Paulo, Brasil. 

  • Eder Akydawan de Paiva Gomes Fernandes, Universidade Estadual Paulista "Júlio de Mesquita Filho". (UNESP). Araçatuba, São Paulo, Brasil.

    Doutorando em Saúde Coletiva em Odontologia. Universidade Estadual Paulista "Júlio de Mesquita Filho" - UNESP. Araçatuba, São Paulo, Brasil. 

  • Cristhiane Martins Schmidt, Universidade Estadual Paulista "Júlio de Mesquita Filho". (UNESP). Araçatuba, São Paulo, Brasil.

    Doutora em Biologia Buco-Dental. Universidade  Estadual  Paulista  "Júlio  de  Mesquita  Filho". (UNESP). Araçatuba, São Paulo, Brasil. 

Referencias

ALANSARI, Aisha; LUQMAN, Hamzah. Large language models hallucination: A comprehensive survey. Computer Science Review, v. 61, p. 100970, 1 ago. 2026.

ARAÚJO, Samara Lavínnya Serrano de Souza et al. Impactos do ChatGPT no ensino da Odontologia: Uma revisão de escopo. Arquivos em Odontologia, v. 61, p. 213–228, 20 dez. 2025.

BAMASHMOUS, Mohamed. The Role of Artificial Intelligence in Transforming Dental Public Health: Current Applications, Ethical Considerations, and Future Directions. 2025.

BHUYAN, Soumitra S. et al. Generative Artificial Intelligence Use in Healthcare: Opportunities for Clinical Excellence and Administrative Efficiency. Journal of Medical Systems, v. 49, n. 1, p. 10, 2025.

BICALHO, Gabriela Magalhães; OLIVEIRA, Arthur Henrique de; GUIDA, José Paulo de Siqueira. Desempenho da inteligência artificial em questões de processo seletivo de residência médica. Femina, v. 52, n. 6, p. 370–373, 14 maio 2025.

FIGUEIREDO, Maria Clara Pimenta de et al. Performance of the Artificial Intelligence large language models ChatGPT 3.5, Gemini (Google Bard), ChatGPT 4.0, and Gemini 2.5 flash in surgical subspecialty questions of Brazilian medical residency exams. Performance of the Artificial Intelligence large language models ChatGPT 3.5, Gemini (Google Bard), ChatGPT 4.0, and Gemini 2.5 flash in surgical subspecialty questions of Brazilian medical residency exams, v. 24, 2026.

MARTINS, Diogo Gonçalves dos Santos et al. Análise comparativa de desempenho entre ChatGPT, Scholar GPT e DeepSeek em provas teóricas do Conselho Brasileiro de Oftalmologia 2022. Rev. bras.oftalmol., v. 85, 11 fev. 2026.

NARVAI, Paulo Capel. Saúde bucal coletiva: caminhos da odontologia sanitária à bucalidade. Revista de Saúde Pública, v. 40, p. 141–147, 2006.

PARK, Ye-Jean et al. Assessing the research landscape and clinical utility of large language models: a scoping review. BMC Medical Informatics and Decision Making, v. 24, n. 1, p. 72, 12 mar. 2024.

SAVEGNAGO, Gleica Dal’ Ongaro et al. Inteligência artificial na odontologia: uma revisão narrativa de literatura. RFO UPF, 2024.

WANG, Shanshan et al. Generative Artificial Intelligence in Medical Imaging: Foundations, Progress, and Clinical Translation. Research, v. 8, p. 1029, 2025.

YALAMANCHILI, Amulya et al. Quality of Large Language Model Responses to Radiation Oncology Patient Care Questions. JAMA Network Open, v. 7, n. 4, p. e244630, 2 abr. 2024.

Publicado

2026-05-06

Cómo citar

Tânia Adas Saliba, Eder Akydawan de Paiva Gomes Fernandes, & Cristhiane Martins Schmidt. (2026). RENDIMIENTO DE LOS MODELOS DE INTELIGENCIA ARTIFICIAL GENERATIVA EN LAS PREGUNTAS DE LOS EXÁMENES PÚBLICOS DE ODONTOLOGÍA: UN ESTUDIO COMPARATIVO DE LA TASA DE PRECISIÓN EN LA SALUD BUCAL COLECTIVA. REVISTA CIENTÍFICA RECISATEC - ISSN 2763-8405, 6(1), e61414. https://doi.org/10.70187/recisatec.v6i1.414

Artículos similares

1-10 de 186

También puede Iniciar una búsqueda de similitud avanzada para este artículo.