ChatGPT Diş Hekimliğinde Uzmanlık Sınavı’nda Ağız Diş ve Çene Radyolojisi alanındaki soruları cevaplamakta ne kadar başarılı?


Koyuncu E., Akkoca F., İlhan G., Özdede M.

2. ULUSLARARASI GENÇ ORAD SEMPOZYUMU, Adana, Türkiye, 5 - 09 Mart 2024, ss.15

  • Yayın Türü: Bildiri / Özet Bildiri
  • Basıldığı Şehir: Adana
  • Basıldığı Ülke: Türkiye
  • Sayfa Sayıları: ss.15
  • Dokuz Eylül Üniversitesi Adresli: Evet

Özet

ChatGPT Diş Hekimliğinde Uzmanlık Sınavı’nda Ağız Diş ve Çene Radyolojisi alanındaki soruları cevaplamakta ne kadar başarılı?

 

Emre Koyuncu, Fatma Akkoca, Günnur İlhan, Melih Özdede

 

Dokuz Eylül Üniversitesi Diş Hekimliği Fakültesi, Dokuz Eylül Üniversitesi Diş Hekimliği

Fakültesi, Ağız, Diş ve Çene Radyolojisi, İzmir

 

Amaç: Diş hekimliğinde uzmanlık sınavı (DUS), 2012 yılından beri ÖSYM (Ölçme, Seçme, Yerleştirme Merkezi) tarafından her yıl düzenli olarak yapılan, soruları beş yıllık diş hekimliği öğretim müfredatından oluşan bir sınavdır. Çalışmamızın amacı DUS’ta Ağız Diş ve Çene Radyolojisi sorularında, bir yapay zekâ platformu olan ChatGPT’nin (Chat Generative Pre-trained Transformer) başarı oranının belirlenmesidir. 

 

Yöntem: 2012 ve 2021 yılları arasında yapılan 13 sınavdaki (her sınavda 10 adet) toplam 130 Ağız Diş ve Çene Radyolojisi branşına ait sorular ChatGPT-4’e sorulmuştur. Sınavlardaki doğru-yanlış sayıları Excel dosyasına kaydedilerek ChatGPT-4’ün sınav sorularındaki başarısı değerlendirilmiştir.

 

Bulgular: Toplam 130 soruda 103 doğru yanıt ile başarı oranı %79.2 bulunmuştur. En düşük başarı oranı %60 ile 2014 sonbahar sınavında bulunmuştur. Farklı zamanlarda sorulan sorulara verilen cevaplar tutarlıdır. 

 

Sonuç: Son dönemde farklı alanlarda kullanımı yaygınlaşan yapay zekâ sistemlerinin başarısı artmakta olup diş hekimliği eğitimi alanında da faydalı bir şekilde kullanılabilir. ChatGPT gibi yapay zekâ araçlarının gelişmesi ile daha başarılı sonuçlar elde edilecektir. 

 

Anahtar kelimler: Ağız diş ve çene radyolojisi, ChatGPT, Uzmanlık sınavı, Yapay zekâ

How successful is ChatGPT in answering questions in the field of Oral and Maxillofacial Radiology in the Dental Specialization Exam?

 

Emre Koyuncu, Fatma Akkoca, Günnur İlhan, Melih Özdede

 

Dokuz Eylül University Faculty of Dentistry, Department of Dentomaxillofacial Radiology, Izmir, Türkiye

 

Purpose: The Dental Specialization Exam (DUS), organized annually since 2012 by the Measurement, Selection, and Placement Center (ÖSYM), is based on the five-year dental education curriculum. The purpose of our study is to determine the success rate of ChatGPT (Chat Generative Pre-trained Transformer), an artificial intelligence platform, in answering Oral and Maxillofacial Radiology questions in the DUS.

 

Materials and Method: A total of 130 questions from the Oral and Maxillofacial Radiology section of 13 exams conducted between 2012 and 2021 (10 questions per exam) were asked to ChatGPT-4. The correct and incorrect answers were recorded in an Excel file to evaluate the performance of ChatGPT-4 in these exam questions.

 

Result: Out of the 130 questions, ChatGPT-4 correctly answered 103, resulting in a success rate of 79.2%. The lowest success rate was 60% in the autumn 2014 exam. The responses to questions asked at different times are consistent.

 

Conclusion: The success of artificial intelligence systems is increasing in various fields, and they can be beneficially used in dental education. With the development of artificial intelligence tools like ChatGPT, more successful outcomes can be achieved.

 

Keywords: Oral and maxillofacial radiology, ChatGPT, Specialization exam, Artificial intelligence