Yapay Zeka Dünyayı Nasıl Tanıyor?


Engin E. D., Otlu B.

XLI. Türk Mikrobiyoloji Kongresi ve 12. Ulusal Moleküler ve Tanısal Mikrobiyoloji Kongresi, Antalya, Türkiye, 13 - 17 Kasım 2024, ss.114-117, (Özet Bildiri)

  • Yayın Türü: Bildiri / Özet Bildiri
  • Basıldığı Şehir: Antalya
  • Basıldığı Ülke: Türkiye
  • Sayfa Sayıları: ss.114-117
  • Dokuz Eylül Üniversitesi Adresli: Evet

Özet

Yapay Zeka Dünyayı Nasıl Tanıyor: Matematiksel Temeller

Evren Doruk Engin, MD, PhD

Dokuz Eylül Üniversitesi Tıp Fakültesi, Tıbbi Mikrobiyoloji Anabilim Dalı

edoruk@gmail.com, sisbiyo.net

İkinci Dünya Savaşı’nı izleyen yıllar, yapay zeka ve makina öğrenmesi kavramlarının ortaya atıldığı, bilgisayarların insan düşünüşünü taklit edip edemeyeceği sorularının sorulduğu dönemdir (Turing 1950). “Antik” yapak zeka dönemi olarak adlandırabileceğimiz bu döneme ait ilk deneysel çalışmaların önündeki en önemli engel, bilgisayar donanımlarının henüz çok az gelişmiş olmasıydı. Son derece kısıtlı işlem gücü ve veri depolama kapasitesine sahip donanımlar için ödenmesi gereken astronomik sahip olma ve işletme maliyetleri, yapay zeka çalışmalarının teorik alandan uygulamaya geçişini zorlaştırmaktaydı. Otomatik uslamlama yapmak üzere geliştirilen “Logic Theorist” ilk yapay zeka programı olarak kabul edilmektedir (Newell and Simon 1956). Birbiri ile etkileşebilen basit program parçalarının (ya da programlanabilir ünitelerin), insan zekası da dahil karmaşık davranışlar ortaya koyabileceği fikrinden yola çıkarak Russell ve Whitehead’in Principia Mathematica’sında yer alan matematik teoremlerini kanıtlayabilen bir yazılım olarak geliştirilmiştir (Whitehead and Russell 1910). Makine öğrenmesi kavramı ise, Arthur Samuel’in dama oynamayı öğrenen programı ile ortaya çıkmıştır (Samuel 2000). 


Transistörün bilgisayar donanımlarının tenel bileşeni haline gelmesi ve birim yüzeye sığdırılabilen transistör sayısının düzenli artış göstermesi, bilgisayarların veri depolama ve işleme kapasitesini artırırken, maliyetlerinin de dramatik olarak düşmesine neden olmuştur (Moore 1965). 

Bilgisayar donanımlarındaki işlevsellik artışı ve internetin de etkisi ile klasik makine öğrenmesi çağı başlamıştır. Büyük veri setleri istatistiksel modeler kullanılarak analiz edilmesi ile patern bulunması ve tahminler yapılmasına yönelik algoritmalar geliştirilmiştir. Doğrusal ya da lojistik regresyon, karar ağaçları, rassal ormanlar, kümeleme, destek vektör makineleri gibi modellerin kullanıldığı algoritmalar insan tarafından takip edilebildiğinden “açıklanabilir yapay zeka” olarak da adlandırılmaktadır (Longo et al. 2024). 


Yüksek canlıların kognitif yeteneklerini anlamak ve taklit edebilmenin yolunun sinir hücresi ağlarının biyofiziksel özelliklerini modellemek ve simüle etmekten geçtiğini savunan bilim insanları perseptron kavramını ortaya koymuştur (McCulloch and Pitts 1943; Block 1962). Perseptronda, sinir hücresine benzer şekilde n sayıda dendrit, ağırlıklandırılmış girişleri oluşturmaktadır. Girişlerin toplamı bir fonksiyona aktarılarak çıktı oluşturulmaktadır. Bu şekli ile perseptron lineer bir ikili sınıflayıcı olarak işlev görmektedir. Tek bir perseptron herhangi bir yarı uzayı sınıflamak üzere eğitilebilirken, bir perseptron ağı ile herhangi bir fonksiyonu yaklaştımak mümkündür. Böylece bir “üniversal fonksiyon yaklaştırıcı” elde edilmektedir. 


İnsan beynindeki biyolojik sinir ağlarının yapısını taklit etmek üzere tasarlanmış olan yapay sinir ağları sayesinde yapay zeka ve makine öğrenmesinde derin öğrenme çağı başlamıştır. Kognitif fizyoloji alanında yapılan çalışmalara paralel olarak öğrenme için çeşitli matematiksel modeller ortaya atılmıştır (Hebb 2002). Yinelemeli yapay sinir ağları (Recurrent Neural Networks – RNNs) kullanılarak çağrışımlı – içerik ile adreslenebilen hafıza modelinin John Hopfield tarafından tarif edilmesi, makine öğrenmesi alanında önemli mihenk taşlarından birini oluşturmaktadır (Hopfield 1982). Tam bağlantılı ağ yapısındaki Hopfield ağları, öğrenme fazında kenarlarında depoladıkları ağırlıklar sayesinde, kısmi ya da gürültü ile kirlenmiş sinyalden yola çıkarak depoladıkları “hatırayı” yani köşe konfigürasyonunu geri getirebilmektedir. Hopfield ağları, makine öğrenmesinde deterministik paternleri öğrenebilen çağrışımlı hafıza için olasılık ve enerji temelli ilk modeldir. 


Bununla birlikte, gerçek hayatta karşımıza çıkan durumların çoğunu deterministik hesaplamalar sonucu ulaşacağımız katı gerçekler olarak öğrenebilmemiz mümkün değildir. Bunun yerine, öğrenme süreci, altta yatan olasılıksal kural ve örüntüleri de algılayabilmelidir. Bu kısıtlılıkları aşabilmek için Hopfield sinir ağlarına stokastik özellik kazandıran Boltzman makinaları tarif edilmiştir (Ackley, Hinton, and Sejnowski 1985). Karşılaştırmalı öğrenme tekniği sayesinde, Boltzman makinaları veri setindeki spesifik örnekleri “ezberlemek” yerine, altta yatan olasılık dağılımını öğrenmek üzere tasarlanmıştır. Geri yayılım (“back propagation”) algoritmasının etkinliğinin gösterilmesi ile çok katmanlı yapay sinir ağlarının gerçek hayat uygulamalarında kullanılabilirliği sağlanmıştır (Rumelhart, Hinton, and Williams 1986). 


Kaynaklar:


Ackley, David H., Geoffrey E. Hinton, and Terrence J. Sejnowski. 1985. “A Learning Algorithm for Boltzmann Machines.” Cognitive Science 9 (1): 147–69. https://doi.org/10.1207/s15516709cog0901_7.

Block, H. D. 1962. “The Perceptron: A Model for Brain Functioning. I.” Reviews of Modern Physics 34 (1): 123–35. https://doi.org/10.1103/RevModPhys.34.123.

Hebb, D. O. 2002. The Organization of Behavior: A Neuropsychological Theory. 1st edition. New York: Psychology Press.

Hopfield, J. J. 1982. “Neural Networks and Physical Systems with Emergent Collective Computational Abilities.” Proceedings of the National Academy of Sciences of the United States of America 79 (8): 2554. https://doi.org/10.1073/pnas.79.8.2554.

Longo, Luca, Mario Brcic, Federico Cabitza, Jaesik Choi, Roberto Confalonieri, Javier Del Ser, Riccardo Guidotti, et al. 2024. “Explainable Artificial Intelligence (XAI) 2.0: A Manifesto of Open Challenges and Interdisciplinary Research Directions.” Information Fusion 106 (June):102301. https://doi.org/10.1016/j.inffus.2024.102301.

McCulloch, Warren S, and Walter Pitts. 1943. “A Logical Calculus of the Ideas Immanent in Nervous Activity.” BULLETIN OF MATHEMATICAL BIOPHYSICS 5:115–33.

Moore, Gordon E. 1965. “Cramming More Components onto Integrated Circuits” 38 (8).

Newell, Allen, and Herbert A Simon. 1956. “The Logic Theory Machine: A Complex Information Processing System.” The RANDR Corporation.

Rumelhart, David E., Geoffrey E. Hinton, and Ronald J. Williams. 1986. “Learning Representations by Back-Propagating Errors.” Nature 323 (6088): 533–36. https://doi.org/10.1038/323533a0.

Samuel, A. L. 2000. “Some Studies in Machine Learning Using the Game of Checkers.” IBM Journal of Research and Development 44 (1.2): 206–26. https://doi.org/10.1147/rd.441.0206.

Turing, Alan. 1950. “Computing Machinery and Intelligence.” Mind 59 (October): 433–60. https://doi.org/10.1093/mind/lix.236.433.

Whitehead, Alfred North, and Bertrand Russell. 1910. Principia Mathmatica. Cambridge at the University Press.