Yapay Zekada Öğrenme Kuralları
Yapay Zeka kavramı önceki yazıda da bahsedildiği gibi insan zekasından esinlenerek ortaya çıkan matematiksel bir tekniğe dayanmaktadır. Bu teknik içerisinde çeşitli öğrenme kuralları ve modelleri mevcuttur. Bugün ki yazının konusu da, sinir ağlarının öğrenmesi sırasında kullanılan öğrenme kurallarıdır.
Yapay Sinir Ağı (YSA), kendisine gösterilen verilerden öğrenen, yeni bilgiler oluşturabilen, keşfedebilen bir Yapay Zeka sistemidir. Öğrenme süreci Çok Katmanlı Algılayıcılar konusunda anlatıldığı gibi ağırlıklar ve girdiler sayesinde gerçekleşmektedir. Başlangıçta rastgele atanan ağırlıklar sayesinde ağın eğitimi gerçekleştirilir. Ağın eğitim ve test başarısını arttırmak için başlangıç ağırlıkları belirli kurallara göre güncellenmesi gerekmektedir. Bu ağırlıkların güncellenmesi “öğrenme kuralları” sayesinde gerçekleşmektedir.
Öğrenme kuralı YSA’nın performansını iyileştirerek ağın daha iyi sonuç üretmesini sağlayan matematiksel bir tekniktir. Bir ağın ağırlık değerlerinin ve bias değerlerinin güncellenmesini sağlamaktadır. Sinir ağında çeşitli öğrenme kuralları mevcuttur. Her bir öğrenme kuralının amacı ağı iyileştirmek olsa da farklılıkları ve birbirinden üstünlükleri bulunmaktadır. Öğrenme kurallarının bazıları çevrimiçi bazıları ise çevrimdışı çalışmaktadır.
ÇEVRİMİÇİ ÖĞRENME KURALLARI
Çevrimiçi öğrenme kuralları gerçek zamanlı çalışmaktadır. Bir tarafta fonksiyonları işlerken diğer tarafta öğrenme işlemine devam etmektedir.
Kohonen Öğrenme Kuralı: Kohonen tarafından 1980'lerde denetimsiz öğrenme ağları için geliştirilmiş öğrenme kuralıdır. Ağın elemanları ağırlıklarını güncelleyebilmek için birbirleri ile yarış halindedir. En büyük çıktıyı üreten hücre başarılı sayılarak ağırlığını güncellemeye hak kazanır. w ağırlık, x girdi, α öğrenme katsayısını temsil etmektedir.
Uyarlanabilir Rezonans Teorisi 2 (Adaptive Resonance Theory 2- ART2) Ağının Öğrenme Kuralı: Grossberg ve Carpenter tarafından 1987'de tasarlanmış rekabete dayanan denetimsiz öğrenme ağlarında kullanılan öğrenme kuralıdır. Bu yapıda iki filtre bulunmaktadır. İlk filtre sayesinde girdi örneklerinin belirlenmiş kategorilerin hangisine ait olacakları belirlenirken, ikinci filtre sayesinde öğrenmenin hızını arttırılmaktadır.
ÇEVRİMDIŞI ÖĞRENME KURALLARI
Çevrimdışı öğrenme kuralları kullanılmaya başlanmadan önce örnekler ile eğitilerek eğitimini tamamlar. Fonksiyonların çalışması sırasında öğrenme işlemi gerçekleştirmemektedir.
Hebian Öğrenme Kuralı: 1949'da Hebb tarafından geliştirilen ilk öğrenme kuralıdır. Denetimsiz sinir ağları için geliştirilen bu kural iki nöron arasındaki bağlantının pozitif veya negatif yönde güçlendirilmesine karar vererek ağırlıkların iyileştirilmesini sağlamaktadır.
Bu sistem “birlikte ateşlenen nöronlar birbirine bağlanır” ifadesi ile kısaca özetlenebilir. Başka bir deyişle iki sinir hücresinin birlikte ateşlenmeleri ile ayrı ayrı ateşlenmeleri arasında farklılıklar bulunmaktadır. Eğer iki sinir hücresi aynı anda (birlikte pozitif veya negatifse) ateşlenirse sisteme etkileri büyük olurken ayrı ayrı (birlikte pozitif veya negatif değilse) ateşlenirse sisteme etkileri daha düşük olmaktadır. Burada x düğüm girişlerini w ise ağırlığı temsil etmektedir.
Her iki düğümün girdileri pozitif veya negatif olduğunda, düğümler arasında güçlü bir pozitif ağırlık vardır. Bir düğümün girişi diğerinden farklı ise düğümler arasında güçlü bir negatif ağırlık vardır.
Çalışma adımları:
1- Başlangıçta tüm ağırlıklar sıfıra ayarlanır.
2- Modelin eğitimi gerçekleştirilir ve ilk çıktı alınır.
3- Çıktı için aktivasyon fonksiyonu ayarlanır.
4- Ağırlıkların (w) ve bias (b) değerlerinin güncellenmesi için;
5- 2. ve 4. adım her giriş ve çıkış için tekrarlanır.
Perceptron Öğrenme Kuralı: 1957 yılında Rosenblatt tarafından geliştirilen denetimli öğrenme ağları için geliştirilmiş bir öğrenme kuralıdır. Tek katmanlı ileri beslemeli ağlar üzerinde çalışılır ve denetimli öğrenmeye dayandığı için eğitim sırasında ağa verilen örneklerin çıktıları bilinmektedir. Eğer ağın ürettiği çıktı y değeri ile beklenen çıktı t değeri aynı olursa ağın ağırlıklarında bir değişiklik olmamaktadır. Fakat üretilen çıktı değeri ile beklenen çıktı değeri farklı ise girdilerin ağırlıkları öğrenme kuralı ve giriş değerlerinin çarpımından çıkartılarak yeni ağırlık değeri hesaplanmaktadır.
Çalışma adımları:
1- Başlangıçta tüm ağırlıklar ve bias değerleri sıfıra ayarlanır.
2- Öğrenme oranı α=1
3- Ağın çıktısını belirlemek için her bir ağırlık(w) giriş değerleri (x) ile çarpılarak toplanır ardından b bias değeri ile toplanır ve sonuç elde edilir.
4- Sonuç aktivasyon fonksiyonundan geçirilerek çıkış değeri hesaplanır. (T eşik değeri, y ağın çıktısı)
5- Üretilen y çıktı değeri ile beklenen t değeri arasındaki farka bakılır;
Delta Öğrenme Kuralı: 1960'ların başında Widrow & Hoff tarafından geliştirilmiş bir öğrenme kuralıdır. En yaygın kullanılan denetimli öğrenme kuralıdır. Ağın ürettiği çıktı değeri (y) ile beklenen hedef çıktı (t) arasındaki farka bakarak ağırlıkların güncellemesi gerçekleştirilmektedir. Üretilen çıktı değeri ile beklenen hedef değerin birbirine yakın olması gerekmektedir. Aksi taktirde ağırlıkların güncellenmesi gerekir. Delta öğrenme kuralı çıkış değerine ait hatanın karelerinin ortalamasını minimize etmeyi amaçlamaktadır.
Bu formül ile hata değeri ölçülerek sonraki sonuçları iyileştirmek için ağırlıkların güncellenmesi için;
Bu yöntem Perceptron öğrenme kuralına benzemektedir. Fakat Perceptron öğrenme kuralı Hebb öğrenme kuralından türetilmişken, Delta öğrenme kuralı gradyan iniş yönteminden türetilmiştir. Bu sayede Delta öğrenme kuralı birden fazla katmana sahip ağlar tarafından kullanılabilmiştir.
KAYNAKÇA
Kohonen, T. (1982). Self-organized formation of topologically correct feature maps. Biological Cybernetics, 43, 59–69.
Carpenter, G. A., & Grossberg, S. (1987). ART 2: Self-organization of stable category recognition codes for analog input patterns. Applied optics, 26(23), 4919–4930.
Hebb, D.O. (1949). The Organization of Behavior. New York: Wiley &Sons.
Rosenblatt, F. (1958). The perceptron: a probabilistic model for information storage and organization in the brain. Psychological review, 65(6), 386.
Öztemel, E. (2003). Yapay Sinir Ağları. PapatyaYayincilik, Türkiye