Yapay Zekada Öğrenme Kuralları

Berika Varol Malkoçoğlu
5 min readSep 21, 2022

--

Yapay Zeka kavramı önceki yazıda da bahsedildiği gibi insan zekasından esinlenerek ortaya çıkan matematiksel bir tekniğe dayanmaktadır. Bu teknik içerisinde çeşitli öğrenme kuralları ve modelleri mevcuttur. Bugün ki yazının konusu da, sinir ağlarının öğrenmesi sırasında kullanılan öğrenme kurallarıdır.

Yapay Sinir Ağı (YSA), kendisine gösterilen verilerden öğrenen, yeni bilgiler oluşturabilen, keşfedebilen bir Yapay Zeka sistemidir. Öğrenme süreci Çok Katmanlı Algılayıcılar konusunda anlatıldığı gibi ağırlıklar ve girdiler sayesinde gerçekleşmektedir. Başlangıçta rastgele atanan ağırlıklar sayesinde ağın eğitimi gerçekleştirilir. Ağın eğitim ve test başarısını arttırmak için başlangıç ağırlıkları belirli kurallara göre güncellenmesi gerekmektedir. Bu ağırlıkların güncellenmesi “öğrenme kuralları” sayesinde gerçekleşmektedir.

Öğrenme kuralı YSA’nın performansını iyileştirerek ağın daha iyi sonuç üretmesini sağlayan matematiksel bir tekniktir. Bir ağın ağırlık değerlerinin ve bias değerlerinin güncellenmesini sağlamaktadır. Sinir ağında çeşitli öğrenme kuralları mevcuttur. Her bir öğrenme kuralının amacı ağı iyileştirmek olsa da farklılıkları ve birbirinden üstünlükleri bulunmaktadır. Öğrenme kurallarının bazıları çevrimiçi bazıları ise çevrimdışı çalışmaktadır.

ÇEVRİMİÇİ ÖĞRENME KURALLARI

Çevrimiçi öğrenme kuralları gerçek zamanlı çalışmaktadır. Bir tarafta fonksiyonları işlerken diğer tarafta öğrenme işlemine devam etmektedir.

Kohonen Öğrenme Kuralı: Kohonen tarafından 1980'lerde denetimsiz öğrenme ağları için geliştirilmiş öğrenme kuralıdır. Ağın elemanları ağırlıklarını güncelleyebilmek için birbirleri ile yarış halindedir. En büyük çıktıyı üreten hücre başarılı sayılarak ağırlığını güncellemeye hak kazanır. w ağırlık, x girdi, α öğrenme katsayısını temsil etmektedir.

Kazanan nöronun ağırlığının güncellenmesi için kullanılan formül

Uyarlanabilir Rezonans Teorisi 2 (Adaptive Resonance Theory 2- ART2) Ağının Öğrenme Kuralı: Grossberg ve Carpenter tarafından 1987'de tasarlanmış rekabete dayanan denetimsiz öğrenme ağlarında kullanılan öğrenme kuralıdır. Bu yapıda iki filtre bulunmaktadır. İlk filtre sayesinde girdi örneklerinin belirlenmiş kategorilerin hangisine ait olacakları belirlenirken, ikinci filtre sayesinde öğrenmenin hızını arttırılmaktadır.

ÇEVRİMDIŞI ÖĞRENME KURALLARI

Çevrimdışı öğrenme kuralları kullanılmaya başlanmadan önce örnekler ile eğitilerek eğitimini tamamlar. Fonksiyonların çalışması sırasında öğrenme işlemi gerçekleştirmemektedir.

Hebian Öğrenme Kuralı: 1949'da Hebb tarafından geliştirilen ilk öğrenme kuralıdır. Denetimsiz sinir ağları için geliştirilen bu kural iki nöron arasındaki bağlantının pozitif veya negatif yönde güçlendirilmesine karar vererek ağırlıkların iyileştirilmesini sağlamaktadır.

Bu sistem “birlikte ateşlenen nöronlar birbirine bağlanır” ifadesi ile kısaca özetlenebilir. Başka bir deyişle iki sinir hücresinin birlikte ateşlenmeleri ile ayrı ayrı ateşlenmeleri arasında farklılıklar bulunmaktadır. Eğer iki sinir hücresi aynı anda (birlikte pozitif veya negatifse) ateşlenirse sisteme etkileri büyük olurken ayrı ayrı (birlikte pozitif veya negatif değilse) ateşlenirse sisteme etkileri daha düşük olmaktadır. Burada x düğüm girişlerini w ise ağırlığı temsil etmektedir.

Hebian öğrenme kuralı ile ağırlığı güncellenmesi

Her iki düğümün girdileri pozitif veya negatif olduğunda, düğümler arasında güçlü bir pozitif ağırlık vardır. Bir düğümün girişi diğerinden farklı ise düğümler arasında güçlü bir negatif ağırlık vardır.

Çalışma adımları:

1- Başlangıçta tüm ağırlıklar sıfıra ayarlanır.

2- Modelin eğitimi gerçekleştirilir ve ilk çıktı alınır.

3- Çıktı için aktivasyon fonksiyonu ayarlanır.

4- Ağırlıkların (w) ve bias (b) değerlerinin güncellenmesi için;

5- 2. ve 4. adım her giriş ve çıkış için tekrarlanır.

Perceptron Öğrenme Kuralı: 1957 yılında Rosenblatt tarafından geliştirilen denetimli öğrenme ağları için geliştirilmiş bir öğrenme kuralıdır. Tek katmanlı ileri beslemeli ağlar üzerinde çalışılır ve denetimli öğrenmeye dayandığı için eğitim sırasında ağa verilen örneklerin çıktıları bilinmektedir. Eğer ağın ürettiği çıktı y değeri ile beklenen çıktı t değeri aynı olursa ağın ağırlıklarında bir değişiklik olmamaktadır. Fakat üretilen çıktı değeri ile beklenen çıktı değeri farklı ise girdilerin ağırlıkları öğrenme kuralı ve giriş değerlerinin çarpımından çıkartılarak yeni ağırlık değeri hesaplanmaktadır.

Çalışma adımları:

1- Başlangıçta tüm ağırlıklar ve bias değerleri sıfıra ayarlanır.

2- Öğrenme oranı α=1

3- Ağın çıktısını belirlemek için her bir ağırlık(w) giriş değerleri (x) ile çarpılarak toplanır ardından b bias değeri ile toplanır ve sonuç elde edilir.

Ağın çıktısı hesaplanır

4- Sonuç aktivasyon fonksiyonundan geçirilerek çıkış değeri hesaplanır. (T eşik değeri, y ağın çıktısı)

5- Üretilen y çıktı değeri ile beklenen t değeri arasındaki farka bakılır;

Üretilen çıktı değeri ile beklenen çıktı değeri arasındaki fark
Çıktı sonucuna göre gerekli ağırlık ve eşik değeri güncellemesi yapılır.

Delta Öğrenme Kuralı: 1960'ların başında Widrow & Hoff tarafından geliştirilmiş bir öğrenme kuralıdır. En yaygın kullanılan denetimli öğrenme kuralıdır. Ağın ürettiği çıktı değeri (y) ile beklenen hedef çıktı (t) arasındaki farka bakarak ağırlıkların güncellemesi gerçekleştirilmektedir. Üretilen çıktı değeri ile beklenen hedef değerin birbirine yakın olması gerekmektedir. Aksi taktirde ağırlıkların güncellenmesi gerekir. Delta öğrenme kuralı çıkış değerine ait hatanın karelerinin ortalamasını minimize etmeyi amaçlamaktadır.

Üretilen çıktı değeri ile beklenen çıktı değeri arasındaki farkın karesinin ortalaması

Bu formül ile hata değeri ölçülerek sonraki sonuçları iyileştirmek için ağırlıkların güncellenmesi için;

Ağın güncellenmesi yapılır

Bu yöntem Perceptron öğrenme kuralına benzemektedir. Fakat Perceptron öğrenme kuralı Hebb öğrenme kuralından türetilmişken, Delta öğrenme kuralı gradyan iniş yönteminden türetilmiştir. Bu sayede Delta öğrenme kuralı birden fazla katmana sahip ağlar tarafından kullanılabilmiştir.

KAYNAKÇA

Kohonen, T. (1982). Self-organized formation of topologically correct feature maps. Biological Cybernetics, 43, 59–69.

Carpenter, G. A., & Grossberg, S. (1987). ART 2: Self-organization of stable category recognition codes for analog input patterns. Applied optics, 26(23), 4919–4930.

Hebb, D.O. (1949). The Organization of Behavior. New York: Wiley &Sons.

Rosenblatt, F. (1958). The perceptron: a probabilistic model for information storage and organization in the brain. Psychological review, 65(6), 386.

Öztemel, E. (2003). Yapay Sinir Ağları. PapatyaYayincilik, Türkiye

--

--

Berika Varol Malkoçoğlu
Berika Varol Malkoçoğlu

Written by Berika Varol Malkoçoğlu

PhD | Data Scientist | Lecturer | AI Researcher

No responses yet