V/ (PE) ve bağlantılar. Bir Çizgisel İşlemcideki (LA), işlem elemanları 1. Katman (2) 2. Katman (3)1. Katman 2. Katman LA'daki PE'lerin arasındaki bağlantıların ağırlıklarını gösteren bağlantı matrisi. enerjiyi en aza indirmektir. İlk önce ağ sistemine sıcaklık için bir paramet- re verilir ve sistem yüksek bir sıcak- lıkta işlemeye bırakılır. Bu *proces- sing element' denen işlemci eleman- ların hızla hareket etmesini ve daha sonra soğuyarak çözümün bulunma- sını sağlar. Self Organizing (kendi kendini dü- zenleyen) ağlar beyinde bulunan or- ganizasyon prensibine en yakın olan modeldir. Beynimiz çalışmaya tama- men düzensiz olarak başlar ve biz öğ- rendikçe o da yavaş yavaş kendini çok teşkilatlı bir biçimde düzenler. Hiçbir beyin birbirinin aynısı değil- dir ancak organizasyon olarak ben- zerlikler vardır. Self organizing ağlar da beyin gibi rastlantısal ve dağınık bir biçimde çalışmaya başlar, yavaş yavaş kendilerini teşkilatlı bir biçim- de düzenlerler. Birazdan anlatılacak olan Linear Associator - Çizgisel Ortaklık siste- mi, giriş çıkışları eşler ancak bunun da sınırları vardır. Sadece bazı giriş- ler öğrenilebilir. Ne yazık ki bu giriş- lerin sayısı giriş katmanındaki işlemci elemanların (PE) sayısına bağlıdır. Bu yüzden ilk katmanda beş PE olsa vetoplam 32(2 5) değişik giriş mo- deli olsa bile çizgisel ortaklık sistemi bunlardan sadece beş tanesini öğre- nebilir. Bu sorunun çözümü başka bir tip ortaklık sistemi olan *Geri Yayılma' sistemindedir. Bu yapı günümüzde en çok kullanılan sinirsel ağ tipidir. Bu sistemi gelecek bölümde örnek prog- ramlarıyla beraber tartışacağız. ÇİZGİSEL ORTAKLIK - LINEAR ASSOCIATION (LA) Tek bir bağlantı katmanının yardı- mıyla giriş ve çıkışları düzenleyen, basit sinirsel ağ sistemi, çizgisel ağ sis- temine (LA) bir göz atalım. Sinirsel ağ sistemleri farklı olsalar da aralarında bazı benzerlikler bulu- nur: — Bir grup işlem elemanı (PE) — İki PE arasındaki bağlantıların kuvvetlerini kapsayan bir bağlantı matrisi — Bir etkinleşktirme (aktivasyon) katmanı — Öğrenme ve geri çağırma aşa- maları — Giriş vektörü — Çıkış vektörü Bir çizgisel ortaklıkta, her işlem elemanı (PE) -şeklinde yuvarlak için- de bir rakamla belirtilmiştir- beyin- deki bir nöronun, bazan da birlikte çalışan bir grup nöronun yerini tutar. Her PE gerçek dünyadaki bir kavra- mı anlatır; bir kelime, bir harf, hat- ta bir resmin bir tek pixeli. PE'ler bir kaç gruba veya katma- na ayrılmışlardır ve bu katmanlara göre numaralandırılırlar. PE'leri bir- leştiren çizgiler de beyindeki akson- ların yerini tutar ve bunlar bir bağ- lantı matrisinde tutulurlar. Değişik katmanlardan iki PE bir- leştiği zaman, bağlantının gücü veya ağırlığı bağlantı matrisine yapılır. Bağlantı matrisi hatalar arasındaki sinyal yayılmasını kontro eder. Sin- yal, bağlantı matrisinin yatay katma- nından başlar ve düşey katmasınan doğru yayılır. Bizim örnek aldığımız K -LA'da sinyal birinci katmandan baş- lar ve ikinci katmana doğru yayılır. Normal olarak sinyal küçük numaralı katmandan yüksek numaralı katma- na doğru yayılır. Bu her sinirsel ağ sistemi için geçerli değildir ama genel olarak' doğrulanır. Bağlantının ağırlığı genellikle bir sayı ile belirlenir. Eğer bağlantı uya- rıcı ise (yani birinci katmandaki PE ikinci katmandaki PE'yi uyarıyorsa) bağlantının ağırlığı pozitiftir. Eğer bağlantı tutucu ise (yani birinci kat- mandaki PE ikinci katmandaki PE'yi bastırıyorsa) bağlantının ağırlığı ne- gatiftir. LA'da (ve diğer sistemlerde) hem uyarıcı hem de tutucu bağlantı- lar olmalıdır. Her PE açık, kapalı veya arada bir yerde olabilir. Buna aktivasyon dü- zeyi denir. Aktivasyonun yani etkin- liğinin sınırlı O ile 1 veya -1 ile 1 ara- sındadır. LA Oile 1 arasındaki düzey- leri kullanmaktadır. Eğer Ü ise tama- men kapalı, | ise tamamen açıktır. Bir PE'nin değeri 1'e yakınsa aktif olarak yorumlanır. Ve eğer bu PE ile diğer bir katmandaki başka bir PE arasındaki bağlantı uyarıcı ise ikinci katmandaki PE daha aktif hale ge- çer, yani aktivasyon düzeyi artar. Bu- nun tersi aradaki bağlantı tutucu ise gerçekleşir. Sinirsel ağların amacı girişleri çı- kışlara çevirmektir. Bunu iki ayrı saf- hada yapar: 1. Öğrenme 2. Geri çağırm Öğrenme sırasında siz giriş ve çı- kış vektörlerini LA'ya verirsiniz ve sistem bunları eşlemeyi öğrenir. İkin- ci safhada yani geri çağırma sırasın- da siz giriş vektörünü verirsiniz sis- tem de size çıkış vektörünü verir. LA'ya doğru olan modeli öğren- mek için bağlantı matrisinin ağırlık- larını düzenleyecek bir algoritmaya sahip olmalıyız, böylece geri çağırma safhasında doğru olan çıkış vektörü verilir. Sinirsel sistemin öğrenebilme- .si, en önemli özelliğidir. Öğretici al- göritma olmaksızın sistemler sadece iki programlandıkları işlemleri ger- çekleştirirler. Ama öğretici algoritma bağlantı matrisinin ağırlıklarını dü- zenler ve böylece her seferinde yapı- lan değişik girişlere değişik çıkışlar verir. ll