Geçen sayımızda geri beslemeyle öğrenen sistemleri açıklamıştık. Bu sistemler ortaklaşa çalışan sistemler grubuna dahildirler ama ne nöröpsi- kolojiye ne de basit psikolojiye daya- nırlar. Competitive Learning (CL - rekabet ederek öğrenen) sistemler ise beynimizdeki sinirsel yapılara en çok benzeyen sistemlerdir. CL, kendi kendini düzenleyen sis- temler grubuna girer. Bu modeller gi- rişte yapılan dış etkilere göre kendi içinde organize olur ve bu girişleri kendi içlerinde temsil ederler. Sistem, girişin özelliklerini fark ettiği için ya- pılan girişimleri, ayrı özellikler taşı- yan bölümlere ayırabilir. Bu yönüyle CL sistemleri zarar görmüş veya de- formasyona uğramış bir dizi girişi iş- lemede oldukça başarılıdırlar Geri besleme sistemi gibi CL siste- mi de PE'lere (işlem elemanları) ve katmanlar arasında bağlantılara sa- hiptir ama tüm benzerlikler burada biter. CL'nin her katmanında, her PE ancak bir gruba ait olacak şekil- de, gruplar oluşmuştur. Bu gruplar- daki her PE girişlerini bir önceki kat- mandan alırlar ve sonra *“Kim daha önce çıkış sağlayabilecek?” diye yarı- şırlar. Her gruptan ancak bir PE çı- kış verebilir. CL'de, sistem öğrenmek için ken- di kendisini düzenlediğinden öğreti- ci bir vektör yoktur. Bu bizim bey- nimizdeki hücrelere çok benzer, çün- kü beynimizdeki hücrelerin de büyük çoğunluğu dışarıdan direkt olarak bilgi alamaz. Biz her türlü çevre ko- şuluna uyabiliriz ve CL sistemi de bi- ze her tür çevre koşuluna uyan bir sis- tem yapma yolunda liderlik etmekte- dir Daha önce incelediğimiz diğer sis- temlerden farklı olarak bu sistemde her katman arasındaki bağlantıların yanısıra bir katmanın kendi içerisin- de de bağlantılar vardır. Bu katman- içi bağlantılar sadece aynı gruptaki PE'ler arasındadır ve sınırlayıcıdır- lar. Yani eğer bir gruptaki PE'lerden biri önceki katmandan güçlü bir sin- yal alırsa komşularının bu sinyali al- masına ensel olur ve böylece ur. Kazanan belirlen- dikten sunra sıııyı_l bir üst katmana iletilir. Katmanlar arasındaki tüm bağlantılar heyecanlandırıcıdır, yani bir üst katmanda başka bir rekabet ortamı oluşturacaktır. Öğrenme algoritması çok basittir. Alt katmandaki tüm hücrelerden bir üst katmandaki tek bir hücreye giden tüm bağlantıların (ki bu bağlantı 20 matrisindeki bir sırayı oluşturur) tüm ağırlıklarının toplamı bir etmelidir. Bu, ağırlıkların düzgün olarak dağıl- masını sağlar, böylece tek başına bir PE çok güçlü olamayacaktır. Bir gruptaki PE'lerden biri kazandığı za- man öğrenmesi gerekir, ve ağırlıklar da bir matematiksel öğrenme kuralı- na göre değiştirilirler. Tüm bağlan- * tıların ağırhklanmn toplamının | et- mesi gerektiği için kazanan PE'nin bir önceki katmandaki aktif PE'ler- le olan bağlantıları kuvvetlenir ve pa- sif PE'lerle olan bağlantıları da za- yıflar. Böylece aynı giriş modeli tek- rar gelirse bu modeli öğrenmiş olan PE'nin bunu tanıma şansı da artar. , Rekabet sına en çok benzeyen sistemler olsa bile bunların da sınırları vardır. Bi- rincisi, bu gruplar ayrı modelleri öğ- renmelidirler ama bunu önlemeleri için herhangi bir zorlama yapılamaz. Eğer iki grubun ağırlıkları eşitse iki- si de aynı modeli öğrenecektir. Bu so- runu çözmenin bir yolu gruplar ara- sında sınırlayıcı bağlar ol Çizgisel ortaklık ve geri besleme sı— nirsel ağ sistemleri iki modeli eşleme- yi öğreniyorlardı. Bu çok önemli bir öğrenme biçimidir. Rekabet eden sis- temler eşlemeyi öğrenemezler; ama eğer geri besleme gibi bir başka sis- temle birleştirilecek olurlarsa, elimi- eden sistemler beyin yapı- ze modelleri sınıflandırabilecek ve modeller gibi bu model sınıflarını da ortaklaşa: kullanabilecek çok güçlü bir sistem seçer. Rekabet eden sistemlerin büy[lklü- gü birkaç grupla sınırlı olduğu için gi- rişleri ancak belirli sayıda sınıfta top- layabilirler. Bu problem, açılan sınıf sayısı PE gruplarının sayısını geçene kadar ortay çıkmaz. Bu durumda CL, modelleri ait olmadıkları sınıf- lara yerleştirir. Sorun, katmanlara daha fazla grup ve gruplara daha faz- la PE ekleyerek çözülebilir. Oluşabilecek en büyük problem denge sağlanmasıdır. Bir süre sonra CL'mn her değeri son bir değere eri- şir ve sabit kalır. Bundan sonra ya- pılan işlemler bağlantı değerlerini de- ğiştirmez. Ama ideal bir sistemde uzun bır sure seçse bı.le yenı oğı'em- len gerekir. Bu sorun başka bir sinirsel ağ sistemi olan Adaptive Resonance Theory (Uygulanabilen Rezonans Te- orisi) ile çözülebilir. Sinirsel programcılık alaııı 1982' deki yeniden doğuşundan biri hızla gelişmektedir, ama hâlâ yapılması ge- reken birçok iş, çözülmesi gereken birçok program vardır. Gelecek yıl- larda daha farklı sistemler geliştirile- cek ve uygulanacaktır. Uy; gittikçe daha geniş alanlara yayıla-