Bu yazıda tek girdili basit perceptron modelinde bahsettiğim bir zayıflığın nasıl giderilebileceğini göstereceğim. Bahsettiğim zayıflık bu perceptronun sayı doğrusunu hep 0 noktasından ikiye ayırmasıydı. Kullanacağım çözüm aslında biraz hile gibi gözüküyor çünkü kullanacağım perceptron artık tek bir girdiye sahip olmayacak.
Simulasyon sayfasında çözüm modeline bakarsak ilk bakışta bu perceptronun aslında iki girdili bir perceptron olduğunu görüyoruz ama arada küçük bir fark var. Alttaki girdinin değeri her zaman 1.0 kalmakta. Böylece iki girdili perceptron durumundaki gibi iki değişkenimiz yok, hala sadece bir değişkenimiz var ama bu ekstra terim artık karar eşiğini sağa ya da sola kaydırabilecek.
\(o = sgn(i \cdot w + 1.0 \cdot w_{b}) = sgn(i \cdot w + w_{b}) \)
burada \(w \) yukarıdaki girdinin bağlı olduğu ağırlık değerini simgelerken, \(i \) de yukarıdaki girdi oluyor. \(w_{b} \) ise aşağıdaki sabit bias girdisinin ağırlık değeridir ve bu ağırlık öğrenme aşamasında tabii ki değişkendir. Yukarıdaki denklemde de görülebileceği gibi bu ağırlık değeri sign fonksiyonunu kendi değeri kadar sağa ya da sola kaydırır.
Şimdi bu fonksiyonu bias terimi (\(w_{b} \)) ile görelim.
Simulasyonda bias terimiyle oynayarak aşağıdaki grafikte hangi girdi değerlerinin perceptronu aktifleştireceğini ve hangi değerlerin aktifleştirmeyeceğini görebiliriz. Bu sefer ayrımın 0 noktasında olmak zorunda olmadığına da dikkat edelim.