İleri yayılım, yapay sinir ağlarının (YSA) öğrenme sürecinde giriş katmanından başlayarak, bilgiyi ağırlıklı toplamlar ve aktivasyon fonksiyonları aracılığıyla gizli katmanlara ve nihayetinde çıkış katmanına taşıyan temel süreçtir. Bu aşama, sinir ağına verilen girdilerin işlenerek tahmin edilen çıktıların üretilmesini kapsar ve hesaplanan hata değerinin geri yayılım (backpropagation) ile optimize edilmesine zemin hazırlar.
İleri yayılım süreci, her nöron için matematiksel olarak aşağıdaki adımlarla ifade edilir:
Ağırlıklı Toplamın Hesaplanması
Sinir ağındaki her nöron, kendisine bağlı olan önceki katmandaki nöronlardan gelen sinyalleri (giriş değerleri) alır ve bu girişleri ilgili ağırlıklarla çarparak toplar. Ek olarak, her nöronun bir önyargı (bias) değeri bulunur. Matematiksel olarak, i numaralı nöronun aldığı girdilere uygulanan ağırlıklı toplam şu şekilde hesaplanır:
Burada:
- önceki katmanındaki j nörondan gelen giriş değerini,
- ilgili girişin ağırlığını,
- önyargı (bias) terimini,
- nöronun toplam ağırlıklı girişini temsil etmektedir.
Aktivasyon Fonksiyonunun Uygulanması
Ağırlıklı toplam sonucu, doğrusal olmayan ilişkileri öğrenebilmek için bir aktivasyon fonksiyonundan geçirilir. Aktivasyon fonksiyonları, ağın öğrenme kapasitesini artırarak karmaşık problemlerde daha yüksek başarı elde edilmesini sağlar. Aktivasyon fonksiyonunun genel formu şu şekildedir:
Yaygın olarak kullanılan aktivasyon fonksiyonları şunlardır:
- Sigmoid Fonksiyonu: Çıktıyı (0,1) aralığına sıkıştırarak olasılıksal yorumlamalar yapmayı sağlar.
- Tanh (Hiperbolik Tanjant) Fonksiyonu: Çıktıyı (-1,1) aralığında normalize eder.
- ReLU (Rectified Linear Unit) Fonksiyonu: Negatif girişleri sıfıra eşitleyerek yalnızca pozitif değerleri geçirir.
- Softmax Fonksiyonu: Çok sınıflı sınıflandırma problemlerinde her sınıfa ait olasılık dağılımını belirlemek için kullanılır.
Gizli Katmanlardan Çıkış Katmanına Veri Aktarımı
Aktivasyon fonksiyonundan geçirilen çıktılar, bir sonraki katmanın girişleri olarak iletilir. Sinir ağı birden fazla gizli katman içeriyorsa, bu işlem her katmanda tekrarlanarak ileri yayılım gerçekleştirilir. Son katmandaki nöronların aktivasyonları, modelin nihai tahminini oluşturur.
Çıkış Katmanı ve Nihai Tahminin Üretilmesi
Çıkış katmanında üretilen değerler, modelin tahmini olarak kabul edilir. Çıkış katmanında kullanılan aktivasyon fonksiyonu, problem türüne bağlı olarak değişiklik gösterir:
- Regresyon Problemleri: Doğrusal aktivasyon fonksiyonu f(z) = z veya ReLU fonksiyonu kullanılır.
- İkili Sınıflandırma: Sigmoid fonksiyonu kullanılır ve çıktı değeri, ilgili sınıfa ait olasılığı ifade eder.
- Çok Sınıflı Sınıflandırma: Softmax fonksiyonu kullanılarak her sınıfa ait olasılıklar hesaplanır.
İleri yayılımın sonunda üretilen tahminler, gerçek değerlerle karşılaştırılarak hata fonksiyonu hesaplanır. Daha sonra, bu hata geri yayılım süreci ile ağın ağırlıklarını güncellemek için kullanılır.
Bu süreç, modelin öğrenmesini sağlayan temel mekanizmalardan biri olup, yapay sinir ağlarının veriyle anlamlı ilişkiler kurmasını mümkün kılan kritik bir aşamadır.
İleri Yayılım Örneği (Kredi: Miuul)