logologo

İleri Yayılım (Forward Propagation)

Bilişim Ve İletişim Teknolojileri+1 Daha
fav gif
Kaydet
viki star outline

İleri yayılım, yapay sinir ağlarının (YSA) öğrenme sürecinde giriş katmanından başlayarak, bilgiyi ağırlıklı toplamlar ve aktivasyon fonksiyonları aracılığıyla gizli katmanlara ve nihayetinde çıkış katmanına taşıyan temel süreçtir. Bu aşama, sinir ağına verilen girdilerin işlenerek tahmin edilen çıktıların üretilmesini kapsar ve hesaplanan hata değerinin geri yayılım (backpropagation) ile optimize edilmesine zemin hazırlar. 


İleri yayılım süreci, her nöron için matematiksel olarak aşağıdaki adımlarla ifade edilir: 

Ağırlıklı Toplamın Hesaplanması 

Sinir ağındaki her nöron, kendisine bağlı olan önceki katmandaki nöronlardan gelen sinyalleri (giriş değerleri) alır ve bu girişleri ilgili ağırlıklarla çarparak toplar. Ek olarak, her nöronun bir önyargı (bias) değeri bulunur. Matematiksel olarak, i numaralı nöronun aldığı girdilere uygulanan ağırlıklı toplam şu şekilde hesaplanır: 

zi=j=1nwixj+biz_i = \sum_{j=1}^{n} w_i x_j + b_i


Burada:  

  • xjx_j önceki katmanındaki j nörondan gelen giriş değerini,
  • wijw_ij ilgili girişin ağırlığını,
  • bib_i önyargı (bias) terimini,
  • ziz_i nöronun toplam ağırlıklı girişini temsil etmektedir.

Aktivasyon Fonksiyonunun Uygulanması

Ağırlıklı toplam sonucu, doğrusal olmayan ilişkileri öğrenebilmek için bir aktivasyon fonksiyonundan geçirilir. Aktivasyon fonksiyonları, ağın öğrenme kapasitesini artırarak karmaşık problemlerde daha yüksek başarı elde edilmesini sağlar. Aktivasyon fonksiyonunun genel formu şu şekildedir: 


ai=f(zi)a_i = f(z_i)


Yaygın olarak kullanılan aktivasyon fonksiyonları şunlardır: 

  • Sigmoid Fonksiyonu: Çıktıyı (0,1) aralığına sıkıştırarak olasılıksal yorumlamalar yapmayı sağlar. 

f(z)=11+ezf(z) = \frac{1}{1+e^-z}


  • Tanh (Hiperbolik Tanjant) Fonksiyonu: Çıktıyı (-1,1) aralığında normalize eder.


f(z)=ezezez+ezf(z) = \frac{e^z - e^-z }{e^z + e^-z}


  • ReLU (Rectified Linear Unit) Fonksiyonu: Negatif girişleri sıfıra eşitleyerek yalnızca pozitif değerleri geçirir. 

f(z)=max(0,z)f(z) = max(0,z)


  • Softmax Fonksiyonu: Çok sınıflı sınıflandırma problemlerinde her sınıfa ait olasılık dağılımını belirlemek için kullanılır.

f(zi)=ezii=1nezif(z^i) = \frac{e^zi}{\displaystyle\sum_{i=1}^{n}{e^zi} }


Gizli Katmanlardan Çıkış Katmanına Veri Aktarımı 

Aktivasyon fonksiyonundan geçirilen çıktılar, bir sonraki katmanın girişleri olarak iletilir. Sinir ağı birden fazla gizli katman içeriyorsa, bu işlem her katmanda tekrarlanarak ileri yayılım gerçekleştirilir. Son katmandaki nöronların aktivasyonları, modelin nihai tahminini oluşturur. 


Çıkış Katmanı ve Nihai Tahminin Üretilmesi 

Çıkış katmanında üretilen değerler, modelin tahmini olarak kabul edilir. Çıkış katmanında kullanılan aktivasyon fonksiyonu, problem türüne bağlı olarak değişiklik gösterir: 


  • Regresyon Problemleri: Doğrusal aktivasyon fonksiyonu f(z) = z veya ReLU fonksiyonu kullanılır. 
  • İkili Sınıflandırma: Sigmoid fonksiyonu kullanılır ve çıktı değeri, ilgili sınıfa ait olasılığı ifade eder. 
  • Çok Sınıflı Sınıflandırma: Softmax fonksiyonu kullanılarak her sınıfa ait olasılıklar hesaplanır. 


İleri yayılımın sonunda üretilen tahminler, gerçek değerlerle karşılaştırılarak hata fonksiyonu hesaplanır. Daha sonra, bu hata geri yayılım süreci ile ağın ağırlıklarını güncellemek için kullanılır. 


Bu süreç, modelin öğrenmesini sağlayan temel mekanizmalardan biri olup, yapay sinir ağlarının veriyle anlamlı ilişkiler kurmasını mümkün kılan kritik bir aşamadır.


İleri Yayılım Örneği (Kredi: Miuul) 

Kaynakça

Geeksforgeeks. "What is Forward Propagation in Neural Networks?". Geeksforgeeks Web Sitesi. Son erişim: 26 Mart 2025. Erişim Adresi.


Bex, Tuychiev. "Forward Propagation in Neural Networks: A Complete Guide”. DataCamp Web Sitesi. Son erişim: 26 Mart 2025. Erişim Adresi.


Divo into Deep Learning. "Forward Propagation, Backward Propagation, and Computational Graphs”. Divo into Deep Learning Web Sitesi. Son erişim: 26 Mart 2025. Erişim Adresi.

Sen de Değerlendir!

0 Değerlendirme

Yazar Bilgileri

Avatar
Ana YazarBeyza Nur Türkü25 Mart 2025 22:34
KÜRE'ye Sor