Dropout, derin öğrenme modellerinde aşırı uyumu (overfitting) önlemek amacıyla geliştirilen ve günümüzde yaygın şekilde kullanılan bir düzenleme (regularization) yöntemidir. İlk olarak Geoffrey Hinton ve çalışma arkadaşları tarafından 2012 yılında önerilmiş ve sonrasında Nitish Srivastava'nın liderliğinde 2014 yılında detaylı olarak incelenmiştir .

Dropout çalışma prensibi tasviri (Yapay Zekâ ile oluşturulmuştur)
Dropout, derin sinir ağlarında aşırı uyumu önlemeye yönelik bir düzenleme (regularization) yöntemidir. Eğitim sırasında, gizli katmandaki nöronların rastgele bir alt kümesi, belirlenen bir dropout oranı p doğrultusunda devre dışı bırakılır. Bu nöronlar, o adımda ileri (forward) ve geri (backpropagation) geçişlerde kullanılmaz. Böylece ağ, her eğitim iterasyonunda farklı “küçülmüş alt ağlar (thinned subnetworks)” üzerinde çalışmak zorunda kalır ve bu durum:
Eğitimin ardından, tüm nöronlar aktif hale getirildiğinde çıktıların tutarlı olması için, nöron çıktıları genellikle ile ölçeklenir. Bu yöntem, ağrılıkların küçültülmüş ağlarda görülen ortalama etkisini korur.
Matematiksel olarak:
= ⊙
Burada:
Dropout, eğitim sırasında birden çok "thinned" ağ üzerinde öğrenme yapılmasını sağlar. Bu, ensembel yöntem gibi çalışarak tek bir modelin birden fazla farklı konfigürasyondan elde edilen ortalama çıktısı gibi davranmasına zemin hazırlar. Dolayısıyla aşırı uyum önemli oranda azaltılır ve test başarımı artar
Popüler kütüphaneler (Keras, TensorFlow, PyTorch) Dropout katmanını hazır olarak sumaktadır.
Basit Dropout: Gizli katmanlarda tipik olarak %50, girişlerde %10–20 oranında nöron devre dışı bırakılır. Testte tüm nöronlar aktifken çıktı ölçeklenir .
DropConnect: Nöron yerine bağlantıyı rastgele kapatır.
SpatialDropout, DropBlock, MC Dropout (Bayes yaklaşımlarında belirsizlik tahmini için dropout testte de kullanılır)
Monte Carlo Dropout: Test aşamasında birden çok maskeli geçiş yapılarak model belirsizliği tahmin edilir.
Early/Late Dropout: Eğitim sürecinin başında veya sonunda dropout etkin hale getirilerek modelin öğrenme dinamikleri optimize edilir .
Dropout, konvolüsyonel sinir ağları (CNN), tam bağlantılı derin ağlar (DNN) ve tekrarlayan ağlarda (RNN) yaygın şekilde kullanılır. Ayrıca bayesci belirsizlik modellemeleri için de esnek bir içerik sağlar ve güvenilir sonuç elde edilmesini kolaylaştırır .
DatabaseCamp. "What is the Dropout Layer?" Erişim Adresi.
GeeksforGeeks. "Dropout in Neural Networks." 2022. Erişim Adresi.
Hinton, Geoffrey E., Nitish Srivastava, Alex Krizhevsky, Ilya Sutskever, and Ruslan R. Salakhutdinov. "Improving neural networks by preventing co-adaptation of feature detectors." arXiv preprint arXiv:1207.0580 (2012). Erişim Adresi.
Marimuthu, Parthiban. "Dropout Regularization in Deep Learning". 2024. Erişim Adresi.
MathWorks. "Dropout Layer." MATLAB & Simulink Documentation. Erişim 2 Mayıs 2025. Erişim Adresi.
Srivastava, Nitish, Geoffrey Hinton, Alex Krizhevsky, Ilya Sutskever, and Ruslan Salakhutdinov. "Dropout: a simple way to prevent neural networks from overfitting." The journal of machine learning research 15, no. 1 (2014): 1929-1958. Erişim Adresi.
[1]
Hinton, Geoffrey E., Nitish Srivastava, Alex Krizhevsky, Ilya Sutskever, and Ruslan R. Salakhutdinov. "Improving neural networks by preventing co-adaptation of feature detectors." arXiv preprint arXiv:1207.0580 (2012). Erişim Adresi.
[2]
Srivastava, Nitish, Geoffrey Hinton, Alex Krizhevsky, Ilya Sutskever, and Ruslan Salakhutdinov. "Dropout: a simple way to prevent neural networks from overfitting." The journal of machine learning research 15, no. 1 (2014): 1929-1958. Erişim Adresi.
Henüz Tartışma Girilmemiştir
"DropOut Tekniği" maddesi için tartışma başlatın
İşleyiş Mekanizması
Tarihçe
Kullanım ve Parametreler
Avantaj ve Dezavantajlar
Avantajlar
Dezavantajlar
Gelişmiş Varyantlar
Yönelim ve Uygulama Alanları
Bu madde yapay zeka desteği ile üretilmiştir.