1 İleri ve geri yayılım (forward/backward pass) detayları
2 Mini-batch gradyan inişi ve batch size etkisi
3 Epoch, iteration, step kavramları
4 Overfitting vs underfitting: eğitim/doğrulama eğrileri
5 L1 & L2 regularization (weight decay)
6 Dropout katmanı: rastgele aktivasyon sıfırlama
7 Batch Normalization: iç kovaryant kayması
8 Early stopping ve ModelCheckpoint callback
9 Learning rate scheduler: ReduceLROnPlateau, ExponentialDecay
10 Veri normalizasyonu ve ölçeklendirme (StandardScaler, min-max)
Kütüphaneler:
tensorflowkerasscikit-learn