HAFTA 11 · 6 SAAT
Transformers ve BERT: Modern NLP
Modül 11 — Bölüm C
1 Attention is All You Need: özet ve sezgi
2 Self-attention ve multi-head attention matematiği
3 Positional encoding: sinüsoidal ve öğrenilebilir
4 Encoder-decoder, encoder-only, decoder-only mimariler
5 BERT: Masked Language Model + Next Sentence Prediction
6 KerasNLP ile hazır BERT kullanımı
7 Fine-tuning vs frozen feature extraction
8 Named Entity Recognition (NER) pratik
9 Semantik benzerlik ve duplicate soru tespiti
10 Parameter-efficient fine-tuning (PEFT): LoRA
Kütüphaneler:
tensorflowkeraskeras_nlptransformersdatasets