Yapay Sinir Ağlarının temel kavramları
Convention: Giriş katmanı sayılmadığından görüntüdeki NN 2 kat NN olarak adlandırılır 📢❗
| Terim | Açıklama |
|---|---|
| 🌚 Giriş Katmanı | NN'nin girişlerini içeren katmandır |
| 🌜 Gizli Katman | Hesaplamalı işlemlerin yapıldığı katman |
| 🌝 Çıkış Katmanı | NN'nin son katmanı ve tahmin edilen değer ŷ'nin üretilmesinden sorumludur |
| 🧠 Nöron | Bir matematik fonksiyonu için bir yer tutucu, girdilere bir fonksiyon uygular ve çıktı sağlar |
| 💥 Aktivasyon Fonksiyonu | Dönüşümler uygulayarak bir düğümün giriş sinyalini bir çıkış sinyaline dönüştüren bir fonksiyon |
| 👶 Shallow NN | Az sayıda gizli katmana sahip NN (bir veya iki) |
| 💪 Deep NN | Çok sayıda gizli katmanı olan NN |
| l katmanındaki nöron sayısı |
Girişinin ağırlıklı toplamını hesaplar, bias ekler ve ardından bir aktivasyon fonksiyonu nedeniyle nöronun tetiklenip tetiklenmeyeceğine karar verir.
Aktivasyon fonksiyonları ile ilgili ayrıntılı notlarım: burada 👩🏫
| Parametre | Boyut |
|---|---|
Bu boyutların doğru olduğundan emin olmak, daha iyi ve hatasız 🐛 kodlar yazmamıza yardımcı olur.
| Giriş: | |
| Çıkış: |
| Giriş: | |
| Çıkış : |
Vektörize Edilmiş Denklemler:
😵🤕
$$W^{[1]}, W^{[2]}, W^{[3]}$$ $$b^{[1]}, b^{[2]}$$ - ......
- Öğrenme hızı
- İterasyon sayısı
- Gizli katmanların sayısı
- Gizli birimlerin sayısı
- Aktivasyon Fonksiyonunun Seçimi
- ......
Hiper-parametrelerin parametreleri kontrol ettiğini söyleyebiliriz 🤔

