Skip to content

Latest commit

 

History

History
 
 

Aktivasyon_Fonksiyonlarinin_Karsilastirilmasi

Derin Öğrenme İçin Aktivasyon Fonksiyonlarının Karşılaştırılması 📈 📉

Aktivasyon fonksiyonları sinir ağlarında kilit bir rol oynar, bu nedenle daha iyi performans elde etmek için avantajlarını ve dezavantajlarını anlamak esastır.

En iyi bilinen sigmoid fonksiyonuna alternatif olan lineer olmayan aktivasyon fonksiyonlarını tanıtarak işe başlamak gerek. Aktivasyon fonksiyonlarının son performanslarını değerlendirirken birçok farklı koşulun önemi olduğunu unutmamak gerekir. O halde hazırsanız kolları sıvayalım ve biraz ellerimizi kirletelim!

📌Open In Colab Google Colab Not Defteri

📌Open In Jupyter Jupyter Not Defteri

AKTİVASYON FONKSİYONU TEST DOĞRULUĞU TEST YİTİMİ
Sigmoid 0,9866 0,0567
Hiperbolik Tanjant 0,9905 0,0474
ReLU 0,9929 0,0401
Leaky ReLU 0,9925 0,0403
Swish 0,9922 0,0412

YAYINDA!!!