Halk için, halka rağmen entellik. İlginç konular + eleştirel düşünce + bildiğin Türkçe.
Yapay zeka serimizin beşinci bölümünde sinir ağlarının eğitimine odaklanıyoruz. İşin detayına gireceğiz ve üç önemli kavram göreceğiz:
- Kayıp fonksiyonu veya hata fonksiyonu
- hatayı azaltmanın bir yöntemi olan gradient descent
- ve onun etkili biçimde uygulanmasını sağlayan backpropagation tekniği.
.
Konular:
- (01:53) Cost function
- (05:01) Gradient descent
- (11:04) Backpropagation
- (15:28) Vanishing Gradient
- (16:51) Test vs Eğitim
- (17:47) Patreon Teşekkürleri
Kaynaklar:
.
------- Podbee Sunar -------
Bu podcast, AgeSA hakkında reklam içerir.
AgeSA BES ile Yatırımda Rahat Edin. Yüksek kazançlı geniş fon seçenekleri, %30 Devlet Katkısı ve finansal danışmanlık AgeSA’da. Yatırımlarınla ilgili daha iyi hissetmek için tıkla.
Summary
See Privacy Policy at https://art19.com/privacy and California Privacy Notice at https://art19.com/privacy#do-not-sell-my-info.