你說說激活函數?

說說你想項目中的激活函數,為啥選這個?有沒有考慮過其他的激活函數?效果怎樣?除此之外你還知道哪些激活函數?它們的應用場景是什麼?優越點是什麼?OMG~~~

大家常見的激活函數估計就是sigmod tanh Relu 等,最近好像出來一個啥 [{rm{x}};{rm{sigmod(x)}}] 還有一些源自上述的幾種激活函數

激活函數(來自網路)

blog.csdn.net/u01314674 常用激活函數的總結與比較 神經網路與深度學習之激活函數 - 白鷺傾城 - 博客園

筆者只是一些問題的搬運工,具體需要對問題進行深入的小夥伴還望自己閱讀相關文獻,這裡只是提出一些問題,以便於面試時問到,如果內容有一些錯誤,還望批評指正!

推薦閱讀:

一文看懂各種神經網路優化演算法:從梯度下降到Adam方法
用深度學習(DNN)構建推薦系統 - Deep Neural Networks for YouTube Recommendations論文精讀
機器學習必知的八大神經網路架構
BAT機器學習面試1000題系列(131-135題)
谷歌大腦提出新型激活函數Swish惹爭議:可直接替換並優於ReLU?(附機器之心測試)

TAG:机器学习 | 深度学习DeepLearning | 神经网络 |