「深度學習+自然語言處理(NLP)」專欄索引
1. Readme
深度學習+自然語言處理(NLP)專欄首發於知乎。
專欄的主要內容是梳理深度學習相關學科的基礎知識。
深度學習偏重於工程實踐和多學科的交叉應用,掌握相關學科的知識要點是學好深度學習的基礎。
2. 深度學習科技樹
探討深度學習科技樹的想法來源於數據科學(data science)的定義,根據下圖的定義,數據科學是一門計算機科學、數學和統計學、商業知識的交叉學科。
如今,深度學習大熱,如何定義深度學習?從深度學習涉及的基礎知識切入,探討這個問題應該是一個好的角度。以作者淺薄的理解,深度學習涉及的基礎至少包含下圖中的8個方面:
3. 專欄文章索引
根據上圖的知識結構,專欄有多個系列文章:
自然語言處理系列:
自然語言處理(NLP)基礎概念1:詞向量(word vector)及其生成方法介紹
自然語言處理(NLP)基礎概念2:Softmax介紹及其python實現
自然語言處理(NLP)基礎概念3:直觀理解Word2Vec處理過程
自然語言處理(NLP)基礎概念4:直觀理解Skip-gram演算法過程
自然語言處理(NLP)基礎概念5:word2vec代價函數求梯度計算過程詳解
自然語言處理(NLP)基礎概念6:word2vec為什麼要使用負採樣(negtive sample)?
自然語言處理(NLP)基礎概念7:word2vec負採樣(negtive sample)及skip-gram模型的python實現
深度學習系列
深度學習(Deep Learning)基礎概念1:神經網路基礎介紹及一層神經網路的python實現
深度學習(Deep Learning)基礎概念2:深度學習測試題及詳解1
深度學習(Deep Learning)基礎概念3:神經網路實現邏輯回歸模型測試題及解答
深度學習(Deep Learning)基礎概念4:神經網路實現邏輯回歸模型的python編程思路
深度學習(Deep Learning)基礎概念5:深度學習基礎概念測試題及詳解
深度學習(Deep Learning)基礎概念6:搭建2層神經網路的python實現
深度學習(Deep Learning)基礎概念7:搭建多層神經網路的python實現
深度學習(Deep Learning)基礎概念8:L2正則化(L2 Regularization)、Dropout原理及其python實現
機器學習項目結構化1:評估指標、分配數據集、關注統計分布、理解和超越人類水平、改善模型性能率等
機器學習項目結構化2:誤差分析、數據不匹配、多任務學習、端到端深度學習等
循環神經網路RNN介紹1:什麼是RNN、為什麼需要RNN、前後向傳播詳解、Keras實現
循環神經網路(RNN)介紹2:keras代碼分析
循環神經網路(RNN)介紹3:RNN的反向傳播演算法Backpropagation Through Time (BPTT)
長短期記憶網路(LSTMs)介紹1:傳統RNN的缺點,LSTM結構解析,LSTM變體簡介
Python系列
深度學習中的Python語言1:Python基礎數據類型、容器、函數和類的介紹
深度學習中的Python語言2:Numpy數組、索引、數據類型、運算、廣播的介紹
深度學習中的Python語言3:SciPy和Matplotlib庫介紹
深度學習中的Python語言4:實踐和練習Python基礎概念(jupyter notebook版)
深度學習中的Python語言6:python數據科學實用庫pandas教程
線性代數系列
深度學習中的線性代數1:基本概念和矩陣乘法
深度學習中的線性代數2:矩陣的操作和性質
深度學習中的線性代數系列3:矩陣微積分
概率論與數理統計系列
深度學習中的概率論1:基本表達式
工具箱系列
深度學習的工具箱系列1:深度學習markdown公式大全
深度學習的工具箱系列2:Anaconda介紹
機器學習系列
機器學習基礎概念1:機器學習基礎概念科普
機器學習基礎概念2:數據集劃分、混淆矩陣、測量指標、交叉驗證、網格搜索
機器學習基礎概念3:監督學習
機器學習演算法性能比對分析流程
經典模型系列
經典模型-1:《Deep Residual Learning for Image Recognition》論文翻譯
經典模型-2:手把手帶你分析、解讀ResNet源代碼
推薦閱讀:
※看我AK甩槍,舊文重讀《Playing FPS Games with Deep Reinforcement Learning》
※【恢復更新】寫給大家看的機器學習書(第八篇)——線性回歸(下)
※cs.CL weekly 2016.09.26-2016.09.30
※從高斯分布、機器人誤差、EM演算法到小球檢測
TAG:索引 | 深度学习DeepLearning | 机器学习 |