前向後向演算法和baum-welch演算法區別是什麼?
01-08
前向後向演算法和baum-welch演算法區別是什麼?
baum-welch演算法是一種對hmm模型做參數估計的方法,是EM演算法的一個特例。
EM演算法包含兩步:
1:expectation,計算隱變數的概率分布,並得到可觀察變數與隱變數聯合概率的log-likelihood在前面求得的隱變數概率分布下的期望。
2:maximization
求得使上述期望最大的新的模型參數。若達到收斂條件則退出,否則回到步驟1。前向後向演算法則主要是解決Expectation這步中求隱變數概率分布的一個演算法,它利用dynamic programming大大減少了計算量。前向後向演算法是已知模型和序列求概率的演算法,也是用於訓練的Baum-Welch演算法的循環中的一個步驟。
Baum-Welch每一次迭代中,都需要分別調用前向、後向演算法進行計算。
推薦閱讀:
※準備學習研究一下語音識別 請問有哪些值得推薦的書籍 論文 及開源庫?
※政府監控私人電話,記錄的主要是哪些信息?
※如何理解語音識別的 lattice-free MMI 聲學訓練?
※Kaldi里的DNN訓練時的輸入是什麼,三音素的GMM訓練好後為什麼要做數據的強制對齊?
※微軟有哪些語音識別技術積累,Cortana 能否跟 Siri 和 Google Now 抗衡?
TAG:語音識別 |