1 神經網絡原理
1.1神經元、結構
1.2 激勵函數(shù)
1.3 學習規(guī)則
1.4 案例
2 反向傳播算法-BP算法
2.1 激活函數(shù)
2.2 目標函數(shù)
2.3 前向傳播過程
2.4 反向傳播過程
2.5 權重更新策略
2.6 代碼實現(xiàn)與分析
3 單層神經網絡(感知器)
3.1 結構
3.2 訓練過程
3.3 效果-決策邊界線
3.4 代碼實現(xiàn)與分析
4 兩層神經網路基(多層感知器)
4.1 結構
4.2 訓練過程
4.3 效果-決策邊界面
4.4 代碼實現(xiàn)與分析
5 多層神經網絡(深度學習)
5.1 結構
5.2 訓練過程
5.3 案例實現(xiàn)與分析
1 DNN深度神經網絡原理及應用
1.1 DNN架構
1.2 DNN訓練過程
1.3 DNN權重更新
1.4 代碼實現(xiàn)與分析
1.5 DNN應用
2 CNN卷積神經網絡
2.1 全連接的反向傳播算法
2.2 Convolutional Neural Networks 卷積神經網絡
2.3 CNN的訓練過程
2.4 代碼實現(xiàn)與分析
2.5 CNN應用
3 TDNN時延深度神經網絡
3.1 TDNN架構
3.2 TDNN訓練過程
3.3 DNN權重更新
3.4 代碼實現(xiàn)與分析
3.5 TDNN應用與特點
4 RNN循環(huán)神經網絡
4.1 RNN原理
4.2 RNN訓練過程
4.3 RNN權重更新
4.4 代碼實現(xiàn)與分析
4.5 RNN應用與特點
5 LSTM長短詞記憶網絡
5.1 LSTM原理、架構
5.2 LSTM的門機制
5.3 LSTM訓練過程
5.4 代碼實現(xiàn)與分析
5.5 LSTM應用與特點
6 Bi-LSTM+Attention綜合應用
6.1 Bi-LSTM原理
6.2 Attention注意力機制
6.3 Bi-LSTM+Attention架構
6.4 綜合應用