課程時長:3天
1)曲線擬合Curve fitting
2)誤差函數(shù) Error function
3)bowl-shape function
4)梯度下降 Gradient descending
5)學(xué)習(xí)率 Learning rate
6)案例實(shí)現(xiàn)與分析 case
1)多特征 Multi-features
2)單參數(shù)的梯度遞降單變量學(xué)習(xí)方法、多參數(shù)梯度下降學(xué)習(xí)方法
3)特征歸一化 Normalization
4)學(xué)習(xí)率 Learning rate
5)特征和多項(xiàng)式回歸 Regression
6)Normal Equation
7)案例實(shí)現(xiàn)與分析 Case
1)分類classification
2)假設(shè)表達(dá)Hypothesis Representation
3)判定邊界Decision Boundary
4)損失函數(shù)Cost Function
5)簡化損失函數(shù)和梯度下降Simplified Cost Function and Gradient Descent
6)參數(shù)優(yōu)化Parameter Optimization
7)多類分類Multiclass classification
8)過擬合問題The problem of overfitting
9)規(guī)則化線性/邏輯回歸Regularized Linear/Logistic Regression
10)案例實(shí)現(xiàn)與分析
1)為什么引入神經(jīng)網(wǎng)絡(luò)
2)神經(jīng)元與大腦
3)神經(jīng)網(wǎng)絡(luò)的表示形式
4)怎樣用神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)邏輯表達(dá)式
5)分類問題
6)案例實(shí)現(xiàn)與分析
1)代價函數(shù)Cost Function
2)后向傳播算法Back Propagation algorithm
3)后向傳播推導(dǎo)Back Propagation Intuition
4)梯度檢測
5)隨機(jī)初始化
6)案例實(shí)現(xiàn)與分析
1)候選機(jī)器學(xué)習(xí)方法
2)評價方法假設(shè) error
3)模型選擇和訓(xùn)練、驗(yàn)證實(shí)驗(yàn)數(shù)據(jù)
4)區(qū)別診斷偏離bias和偏差variance
5)正則化和偏差/方差
6)學(xué)習(xí)曲線:什么時候增加訓(xùn)練數(shù)據(jù)才是有效的
7)案例實(shí)現(xiàn)與分析
1)決定基本策略
2)Error分析
3)對Skewed Classes建立Error Metrics
4)在精度Precision和召回率Recall間均衡
5)機(jī)器學(xué)習(xí)數(shù)據(jù)選定
6)案例實(shí)現(xiàn)與分析
1)SVM的損失函數(shù)cost function
2)最大間距分類 判定邊界
3)SVM核-Gaussian Kernel:非線性判定邊界
4)核技巧:內(nèi)積、相似度計(jì)算
5)SVM中高斯核的使用
6)SVM的使用與選擇
7)案例實(shí)現(xiàn)與分析
1)無監(jiān)督學(xué)習(xí)有密度估計(jì)與聚類-無標(biāo)簽的機(jī)器學(xué)習(xí);
有監(jiān)督學(xué)習(xí)有回歸與分類-有標(biāo)簽的機(jī)器學(xué)習(xí);
2)Kmeans聚類算法
3)聚類問題的代價函數(shù)
4)如何選擇初始化時的類中心
5)聚類個數(shù)的選擇
6)案例實(shí)現(xiàn)與分析
1)為什么要降維
2)主成分分析PCA
3)從壓縮數(shù)據(jù)中恢復(fù)元數(shù)據(jù)
4)怎樣決定降維個數(shù)/主成分個數(shù)
5)應(yīng)用PCA進(jìn)行降維的建議
6)案例實(shí)現(xiàn)與分析