400-888-5228

課程時(shí)長(zhǎng)

6天(6小時(shí)/天)

 

課程簡(jiǎn)介

人工智能的浪潮正在席卷全球,各種培訓(xùn)課程應(yīng)運(yùn)而生,但真正能讓學(xué)員系統(tǒng)、全面掌握知識(shí)點(diǎn),并且能學(xué)以致用的實(shí)戰(zhàn)課程并不多見(jiàn)。本課程包含機(jī)器學(xué)習(xí)、深度學(xué)習(xí)的重要概念及常用算法(決策樹(shù)、關(guān)聯(lián)規(guī)則、聚類、貝葉斯網(wǎng)絡(luò)、神經(jīng)網(wǎng)絡(luò)、支持向量機(jī)、隱馬爾科夫模型、遺傳算法、CNN、RNN、GAN等),以及人工智能領(lǐng)域當(dāng)前的熱點(diǎn)。通過(guò)6天的系統(tǒng)學(xué)習(xí)、案例講解和動(dòng)手實(shí)踐,讓學(xué)員能初步邁入機(jī)器學(xué)習(xí)和深度學(xué)習(xí)的知識(shí)殿堂。

 

課程收益

  1. 掌握數(shù)據(jù)挖掘與機(jī)器學(xué)習(xí)基本知識(shí);
  2. 掌握數(shù)據(jù)挖掘與機(jī)器學(xué)習(xí)進(jìn)階知識(shí);
  3. 掌握深度學(xué)習(xí)的理論與實(shí)踐;
  4. 掌握Python開(kāi)發(fā)技能;
  5. 掌握深度學(xué)習(xí)工具:TensorFlow、Keras等;
  6. 為學(xué)員的后續(xù)項(xiàng)目應(yīng)用提供針對(duì)性的建議。

 

課程特點(diǎn)

本課程力圖理論結(jié)合實(shí)踐,強(qiáng)調(diào)從零開(kāi)始,重視動(dòng)手實(shí)踐;課程內(nèi)容以原理講解為根本,以應(yīng)用落地為目標(biāo)。課程通過(guò)大量形象的比喻和手算示例來(lái)解釋復(fù)雜的機(jī)器學(xué)習(xí)理論,既能將原理充分講懂講透,也避免了繁復(fù)而枯燥的公式推導(dǎo)。

課程對(duì)象

計(jì)算機(jī)相關(guān)專業(yè)本科;或理工科本科,且至少熟悉一門編程語(yǔ)言。

學(xué)員基礎(chǔ)

具備初步的IT基礎(chǔ)知識(shí)

?

課程大綱(培訓(xùn)內(nèi)容可根據(jù)客戶需求調(diào)整)

時(shí)間內(nèi)容案例實(shí)踐與練習(xí)
Day1初識(shí)機(jī)器學(xué)習(xí)

上午

概述入門

數(shù)據(jù)預(yù)處理

概述(第一天——1)

1、? 概念與術(shù)語(yǔ)(人工智能、數(shù)據(jù)挖掘、機(jī)器學(xué)習(xí))

2、 數(shù)據(jù)挖掘的對(duì)象

3、 數(shù)據(jù)挖掘的關(guān)鍵技術(shù)

4、 知識(shí)的表達(dá)

5、 Python的安裝

 

數(shù)據(jù)預(yù)處理(第一天——2)

1、? 數(shù)據(jù)清理

2、 規(guī)范化

3、 模糊集

4、 粗糙集

5、 無(wú)標(biāo)簽時(shí):PCA

6、 有標(biāo)簽時(shí):Fisher線性判別

數(shù)據(jù)壓縮(DFT、小波變換)

案例實(shí)踐:

1、? python安裝

2、 Tensorflow安裝

3、 PCA的實(shí)驗(yàn)

4、 DFT的實(shí)驗(yàn)

Day1初識(shí)機(jī)器學(xué)習(xí)

下午

回歸與時(shí)序分析

決策樹(shù)

回歸與時(shí)序分析 (第一天——3)

1、? 線性回歸

2、 非線性回歸

3、 logistics回歸

4、 平穩(wěn)性、截尾與拖尾

5、 ARIMA

 

決策樹(shù)(第一天——4)

1、? 分類和預(yù)測(cè)

2、 熵減過(guò)程與貪心法

3、 ID3

4、 C4.5

5、 其他改進(jìn)方法

決策樹(shù)剪枝

案例實(shí)踐:

1、? 回歸的實(shí)驗(yàn)

2、 ARIMA預(yù)測(cè)實(shí)驗(yàn)

3、 決策樹(shù)的實(shí)驗(yàn)

 

Day2機(jī)器學(xué)習(xí)中的典型算法

上午

聚類

關(guān)聯(lián)規(guī)則

樸素貝葉斯與KNN

聚類(第二天——1)

1、? 監(jiān)督學(xué)習(xí)與無(wú)監(jiān)督學(xué)習(xí)

2、 K-means與k-medoids

3、 層次的方法

4、 基于密度的方法

5、 基于網(wǎng)格的方法

6、 孤立點(diǎn)分析

 

關(guān)聯(lián)規(guī)則(第二天——2)

1、? 頻繁項(xiàng)集

2、 支持度與置信度

3、 提升度

4、 Apriori性質(zhì)

5、 連接與剪枝

 

樸素貝葉斯與KNN(第二天——3)

1、? KNN

2、 概率論基礎(chǔ):條件概率、聯(lián)合概率、分布、共軛先驗(yàn)。

3、 “概率派”與“貝葉斯派”

4、 樸素貝葉斯模型

 

案例實(shí)踐:

1、? 鳶尾花數(shù)據(jù)的聚類

2、 超市購(gòu)物籃——關(guān)聯(lián)規(guī)則分析

3、 樸素貝葉斯案例:皮馬印第安人患糖尿病的風(fēng)險(xiǎn)

Day2機(jī)器學(xué)習(xí)中的典型算法

下午

極大似然估計(jì)與EM算法

性能評(píng)價(jià)指標(biāo)

極大似然估計(jì)與EM算法(第二天——4)

1、? 極大似然估計(jì)

2、 對(duì)數(shù)似然函數(shù)

3、 EM算法

 

性能評(píng)價(jià)指標(biāo)(第二天——5)

1、? 準(zhǔn)確率;精確率、召回率;F1

2、 真陽(yáng)性率、假陽(yáng)性率

3、 混淆矩陣

4、 ROC與AUC

5、 對(duì)數(shù)損失

6、 Kappa系數(shù)

7、 回歸:平均絕對(duì)誤差、平均平方誤差

8、 聚類:蘭德指數(shù)、互信息

9、 k折驗(yàn)證

案例實(shí)踐:

1、? 正態(tài)分析的參數(shù)估計(jì)

2、 EM算法應(yīng)用案例:雙正態(tài)分布的參數(shù)估計(jì)

3、 繪制ROC并計(jì)算AUC、F1

4、 繪制擬合曲線,計(jì)算擬合優(yōu)度

Day3神經(jīng)網(wǎng)絡(luò)專題

上午

BP神經(jīng)網(wǎng)絡(luò)

模擬退火算法與其他神經(jīng)網(wǎng)絡(luò)

BP神經(jīng)網(wǎng)絡(luò) (第三天——1)

1、? 人工神經(jīng)元及感知機(jī)模型

2、 前向神經(jīng)網(wǎng)絡(luò)

3、 sigmoid

4、 徑向基函數(shù)神經(jīng)網(wǎng)絡(luò)

5、 誤差反向傳播

 

模擬退火算法與其他神經(jīng)網(wǎng)絡(luò) (第三天——2)

1、? 模擬退火算法

2、 Hopfield網(wǎng)絡(luò)

3、 自組織特征映射神經(jīng)網(wǎng)絡(luò)(SOM)

4、 受限布爾茲曼機(jī)

案例實(shí)踐:

1、? 可以手算的神經(jīng)網(wǎng)絡(luò)

2、 神經(jīng)網(wǎng)絡(luò)模擬一個(gè)圓錐曲面

3、 “貨郎擔(dān)”問(wèn)題(模擬退火算法)

4、 識(shí)別破損的字母(Hopfield網(wǎng)絡(luò))

5、 聚類的另一種解法(SOM)

Day3神經(jīng)網(wǎng)絡(luò)專題

 

下午

機(jī)器學(xué)習(xí)中的最優(yōu)化方法

遺傳算法

機(jī)器學(xué)習(xí)中的最優(yōu)化方法(第三天——3)

1、? 參數(shù)學(xué)習(xí)方法

2、 損失函數(shù)(或目標(biāo)函數(shù))

3、 梯度下降

4、 隨機(jī)梯度下降

5、 牛頓法

6、 擬牛頓法

 

遺傳算法 (第三天——4)

1、? 種群、適應(yīng)性度量

2、 交叉、選擇、變異

3、 基本算法

案例實(shí)踐:

1、? 隨機(jī)梯度下降的例子

2、 牛頓法求Rosenbrock(香蕉函數(shù))的極值

3、 “同宿舍”問(wèn)題:遺傳算法

 

Day4機(jī)器學(xué)習(xí)進(jìn)階

上午

支持向量機(jī)

隱馬爾科夫模型

支持向量機(jī) (第四天——1)

1、? 統(tǒng)計(jì)學(xué)習(xí)問(wèn)題

2、 支持向量機(jī)

3、 核函數(shù)

4、 多分類的支持向量機(jī)

5、 用于連續(xù)值預(yù)測(cè)的支持向量機(jī)

 

隱馬爾科夫模型(第四天——2)

1、? 馬爾科夫過(guò)程

2、 隱馬爾科夫模型

3、 三個(gè)基本問(wèn)題(評(píng)估、解碼、學(xué)習(xí))

4、 前向-后向算法

5、 Viterbi算法

6、 Baum-Welch算法

?

案例實(shí)踐:

1、? SVM:iris的三個(gè)分類

2、 HMM示例:天氣與地表積水、罐中的彩球

3、 HMM之前向算法:擲骰子的序列

4、 HMM之viterbi算法:是否生病了?

Day4機(jī)器學(xué)習(xí)進(jìn)階

下午

文本挖掘

從LSA到LDA

文本挖掘(第四天——3)

1、文本分析功能

2、文本特征的提取

4、TF-IDF

5、文本分類

5、文本聚類

 

從LSA到LDA(第四天——3)

1、? LSA

2、 pLSA

3、 LDA

?

案例實(shí)踐:

1、? 英文文本分析;

2、 中文文本分析:《絕代雙驕》

3、 中文語(yǔ)句情感分析

4、 LSA和LDA的比較

 

Day5機(jī)器學(xué)習(xí)進(jìn)階與深度學(xué)習(xí)初步

上午

利用無(wú)標(biāo)簽的樣本

集成學(xué)習(xí)

利用無(wú)標(biāo)簽的樣本(第五天——1)

1、? 半監(jiān)督學(xué)習(xí)

2、 直推式學(xué)習(xí)

3、 主動(dòng)學(xué)習(xí)

?

集成學(xué)習(xí)(第五天——2)

1、? bagging

2、 co-training

3、 adaboost

4、 隨機(jī)森林

5、 GBDT

案例實(shí)踐:

1、? 半監(jiān)督學(xué)習(xí):SVM標(biāo)簽擴(kuò)展;

2、 主動(dòng)學(xué)習(xí):手寫(xiě)數(shù)字

3、bagging、adaboost、RF、GBDT的例子

Day5機(jī)器學(xué)習(xí)進(jìn)階與深度學(xué)習(xí)初步

下午

強(qiáng)化學(xué)習(xí)

深度學(xué)習(xí)-1

強(qiáng)化學(xué)習(xí)(第五天——3)

1、? agent的屬性

2、 exploration and exploitation

3、 Bellman期望方程

4、 最優(yōu)策略

5、 策略迭代與價(jià)值迭代

6、 Q學(xué)習(xí)算法

 

深度學(xué)習(xí)-1(第五天——4)

1、? 連接主義的興衰

2、 深度學(xué)習(xí)與神經(jīng)網(wǎng)絡(luò)的區(qū)別與聯(lián)系

3、 目標(biāo)函數(shù)

4、 激勵(lì)函數(shù)

學(xué)習(xí)步長(zhǎng)

案例實(shí)踐:

1、? 強(qiáng)化學(xué)習(xí)示例:走迷宮

2、 強(qiáng)化學(xué)習(xí):谷底的小車

3、 深度學(xué)習(xí)示例:模式識(shí)別

Day6深度學(xué)習(xí)

上午

深度學(xué)習(xí)-2

深度學(xué)習(xí)-3

深度學(xué)習(xí)-2(第六天——1)

1、? 優(yōu)化算法

2、 Adagrad

3、 RMSprop

4、 Adam

5、 避免過(guò)適應(yīng)

深度學(xué)習(xí)-3(第六天——2)

1、? 典型應(yīng)用場(chǎng)景

2、 CNN

3、 各種CNN

4、 RNN

LSTM、GRU

案例實(shí)踐:

1、? CNN的準(zhǔn)備示例

2、 CNN處理MNIST手寫(xiě)數(shù)字?jǐn)?shù)據(jù)集

3、 RNN準(zhǔn)備示例

4、 RNN分析股票趨勢(shì)

5、 LSTM的準(zhǔn)備示例

 

Day6深度學(xué)習(xí)

下午

深度學(xué)習(xí)-4

1、? GAN

2、 DQN

?

案例實(shí)踐:

1、? DQN結(jié)合CNN:“flappy bird”