請選擇 進入手機版 | 繼續訪問電腦版

睿地可靠度論壇(TW-REDI Forum)

 找回密碼
 立即註冊
查看: 441|回復: 1

QKC20200313:讀書會_人工智慧 (AI) 在品質技術的應用系列:(2) 機率簡論 [複製鏈接]

Rank: 7Rank: 7Rank: 7

UID
5
帖子
1480
主題
710
記錄
1
分享
0
日誌
213
閱讀權限
100
最後登錄
2020-8-7
在線時間
2258 小時
發表於 2020-3-14 13:22:09 |顯示全部樓層
本帖最後由 hlperng 於 2020-3-14 13:25 編輯

品質學會品質知識社群 (QKC) 讀書會
專題:人工智慧 (AI) 在品質技術的應用系列 (2) 機率簡論
時間:2020 年 03 月 13 日 (星期三) 14:00 - 18:00
地點:台北市羅斯福路二段 75 號 9 樓 (時代大樓品質學會九樓會議室)
引導:官生平 彭鴻霖 會友








Rank: 7Rank: 7Rank: 7

UID
5
帖子
1480
主題
710
記錄
1
分享
0
日誌
213
閱讀權限
100
最後登錄
2020-8-7
在線時間
2258 小時
發表於 2020-5-24 11:08:24 |顯示全部樓層

人工智慧 (AI) 與 機率概論的一些名詞與定義

本帖最後由 hlperng 於 2020-5-24 16:55 編輯

人工智慧 vs. 人類智慧

線性 vs. 非線性,為什麼解答用線性,檢討用非線性?循序漸進!

試誤法 (try and error)

可能性
概似函數 (likelihood function)、概似函數對數值 = 對數概似函數 = 概似函數
梯度 (gradient)、斜率 (slope)
梯度下降、提前停止

風險是損失的期望值

損失函數:二次損失函數、交叉熵損失函數



風險是損失的期望值

損失函數:二次損失函數、交互熵損失函數
自我 (auto) vs. 交互 (cross)


物體熵 vs. 資訊熵 (information entropy)
夏農熵 (1948) (Shannon entropy):資訊亂度,事物混沌紊亂程度的度量方式。

適化:風險最小、損失最小


鴻溝 (gap)

離差 (deviation) = 偏差 (bias) + 誤差 (error)

有指導學習 (supervised learning): 自動學習
無指導學習 (unsupervised learning): 自主學習
強化學習 (enforcement learning)


分類 (classification)、回歸 (regression)

特徵學習 (feature learning)、表達學習 (representation learning);參數 (parameter)
機器學習 = 統計學習
深度學習 = 機率學習?

卷積神經網路 (covolution neural network, CNN)
循環神經網路 (recurrent neural network, RNN)
遞歸神經網路 (recursive neural network, RecNN)




您需要登錄後才可以回帖 登錄 | 立即註冊

Archiver|手機版|睿地可靠度論壇(TW-REDI Forum)   

GMT+8, 2020-8-12 06:15 , Processed in 0.062700 second(s), 11 queries .

Powered by Discuz! X2

© 2001-2011 Comsenz Inc.

回頂部