睿地可靠度論壇(TW-REDI Forum)

 找回密碼
 立即註冊
查看: 4837|回復: 1
打印 上一主題 下一主題

QKC20200313:讀書會_人工智慧 (AI) 在品質技術的應用系列:(2) 機率簡論 [複製鏈接]

Rank: 7Rank: 7Rank: 7

UID
5
帖子
1525
主題
739
記錄
1
分享
0
日誌
213
閱讀權限
100
最後登錄
2024-4-21
在線時間
2325 小時
跳轉到指定樓層
樓主
發表於 2020-3-14 13:22:09 |只看該作者 |倒序瀏覽
本帖最後由 hlperng 於 2020-3-14 13:25 編輯

品質學會品質知識社群 (QKC) 讀書會
專題:人工智慧 (AI) 在品質技術的應用系列 (2) 機率簡論
時間:2020 年 03 月 13 日 (星期三) 14:00 - 18:00
地點:台北市羅斯福路二段 75 號 9 樓 (時代大樓品質學會九樓會議室)
引導:官生平 彭鴻霖 會友








Rank: 7Rank: 7Rank: 7

UID
5
帖子
1525
主題
739
記錄
1
分享
0
日誌
213
閱讀權限
100
最後登錄
2024-4-21
在線時間
2325 小時
沙發
發表於 2020-5-24 11:08:24 |只看該作者

人工智慧 (AI) 與 機率概論的一些名詞與定義

本帖最後由 hlperng 於 2020-8-15 11:37 編輯

人工智慧 vs. 人類智慧

線性 vs. 非線性,為什麼解答用線性,檢討用非線性?循序漸進!

試誤法 (try and error)

可能性
概似函數 (likelihood function)、概似函數對數值 = 對數概似函數 = 概似函數
梯度 (gradient)、斜率 (slope)
梯度下降、提前停止

風險是損失的期望值

損失函數:二次損失函數、交叉熵損失函數

風險是損失的期望值

損失函數:二次損失函數、交互熵損失函數
自我 (auto) vs. 交互 (cross)

物體熵 vs. 資訊熵 (information entropy)
夏農熵 (1948) (Shannon entropy):資訊亂度,事物混沌紊亂程度的度量方式。

適化:風險最小、損失最小


鴻溝 (gap)

離差 (deviation) = 偏差 (bias) + 誤差 (error)

有指導學習 (supervised learning): 自動學習
無指導學習 (unsupervised learning): 自主學習
強化學習 (enforcement learning)


分類 (classification)、回歸 (regression)
分群 (clustering):MW 檢定、
分類:t 檢定﹑
分級:卡方檢定


特徵學習 (feature learning)、表達學習 (representation learning);參數 (parameter)
機器學習 = 統計學習
深度學習 = 機率學習?

卷積神經網路 (covolution neural network, CNN)
循環神經網路 (recurrent neural network, RNN)
遞歸神經網路 (recursive neural network, RecNN)





您需要登錄後才可以回帖 登錄 | 立即註冊

Archiver|手機版|睿地可靠度論壇(TW-REDI Forum)   

GMT+8, 2024-4-24 14:17 , Processed in 0.047645 second(s), 9 queries .

Powered by Discuz! X2

© 2001-2011 Comsenz Inc.

回頂部