睿地可靠度論壇(TW-REDI Forum)
標題:
QKC20200313:讀書會_人工智慧 (AI) 在品質技術的應用系列:(2) 機率簡論
[打印本頁]
作者:
hlperng
時間:
2020-3-14 13:22:09
標題:
QKC20200313:讀書會_人工智慧 (AI) 在品質技術的應用系列:(2) 機率簡論
本帖最後由 hlperng 於 2020-3-14 13:25 編輯
品質學會品質知識社群 (QKC) 讀書會
專題:人工智慧 (AI) 在品質技術的應用系列 (2) 機率簡論
時間:2020 年 03 月 13 日 (星期三) 14:00 - 18:00
地點:台北市羅斯福路二段 75 號 9 樓 (時代大樓品質學會九樓會議室)
引導:官生平 彭鴻霖 會友
作者:
hlperng
時間:
2020-5-24 11:08:24
標題:
人工智慧 (AI) 與 機率概論的一些名詞與定義
本帖最後由 hlperng 於 2020-8-15 11:37 編輯
人工智慧 vs. 人類智慧
線性 vs. 非線性,為什麼解答用線性,檢討用非線性?循序漸進!
試誤法 (try and error)
可能性
概似函數 (likelihood function)、概似函數對數值 = 對數概似函數 = 概似函數
梯度 (gradient)、斜率 (slope)
梯度下降、提前停止
風險是損失的期望值
損失函數:二次損失函數、交叉熵損失函數
風險是損失的期望值
損失函數:二次損失函數、交互熵損失函數
自我 (auto) vs. 交互 (cross)
物體熵 vs. 資訊熵 (information entropy)
夏農熵 (1948) (Shannon entropy):資訊亂度,事物混沌紊亂程度的度量方式。
適化:風險最小、損失最小
鴻溝 (gap)
離差 (deviation) = 偏差 (bias) + 誤差 (error)
有指導學習 (supervised learning): 自動學習
無指導學習 (unsupervised learning): 自主學習
強化學習 (enforcement learning)
分類 (classification)、回歸 (regression)
分群 (clustering):MW 檢定、
分類:t 檢定﹑
分級:卡方檢定
特徵學習 (feature learning)、表達學習 (representation learning);參數 (parameter)
機器學習 = 統計學習
深度學習 = 機率學習?
卷積神經網路 (covolution neural network, CNN)
循環神經網路 (recurrent neural network, RNN)
遞歸神經網路 (recursive neural network, RecNN)
歡迎光臨 睿地可靠度論壇(TW-REDI Forum) (http://tw-redi.com/)
Powered by Discuz! X2