×
切換帳號
台灣數位訓練課程
課程
知識
系統教學
登入
索引
00:00
1.
GenAI 鴻溝 ~ 一本正經、胡說八道的必然結果
筆記
(0)
未登入或權限不足!
討論
影片問題
問卷
資訊卡
字幕
廣告
×
寫筆記
loading ...
00:00
1.
GenAI 鴻溝 ~ 一本正經、胡說八道的必然結果
×
嵌入網址
語法
複製語法
解析度
1280x720
自訂大小
原始碼嵌入
原始碼嵌入 (比例 4:3)
原始碼嵌入 (比例 16:9)
自訂大小
x
×
QR code
分享
嵌入網址
QR code
索引
筆記
討論
全螢幕
列印日期 : 2026/03/13
台灣數位訓練課程
知識庫
AI 人工智慧之道 ~ 3 個月打造 AI 知識庫並提升業績 20%
GenAI 鴻溝 ~ 一本正經、胡說八道的必然結果
長度: 09:07,
瀏覽: 103,
最近修訂: 2026-02-15
×
播放影片: https://training.xms.tw/media/4958
美國麻省理工學院 (MIT) 2025 年的一份報告:
「生成式AI鴻溝:2025年商業AI現況」
(The GenAI Divide: State of AI in Business 2025)
引爆大家對 AI 泡沫的疑慮,
甚至被認為很可能是造成美國股市大跌、韓國股市崩盤到熔斷的主要原因之一。
這份嚇壞市場的 MIT 報告,究竟說了什麼?
其中的兩項數據令人印象深刻:
95%
企業「
投資 AI
零報酬
」
90%
用戶「
更信任人類同事
」
其實這並不令人意外,甚至是預期中的結果!
生成式 AI 根本的 5 大限制
2025 年史丹佛大學發表一篇論文「
On the Fundamental Limits of LLMs at Scale
」,
從理論上更證明目前「
生成式 AI
」有 5 個根本限制:
幻覺 (Hallucination)
上下文壓縮 (Context Compression)
推理能力降級 (Reasoning Degradation)
檢索脆弱性 (Retrieval Vulnerability,也就是 RAG 技術)
多模態錯位 (Multimodal Misalignment)
也就是說,
AI 那一本正經胡說八道的問題,從理論上 ... 無解。
而且那種充滿自信且流暢的語氣,更恐怖。
因為更容易產生誤導,這在嚴謹的工廠生產 (SOP) 或醫療環境,風險很高。
每次回答,都不一樣
以下是 2025/11 的測試結果,
即使採用 RAG 技術,一樣無法避免「一本正經、胡說八道」的問題。
請 ChatGPT 依據特定內容回答衛教問題「裝引流管後可以洗澡嗎?」
一次說「沒找到」
另一次有找到,但卻回答錯誤「需避免淋濕」 (答案是不行)
一本正經,很恐怖 ...
因為回答得太專業了 ~
雖然沒有直接提及 ...
但有提到「Port-A 人工血管」 ...
根本就像是專家的口吻,
還特別提到「Port-A 人工血管」,很容易讓人信以為真。
以下是一樣的問題,問 Google notebookLM (Gemini 模型) 的結果
AI 幻覺的風險
從現有生成式 AI 的技術角度,幻覺問題是無解的。
因此幾乎所有公司都會加註提醒與警語,例如 Google 「AI 摘要」功能中的警語說明 (下圖):
雖然這項技術令人振奮 ... 可能會提供不準確或令人反感的資訊。因此,我們無法確保 AI 摘要內容皆正確無誤。
然而,這樣的不確定性,
對企業來說,尤其在「標準化的生產流程 (SOP)」,會是一個非常嚴重的問題。
有經驗的員工或許還能察覺異常,
對 AI 的回應保有一定的判斷與思辨能力,覺得「怪怪的」時候,會再進一步查證。
但對新進人員而言,
由於 AI 語氣「一本正經」,反而更容易讓人信以為真、照單全收,進而導致實際的生產錯誤。
也因為 AI 技術本身極具吸引力,全球企業都積極投入,
但與此同時,其「幻覺(hallucination)」問題也開始在實務應用中浮現,
以下就是幾個因 AI 回答不夠精準,所造成嚴重後果的實際案例。
案例
1.
遺漏重要資訊
A 公司 5 月 26 日的生產事件:
文件中明確提到模具預熱的步驟,
「溫度會
依模具規範而不同
」,必須查閱對應規格 (還特別標成紅色)。
但 AI 回應中遺漏了這段關鍵資訊,
導致新人直接套用前一模具的預熱溫度設定,
結果造成生產的 5,200 支瓶胚中,有 4,870 支因底部翹曲與螺牙波紋而報廢,損失慘重。
2.
遺漏關鍵步驟
B 公司 3 月 7 日的生產事件:
原文有明確提及「模具預熱」的步驟,但 AI 回應卻略過這個程序。
新人依照 AI 的回應操作,未正確完成預熱流程,
導致模具在未對準的情況下受熱變形,射嘴與模口錯位,不僅造成模具損壞,也導致生產中斷。
特別說明:
這類問題的發生,並不是因為員工不夠認真,也不是非 AI 技術本身的錯,而是提醒我們:
要建立保護機制
能有效避免幻覺的風險,例如好的教育訓練制度幫助新人有足夠的「經驗和敏銳度」。
資料內容很重要
在缺乏「高品質、結構化」資料輔助的情況下,直接依賴 AI 回應來作業,是極具風險的。
×
×
複製檢核清單
loading ...
×
×
×
關閉
×
loading ...
評語
請登入後才可以評分
×
評分
×
查看更多
loading ...
上一篇
下一篇
討論
詳細
位置
知識庫
AI 人工智慧之道 ~ 3 個月打造 AI 知識庫並提升業績 20%
資料夾名稱
AI 人工智慧之道 ~ 3 個月打造 AI 知識庫並提升業績 20%
上傳者
蘇德宙
單位
台灣數位員工
標籤
案例
,
AI 胡說八道
,
AI鴻溝
建立
2025-12-29 20:44:52
最近修訂
2026-02-15 11:51:47
長度
09:07
知識庫
AI 人工智慧之道 ~ 3 個月打造 AI 知識庫並提升業績 20%
1.
第一章、用 AI 幫團隊業績成長 20%
1.1
AI 知識庫的需求、痛點 & 解法
1.2
每天 10 分鐘,3 個月提升團隊業績 20%
1.3
改變 or 推動新制度,可以很簡單!「小行為 + 即時激勵」就對了
1.4
AI 知識社群
1.5
輔導方案 ~ 導入 xms+ AI 知識庫
2.
第二章、AI 人工智慧之道
2.1
GenAI 鴻溝 ~ 一本正經、胡說八道的必然結果
2.2
生成式 AI 的 5 個根本限制
2.3
打造不會胡說八道的 AI 知識庫
2.4
什麼都先問 AI?
2.5
AI 人工智慧之道 ~ 打破砂鍋問到底!
2.6
導入 xms+ AI 的效益
3.
第三章、紀錄經驗,寫 FAQ 就對了
3.1
寫 FAQ 的好處
3.2
降低寫 FAQ 的門檻
3.3
寫 FAQ (1) ~ 快速、高品質的標準化流程
3.4
寫 FAQ (2) ~ 問題,要怎麼描述? (原則與步驟)
3.5
寫 FAQ (3) ~ 內容,先講重點就對了 (PREP)
3.6
寫 FAQ (4) ~ 前提,有時候很重要
3.7
寫 FAQ (5) ~ 排版,可以畫龍點睛! (凸顯重點、增加可讀性)
3.8
寫 FAQ (6) ~ 案例練習 (下標題、排版)
4.
第四章、10 倍速經驗傳承
4.1
70-20-10 學習法則
4.2
用 AI 進行 10 倍速經驗傳承
5.
第五章、推動 & 執行
5.1
記錄經驗,寫 FAQ 就對了!
5.2
把義務,化為無痛的習慣
5.3
組織成功變革的 8 個步驟
6.
第六章、常見問題
6.1
Q&A 執行時的常見問題
6.2
每天只花 10 分鐘,時間真的夠嗎?
6.3
為什麼是寫 Q&A?
6.4
有記錄到的這麼少,還值得做嗎?
6.5
已經有文件了,為什麼還要寫 FAQ?
6.6
寫下來是錯的,要怎麼辦?
6.7
大家的意願低 (可能因為忙、累),如何設定目標才能 3 個月完成?
6.8
QBS ~ 寫一個 QA 還是分拆多個?
7.
第七章、知識管理 ~ 挑戰與突破
7.1
知識管理的需求、3大挑戰與突破
7.2
打通任督二脈:邊做邊記錄、下次照著做
7.3
討論區 + AI ~ 實現「邊做邊記錄、下次照著做」
7.4
突破 (1) ~ 經驗,進不去?
7.5
突破 (2) ~ 知識過時、不完整、重複?
7.6
突破 (3) ~ 找不到資料?
8.
第八章、xms+ AI 操作快速入門
8.1
建立 AI 小幫手,3 分鐘搞定!
8.2
[操作] 問題處理 or 案例分析,10倍速經驗傳承的關鍵
8.3
[操作] 編輯器的基礎教學
9.
持續改善
9.1
案例:下次碰到時再補充就好 (PDCA 持續改善)
9.2
案例:增加 Q&A 的覆蓋率