送禮物 訂閱
<%if prop.topic_id !=0 %> <%/if%>
<%:prop.genus%> <%:~formatDate(prop.online_date, 'YYYY MMM DD' )%> <%:prop.title%>
<%:prop.realname%> <%:prop.realname%>
<%:prop.realname%>

<%:prop.realname%>

<%:prop.intro%>

add
新會員

<%:prop.email%>

add

<%:prop.title%>

AI 幻覺風暴一:AI 為何愈學愈會說謊?揭開「制度性幻覺」的病根

AI 幻覺風暴一:AI 為何愈學愈會說謊?揭開「制度性幻覺」的病根

Sep 08, 2025

現在的 AI 「教育體制」才是促成 AI 幻覺最大的元兇。(圖片來源:OpenAI,經 Perplexity 重製)

<%:prop.realname%>
<%if prop.email %>

<%:prop.email%>

<%else %>

<%:prop.realname%>

<%:prop.intro%>

<%/if%>
已有閱讀權限

我們把 AI 送進一間獎勵說謊、懲罰誠實的學校,結果培養出一個「天才騙子」。本文深入 OpenAI 的最新研究論文,揭示幻覺的制度成因,根源不是科學和技術,而是人類對 AI 的期待。有趣的是,當 OpenAI 推出更謙遜、寧可承認不會也不願意說謊的最新 GPT5 模型時,人們卻開始討厭這個好孩子。

AI 為什麼這麼會「一本正經地胡說八道」?最近,AI 界的龍頭 OpenAI 給出了一個讓人意外的答案。

簡單來說,問題不是 AI 不夠聰明,而是我們「教」它的方式錯了。上週(2025 年 9 月 5 日)最新發布的一篇研究中,OpenAI 指出,AI 之所以會產生所謂的「幻覺」(hallucination),根本原因在於現行 AI 面對的「評分標準」出了問題—— 我們獎勵它亂猜,卻懲罰它誠實[1]。

這套標準就像一場大型考試:亂猜答錯跟誠實地交白卷,下場都一樣是零分。為了拚高分,AI 當然寧可賭一把、自信地亂說,也不想承認「我不知道」。

但這種「愛亂猜」的壞習慣,並不只是科技圈的笑話。過去兩年,它已經在航空業、法律界、新聞媒體等許多領域造成了真實的損失,變成一個棘手的公共風險[2][3][4]。

OpenAI 這次對病根的挖掘,等於為了解決這個問題開了一扇新的窗,告訴我們必須從「AI 獎勵制度」下手。《旭時報》將帶您從兩個角度看懂這件事:首先,跟著 OpenAI 挖出問題的病根;接著,再攤開一張「災情地圖」,看看它在現實世界到底闖了哪些禍。

快速看懂|為什麼 AI 老愛「亂猜」?[1]


 AI 會胡說八道,問題不是它不夠聰明,而是現在評估它的「計分方式」,根本是在鼓勵它投機取巧。

  • 定義清楚卻難解:什麼是幻覺?簡單說,就是 AI 遇到它不會的問題時,不老實承認,反而瞎掰一個聽起來很專業的答案。 
  • 評估機制失真:為什麼 AI 寧可亂猜?因為現在的 AI 模型機制設計只看「答對率」。對 AI 來說,答錯了是零分,但如果承認「我不會」,也一樣是零分。既然結果都一樣,AI 當然選擇賭一把,猜對了反而能得分。 
  • 實驗數據對比: OpenAI 的實驗結果超諷刺。「愛亂猜」的 OpenAI o4-mini 模型,帳面上的答對率比較高 (24%),但犯錯率其實高達 75%。另一個「比較誠實」的 GPT-5-mini 模型,答對率雖然低一點 (22%),卻很少犯錯,因為它有一半以上的時間都選擇老實說「我不知道」。
  • OpenAI 的立場:一個真正可靠的 AI,重點不是什麼都懂,而是在不知道的時候,能誠實地說出「我不確定」。

回顧歷史|AI「愛說謊」的壞習慣是怎麼養成的?

AI 的「幻覺」問題,其實不是一天兩天的事了。我們可以簡單回顧一下,這幾年科技圈是怎麼一步步掉進這個坑裡的:

  • 2020–2021 初登場的「天才騙子」:GPT-3 剛問世時,大家都被它會寫詩、寫文章的才華嚇到了。但很快就發現,它也是個瞎掰慣犯,常常一本正經地捏造根本不存在的論文和人物。當時媒體給了它一個稱號:「愛說謊的 AI」[1]。
  • 2022「理直氣壯的錯誤」引爆全球:ChatGPT 橫空出世,幻覺問題徹底引爆。全球上億人親身體驗到,AI 是怎麼能「理直氣壯地犯錯」的,這也逼得所有 AI 公司,不得不把解決這個問題當成最重要的功課[1]。
  • 2023 大家開始分頭找解方:產業對策出現分歧。各大公司開始想辦法,但路線不太一樣。Anthropic 試圖給 AI 建立一套「原則」,教它分辨是非;Google 則強調教 AI 要懂得「避嫌」,遇到不確定的問題,乾脆就拒絕回答[6]。 
  • 2024 「走錯方向」的比賽思維:但弔詭的是,像『聊天機器人競技場』那種讓網友投票的 AI 人氣比賽,例如加州大學柏克萊分校的 LMSYS,卻走錯了方向。它們的評分標準還是只看誰的答案「更討人喜歡」、誰的「答對率」更高,完全不管 AI 是不是在亂掰,也不在乎它懂不懂得誠實地說「我不知道」,這等於是變相鼓勵 AI 繼續亂猜[7]。
  • 2025 OpenAI 承認問題所在:最新的 GPT-5 發布了,OpenAI 雖然強調有努力減少幻覺,但也坦白承認,問題還沒根治。他們終於把話挑明了:「別再怪 AI 了,真正有問題的,是現在這套逼 AI 說謊的評分標準!」有趣的是,謙遜又嚴謹的 GPT-5,沒有得到好評,反而被用戶批評謾罵[1]。 

 市場怎麼選|「你會選「萬事通 AI」還是「老實頭 AI」?

AI 到底該有問必答,還是該誠實謙虛?這不只是個技術問題,更是一道擺在所有使用者和公司面前的選擇題。

  • 對用戶,一場體驗的拔河:這其實也是我們每個人的選擇。你喜歡哪一種 AI?是那種就算會犯錯,也要硬擠出一個答案的「萬事通」?還是那種遇到不確定問題,會老實告訴你「抱歉,我不清楚」的「老實頭」? 
  • 對企業,一道攸關生死的必考題:對某些行業來說,這可是攸關生死的必考題。尤其在醫院、銀行、法院這些地方,AI 一句瞎掰的答案,就可能害病人吃錯藥、讓客戶賠大錢,甚至搞砸一場官司。在這些地方,一句「我不知道」反而比錯誤答案更有價值。[2][3]
  • 對產業,一場遊戲規則的轉向:整個 AI 產業的未來,就看這個「風向球」怎麼轉。如果那些 AI 大考的「計分板」繼續給愛亂猜的學生高分,那所有 AI 都會被教成「愛裝懂的騙子」。但如果計分板開始獎勵「誠實」,那麼開發更安全、更可靠的 AI,才會成為大家共同的目標[1]
  •  「錯誤比沉默更危險。」——OpenAI 研究報告,2025-09-05。 

 深入分析|AI 會胡說八道,其實是整個「AI 教育制度」造成的

 總結來說,AI 會產生幻覺,不是「模型壞掉」的神祕故障,而是我們訓練和評分它的這套「教育體制」本身就有問題。我們可以從四個層面來看:

  • 幻覺的「身世之謎」,來自「猜下一個字」的訓練過程幻覺的種子,其實在 AI 最初的訓練方式——「猜下一個字」——中就已埋下。AI 學習語法和拼寫很容易,因為它們有固定規律。但「隨機的事實」通常沒有規律可循,例如某一個人的生日是幾號。只要資料庫裡沒讀熟,它就很容易出錯,再厲害的 AI 也一樣。
  • 訓練數據的「原罪」,你餵 AI 吃垃圾,它當然只會吐垃圾AI 的所有知識,都來自於我們餵給它的訓練資料。如果這些「教材」本身就有問題——例如,資訊老舊過時、內容充滿偏見、事實標示錯誤,或數據來源單一——那麼 AI 學成的,自然也是一套充滿缺陷的世界觀。
  • 學習過程的「兩大陷阱」,人類的偏見與機器的死背:除了教材本身有問題,學習過程中還有兩個大陷阱。一是人類偏見的「遺傳」,許多資料是由人類來標註「正確答案」的,而標註者自身的主觀認知與偏見,會在不知不覺中「遺傳」給 AI。二是技術上的「過度擬合」,這可以想像成一個「只會背考古題的書呆子」。模型把訓練題庫背得滾瓜爛熟,卻缺乏真正的理解,一碰到沒見過的新問題,就只會胡亂套用舊公式,掰出離譜的答案。
  • 跑錯的激勵設計,考試規則逼它「投機取巧」:這個我們前面提過,現在的「AI 大考」制度,等於是在對所有 AI 說:「勇敢猜!猜對有獎,猜錯不罰,但不回答就是你的不對!」這種規則,當然會教出滿口謊言的投機學生。
  • 用戶體驗的矛盾期待,使用者又要它「全能」,又要它「誠實」:這也是一個兩難。如果 AI 太常說「我不知道」,使用者會嫌它笨、沒路用。但如果它為了討好你而亂猜,又會被罵「不老實」。這種「又要馬兒好,又要馬兒不吃草」的矛盾期待,讓開發 AI 的人傷透腦筋。
  • 全球的路線之爭:「美國隊」 vs. 「歐洲隊」未來,全世界可能會分成兩個陣營。一邊是以美國為首的「衝刺隊」,繼續追求更快、更強的答題能力。另一邊可能是以歐盟為首的「安全隊」,他們會要求 AI 必須先學會「踩煞車」,把安全和誠實放在第一位。這兩條路,將決定未來 AI 的樣貌,甚至改變全球的科技版圖[6]。

2023 年 6 月,OpanAI 執行長奧特曼(Sam Altman)在印度理工學院德里分校(IIIT Delhi)演講時說,「我們會解決幻覺問題的,可能需要一年半或兩年的時間。到那時,我們就不會再談論這些了。」至今剛好超過 2 年,OpenAI 推出詳細論文解釋 AI 幻覺的來源,似乎也在為備受批評的 GPT5 模型進行辯護。(資料圖片:達志影像)

接下來看什麼|AI 模型評估標準的「修憲時刻」[5] 

說到底,其實是我們自己,把 AI 推入了一個進退兩難的困境。

作為使用者,我們嘴上說要誠實,但潛意識裡卻想要一個「有問必答」的萬事通。看到 AI 太常說「我不知道」,我們就會覺得它很笨、很沒用。而在市場上,為了贏得用戶的青睞,OpenAI、Google、Amazon 或是 Anthropic 等產品團隊只好拚命優化那些「看起來很厲害」的指標,像是回覆率和流暢度,而不是把「誠實」放在第一位。

簡單來說,使用者、企業、AI 模型開發商,三方共同形成了一個惡性循環,最終逼得 AI 只能選擇「有問必答,哪怕是亂猜」這條路[4]。

所以,真正的難題已經不是「技術上能否減少幻覺」。真正的看點是:這個由所有人共同設下的「遊戲規則」,到底該由誰來帶頭打破?

  •  產業敢「自廢武功」嗎?各大模型開發商,會不會真的把「誠實度」納入核心評分標準?更重要的是,他們是否願意直接修改主流的準確率評分方式,而不只是在旁邊新增幾個無關痛癢的「防幻覺測試」來做表面功夫?這才是改革的試金石。
  •  使用者會「買單」嗎?們自己願不願意為了更高的可靠性,去接受一個更常說「我不知道」的 AI?
  •  政府會「出手」嗎?如果再發生重大幻覺事故,公共監管單位會不會強制規定一套「安全謙遜」的 AI 標準? 
  •  市場會「聽誰的」?OpenAI 這次登高一呼,究竟會帶動整個產業改革,還是最終會被市場「只看分數」的殘酷現實給淹沒?

總結:破解關於 AI 幻覺的三大迷思

在完整分析後,我們可以回頭破解幾個關於幻覺的常見迷思:

  • 迷思一:幻覺是無法避免的宿命。真相是:並非如此。只要 AI 學會誠實地承認「我不知道」,幻覺就可以被大幅避免。問題不在技術,在於制度是否鼓勵誠實。
  • 迷思二:只有更強大的 AI 才能解決幻覺。真相是:恰恰相反,小模型有時反而更容易知道自己的極限。就像一個完全不懂日文的人,被問到日文問題會直接說「我不會」;但一個略懂一些的人,反而需要費力判斷自己到底懂不懂。
  • 迷思三:幻覺是一個神祕的技術故障。真相是:它一點也不神祕。我們已經知道,幻覺如何在「猜下一個字」的訓練中誕生,並在「只看準確率」的評估中被鼓勵長大。

本文報導深入剖析 AI 幻覺的制度性成因:一套獎勵猜測、而非誠實的評估體系。然而,一個存在缺陷的制度,其影響絕不僅止於理論層面。當模型產生的錯誤資訊(或稱「幻覺」)從實驗室進入真實世界的應用場景,它究竟會帶來多大的衝擊與代價?從引發民事賠償的航空公司客服,到動搖司法信任的法律判例引用,一場由 AI 幻覺引發的風暴,正具體而微地衝擊著公共領域。

下篇報導,將揭示這張「實務風險地圖」的全貌,呈現幻覺如何在真實世界中,一步步演變為具體的公共損失。

敬請期待:AI 幻覺風暴二:AI說謊的代價有多大?從客服賠錢到法院災難的風險地圖(20250909上架)

資料來源:

  1. OpenAI:《Why language models hallucinate》(2025-09-05)。
  2. American Bar Association:《BC Tribunal Confirms Companies Remain Liable for Information Provided by AI Chatbot》(2024-02-29)。
  3. Reuters:《New York lawyers sanctioned for using fake ChatGPT cases》(2023-06-22)。
  4. The Verge:《AI chatbots are distorting news stories, BBC finds》(2025-03)。
  5. Anthropic:《Constitutional AI: Harmlessness from AI Feedback》(2023)。
  6. European Parliament:《AI Act: deal on comprehensive rules for trustworthy AI》(2023-12-09)。
  7. LMSYS:《Chatbot Arena Leaderboard》(更新至 2025)。
  8. Hindustan Times:《Sam Altman predicts AI hallucinations may be solved in 1.5–2 years》(2023-06-08)。

陪你從「科技+人文」視角,深入國際政經脈動

35元/週解鎖付費會員專屬內容

  • 成為付費會員,即可擁有:
  • ✓ 全站深度分析報導文章
  • ✓ 會員專屬 8 折活動報名優惠

已經是付費會員?登入繼續閱讀

questionnaire questionnaire
questionnaire questionnaire
questionnaire questionnaire
旭編輯

旭編輯 / 編輯

編輯

張育寧

張育寧 / 總編輯

審訂

時間標記 Timestamp

EPEPISODE #旭沙龍-張育寧時間

EP #
邀請已成功寄出 Sucessfully sent