送禮物 訂閱
<%if prop.topic_id !=0 %> <%/if%>
<%:prop.genus%> <%:~formatDate(prop.online_date, 'YYYY MMM DD' )%> <%:prop.title%>
<%:prop.realname%> <%:prop.realname%>
<%:prop.realname%>

<%:prop.realname%>

<%:prop.intro%>

add
新會員

<%:prop.email%>

add

<%:prop.title%>

AI 幻覺風暴三:終結「燒錢黑洞」主導 SLM 戰局、定義 AI 新秩序的企業清單

AI 幻覺風暴三:終結「燒錢黑洞」主導 SLM 戰局、定義 AI 新秩序的企業清單

Sep 17, 2025

<%:prop.realname%>
<%if prop.email %>

<%:prop.email%>

<%else %>

<%:prop.realname%>

<%:prop.intro%>

<%/if%>
已有閱讀權限

未來的 AI,不再是單一的神腦,而是一盒積木——由巨頭鋪路,新創添磚,企業拼出自己的解答。

前兩篇文章,我們深度剖析了 AI 幻覺從「技術瑕疵」演變成「制度性病灶」的根源並揭露了它對企業 ROI 造成難以承受的「信任稅」與「燒錢黑洞」。當大型語言模型(LLM)的幻覺與高昂成本,正無情蠶食企業價值,市場的理性回歸已勢不可擋。

如今,一個關鍵的解決方案浮現:靈活、高效、且更可控的小型語言模型(SLM)。它不僅是終結幻覺亂象、重建企業 ROI 的可能解藥,更將徹底改變 AI 產業的未來版圖。

在這最終章,我們將放眼 2025 年的 AI 戰場:誰是這場 SLM 浪潮中的核心玩家?巨頭們如何佈局?新創公司又如何突圍?我們將揭示這場從「大模型競速」轉向「務實應用」的史詩級戰役,如何重塑 AI 產業的權力結構,並定義下一世代的 AI 新秩序。


SLM 如何減少幻覺?答案在「用法」

嚴格來說,SLM 比較可靠的原因,並不是它消除了幻覺,而是我們聰明地改變了它的「角色」。與其讓它當一個什麼都懂、卻可能隨口亂說的「通才」,不如讓它做一個只在固定軌道上行駛的「專才」,自然就沒有出軌的機會。

  1. 任務單純,想犯錯都難:SLM 通常只處理「結構化、有明確邊界」的任務,例如讀懂發票、分類郵件、寫報告摘要。這就像只讓一個員工負責蓋章,而不是讓他包辦全公司業務,出錯的範圍自然就小了。
  2. 先查證、再回答,不懂不裝懂:多數 SLM 都被要求「拿證據說話」(即檢索增強生成 RAG)。在 RAG 的機制下,當資料庫裡查不到相關資訊時,它會選擇「拒絕回答」,而不是像某些 LLM 那樣自由發揮、編造答案。在金融、醫療這種高風險領域,「誠實地拒答」遠比「流暢地胡扯」更受歡迎。
  3. 分工合作,各司其職:如本系列專題《AI 幻覺風暴二》的報導,NVIDIA 的研究點出,最務實的架構是「積木式異質系統」,白話文說,就是「團隊合作」。
  • 80% 的庶務:交給反應快、成本低的 SLM。
  • 20% 的難題:再交給能力強、但昂貴的 LLM 或人類專家。

這相當於設置了一個「智慧路由」,避免低風險任務過度浪費,也降低高風險任務出錯的機率;就像一個智慧總機,確保每個任務都由最適合的角色處理,避免殺雞用牛刀,也防止菜鳥處理不了的燙手山芋。

商業篇:壓倒性的成本與風險優勢

企業選擇 SLM,背後有兩大非常現實的考量:錢和風險。

  1. 成本差距:10 至 30 倍。
    NVIDIA 的研究顯示,7B 級 SLM 成本只有 70B 級 LLM 的 1/10 至 1/30。直觀來說,在 SLM 花 1 美元的推理,換到 LLM 可能要花 10 至 30 美元。這對長期營運的企業是沉重負擔。
  2. 邊緣部署:速度與主權雙優勢。
    SLM 可直接跑在手機、汽車、工廠機器人等裝置上,對使用的企業來說,至少有以下優勢:
    速度更快: 資料不用上傳雲端,反應時間近乎即時,對無人車、無人機或工廠,都是殺手級的應用需求。
    ・數據更安全: 企業或個人的敏感資料不必離開裝置,保障隱私。
    ・硬體門檻低: 不再需要昂貴的頂級 GPU,普通 CPU 也能跑得動,這對吃緊的高階晶片市場帶來緩解的機會,也讓中階晶片產業順利參與 AI 時代。
  3. 風險可控:ROI 的另一面。
    Gartner 警告,LLM 的幻覺與治理成本導致「用戶疲勞」蔓延。相比之下,SLM 因範圍窄、拒答率高,反而能「保著企業 ROI」;簡單來說,企業的獲利不是來自 AI 的驚人表現,而是來自它「不出包」的穩定性。

總結來說,SLM 不只是更酷的 AI,更是一門更穩的生意,這也讓 2025 年的 SLM 賽道突然變得熱絡。

2025 年 SLM 戰局:巨頭五強 vs 新創五虎

SLM 的戰場正分裂成兩股勢力:想制定遊戲規則的科技巨頭,以及專攻特定需求的靈活新創。

1. 巨頭五強:標準制定者

他們想把 SLM 融入你我每天都在用的工具裡。

  • Microsoft (Phi-3), Copilot:企業內嵌式 AI,專注 Edge AI 與資料私有化。在 Office 與 Azure 生態裡全面滲透,主打企業內部的資料安全。
  • Meta (LLaMA 3 8B):開源界的旗手,想成為 AI 界的 Android,讓所有開發者都用它的模型,奪回 AI 公共話語權。
  • Google (Gemini Nano, Gemma):結合 Android 與 Pixel 生態,強攻裝置端推理,目標是讓 Android 手機更聰明,強調裝置上的隱私與高效能。
  • NVIDIA (Nemotron Nano 9B v2):「晶片+模型」雙管齊下,為「邊緣 AI 代理」提供最高效吞吐,確保 SLM 在自家硬體上跑得最快,延續 SLM 加入戰局後,能繼續維繫硬體護城河。
  • Alibaba (Qwen 1.8B):聚焦在跨語系與電商客服推薦,把小模型內建到淘寶和支付寶的客服、推薦系統上。

2. 新創五虎:敏捷挑戰者

他們專門解決巨頭看不上、或做不好的「縫隙市場」。

  • MosaicML (Databricks 旗下) 的 MPT-7B:一套幫助企業快速訓練與部署「客製化小模型」的工具箱,Databricks 估值超過 430 億美元,是全球最具代表性的 AI 與大數據融合平台;藉由併購 MosaicML,Databricks 成為推動「企業級私有化 AI」的重要力量,特別適合需要在自有數據環境中建構專屬模型的企業。
  • TogetherComputer(RedPajama INCITE): 新崛起的 AI 技術開源平台,被視為有「AI 的 GitHub」之稱的 Hugging Face 下一個對手,三年內估值已經突破 33 億美元。
  • Arcee AI(Arcee Cloud): 主打 in-VPC 模式,提供的 AI 模型不在外部雲端,而是直接安裝在客戶自己的私有雲裡,特別適合對數據安全和合規要求極高的產業(金融、醫療),並能針對客戶需求做客製化,主賣「可控、安全、專屬」的服務價值。
  • Fireworks AI:主打雲端 API,能讓開發者迅速把 AI 模型接入自家應用程式。它最大的賣點是低延遲與流式輸出,使用者可以像操作 ChatGPT 一樣邊生成邊看到結果,而不必等待整段內容完成。這種即時且流暢的體驗,吸引大量初創與 app 開發者。
  • Personal AI:主打「專屬 AI 記憶」。使用者可以把筆記、信件、文件等私有資料匯入,AI 會自動整理成可檢索的知識庫,回答問題時會引用你的資料來源,而不是憑空生成。最大特色是隱私和主控權,所有資料由用戶自己掌控,可隨時刪除或限制分享。

結語:從「一個神腦」到「一盒積木」,再到「共創新秩序」

過去兩年,AI 世界沉迷於打造一個全能的「神腦」,但隨著幻覺、成本與信任稅問題浮現,這條路徑已顯得難以為繼。SLM 帶來的啟示是:企業不需要一台昂貴且常常失控的超跑,而是需要一盒靈活、便宜、可控的積木——能根據不同場景,拼湊出最適合的解法。

這場變革的真正意義在於:它不是單一玩家的勝利,而是科技巨頭與新創的分工共舞。

巨頭正用標準與基礎設施鋪路,把 SLM 深植進企業流程、裝置端與硬體效能;新創則靈活切入 縫隙市場,從安全合規到即時體驗、再到個人資料主權,快速找到落地價值。兩股力量合流,正在把「小模型」推向一個更廣闊的產業版圖。

這意味著,AI 將逐步走向一個「去中心化、分工化」的格局:

  • 企業可以自由選擇積木組合,決定什麼要交給雲端的 LLM,什麼留給本地的 SLM,什麼則完全交由人類判斷。
  • 用戶也將體驗到更安全、更快速、更貼近場景的 AI 服務,而不是一個高不可攀、又經常出錯的「萬能大腦」。

換言之,SLM 不只是技術上的降維,更是一種治理方法與商業模式的革新。當「神腦」退居舞台,積木式的 AI 系統將在巨頭和新創的合力推動下,定義 下一代 AI 的商業秩序與社會信任機制。

這不僅是 AI 戰場的轉折點,也可能是企業與社會重新找回 AI 信任感的起點。

陪你從「科技+人文」視角,深入國際政經脈動

35元/週解鎖付費會員專屬內容

  • 成為付費會員,即可擁有:
  • ✓ 全站深度分析報導文章
  • ✓ 會員專屬 8 折活動報名優惠

已經是付費會員?登入繼續閱讀

questionnaire questionnaire
questionnaire questionnaire
questionnaire questionnaire
旭編輯

旭編輯 / 編輯

編輯

張育寧

張育寧 / 總編輯

審訂

時間標記 Timestamp

EPEPISODE #旭沙龍-張育寧時間

EP #
邀請已成功寄出 Sucessfully sent