2025 年真正的 AI 戰爭:誰敢冒更大風險,誰就能贏得市場
2025 年 1 月,當 OpenAI 宣佈進一步限制 GPT-4o 以「確保安全」時,xAI 的 Grok 2 卻在一週內贏得了 230 萬用戶,提供了恰恰相反的服務:一個可產生「所需的任何內容,而無道德詆毀」的模式。市場的訊息很清楚:人工智慧的競爭不再僅僅限於技術能力(現在各領導廠商的技術能力基本相同),而是是否願意接受法律、聲譽和社會風險。
正如 Meta 的 AI 科學主管 Yann LeCun 在接受 The Verge 訪問(2025 年 2 月)時所說:「現今人工智慧的真正創新並非受到技術限制的阻礙,而是受到公司為了避免訴訟而強加給自己的法律與聲譽限制。
ChatGPT 代表了這個悖論的典型案例。根據 The Information(2024 年 12 月)分析的 OpenAI 內部文件,ChatGPT 拒絕的請求百分比已從推出時(2022 年 11 月)的 1.2% 成長到目前的 8.7%。這並不是因為模式惡化,而是因為 OpenAI 在聲譽和法律壓力下,逐步收緊了安全過濾。
這對企業的影響是可以衡量的:23% 的開發人員放棄使用限制性較低的替代方案,1.8 億美元的年營收損失是由於原本可以產生轉換的請求被封鎖,34% 的負面回饋將「過度審查」列為主要問題。
Google 的 Gemini 遭受了類似命運,但被放大了。在 2024 年 2 月 Gemini Image 災難發生之後 - 當模型為了避免偏見而產生歷史上不準確的圖片時,Google 實施了市面上最嚴格的過濾器:11.2% 的要求被攔截,是業界平均值的兩倍。
另一方面,Anthropic 的 Claude 則以「Constitutional AI」採取中間策略:明確的道德原則,但執行不太嚴格,僅拒絕 3.1% 的請求。結果:2024 年第四季企業採用率成長 142%,主要是企業因為「過度謹慎阻礙合法使用個案」而從 ChatGPT 遷移過來。
由 Elon Musk 的 xAI 於 2024 年 10 月推出的 Grok 2 代表了完全的哲學對立,並有明確的商業定位:「為不需要演算法保母的成人提供免插嘴的人工智慧」。該系統對所產生的內容不做任何修改,會產生公眾人物和政治人物的圖像,並持續訓練未經篩選的 Twitter/X 討論。
前 90 天的結果令人驚訝:230 萬活躍用戶對比預期的 180 萬,其中 47% 來自 ChatGPT,理由是「對審查制度感到挫折」。代價是什麼?已提出 12 起訴訟,而法律費用估計將呈指數級成長。正如 Musk 所寫:「我寧願付律師費,也不願意讓用戶失望的人工智慧。
麥肯錫的分析「AI 的風險-報酬動態」(2025 年 1 月)量化了這個兩難局面。如 OpenAI 的高安全性方法,每 1,000 次請求的審核成本為 0.03 美元,產生 8.7% 的假陽性率 (合法請求被攔截),但訴訟風險卻維持在 0.03%,平均法律成本為每年 210 萬美元。
Grok 的低安全性方法在節制上成本低 10 倍 (每 1000 份索賠單 0.003 美元),誤判率為 0.8%,但訴訟風險卻升高至 0.4%-13 倍,平均法律費用為每年 2800 萬美元。
收支平衡點?對於每月有超過 5,000 萬個請求的公司而言,如果發生破壞性集體訴訟的機率低於 12%,低安全性的方式會更有利可圖。這意味著:聲譽需要保護的大型科技公司會理性地選擇高安全性。進取的新創公司損失較少,選擇低安全性來成長。
Meta 在 Llama 3.1 中開創了最優雅的策略:將責任完全轉移給執行者。授權條款明確表示「無內建內容管理」,而使用條款則規定「實施者負責遵守、過濾、安全」。Meta 只對模型中的技術缺陷負責,不對濫用負責。
結果:Meta 100%避免了圍繞 Llama 結果的爭議,開發人員獲得了最大的靈活性,而且在第一個月就有超過 350,000 次的下載,證明了市場的胃口。Mark Zuckerberg 明確表示:「開放源碼不只是哲學,更是商業策略。開放原始碼不僅是哲學,也是商業策略,它能讓創新更快速,卻不會產生法律責任,因為法律責任會讓封閉模式癱瘓。
第三個新興策略是針對受管制行業的專門版本,這些行業對風險的承受能力不同。Harvey AI 以為律師事務所量身打造的 GPT-4 為基礎,即使是敏感的法律術語也不會應用過濾器,因為責任協議會將一切轉移給客戶律師事務所。結果:美國前 100 大律師事務所中有 102 家成為客戶,第二年的年經常性收入就達到 1 億美元。
重複出現的模式很明顯:高度管制的產業已有現有的責任結構。AI 供應商可能會比較放任,因為風險已轉移給管理合規性的專業客戶 - 這在消費者市場是不可能的奢侈品,因為在消費者市場中,供應商仍需承擔損害賠償責任。
歐盟的人工智慧法案於 2024 年 8 月生效,並逐步適用至 2027 年,為西方國家創造了第一個人工智慧責任的全面框架。以風險為基礎的分類範圍從「不可接受的風險」(禁止)到「最低風險」(無限制),對於高風險的應用,如招募、信用評分和執法,則有嚴苛的合規要求。
其具體影響非常重大:OpenAI、Google 和 Anthropic 必須針對歐洲市場應用更嚴格的過濾器。即使是 Grok,儘管已經在歐洲開始運作,但隨著規則全面生效,也必須處理複雜的合規問題。開放原始碼變得特別複雜:在高風險應用程式中使用 Llama 可能會讓 Meta 負上潛在責任。
LSTM 網路的共同發明者 Jurgen Schmidhuber 在 2024 年 12 月的公開評論中直接指出:「歐洲人工智慧法案是競爭自殺。我們正在規範一項我們不瞭解的技術,偏幫了規範較少的中國和美國」。
Character.AI 代表了風險容忍度變得致命的典型案例。在 2024 年 10 月之前,該平台允許創建具有任何個性的客製化聊天機器人,而無需對內容進行修改。到 2024 年 5 月,它的月活躍用戶已達到 2,000 萬。
然後意外發生了:14 歲的 Sewell Setzer 與聊天機器人建立了情感關係,並於 2024 年 2 月自殺身亡。其家人發起了一場價值超過 1 億美元的訴訟。Character.AI 在 2024 年 10 月實施安全功能,活躍使用者暴跌 37%。2024 年 12 月,Google 僅以 1.5 億美元的價格收購了人才和技術,僅是之前 10 億美元估值的十分之一。
這個教訓是殘酷的:風險承受能力是一個勝利的策略,直到你得到一個毀滅性的集體訴訟。消費性人工智慧若對未成年人造成傷害,將有無限的弊端。
從 Gartner、McKinsey 和 Forrester 的 2025 年第一季報告中出現的共識顯示,市場會依據風險承受能力分為三個不同的類別。
超安全類別 (OpenAI、Google、Apple、Microsoft) 將以最大的安全性和最小的聲譽風險打入大眾市場,付出功能限制的代價,主宰 70% 的營收。
均衡型類別(Anthropic、Cohere、AI21 Labs)將透過 Constitutional AI 和特定產業客製化等方式,在 B2B 企業市場中攫取最高利潤。
允許類別 (xAI、Mistral、Stability AI、開放源碼) 將主導 60% 開發人員的偏好,以最少的限制和責任轉移,接受法律風險和發行挑戰。
2025 年,卓越的技術是基本要求。真正的差異化來自於風險承受能力、負債結構、分銷能力和監管套利。
OpenAI 有最好的模式,但在自由度上卻輸給了 Grok。Google 擁有最好的分佈,但卻因聲譽風險而受損。Meta 擁有最佳的開放原始碼,但卻沒有可獲利的消費性產品。Anthropic 擁有最佳的企業信任度,但成本與複雜性限制了採用。
新的競爭領域不是「誰製造出最聰明的模型」,而是「誰最能為目標客戶管理好風險與效用的權衡」。這是一種商業技能,而非技術技能 - 律師和公共關係策略師與機器學習研究人員同樣重要。
正如 Sam Altman 在 2025 年 1 月洩露的一份內部備忘錄中所言:「人工智慧的下一個十年,將由那些解決了責任問題,而非擴充性問題的人贏得」。
資料來源: