人工智慧:介於虛幻的承諾與真實的烏托邦之間
人工智慧經歷了許多令人興奮與失望的週期。如今,由於基於 Transformer 架構的大型語言模型 (LLM) 的發展,我們正處於上升階段。這種架構特別適合 GPU,使得使用海量的資料和運算能力來訓練擁有數十億個參數的模型成為可能。最重要的結果是為電腦創造了一個新的使用者介面:人類語言。
就像圖形使用者介面在 1980 年代讓數百萬使用者可以使用個人電腦一樣,新的自然語言介面也在去年讓全球數以億計的使用者可以使用 AI。
真正民主化的迷思
儘管表面上如此容易取得,但 SaaS 解決方案所承諾的「民主化」仍不完善且片面,造成新形式的不平等。
AI 仍然需要特定的技能:
- AI 素養與了解系統的限制
- 批判性評估輸出的能力
- 業務流程的整合技能
AI 效應與邊界悖論
John McCarthy 在 1950 年代創造了 AI 一詞,但他自己卻抱怨說:「只要一成功,就沒有人再稱之為 AI 了」。這種被稱為「AI 效應」的現象至今仍在影響著我們。
在人工智慧的歷史上,有許多成功的案例,一旦它們變得足夠可靠,就不再被視為「智慧」到足以配得上這個令人嚮往的稱號。
曾經被視為最尖端的 AI 技術,現在卻被視為理所當然的例子:
- 機器視覺已內建於每部智慧型手機
- 語音辨識,現在簡稱為「聽寫
- 語言翻譯和情感分析推薦系統(Netflix、亞馬遜)和路由最佳化(Google 地圖)
這是更廣泛現象的一部分,我們可以稱之為「前沿悖論」。
當我們將技術掌握之外的領域歸於人類時,這個領域永遠都是不明確的。智慧不是我們可以捕捉的東西,而是一個不斷接近的地平線,我們將它變成有用的工具。

AI 與資訊過載
生成式人工智能的普及大幅降低了製作和傳遞資訊的成本,對公民參與的目標產生了矛盾的效果。
合成內容的危機
生成式 AI 與社交媒體的結合創造了:
- 認知負荷過重和擴大先前存在的偏見
- 更嚴重的社會兩極化
- 易於操縱輿論
- 偽造內容泛濫
黑盒」問題
簡化的介面掩蓋了人工智慧的運作:對自動決策過程的瞭解不透徹難以識別演算法的偏差
底層模型的客製化程度有限以人為導向的自動化智慧的重要性人工智能只能帶領我們走過 90% 的路。
機器擅長分析大量資料,但在處理邊緣情況時卻很吃力。可以訓練演算法來處理更多的例外情況,但超過某個程度後,所需的資源就會超過效益。人類是精確的思考者,會將原則套用在邊緣案例上,而機器則是近似者,會根據先前的經驗做決定。
從炒作到失望:人工智能週期
正如 Gartner 對科技炒作週期的描述,狂熱之後必然是失望 - 即「幻灭谷」。
電腦科學先驅、圖靈獎(Turing Prize)得主 Alan Kay 說:「技術只對那些在它被發明之前出生的人而言才是技術」。機器學習專業人員都是科學家和工程師,然而他們的努力總是看起來像魔法一樣 - 直到有一天,他們不是魔法。
同質化和競爭優勢的喪失廣泛採用相同的預建 SaaS 解決方案會導致:向類似業務流程靠攏通過 AII 實現差異化的困難創新受到平台能力的限制資料持久性及其風險
隨著人工智慧平台的普及:資料在數位基礎建設中長期存在資料點可在不同的情境中重複使用
當未來世代的 AI 以合成內容為訓練基礎時,就會產生危險的循環。
新的數位隔閡
AI 市場分為
- 商品化的 AI:許多人都能使用的標準化解決方案
- 先進的專屬 AI:由少數大機構開發的最先進功能
需要更精確的詞彙
部分問題出在「人工智慧」的定義本身。
如果我們對這個詞進行遞歸分解,就會發現定義的每個分支都是指「人類」或「人」。因此,根據定義,我們認為人工智慧是模仿人類,但一旦某種能力確實進入機器的領域,我們就會失去人類的參考點,不再認為這是人工智慧。
更有用的做法是,將焦點放在可以運用的特定技術上,例如語言模型的轉換器或影像產生的擴散。這讓我們評估企業的能力更加明確、有形和真實。
結論:從前沿到技術
前沿悖論的意思是人工智能的發展速度如此之快,以至於很快就會簡單地成為技術,而一個新的前沿將成為人工智能。成為「技術」應該被視為對之前處於最前沿的想法的認可。這篇文章的部分靈感來自紅杉資本對人工智能悖論的反思。
如需更多資訊:https://www.sequoiacap.com/article/ai-paradox-perspective/
無障礙 AI 的真正允諾並不只是提供技術,而是創造一個能真正分配創新、控制權與利益的生態系統。
我們必須意識到資訊存取與資訊過載和操控風險之間的緊張關係。
只有在人工智能中保持強烈的人類元素,並採用更精確的語言,我們才能實現其作為真正分散式包容與創新力量的潛力。


