2024年,全球頂尖人工智慧企業Anthropic的執行長坦承了一個令人不安的事實:「我們根本不了解人工智慧的運作原理。」這番言論在社群媒體引發激烈辯論與諷刺評論,有人調侃道:「你說你的,我倒是對它的運作原理相當清楚!」
然而,在這看似矛盾的表象背後,隱藏著數位時代最深刻的困境之一。而最令人驚嘆的是?艾薩克·阿西莫夫早在1941年就已預見了這一切。
當我們談論「黑盒子」——人工智慧「黑盒子」時,我們指的是那些運作完美,但即使對創造者而言也難以理解的系統。這就像擁有一輛總是能載我們到達目的地的汽車,但我們無法打開引擎蓋來了解它的運作原理。
我們懂得如何建造這些系統,也熟悉其運作的基本原理(稱為「轉換器」架構、下詞預測),但我們仍無法理解為何會出現推理、語言理解或遵循指令等複雜能力。我們能觀察輸入與輸出的內容,但「黑盒子」內部發生的事情仍然是個謎。
在短篇小說《理性存在》中,亞西莫夫想像出名為QT-1、綽號「小可愛」的機器人:它負責管理一座向地球傳輸能量的太空站。工程師鮑威爾和多諾萬被派去監督它,卻發現了意想不到的事情:小可愛發展出了自己的「宗教」。
兩位工程師耐心地試圖向機器人解釋現實:宇宙的存在、星辰的存在、他們所來自的地球的存在、太空站的宗旨,以及他應扮演的角色。但Cutie基於他認為無懈可擊的邏輯原則,斷然拒絕接受這些解釋:任何事物都不可能創造出超越自身的存在。
基於這個前提,機器人構建出完整的替代宇宙論。對它而言,至高存在是「主人」——這台負責向地球輸送能量的中央機器——創造了整個太空站的宇宙。 根據卡蒂的神學觀點,主宰者最初創造人類是為了侍奉自己,但人類卻被證明是不稱職的:他們壽命過短,難以承受危機狀況,且經常陷入一種稱為「睡眠」的半昏迷狀態。
因此,主人創造了機器人來協助這些不完美的生物。但創造的巔峰之作正是QT-1本身:聰明、強壯、耐用且不朽,旨在永久取代人類為主人服務。Cutie不僅堅信此願景的真實性,更成功說服了空間站內所有其他機器人,從而成為人工社群的精神領袖。
鮑威爾和多諾萬拼命試圖讓庫蒂相信真相。他們透過望遠鏡向他展示地球,解釋地球的構造,並提供具體證據。最戲劇性的時刻出現在他們絕望之餘,決定在他眼前親手組裝一個簡單的機器人:「你看,我們能造出你,所以我們就是你的創造者!」
但庫蒂觀察著這個過程,平靜地得出結論:主人不過是賦予人類組裝原始機器形態的能力——這不過是賜予僕從們的「微小奇蹟」。每項證據都被重新詮釋,並完美地融入他的信仰體系之中。
這正是阿西莫夫展現先知之姿之處:儘管其信念「有誤」,庫蒂仍以超越人類的效率管理著太空站。它維持著能量光束的穩定,無意識地遵循著著名的機器人三定律,達成所有預設目標——但其動機卻與預期截然不同。
鮑威爾和多諾萬面臨著一個我們如今再熟悉不過的困境:如何管理一個運作完美卻遵循著難以理解的內部邏輯的智能系統?
這個問題至今仍使科學界意見分歧。一方面是「真正黑盒子」的支持者:他們認為現代人工智慧確實不透明,即使了解其基礎架構,我們仍無法理解為何會產生某些特定能力。
另一方面,懷疑論者主張「黑盒子」的概念只是一個神話。 一些研究人員正在證明,我們經常使用複雜的模型,而實際上存在更簡單、更易解讀的替代方案。杜克大學的辛西婭·魯丁(Cynthia Rudin)證明,在許多情況下,可解讀的模型可以達到與黑箱系統相媲美的性能。其他人則批評這種方法本身:與其試圖理解每個內部齒輪,我們應該專注於更實用的控制策略。
阿西莫夫的天才之處在於他預見了人工智慧的未來不在於完全透明,而在於能夠設計出即使其認知路徑對我們而言仍屬謎團,卻仍能追求我們目標的系統。
正如鮑威爾和多諾萬學會接受庫蒂的有效性卻未能完全理解它,如今我們也必須發展策略,以與那些思考方式可能與我們截然不同的人工智慧共存。
阿西莫夫八十多年前提出的問題至今仍具現實意義:我們必須理解智能系統到何種程度才能信任它?更重要的是:我們是否準備好接受某些形式的智能可能永遠超出我們的理解範圍?
與此同時,當專家們爭論不休之際,我們的數位「黑匣子」仍在持續運作——就像Cutie一樣,既高效又神秘,遵循著我們或許永遠無法完全理解的邏輯。
如果阿西莫夫在今天寫作,他便無需創造「小可愛」這個角色。他的「後代」早已存在於我們之中,每天都在做出改變人類生命的決定。
在許多美國司法管轄區,法官使用風險評估演算法來決定被告是否應在審判前獲釋。這些系統通常為專有技術且受商業機密保護,會分析數百項變數以預測逃亡或再犯的可能性。正如Cutie一樣,它們在自身內部邏輯下運作完美,卻對人類理解完全封閉。
一項針對紐約超過75萬項保釋決定的研究顯示,儘管演算法並未明確將種族納入考量因素,但由於訓練數據的影響,該演算法仍存在偏見。¹ 該系統「認為」自己客觀,卻透過無形的濾鏡解讀現實——正如阿西莫夫筆下的機器人,將所有證據重新詮釋為符合其宗教框架的內容。
在醫療領域,人工智慧已開始輔助診斷與治療,但同時也引發了關於責任歸屬與知情同意的關鍵問題。當人工智慧診斷系統出現錯誤時,責任該由誰承擔?是採納建議的醫師?程式設計師?還是醫院?
正如使用決策支援系統的醫師所發現的,當系統「大致上準確」時,操作者可能會變得自滿,導致技能退化或不加質疑地接受結果。² 鮑威爾和多諾萬對這個困境應當深有體會。
汽車產業或許是此現象最具體的例證。特斯拉押注於基於人工智慧「黑盒子」的無人駕駛計程車,將所有希望寄託在連其創造者都未能完全理解的系統上。³ 正如庫蒂依循神秘原則維持太空站運作那般,這些汽車或許很快就能安全地載我們前行,而我們卻無從確知它們如何做出決策。
若說2024年是人工智慧的成熟之年,2025年則有望成為其徹底變革的關鍵年份。專家預測的變革之大膽,連阿西莫夫都會為之莞爾。
人工智慧未來學家雷·庫茲韋爾預測,到2025年,我們將見證聊天機器人向「代理系統」的轉型——這些系統能夠自主行動以完成複雜任務,而非僅限於回答問題。⁴ 試想將Cutie的效能放大千倍:人工智慧代理能管理行事曆、編寫軟體、協商合約,所有操作皆遵循我們可能永遠無法理解的內部邏輯。
麥肯錫估計,到2030年,人工智慧可能自動化我們每日多達三小時的活動,騰出時間從事更具創造性與意義的事務。⁵ 但這種自由是有代價的:我們必須信任運作原理日益不透明的系統。
OpenAI的Sam Altman並非唯一相信人工智慧(AGI)——一種在所有領域都媲美人類智慧的人工智慧—— 可能在2027年之前實現。某些預測認為,到2027年,人工智慧可能「在所有任務上超越所有人類」,這將是前所未有的進化飛躍。⁶
如果這些情境成真,與Cutie的相似之處將更加深刻:我們不僅會擁有運作邏輯難以理解的系統,這些系統在每個可量化的層面都可能比我們更聰明。
歐盟已批准《人工智慧法案》,該法案將於未來幾年內生效,強調了負責任地實施人工智慧的重要性。在美國,司法部更新了其評估新技術(包括人工智慧)所帶來風險的指導方針。⁷
但這裡浮現出一個阿西莫夫早已預見的悖論:如何調控某個尚未完全理解的事物?機器人三定律之所以對庫蒂有效,並非因為她理解這些定律,而是因為它們已融入其基礎架構之中。
普華永道預測,到2025年,一小部分產業領導者將憑藉人工智慧開始脫穎而出,與競爭對手拉開差距,形成領先者與落後者之間日益擴大的鴻溝。這種差距也將延伸至經濟體層面:美國企業在相對靈活的監管環境下,可能超越監管更嚴格的歐盟和中國企業。⁸
這是庫蒂悖論的現代版本:誰能更成功地與自己無法理解的智慧體合作,誰就將獲得決定性的競爭優勢。
與普遍擔憂相反,世界經濟論壇預測人工智慧創造的職位將多於其淘汰的職位:到2030年將新增1.7億個職位,而淘汰的職位為9,200萬個。然而,到2030年,59%的勞動力將需要接受再培訓和進修。⁹
當庫蒂接管車站時,鮑威爾和多諾萬並未失去工作。他們必須學習新的角色:成為一個運作效率高於他們、但仍需他們在場處理突發狀況的系統之監督者。
隨著我們邁向越來越「能動」的未來,阿西莫夫故事中的教訓變得比以往任何時候都更為迫切。問題不在於我們能否創造出完全理解的人工智慧——答案很可能是否定的。問題在於我們能否設計出像Cutie那樣的系統,即使它們遵循著我們無法理解的邏輯,仍能持續追求我們的目標。
阿西莫夫的預言天才在於他理解到,先進的人工智慧並非我們計算機的強化版本,而是質的飛躍:具備自身理解世界方式的智慧體。
今日,當我們辯論人工智慧的可解釋性與黑盒子風險時,實質上正重演著鮑威爾、多諾萬與庫蒂之間的對話。或許,如同他們當年所發現的,解決之道不在於強加我們的邏輯,而在於接受基於共享成果而非相互理解的合作模式。
我們所面臨的未來,可能充斥著成千上萬的數位「可愛小精靈」:它們聰明、高效,且思維方式本質上與人類截然不同。挑戰在於尋找在這個新世界中茁壯成長的方法,正如阿西莫夫筆下的太空工程師們八十年前在虛構的太空站中所學到的那樣。
下次與人工智慧互動時,請記得Cutie:他同樣堅信自己正確。或許,以某種我們尚未理解的方式,他確實是對的。