Newsletter

當人工智慧決定誰生誰死:現代版的電車難題

人工智慧時代的電車難題:當機器必須做出倫理決策時,人類的判斷是否永遠更優越?這場辯論仍在持續。因為演算法的倫理可能優於人類(也可能不然)

想像一輛失控的鐵路貨車正朝著五個人衝去。你可以拉動一個槓桿將它轉向另一條軌道,但那條軌道上只有一個人。你會怎麼做?

但是等等:如果那個人是個孩子,而五個人是老人呢?如果有人出錢讓你拉動拉桿呢?如果你看不清整個情況呢?

什麼是推車問題? 這個由哲學家菲利帕·福特於1967年提出的思想實驗,提出了一個看似簡單的兩難困境:犧牲一條生命以拯救五條生命。但變體無窮無盡:從橋上推下胖先生、醫生為拯救五條生命而殺死健康患者以取其器官、法官為平息暴動而判處無辜者死刑。

每個情境都在考驗我們的基本道德原則:在什麼情況下,為了防止更大的傷害而造成傷害是可接受的?

這種複雜性正是人工智慧倫理之所以成為當代如此關鍵挑戰的原因。

著名的「電車難題」遠比表面看起來更為複雜——而正是這種複雜性,使得人工智慧的倫理問題成為當代如此關鍵的挑戰。

從哲學教室到演算法

由哲學家菲利帕·福特於1967年提出的推車問題,從未被設計用來解決實際困境。正如艾倫·圖靈研究所所強調,其最初的真正目的在於證明思想實驗本質上與現實脫節。然而,在人工智慧時代,這個悖論卻具有了直接的現實意義。

為何此刻如此重要?因為在歷史上首次,機器必須即時做出道德決策——從在車流中導航的自動駕駛汽車,到分配有限資源的醫療系統。

克勞德與憲法人工智慧革命

Anthropic,這家開發Claude的人工智慧公司,以一種名為 憲法人工智慧。與其完全依賴人類反饋,Claude 是在一套明確的倫理原則「憲法」上接受訓練,其中包含《世界人權宣言》的要素。

實際運作方式為何?

  • 克勞德自我批判並重新審視自己的回答
  • 使用「人工智慧回饋強化學習」(RLAIF)
  • 保持其決策原則的透明度

一項對70萬次對話的實證分析 顯示,克勞德表達了超過3,000種獨特價值觀,從專業精神到道德多元主義,並能根據不同情境調整這些價值觀,同時保持倫理一致性。

真實挑戰:當理論遇上實踐

正如互動項目 荒謬的電車難題 所生動闡釋的那樣,真實的倫理困境很少是二元對立的,其複雜性往往荒謬至極。這點見解對於理解現代人工智慧的挑戰至關重要。

最新研究表明,人工智慧的倫理困境遠遠超出了經典的電車難題。MultiTP MultiTP測試了19種人工智慧模型在超過100種語言中的表現,發現不同文化在倫理對齊方面存在顯著差異:這些模型在英語、韓語和中文中更符合人類偏好,但在印地語和索馬里語中則較為偏離。

真正的挑戰包括:

  • 認識論上的不確定性:在資訊不完整的情況下採取行動
  • 文化偏見:不同文化與社群間的價值差異
  • 責任分配:誰該為人工智慧的決策負責?
  • 長期後果:即時效應 vs 未來效應

人類倫理 vs 人工智慧倫理:不同範式,未必更差

一個常被忽視的觀點是,人工智慧的倫理可能不僅僅是人類倫理的不完美版本,而是完全不同的範式——在某些情況下,甚至可能更具一致性。

《我,機器人》案例:在2004年的電影中,偵探斯普納(威爾·史密斯飾)對機器人懷有戒心,起因是他在車禍中被機器人救起,而一名12歲女童卻被棄置溺斃。該機器人解釋其決策依據:

「我是理所當然的選擇。我計算過,她有45%的生存機會。莎拉只有11%。那是某人的孩子。11%已經綽綽有餘。」

這正是當今人工智慧運作的倫理基礎:演算法衡量機率、優化結果,並基於客觀數據而非情感直覺或社會偏見做出決策。此場景闡明了一個關鍵觀點:人工智慧遵循的倫理原則雖與人類不同,但未必遜於人類

  • 數學一致性:演算法會統一地應用準則,不受情感或社會偏見的影響——就像計算生存機率的機器人一樣。
  • 程序公正性:不自動偏袒兒童而非長者,或富人而非窮人,而是根據現有數據評估每種情況。
  • 決策透明度:標準明確且可驗證(「45% vs 11%」),有別於人類道德直覺往往不透明的特性

現代人工智慧的具體實例:

  • 基於治療成功機率分配醫療資源的人工智慧醫療系統
  • 器官移植配對演算法,優化相容性與存活機率
  • 緊急情況下的自動分診系統,優先處理康復機會較高的患者

但也許不是:演算法倫理的致命局限

然而,在慶祝人工智慧倫理的優越性之前,我們必須正視其固有的局限性。電影《我,機器人》中看似合乎邏輯的場景,實則隱藏著深刻的問題:

失落的語境問題:當機器人基於機率選擇拯救成人而非女童時,它完全忽略了關鍵要素:

  • 保護最弱勢群體的社會與象徵價值
  • 對倖存者的長期心理影響
  • 家庭關係與情感紐帶
  • 年輕生命尚未展現的潛能

純粹演算法倫理的具體風險:

極端簡化主義:將複雜的道德決策轉化為數學計算,可能從方程式中剔除人類尊嚴。究竟由誰決定哪些變數具有重要性?

隱藏的偏見:演算法無可避免地會內嵌其創建者與訓練資料的偏見。一個「優化」系統可能延續系統性歧視。

文化同質性:人工智慧倫理學可能將西方、科技化與量化的道德觀強加於那些對人際關係有不同價值觀的文化之中。

真實挑戰的實例:

  • 醫療體系可能更系統地應用效率準則,引發如何平衡醫療優化與倫理考量的問題
  • 司法演算法可能在更大範圍內延續現有偏見,但也可能使現存歧視更透明化
  • 金融人工智慧不僅能系統化歧視性決策,更能消除某些與個人偏見相關的人類偏見。

對傳統範式的批判

專家如羅傑·斯克魯頓批評使用電車難題,因其傾向將複雜困境簡化為「純粹算術」,從而忽略了道德層面的關聯性。正如 TripleTen的一篇文章所論述:「解決電車難題並不能使人工智慧變得符合道德」——我們需要更全面的方法。

核心問題在於:我們能否將道德決策權委派給那些儘管精密卻缺乏同理心、情境理解力及人類經驗智慧的系統?

新提案以達平衡:

  • 結合計算與人類直覺的混合倫理框架
  • 人類監督系統用於關鍵決策
  • 倫理演算法的文化客製化
  • 強制性決策標準透明度
  • 針對所有關鍵演算法決策的人類上訴權

企業的實際影響

對於企業領導者而言,這種演變需要採取細膩的策略:

  1. 對現有AI系統進行系統性倫理審查——以理解其優勢與局限
  2. 設計與實施人工智慧的團隊中實現多元性,包括哲學家、倫理學家及不同社群的代表
  3. 系統內嵌倫理原則及其理據之強制性透明度
  4. 持續教育:人工智慧倫理何時奏效、何時失效
  5. 人類監督系統用於高倫理影響決策
  6. 上訴權與演算法決策修正機制

正如 IBM在其2025展望報告中強調,人工智慧素養與明確的責任歸屬將是未來一年面臨的關鍵挑戰。

人工智慧倫理的未來

聯合國教科文組織聯合國教科文組織正領導 全球人工智慧倫理倡議,第三屆全球論壇預計於2025年6月在曼谷舉行。其目標並非為道德困境尋求普世解決方案,而是建立能促進透明且具文化敏感性的倫理決策框架。

關鍵教訓?推車問題並非用作解決方案,而是提醒我們道德決策的本質複雜性。真正的挑戰不在於選擇人類倫理或演算法倫理,而在於如何在計算效率與人類智慧之間取得恰當平衡

未來的倫理人工智慧必須認知自身局限:它在處理數據與識別模式方面表現卓越,但在需要同理心、文化理解與情境判斷時卻力有未逮。正如《我,機器人》中的場景所示,冷酷的計算有時反而更符合倫理——但前提是作為人類監督者手中的工具,而非取代人類的道德判斷。

標題中的「(或也許不是)」並非猶豫不決,而是明智之舉:承認無論人類或人工的倫理,在複雜的世界中都不存在簡單的解決方案。

來源與洞察力

最初的靈感:

學術研究:

產業分析:

法規發展: