想像一輛失控的鐵路貨車正朝著五個人衝去。你可以拉動一個槓桿將它轉向另一條軌道,但那條軌道上只有一個人。你會怎麼做?
但是等等:如果那個人是個孩子,而五個人是老人呢?如果有人出錢讓你拉動拉桿呢?如果你看不清整個情況呢?
什麼是推車問題? 這個由哲學家菲利帕·福特於1967年提出的思想實驗,提出了一個看似簡單的兩難困境:犧牲一條生命以拯救五條生命。但變體無窮無盡:從橋上推下胖先生、醫生為拯救五條生命而殺死健康患者以取其器官、法官為平息暴動而判處無辜者死刑。
每個情境都在考驗我們的基本道德原則:在什麼情況下,為了防止更大的傷害而造成傷害是可接受的?
這種複雜性正是人工智慧倫理之所以成為當代如此關鍵挑戰的原因。
著名的「電車難題」遠比表面看起來更為複雜——而正是這種複雜性,使得人工智慧的倫理問題成為當代如此關鍵的挑戰。
由哲學家菲利帕·福特於1967年提出的推車問題,從未被設計用來解決實際困境。正如艾倫·圖靈研究所所強調,其最初的真正目的在於證明思想實驗本質上與現實脫節。然而,在人工智慧時代,這個悖論卻具有了直接的現實意義。
為何此刻如此重要?因為在歷史上首次,機器必須即時做出道德決策——從在車流中導航的自動駕駛汽車,到分配有限資源的醫療系統。
Anthropic,這家開發Claude的人工智慧公司,以一種名為 憲法人工智慧。與其完全依賴人類反饋,Claude 是在一套明確的倫理原則「憲法」上接受訓練,其中包含《世界人權宣言》的要素。
實際運作方式為何?
一項對70萬次對話的實證分析 顯示,克勞德表達了超過3,000種獨特價值觀,從專業精神到道德多元主義,並能根據不同情境調整這些價值觀,同時保持倫理一致性。
正如互動項目 荒謬的電車難題 所生動闡釋的那樣,真實的倫理困境很少是二元對立的,其複雜性往往荒謬至極。這點見解對於理解現代人工智慧的挑戰至關重要。
最新研究表明,人工智慧的倫理困境遠遠超出了經典的電車難題。MultiTP MultiTP測試了19種人工智慧模型在超過100種語言中的表現,發現不同文化在倫理對齊方面存在顯著差異:這些模型在英語、韓語和中文中更符合人類偏好,但在印地語和索馬里語中則較為偏離。
真正的挑戰包括:
一個常被忽視的觀點是,人工智慧的倫理可能不僅僅是人類倫理的不完美版本,而是完全不同的範式——在某些情況下,甚至可能更具一致性。
《我,機器人》案例:在2004年的電影中,偵探斯普納(威爾·史密斯飾)對機器人懷有戒心,起因是他在車禍中被機器人救起,而一名12歲女童卻被棄置溺斃。該機器人解釋其決策依據:
「我是理所當然的選擇。我計算過,她有45%的生存機會。莎拉只有11%。那是某人的孩子。11%已經綽綽有餘。」
這正是當今人工智慧運作的倫理基礎:演算法衡量機率、優化結果,並基於客觀數據而非情感直覺或社會偏見做出決策。此場景闡明了一個關鍵觀點:人工智慧遵循的倫理原則雖與人類不同,但未必遜於人類:
現代人工智慧的具體實例:
然而,在慶祝人工智慧倫理的優越性之前,我們必須正視其固有的局限性。電影《我,機器人》中看似合乎邏輯的場景,實則隱藏著深刻的問題:
失落的語境問題:當機器人基於機率選擇拯救成人而非女童時,它完全忽略了關鍵要素:
純粹演算法倫理的具體風險:
極端簡化主義:將複雜的道德決策轉化為數學計算,可能從方程式中剔除人類尊嚴。究竟由誰決定哪些變數具有重要性?
隱藏的偏見:演算法無可避免地會內嵌其創建者與訓練資料的偏見。一個「優化」系統可能延續系統性歧視。
文化同質性:人工智慧倫理學可能將西方、科技化與量化的道德觀強加於那些對人際關係有不同價值觀的文化之中。
真實挑戰的實例:
專家如羅傑·斯克魯頓批評使用電車難題,因其傾向將複雜困境簡化為「純粹算術」,從而忽略了道德層面的關聯性。正如 TripleTen的一篇文章所論述:「解決電車難題並不能使人工智慧變得符合道德」——我們需要更全面的方法。
核心問題在於:我們能否將道德決策權委派給那些儘管精密卻缺乏同理心、情境理解力及人類經驗智慧的系統?
新提案以達平衡:
對於企業領導者而言,這種演變需要採取細膩的策略:
正如 IBM在其2025展望報告中強調,人工智慧素養與明確的責任歸屬將是未來一年面臨的關鍵挑戰。
聯合國教科文組織聯合國教科文組織正領導 全球人工智慧倫理倡議,第三屆全球論壇預計於2025年6月在曼谷舉行。其目標並非為道德困境尋求普世解決方案,而是建立能促進透明且具文化敏感性的倫理決策框架。
關鍵教訓?推車問題並非用作解決方案,而是提醒我們道德決策的本質複雜性。真正的挑戰不在於選擇人類倫理或演算法倫理,而在於如何在計算效率與人類智慧之間取得恰當平衡。
未來的倫理人工智慧必須認知自身局限:它在處理數據與識別模式方面表現卓越,但在需要同理心、文化理解與情境判斷時卻力有未逮。正如《我,機器人》中的場景所示,冷酷的計算有時反而更符合倫理——但前提是它僅作為人類監督者手中的工具,而非取代人類的道德判斷。
標題中的「(或也許不是)」並非猶豫不決,而是明智之舉:承認無論人類或人工的倫理,在複雜的世界中都不存在簡單的解決方案。
最初的靈感:
學術研究:
產業分析:
法規發展: