一些 最近的一些研究突顯了一個有趣的現象:人工智慧模型中的偏差與人類思考的偏差之間存在著「雙向」關係。
這種互動產生了一種機制,傾向於 在兩個方向上擴大認知扭曲.
這項研究顯示,人工智慧系統不僅會從訓練資料中繼承人類的偏見,而且在執行時還會強化這些偏見,進而影響人們的決策過程。這會造成一個循環,如果管理不當,就有可能逐漸增加最初的偏見。
這種現象在重要的部門尤其明顯,例如:
- 健康照護與醫療診斷
- 人事甄選程序
- 臉部辨識系統與風險分析
在這些領域中,微小的初始偏差可能會透過人類操作員與自動化系統之間的重複互動而擴大,逐漸變成 結果的顯著差異.
偏見的起源
在人類思想中
人類心智會自然而然地使用「思考捷徑」,這可能會在我們的判斷中引入系統性錯誤。雙重思考 "理論雙重思考"區分為
- 快速且直覺的思考方式(易受刻板印象影響)
- 思考緩慢且具反思性(能糾正偏見)
舉例來說,在醫學領域,醫生往往會過於重視最初的假設,而忽略相反的證據。這種現象稱為「確認偏差」,根據歷史診斷資料訓練的 AI 系統會複製並放大這種現象。
在 AI 模型中
機器學習模型主要透過三種途徑延續偏見:
- 反映歷史不平等的不平衡訓練資料
- 選擇包含受保護屬性 (例如性別或種族) 的特徵
- 與已經扭曲的人類決策互動所產生的回饋循環
一 2024 加州大學洛杉磯分校的一項研究研究顯示,以人類的情緒判斷為基礎訓練的臉部辨識系統會繼承 4.7% 的傾向,將人臉標籤為「傷心」,然後在後續與使用者互動時,將這種傾向放大到 11.3%。
它們如何相互放大
對招募平台的資料分析顯示,透過相互強化的回饋機制,每個人類與演算法的合作週期都會增加 8-14% 的性別偏差。
當人力資源專業人員從 AI 接收到已經受歷史偏見影響的候選人名單,他們之後的互動(例如面試問題或績效評估的選擇)會強化模型的扭曲表徵。
2025 年一項包含 47 項研究的薈萃分析發現,三輪人類與 IA 的合作,在醫療照護、借貸和教育等領域中,人口差異增加了 1.7-2.3 倍。
衡量與減少偏見的策略
透過機器學習進行量化
Dong 等人(2024 年)提出的衡量偏見架構,可透過分析受保護群體間決策模式的差異,偵測出偏見,而不需要「絕對真實」的標籤。
認知干預
UCL 研究人員開發的 「演算法鏡像 」技術向管理者展示了如果他們的歷史選擇是由 AI 系統做出的話會是什麼樣子,從而將晉升決策中的性別偏見減少了 41%。
在 IA 協助與自主決策之間交替使用的訓練方案證明特別有前途,在臨床診斷研究中,可將偏差轉移的影響從 17% 降低到 6%。
對社會的影響
若組織在執行人工智慧系統時,未考量與人類偏見的互動,將面臨更大的法律與營運風險。
一項有關就業歧視案件的分析顯示,由於演算法決策的痕跡可提供更明確的不平等影響證據,因此相較於傳統由人力主導的案件,AI 輔助的招募程序可將原告的勝訴率提高 28%。
邁向尊重自由與效率的人工智慧
演算法扭曲與限制選擇自由之間的相關性,要求我們從個人責任與保障市場效率的角度重新思考技術發展。確保人工智能成為擴大機會而非限制機會的工具至關重要。
有前景的方向包括
- 獎勵開發無偏見演算法的市場解決方案
- 提高自動化決策流程的透明度
- 放寬管制有利於不同技術解決方案之間的競爭
唯有透過負責任的產業自律,再加上使用者的自由選擇,我們才能確保技術創新能持續成為繁榮的動力,並為所有願意運用技能的人提供機會。


