人工智慧與民主之間的關係既不是線性的,也不是單向的,而是相互衝突的力量交織在一起,同時增強和破壞民主進程的基礎。
AI 已經深刻改變了進行民主辯論的公共空間。這種改變遠遠超越了簡單的假消息問題。我們正在目睹集體資訊體驗的分崩離析,而這種體驗在歷史上一直是現代民主的基本先決條件。
當不同的公民生活在由推薦演算法所構成的截然不同的資訊現實中時,民主對話所需的共通點就會消失。
令人啼笑皆非的是,雖然人工智能讓可用的資訊來源成倍增加,但也削弱了民主社會就何謂「事實」達成共識的能力。這種認知上的侵蝕帶來了比散播假新聞更深層、更隱晦的挑戰。
民主國家面臨著一個根本性的兩難困境:有關人工智慧的決策需要極為特殊的技術專業知識,但將這些決策完全交託給專家又意味著將專家從民主過程中剔除。因此,在民主原則 (由公民做出並為公民服務的決策) 與專家專業知識的需求之間,存在著尚未解決的緊張關係。
日益複雜的 AI 系統不只對一般民眾不透明,有時對開發這些系統的專家也不透明,讓這種緊張關係更形複雜。當應該被管治的工具超出人類可理解的範圍時,民主管治如何運作?
在當今的競選活動中,透過人工智能進行政治微定位已經變得越來越複雜。AI 系統會分析大量選民資料集,以創造高度個人化的政治訊息。公正安全
研究顯示,以個性為目標、由 AI 產生的政治廣告,其說服力明顯高於一般內容。PubMedNih
人工智能的規模與效率可讓競選活動同時為數百萬名選民製作客製化內容,讓微定位比以往更可行、更具成本效益。政治行銷人CSET
最近的研究顯示,人工智能增強的競選工具可以識別選民的心理弱點,並製作利用這些特點的訊息。OUPAcademicTechInformed
民主方面的顧慮相當多:
投票系統和選舉基礎設施也會受到人工智能的影響,影響方式有正面也有負面:
AI 為民主參與提供了機會與挑戰:
人工智能不僅改變了民主辯論的模式,還深刻地重整了社會內部的權力關係。對人工智能基礎設施的控制現在代表了一種權力形式,可與傳統上由民主機構(如國會)行使的權力相媲美,甚至更勝一籌。
我們正目睹決策權從受民主控制的公共機構轉移到根據不同邏輯運作的私人實體。這種權力的轉移往往發生在無形之中,透過逐步將決策權交給自動化系統,而這些系統的運作參數並不總是透明或民主化的。
AI 正在改變民主參與的概念。一方面,它為更直接、更多參與形式的民主提供了工具,另一方面,它也為參與引入了新的認知和技術障礙。在此過程中,個人意見的價值也被重新定義:在演算法日益個人化的背景下,如何區分真正的個人偏好與推薦系統所誘發的偏好?
這種矛盾心理也在人工智能輔助的審議系統中表現出來:它們可能會讓複雜的決策過程變得更容易理解,但也有可能將需要更深入公眾思考的問題過度簡化。
在前數位時代孕育而生的傳統民主體制,難以適應科技創新所帶來的速度。人工智能的快速演進與民主程序的緩慢步伐之間的時間不同步,造成了治理真空,有可能被非民主的決策機制所填補。
我們面臨的挑戰並不只是透過現有的機構來規範人工智慧,而是重新思考這些機構,使其適合人工智慧日益成為社會、經濟與政治進程核心的時代。
為了因應這些挑戰,必須發展民主公民的新概念,其中包含對人工智慧角色的認知。這意味著既要克服天真的技術樂觀主義,只將人工智能視為民主改進的機會,也要克服悲觀主義,只將其視為威脅。
相反,這需要公民素養的發展,包括批判性評估演算法影響的能力、有意識參與複雜技術議題辯論的能力,以及要求開發與實作具有重大社會影響的人工智慧系統者具備透明度與問責性的能力。
歸根結柢,人工智慧與民主之間的關係並非由技術本身預先決定,而是取決於我們的集體能力,即如何想像與建構制度、規範與實踐,讓科技發展能強化而非侵蝕基本的民主價值。
人工智能可以使政府資訊更容易獲取、實現多語言參與、大規模分析公眾意見,以及個人化公民參與體驗,從而增強民主參與。IeeeOECD活動例如,人工智能增強的翻譯服務可以讓少數語言群體更充分地參與民主進程,ECNL而資料分析工具則可協助政府識別和解決公共服務提供中的不平等問題。Nextcity + 2
最顯著的風險包括:具說服力的錯誤資訊和虛假資訊的擴散破壞了共同的事實;通過微觀目標政治內容進行操縱;OUPAcademicMediaengagement算法偏差將某些群體排除在民主進程之外;以及選舉基礎設施中的安全漏洞。Sage Journals + 5研究表明,這些風險不僅僅是理論上的--研究記錄了根據個人心理特征定制的人工智能生成的政治內容的說服力。PubMed + 2
有效的監管方法包括:對人工智能產生的政治內容提出強制性披露要求;限制可用於政治微定位的個人資料類型;設立獨立監管機制,監督競選活動中的人工智能系統;開展公眾教育活動,提高選民對人工智能增強型說服技術的認識。PBS + 4歐盟人工智能法案提供了一個基於風險的監管框架範例,專門處理在民主進程中使用人工智能的問題。歐洲 + 2
透過公民大會、公眾諮詢和持續的利害關係人參與程序等參與機制,公民應擁有塑造 IA 治理的重要機會。布魯金斯研究顯示,在整個人工智能生命週期中,讓不同的利害關係人參與其中,可以建立更可靠的系統,更好地反映社會價值。Adalovelaceinstitute + 13《卡姆登資料憲章》等成功模式展示了公民參與如何為公共服務中人工智能的使用建立道德框架。經合組織
防護策略包括:實施強大的網路安全措施,例如多因素驗證;訓練選舉官員辨識 AI 強化的網路釣魚嘗試;開發系統以識別和反擊 AI 產生的錯誤投票資訊;Sophos News建立官方選舉通訊的驗證程序;以及為關鍵選舉基礎設施建立備援系統。ABC News + 2網路安全與基礎建設安全局 (CISA) 為選舉官員提供降低 AI 風險的具體指引。CisaCisa
AI 可以改變公民與政府的關係,提供更個人化的公共服務、創造新的公民參與管道、Nextcity將某些政府職能自動化,並可能改變民主制度中的權力動態。EffOECD這種轉變的方向主要取決於治理的選擇,即人工智能的實施方式是加強民主問責,還是將權力集中在監督有限的技術系統中。科學導向 + 2
國際合作對於建立共同標準、防止監管分散、處理人工智能的跨境影響,以及在人工智能發展過程中促進民主價值觀的一致性至關重要。OECD + 2OECD 人工智能原則是國際協調的典範,提供全球 47 個司法管轄區採用的共同框架,同時允許國家實施的彈性。經合組織
確保人工智能造福民主需要:積極主動的價值治理框架;有意義的透明度和問責要求;人工智能開發和監管的參與方式;數位素養投資;人工智能應用中的基本權利保護;以及追究人工智能系統及其開發者責任的機制。Eff + 4
有證據顯示,預測性治理方法比被動式監管更有效。經合組織
人工智能為全球民主制度帶來了重大的機遇與挑戰。我們的全面檢閱提出了幾個重要的結論: