隨著企業越來越多地採用人工智慧解決方案來推動效率和創新,資料安全和隱私權問題已成為重中之重。正如斯坦福《人工智能時代的資料隱私與保護》(2023)白皮書的執行摘要所強調的,「資料是所有人工智能系統的基礎」,「人工智能的發展將繼續增加開發人員對訓練資料的渴求,助長比我們過去幾十年更激烈的資料獲取競賽」。人工智能在提供巨大機遇的同時,也帶來了獨特的挑戰,需要我們從根本上重新思考資料保護的方法。本文將探討組織在導入 AI 系統時,在安全性與隱私權方面的主要考量,並提供在整個 AI 生命週期中保護敏感資料的實用指引。
正如史丹福白皮書第 2 章「資料保護與隱私權:關鍵概念與法規格局」所指出,人工智慧時代的資料管理需要考慮超越單純技術安全的相互關聯層面。根據執行摘要,有三項關鍵建議可減緩人工智慧的發展與採用所造成的資料隱私風險:
這些層面需要超越傳統 IT 安全實務的特定方法。
正如斯坦福白皮書中明確指出的,「大體上不受限制的資料收集帶來了超越個人層面的獨特隱私風險--它們彙總起來會造成社會傷害,而這些傷害無法僅透過行使個人資料權利來解決」。這是執行摘要中最重要的觀點之一,要求我們從根本上重新思考資料保護策略。
直接引用斯坦福執行摘要的第一項建議:
實施建議:實施資料分類系統,自動標籤敏感項目,並依據敏感等級套用適當的控管,以及預先定義的非收集設定。
.png)
根據斯坦福執行摘要的第二項建議,整個資料鏈的透明度和問責性是任何處理資料隱私的監管系統的根本。
白皮書明確指出,必須「聚焦於人工智能資料供應鏈,以改善隱私和資料保護。确保数据集在整个生命周期内的透明度和问责制,必须成为任何解决数据隐私问题的监管体系的目标"。這需要:
實施建議:實施資料來源系統,記錄用於訓練和操作 AI 系統的資料的整個生命週期。
斯坦福執行摘要的第三項建議指出,需要「改變個人資料的建立與管理方式」。正如文件中所報告的,「決策者應該支持開發新的治理機制和技術基礎設施(例如,資料經紀人和資料授權基礎設施),以支持個人資料權利和偏好的行使並使其自動化」。
實施建議:採用或協助開發資料授權的開放標準,使不同系統和服務之間能夠互通。
AI 模型本身需要特定的保護:
實施建議:在開發管道中建立「安全閘門」,要求在模型投入生產前進行安全與隱私驗證。
AI 系統面臨獨特的攻擊媒介:
實施建議:實施敵對者訓練技術,讓模型在開發過程中特別暴露於潛在的攻擊媒介。
不同部門對隱私權和安全性的要求有很大差異:
在人工智能中實施全面的資料隱私與安全方法需要:
.png)
一家全球性金融機構採用分層方式實施了一套以 AI 為基礎的詐欺偵測系統:
正如斯坦福白皮书的执行摘要中明确指出的,「虽然基于全球公认的公平信息做法(FIPs)的现有和拟议的隐私立法隐含地规范了人工智能的发展,但不足以解决竞相获取数据以及由此产生的个人和系统性隐私危害」。此外,「即使是包含关于算法决策和其他形式人工智能的明确规定的立法,也没有提供必要的数据治理措施,对人工智能系统中使用的数据进行有意义的监管」。
在人工智能時代,資料保護和隱私權不能再被視為次要。各機構必須遵循白皮書的三項主要建議:
這些建議的實施代表著我們在人工智能生態系統中構想和管理資料方式的根本性轉變。正如斯坦福白皮書中的分析所顯示,目前的資料收集和使用方式是不可持續的,並有可能破壞大眾對人工智慧系統的信任,同時造成遠遠超越個人的系統漏洞。
為了因應這些挑戰,法規面貌已經在改變,這從國際間愈來愈多的討論可以看出,不僅要對人工智慧的結果,也要對哺育這些系統的資料擷取程序進行法規管理。然而,僅僅遵守法規是不夠的。
採用合乎道德且透明的資料管理方式的組織,將能在這個新環境中處於更有利的位置,透過使用者的信任與更高的營運復原力,獲得競爭優勢。我們面臨的挑戰是如何平衡技術創新與社會責任,並認識到人工智慧的真正永續性取決於其尊重與保護服務對象基本權利的能力。