2025年9月,OpenAI發表了一項震驚全球科技界的聲明:ChatGPT會主動監控用戶對話內容,並向執法機關舉報潛在犯罪內容。
這項消息幾乎是偶然出現在公司部落格的一篇貼文中,揭露當自動系統偵測到用戶「正計劃傷害他人」時,相關對話會被轉至專門管道,由一小隊受過使用政策訓練的團隊進行審查。 若人工審查員判定存在「對他人造成嚴重身體傷害的迫在眉睫威脅」,該案件將轉交執法機關處理¹。

ChatGPT誠摯邀請您分享最私密的思緒。請放心,一切皆屬保密...差不多吧。
資料來源:
當我們與心理學家、律師、醫生或神父交談時,我們的言論受到一套成熟的法律機制保護:職業保密原則。這項根植於數世紀法律傳統的原則規定,某些對話即使面對刑事調查也具有不可侵犯性。
傳統職業保密特徵:
與普遍認知相反,職業保密義務並非絕對。不同專業類別存在明確界定的例外情況:
律師適用(《律師職業道德守則》第28條):在下列情況下,允許披露資訊:
關鍵案例:若客戶向律師表明意圖犯下謀殺罪,在保障辯護權與維護生命權之間,後者應優先考量,此時律師即免除保密義務²。
針對心理學家(《職業道德守則》第13條):保密義務可在下列情況下被打破:
重要區別:私人心理師相較於公營心理師擁有更大的裁量權,後者身為公職人員須承擔更嚴格的舉報義務³。
資料來源:
ChatGPT 運作於一個完全不同的灰色地帶:
缺乏法律特權:與人工智慧的對話不受任何法律保護。正如OpenAI執行長山姆·阿特曼所承認:「如果你向治療師、律師或醫生談論這些問題,則享有法律特權。 」醫病保密、法律保密等各種保密條款皆適用。但當你與ChatGPT對話時,我們尚未解決這個問題。
自動化流程:與人類專業人員逐案評估不同,ChatGPT運用演算法識別「問題」內容,將專業人類判斷從初始篩選階段移除。
資料來源:
這種情況造成了一個令人擔憂的悖論。數百萬人將ChatGPT視為數位知己,向其傾訴私密想法、疑慮、恐懼,甚至連犯罪幻想都毫不保留地分享——這些內容他們絕不會向真人透露。正如山姆·奧特曼所言:「人們向ChatGPT傾訴生活中最私密的事。人們——尤其是年輕人——將其當作心理治療師、人生教練來使用。」⁴
犯罪性自我審查的風險:意識到對話可能被監控,反而可能:
批評者所強調的一個關鍵問題,在於最終決策者的專業能力。
人類專業人士具備:
ChatGPT系統運作方式:
問題範例:演算法如何區分以下情況:
資料來源:
資料來源:
OpenAI的承認與其先前立場形成強烈矛盾。該公司曾以保護隱私為由,在法律訴訟中堅決拒絕提供用戶數據。在對抗《紐約時報》的訴訟中,OpenAI曾強烈反對披露聊天記錄,以保護用戶隱私⁴。
諷刺的是:OpenAI在法庭上捍衛用戶隱私的同時,卻承認自己正在監控數據並與外部機構共享。
法院命令OpenAI無限期保存所有ChatGPT日誌(包括私人對話和API數據),使情況更加複雜。這意味著用戶原以為是臨時性的對話,如今已永久存檔⁵。
資料來源:
正如山姆·奧特曼所建議的,我們可能需要發展「AI特權」的概念——一種類似傳統專業人士所享有的法律保護。然而,這引發了複雜的問題:
可能的監管選項:
「分隔式」人工智慧:
「三方」方法:
其他領域的經驗教訓:
資料來源:
OpenAI 案件為整個人工智慧產業樹立了重要先例:
針對開發對話式人工智慧的企業:
對於使用人工智慧的企業:
核心困境:如何在預防真實犯罪與保障隱私權及數位保密權之間取得平衡?
問題不僅僅是技術性的,更觸及根本原則:
OpenAI的揭露標誌著人工智慧演進的分水嶺時刻,但問題不在於該揭露是否絕對正確或錯誤:關鍵在於如何使其有效、公平且尊重權利。
需求是真實的:具體的暴力威脅、襲擊計劃或其他嚴重犯罪都需要採取行動。問題不在於是否舉報,而在於如何負責任地舉報。
亟待解決的根本差異:
培訓與專業能力:
透明度與控制:
比例原則:
對於該領域的企業而言,挑戰在於開發能有效保護社會卻不會淪為濫用監控工具的系統。用戶信任至關重要,但必須與社會責任並存。
對使用者而言,這堂課有雙重意義:
對話式人工智慧的未來需要一個新的框架,該框架應具備以下特點:
正確的問題並非在於機器是否應該舉報犯罪,而是我們如何確保它們(至少)能以與人類專業人士同等的智慧、訓練和責任感來執行這項任務。
目標並非回歸對現實危險「視而不見」的人工智慧,而是打造能將技術效率與倫理道德及人類專業知識相結合的系統。唯有如此,我們才能兼得兩全其美:既保障安全,又維護個人權利。