📧 **更新的通訊文章**
*本文最初發表於我們的每週通訊,後來根據 2025 年的發展更新,包括具有里程碑意義的 Bartz v. Anthropic、Kadrey v. Meta、Disney v. Midjourney 和 Thomson Reuters v. Ross Intelligence 等判決。*
** 最近更新:** [2025 年 7 月]。
人工智慧與著作權法的交集,已成為現代法律環境中最複雜、發展最迅速的領域之一。2025 年標誌著一個歷史性的轉捩點,第一批實質性的裁決重新定義了如何從著作權的角度來處理人工智慧所產生的內容。
2025 年的歷史判決:支離破碎的法理學
毀滅性的先例:Thomson Reuters 訴 Ross Intelligence 案
2025 年 2 月 11 日是人工智慧法律的分水嶺,Stephanos Bibas 法官做出第一項判決,斷然拒絕人工智慧訓練中合理使用的辯護。
在Thomson Reuters Enterprise Centre GmbH 訴 Ross Intelligence Inc. 一案中,法院依法裁定,使用受版權保護的標題來訓練 AI 系統,並不構成合理使用。
該判決的核心:Ross Intelligence 使用 Westlaw 的標題註釋(Thomson Reuters 的專屬法律摘要)來訓練自己的競爭性 AI 搜尋引擎。法院強調,Ross 正在創造一個直接「市場替代品」以取代 Westlaw,這決定性地反對合理使用。
正如 Bibas 法官所寫:「公眾無權使用 Thomson Reuters 的法律分析。版權鼓勵人們開發對社會有幫助的東西,例如好的法律研究工具"。
2025 年 6 月的雙重判決:一個法律悖論
2025 年 6 月,僅相隔兩天,加州兩家聯邦法院就做出了看似矛盾的判決,震撼了人工智能產業。
Bartz訴Anthropic案(2025年6月23日):法官 William Alsup 裁定 Claude 對合法購買的書籍進行的訓練構成合理使用,並稱該過程為「壯觀的轉換」。然而,他譴責 Anthropic 從 LibGen 和 Pirate Library Mirror 等盜版網站下載超過 700 萬本書籍,裁定這種非法取得的行為不受合理使用的保護。這項判決創造了一個重要的區別:訓練可以是合理使用,但必須是合法取得的材料。
Kadrey訴Meta案(2025年6月25日):法官 Vince Chhabria 裁定 LLaMA 訓練作者的書籍構成合理使用,但理由與 Anthropic 案不同。作者(包括Sarah Silverman 與 Ta-Nehisi Coates)未能證明 Meta 的人工智慧在市場上確實取代了他們的作品,或造成具體的經濟損害。Chhabria 法官在判決中含蓄地批評 Alsup 法官強調人工智能的「轉換」性質,反而強調關鍵因素應該是實際經濟損害的證據。
好萊塢加入戰局:迪士尼與 Universal 訴 Midjourney
2025 年 6 月,好萊塢巨頭也加入了人工智能版權法律戰。迪士尼和環球影業向 Midjourney 提出訴訟,這是好萊塢巨頭首次控告 AI 公司侵犯版權。
巨人之重:長達 110 頁的訴訟指控 Midjourney 盜用「無數」版權作品來訓練其軟體,包括 Darth Vader、Homer Simpson 和 Shrek 等經典角色。正如《時代雜誌》所報導,此案的重要性在於迪士尼與環球影業的規模、影響力與資源:「這些美國經濟的支柱越是捲入這場鬥爭,就越難忽略這裡面簡單的事實」。
虛擬發佈機器」:訴訟將 Midjourney 描述為「虛擬發佈機器,無止境地產生未經授權的迪士尼與 Universal 作品複製品」。Midjourney 擁有超過 2,000 萬名註冊使用者,並將於 2024 年創造 3 億美元的營收,是全球最大的 AI 影像產生器之一。
安徒生與穩定 AI:繼續演變
由 Sarah Andersen 領導的藝術家團體繼續贏得重大勝利,William Orrick 法官允許他們對 Stability AI 和 Midjourney 等公司提出侵權指控。藝術家們指控這些公司在未經同意或賠償的情況下,非法將他們的作品複製儲存在訓練資料集中。
基本矛盾:本案例突顯了生成式人工智能的固有悖論:模型的設計目的是模仿人類的創造力,但卻只能透過消耗人類的作品來模仿。
Adobe 的道德方法:授權與合理使用
當其他科技巨頭面臨版權侵權訴訟時,Adobe 卻試圖以其 Firefly AI 將自己定位為「道德」的替代方案。Adobe圍繞「商業上安全的 AI」這個概念建立行銷策略與產品差異化,主要以 Adobe Stock 授權的圖片和公共領域內容進行訓練。
道德承諾:Adobe 將 Firefly 與 Midjourney 和 DALL-E 等競爭對手區別開來,強調其模型僅針對授權內容進行訓練,避免具爭議性的網際網路搜刮。該公司還採用了 Content Credentials 等技術,允許創作者在其作品上添加「Do Not Train」標籤。
複雜的現實:然而,彭博社在 2024 年 4 月揭露的資料顯示,Firefly 訓練資料集中約有 5% 的圖像是由包括 Midjourney 在內的競爭 AI 所產生。在 Adobe Stock 內,有 5700 萬張圖片明確標示為 AI 產生,佔總資料庫的 14%。
Adobe的辯護:Adobe 回應說,Adobe Stock 中的所有圖片,包括由 AI 產生的圖片,都經過「嚴格的修改程序」,以確保它們不包含智慧財產權、品牌或可辨識的人物。該公司辯稱,相較於使用完全未經授權資料的競爭對手,這種做法仍然更符合道德規範。
對終端使用者的好處: Adobe 的做法讓使用者 在使用 Firefly 所產生的內容時,可以減少法律風險或侵犯版權的風險。即使在出現矛盾和灰色地帶的情況下,Adobe對透明度、內容節制和尊重藝術家權利的承諾也是一項附加價值。
2025 年的法理分裂
2025 年揭示了法理上的嚴重分歧,反映出將 20 世紀法律應用於 21 世紀技術的固有複雜性。
合法取得範例:所有的判決都同意一個基本原則:區分合法與非法取得訓練教材。即使後續使用可能屬於合理使用,下載盜版材料仍屬非法,並可能導致獨立的責任。
第四因素之戰:這兩項決定將合理使用的第四因素(市場影響)確定為新的法律戰場。Thomson Reuters 贏得了勝訴,證明了明顯的市場替代性,而 Bartz 和 Kadrey 案則未能證明具體的經濟損害。
probatio diabolica 的問題:出現了一個程序上的悖論:在影響廣泛且難以量化的情況下,作者如何證明人工智能系統造成的市場損害?我們正在目睹一個系統的出現,在這個系統中,保護取決於以數學方式證明往往是直覺上顯而易見的事情的能力。
面對數位深淵的演員
人工智慧時代的著作權危機尤其影響到演藝界,因為表演者的身分是演藝界的核心。克隆肖像、聲音與表演風格的可能性,正迅速將「表演」的概念從獨特的創作行為,轉變為潛在的可複製範本。
詮釋的消解:當演員可以數位方式再現,詮釋的藝術還剩什麼?製片廠已經展示了「復活」已故演員以及以數位方式處理現有詮釋的能力。關鍵問題不在於技術上是否可行,而在於它是否保留了讓表演有意義的本質。
Here 「的先例:電影 」Here "使用了湯姆漢克斯 (Tom Hanks) 和羅賓賴特 (Robin Wright) 的完整數位再現,代表了授權使用的典範。製作公司獲得了相關演員的明確同意並支付了版權費用,因此創造了同意使用的商業先例。這突顯出問題不一定在於技術本身,而是其作品和形象被使用的藝術家的同意和補償。
迪士尼在數位複製方面的議程:值得注意的是,迪士尼也是「無假」法案 (NO FAKES Act) 的支持者之一,該法案是一項聯邦法律提案,旨在保護聲音及肖像演員免於未經授權的 AI 複製。這顯示了一個協調的策略:保護演員免於未經授權的數位複製品,同時打擊未經授權使用現有智慧財產權的行為。
逆向價值的悖論:一種奇特的經濟現象已經出現:擁有成熟事業的最著名演員(因此有大量素材可供 AI 訓練),卻最容易被演算法取代。他們的成功讓他們很容易成為未經授權的克隆目標,顛覆了傳統的藝術生涯價值曲線。
歐洲作為監管制衡:實踐中的 AI 法案
當美國在合理使用的迷宮中遨遊時,歐洲卻選擇了截然不同的方法,於 2024 年 8 月生效的人工智慧法案,目前正積極執行中。
強制性透明化革命:AI 法案要求一般 AI 模型的提供者公開一份「足夠詳細的摘要」,說明訓練所使用的資料,包括受版權保護的資料。2025 年 1 月,歐盟委員會發佈了一份範本,協助提供者準備所需的摘要。
AI 法案的支柱:
- 透明度:公司必須揭露訓練資料的來源
- 尊重著作權:無論在何處進行訓練,都有義務尊重歐盟著作權法
- 選擇退出:尊重表示拒絕的權利人的偏好
域外效力:人工智慧法適用於任何將人工智慧模型放上歐盟市場的廠商,「不論與著作權相關的行為發生在哪個司法管轄區」。這與美國的合理使用法理產生潛在衝突。
美國版權局新報告 (2025)
2025 年 1 月,美國版權局發表了有關人工智慧報告的第二部分,就人工智慧所產生的作品的可保護性提供了重要的說明。
確定的基本原則:
- 只有具有由人類作者決定的表達元素的作品才能受到版權保護
- 僅提供提示不足以獲得著作權保護
- AI 協助創作不會自動阻止可保護性
- 完全由 AI 產生的作品不能取得版權
重溫原創性的神話:報告證實「原創性」這個概念在現代著作權法中是多麼的人工化。藝術家從數以千計的 AI 輸出中挑選,與程式設計師從數以千計的演算法中挑選,兩者之間真正的區別何在?法律上的區別似乎是意識形態多於實際,但在決定什麼可以取得版權時,這仍是至關重要的。
國際視角:全球分歧
中國:北京的一家法院於 2023 年 11 月承認人工智能生成的圖像受版權保護,前提是該圖像必須具有獨創性,並反映出人類的智慧努力。這與美國較嚴格的做法形成對比。
捷克:2024年,捷克法院針對 AI 產生的版權作出歐洲第一項裁決,拒絕保護透過提示創作的圖像,與美國版權局的立場一致。
全球立法的偽善:有趣的是,西方法律制度拒絕賦予人工智慧所產生的作品權利,卻同時允許人類作品被這些相同的系統「吞噬」。我們正目睹雙重標準:人類作品在創造時被視為神聖,但在被人工智慧吞噬時卻是消耗品。
合理使用之爭:新領域
AI 公司越來越依賴「轉型使用」的論點,但 2025 年的判決已顯示出這項策略的限制。
轉型的假象:「轉型使用」的論點被證明是一種方便的法律虛構,當應用在產業規模上時。事實上,人工智慧並沒有「轉換」作品,而是消化並回收作品。正如 Thomson Reuters 案中所展示的,當商業使用明顯且直接時,法官開始理解這種區別,但仍然難以闡明為何人類從受保護作品中學習是可以接受的,而人工學習卻不可以。
新的決定性因素:
- 合法與非法取得訓練教材
- 直接市場替代vs. 創造新市場
- 經濟損害的具體證據vs. 理論上的損害
- 
最終使用者和開發人員的責任風險
Andersen案裁定,如果 AI 輸出與訓練資料過度相似,最終使用者可能要負上法律責任,但 2025 年的判決則讓這個情況更加複雜。
不可能的知識負擔 更新: 最終使用者如何知道包含數十億張圖片的訓練資料集的內容,尤其是當現在人工智能法案要求透明度,但美國供應商可能不遵守時?我們正在創造一個系統,讓一般使用者在不一致的跨境法規環境中,冒著他們無法預見或避免的違法行為的懲罰風險。
P.S. - 弗蘭肯斯坦悖論(The Frankenstein Paradox Updated):如同弗蘭肯斯坦博士(Dr. Frankenstein)--他是創造者而非生物,這是沒有讀過瑪麗雪萊(Mary Shelley)作品的人常犯的錯誤--我們發現自己處於一個放大的悖論:使用人工智慧的使用者被視為「怪物」,必須為違法行為負責,而真正的「醫生」卻往往逃脫法律後果,他們在他人資料上創造並訓練這些系統。2025 年的判決顯示,即使公司被追究責任,往往也只限於最惡劣的層面(例如 Anthropic 的盜版),而非系統性使用受保護資料。進一步證明文化的膚淺性也反映在我們對數位時代責任的詮釋上。
對產業的影響及未來發展方向
2025 個案例加速了對授權訓練資料集的需求。各大媒體公司現在都在洽談收入分享協議,這與音樂產業的 ASCAP/BMI 模式如出一轍。
終結的異質生成(The Heterogenesis of Ends Confirmed):自相矛盾的是,為了保護個人創作人而提出的訴訟,卻偏向於有能力負擔複雜授權協議的結構化大型公司。2025 年的判決顯示,能證明具體的經濟損害 - 通常是個別創作人無力負擔的 - 已經成為法律勝訴的關鍵。然而,迪士尼與環球的加入改變了趨勢:這些巨頭既有資源維持冗長的訴訟,也有影響力獲得媒體與政治的關注。
不斷擴大的授權市場:Thomson Reuters、Getty Images 和其他大型內容持有者現在正積極將他們的檔案作為訓練資料來賺錢,創造了一個可能排除小型獨立創作者的新市場。迪士尼和環球的加入很可能會加速這個趨勢,一旦獲得法律明確性,電影業很可能會「有效加速使用建立在授權內容上的 AI 模型」。
Adobe 的教訓:Adobe 的案例顯示,即使是最看似合乎道德的方法,也可能有瑕疵。然而,它代表了在 AI 創新與尊重創作者權利之間取得平衡的真正嘗試。正如 Adobe 所言:「我們的目標是建立可讓創作者將其才華轉化成金錢的人工智慧」,這項原則與許多競爭對手的「先取後求」方式形成強烈對比。
Adobe vs. 競爭者模式:當Anthropic和Meta等公司在法庭上為自己使用盜版內容辯護時,Adobe至少嘗試建立授權架構。這種做法儘管並不完美,但可作為未來要求創作者透明度與補償的法規典範。
結論:駕馭 2025 年後的不確定性
後 2025 世紀人類創造力的未來目前的法律戰爭不只是智慧財產權的問題,而是人工智慧時代人類創造力的意義。2025 年的裁決試圖保留人類與人工創意之間日益人為化的區別,但也揭露了這種做法的實際限制。
碎片化成為新常態:2025 年的法理判決非但沒有明確,反而零碎不齊,反映出根本不同的方法。在某些原則(盜版的非法性、市場影響的重要性)上的一致,與在基本問題上的嚴重分歧並存。
真正的新興問題:2025 年的判決顯示,問題已不再是人工智慧是否會侵犯版權,而是各國法律體系是否能快速發展連貫的架構,以規範呈指數演進的科技。歐洲人工智慧法案」與美國判例正在創造不相容的標準,可能導致全球人工智慧市場四分五裂。迪士尼憑藉其遊說能力與政治影響力加入美國聯邦,可能會催化更明確的美國聯邦立法。
迪士尼的教訓:正如一位業界專家對於迪士尼與 Universal 案的看法:「這將不會是好萊塢試圖關閉創造性 AI。這是關於補償的問題。這一區別至關重要:這並非關乎阻止創新,而是確保創造者的工作獲得補償。
對比模式:2025 年強調了三種根本不同的方法:一方面,我們有迪士尼利用法院保護高價值的智慧財產權,Adobe 則試圖建立一個合乎道德(雖然不完美)的生態系統;另一方面,公司寧願冒著訴訟的風險,也不願意限制資料存取;最後,歐洲透過人工智慧法案強制規定透明度。這種對比可能將定義未來的 AI 法規。
當我們試圖將 20 世紀的法律套用在 21 世紀的科技上時,我們可能會發現自己所維護的制度,不僅不再保護其聲稱要保護的利益,反而積極妨礙不容易歸入現有類別的新創作表現形式的出現。2025 年的情況顯示,人類與人工創意的共存之路,將比最初的構想複雜得多,也矛盾得多。
註:本更新文章反映 2025 年人工智慧-著作權領域的重大發展,包括首批實體判決及歐洲人工智慧法的實施。有關未決案件的進一步更新,請參閱 完整的人工智慧著作權案件追蹤。法律環境持續快速演進,需要持續監控法規與判例法的發展。
其他資源:


