10 個州已通過立法,明確將製作或散布 deepfake 列為犯罪行為。Indiana 州可能很快將透過擴大10 個州已通過立法,明確將製作或散布 deepfake 列為犯罪行為。Indiana 州可能很快將透過擴大

非自願 AI 色情內容將使我們所有人都成為受害者:法律能否跟上?

本文與 The 19th 合作出版,The 19th 是一家報導性別、政治和政策的非營利新聞編輯室。請在此處訂閱 The 19th 的電子報。

去年,新澤西州韋斯特菲爾德高中的二十多名學生驚恐地發現,他們的裸照正在同儕間流傳。根據學校表示,有些學生使用人工智慧(AI)從原始照片製作他人的色情圖像。她們並非唯一遭受假裸照傷害的少女:華盛頓州和加拿大的學生也報告面臨類似情況,因為透過網站和應用程式逼真地修改照片的能力變得更加普及。

一月份,隨著涉及巨星 Taylor Swift 的深度偽造內容在社群媒體上快速傳播,人們對深度偽造——AI 生成的圖像或影片——的擔憂進一步加劇。

Carrie Goldberg 是一位十多年來一直代理未經同意色情內容受害者——通常稱為報復式色情——的律師,她說直到最近才開始聽到電腦生成圖像受害者的求助。

「我的事務所大約五年來一直接觸深度偽造的受害者,主要是名人,」Goldberg 說。「現在,這變成了孩子對孩子的惡意行為。這可能嚴重被低報,因為受害者可能不知道有法律救濟途徑,而且並非在所有情況下都完全清楚是否有救濟。」

管理機構正試圖跟上。在過去一年左右,10 個州通過了專門將製作或傳播深度偽造內容定為犯罪的立法。這些州——包括加州、佛羅里達州、喬治亞州、夏威夷州、伊利諾州、明尼蘇達州、紐約州、南達科他州、德州和維吉尼亞州——規定的處罰從罰款到監禁不等。印第安納州可能很快會透過擴展其現行的未經同意色情法律加入這個不斷增長的名單。

印第安納州共和黨眾議員 Sharon Negele 撰寫了擴展提案。現行法律將「報復式色情」定義為未經圖像中描繪的個人同意,披露親密圖像,例如任何描繪性交、裸露生殖器、臀部或女性乳房的圖像。Negele 提出的法案已通過兩院,現正等待州長簽署。

Negele 說,當她聽到一位高中教師發現她的一些學生傳播她的深度偽造圖像的故事時,她受到激勵要更新印第安納州的刑法。這對該教師的個人生活「極具破壞性」,Negele 驚訝地發現,根據現行法律,肇事者無法被起訴。

「這始於我對現有技術的理解教育,閱讀一個又一個事件,人們的臉被附加到看起來極其真實和逼真的虛構身體上,」Negele 說。「這真令人痛苦。身為一位母親和祖母,想到我的家人和我自己可能發生什麼——這太震驚了。我們必須超前應對這類事情。」

Goldberg 的律師事務所專精於性犯罪,她說她預期更多州將繼續擴展其現有立法以納入 AI 語言。

「十年前,只有三個州有報復式色情或基於圖像的性虐待法律,」Goldberg 說。「現在,48 個州已將報復式色情定為非法,這確實大幅減少了報復式色情——毫不意外——正如我們倡議者所說的那樣。深度偽造的整體崛起填補了空白,成為性羞辱某人的新方式。」

根據美聯社報導,2023 年,超過 143,000 部新的 AI 生成影片被發佈到網路上。這比 2019 年大幅增加了,當時「裸體化」網站或應用程式較不普遍,但根據視覺威脅情報公司 Deeptrace Labs 的報告,仍有近 15,000 部這類假影片在網路上。即使在當時,這些影片——其中 96% 是未經同意的女性色情內容——已獲得超過 1 億次觀看。

Goldberg 說,政策制定者和公眾似乎更有動力禁止 AI 生成的裸體圖像,特別是因為幾乎任何人都可能成為受害者。人們有更多同理心。

「對於報復式色情,在第一波討論中,每個人都在指責受害者,讓他們看起來像是某種變態才會拍攝圖像,或者愚蠢到與他人分享,」Goldberg 說。「對於深度偽造,你無法真正指責受害者,因為他們唯一做的就是擁有身體。」

Amanda Manyame 是總部位於南非的國際人權組織 Equality Now 的數位權利顧問,該組織專注於幫助婦女和女孩,她說美國幾乎沒有對深度偽造受害者的保護。Manyame 研究世界各地的政策和法律,分析哪些有效,並提供有關數位權利的法律建議,特別是關於科技促成的性剝削和虐待。

「最大的差距是美國沒有聯邦法律,」Manyame 說。「挑戰在於這個問題由各州管理,自然地,在保護方面沒有統一性或協調性。」

然而,目前國會山莊正在推動:一個跨黨派參議員小組在一月份提出了 2024 年《破壞明確偽造圖像和未經同意編輯法案》——也稱為 DEFIANCE 法案。該立法提案旨在阻止未經同意的色情內容的擴散。

「沒有人——無論是名人還是普通美國人——應該發現自己出現在 AI 色情片中,」該法案的共同提案人、共和黨參議員 Josh Hawley 在一份聲明中說。「無辜的人有權捍衛自己的聲譽,並在法庭上追究肇事者的責任。」眾議員 Alexandria Ocasio-Cortez 已在眾議院提出了配套法案。

根據 Data for Progress 的新民調,跨政治光譜的可能選民中有 85% 表示支持擬議的 DEFIANCE 法案——其中 72% 的女性強烈支持,相較於 62% 的男性。

但年輕男性更可能反對 DEFIANCE 法案,約五分之一的 45 歲以下男性(22%)表示強烈或有些反對允許明確未經同意深度偽造對象起訴創作者的立法。

Data for Progress 執行董事 Danielle Deiseroth 說,這個議題顯示了她一段時間以來所見到的年輕男女之間「更尖銳的對比」之一。

「我們可以自信地說,45 歲以下的女性和男性對這項政策有分歧的意見,」Deiseroth 說。「這是一個不成比例地影響女性的議題,尤其是年輕女性,她們更可能成為報復式色情的受害者。我認為這才是真正的根本原因。」

Goldberg 說,制定政策將不良行為者定罪是一個好的開始,但最終還不夠。她說,下一步應該是對線上經銷商採取法律行動,例如 App Store 和 Google Play,這些平台提供主要用於犯罪活動的產品。Goldberg 補充說,社群媒體平台和即時通訊應用程式,也就是這些露骨圖像的傳播處,也應該被追究責任。

#MyImageMyChoice 的創辦人是一個致力於幫助親密圖像虐待受害者的草根組織,他們同意參與這些圖像創作和傳播的私營公司應該做更多。

創辦人——Sophie Compton、Reuben Hamlyn 和 Elizabeth Woodward——指出,像 Google 這樣的搜尋引擎驅動了大部分到深度偽造色情網站的網路流量,而信用卡公司處理它們的付款。網路服務供應商讓人們存取它們,而像 Amazon、Cloudflare 和 Microsoft 的 Github 等主要服務託管它們。而像 X 這樣的社群媒體網站允許內容大規模流通。Google 在 2015 年改變了其政策,開始允許受害者提交請求從搜尋結果中刪除個別內容,此後將政策擴展到深度偽造虐待。然而,該公司並未系統性地將基於圖像的性暴力和深度偽造虐待網站除名。

「科技公司有權封鎖、取消索引或拒絕為這些網站提供服務——這些網站的整個存在都建立在侵犯同意和從創傷中獲利上,」Compton、Hamlyn 和 Woodward 在給 The 19th 的聲明中說。「但他們選擇不這樣做。」

Goldberg 指出了 Taylor Swift 深度偽造內容傳播的速度。在 X(以前稱為 Twitter)上分享的一張圖像在發佈該圖像的帳戶被暫停之前被觀看了 4,700 萬次。儘管社群媒體公司努力刪除圖像,但圖像仍繼續傳播。

「Taylor Swift 在堪薩斯城酋長隊橄欖球比賽中血腥和裸體的暴力、厭女圖片,是這個問題的象徵,」Goldberg 說。「該傳播的範圍,包括在真正的主流網站上,向每個人傳達了創作這種內容是可以的訊息。對我來說,那是一個真正關鍵且相當可怕的時刻。」

鑑於受害者的高知名度,該事件引發了 Swift 粉絲明顯而廣泛的憤怒,並引起了公眾對這個議題的關注。Goldberg 說她檢查了是否有任何線上經銷商從其線上商店中移除了使創作色情深度偽造更容易和更便宜的產品——她鬆了一口氣,看到他們已經這樣做了。

隨著國家的政策制定者和法院繼續嘗試回應快速發展且日益普及的技術,Goldberg 說,立法者繼續聽從專家和直接與受害者合作的人(如律師、社工和倡議者)的意見很重要。她補充說,否則,監管抽象概念或快速發展技術的立法者可能會是「災難的配方」。

Manyame 也強調在制定政策決策時直接與倖存者交談的重要性,但補充說立法者還需要更全面地思考這個問題,而不是過度糾結於特定技術——否則有始終落後的風險。例如,Manyame 說,公眾現在才開始理解 AI 和深度偽造帶來的風險——這是她在 2021 年幫助撰寫報告的內容。展望未來,Manyame 已經在思考元宇宙——一個虛擬現實空間——用戶開始面對強姦、性騷擾和虐待的案例。

「許多關於基於圖像的性虐待的法律有點過時,因為它們專門談論報復式色情,」Manyame 說。「報復式色情歷史上更多是家庭暴力問題,即親密伴侶分享其前任或現任伴侶的性剝削圖像。深度偽造並非總是如此,因此這些法律可能無法提供足夠的保護。」

此外,Manyame 認為,許多這些政策未能擴大「親密圖像」的定義以考慮多元的文化或宗教背景。例如,對於一些穆斯林女性來說,創作和傳播她們沒有戴頭巾的裸頭圖像可能同樣是侵犯和羞辱。

談到解決方案時,Manyame 指出應用程式創作者、平台監管機構和立法者可以採取的行動。

在設計階段,可以嵌入更多安全措施來限制傷害。例如,Manyame 說,有些應用程式可以拍攝女性的照片並自動移除她們的衣服,而同樣的功能在男性照片上不起作用。這些應用程式的後端有方法可以使移除任何人的衣服變得更困難,無論其性別如何。

然而,一旦惡意的深度偽造內容已經被創作和發佈,Manyame 說,社群媒體和訊息平台應該有更好的機制在受害者舉報後刪除內容。很多時候,個別受害者被忽視。Manyame 說,她注意到這些大型社群媒體公司在像澳洲這樣有第三方監管機構代表受害者倡議的國家更可能刪除這些深度偽造內容。

「任何解決方案都需要包含監測和執行機制,」Manyame 說。「我們從許多倖存者那裡聽到的一件事是,他們只想刪除自己的圖像。這甚至不是要經歷法律程序。他們只想刪除那些內容。」

Manyame 說,這對許多科技公司和政府監管機構來說並不是太大的要求,因為許多公司已經迅速回應刪除涉及兒童的不當照片。她補充說,這只是將這些保護延伸到女性的問題。

「我的擔憂是,在沒有考慮這些傷害的一些根本原因的情況下,急於實施 AI 法律和政策。這是一個分層的問題,還有許多其他層面需要處理。」


製作人員

  • Mariel Padilla for The 19th

插圖

  • Rena Li

編輯

  • Flora Peir for The 19th

同時發佈於此處

照片由 Steve Johnson 在 Unsplash 上提供

市場機遇
Sleepless AI 圖標
Sleepless AI實時價格 (AI)
$0.03674
$0.03674$0.03674
+2.94%
USD
Sleepless AI (AI) 實時價格圖表
免責聲明: 本網站轉載的文章均來源於公開平台,僅供參考。這些文章不代表 MEXC 的觀點或意見。所有版權歸原作者所有。如果您認為任何轉載文章侵犯了第三方權利,請聯絡 service@support.mexc.com 以便將其刪除。MEXC 不對轉載文章的及時性、準確性或完整性作出任何陳述或保證,並且不對基於此類內容所採取的任何行動或決定承擔責任。轉載材料僅供參考,不構成任何商業、金融、法律和/或稅務決策的建議、認可或依據。