| EN
觀察報告

深偽情色影像與數位暴力的性別陷阱

「人工不智慧:深偽情色與AI偏見中的性別暴力」講談宣傳圖。圖/黃祥昀提供
Info 相關資訊
發布日期2025.09.15
數位暴力深偽技術

在 21 歲那年,泰勒的人生突然變了樣。某天,她收到一則訊息:有人看到她出現在色情網站上。畫面裡的女子和她一模一樣⸺她的臉、她的聲音、她的神情,但那不是她的身體,也不是她的選擇。這不是「裸照外流」,她從未拍過這樣的影片,那不是她⸺卻又像極了她。是有心人士將她的臉部特徵經過深度偽造、拼貼出來的色情影片⸺這是所謂的深偽情色片(deepfake porn)。1

泰勒感到非常震驚、害怕,雖然她知道那色情影像裡的人不是自己,但不由得產生羞愧的感受。她鼓起勇氣聯繫警方,卻得到一個消極、被動的答覆,警察告訴她,固然未經同意分享某人的私密影像是違法的,但如果影像是假的,這不是「她的身體」,則不在此限,所以法律幾乎幫不上忙。於是,在日復一日擔心被更多人看見與發現的情況下,泰勒處在焦慮、恐慌之中,不曉得能跟誰傾訴,也不曉得作出此等事情的人是誰、出自什麼樣的動機。泰勒開始不信任身邊的人,她恐懼上學,生怕被同學、師長對她指指點點,她不再是那位對人生充滿希望與動力的工程系女大學生了,她的生活與課業在眼前崩解,她感到孤立無援,甚至有種被世界拋棄與背叛的感覺。

在現行法律制度未能保障、作出積極作為的情況下,泰勒只好自己展開調查。她潛進網路色情論壇、分析帳號與留言,試圖追蹤那些匿名帳號背後的真實身分。這是紀錄片《Another Body》(2023)所勾勒的真人真事,一段令人心痛又充滿勇氣的奮鬥之路。

導演蘇菲・康普頓(Sophie COMPTON)記錄著泰勒的親身經歷,以第一人稱的敘事,帶我們走進這場充滿數位暴力、充斥著厭女情緒之性別權力結構的當代科技噩夢。令人心碎的是,這發生在網路世界的深偽罪行,卻真真切切地對真實的人物生活處境產生莫大的身心傷害,即使那經由深偽技術產生出來的色情影像並非本人,甚至仔細比對亦能發現影像存在著破綻,然而,這些深偽色情影像提供了他人對於於其裸體型態的想像,對當事人而言,那些影像都已然觸發效果⸺泰勒描述她幾乎沒有勇氣看那些畫面,即使她知道影中人並不是自己,卻仍然產生噁心、反感的感受,一想到有人對著這影像做出猥褻與侵犯的意圖,即使只是腦內的慾望與想像,仍讓她感到驚恐與羞愧。甚至,泰勒會收到來路不明的約炮與猥褻訊息,這些對她造成的實質影響,絕對不只存在於網路虛擬世界,與她無涉,而更是從各方面影響她的生活。

在人工智慧技術高速的發展下,利用深度學習的技術進行大量且精細的影像合成,進而生產出巨量以假亂真的偽造影像。根據研究統計,2025年在網路流竄與分享的深偽影片多達八百萬部,相較於 2023 年約莫五百萬部成長了 1.6 倍;而 96%的深偽影像是性愛色情片,其中有高達99%被描繪的主體是未經當事人同意的女性2。深偽情色影片的製作次數在短短數年內激增,這不只是技術的惡用,而是整個文化的共謀。

《Another Body》紀錄片放映暨映後座談於C-LAB舉行。©臺灣當代文化實驗場

在《Another Body》裡,泰勒發現自己並非唯一的受害者,她系上另一位女同學茱莉亞也有相似的遭遇,她們兩人決定聯手調查,逐步縮小範圍,最後交叉比對出可能的加害者是系上的一位男學生。泰勒對此結果感到震驚,因為這位男性同學是她的前室友,兩人曾經是無話不談的閨蜜,然而,因為兩人間發生過一次言語衝突後,讓這段友情嘎然而止。泰勒回憶著這位男同學的性格與行徑,以及衝突的遠因,她和茱莉亞同時發現,他總是習慣性地以情緒勒索的方式對待他的女性友人,而一旦他無法從她們身上獲得「同等」的情感回應後,就會惱羞成怒地感到自己不被善待。而此種負面情感的滋長,就成了孕育復仇行徑的溫床,運用她們的照片製作深偽色情片後散佈,乃他的復仇之舉。而人工智慧讓這一切變得更加容易、技術門檻更低。

現行法律制度的修正與制訂,完全跟不上急速發展的人工智慧技術變化,網路的無國界與匿名性,讓數位平台上竄流的深偽情色影像難以查緝,VPN的服務有效地屏蔽用戶的真實身份與位置,此類犯罪調查要能夠有結果,往往是靠著那幾乎微乎其微之VPN不穩定所產生的零點幾秒空缺,或者長時間偷偷潛入加密群組伺機而動;舉證,也往往是面對此類性犯罪最為困難的環節之一。

相較於難以辨識的加害者,深偽情色影像中的女性當事人時刻恐懼是否還有某張圖片或影片,藏在尚未被發現的網站或某個硬碟裡、尚未被刪除;與此同時,社交媒體與各種可分享影像的應用程式,讓個人肖像「被視為已同意使用」的機制變得更加容易,點按之間,使用者不經意地就可能讓渡出自己的影像,且網路的匿名性和易於創建和傳播的特點,使得追究責任變得極其困難,網路與科技的特性在此成為加深雙邊權力不對等的關鍵。

甚者,就算有幸能追查到生成深偽情色影像的用戶,我們又該如何展開下一步的行動?在當前多數國家的法律框架下,並未能對深偽技術生成的影像權利歸屬與侵權做出判定,而在泰勒的例子裡,即使是未經當事人同意使用她的肖像製作出來的色情影像,也因為該影像乃是偽造,並非真實的身體,因此泰勒並無法主張其身體的權利。換言之,他人對其深偽色情影像的意淫,並無法在法律上構成對她身體的侵犯;然而很顯然地,此舉對她造成的身心傷害無需贅言。於是,在人工智慧高速發展的時代,該如何思考個體與數位身體的邊界與權利關係,個體對於數位身體的主權如何掌握?便成為相當重要且在實務上充滿挑戰的課題。

而網路平台的長期免責與追求公司利益最大化的經營邏輯,讓深偽技術濫用的負面效果更加被放大。平台主張提供的乃是服務,因此對內容的控管並不負積極的監管責任,且這些科技公司更在意的乃是如何吸引用戶對其服務與應用程式產生黏著度,以獲得更多利益。而性,往往是一劑又快又毒的猛藥,人工智慧技術更讓此種建立在剝削他人──特別是女體的色情內容生產,成本更低、製作門檻更低,甚至是透過應用程式即可如同使用濾鏡般輕易地生成。

在荷蘭藝術家洛特・路易絲・德雍 (Lotte Louise DE JONG)與黃祥昀、Claudia OLIVERIRA、Gema FB MARTIN的計畫《Toyboi》(2024)中,作品討論目前由人工智慧驅動的科技產業與經濟是如何複製並加重了性別歧視的偏見,特別是網路文化中針對女性(體)的物化、性化與剝削。而深度偽造技術,更突顯人工智慧中的資料集的性別偏見。這些數位工具往往以物化女性身體的為目的在編碼與設計,生成出來的男體與女體裸體影像,其精細度展現出顯著的差異,甚至無法作用在男性身體圖像上,因為其程式編碼並無法生成男性的性器官。3這些軟體以迎合男性凝視為設計目的,將女性視為可供其消費的對象。因此,深偽技術對女性的圖像生成通常較為精確,而男性的圖像生成則經常失敗,結果往往呈現扭曲、重疊或女性化的情況,甚至無法正確生成男性的身體。

《Toyboi》打火機與馬克杯。圖/黃祥昀提供

這種圖像生成上的差異,揭示了深偽技術的結構性性別偏見和對女性形象的剝削。然而,這些性別偏見與數位剝削文化,並不是新近才出現的,芬蘭媒體研究者蘇珊娜・帕索寧(Susanna PAASONEN)提到「換臉技術」在色情影片中的歷史脈絡可追溯至對女性名人的色情想像歷史,利用大眾對女性名人的性幻想,有心者將她們的形象置於色情內容中,強化了對女性的物化,而隨著人工智慧的發展,深度偽造技術逐漸成熟,名人面孔能被無縫地將合成到其他影像中,現實社會中既存的厭女與性別歧視更加蔓延,並迅速地複雜化與惡化。其對社會帶來的衝擊與負面影響的蔓延速度,赤裸裸地暴露出現行法制的不足與限制。

回到泰勒的故事。影片中提到,利用她的照片做出深偽色情影片的人是她認識的人,而且曾經是很熟的朋友,推測其動機,可能是種對泰勒情緒勒索未果的報復行為。根據研究統計,不少以深偽技術生成色情影像的人會選擇使用前女友的照片或影片,固然確切的動機和原因可能相當複雜,但此一現象也同樣地反映出在數位環境下滋生、蔓延至線下的性暴力是如何潛藏並延續了社會既存的厭女與性別歧視。

此種暴力,源頭來自性別的不平等,同時也因著不被解放的(女性的)性,而放大效果。當父權社會握有女性的性自由,擁有對女體、女性的性之詮釋權的時候,女性被暴露的性,便成為一套高度有效的羞辱工具。

換言之,深偽情色,不僅是一種新型的「偷窺癖」,運用此技術精準且快速地將窺探別人隱私的慾望具象化,它也和其他許多形式的性別暴力相通。散布女性的私密影像往往基於一種「控制」和「支配」的慾望,在人工智慧的加乘下,它成為力道極為猛烈的「復仇式色情」(revenge porn)利器,有心者即便沒有真實握有當事人的私密影像,也能借助深偽技術合成出來並散佈,且在現行法制下更難以被法辦,其間存在著巨大的法律黑洞。

此外,深偽技術不僅被高度運用在對金錢與利益的詐取,甚至是威權政府例如俄羅斯、中國、伊朗等,打壓與威嚇異議份子的武器之一,深度偽造的影片或圖片,有效地成為抹黑個體、損害人格的一種方式。這種政治手段針對女性時,演變成深偽情色影像,用於對付記者和社會運動者等女性專業人士,利用她們在文化中的弱勢地位,展開攻擊,甚至在某些厭女情緒高漲的社會中,這樣的事情很可能讓女性的生命安危更加暴露在高危險的環境中。4

人工智慧與性別暴力的結合,早已伴隨著網路科技穿越地域、世代與文化的邊界,發生在我們更熟悉的地方、甚至發生在校園裡。然而,泰勒的故事不是孤例,也不會是終點。我們也開始看見,那些原本被迫沉默的聲音,正慢慢聚集起來。丹麥政府日前正進行修法,將賦與公民各種特徵著作權,包括身體、臉部特徵與聲音,以打擊人工智慧的深度偽造技術對個人的傷害,而英國也計劃修法,將深度偽造定為刑事犯罪;美國也在 2025 年通過《非自願私密影像移除法》,將散播未經同意之親密影像,如深偽色情(deepfake porn)和報復性色情(revenge porn)視為犯罪行為。5

除了歐美的進展以外,我們也可以看到亞洲周邊國家​​正在發生中的數位暴力與性別運動浪潮。2025 年4月,馬來西亞華文獨中⸺寬柔中學古來分校爆發深偽色情影像事件,多名女學生的臉被合成進猥褻影片中,放到網路上兜售,情色影像在男學生群體中悄然流傳,一直到其中一位女學生在社群媒體上發文,才揭開這起學校裡的數位暴力醜聞。事件爆發後,許多女生勇敢站出來集體控訴類似經歷,校方最初否認、推諉、壓制,然而覺醒的浪潮已經無法被壓下。短短數日內,「#MeToo」的標籤出現在馬來西亞青少年社群之間,有人開始拍影片訴說、有人發聲保護朋友。他們的發聲,終於讓影像之外的世界,有了一絲回聲。

《Another Body》紀錄片放映暨映後座談於C-LAB舉行。©臺灣當代文化實驗場

編按:「人工不智慧:深偽情色與AI偏見中的性別暴力」線上講談於2025年3月舉行,此講談為C-LAB當代藝術實驗平台「文化前線」6系列活動。

特約主編:黃祥昀
執行編輯:莊佳娟

Info 相關資訊
發布日期2025.09.15
數位暴力深偽技術
Footnote 註釋
01
深偽,是深度偽造的簡稱,即深度學習與偽造的結合。深度學習,指涉以人工神經網路為架構,對資料進行表徵學習的演算法,透過多層的神經網路來分析和解讀大量資料,其中用來製造以假亂真的影像的深度學習模型之一叫「生成對抗網路」(Generative Adversarial Networks,GAN)包含生成器(generator)和鑑別器(discriminator);生成器創建圖像與影像,鑑別器則根據素材進行真實性評估,彼此「對抗」,以生成逼真的虛假內容。深度偽造利用大量資料製作而成,包括目標人物的照片、聲音片段或影片。如果數據越多,製作出的深度偽造就越逼真,因此名人、政治人物和其他公眾人物是最常見的目標。隨著應用程式和線上服務的出現,使用者只需具備極少的技術知識即可製作深度偽造作品,這進一步降低了進入門檻。越來越難以區分原始、真實的內容和深度偽造的內容。
02
參考網址
03
2019 年,一款名為 DeepNude 的應用程式提供用戶以 50 美元的價格上傳半穿衣服的女性照片的服務,並使用人工智慧技術將照片中的「她們」脫光衣服,以演算法生成的裸露女體,從而吸引用戶。該應用程序的設定僅能生成乳房和外陰,因此無法作用在男性圖像上。儘管 DeepNude 於 2020 年暫時關閉,但其一位化名為 Alberto 的匿名程式設計師,為該應用程式更新了功能,允許用戶上傳所有類型的照片(即使是穿著衣服的女性)以生成裸照,甚至影片。用戶只需單擊一個按鈕,就像使用社群媒體的濾鏡一樣易於上手。甚至,很可能會提供用戶「客製化」目標的屬性,比如乳房大小、性器官長相。
04
延伸閱讀可參考《Code dependent : living in the shadow of AI》,作者 Madhumita MURGIA。
06
「文化前線」為C-LAB當代藝術實驗平台所推出的系列活動,旨在推動並鼓勵藝術創作面向人文關懷與探索議題,為當代文化現象帶來具批判性的檢視。
Author 作者
謝以萱從事電影評論與策展工作。關注當代東南亞電影與視覺藝術,以及影展和影像機構作為文化知識生產的場域。
More 相關文章
觀察報告
Design*:酷兒認同後,設計旁的星號
酷兒認同在設計教育中,不僅提供了一種看待世界的多元視角,它也進而提醒設計可作為建立社會關係的方法論⸺承認差異、擁抱複雜性、挑戰既有權力結構,並透過協作與資源整合,創造新的行動空間與群體聯繫;也為現存的設計專業定義加上星號(*)。
發布日期2025.09.09
設計酷兒
觀察報告
透明社會的弔詭自由:當匿名性成為庇護與暴力的雙面刃
在數位時代,我們已經走入一個全新的洞穴。這個洞穴裡沒有鎖鏈,取而代之的是眾人自願奔向螢幕的身影。我們主動將「自我」暴露於社群之中,渴望凝視與認同。這種看似自由的展演,卻潛藏矛盾:匿名性與「被看見」的慾望共存,構成了一柄雙面刃。
發布日期2025.09.02
數位倫理網路文化
觀察報告
重塑影像物:從拾獲視覺到檔案的再創造(下)
我們嘗試釐清一種介於影像與物質的特殊存在,它僅在二者的相互變化間形成。換言之,影像物無法等同於一個被拍攝下、或說實際可掌握的視覺載體,而是在觀看、觸摸與再框取間不斷重構。
發布日期2025.08.19
影像影像物拾獲影像攝影