在科技之中,藏有性別課題!Deepfake,中文譯作「深假」或「深偽」。當你的臉被換到成人影片中並做出性感動作時,沒有法律制度可以依靠的我們,要怎麼證明那不是自己?又或者阻止那些色情影像再度流傳下去?

2021 年 5 月,一篇來自《鏡週刊》的報導〈臉被偷走之後:無法可管的數位性暴力?台灣 Deepfake 事件獨家調查〉,揭發臺灣非法 Deepfake 性愛影片交易群組的運作。

此事引起警政單位注意,自 5 月以來持續追查,最終尋得幕後主嫌,正是前 YouTuber 小玉(朱玉宸),消息釋出後,震驚大眾,使更多人開始關注和討論這件事,總統蔡英文也表示將重新盤點法規,研擬推動相關修法。

回顧一下:【性別觀察】從偷拍外流到 Deepfake:用不道德的方式意淫我,真的爽嗎?

Deepfake 譯作「深假」,是利用 AI 技術打造擬真影片的科技。透過照片讓機器進行深度學習,製作出的影片細膩及細緻程度,足以讓人們誤以為那是真的。意思是,當 Deepfake 技術被濫用,你可能會發現自己的臉被換到某支成人影片裡,以你的模樣做出特定行為、動作,甚至連表情也唯妙唯肖。

當法律制度跟不上科技進程,Deepfake 以假亂真,讓有心人士有機可乘,原先假訊息(Disinformation)就已紛飛的資訊網絡,變得更加混亂,人們無法確知何謂真、何謂假。被移花接木的受害者們,有苦說不出,無法證明影片中的人不是自己——或應該說,為什麼無辜的受害者們,要拚命去闢謠與澄清一件自己從未做過的事?


圖片|Photo by Joanne Adela Low on Pexels

既然人人都可能受害,為什麼 Deepfake 是性別議題?

承上所述,Deepfake 擴大且加深了假訊息的問題,更糟的是,影像往往比文字更能夠說服人。從此以後,眼見不一定為憑,即使有影片、有圖片,我們也難辨真偽。

Deepfake 能拿來進行抹黑,成為操弄政治風向的方式,例如:2021 美國總統大選前,總統候選人川普和拜登的 Deepfake 影片四竄;甚至連 TIkTok 官網都不得不發表聲明,闡明禁止事項,以免影響選情。

這樣聽起來,Deepfake 的假訊息與造謠,所帶來的負面影響將會觸及所有人,似不侷限於特定國籍、種族、年齡與性別,為什麼我們在討論這件事時,不應該遺漏以性別為出發點的觀點呢?

原因很簡單。儘管 Deepfake 技術本身,不針對特定性別,但科技終究使用於人類,人類世界如何運作,在有了新科技和新技術後,依然會不斷再製及重演,僅是從線下轉移到線上的手段區別。

舉一個與性/別暴力無關的實例:2018 年,Amazon 研發一款審閱求職者的 AI 系統,然因過去十年的資料庫隱含性別歧視,導致 AI 在評分與篩選時,讓女性求職者落入莫名低分的窘境。

科技之中,藏有性別課題,只不過我們以為它既中立又客觀。

線上的數位性/別暴力,亦是從線下的性/別暴力演變、延伸及發展而來的。

延伸閱讀:性別觀察|解析數位性暴力:有人把我 P 成裸體,我如何證明那身體不是我?

數位性/別暴力:當蕩婦羞辱遇上 Deepfake

此次 Deepfake 事件,揭示科技發展下的相應法律制度,尚未完善;但法律制度本身,並不是導致它發生的原因。真正的問題是,至今仍有人認為,可以使用 Deepfake 合成等等方式,恣意意淫、嘲弄及使用女性身體(無論是不是實體上的),去服務、去滿足他們的慾望,而不需要取得本人的同意。

作為生活在父權體制下的女生,儘管我讀過一些女性主義的書、試圖實踐於日常中,我依然發現,自己必須與「身體」及「性」,保持非常微妙而矛盾的關係。

女性的成長過程,經常是這樣的:一方面,你的身體及性,經常被凝視、被慾望、被評價,彷彿誰都可以對你的外型、樣貌、身材乃至於行為舉止,處處品頭論足,秤斤挑兩,給予價值高低的品判;另一方面,當你在運用身體或從事與性有關的行為、行動時,一套隱形的規訓會嚴格盯住你,讓你難以認同自己的身體,也無法自在地享受性。

我發現,包括自己在內的許多女性,對「性的界線」,時常如履薄冰;也無法自己去定義究竟「越界」與否。社會試圖控制「女人的性」,早已行之有年,女人的自主性(Autonomy)一向不被重視,無論是性自主、身體自主、生育自主,一旦女人不遵從,便可能受到程度不一的懲罰。

當一個女人「過度」裸露、展示、擺弄自己的身體、「過度」喜歡、享受、沉浸性事,那麼她很容易被貼上「浪女」、「妓女」、「壞女人」的標籤,然後被貶低與輕賤,這就是典型的「蕩婦羞辱(Slut-Shaming)」。

那麼,女人們不做這些事,就可以全身而退嗎?

很遺憾地,答案是錯。諸如 Deepfake、未經當事人同意散佈私密影像(Nonconsensual Pornography)這類的數位性/別暴力,建立於長期以來父權社會對「女人的性」的強烈控制欲。既存的蕩婦羞辱,加上 Deepfake 技術,相互加成,導致更嚴重的問題。


圖片|Photo by elifskies on Pexels

你會喜歡:【性別觀察】當「玩笑」包藏「性羞辱」,如果你在場,能如何應對?

如果有一天,受傷的是你⋯⋯

我們看到,這次 Deepfake 的軒然大波,以女性受害者為大宗(當然也不乏男性受害者),凸顯及提醒了數位性/別暴力的存在。

每一樁性別時事、每一個性別課題、每一道性別觀點,都讓我們距離真正的平權更近一些。性別平權,不是你死我活的爭奪戰,也不是比誰厲害的資格賽,而是任何人都不必因為自己的生理性別、社會性別、性傾向,而感受到「身為某某某」的原罪。

二戰時期的社運者 Simone Weil 曾說:「沒看見窗玻璃的人,不知道自己沒看見;而那些因為被放在不同位子上而看見窗玻璃的人,卻不知道別人沒看見它。」

她要表達的意思是:當我們身處於某一個位置或角色時,可能無法接觸、了解到其他人正在面臨的處境。因此,想要同理,就得展開對話與交流,也必須打開視野,讓暗潮能夠翻騰湧現,認識與自己原先認知不同的事物。

如果你是 Deepfake 受害者,你可以依循衛生福利部建議

  1. 截圖存證(文字、對話、日期時間、連結、影像等等)
  2. 立刻報警尋求警方協助
  3. 至 iWIN 申訴,由 iWIN 與平台溝通,協助移除影像

如果你知道有 Deepfake 影片或非法群組,除了上述的衛福部建議外,切記「不點閱」、「不轉傳」、「不評論」,避免對當事人造成二度傷害。如果你想要為打擊數位/性別暴力盡一份心力,你可以關注相關倡議及行動,例如:社團法人台灣數位女力聯盟(WIDI,Women in Digital Initiative);你也可以在閱讀到相關報導文章時,將訊息分享出去,讓更多人知道。

如果你對這個議題有感,想瞭解更多,請鎖定女人迷 Instagram hashtag #全球多元共融時事快報 。關注並分享給你所在的社群,讓意識擴散,你能創造改變、影響他人,讓社會一起更好。

世界持續改變,性別持續流動,社會持續推演。在發展科技、提升技術之際,期許我們亦能共同面對、思辨與解決問題。共勉之。