2021年5月26日 星期三

【性別觀察】從偷拍外流到 Deepfake:用不道德的方式意淫我,真的爽嗎? https://ift.tt/2Sxt6M0 Sersha Lei 很多人知道,若想要攻擊一位女性,最直接也最快速的方法就是對她進行「性羞辱」。但我們每一個人都可以防止這樣的事情發生——不再當一個無力的受害者與旁觀者。 2021 年 5 月,《鏡週刊》獨家推出〈臉被偷走之後:無法可管的數位性暴力?台灣 Deepfake 事件獨家調查〉。 報導一出,身邊同溫層不約而同轉發,畢竟類似事件早已層出不窮。一方面,慶幸終於有臺灣記者團隊深入調查;另一方面,也在閱後感到難受無助。身為女性,身為重視性暴力、性別暴力議題的人,我們能做什麼?當科技演進在前、觀念改變在後,該怎麼讓倖存者得到正義伸張? 性別力百科 深假 Deepfake Deepfake,中文譯作「深假」或「深偽」,是一種透過人工智慧(AI)中的 deep learning(深度學習)技術所創造出的 fake(偽造)訊息。Deepfake 技術可以用於影像及聲音,只需要仿造對象的人物影音素材,就能製造出唯妙唯肖的假影片。 參考資料:Deepfake 問世 3 年,為何讓 AI 變頭號網路犯罪公敵? 「Deepfake」譯作深假(深度造假),原理是利用人工智慧(AI)技術,模擬出狀似真人的影像。它發展多時,以假亂真,在假訊息(Disinformation)已經滿天飛的當代,更容易混淆視聽,輕者或許引起網路筆戰;重者則影響選舉結果、左右政治情勢,都不無可能。 比如說,2020 年,英國電視台 Channel 4 以 Deepfake 技術,打造英國女王的聖誕致詞,只見影片中的伊莉莎白二世動作滑稽,由於極具戲劇效果,一時引人發笑;但同時也遭受批評,認為這對女王大不敬,且有損王室形象。 2019 年,阿姆斯特丹網路安全公司 DEEPTRACE 調查指出,有 96% 的 Deepfake 性愛影片並未經過當事人同意,且瀏覽量高達上億次。當影片能被輕易造假,無論用在何處,都會對當事人造成傷害或莫須有的罪名。 圖片|Photo by Ike louie Natividad on Pexels 網路科技,不是第一次成為性暴力的幫兇 數位性別暴力(Cyber Sexual Violence),或稱網路性別暴力,將原先發生在線下的種種性別暴力,轉移至法律規範未盡完善的虛擬世界,甚至擴大、變形為新型態的犯罪。 最常見的例子,莫過於「未經當事人同意散佈私密影像」(Nonconsensual Pornography),即大眾較為耳熟的「復仇式色情」(Revenge Porn)。 性別力百科 未經同意散佈私密影像 Nonconsensual Pornography 在沒有經過當事人同意,故意散布、播送、張貼或以任何方式讓第三人觀覽當事人為性交、裸露性器官等性私密之照片、影像。 ⋯⋯ 「復仇式色情」不是恰當詞語。復仇一詞暗示雙方互有往來,受害者會被認定是自己先做錯事才遭這樣對待,可能催生譴責受害者的言論。 參考資料:你的情慾不是你的情慾:當「未經同意散布私密影像」成為一種龐大產業。 2020 年,發生兩起事件,讓數位性別暴力的問題浮上檯面,愈見鮮明。 一是震驚世界的韓國「N 號房」事件,犯罪者以新興通訊軟體 Telegram 作為媒介,而後被兩位潛入其中的女大學生記者揭發;二是《紐約時報》記者 Nicholas Kristof 發表的一則報導,控訴色情平台 Pornhub 上,充斥許多兒童性暴力、非自願性暴力影像,促使 Mastercard 及 Visa 等信用卡公司都發表抵制聲明,而後 Pornhub 在大眾壓力下,強制下架百萬部影片。(延伸閱讀:記者真實紀錄南韓「N號房」內恐怖真相) Nicholas Kristof:「我認為仍須持續監視及施壓,且進一步審查其他色情影片平台。」 圖片|Photo by Ike louie Natividad on Pexels 從外流到 Deepfake:我的身體,不是我的身體 聯合國婦女署(UN Women)發表〈針對婦女與女孩的數位暴力〉(Cyber Violence against Women and Girls)報告,裡頭將網路上的暴力形式分成六大類,如下。 盜用(Hacking) 冒充盜用(Impersonation) 監視或跟蹤(Surveillance/Tracking) 騷擾或威脅(Harassment/Spamming) 誘拐(Recruitment) 惡意散佈(Malicious Distribution) 女性不是唯一的性暴力受害者,卻是最大宗的性暴力受害者。或許所有人都知道,要攻擊一位女性,最直接也最快速的方法就是性羞辱。例如:2018 年,印度女記者 Rana Ayyub 揭露性侵案,隨即有人製作並傳播以她為主角的 Deepfake 影片,以示不滿。(延伸閱讀:逆風、求裸照、網路公審!為什麼我們該談羅志祥事件後,針對女性的網路暴力) 從過去性私密影像外流,到如今以假亂真的 Deepfake,受害者的身體一次又一次被視作無關緊要的物品,可以恣意議論、評判、騷擾、操控、意淫,而無須對誰負責。當點閱率持續上漲,想像有無數隻眼睛不懷好意地觀看自己,便窒息得難以呼吸。 個人即政治,身體即戰場。 我們常言的女性自主,包括「身體自主」與「性自主」。女性對於自己的身體與性,應有自由決定及選擇的權利,而不受他人侵擾及控制。至今,社會做的還不夠多。 圖片|Photo by Ike louie Natividad on Pexels 面對 Deepfake 犯罪:放眼世界,著手台灣 關於新興性犯罪 Deepfake,讓我們借鏡國外立法狀況。 美國加利福尼亞州設有相關法律,Deepfake 受害者能對加害者提告。然而,萬一加害者未身處於該州管轄範圍內,則無濟於事,顯其力有未逮。 換觀亞洲,《鏡週刊》報導提及韓國現況:「2020 年 3 月,(韓國)國會首次通過 N 號房事件《性暴力犯罪處罰特別法部份修訂法律案》,該法案規定,製作或散佈 Deepfake 影片將被處以五年以下有期徒刑或五千萬韓元以下的罰款,如涉及盈利目的,最多可判處七年有期徒刑。」而在 2021 年 1 月,幾十萬民眾向青瓦台(總統府)請願,要求嚴懲那些致使女性名人受害的 Deepfake 影片。 近年來,臺灣對相關議題也愈加重視。如 2020 年 7 月 4 日成立的非營利組織數位女力聯盟(WIDI),精確地瞄準主題,盼喚起大眾對數位性別暴力的關注,同時推動法規改革。過去亦有婦女救援基金會、婦女新知基金會⋯⋯團體的努力,即便我們不是其中一員,也可以透過捐款、轉貼文章或參加社會運動等各種方式,為打擊數位性別暴力盡一份心力。 劉芷妤所著《女神自助餐》裡,有段話這麼寫:「⋯⋯這是人類史上最接近性別平權的時代,但也因為這樣,太容易被當成『已經夠平等了』,所以可以放棄進步的時代。」沒錯,即使來到 21 世紀、2021 年,基於性別的暴力(Gender-Based Violence)、強暴文化(Rape Culture)、蕩婦羞辱 (Slut-Shaming) 仍未消失,且不斷發生。 這是人類史上最接近性別平權的時代,但也因為這樣,太容易被當成已經夠平等了,所以可以放棄進步的時代。 劉芷妤《女神自助餐》 當人們匿名躲在螢幕和鍵盤後,暗箭四射,被刺傷的受害者往往無力反擊。 科技始終來自於人性,而人性有時並不道德。這個道德不是多麼崇高的理想典範,而是對於這些深受其害的人,有無一份基本尊重與同理。黑暗面太多,懲罰太少,而由於網路犯罪難以蒐證,更加深打擊科技性別暴力的困難度。 學校教育及社會教育,亦有能施力的地方。無論是媒體素養,或對性犯罪、性別暴力的識讀,皆需各界共同參與。 無論是加害者或受害者,都可能存在於你我身邊。抵禦數位性別暴力,不是一個人的事,是所有人的事。 參考資料: Deepfakes Are on the Rise — How Should Government Respond?。Lauren Harrison。Government Technology。 The State of Deepfakes。Henry Ajder, Giorgio Patrini, Francesco Cavalli & Laurence Cullen。DEEPTRACE。 Cyber Violence against Women and Girls。Nidhi Tandon。UN Women。 The Children of Pornhub。Nicholas Kristof。The New York Times。 臉被偷走之後:無法可管的數位性暴力?台灣 Deepfake 事件獨家調查。蔣宜婷、陳昌遠、陳虹瑾。鏡週刊。 【臉被偷走之後番外篇】修法、監控、探測三管齊下 N號房事件後,韓國怎麼做?。王思涵。鏡週刊。 你的情慾不是你的情慾:當「未經同意散布私密影像」成為一種龐大產業。V 太太。鳴人堂。 Deepfake 問世 3 年,為何讓 AI 變頭號網路犯罪公敵?。蔣曜宇。數位時代。 May 27, 2021 at 11:30AM 女人迷 Womany


via 女人迷 Womany https://ift.tt/2Sxt6M0

沒有留言:

張貼留言