150位女藝人受害!日本AI「假A片」嫌犯首度落網 小心你的自拍照被合成

150位女藝人受害!日本AI「假A片」嫌犯首度落網 小心你的自拍照被合成
日本有超過150位女藝人遭擅用圖像資料,並以AI後製成「假A片」。圖片來源:Shutterstock
2020-10-05
文・張郁婕
35549
10月2日,日本警視廳逮捕熊本市大二學生林田拓海、兵庫縣工程師大槻隆信,與大分縣野間口功也。3人的共通點,是利用人工智慧的「深偽(deepfake)」技術製作「假A片」,將女藝人的臉部合成AV影像,營造出當事人參與A片演出的假象。

這是日本警方首次逮捕利用深偽技術製作假A片的嫌犯,後續發展備受矚目。

這次遭逮捕的3人共製作500部以上假A片,約有150名以上女藝人受害。但警視廳目前已確認,日本國內至少有3,500部以上的假A片流竄,亦即還有更多加害人逍遙法外。這次逮捕到的3人只是假A片或利用「深偽」技術合成假影片的冰山一角。

警視廳目前認定,假A片適用名譽毀損罪,最高可處3年以下懲役,或50萬日圓以下罰金。此外,假A片也有侵犯著作權法的疑慮。

這只是冰山一角

3人皆表示,製作假A片是為了賺錢。以野間口功也為例,他光是在今年1月到6月靠著上傳假A片賺廣告費,就入袋了約56萬日圓。

林田拓海則是從去年12月到今年7月,在自己經營的付費網站上,上傳自製的2名女藝人假A片,遭製作公司提告侵害著作權;大槻隆信則是在今年4月到7月,在日本境外網站上公開另外2名女藝人的假A片。兩人共上傳了約400部假A片,獲利80萬日圓以上。(延伸閱讀|為何Uber能用數據分析客戶的一夜情?

為什麼受害人都是女藝人?

如果要利用「深偽」技術合成假影片,必須要先提供當事人的大量影像,讓透過機器學習(machine learning)找出當事人臉部表情特徵。資料越多,做出來的影片越真實。

因此,政治人物或演藝人員這種有大量公開影像的公眾人物,最適合拿來餵給AI人工智慧做機器學習。美國前總統歐巴馬(Barack Obama)、臉書創辦人祖克柏(Mark Zuckerberg),都曾被網友製作深偽影片,上傳網路。

在所有深偽影片當中,假A片對於當事人的殺傷力最強。背後因素包含大環境的性羞辱文化,還有以男性視角為主的性產業文化。這其實就是一種影像性暴力(image-based sexual abuse)。

但不論假A片的受害者是生理男性或生理女性,或更廣義來看,深偽影片的受害者是生理男性還是生理女性,這種利用最新科技的惡意行為,都該被譴責。(延伸閱讀|紅白歌合戰AI復活過世30年「歌謠女王」美空雲雀 有人嚇傻有人哭

遇上這種事情該怎麼辦?

無論是遇上深偽「假A片」,還是私密影像外流,第一步就是報警處理。

如果是收到或看到這些私密外流影像的人,最重要的就是不點閱、不下載、不分享、不譴責被害人。

以深偽影片來說,雖然受害人通常是公眾人物(因為任何人都能輕易在網路上取得大量公眾人物的圖片,這是深偽的關鍵);但只要對方能夠掌握夠多你的臉部圖片,市井小民也可能受害。

最重要的一點,就是保護自己的影像,減少在完全公開的社群網路上傳個人照片,或上傳時要留意隱私設定,有時加害者可能就是身邊的人。(延伸閱讀|為什麼上傳照片給變臉App的後果,比帳密外洩更嚴重?

其他人也在看

你可能有興趣

影音推薦

#廣編企劃|【2023 天下城市高峰論壇 #9】新竹市交通處長 倪茂榮:改善交通,必須先做出優良示範道路|天下雜誌✕未來城市

已成功複製連結