BTS防彈、TWICE子瑜等逾百位明星受害!韓國請願惡劣「人工合成」技術應嚴懲!
2021-01-13
最近韓國入口網站或是SNS上,關鍵字排行第一的是利用人工智能(AI)製造的「Deepfake」。
這裡是廣告, 請繼續往下閱讀
13日上午9點,Deepfake相關請願以得到11萬名以上的同意。發起人主張:「因爲使用人工智能(AI)製作假影片的Deepfake,女藝人成爲性犯罪受害者,相關影片甚至被非法銷售。
全世界Deepfake影片正在急劇增加,達到1萬多個,AOA成員雪炫、BLACKPINK的Jennie、TWICE子瑜等,超過百名的演藝人員都是Deepfake技術的受害者。
另外,以「真人同人 (Real Person Slash)」的方式,將實際存在的愛豆作爲創作對象衍生的相關議題也受到民眾的討論。
RPS(Real Person Slash)是將偶像作爲小說的主人公,創作同性間的感情,多為粉絲創作。「成人級作品」內容甚至會包含性愛場面、變態的性關係或強姦的性犯罪文化。
包含人氣團體BTS防彈少年團在內,都是RPS創作下的受害者。
在韓國的網路社群中,有網友將Deepfake和RPS的受害者性別一分為二,但事實上面對惡劣的文化,應該不分性別嚴謹看待該問題!
留言
- 分享
- 收藏