看了才知道有多不舒服?連宋慧喬、V都受害!初階版Deepfake動圖曝光網震驚!
2024-09-04
近日南韓因「深度偽造(Deepfake)」鬧得沸沸揚揚,該議題甚至還受到國際的關注,由於受害人幾乎以女性佔較多數,甚至遍佈整個校園,從小學到大學皆有受害者,情況十分嚴重。
此外,由於網上也公開了受害女團的名單,因此不少經紀公司也應起來決定提告,像是而人氣女團TWICE的所屬經紀公司JYP娛樂上月30日為此發出聲明,表示將針對成員的Deepfake影片採取法律行動。
JYP娛樂在聲明中表示,我司認為成員被流傳的Deepfake影片事態相當嚴重,「這種行為顯然已經違法,而我們也已經蒐集了相關證據,並正與專業法律事務所合作,將進行毫不留情的強力法律應對」。
然而在JYP娛樂開第一槍後,隨後YG娛樂也表示,保護旗下藝人,也將針對以上非法AI換臉產製的影像及成品進行法律追究及責任。
雖然這樣的「深度偽造(Deepfake)」製作出來的產物是虛假的,但事實上已經構成犯罪及傷害,因此也喚起不少韓國民眾的意識,並相當關注此事件,再加上不僅受害年齡層相當廣泛外,就連在加密聊天室裡共享非法影像的使用者,也有年齡層極小的用戶在,更讓許多家長感到擔憂,深怕自己的孩子很可能成為被害或加害者。
事實上,「深度偽造(Deepfake)」的問題在韓國也早就不是近期的事,但隨著被惡意使用的範圍越來越廣,受害層面也開始擴大,對此就有網友PO出早些年被換到一般人身上的宋慧喬及BTS成員V的動圖提醒「說是從以前開始就已經做好的...現在應該做得更細緻了吧?不管是影片還是動圖,都不能相信不要被騙了,Deepfake!!!」
接著原PO也提到「會發文章是希望大眾可以有所警惕,這種普通的動圖也有可能是假的,絕對不要相信!加上現在連聲音都能用AI說出話來了,要做一個假的影片也是很快的,而且很有可能被惡意利用爲性犯罪或是詐騙性犯罪等,因此千萬不要因此而上鉤」。
貼文曝光後,也讓不少網友傻眼到「看了真的很不舒服」、「真的好怪喔」、「越看越毛」、「每天都在Deepfake Deepfake的,但不知道具體是什麼,看了貼文動圖,才感受到害怕,因為跟真人一模一樣,原來是惡意利用這種技術做出了這樣的事啊,真的好可怕」、「整個起雞皮疙瘩」、「因為太像了所以才覺得可怕」、「真的不能這樣啊」、「這還是幾年前的成品...現在的肯定更精準啊...」討論相當熱烈。
相關文章
留言
- 分享
- 收藏