近日,,韓國曝出“Deepfake”(深度偽造技術(shù))事件,,被認為是采用新犯罪手段的“N號房”案件重現(xiàn)。Deepfakes是使用人工智能生成的技術(shù),,將個人的聲音,、面部表情及身體動作拼接合成虛假內(nèi)容。韓國網(wǎng)民在通訊軟件“電報”(Telegram)上發(fā)現(xiàn)大量聊天群,,其中有成員創(chuàng)建和分享露骨的性“深度偽造”圖像,,對象涉及未成年女孩。
據(jù)外媒報道,,在付費deepfake電報頻道,,男性訂閱用戶提供女性照片,,交錢后由頻道制作成色情圖片。曾曝光“N號房”事件的前共同民主黨緊急對策委員會共同委員長樸智賢表示,,目前全國涉及深度偽造犯罪的人數(shù)可能達到22萬(包含可能重復的情況),,眾多女性因此陷入不安和恐懼之中。因為針對年輕女性的深度偽造色情內(nèi)容泛濫,,韓國總統(tǒng)敦促當局采取更多措施來“根除”該國的數(shù)字性犯罪流行問題,。
性剝削材料的受害者通常是未成年人
據(jù)韓媒報道,針對女性的深度偽造犯罪在韓國日趨猖獗,。幾日前,,有多名韓國女性通過社交媒體發(fā)聲,稱她們在一些社交媒體上,,特別是“電報”(Telegram)群組中,發(fā)現(xiàn)又一個“N號房”案件,,韓國男性疑似大量分享傳播周圍女性的淫穢影像,。
群組中傳播的淫穢影像經(jīng)深度偽造換臉而制成。在付費的deepfake電報頻道中,,男性訂閱用戶提供女性照片,,交錢后由頻道通過深度偽造技術(shù)制成色情傳播材料。
某些群組甚至要求參與者進行現(xiàn)役軍人身份驗證,,并通過向受害者發(fā)送偽造照片,,以及分享受害者的反應,來換取群組的入場資格,。涉及的群組參與人數(shù)不等,,少的幾百上千人,多的超過十萬人,。
韓聯(lián)社資料圖
目前,,不斷有受害學校及被害者信息流出。在社交網(wǎng)站流傳的受deepfake事件影響的學校名單已經(jīng)超過百所,,并且還在增加,。該名單由一名匿名用戶發(fā)布,其中不僅包括韓國的中小學,,還涉及海外的韓國國際學校,。
韓國正面臨由深度偽造技術(shù)(Deepfake)驅(qū)動的性犯罪浪潮,,這些犯罪行為在Telegram群組中悄然蔓延
2024-08-29 18:31:49韓國新型性暴力產(chǎn)品層出不窮近期,,韓國社會正經(jīng)歷一場由Deepfake(深度偽造)淫穢影像案件引發(fā)的女性權(quán)益維護浪潮,此事件迅速蔓延,,呈現(xiàn)出全國性的影響
2024-09-04 09:58:28韓國色情產(chǎn)業(yè)為何屢禁不止?Deepfake技術(shù)的可怕之處主要體現(xiàn)在其對個人隱私、社會信任以及法律倫理的挑戰(zhàn)上,。?
2024-08-29 16:10:23Deepfake