近期,,韓國發(fā)生多起利用深度偽造技術(shù)(deepfake)制作并傳播淫穢影像的案件,,去年的時候俄羅斯進(jìn)攻烏克蘭后的第三周,,烏克蘭官網(wǎng)發(fā)布了一段烏克蘭總統(tǒng)澤連斯基的視頻,。在視頻中,,澤連斯基穿著他標(biāo)志性的綠色T恤,,神情略顯僵硬地呼吁烏克蘭軍隊放下武器,,向俄羅斯投降。這一視頻迅速引發(fā)了公眾的強(qiáng)烈反應(yīng),,但很快人們發(fā)現(xiàn),,這其實是一個經(jīng)過篡改的假視頻,。
事實上,這段視頻是黑客利用深度偽造技術(shù)制造的虛假內(nèi)容,。深度偽造技術(shù),,也稱為Deepfake,最早出現(xiàn)在一個名為“Reddit”的社交平臺上,。在這個平臺的一個社區(qū)中,用戶分享和傳播了大量女明星的虛假色情視頻,。這個社區(qū)不僅僅是分享這些虛假視頻,,還提供了AI換臉軟件,,能夠自動將視頻中的人臉替換成另一個人。盡管Reddit后來關(guān)閉了這個社區(qū),,但這項技術(shù)已經(jīng)廣為人知,,并逐漸被應(yīng)用于政治人物和演員的視頻中,。
那么,,什么是深度偽造技術(shù)呢?
Deepfake一詞由“深度機(jī)器學(xué)習(xí)”(Deep Machine Learning)和“假照片”(Fake Photo)兩個詞組合而成,。它通過人工智能技術(shù)中的深度學(xué)習(xí)模型,將圖片或視頻疊加到原始內(nèi)容上,。借助神經(jīng)網(wǎng)絡(luò)技術(shù),,經(jīng)過對大量數(shù)據(jù)的學(xué)習(xí),,將人的聲音、面部表情及身體動作合成為非常逼真的虛假內(nèi)容,。深度偽造技術(shù)最常見的應(yīng)用是AI換臉,,此外還包括語音模擬、人臉合成和視頻生成等技術(shù),。
2018年,,美國導(dǎo)演兼演員喬丹·皮爾(Jordan Peele)發(fā)布了一段視頻,在這段視頻中,,奧巴馬的形象和口吻被用來發(fā)表一句“特朗普是一個笨蛋”的言論,。這類視頻的制作需要大量的奧巴馬視頻或照片數(shù)據(jù),這些數(shù)據(jù)被輸入到神經(jīng)網(wǎng)絡(luò)的軟件系統(tǒng)中,,系統(tǒng)會在仿造的形象與奧巴馬的真實形象之間建立統(tǒng)計關(guān)聯(lián),。如果你想讓仿造的奧巴馬說出他從未說過的話,軟件需要學(xué)習(xí)特定單詞與奧巴馬嘴型之間的關(guān)聯(lián),。同樣的,,如果需要進(jìn)行換臉操作,軟件還需學(xué)習(xí)臉部與身體之間的關(guān)聯(lián),。
深度偽造技術(shù)的基礎(chǔ)是生成式對抗網(wǎng)絡(luò)(Generative Adversarial Networks,,簡稱GANS)。這種AI技術(shù)的核心思想是通過兩個神經(jīng)網(wǎng)絡(luò)的相互對抗來進(jìn)行學(xué)習(xí)和改進(jìn),。其中一個神經(jīng)網(wǎng)絡(luò)稱為生成器,,用于生成與真實數(shù)據(jù)相似的虛假數(shù)據(jù);另一個神經(jīng)網(wǎng)絡(luò)稱為判別器,,用于區(qū)分真實數(shù)據(jù)和虛假數(shù)據(jù)。
以生成虛假視頻或照片為例,,生成器就像一個造假者,,負(fù)責(zé)生成假的圖像;判別器則像一個偵探,,判斷圖像的真實性,。造假者生成一張圖像交給偵探,偵探會指出圖像中的不真實之處,,并反饋給造假者,。經(jīng)過不斷的反饋和調(diào)整,生成器最終能夠生成真假難辨的圖像,。
訓(xùn)練這個模型需要大量高質(zhì)量的視頻和照片數(shù)據(jù),,這就是為什么Deepfake的虛假內(nèi)容多集中在政客和演員身上。因為網(wǎng)絡(luò)上存在大量他們的影像數(shù)據(jù),,數(shù)據(jù)越豐富,,生成效果就越逼真,。
隨著技術(shù)的進(jìn)步,現(xiàn)在的偽造視頻或圖片已經(jīng)很難通過肉眼識別真假,。Deepfake在娛樂和電影行業(yè)得到了廣泛應(yīng)用,,比如在《流浪地球2》中,吳京和劉德華角色的年輕形象就是通過這種技術(shù)實現(xiàn)的,。你甚至可以看到從未存在過的電影片段,,比如湯姆·克魯斯扮演的鋼鐵俠。
然而,,這項技術(shù)也帶來了巨大的威脅,,因為你很難確定你在網(wǎng)上看到的內(nèi)容是否是真實的。所謂“眼見未必為實”,!前面提到的澤連斯基視頻就是一個典型案例,;據(jù)稱,超過90%的Deepfake技術(shù)被應(yīng)用于色情片,,大量女性因此成為受害者,。這項技術(shù)被用于詐騙,更是令人不安,。
那么,,有沒有辦法檢測到偽造的視頻或圖片呢?
如果是質(zhì)量非常高的Deepfake視頻或圖片,,基本靠肉眼是難以分辨的,,需要結(jié)合其他信息來綜合判斷。盡管在某些偽造視頻中,,如果放慢幀數(shù),,可以看到一些異常的鏡頭銜接,但隨著技術(shù)的提升,,這些異常將會越來越少,,甚至消失。
最終,,公眾在獲取信息時仍需確認(rèn)信息來源的可信度,,同時互聯(lián)網(wǎng)平臺應(yīng)設(shè)立監(jiān)管和監(jiān)控機(jī)制,防止虛假信息的傳播,。
未來你遇到Deepfake的機(jī)會只會越來越多,。因此,朋友們,,當(dāng)你們愉快地將自己的照片上傳到公共網(wǎng)絡(luò)時,,是不是應(yīng)該再三斟酌呢?
近期,,韓國面臨一項新興技術(shù)濫用的問題——深度偽造技術(shù)(Deepfake)被用于制作并傳播非法淫穢影像,引起了社會廣泛恐慌
2024-08-30 10:17:261分鐘科普什么是deepfake視頻?Deepfake技術(shù)的可怕之處主要體現(xiàn)在其對個人隱私,、社會信任以及法律倫理的挑戰(zhàn)上。?
2024-08-29 16:10:23Deepfake韓國正面臨由深度偽造技術(shù)(Deepfake)驅(qū)動的性犯罪浪潮,這些犯罪行為在Telegram群組中悄然蔓延
2024-08-29 18:31:49韓國新型性暴力產(chǎn)品層出不窮