如今,從智能家居的語音助手到自動駕駛汽車,從高效能的數(shù)據(jù)分析到醫(yī)療領(lǐng)域的精準診斷,,AI正以前所未有的方式改變著世界,。然而,隨著AI技術(shù)的不斷發(fā)展和應(yīng)用,,其雙刃劍的特性也逐漸顯現(xiàn)。深度偽造技術(shù)就是其中之一,它利用人工智能算法生成高度逼真的虛假視頻或圖像,,通過深度學(xué)習(xí)算法分析大量真實數(shù)據(jù),學(xué)習(xí)特定人物或場景的特征,,并生成與之極為相似的虛假內(nèi)容,。這種技術(shù)使得造假變得更加容易和難以辨別,給社會帶來了諸多安全隱患,。
今年以來,,AI深度偽造假冒名人的事件時有發(fā)生。不久前,,有人利用AI技術(shù)深度偽造了張文宏醫(yī)生的臉部和聲音進行直播帶貨,。在這段視頻中,被合成的人像反復(fù)介紹一種產(chǎn)品,,聲音也很像張文宏本人,,商品中的蛋白棒產(chǎn)品已經(jīng)售賣了1200多件。目前該賬號已經(jīng)搜索不到,。張文宏醫(yī)生對有人利用AI模仿自己帶貨的行為非常氣憤,,表示這種情況已經(jīng)持續(xù)了幾個星期,尤其是對于不熟悉AI技術(shù)的年長市民,,他們很容易相信這些虛假信息,。
用AI制作假冒名人欺騙網(wǎng)民的現(xiàn)象并非個例。今年國慶期間,,有人用企業(yè)家雷軍的聲音和頭像制作了眾多惡搞視頻,。還有人利用劉德華的聲音為自己增加流量,。該視頻出現(xiàn)后,劉德華電影公司連續(xù)發(fā)布兩則聲明,,提醒各方人士注意,,避免落入偽造劉德華聲音的AI語音合成技術(shù)騙局。上海市消保委也注意到最近日益增加的AI假冒名人的視頻,,認為這種行為是對消費者合法權(quán)益的侵害,,是一種赤裸裸的欺詐行為。
現(xiàn)在的AI技術(shù)在克隆他人面部和聲音上已經(jīng)非常成熟,,提供一張照片就能做出換臉的效果,,他人的聲音也能被輕易模仿。專家介紹,,通過人工智能技術(shù)可以將臉進行替換,,聲音需要有一個語言模型,將被模仿者的聲音進行合成,,實現(xiàn)音色的克隆,。技術(shù)人員現(xiàn)場做了一個測試,將事先錄制好的視頻換成記者的臉和聲音,。記者提供了一張證件照片,,不到兩分鐘,通過軟件的渲染,,視頻的人臉就換成了記者的臉,。隨后是聲音的AI制作,記者現(xiàn)場錄制了一段聲音輸入到AI資料庫中,,很快AI就能用記者的聲音播報任何文本內(nèi)容,。最終合成的視頻效果非常逼真。