如今,,從智能家居的語音助手到自動駕駛汽車,,從高效能的數(shù)據(jù)分析到醫(yī)療領(lǐng)域的精準(zhǔn)診斷,AI正以前所未有的方式改變著世界,。然而,,隨著AI技術(shù)的不斷發(fā)展和應(yīng)用,,其雙刃劍的特性也逐漸顯現(xiàn)。深度偽造技術(shù)就是其中之一,,它利用人工智能算法生成高度逼真的虛假視頻或圖像,,通過深度學(xué)習(xí)算法分析大量真實(shí)數(shù)據(jù),學(xué)習(xí)特定人物或場景的特征,,并生成與之極為相似的虛假內(nèi)容,。這種技術(shù)使得造假變得更加容易和難以辨別,給社會帶來了諸多安全隱患,。
今年以來,,AI深度偽造假冒名人的事件時(shí)有發(fā)生。不久前,,有人利用AI技術(shù)深度偽造了張文宏醫(yī)生的臉部和聲音進(jìn)行直播帶貨,。在這段視頻中,被合成的人像反復(fù)介紹一種產(chǎn)品,,聲音也很像張文宏本人,,商品中的蛋白棒產(chǎn)品已經(jīng)售賣了1200多件。目前該賬號已經(jīng)搜索不到,。張文宏醫(yī)生對有人利用AI模仿自己帶貨的行為非常氣憤,,表示這種情況已經(jīng)持續(xù)了幾個(gè)星期,尤其是對于不熟悉AI技術(shù)的年長市民,,他們很容易相信這些虛假信息,。
用AI制作假冒名人欺騙網(wǎng)民的現(xiàn)象并非個(gè)例。今年國慶期間,,有人用企業(yè)家雷軍的聲音和頭像制作了眾多惡搞視頻,。還有人利用劉德華的聲音為自己增加流量。該視頻出現(xiàn)后,,劉德華電影公司連續(xù)發(fā)布兩則聲明,,提醒各方人士注意,避免落入偽造劉德華聲音的AI語音合成技術(shù)騙局,。上海市消保委也注意到最近日益增加的AI假冒名人的視頻,,認(rèn)為這種行為是對消費(fèi)者合法權(quán)益的侵害,是一種赤裸裸的欺詐行為,。
現(xiàn)在的AI技術(shù)在克隆他人面部和聲音上已經(jīng)非常成熟,提供一張照片就能做出換臉的效果,,他人的聲音也能被輕易模仿,。專家介紹,通過人工智能技術(shù)可以將臉進(jìn)行替換,,聲音需要有一個(gè)語言模型,,將被模仿者的聲音進(jìn)行合成,,實(shí)現(xiàn)音色的克隆。技術(shù)人員現(xiàn)場做了一個(gè)測試,,將事先錄制好的視頻換成記者的臉和聲音,。記者提供了一張證件照片,不到兩分鐘,,通過軟件的渲染,,視頻的人臉就換成了記者的臉。隨后是聲音的AI制作,,記者現(xiàn)場錄制了一段聲音輸入到AI資料庫中,,很快AI就能用記者的聲音播報(bào)任何文本內(nèi)容。最終合成的視頻效果非常逼真,。