從智能家居的語音助手到自動駕駛汽車,,從高效能的數(shù)據(jù)分析到醫(yī)療領域的精準診斷,,AI正以前所未有的方式改變著世界。然而,隨著AI技術的不斷發(fā)展和應用,,其雙刃劍的特性也逐漸顯現(xiàn),。深度偽造技術帶來了不小的隱患,。
所謂的深度偽造技術是一種利用人工智能算法生成高度逼真的視頻或圖像的技術,。這種技術使得造假變得更加容易且難以辨別,給社會帶來了諸多安全隱患,。今年以來,,AI深度偽造假冒名人的事件時有發(fā)生。不久前,,有人利用AI技術,,深度偽造了張文宏醫(yī)生的臉部和聲音進行直播帶貨。在這段視頻中,,被合成的人像反復介紹一種產(chǎn)品,,聲音也很像張文宏本人,商品中的蛋白棒產(chǎn)品已經(jīng)售賣了1200多件,。目前該賬號已經(jīng)搜索不到,。張文宏醫(yī)生對此非常氣憤,表示年紀較大的市民很容易就會相信這些偽造內(nèi)容,。
用AI制作假冒名人欺騙網(wǎng)民的現(xiàn)象并非個例,。今年國慶期間,有人用企業(yè)家雷軍的聲音和頭像制作了眾多惡搞視頻。還有人利用劉德華的聲音為自己增加流量,,隨后劉德華電影公司連續(xù)發(fā)布兩則聲明,,提醒各方人士注意,避免落入偽造劉德華聲音的AI語音合成技術騙局,。
現(xiàn)在的AI技術在克隆他人面部和聲音上已經(jīng)非常成熟,。專家介紹,只需提供一張照片就能做出換臉的效果,,他人的聲音也能被輕易模仿,。技術人員現(xiàn)場演示了這一過程,通過軟件渲染將事先錄制好的視頻換成記者的臉和聲音,,效果非常逼真,。
盡管AI模仿度高,但并非毫無破綻,。觀眾可以通過仔細辨認視頻來發(fā)現(xiàn)AI的痕跡,,例如人臉輪廓與背景環(huán)境的融合度、協(xié)調(diào)度以及語音,、語速和口型的匹配度等,。專家提醒,未經(jīng)權(quán)利人同意使用他人形象的行為屬于違法行為,,不僅不能直接使用,,也不能將相關信息用于深度合成,。此外,,如果AI假冒名人發(fā)表作品,可能會追究發(fā)布者的刑事責任,。
專家還表示,,AI假冒名人進行帶貨這樣的行為已經(jīng)涉嫌違法,一旦消費者信以為真購買了產(chǎn)品,,可以要求商家退一賠三,。短視頻平臺也應擔負主體責任,防范AI假冒名人視頻在平臺上傳播,。如果發(fā)現(xiàn)利用AI合成的聲頻和視頻傳播虛假消息,,應當對發(fā)布者采取包括信用管理在內(nèi)的強制措施。
快過年了,朋友圈里賣年貨,、春聯(lián)和水果的人多了起來,,還有一些人在賣煙花爆竹。警方提醒,,朋友圈銷售煙花爆竹可能涉嫌違法
2025-01-06 13:30:42在朋友圈售賣煙花爆竹或擔刑責據(jù)報道,一名25歲的日本男子因利用人工智能制造計算機病毒而被定罪,,被判有期徒刑3年,,緩刑4年。這可能是日本首例因濫用生成式AI而在刑事案件中被判刑的案例
2024-10-28 09:39:59日本男子利用AI造計算機病毒