“張文宏是不是帶貨了,?”最近,有網(wǎng)友稱在網(wǎng)絡賣貨視頻中看到知名醫(yī)生張文宏在售賣一種蛋白棒產品,。不過,,經常刷短視頻的朋友很快就能分辨出這是AI合成的視頻,并非本人,。
隨著人工智能技術的迅猛發(fā)展,,AI換臉已經能夠做到以假亂真。當AI技術被不當使用,,用戶該如何識破騙局,?監(jiān)管如何跟上技術發(fā)展?
張文宏回應“被AI帶貨”:已多次投訴但違規(guī)賬號屢禁不止
在帶貨視頻中,,被合成的人像反復介紹一種產品,,聲音聽起來很像張文宏本人。一些老人信以為真,,不僅下了單,,還呼朋引伴來購買。對此,,張文宏回應稱,,這樣的賣貨賬號不止一個,而且一直在變,,他多次向平臺投訴但屢禁不絕,。
目前,用語音合成來模仿他人聲音,,生成視頻的技術已經非常成熟,,甚至僅用一張照片就能生成此類視頻。
工信部信息通信經濟專家委員會委員盤和林表示:“AI技術冒充名人帶貨,、詐騙越來越多,,這里的關鍵不在AI,而是要及時處理利用AI冒充他人的內容發(fā)布者,。冒名頂替,、虛假宣傳,、破壞名人肖像權、利用名人的公信力來牟利,,這些行為會給名人帶來風險,,也會成為詐騙分子的溫床?!?/p>
工信部反詐工作專班專家李坤介紹,,在網(wǎng)上,耳聽眼見不一定為實,?!皵M聲”“換臉”等合成技術的一大特點是以假亂真,不法分子可以利用此類技術輕易偽裝成他人,,并通過快速篩選目標人群,、精準制定詐騙腳本。
“不法分子通過各種公開渠道獲取受害人的個人肖像或視頻,,然后利用AI技術對受害人面容特征進行學習,,模仿眨眼、搖頭等動作,,實現(xiàn)以假亂真的效果,。”李坤說,。