盡管AI模仿度高,,但并非毫無破綻。專家表示,,這種既要換臉又要換聲的操作只能制作視頻,,無法做到實時直播,。觀眾通過仔細辨認視頻,,也能看出AI的痕跡,。辨別時可以重點關注視頻中人臉的變換,包括人臉輪廓和背景環(huán)境融合度,、協(xié)調度等,。另外,,在語音、語速和口型的匹配度上也可以去重點關注,。
未經授權利用AI假冒他人屬違法行為,。專家表示,,那些未經允許使用他人形象的行為均屬于違法行為,。按照民法典的規(guī)定,未經權利人同意,,任何人不得侵害他人的人格權利。不僅不能直接使用,,也不能使用當事人的人臉信息、聲音信息進行深度合成,。如果把相關視頻,,包括聲音編輯之后形成了相關內容,,這屬于偽造的信息,按照網絡安全法的規(guī)定,,這屬于違法信息。此外,,AI假冒名人發(fā)表自己的作品,,有可能會追究發(fā)布者的刑事責任,。
專家表示,AI假冒名人進行帶貨這樣的行為已經涉嫌違法,,一旦消費者信以為真購買了產品,,可以要求商家退一賠三。消費者權益保護法明確規(guī)定,,如果消費者遭到了欺詐,可以要求不法商家進行賠償,。具體的賠償標準是退一賠三,如果不足500元,,消費者完全可以要求商家按照500元進行賠償。短視頻平臺也應該擔負主體責任,,有義務防范AI假冒名人視頻在自己的平臺大量傳播。如果發(fā)現(xiàn)利用AI合成的聲頻和視頻傳播虛假消息,,應當對發(fā)布者采取包括信用管理在內的強制措施,根據信用的降低,,要隨之產生必要的處罰措施,。
近年來,,AI深度偽造技術被頻繁用于假冒名人進行直播帶貨和其他活動,。例如,有人利用這項技術偽造了張文宏醫(yī)生的臉部和聲音進行直播帶貨,,售賣的蛋白棒產品已經售出1200多件
2024-12-23 13:42:45記者實測AI換臉搭配聲音合成“張文宏是不是帶貨了,?”最近,,有網友稱在網絡賣貨視頻中看到知名醫(yī)生張文宏在售賣一種蛋白棒產品。不過,,經常刷短視頻的朋友很快就能分辨出這是AI合成的視頻,,并非本人。
2024-12-14 15:08:21張文宏“被AI帶貨”