近期,,一則關于AI反詐的視頻引起了廣泛關注。視頻中,,一位母親正與自稱在外地求學的女兒視頻聊天,,女兒央求增加生活費。正當母親心生憐憫,,準備轉賬時,,真正的女兒走進家門,揭穿了視頻那端的“假女兒”,。這一幕引發(fā)了眾多網友共鳴,,他們分享了自己遭遇的聲音或容貌被精確模仿的騙案經歷。
AI換臉和擬聲技術已變得日益普及且易于操作,,僅需少量的聲音,、圖片素材,配合特定軟件,就能迅速生成“AI克隆”內容,。不幸的是,,這種技術正被某些不法分子利用,進行包括金融詐騙在內的多種違法活動,。例如,,騙子冒充“網店客服”或“營銷推廣”人員,收集受害者的語音,、語句乃至面部信息,,然后利用AI技術合成虛假音頻、視頻,,模仿受害者的聲音或形象,,以獲取信任并誘導其親友進行資金轉賬。
對此,,國家金融監(jiān)督管理總局金融消費者權益保護局新近發(fā)布風險提示,,明確指出AI換臉擬聲詐騙作為一種新型電信網絡詐騙手段,需引起公眾警惕,。該提示揭示了詐騙者常用的手段,,即通過偽造音頻、視頻或圖像來模擬受害者或其親朋好友,,進行詐騙,。
專家警告,未經許可使用他人信息進行換臉擬聲創(chuàng)作,,觸及多重法律風險,。他們呼吁加強相關法律建設,加大執(zhí)法力度,,同時以包容審慎的態(tài)度確保技術發(fā)展與安全并行不悖,。
AI換臉和擬聲技術的使用門檻極低,網絡上充斥著各種教程和工具,,使得任何人都能輕松掌握,。例如,通過簡單的在線工具,,只需提供一段語音樣本,,就能快速復制出極其相似的聲音。AI換臉技術也同樣發(fā)達,,能夠在視頻中無縫替換面孔,甚至達到實時換臉的效果,,且操作簡便,,即便是技術新手也能迅速上手。
值得注意的是,市面上還出現(xiàn)了明碼標價銷售AI換臉軟件的情況,,賣家通常很少詢問購買目的,。這些軟件不僅價格各異,有的還包含有引發(fā)道德爭議的功能,,如所謂的“AI去衣”,。盡管一些賣家強調他們的產品僅供娛樂或正面用途,但這些技術的濫用風險不容忽視,。
專家們強調,,面對AI換臉擬聲技術可能帶來的法律和倫理挑戰(zhàn),必須盡快確立使用規(guī)范,,并提高個人對這類技術詐騙的防范意識,。同時,建議公眾謹慎對待個人聲音,、圖像信息的網絡分享,,以防成為不法分子的作案素材。在享受技術便利的同時,,也要學會識別潛在的風險,,采取措施保護自身安全。
隨著人工智能技術的不斷進步,,網絡上利用AI技術“克隆”他人容貌,、聲音的現(xiàn)象日益普遍,由此引發(fā)的糾紛也日漸增多
2024-06-15 12:32:43花十元就能讓照片開口說話