近期,一則關(guān)于AI反詐的視頻引起了廣泛關(guān)注,。視頻中,,一位母親正與自稱在外地求學的女兒視頻聊天,女兒央求增加生活費,。正當母親心生憐憫,,準備轉(zhuǎn)賬時,真正的女兒走進家門,,揭穿了視頻那端的“假女兒”,。這一幕引發(fā)了眾多網(wǎng)友共鳴,他們分享了自己遭遇的聲音或容貌被精確模仿的騙案經(jīng)歷,。
AI換臉和擬聲技術(shù)已變得日益普及且易于操作,,僅需少量的聲音、圖片素材,,配合特定軟件,,就能迅速生成“AI克隆”內(nèi)容。不幸的是,,這種技術(shù)正被某些不法分子利用,,進行包括金融詐騙在內(nèi)的多種違法活動,。例如,,騙子冒充“網(wǎng)店客服”或“營銷推廣”人員,收集受害者的語音,、語句乃至面部信息,,然后利用AI技術(shù)合成虛假音頻、視頻,,模仿受害者的聲音或形象,,以獲取信任并誘導其親友進行資金轉(zhuǎn)賬。
對此,,國家金融監(jiān)督管理總局金融消費者權(quán)益保護局新近發(fā)布風險提示,,明確指出AI換臉擬聲詐騙作為一種新型電信網(wǎng)絡(luò)詐騙手段,需引起公眾警惕,。該提示揭示了詐騙者常用的手段,,即通過偽造音頻、視頻或圖像來模擬受害者或其親朋好友,,進行詐騙,。
專家警告,,未經(jīng)許可使用他人信息進行換臉擬聲創(chuàng)作,觸及多重法律風險,。他們呼吁加強相關(guān)法律建設(shè),,加大執(zhí)法力度,同時以包容審慎的態(tài)度確保技術(shù)發(fā)展與安全并行不悖,。
AI換臉和擬聲技術(shù)的使用門檻極低,,網(wǎng)絡(luò)上充斥著各種教程和工具,使得任何人都能輕松掌握,。例如,,通過簡單的在線工具,只需提供一段語音樣本,,就能快速復制出極其相似的聲音,。AI換臉技術(shù)也同樣發(fā)達,能夠在視頻中無縫替換面孔,,甚至達到實時換臉的效果,,且操作簡便,即便是技術(shù)新手也能迅速上手,。
值得注意的是,,市面上還出現(xiàn)了明碼標價銷售AI換臉軟件的情況,賣家通常很少詢問購買目的,。這些軟件不僅價格各異,,有的還包含有引發(fā)道德爭議的功能,如所謂的“AI去衣”,。盡管一些賣家強調(diào)他們的產(chǎn)品僅供娛樂或正面用途,,但這些技術(shù)的濫用風險不容忽視。
專家們強調(diào),,面對AI換臉擬聲技術(shù)可能帶來的法律和倫理挑戰(zhàn),,必須盡快確立使用規(guī)范,并提高個人對這類技術(shù)詐騙的防范意識,。同時,,建議公眾謹慎對待個人聲音、圖像信息的網(wǎng)絡(luò)分享,,以防成為不法分子的作案素材,。在享受技術(shù)便利的同時,也要學會識別潛在的風險,,采取措施保護自身安全,。
隨著人工智能技術(shù)的不斷進步,網(wǎng)絡(luò)上利用AI技術(shù)“克隆”他人容貌,、聲音的現(xiàn)象日益普遍,,由此引發(fā)的糾紛也日漸增多
2024-06-15 12:32:43花十元就能讓照片開口說話