近期,,一則關(guān)于AI反詐的視頻引起了廣泛關(guān)注。視頻中,,一位母親正與自稱在外地求學(xué)的女兒視頻聊天,,女兒央求增加生活費(fèi)。正當(dāng)母親心生憐憫,,準(zhǔn)備轉(zhuǎn)賬時(shí),,真正的女兒走進(jìn)家門(mén),揭穿了視頻那端的“假女兒”,。這一幕引發(fā)了眾多網(wǎng)友共鳴,,他們分享了自己遭遇的聲音或容貌被精確模仿的騙案經(jīng)歷。
AI換臉和擬聲技術(shù)已變得日益普及且易于操作,,僅需少量的聲音,、圖片素材,配合特定軟件,,就能迅速生成“AI克隆”內(nèi)容,。不幸的是,這種技術(shù)正被某些不法分子利用,,進(jìn)行包括金融詐騙在內(nèi)的多種違法活動(dòng),。例如,,騙子冒充“網(wǎng)店客服”或“營(yíng)銷推廣”人員,收集受害者的語(yǔ)音,、語(yǔ)句乃至面部信息,,然后利用AI技術(shù)合成虛假音頻、視頻,,模仿受害者的聲音或形象,,以獲取信任并誘導(dǎo)其親友進(jìn)行資金轉(zhuǎn)賬。
對(duì)此,,國(guó)家金融監(jiān)督管理總局金融消費(fèi)者權(quán)益保護(hù)局新近發(fā)布風(fēng)險(xiǎn)提示,,明確指出AI換臉擬聲詐騙作為一種新型電信網(wǎng)絡(luò)詐騙手段,需引起公眾警惕,。該提示揭示了詐騙者常用的手段,,即通過(guò)偽造音頻、視頻或圖像來(lái)模擬受害者或其親朋好友,,進(jìn)行詐騙,。
專家警告,未經(jīng)許可使用他人信息進(jìn)行換臉擬聲創(chuàng)作,,觸及多重法律風(fēng)險(xiǎn),。他們呼吁加強(qiáng)相關(guān)法律建設(shè),加大執(zhí)法力度,,同時(shí)以包容審慎的態(tài)度確保技術(shù)發(fā)展與安全并行不悖,。
AI換臉和擬聲技術(shù)的使用門(mén)檻極低,網(wǎng)絡(luò)上充斥著各種教程和工具,,使得任何人都能輕松掌握,。例如,通過(guò)簡(jiǎn)單的在線工具,,只需提供一段語(yǔ)音樣本,,就能快速?gòu)?fù)制出極其相似的聲音。AI換臉技術(shù)也同樣發(fā)達(dá),,能夠在視頻中無(wú)縫替換面孔,,甚至達(dá)到實(shí)時(shí)換臉的效果,且操作簡(jiǎn)便,,即便是技術(shù)新手也能迅速上手,。
值得注意的是,市面上還出現(xiàn)了明碼標(biāo)價(jià)銷售AI換臉軟件的情況,,賣(mài)家通常很少詢問(wèn)購(gòu)買(mǎi)目的,。這些軟件不僅價(jià)格各異,有的還包含有引發(fā)道德?tīng)?zhēng)議的功能,,如所謂的“AI去衣”,。盡管一些賣(mài)家強(qiáng)調(diào)他們的產(chǎn)品僅供娛樂(lè)或正面用途,,但這些技術(shù)的濫用風(fēng)險(xiǎn)不容忽視。
專家們強(qiáng)調(diào),,面對(duì)AI換臉擬聲技術(shù)可能帶來(lái)的法律和倫理挑戰(zhàn),,必須盡快確立使用規(guī)范,,并提高個(gè)人對(duì)這類技術(shù)詐騙的防范意識(shí),。同時(shí),建議公眾謹(jǐn)慎對(duì)待個(gè)人聲音,、圖像信息的網(wǎng)絡(luò)分享,,以防成為不法分子的作案素材。在享受技術(shù)便利的同時(shí),,也要學(xué)會(huì)識(shí)別潛在的風(fēng)險(xiǎn),,采取措施保護(hù)自身安全。
隨著人工智能技術(shù)的不斷進(jìn)步,,網(wǎng)絡(luò)上利用AI技術(shù)“克隆”他人容貌,、聲音的現(xiàn)象日益普遍,由此引發(fā)的糾紛也日漸增多
2024-06-15 12:32:43花十元就能讓照片開(kāi)口說(shuō)話