近期,,一則關(guān)于AI反詐的視頻引起了廣泛關(guān)注。視頻中,,一位母親正與自稱在外地求學(xué)的女兒視頻聊天,,女兒央求增加生活費(fèi),。正當(dāng)母親心生憐憫,,準(zhǔn)備轉(zhuǎn)賬時(shí),,真正的女兒走進(jìn)家門,揭穿了視頻那端的“假女兒”,。這一幕引發(fā)了眾多網(wǎng)友共鳴,,他們分享了自己遭遇的聲音或容貌被精確模仿的騙案經(jīng)歷,。
AI換臉和擬聲技術(shù)已變得日益普及且易于操作,,僅需少量的聲音、圖片素材,,配合特定軟件,,就能迅速生成“AI克隆”內(nèi)容。不幸的是,,這種技術(shù)正被某些不法分子利用,,進(jìn)行包括金融詐騙在內(nèi)的多種違法活動(dòng)。例如,,騙子冒充“網(wǎng)店客服”或“營(yíng)銷推廣”人員,,收集受害者的語(yǔ)音、語(yǔ)句乃至面部信息,,然后利用AI技術(shù)合成虛假音頻,、視頻,模仿受害者的聲音或形象,,以獲取信任并誘導(dǎo)其親友進(jìn)行資金轉(zhuǎn)賬,。
對(duì)此,國(guó)家金融監(jiān)督管理總局金融消費(fèi)者權(quán)益保護(hù)局新近發(fā)布風(fēng)險(xiǎn)提示,,明確指出AI換臉擬聲詐騙作為一種新型電信網(wǎng)絡(luò)詐騙手段,,需引起公眾警惕。該提示揭示了詐騙者常用的手段,,即通過偽造音頻,、視頻或圖像來模擬受害者或其親朋好友,進(jìn)行詐騙,。
專家警告,,未經(jīng)許可使用他人信息進(jìn)行換臉擬聲創(chuàng)作,觸及多重法律風(fēng)險(xiǎn)。他們呼吁加強(qiáng)相關(guān)法律建設(shè),,加大執(zhí)法力度,,同時(shí)以包容審慎的態(tài)度確保技術(shù)發(fā)展與安全并行不悖。
AI換臉和擬聲技術(shù)的使用門檻極低,,網(wǎng)絡(luò)上充斥著各種教程和工具,,使得任何人都能輕松掌握。例如,,通過簡(jiǎn)單的在線工具,,只需提供一段語(yǔ)音樣本,就能快速?gòu)?fù)制出極其相似的聲音,。AI換臉技術(shù)也同樣發(fā)達(dá),,能夠在視頻中無縫替換面孔,甚至達(dá)到實(shí)時(shí)換臉的效果,,且操作簡(jiǎn)便,,即便是技術(shù)新手也能迅速上手。
值得注意的是,,市面上還出現(xiàn)了明碼標(biāo)價(jià)銷售AI換臉軟件的情況,,賣家通常很少詢問購(gòu)買目的。這些軟件不僅價(jià)格各異,,有的還包含有引發(fā)道德爭(zhēng)議的功能,,如所謂的“AI去衣”。盡管一些賣家強(qiáng)調(diào)他們的產(chǎn)品僅供娛樂或正面用途,,但這些技術(shù)的濫用風(fēng)險(xiǎn)不容忽視,。
專家們強(qiáng)調(diào),面對(duì)AI換臉擬聲技術(shù)可能帶來的法律和倫理挑戰(zhàn),,必須盡快確立使用規(guī)范,,并提高個(gè)人對(duì)這類技術(shù)詐騙的防范意識(shí)。同時(shí),,建議公眾謹(jǐn)慎對(duì)待個(gè)人聲音,、圖像信息的網(wǎng)絡(luò)分享,以防成為不法分子的作案素材,。在享受技術(shù)便利的同時(shí),,也要學(xué)會(huì)識(shí)別潛在的風(fēng)險(xiǎn),采取措施保護(hù)自身安全,。
隨著人工智能技術(shù)的不斷進(jìn)步,,網(wǎng)絡(luò)上利用AI技術(shù)“克隆”他人容貌、聲音的現(xiàn)象日益普遍,,由此引發(fā)的糾紛也日漸增多
2024-06-15 12:32:43花十元就能讓照片開口說話