中國網(wǎng)絡空間安全協(xié)會人工智能安全治理專委會專家薛智慧:背后需要有大量的資金的投入,包括圖片的采集,,包括專業(yè)算法的人員等等,需要很長的一個周期,,包括一些算力算法,。各方面的投入,,需要長時間不斷地迭代,進行操作,,才能達到一個相當逼真的效果,,才有可能實現(xiàn)到詐騙的實際效果。
目前AI“換臉”更多應用于娛樂視頻錄制
除了一些不法分子企圖利用AI技術實施詐騙,,事實上,,近年來,AI技術更多地被應用于短視頻的二次創(chuàng)作,,屬于娛樂性質(zhì),,越來越多的名人AI換臉視頻出現(xiàn)在網(wǎng)絡上,不少網(wǎng)友感嘆,,這類視頻“嘴型,、手勢都對得上,太自然了,,差點兒以為是真的,。”
比如這款軟件,,拍下記者面部照片后,,就能錄制生成出一段記者秒變賽車手的視頻。
△網(wǎng)友發(fā)布的女士系絲巾原版視頻
△需要變換的臉的照片
△生成視頻
中國計算機學會安全專業(yè)委員會數(shù)字經(jīng)濟與安全工作組成員方宇:AI技術目前我們??吹降闹饕嵌桃曨l換臉,,通過做一些特定的動作,跳舞啊等等,。這些視頻其實看起來是有一些不自然的,,本身也是純屬于娛樂性質(zhì)的換臉。
記者發(fā)現(xiàn)在手機應用商城中,,有數(shù)十款換臉軟件,,都可以做到換臉的目的。
中國網(wǎng)絡空間安全協(xié)會人工智能安全治理專委會專家薛智慧:如果從娛樂大眾的角度來說的話,,現(xiàn)在市面上也有很多的這些軟件和工具,,能夠達到AI換臉的效果,但是仿真度只有六七分的樣子,,大眾直接就能看出來,。但是如果要生成一個詐騙視頻來說話,就要生成咱們仿真度極高的這種點對點視頻,。
AI技術“換臉換聲”可能存在法律風險
近年來,,隨著人工智能技術的進步,,一些不法分子開始利用AI技術融合他人面孔和聲音,制造非常逼真的合成圖像來實施新型網(wǎng)絡詐騙,,這類騙局常常會在短時間內(nèi)給被害人造成較大損失。
2024-02-26 03:29:42AI換臉?AI已成為過去一年的網(wǎng)絡熱點,伴隨其廣泛應用,,AI詐騙現(xiàn)象日益引起關注,,尤其是運用AI換臉技術實施的詐騙案件屢見報端。
2024-04-22 15:11:05“AI換臉”騙走2億港元4月26日,,向太發(fā)文稱:我好像被向佐“電信詐騙”了,!而我居然沒認出來,還跟他視頻聊天了,,大家一定要小心現(xiàn)在AI換臉的科技,,謹防被換臉親友詐騙!
2024-04-26 10:57:29向太沒認出來向佐近期,,一起涉及偽造“法拍”京牌小客車指標的詐騙案件被北京通州公安分局揭露,。5月24日的通報顯示,該局在“春夏平安行動”中成功逮捕了一名詐騙嫌疑人
2024-05-27 13:14:43輕信內(nèi)部操作辦理京牌被騙10萬元