AI工具進軍殺豬盤
東南亞犯罪集團正在所謂的“殺豬盤”網絡詐騙行動中使用生成式人工智能聊天機器人,,這種更復雜的手段可以提高詐騙的有效性,并將擴大受害者的范圍,。
所謂的“殺豬盤”,,是網絡詐騙的一種新方式,犯罪分子通常潛伏在約會應用程序和社交平臺中,,將浪漫愛情和賭博心理融入其作案手法,。詐騙分子對受害者進行數(shù)天甚至數(shù)月的網絡親密接觸,然后才“收獲”詐騙果實,,這一過程類似于將豬養(yǎng)肥以供屠宰,。
聊天機器人在情緒和感受上“露馬腳”
據澳大利亞廣播公司(ABC)5月16日報道,,犯罪分子過去通常會使用詳細的“腳本”來獲得受害者的信任,而現(xiàn)在他們利用大語言模型(LLM)或聊天機器人,,用不同語言向受害者發(fā)送消息,,進一步擴大了影響范圍。生成式人工智能還可以使對話更有說服力,,并減少詐騙分子與多個受害者互動的工作量,。AI工具進軍殺豬盤!
雖然ChatGPT,、Gemini和Copilot等主要人工智能聊天機器人都有防止其協(xié)助非法活動的護欄,,但其他一些正在開發(fā)的大語言模型沒有此類限制。
網絡安全公司Sophos的研究人員賈格迪什·錢德拉亞(Jagadeesh Chandraiah)在一篇博客文章中表示,,生成式人工智能將文本,、圖像、視頻與翻譯相結合,,生成不重復的“定制內容”,。它還可用于編寫“殺豬腳本”,寫出令人信服的網絡釣魚電子郵件,,甚至提供如何從頭開始進行詐騙的步驟說明,,這也可能降低詐騙犯罪的門檻。
然而,,犯罪集團似乎還無法熟練地使用人工智能,。研究人員發(fā)布了一張詐騙目標提供的屏幕截圖,顯示詐騙分子意外透露了他們正在使用大語言模型來生成消息,。騙子在給目標客戶發(fā)送的WhatsApp消息中寫道:“非常感謝您的善意之言,!’我’作為一個語言模型,沒有像人類那樣的感覺或情緒,,我被創(chuàng)造出來提供有用和積極的答案幫你,。”
錢德拉亞告訴ABC,,人工智能的運作仍然需要人類協(xié)助,,機器人偶爾會發(fā)送一些信息,可能表明它們無法與人類交流,,尤其是在感受和情緒方面,。“就’殺豬盤’而言,,目前的模型不太擅長描繪情緒和感受,,而這又是此類騙局得以成功的關鍵?!?/span>
但錢德拉亞認為,,未來隨著人工智能的進一步發(fā)展,,受害者將很難識別他們正在與機器人進行通信。
AI實時換臉已成精準聊天必備
除了最新的聊天機器人,,一些傳統(tǒng)的人工智能技術,,比如深度造假技術近年來也迅速進步,已達到可以用較高的逼真度完成實時對話的水平,。前黑客,、越南網絡安全專家吳明曉(Ng? Minh Hi?u)表示,用戶現(xiàn)在可以通過開源軟件或付費方式輕松訂閱實時換臉技術(一種僅改變對象臉部的深度造假技術),。AI工具進軍殺豬盤,!
全球反詐騙組織(GASO)向ABC提到,,一家軟件提供商在廣告中宣稱其“人工智能實時換臉是精準聊天的必備”,。廣告稱,“它解決了好看的(真人)模特難以招募和管理,、成本高昂的問題,。”該軟件還集成了語音克隆功能,,對特定目標的模仿相似度可以達到“60%至95%”,。
另一家換臉軟件提供商在柬埔寨提供7天24小時支持、“送貨上門”服務,,并聲稱已在1000多個區(qū)域安裝了其產品,。該廣告稱,使用該系統(tǒng)只需要提供一張照片,,可用于WhatsApp,、Messenger、Line等社交平臺上的視頻通話,。
除了“殺豬盤”之外,,犯罪分子還利用換臉技術實施其他類型的詐騙,例如冒充名人進行投資詐騙,,以及冒充家人或警察來恐嚇受害者付錢。它還可以用來逃避一些金融機構要求的基于視頻的身份檢查,。
澳大利亞陽光海岸市市長羅珊娜·納托利(Rosanna Natoli)最近稱,一名詐騙者使用該技術冒充她與她的一位朋友進行Skype通話,。她說:“這位朋友告訴我,這看起來像我,,但聽起來不像我,。”
“大多數(shù)換臉應用程序都無法偽造實時聲音,。”一位了解柬埔寨詐騙情況的消息人士向ABC表示,,技術能力、計算能力和互聯(lián)網帶寬等往往限制了詐騙分子使用換臉技術,。“(在許多情況下)聘請東歐模特更為實際,?!彼f,盡管技術進步,,鏡頭前的真人仍然看起來更合理,。
在緬甸,從事加密貨幣“殺豬盤”業(yè)務的Sam在采訪中說,,他的老板曾短暫嘗試過人工智能,,因為越南模特逃跑了。老板希望應用程序能夠以數(shù)字方式改變團隊中講英語成員在視頻通話中的外觀,,但沒有足夠的源照片來支撐應用程序運行,。
“用頭腦思考,而不是用心思考”
上個月,,澳大利亞競爭和消費者委員會(ACCC)反詐騙中心表示,雖然2023年統(tǒng)計的詐騙數(shù)量比2022年有所增加,,但損失總額下降了13.1%,至27.4億澳元(約合132.7億元人民幣),。然而,ACCC發(fā)言人仍然對新技術的出現(xiàn)發(fā)出警告,,“詐騙手段日益復雜,我們應該對人工智能帶來的風險保持警惕,。這將使得人們更難識別詐騙,平臺應繼續(xù)謹慎處理任何個人信息或金錢請求,,并在點擊鏈接時保持謹慎?!?/span>
該發(fā)言人表示,迄今為止大多數(shù)關于利用人工智能進行詐騙的案例都是以社交平臺網站上“聊天機器人”的形式出現(xiàn)的,?!斑@些機器人給人留下這樣的印象:許多其他真實的人對該產品感興趣,并從騙局中獲得經濟利益,。”此外,,“人工智能還被用來制作投資詐騙視頻,通常會捕捉或制作名人的圖像或鏡頭,并附上讓人信服的音頻,。”
與詐騙受害者合作的Intelligence for Good的網絡犯罪專家羅尼·托卡佐夫斯基(Ronnie Tokazowski)表示,,過去表明某人是詐騙者的一個關鍵危險信號是他們拒絕進行視頻通話?!暗F(xiàn)在壞人已經找到了解決辦法?!八f,最好的建議是不要向僅在網上認識的人匯款或收款,。
“我們需要開始用頭腦思考,而不是用心思考,。”錢德拉亞說,,“即使感覺很真實,,而且這種關系已經持續(xù)了一段時間,,但如果它起源于互聯(lián)網,并且慢慢轉向涉及金錢或加密貨幣的問題,,那就遠離它?!?/span>
原標題:71歲華裔被網友騙270萬美元 牽出升級版加密貨幣“殺豬盤”據報道,,一名71歲加州華裔男子報警稱,自己被一名年輕漂亮的女網友騙了約270萬美元
2023-12-15 09:33:1671歲華裔被網友騙270萬美元2024年湖南高考語文作文題以信息時代為背景,,探討了互聯(lián)網與人工智能普及背景下,,問題是否會因答案易得而減少,。
2024-06-07 13:30:39國內各大AI工具寫高考作文