一張靜態(tài)照片借助人工智能技術,,可以轉(zhuǎn)化為看似真實的親友對話場景,。近期,,一位名叫“濾鏡粉碎機”的博主,僅用15秒的AI換臉視頻,在三小時內(nèi)便“說服”了一位團隊成員的母親轉(zhuǎn)賬兩萬元,此事迅速在網(wǎng)絡上引發(fā)了廣泛關注和討論。隨著AI技術的進步,,人們越來越擔憂不法分子利用這一技術,通過融合他人面孔和聲音來制造高仿真度的虛假內(nèi)容進行詐騙,。這類擔憂并非空穴來風,,中央廣播電視總臺在2024年的3·15晚會上就揭露了利用“AI換臉”實施詐騙的行為。根據(jù)過往調(diào)查,,約60%的受訪者承認難以僅憑肉眼分辨出AI換臉視頻的真?zhèn)巍?/p>
在“濾鏡粉碎機”的試驗中,,通過一個虛構的緊急情況——“兒子的女友懷孕需要醫(yī)療費”,成功讓團隊成員的母親在兒子電話無法接通的情況下,,幾經(jīng)猶豫最終轉(zhuǎn)賬,。這個案例突顯出,即便是理智的成年人,,在情感驅(qū)使下也可能落入AI詐騙的陷阱,。博主透露,團隊選擇相對溫和的借口進行測試,,卻發(fā)現(xiàn)即便是這樣,,父母在看到孩子“真實”的影像后,也會因擔憂而失去部分判斷力,。
對于如何識破AI換臉的詭計,,博主建議通過連續(xù)提問私密問題的方式,因為即便AI技術再先進,,也難以完全復制個人間獨有的生活細節(jié),。此外,技術專家指出,,觀察面部輪廓和光線的異常也是辨別AI換臉的一個方法,,尤其是在要求對方做出快速頭部動作時。
法律界人士強調(diào),,利用AI技術進行詐騙或未經(jīng)授權的肖像替換均觸犯法律,,不僅構成詐騙罪,也可能侵犯個人的肖像權和隱私權,。因此,,合理規(guī)范AI技術的使用,提升防御技術,,以及增強公眾的防騙意識顯得尤為重要,。博主“濾鏡粉碎機”呼吁行業(yè)內(nèi)外共同關注AI防御技術的發(fā)展,,同時提醒公眾應提高個人信息保護意識,,對于易受騙群體則需加強宣傳教育,,共同努力遏制AI技術的不當使用。
4月26日,向太發(fā)文稱:我好像被向佐“電信詐騙”了,!而我居然沒認出來,,還跟他視頻聊天了,大家一定要小心現(xiàn)在AI換臉的科技,,謹防被換臉親友詐騙,!
2024-04-26 10:57:29向太沒認出來向佐據(jù)韓國《朝鮮日報》27日報道,韓國總統(tǒng)尹錫悅當天表示,,最近以不特定人群為對象的深度偽造技術影像通過社交媒體迅速傳播,,不少受害者是未成年人,加害者也大多10多歲。
2024-08-29 17:12:22韓女性深陷恐慌22萬人被色情片AI換臉