原標(biāo)題:只需一張照片AI換臉就能以假亂真,?這幾種圖片不要隨便發(fā)
隨著人工智能技術(shù)的快速發(fā)展,,相關(guān)的應(yīng)用正在進(jìn)入我們生活的方方面面。然而,,這也給個(gè)人信息保護(hù)帶來了新的挑戰(zhàn),。在8日開幕的2024年國家網(wǎng)絡(luò)安全宣傳周上,關(guān)于AI換臉,、換聲等對個(gè)人隱私侵害的話題成為大家關(guān)注的焦點(diǎn),。
一張“人像照片”,、一段近距離的人物視頻,都有可能成為不法分子犯罪的新手段和新工具,。
在今年的網(wǎng)絡(luò)安全博覽會(huì)上,,各大安全企業(yè)紛紛展示了安全領(lǐng)域新產(chǎn)品和新技術(shù),尤其是針對人工智能的安全防護(hù)更是成為各大安全企業(yè)著力的重點(diǎn)領(lǐng)域,。
畫面中技術(shù)人員正在演示的就是“AI換臉”技術(shù),,僅需一張目標(biāo)人物的靜態(tài)照片,就能讓照片中的人物動(dòng)起來,。
中國網(wǎng)絡(luò)空間安全協(xié)會(huì)人工智能安全治理專業(yè)委員會(huì)委員張博:本身是一張不會(huì)動(dòng)的靜態(tài)圖片,,演示者做一些動(dòng)作之后,AI換臉軟件采集到了演示者面部動(dòng)起來的特征,,把特征融合到靜態(tài)圖片當(dāng)中,,就讓圖片照著演示者的動(dòng)作動(dòng)了起來,也可以形成一個(gè)視頻,。
張博介紹,,盡管現(xiàn)在AI換臉、換聲等有一定的技術(shù)門檻和操作成本,,但如果被不法分子獲取的情況下,,就有可能被用來假冒他人,實(shí)施相關(guān)的犯罪活動(dòng),。
中國網(wǎng)絡(luò)空間安全協(xié)會(huì)人工智能安全治理專業(yè)委員會(huì)委員張博:當(dāng)前AI換臉技術(shù)還是比較成熟,,能支持視頻通話實(shí)時(shí)換臉,可以達(dá)到以假亂真的程度,。除了換臉之外,,再結(jié)合著換背景環(huán)境、換聲音等,,逼真度就會(huì)更高,,更加難以分辨。