近90%Ollama大模型服務(wù)器裸奔,、DeepSeek頻繁被攻擊,,模型網(wǎng)絡(luò)安全何解?隨著DeepSeek的崛起,,它吸引了更多關(guān)注和資本注入,,同時(shí)也遭受了更多網(wǎng)絡(luò)攻擊。這不是大模型公司首次面臨此類問(wèn)題,,像Kimi,、OpenAI這樣的知名公司也曾遭遇不同程度的網(wǎng)絡(luò)攻擊。
大模型被攻擊是普遍現(xiàn)象,?;仡欉^(guò)去幾年,許多大模型成為黑灰產(chǎn)業(yè)的攻擊目標(biāo),。2023年11月,,ChatGPT遭到黑客組織DDoS攻擊,多次業(yè)務(wù)中斷,;2024年9月20日,,秘塔AI搜索引擎受到Mirai變種攻擊;2025年1月7日,、11日,、23日、24日,,kimi.ai也遭受了DDoS攻擊,。
此次針對(duì)DeepSeek的攻擊在不到一個(gè)月內(nèi)接連發(fā)生,包括大規(guī)模DDoS攻擊、僵尸網(wǎng)絡(luò),、仿冒網(wǎng)站泛濫和數(shù)據(jù)庫(kù)安全隱患等,,嚴(yán)重影響了正常服務(wù)。公開(kāi)資料顯示,,DeepSeek主要面臨的是DDoS攻擊,,先后經(jīng)歷了輕微的HTTP代理攻擊、大量HTTP代理攻擊和僵尸網(wǎng)絡(luò)攻擊,,參與攻擊的兩個(gè)僵尸網(wǎng)絡(luò)分別為HailBot和RapperBot,。
奇安信安全專家指出,這些跡象反映了整個(gè)AI行業(yè)面臨的嚴(yán)峻安全挑戰(zhàn),,網(wǎng)絡(luò)攻擊可能持續(xù)時(shí)間長(zhǎng),、方式不斷進(jìn)化、烈度升級(jí),、影響擴(kuò)大,。
初創(chuàng)科技公司打造的大模型更容易成為攻擊目標(biāo)。與傳統(tǒng)互聯(lián)網(wǎng)巨頭如Bing,、通義千問(wèn),、文心一言相比,初創(chuàng)公司在安全體系建設(shè)方面能力較弱,。初創(chuàng)企業(yè)更傾向于將資源用于技術(shù)研發(fā)和迭代,,導(dǎo)致防護(hù)能力不足,容易成為攻擊目標(biāo),。
天融信安全專家表示,,大模型系統(tǒng)在運(yùn)營(yíng)中面臨多重安全風(fēng)險(xiǎn),包括技術(shù)缺陷,、不當(dāng)使用及惡意利用,。處理敏感數(shù)據(jù)時(shí)易受攻擊,導(dǎo)致數(shù)據(jù)竊取,、服務(wù)中斷等問(wèn)題,。此外,大模型生成內(nèi)容可能引發(fā)虛假信息,、歧視、隱私泄露等問(wèn)題,,威脅公民安全,、國(guó)家安全及倫理安全。
從模型自身風(fēng)險(xiǎn)角度看,,由于需要對(duì)外提供公開(kāi)服務(wù)并涉及敏感信息,,大模型會(huì)面臨提示注入攻擊、拒絕服務(wù)攻擊、提示詞泄露,、通用越獄漏洞等安全問(wèn)題,。從防護(hù)機(jī)制建設(shè)角度看,絕大多數(shù)大模型的安全建設(shè)非常欠缺,。以DeepSeek為例,,其防御機(jī)制建設(shè)不足,未能儲(chǔ)備足夠的防護(hù)資源應(yīng)對(duì)高強(qiáng)度的DDoS攻擊,。
攻擊者還會(huì)利用對(duì)抗性攻擊和數(shù)據(jù)投毒破壞大模型的安全性,。例如,2023年某教育巨頭AI大模型因訓(xùn)練數(shù)據(jù)污染出現(xiàn)“毒教材”內(nèi)容,,導(dǎo)致市值大幅縮水,。在數(shù)據(jù)投毒方面,只需少量成本就能污染大型開(kāi)源數(shù)據(jù)集,,影響基于這些數(shù)據(jù)訓(xùn)練的大模型行為,。
初創(chuàng)大模型企業(yè)在安全開(kāi)發(fā)管理、數(shù)據(jù)保護(hù)體系,、安全對(duì)抗能力等方面存在明顯短板,,網(wǎng)絡(luò)安全防護(hù)技術(shù)滯后,傳統(tǒng)防護(hù)系統(tǒng)難以應(yīng)對(duì)復(fù)雜攻擊,。奇安信安全專家建議加強(qiáng)合規(guī)咨詢,、安全測(cè)試與評(píng)估、安全培訓(xùn),、應(yīng)急響應(yīng),、持續(xù)監(jiān)測(cè)等服務(wù)。
除了傳統(tǒng)的網(wǎng)絡(luò)安全和數(shù)據(jù)安全解決方案,,還會(huì)有專門針對(duì)大模型輸入輸出的內(nèi)容過(guò)濾產(chǎn)品,、模型保護(hù)安全產(chǎn)品、大模型倫理審核產(chǎn)品等,。
Gartner預(yù)測(cè),,到2025年,生成式AI的采用將導(dǎo)致企業(yè)機(jī)構(gòu)所需的網(wǎng)絡(luò)安全資源激增,,使應(yīng)用和數(shù)據(jù)安全支出增加15%以上,。網(wǎng)絡(luò)安全和數(shù)據(jù)安全已成為選擇數(shù)字技術(shù)時(shí)的重要考慮因素。
訓(xùn)練模型的系統(tǒng)平臺(tái)也存在安全風(fēng)險(xiǎn)隱患,,包括非授權(quán)訪問(wèn),、機(jī)器學(xué)習(xí)框架安全隱患、開(kāi)發(fā)工具鏈安全風(fēng)險(xiǎn)等,。在業(yè)務(wù)應(yīng)用層面,,大模型可能存在測(cè)試驗(yàn)證數(shù)據(jù)更新不及時(shí)的風(fēng)險(xiǎn),,以及生成違法不良信息、數(shù)據(jù)泄露,、用戶惡意使用等重點(diǎn)風(fēng)險(xiǎn),。
面對(duì)多樣化的AI攻擊形式,防御策略也需要相應(yīng)升級(jí),,利用AI驅(qū)動(dòng)的防御手段進(jìn)行攻擊面識(shí)別,、網(wǎng)絡(luò)入侵和威脅檢測(cè)。多名安全行業(yè)專家建議建立對(duì)抗性安全運(yùn)營(yíng)體系,,融合產(chǎn)品,、人員、手段和流程,,通過(guò)紅藍(lán)對(duì)抗檢驗(yàn)安全防護(hù)水平,,并利用AI大模型應(yīng)對(duì)新型攻擊。
大模型本身也需要對(duì)外提供服務(wù),,因此傳統(tǒng)的安全防護(hù)措施不可或缺,。比如使用防火墻、入侵檢測(cè),、抗DDoS硬件設(shè)備,,或者采用云抗D、云WAF等云服務(wù)保障大模型在網(wǎng)絡(luò),、數(shù)據(jù)和應(yīng)用層面的安全,。針對(duì)AI大模型特有的安全風(fēng)險(xiǎn),需要升級(jí)安全防護(hù)手段,,對(duì)prompt內(nèi)容進(jìn)行輸入過(guò)濾與驗(yàn)證,,利用對(duì)抗訓(xùn)練技術(shù)抵抗prompt攻擊,實(shí)時(shí)監(jiān)測(cè)與審查模型輸出內(nèi)容,,及時(shí)攔截有害信息,。
雖然安全措施可能增加計(jì)算成本,但通過(guò)技術(shù)創(chuàng)新可以實(shí)現(xiàn)安全與效率的平衡,。安全問(wèn)題是大模型企業(yè)的關(guān)鍵因素之一,,決定著大模型的上限。傳統(tǒng)互聯(lián)網(wǎng)巨頭在網(wǎng)絡(luò)安全和數(shù)據(jù)安全方面布局較早,,相對(duì)安全體系建設(shè)完善,,而初創(chuàng)公司出于成本考慮或經(jīng)驗(yàn)不足,安全體系建設(shè)相對(duì)落后,。若后續(xù)不能補(bǔ)足安全體系,,即使性能再好的模型產(chǎn)品也可能曇花一現(xiàn)。大模型的安全能力不僅關(guān)乎風(fēng)險(xiǎn)防控,,更是突破應(yīng)用天花板的關(guān)鍵,。