10月18日,多個微信群流傳一則消息:某頭部大廠的大模型訓練被實習生入侵,,注入了破壞代碼,,導致其訓練成果不可靠,可能需要重新訓練,。據(jù)稱遭到入侵的代碼影響了8000多張卡,,帶來的損失可能超過千萬美元。
知情人士透露,,該頭部大廠為字節(jié)跳動,。事件發(fā)生在2023年6月,起因是一名在字節(jié)跳動商業(yè)化技術團隊實習的高校博士生對團隊資源分配不滿,,使用攻擊代碼破壞團隊的模型訓練任務,。
向字節(jié)跳動求證此事時,,官方未進行回應。傳聞中提到,,這名田姓實習生利用HF(huggingface)的漏洞,,在公司的共享模型里寫入破壞代碼,導致模型訓練效果不穩(wěn)定,,無法達到預期效果,,且AML團隊無法查明原因。但該實習生在某微信群里辟謠,,稱自己發(fā)完論文后已從字節(jié)跳動離職,,此時有人鉆漏洞改模型代碼,并將責任推到他頭上,。
據(jù)知情人士了解,,字節(jié)跳動內(nèi)部調(diào)查確認此事確為田姓實習生所為。目前,,該實習生已被辭退,,字節(jié)跳動將此事同步給陽光誠信聯(lián)盟和企業(yè)反舞弊聯(lián)盟,以及該實習生所在的學校,。盡管如此,,這名實習生被辭退后仍在四處“辟謠”,堅稱是他人所為,。
實際上,,該實習生攻擊的是商業(yè)化技術團隊的模型訓練任務,而非豆包大模型,。這影響了該技術團隊的一些業(yè)務進展,,但對公司造成的實際損失并未如傳聞中的那么嚴重。
一位技術安全專家指出,,此次事件暴露出字節(jié)跳動在技術訓練方面存在安全管理問題,。公司既沒有做好權限隔離,也沒有進行共用代碼的審計,。正常情況下,,每次大的代碼變動都必須經(jīng)過審計,確保操作有跡可循,。行業(yè)通用的做法是采用三級隔離導向性部署,,每一級只有鏡像,每次調(diào)用前需先掃描并使用密鑰,,完成一級后才能進入下一級,,而上一級則自動刪除。
5月15日,,在火山引擎原動力大會上,,字節(jié)跳動正式推出了豆包大模型
2024-05-15 11:23:07字節(jié)跳動:豆包大模型每日生成圖片3000萬張