10月18日,,多個微信群流傳一則消息:某頭部大廠的大模型訓練被實習生入侵,,注入了破壞代碼,導致其訓練成果不可靠,,可能需要重新訓練,。據(jù)稱遭到入侵的代碼影響了8000多張卡,帶來的損失可能超過千萬美元,。
知情人士透露,,該頭部大廠為字節(jié)跳動。事件發(fā)生在2023年6月,,起因是一名在字節(jié)跳動商業(yè)化技術團隊實習的高校博士生對團隊資源分配不滿,,使用攻擊代碼破壞團隊的模型訓練任務。
向字節(jié)跳動求證此事時,,官方未進行回應,。傳聞中提到,這名田姓實習生利用HF(huggingface)的漏洞,,在公司的共享模型里寫入破壞代碼,,導致模型訓練效果不穩(wěn)定,無法達到預期效果,,且AML團隊無法查明原因,。但該實習生在某微信群里辟謠,稱自己發(fā)完論文后已從字節(jié)跳動離職,此時有人鉆漏洞改模型代碼,,并將責任推到他頭上,。
據(jù)知情人士了解,字節(jié)跳動內部調查確認此事確為田姓實習生所為,。目前,,該實習生已被辭退,字節(jié)跳動將此事同步給陽光誠信聯(lián)盟和企業(yè)反舞弊聯(lián)盟,,以及該實習生所在的學校,。盡管如此,這名實習生被辭退后仍在四處“辟謠”,,堅稱是他人所為,。
實際上,該實習生攻擊的是商業(yè)化技術團隊的模型訓練任務,,而非豆包大模型,。這影響了該技術團隊的一些業(yè)務進展,但對公司造成的實際損失并未如傳聞中的那么嚴重,。
一位技術安全專家指出,,此次事件暴露出字節(jié)跳動在技術訓練方面存在安全管理問題。公司既沒有做好權限隔離,,也沒有進行共用代碼的審計,。正常情況下,每次大的代碼變動都必須經過審計,,確保操作有跡可循,。行業(yè)通用的做法是采用三級隔離導向性部署,每一級只有鏡像,,每次調用前需先掃描并使用密鑰,,完成一級后才能進入下一級,而上一級則自動刪除,。
5月15日,,在火山引擎原動力大會上,字節(jié)跳動正式推出了豆包大模型
2024-05-15 11:23:07字節(jié)跳動:豆包大模型每日生成圖片3000萬張