OpenAI 最近向社區(qū)分享了其謹慎,、逐步部署 AI 模型的方法,采取分階段發(fā)布的策略,,并以 GPT-2 的謹慎發(fā)布為例,。然而,這一示例引發(fā)了前 OpenAI 政策研究員 Miles Brundage 的批評,,他指責公司歪曲了 AI 安全的歷史,。
OpenAI 發(fā)布的文件闡明了其對 AI 安全和模型部署的態(tài)度。文件中強調(diào),,公司在處理現(xiàn)有系統(tǒng)時始終保持謹慎,,并提到 GPT-2 是其謹慎發(fā)布策略的一部分。公司相信只有通過從現(xiàn)有工具中學習,,才能確保未來系統(tǒng)的安全,。文件部分內(nèi)容大意如下:在一個不連續(xù)的世界中,安全的教訓來自于對當今系統(tǒng)的極度謹慎,,尤其是相對于它們表現(xiàn)出來的力量,,這正是他們對 GPT-2 的方法。現(xiàn)在將第一個 AGI 視為逐步增加有用性的系統(tǒng)中的一部分,,在連續(xù)的世界中,,確保下一個系統(tǒng)安全且有益的方式是從當前系統(tǒng)中學習。
Miles Brundage 堅稱,,GPT-2 的發(fā)布同樣采取了逐步推進的方式,,OpenAI 在每個階段都分享了相關信息,安全專家也認可公司在處理模型時的謹慎態(tài)度,。他認為,,GPT-2 的逐步發(fā)布與公司當前的逐步部署策略一致,并堅信過去的謹慎并非過度,,而是必要且負責任的,。Brundage 表達了不滿和擔憂,認為“AGI 分步實現(xiàn)而非一蹴而就”這一說法重寫了 GPT-2 的歷史,。他還指出,,公司聲稱 AGI 將通過逐步發(fā)展而非突發(fā)突破的說法令人擔憂。他表示,,OpenAI 發(fā)布該文件的目的可能是為安全問題設立標準,,或?qū)⑦@些問題視為過度反應,可能帶來巨大風險,尤其是在 AI 系統(tǒng)正在日益進步的當下,。
這不是 OpenAI 第一次因過度追求進步和利潤而忽視長期安全問題受到批評,。像 Brundage 這樣的專家擔心,,如果不對 AI 安全保持謹慎,,未來可能面臨的風險將十分嚴重。