OpenAI 最近向社區(qū)分享了其謹慎、逐步部署 AI 模型的方法,,采取分階段發(fā)布的策略,,并以 GPT-2 的謹慎發(fā)布為例。然而,,這一示例引發(fā)了前 OpenAI 政策研究員 Miles Brundage 的批評,,他指責公司歪曲了 AI 安全的歷史。
OpenAI 發(fā)布的文件闡明了其對 AI 安全和模型部署的態(tài)度,。文件中強調,,公司在處理現有系統(tǒng)時始終保持謹慎,并提到 GPT-2 是其謹慎發(fā)布策略的一部分,。公司相信只有通過從現有工具中學習,,才能確保未來系統(tǒng)的安全。文件部分內容大意如下:在一個不連續(xù)的世界中,,安全的教訓來自于對當今系統(tǒng)的極度謹慎,,尤其是相對于它們表現出來的力量,這正是他們對 GPT-2 的方法?,F在將第一個 AGI 視為逐步增加有用性的系統(tǒng)中的一部分,,在連續(xù)的世界中,確保下一個系統(tǒng)安全且有益的方式是從當前系統(tǒng)中學習,。
Miles Brundage 堅稱,,GPT-2 的發(fā)布同樣采取了逐步推進的方式,OpenAI 在每個階段都分享了相關信息,,安全專家也認可公司在處理模型時的謹慎態(tài)度,。他認為,GPT-2 的逐步發(fā)布與公司當前的逐步部署策略一致,,并堅信過去的謹慎并非過度,,而是必要且負責任的。Brundage 表達了不滿和擔憂,,認為“AGI 分步實現而非一蹴而就”這一說法重寫了 GPT-2 的歷史,。他還指出,公司聲稱 AGI 將通過逐步發(fā)展而非突發(fā)突破的說法令人擔憂,。他表示,,OpenAI 發(fā)布該文件的目的可能是為安全問題設立標準,或將這些問題視為過度反應,可能帶來巨大風險,,尤其是在 AI 系統(tǒng)正在日益進步的當下,。
這不是 OpenAI 第一次因過度追求進步和利潤而忽視長期安全問題受到批評。像 Brundage 這樣的專家擔心,,如果不對 AI 安全保持謹慎,,未來可能面臨的風險將十分嚴重。