OpenAI AGI安全團隊已流失近半成員
8月30日,,有報道稱OpenAI在追求人工智能技術發(fā)展以惠及全球的同時,正面臨一個不容忽視的問題:大約一半專注于超級智能AI長期風險研究的專家已從該公司離職。這一情況引發(fā)了外界對OpenAI可能輕視AI安全性問題的關注。
據(jù)前治理研究員Daniel Kokotajlo透露,,近期OpenAI內(nèi)部負責AGI(通用人工智能)安全的團隊成員流失近半。這些研究人員的職責是確保未來誕生的AGI系統(tǒng)不會對人類生存構成潛在危險,。伴隨OpenAI業(yè)務重心向產(chǎn)品開發(fā)與商業(yè)化傾斜,,安全研究團隊規(guī)模的縮減令人擔憂。
Kokotajlo指出,,自2024年起,,該安全團隊的成員數(shù)已從約30人縮減至16人左右,他相信這一變化源于個人層面的信心缺失而非有組織的行動,。
針對上述擔憂,,OpenAI官方發(fā)言人強調(diào),公司致力于提供高效且安全的人工智能解決方案,,并自信具備科學應對相關風險的能力,。
另外,值得注意的是,,OpenAI的聯(lián)合創(chuàng)始人及首席科學家Ilya Sutskever今年早些時候宣布離職,,其領導的專注于安全挑戰(zhàn)的“超級對齊”團隊也隨之解散,進一步加劇了外界對于OpenAI內(nèi)部安全研究方向變動的猜測,。
OpenAI最近公布了一項關于通往人工通用智能(AGI)的五級路線圖,這一舉措被視為人工智能領域的一個重要進展,。
2024-07-25 17:49:21OpenAI五級AGI戰(zhàn)略遭吐槽