Ilya Sutskever,,前OpenAI的首席科學(xué)家,,于6月20日宣布成立一家新公司“Safe Superintelligence”,。這一舉動引發(fā)關(guān)注,,因?yàn)镾utskever在去年OpenAI內(nèi)部沖突中被視為關(guān)鍵人物,據(jù)說與CEO Sam Altman存在分歧,,并在事件中站在了Altman的對立面,。在隨后的幾個月里,盡管Sutskever退出了OpenAI的董事會,,但他保持低調(diào),直到現(xiàn)在宣布新公司專注于安全AI,,似乎是對OpenAI的公開挑戰(zhàn),,同時也進(jìn)一步證實(shí)了他與Altman不和的傳言,。
這不是第一次有OpenAI的核心成員另立門戶。2021年,,包括前研究副總裁Dario Amodei和安全政策副總裁Daniela Amodei在內(nèi)的七名關(guān)鍵員工離開了OpenAI,,創(chuàng)建了同樣強(qiáng)調(diào)安全性的Anthropic。就在Sutskever宣布新公司的同一天,,Anthropic推出了其新模型Claude 3.5 Sonnet,,據(jù)稱在多項(xiàng)性能測試中超越了OpenAI的旗艦產(chǎn)品GPT-4o。
OpenAI內(nèi)部的“創(chuàng)業(yè)自由”文化促進(jìn)了這種人才流動,,形成了復(fù)雜的硅谷人際網(wǎng)絡(luò),,被比喻為“OpenAI黑幫”。而“叛軍”如Anthropic,,不僅與OpenAI關(guān)系密切,,且持有不同理念,尤其在安全AI的發(fā)展方向上,。Sutskever的新公司SSI和Anthropic一樣,,直面安全性的挑戰(zhàn),顯示出與OpenAI不同的路徑選擇,。
追溯到去年那場戲劇化的OpenAI管理層變動,,Anthropic間接成為了導(dǎo)火索。前董事會成員Helen Toner在發(fā)表的一篇論文中比較了OpenAI和Anthropic,,暗示后者在安全性方面更勝一籌,,這引發(fā)了后續(xù)一系列事件,最終導(dǎo)致CEO Altman短暫離職后戲劇性回歸,,而Sutskever則選擇沉默退出董事會,。
Sutskever的新動向,標(biāo)志著“OpenAI叛軍”隊(duì)伍的擴(kuò)大,,也為AI領(lǐng)域的競爭增添了新的變數(shù),。盡管SSI的具體計(jì)劃尚未明確,Sutskever對于資金問題顯得信心滿滿,,而他對于如何實(shí)現(xiàn)真正的安全超級智能的探索,,無疑將為業(yè)界帶來新的視角和挑戰(zhàn)。隨著AI領(lǐng)域的競爭愈發(fā)激烈,,Sutskever,、Altman及眾多“出走英雄”各自秉持的信念和實(shí)踐,將繼續(xù)書寫AI發(fā)展史上的新篇章,。
當(dāng)?shù)貢r間6月29日,俄國防部發(fā)布消息稱,俄軍已控制頓涅茨克地區(qū)的舒梅定居點(diǎn),。
2024-06-30 06:13:51俄國防部