原標題:馬斯克等千名科技人士發(fā)公開信:暫停訓練比GPT-4更強大的AI系統(tǒng)
最近幾天,人工智能風險引發(fā)了多位科技領(lǐng)袖的深切擔憂,。
首先是被稱為“人工智能教父”的杰弗里·辛頓(Geoffrey Hinton),他上周在接受哥倫比亞廣播公司采訪時表示,,人工智能可能發(fā)展到對人類構(gòu)成威脅“并非不可想象”的地步,。
隨后,,AI“大牛”蓋瑞·馬庫斯(Gary Marcus)3月27日發(fā)推響應(yīng)辛頓,,28日又發(fā)表題為“人工智能風險≠通用人工智能風險”的文章,,稱超級智能可能會也可能不會迫在眉睫,但在短期內(nèi),,需要擔心“MAI(平庸人工智能)風險”,。
27日,推特CEO伊隆·馬斯克也加入進來,,表達對辛頓和馬庫斯的贊同,。
馬斯克在社交網(wǎng)絡(luò)上與杰弗里·辛頓和蓋瑞·馬庫斯互動。
29日,,未來生命研究所(Future of Life Institute)公布一封公開信,,呼吁所有AI實驗室立即暫停訓練比GPT-4更強大的AI系統(tǒng)至少6個月。
辛頓,、馬庫斯和馬斯克均簽署了這封公開信,。
“加快開發(fā)強大的AI治理系統(tǒng)”
未來生命研究所的這封公開信題為“暫停巨型AI實驗:一封公開信”,于29日解封,。
未來生命研究所的公開信已有1079人簽署,。
信中寫道:
廣泛的研究表明,具有與人類競爭智能的人工智能系統(tǒng)可能對社會和人類構(gòu)成深遠的風險,,這一觀點得到了頂級人工智能實驗室的承認,。
正如廣泛認可的“阿西洛馬人工智能原則(Asilomar AI Principles,阿西莫夫的機器人三大法則的擴展版本,,于2017年由近千名人工智能和機器人專家簽署)中所述,,高級AI可能代表地球生命史上的深刻變化,應(yīng)該以相應(yīng)的關(guān)照和資源進行規(guī)劃和管理,。
不幸的是,,這種級別的規(guī)劃和管理并沒有發(fā)生,盡管最近幾個月人工智能實驗室陷入了一場失控的競賽,,以開發(fā)和部署更強大的數(shù)字思維,,沒有人——甚至他們的創(chuàng)造者——能理解、預測或可靠地控制,。
“當代人工智能系統(tǒng)現(xiàn)在在一般任務(wù)上變得與人類具有競爭力,,我們必須捫心自問:我們是否應(yīng)該讓機器用宣傳和謊言充斥我們的信息渠道?我們是否應(yīng)該自動化所有工作,,包括令人滿意的工作,?我們是否應(yīng)該發(fā)展最終可能比我們更多、更聰明,,淘汰并取代我們的非人類思維,?我們應(yīng)該冒險失去對我們文明的控制嗎,?”這封信寫道,“只有當我們確信它們的影響是積極的并且風險是可控的時候,,才應(yīng)該開發(fā)強大的人工智能系統(tǒng),。這種信心必須有充分的理由,并隨著系統(tǒng)潛在影響的規(guī)模而增加,。OpenAI最近關(guān)于通用人工智能的聲明指出,,‘在某些時候,在開始訓練未來的系統(tǒng)之前進行獨立審查可能很重要,,并且對于最先進的工作來說,,應(yīng)該同意限制用于創(chuàng)建新模型的計算量增長?!覀兺?。那個某些時候就是現(xiàn)在?!?/p>
這封信呼吁,,所有人工智能實驗室立即暫停訓練比GPT-4更強大的人工智能系統(tǒng)至少6個月。
這種暫停應(yīng)該是公開的和可驗證的,,并且包括所有關(guān)鍵參與者,。
如果不能迅速實施這種暫停,政府應(yīng)介入并實行暫停,。
人工智能實驗室和獨立專家應(yīng)該利用這次暫停,,共同開發(fā)和實施一套用于高級人工智能設(shè)計和開發(fā)的共享安全協(xié)議,并由獨立的外部專家進行嚴格審計和監(jiān)督,。
這些協(xié)議應(yīng)確保遵守它們的系統(tǒng)是安全的,,并且無可置疑。
這并不意味著總體上暫停AI開發(fā),,只是緊急從奔向不可預測的大型黑盒模型的危險競賽中收回腳步,。
與此同時,信中指出,,AI開發(fā)人員必須與政策制定者合作,,以顯著加快開發(fā)強大的AI治理系統(tǒng)。
至少應(yīng)包括:建立專門負責AI的有能力的新監(jiān)管機構(gòu),;監(jiān)督和跟蹤高性能人工智能系統(tǒng)和大量計算能力,;推出標明來源系統(tǒng)和水印系統(tǒng),以幫助區(qū)分真實與合成,,并跟蹤模型泄漏,;強大的審計和認證生態(tài)系統(tǒng);界定人工智能造成的傷害的責任;為人工智能技術(shù)安全研究提供強大的公共資金,;以資源充足的機構(gòu)來應(yīng)對人工智能將造成的巨大經(jīng)濟和政治破壞(尤其是對民主的破壞),。
這封信最后寫道,“人類可以享受人工智能帶來的繁榮未來,。成功創(chuàng)建強大的AI系統(tǒng)后,我們現(xiàn)在可以享受‘AI之夏’,,收獲回報,,設(shè)計這些系統(tǒng)以造福所有人,并為社會提供適應(yīng)的機會,。社會已經(jīng)暫停其他可能對社會造成災難性影響的技術(shù),。我們可以在這個領(lǐng)域也這樣做。讓我們享受一個漫長的AI之夏,,而不是毫無準備地陷入秋天,。”
未來生命研究所建立于2014年,,是一個非營利組織,,由一系列個人和組織資助,使命是引導變革性技術(shù)遠離極端,、大規(guī)模的風險,,轉(zhuǎn)向造福生活。
截至發(fā)稿,,這封信已有1079名科技領(lǐng)袖和研究人員簽名,,除了馬斯克、辛頓和馬庫斯之外,,還包括圖靈獎得主約書亞·本希奧(Yoshua Bengio),、《人工智能:現(xiàn)代方法》作者斯圖爾特·羅素(Stuart Russell)、蘋果公司聯(lián)合創(chuàng)始人史蒂夫·沃茲尼亞克(Steve Wozniak),、Stability AI首席執(zhí)行官埃馬德·莫斯塔克(Emad Mostaque)等科技界領(lǐng)袖人物,。
“可能導致核戰(zhàn)爭和更嚴重的疫情”
28日,馬庫斯在寫作平臺Substack上寫道,,一位同事寫信給他問道:“這封(公開)信不會造成對即將到來的AGI(通用人工智能),、超級智能等的無端恐懼嗎?”
美國作家,、紐約大學教授加里·馬庫斯,。
馬庫斯解釋道,“我仍然認為大型語言模型與超級智能或通用人工智能沒有太大關(guān)系,;我仍然認為,,與楊立昆(Yann LeCun)一樣,大型語言模型是通向通用人工智能道路上的一個‘出口’,。我對厄運的設(shè)想可能與辛頓或馬斯克不同,;他們的(據(jù)我所知)似乎主要圍繞著如果計算機快速而徹底地自我改進會發(fā)生什么,,我認為這不是一個直接的可能性?!?/p>
人工智能風險與通用人工智能風險,。
但是,盡管許多文獻將人工智能風險等同于超級智能或通用人工智能風險,,但不一定非要超級智能才能造成嚴重問題,。“我現(xiàn)在并不擔心‘AGI風險’(我們無法控制的超級智能機器的風險),,在短期內(nèi)我擔心的是‘MAI風險’——平庸人工智能(Mediocre AI)是不可靠的(比如必應(yīng)和GPT-4)但被廣泛部署——無論是就使用它的人數(shù)而言,,還是就世界對軟件的訪問而言。一家名為Adept.AI的公司剛剛籌集了3.5億美元來做到這一點,,以允許大型語言模型訪問幾乎所有內(nèi)容(旨在通過大型語言模型‘增強你在世界上任何軟件工具或API上的能力’,,盡管它們有明顯的幻覺和不可靠傾向)?!?/p>
馬庫斯認為,,許多普通人也許智力高于平均水平,但不一定是天才,,在整個歷史中也制造過各種各樣的問題,。
在許多方面,起關(guān)鍵作用的不是智力而是權(quán)力,。
一個擁有核代碼的白癡就可以摧毀世界,,只需要適度的情報和不應(yīng)該得到的訪問權(quán)限。
現(xiàn)在,,AI工具已經(jīng)引起了犯罪分子的興趣,,越來越多地被允許進入人類世界,它們可能造成更大的破壞,。
歐洲刑警組織27日發(fā)布一份報告,,對采用ChatGPT類工具進行犯罪的可能性進行了討論,令人警醒,?!按笮驼Z言模型檢測和重現(xiàn)語言模式的能力不僅有助于網(wǎng)絡(luò)釣魚和在線欺詐,而且通常還可以用來冒充特定個人或群體的講話風格,。這種能力可能會被大規(guī)模濫用,,以誤導潛在受害者將他們的信任交給犯罪分子?!边@份報告寫道,,“除了上述犯罪活動外,ChatGPT的功能還有助于處理恐怖主義、政治宣傳和虛假信息領(lǐng)域的許多潛在濫用案件,。因此,,該模型通常可用于收集更多可能促進恐怖活動的信息,,例如恐怖主義融資或匿名文件共享,。”
馬庫斯認為,,再加上人工智能生成的大規(guī)模宣傳,,被大型語言模型增強的恐怖主義可能導致核戰(zhàn)爭,或者導致比新冠病毒更糟糕的病原體的故意傳播等,。
許多人可能會死亡,文明可能會被徹底破壞,。
也許人類不會真的“從地球上消失”,,但事情確實會變得非常糟糕。
“人工智能教父”杰弗里·辛頓在接受哥倫比亞廣播公司采訪時表示,,人工智能可能發(fā)展到對人類構(gòu)成威脅“并非不可想象”的地步,。
上周在哥倫比亞廣播公司的采訪中,“人工智能教父”辛頓被問及人工智能“消滅人類”的可能性時說,,“我認為這并非不可想象,。我只想說這些?!?/p>
馬庫斯指出,,相比辛頓和馬斯克擔憂天網(wǎng)和機器人接管世界,應(yīng)該更多思考眼前的風險,,包括恐怖分子在內(nèi)的犯罪分子可能對大型語言模型做什么,,以及如何阻止他們。
高盛研究報告:AI或致全球3億人“丟飯碗”
ChatGPT迭代升級的腳步加快,,很多人失業(yè)的恐懼也越來越重,。高盛分析師布里格斯和庫達尼在3月27日發(fā)布的研究報告中就直面了這一問題。
高盛這份報告稱,,全球預計將有3億個工作崗位最終被AI取代,。不過在很多人丟掉飯碗的同時,AI在未來能極大提高生產(chǎn)力也是不爭的事實,。報告預計在下一個十年間,,全球GDP每年將達到7%的超高增長率。
歐美三分之二的工作將受影響
報告稱:“最近出現(xiàn)的生成式人工智能將降低勞動力成本和提高生產(chǎn)率,。盡管AI的潛力存在很大的不確定性,,但它可以生成與人類創(chuàng)造成果無法區(qū)分的內(nèi)容,并能打破人機溝通障礙,反映出具有潛在巨大宏觀經(jīng)濟影響的重大進步,。AI不僅節(jié)省勞動力成本,,還能創(chuàng)造新的就業(yè)機會以及提高在崗工人的生產(chǎn)率。AI的革命性就像早期通用技術(shù)(如發(fā)電機和個人計算機)一樣能為社會帶來繁榮,?!?/p>
高盛研究發(fā)現(xiàn),目前歐美約有三分之二的工作崗位都在某種程度上受到AI自動化趨勢的影響,,而多達四分之一的當前崗位有可能最終被完全取代,。該研究計算出美國 63%的工作暴露在“AI影響范圍”中,其中7%的工作有一半以上的流程可以由AI自動化完成,,這使他們很容易馬上被人工智能取代,。在歐洲,情況也差不多,。
高盛認為AI技術(shù)可以執(zhí)行的任務(wù)包括為小企業(yè)完成納稅申報,、評估保險索賠和記錄犯罪現(xiàn)場調(diào)查的結(jié)果。但更復雜的工作崗位預計仍將由人類獨占,,比如做出法庭裁決和檢查危重病人的健康狀況等工作就不太可能被人工智能取代,。建筑工人等在戶外從事體力勞動的角色也不太可能受到影響。
英國媒體認為該報告可能會加劇許多白領(lǐng)的擔憂:這次AI浪潮中受到最劇烈影響的便是白領(lǐng)階層,,就像上世紀80年代工廠自動化讓很多藍領(lǐng)工人丟掉工作,。
AI不當使用引人擔憂
在很多人為AI提升工作效率感到振奮的同時,也有聲音擔憂人工智能成為犯罪的工具,。上周歐洲刑警組織警告說,,生成式AI的快速發(fā)展可能會使其成為“未來的主要犯罪商業(yè)模式”。
歐洲刑警組織引用的例子包括AI被用來創(chuàng)建極具欺騙性的“深度造假內(nèi)容”,,比如制造出未發(fā)生事件的虛假圖像或視頻,。同時,聊天機器人也可能欺騙毫無戒心的人泄露個人信息,。
歐洲刑警組織報告指出,,ChatGPT未來或被用于網(wǎng)絡(luò)釣魚等犯罪行為。網(wǎng)絡(luò)釣魚是指它通過發(fā)送虛假電子郵件來誘使用戶點擊鏈接,。在過去由于語法錯誤或語言風格不對,,這些騙局很容易被人識破,而人工智能生成的文本內(nèi)容高度逼真,,加大了騙局被識破的難度,。
由于ChatGPT擁有復制語言模式的能力,可以模仿特定個人或群體的說話風格,,犯罪分子可能會利用它來瞄準受害者,。與此同時,,缺乏技術(shù)知識的犯罪分子還可能會利用ChatGPT來生成惡意代碼。
華聲在線9月27日訊(全媒體記者丁鵬志見習記者曾冠霖)9月27日,張家界天門山景區(qū)一名男性游客突然暈倒,,意識模糊,。
2023-09-28 10:12:30游客暈倒專家現(xiàn)場救治原標題:全面禁放煙花爆竹不合法,!法學專家呼吁將更多選擇權(quán)交給民眾央視網(wǎng)消息(記者/楊繹霏):已至年末,是否解禁煙花燃放再次成為公眾討論的熱門話題,。
2023-12-31 10:42:24全面禁放煙花爆竹不合法,!法學專家呼吁將更多選擇權(quán)交給民眾本文轉(zhuǎn)自【澎湃新聞】,;近日,美國國家航空航天局(NASA)旗下團隊經(jīng)過一年的研究,,發(fā)表了針對不明飛行物(UFO)等異常現(xiàn)象的報告,。
2023-09-16 15:30:14NASA宣布用AI研究UFO