原標題:馬斯克等千名科技人士發(fā)公開信:暫停訓練比GPT-4更強大的AI系統(tǒng)
最近幾天,人工智能風險引發(fā)了多位科技領袖的深切擔憂,。
首先是被稱為“人工智能教父”的杰弗里·辛頓(Geoffrey Hinton),,他上周在接受哥倫比亞廣播公司采訪時表示,,人工智能可能發(fā)展到對人類構成威脅“并非不可想象”的地步,。
隨后,AI“大?!鄙w瑞·馬庫斯(Gary Marcus)3月27日發(fā)推響應辛頓,,28日又發(fā)表題為“人工智能風險≠通用人工智能風險”的文章,稱超級智能可能會也可能不會迫在眉睫,,但在短期內(nèi),,需要擔心“MAI(平庸人工智能)風險”。
27日,,推特CEO伊隆·馬斯克也加入進來,,表達對辛頓和馬庫斯的贊同。
馬斯克在社交網(wǎng)絡上與杰弗里·辛頓和蓋瑞·馬庫斯互動,。
29日,,未來生命研究所(Future of Life Institute)公布一封公開信,呼吁所有AI實驗室立即暫停訓練比GPT-4更強大的AI系統(tǒng)至少6個月,。
辛頓,、馬庫斯和馬斯克均簽署了這封公開信。
“加快開發(fā)強大的AI治理系統(tǒng)”
未來生命研究所的這封公開信題為“暫停巨型AI實驗:一封公開信”,,于29日解封,。
未來生命研究所的公開信已有1079人簽署。
信中寫道:
廣泛的研究表明,,具有與人類競爭智能的人工智能系統(tǒng)可能對社會和人類構成深遠的風險,,這一觀點得到了頂級人工智能實驗室的承認。
正如廣泛認可的“阿西洛馬人工智能原則(Asilomar AI Principles,,阿西莫夫的機器人三大法則的擴展版本,,于2017年由近千名人工智能和機器人專家簽署)中所述,高級AI可能代表地球生命史上的深刻變化,,應該以相應的關照和資源進行規(guī)劃和管理,。
白宮專家:美國將在未來幾個月與中國就AI系統(tǒng)安全議題展開合作面對人工智能(AI)技術快速發(fā)展帶來的風險與挑戰(zhàn),,業(yè)界一直期待中美這兩個領先國家能夠攜手合作,。
2024-01-26 11:42:57白宮專家:美國將在未來幾個月與中國就AI系統(tǒng)安全議題展開合作華聲在線9月27日訊(全媒體記者丁鵬志見習記者曾冠霖)9月27日,,張家界天門山景區(qū)一名男性游客突然暈倒,,意識模糊。
2023-09-28 10:12:30游客暈倒專家現(xiàn)場救治原標題:全面禁放煙花爆竹不合法,!法學專家呼吁將更多選擇權交給民眾央視網(wǎng)消息(記者/楊繹霏):已至年末,是否解禁煙花燃放再次成為公眾討論的熱門話題,。
2023-12-31 10:42:24全面禁放煙花爆竹不合法,!法學專家呼吁將更多選擇權交給民眾本文轉自【澎湃新聞】;近日,,美國國家航空航天局(NASA)旗下團隊經(jīng)過一年的研究,,發(fā)表了針對不明飛行物(UFO)等異常現(xiàn)象的報告,。
2023-09-16 15:30:14NASA宣布用AI研究UFO