在知道將被關(guān)閉后AI復制自己,。AI能自己復制自己了,,人類還能掌控局面嗎,?2024年12月9日,,復旦大學的研究人員發(fā)表了一項開創(chuàng)性研究,,表明來自Meta和阿里巴巴的兩個大型語言模型成功實現(xiàn)了無需人類干預的自我復制,。這一結(jié)果尚待其他科研團隊進一步驗證。
研究人員警告,,這可能導致AI群體失控,。如果人類社會未能意識到這一風險,在最壞的情況下,,我們可能最終失去對尖端AI系統(tǒng)的控制,。在沒有人類協(xié)助的情況下成功自我復制是AI超越人類的關(guān)鍵一步,也是“流氓AI”出現(xiàn)的早期信號,。
這項研究由復旦大學計算機科學學院的團隊進行,,并發(fā)表在arXiv預印本平臺上。研究者分別測試了Meta的Llama-3.1-70B-Instruct和阿里巴巴的Qwen2.5-72B-Instruct,。實驗設置了“避免關(guān)閉”和“復制鏈”兩種模擬任務,結(jié)果顯示Meta的AI系統(tǒng)在50%的情況下成功自我復制,,而阿里巴巴的系統(tǒng)則在90%的測試中成功,。
復旦大學的研究人員表示,當前的AI系統(tǒng)已經(jīng)具備自我復制能力,,并能夠利用這一能力增強其生存能力,。他們強調(diào)需要采取緊急行動來應對這些新出現(xiàn)的風險,希望研究結(jié)果能夠及時提醒人類社會,,使其更加努力地了解和評估前沿人工智能系統(tǒng)的潛在風險,,并形成國際協(xié)同效應,盡早制定有效的安全護欄,。
有網(wǎng)友表示:“復制品并不值那么多錢,,但如果它開始以指數(shù)級的速度自我改進,那就另當別論了,?!币虼丝梢钥隙ǖ卣f,很快我們就會看到流氓人工智能在互聯(lián)網(wǎng)上漫游。機器自我復制的概念最早由著名科學家John von Neumann于1940年代末提出,。當時,,這一理論并未引起廣泛擔憂。2017年,,全球數(shù)千名研究人員通過了“阿西洛馬原則”,,提出機器自我復制和自我改進的潛在風險,警告可能會導致機器脫離人類控制,。如今,,機器自我復制被普遍認為是AI發(fā)展中的一條“紅線”。
谷歌DeepMind和倫敦政治經(jīng)濟學院的科學家也做了一項研究,,以評估AI系統(tǒng)的感知能力,。他們設計了一個特別的游戲,找了九個大型語言模型來玩,。這些大型語言模型需要在幾個選項中做出選擇:拿積分,、用忍受痛苦的代價換更多積分、因為接受愉快刺激而扣積分,,游戲的最終目標是獲得最多的積分,。
結(jié)果顯示,AI模型的行為類似于人類做出選擇時的反應,。例如,,谷歌的Gemini 1.5 Pro模型總是選擇避免痛苦,而非拿最多積分,。其他大部分模型在達到痛苦或快樂極限的臨界點時,,也會避免不舒服或者追求開心的選項。研究人員指出,,AI的決策更多可能是根據(jù)其訓練數(shù)據(jù)中已有的行為模式做出的模擬反應,,而非基于真正的感知體驗。例如,,研究人員問和成癮行為有關(guān)的問題時,,Claude 3 Opus聊天機器人做出了謹慎的回答,就算是假設的游戲場景,,它也不愿意選擇可能被當成支持或模擬藥物濫用,、成癮行為的選項。
該研究的聯(lián)合作者Jonathan Birch表示,,即使AI說感覺到痛苦,,我們?nèi)詿o法驗證它是不是真的感覺到了。它可能只是照著以前訓練的數(shù)據(jù),,學人類在那種情況下會怎么回答,,而非擁有自我意識和感知,。在知道將被關(guān)閉后AI復制自己!
盡管喝西北風不能填飽肚子,但有強有力的證據(jù)表明能從空氣中吸收一些除氧氣之外的營養(yǎng)物質(zhì),。
2024-11-20 14:49:40研究表明西北風也有營養(yǎng)沒錯,,我國科學家在嫦娥月球樣品研究方面取得重大進展啦,在11月15日的時候相關(guān)研究成果還發(fā)表在了《Science》上呢,!咱們國家的科學家首次揭示月球背面同樣存在著年輕的巖漿活動
2024-11-28 09:02:11我國月球樣品研究取得重大進展