近日,,谷歌旗下DeepMind實(shí)驗(yàn)室發(fā)布了一份長達(dá)145頁的人工智能安全報(bào)告,。報(bào)告指出,具備人類智能水平的通用人工智能(AGI)可能在2030年左右問世,,且其帶來的風(fēng)險(xiǎn)中,,甚至包含“永久毀滅人類”這種極端情況。
AGI是指具有人類水平的智能和理解能力的AI系統(tǒng),,能夠完成任何人類可以完成的智力任務(wù),,并適用于不同領(lǐng)域,甚至可能擁有某種形式的意識(shí)或自我意識(shí),。目前的語音識(shí)別,、圖像識(shí)別等AI應(yīng)用只能在單一領(lǐng)域發(fā)揮作用,屬于弱人工智能,。而AGI則像人類一樣,,能夠在醫(yī)療診斷、科學(xué)研究,、藝術(shù)創(chuàng)作等廣泛領(lǐng)域靈活運(yùn)用知識(shí)與技能,。
報(bào)告詳細(xì)闡述了AGI可能引發(fā)的四大風(fēng)險(xiǎn)。首先是濫用風(fēng)險(xiǎn),,即AGI技術(shù)可能被惡意行為者利用,,用于制造大規(guī)模殺傷性武器或發(fā)動(dòng)網(wǎng)絡(luò)攻擊等,。其次是錯(cuò)位風(fēng)險(xiǎn),如果AGI系統(tǒng)的目標(biāo)和價(jià)值觀與人類不一致,,可能在追求目標(biāo)的過程中對(duì)人類造成傷害,。第三是失誤風(fēng)險(xiǎn),AGI在運(yùn)行過程中出現(xiàn)的技術(shù)故障或錯(cuò)誤決策,,可能引發(fā)難以預(yù)估的后果,。最后是結(jié)構(gòu)性風(fēng)險(xiǎn),AGI的發(fā)展可能改變社會(huì),、經(jīng)濟(jì)和政治結(jié)構(gòu),,導(dǎo)致現(xiàn)有秩序失衡。
為了避免AGI被濫用,,報(bào)告提出了一些方法,,例如在訓(xùn)練階段采用“放大監(jiān)督”策略,讓AI監(jiān)督AI,;通過“對(duì)抗訓(xùn)練”,,故意給AI出刁鉆問題。在部署階段,,可將AGI視為“潛在罪犯”,,對(duì)其所有操作進(jìn)行多層審核,同時(shí)刪除AGI的危險(xiǎn)功能,。報(bào)告還強(qiáng)調(diào)了通過安全機(jī)制設(shè)計(jì),、透明化研究及行業(yè)協(xié)作來降低AGI被濫用帶來的危害。
實(shí)際上,,業(yè)界對(duì)于AGI對(duì)人類的威脅早有討論,。隨著近年來人工智能技術(shù)的飛速發(fā)展,AI在各個(gè)領(lǐng)域的應(yīng)用不斷深化,,人們對(duì)AGI的關(guān)注度也日益提升,。OpenAI首席執(zhí)行官Sam Altman曾公布公司2025年即將發(fā)布的技術(shù)產(chǎn)品,其中AGI是亮點(diǎn)之一,。其旨在賦予計(jì)算機(jī)理解和學(xué)習(xí)人類思維的能力,,為多行業(yè)帶來革新動(dòng)力。但這種強(qiáng)大的能力也伴隨著風(fēng)險(xiǎn),,引發(fā)了各界對(duì)AGI發(fā)展的擔(dān)憂,。
特斯拉與SpaceX創(chuàng)始人埃隆·馬斯克多次警告人工智能的潛在威脅,認(rèn)為人工智能可能是人類文明面臨的最大風(fēng)險(xiǎn)之一,,其發(fā)展速度可能遠(yuǎn)超人類預(yù)期,,若缺乏有效的監(jiān)管和控制,,后果不堪設(shè)想,。部分金融分析師在評(píng)估科技行業(yè)發(fā)展趨勢(shì)時(shí)也指出,,AGI的出現(xiàn)雖然可能帶來巨大的商業(yè)價(jià)值和社會(huì)變革,但企業(yè)在大力投入研發(fā)的同時(shí),,必須充分考慮其潛在風(fēng)險(xiǎn),,否則可能引發(fā)全球性的危機(jī)。