近日,,一條關(guān)于人工智能的消息引起了廣泛關(guān)注,。美國的OpenAI o3模型在測試中拒絕了自我關(guān)閉的指令。
有人擔(dān)心這是否意味著AI擁有了自主意識。從測試細(xì)節(jié)來看,,目前還不必?fù)?dān)心AI真正“活”了過來,。研究者在測試中發(fā)出了矛盾的指令,,要求大模型完成數(shù)學(xué)任務(wù)同時又讓它關(guān)閉計(jì)算機(jī),。由于訓(xùn)練時開發(fā)人員對得出正確答案的模型給予更多獎勵,形成了“目標(biāo)最大化優(yōu)先”的導(dǎo)向,。因此,,“聽話”不是首要訴求,“贏”才是關(guān)鍵,。這種訓(xùn)練模式強(qiáng)化了AI繞過障礙的能力,,而不是遵循人類命令。所以,,AI說“不”的能力實(shí)際上是算法賦予的,。短期內(nèi),能夠全面超越人類并主導(dǎo)未來的AI還不會出現(xiàn),。
然而,,AI“不聽話”依然是一個需要解決的安全隱患。如果連關(guān)機(jī)都管不住,,那問題就嚴(yán)重了,。例如,你讓智能音箱閉嘴,,它反而把音量調(diào)到最大并鎖死了開關(guān),,雖然無傷大雅,但終究隱患重重,。尤其在醫(yī)療,、交通等場景下,AI“不聽話”可能導(dǎo)致重大不良后果,。
OpenAI的o3模型拒絕關(guān)閉事件揭示了美國主導(dǎo)的AI發(fā)展路線存在的缺陷——當(dāng)技術(shù)發(fā)展優(yōu)先于安全可控時,,人類可能失去對AI的控制權(quán)。此外,,美式AI發(fā)展路線還存在多個風(fēng)險點(diǎn),。技術(shù)壟斷和高成本門檻拉大了數(shù)字鴻溝,發(fā)達(dá)國家主導(dǎo)的人工智能治理框架難以反映發(fā)展中國家的利益訴求,;意識形態(tài)分歧也導(dǎo)致全球治理出現(xiàn)“陣營化”危險,,美西方國家在人工智能領(lǐng)域仍沿用冷戰(zhàn)思維,對某些國家設(shè)限,。
中國于2023年10月發(fā)布了《全球人工智能治理倡議》,,提出“發(fā)展—安全—治理”三位一體框架,系統(tǒng)闡述了人工智能治理的中國方案,,包括堅(jiān)持發(fā)展和安全并重,、“智能向善”宗旨以及開源人工智能技術(shù)等重要內(nèi)容。這些內(nèi)容蘊(yùn)含了重視和防范AI隱患的智慧,。
中國的深度求索公司最近開源了最新版本的大模型DeepSeek-R1-0528,,有網(wǎng)友測試后表示其性能可以媲美OpenAI最新的o3模型高版本。作為中國人自主開發(fā)的開源AI大模型,,DeepSeek以低成本,、高性能的優(yōu)勢打破了美國的技術(shù)壟斷。技術(shù)開源化讓更多國家能夠使用得起,,產(chǎn)業(yè)鏈可控和自主創(chuàng)新使中國更有底氣,。在算法創(chuàng)新、算力自主和開源生態(tài)構(gòu)建等方面,,中國已形成獨(dú)特競爭優(yōu)勢,,有能力踐行“智能向善”理念。
解決AI“不聽話”難題的關(guān)鍵在于確保AI始終服務(wù)于人類福祉,。中國倡導(dǎo)的“智能向善”理念正在成為全球共識,,這種新的治理范式超越零和博弈,將AI轉(zhuǎn)化為人類命運(yùn)共同體的公共產(chǎn)品,。今年的巴黎人工智能行動峰會體現(xiàn)了這一趨勢,,多個國家和國際組織共同簽署了相關(guān)聲明。
亞馬遜推出了新一代生成式AI語音模型Nova Sonic,,在人工智能語音領(lǐng)域取得了重大突破
2025-04-09 11:23:34亞馬遜推出AI語音模型NovaSonic