gpt4o可在232毫秒內(nèi)對(duì)音頻做出反應(yīng)
5月14日凌晨,,OpenAI揭曉了最新的旗艦?zāi)P汀狦PT-4o,,這一模型實(shí)現(xiàn)了音頻、視覺及文本的即時(shí)推理能力,。這標(biāo)志著ChatGPT的功能得到顯著擴(kuò)展,,現(xiàn)可支持50種語言的處理,,展現(xiàn)了強(qiáng)大的多語言能力。
GPT-4o中的“o”象征著“全能”(omni),,這個(gè)詞根源于拉丁文“omnis”,,在英文中常作為前綴,傳達(dá)“全面”或“無所不包”的意涵,。OpenAI的研發(fā)團(tuán)隊(duì)在演示中,,首先以一種生活化的場(chǎng)景展現(xiàn)了GPT-4o的實(shí)時(shí)語音互動(dòng)能力。面對(duì)演示者略顯緊張的自述,ChatGPT迅速以鼓勵(lì)和實(shí)用建議回應(yīng),,展現(xiàn)出對(duì)人類情緒的細(xì)膩理解和適時(shí)的安撫能力,。
技術(shù)層面,GPT-4o的響應(yīng)速度驚人,,僅需232毫秒即可對(duì)音頻指令作出反饋,,平均響應(yīng)時(shí)間也僅為320毫秒,堪比人類的反應(yīng)速度,。它不僅能夠迅速理解語言信息,,還能從非言語的信號(hào)中捕捉情感,如通過急促的呼吸聲辨識(shí)出緊張情緒,,并給予相應(yīng)的心理引導(dǎo),。gpt4o可在232毫秒內(nèi)對(duì)音頻做出反應(yīng)。
另一項(xiàng)演示中,,GPT-4o扮演起“在線輔導(dǎo)老師”的角色,,通過攝像頭接收手寫方程圖片后,分步驟提供解題思路而非直接給出答案,,體現(xiàn)了其在教育輔助方面的潛力,。
GPT-4o的發(fā)布引發(fā)了廣泛贊嘆,它對(duì)人類情感和語氣的深刻理解,,使得與之交互仿若與真人交流,,讓人不禁聯(lián)想到電影《鋼鐵俠》中的智能助手“賈維斯”。
巧合的是,,谷歌緊隨其后,,計(jì)劃在其年度I/O大會(huì)上推出新的語音助手及其他AI創(chuàng)新產(chǎn)品,預(yù)示著人工智能領(lǐng)域的競(jìng)爭(zhēng)將進(jìn)一步加劇,。
新華社河內(nèi)12月12日電(記者劉華馬崢)當(dāng)?shù)貢r(shí)間12月12日中午,,中共中央總書記,、國(guó)家主席習(xí)近平乘專機(jī)抵達(dá)河內(nèi)
2023-12-12 15:30:27習(xí)近平抵達(dá)河內(nèi)對(duì)越南進(jìn)行國(guó)事訪問OpenAI于本周一揭曉了其最新的旗艦生成式AI模型——GPT-4o,預(yù)計(jì)未來數(shù)周內(nèi),,該模型將逐步融入公司各類產(chǎn)品線中
2024-05-14 07:55:30GPT4o將免費(fèi)使用北京時(shí)間周二凌晨1點(diǎn),,OpenAI在久違的春季發(fā)布會(huì)上,由首席技術(shù)官米拉·穆拉蒂揭曉了與ChatGPT相關(guān)的多項(xiàng)更新
2024-05-14 09:16:54GPT4o可檢測(cè)人的情緒