在5月14日的凌晨,,OpenAI舉辦了一場(chǎng)名為“春季更新”的線(xiàn)上活動(dòng),,期間揭曉了他們的新旗艦生成式AI模型——GPT-4o,。這個(gè)模型名稱(chēng)中的“o”蘊(yùn)含深意,,取自英文“Omni”,寓意著“全能”或“涵蓋一切”,,體現(xiàn)了技術(shù)的廣度與深度。
GPT-4o的一大亮點(diǎn)在于它對(duì)語(yǔ)音交互的細(xì)膩捕捉。它不僅能夠無(wú)縫融入或中斷對(duì)話(huà),,還能精妙識(shí)別發(fā)言者的情緒與語(yǔ)氣,根據(jù)不同的場(chǎng)景或命令,,生成多樣化的音調(diào)回復(fù),,這些回復(fù)富含人性化的感情色彩,甚至能應(yīng)用戶(hù)要求演唱歌曲,。
視覺(jué)處理能力上,,GPT-4o實(shí)現(xiàn)了顯著飛躍。當(dāng)前,,它已能夠辨認(rèn)并翻譯多種語(yǔ)言的菜單圖片,,未來(lái)展望中,這項(xiàng)技術(shù)或?qū)⑹笴hatGPT具備“觀(guān)賞”實(shí)況體育賽事并解析規(guī)則的能力,。此外,,GPT-4o在圖像處理上更進(jìn)一步,不僅限于識(shí)別印刷文字,,對(duì)手寫(xiě)體同樣駕輕就熟,,能解決數(shù)學(xué)方程、分析數(shù)據(jù),,并解讀面部表情背后的情感,。
語(yǔ)言處理能力方面,GPT-4o展現(xiàn)了其強(qiáng)大的多語(yǔ)言支持,,目前可與用戶(hù)通過(guò)20種語(yǔ)言進(jìn)行音頻等形式的互動(dòng),,最新升級(jí)極大地增強(qiáng)了其多語(yǔ)言服務(wù),涉及的語(yǔ)言種類(lèi)擴(kuò)展至約50種,。
數(shù)據(jù)處理與性能方面,,GPT-4o對(duì)比前代GPT-4Turbo及其他競(jìng)爭(zhēng)模型,展現(xiàn)出顯著的優(yōu)勢(shì),,傳統(tǒng)基準(zhǔn)測(cè)試結(jié)果證明了其卓越性能,。
情感智能也是GPT-4o的一大突破。在演示中,,當(dāng)用戶(hù)表達(dá)緊張情緒時(shí),,GPT-4o以類(lèi)似朋友的口吻進(jìn)行安慰,并引導(dǎo)用戶(hù)進(jìn)行深呼吸放松,,實(shí)時(shí)分析呼吸聲以給出恰當(dāng)建議,,實(shí)現(xiàn)了交互體驗(yàn)的情感共鳴。
響應(yīng)速度方面,GPT-4o的提升令人矚目,,最快可在232毫秒內(nèi)反饋對(duì)話(huà),,平均響應(yīng)時(shí)間僅320毫秒,幾近人類(lèi)自然交流的速度,,極大提升了與ChatGPT交流的流暢度,,較GPT-3.5有質(zhì)的飛躍。
值得注意的是,,GPT-4o在一定范圍內(nèi)提供了免費(fèi)使用的機(jī)會(huì),。它在英語(yǔ)及編程領(lǐng)域的表現(xiàn)與GPT-4Turbo持平,非英語(yǔ)文本處理能力顯著增強(qiáng),,同時(shí),,API速度加快,速率限制放寬五倍,,成本卻降低了50%,,踐行了OpenAI讓更多人免費(fèi)體驗(yàn)高端AI技術(shù)的愿景。
OpenAI的高層對(duì)GPT-4o寄予厚望,,認(rèn)為它是通向更自然人機(jī)交互的重要一步,,展示了多模態(tài)交互的更高境界,彰顯了OpenAI在這一領(lǐng)域的前沿地位和技術(shù)領(lǐng)導(dǎo)力,。
OpenAI在5月14日凌晨發(fā)布了其最新的旗艦AI模型GPT-4o,該模型標(biāo)志著AI技術(shù)的一個(gè)重要里程碑,,并計(jì)劃推出PC桌面版ChatGPT
2024-05-14 09:22:27GPT-4o深夜炸場(chǎng),!AI實(shí)時(shí)視頻通話(huà)絲滑如人類(lèi)