大佬喊話,AI寒冬已來?
OpenAI的原聯(lián)合創(chuàng)始人Ilya Sutskever指出,,使用大量未標記數(shù)據(jù)來理解語言模式和結構的訓練階段已經(jīng)接近尾聲,。他提到,,擴展訓練的結果已經(jīng)趨于平穩(wěn),,意味著通過增加數(shù)據(jù)和算力來提升AI模型性能的方法已經(jīng)遇到瓶頸。
對于像ChatGPT這樣的大型語言模型,,簡單地通過增加更多數(shù)據(jù)和計算資源來擴大規(guī)模已不足以實現(xiàn)有意義的進步,。雖然增加計算能力仍然是提升AI性能的一個方式,但已經(jīng)無法像以前那樣通過不斷堆砌算力和數(shù)據(jù)量來實現(xiàn)模型的大幅提升,。大模型企業(yè)需要采用更智能的訓練技術,,更加重視模型訓練的方式和內(nèi)容,而不僅僅是關注規(guī)模大小。這種方法的轉變代表了人工智能發(fā)展的關鍵轉折點,,超越了“越大越好”的理念,。
預訓練階段,大模型被輸入大量未分類數(shù)據(jù)以識別模式和結構的過程,,一直是開發(fā)強大LLMs的基石。這個階段,,模型通過消化各種文本——從書籍,、文章到網(wǎng)站和社交媒體帖子——來學習語言表示,使其能夠識別語法,、語義和含義,。然而,Ilya Sutskever認為這種方法現(xiàn)在已經(jīng)趨于平穩(wěn),。增加更多數(shù)據(jù)所帶來的性能提升正在減少,,更重要的是,人們越來越意識到模型的有效性不僅取決于它處理的數(shù)據(jù)量,,還取決于它接觸到的數(shù)據(jù)的質量和結構,。這意味著大模型企業(yè)必須重新思考他們的策略,以在LLMs的發(fā)展上取得進一步的進展,。
研究人員現(xiàn)在需要考慮更先進的方法來完善學習過程,,而不僅僅是增加數(shù)據(jù)集的大小。這包括改進訓練期間使用的算法,,優(yōu)化數(shù)據(jù)管理,,并引入更先進的技術,如強化學習或多模態(tài)訓練,,其中模型不僅接觸到文本,,還接觸到圖像、視頻或其他形式的數(shù)據(jù),。Ilya Sutskever關于未來的LLMs將需要“稍微思考更長時間”的評論強調了進步的另一個關鍵方面,。大模型需要在更長時間內(nèi)進行更復雜推理的能力,這對于需要深度理解,、多步驟推理或長期記憶的任務越來越必要,。
??“不游開封府,,枉來汴梁城”,,開封府“包拯”歡迎客家親人感受大宋文化,親睹包公威嚴,,感受虛擬交互情景劇,,品味滿城盡菊黃的盛景。
2024-10-21 16:46:39開封府包拯喊話迎客