不過,它的“代價”是回復速度變慢,,畢竟生成新內(nèi)容會帶來一定延遲,。
值得一提的是,還有人似乎在本地模型上也發(fā)現(xiàn)了類似現(xiàn)象,。
有人表示:截圖中的“prefix-match hit” (前綴匹配命中)似乎可以證明確實是用的緩存,。
那么問題就來了,大模型到底是如何緩存我們的聊天信息的呢,?
好問題,從開頭展現(xiàn)的第二個例子來看,,顯然是進行了某種“聚類”操作,,但具體如何應用于深度多輪對話咱不知道。
姑且不論這個問題,,倒是有人看到這里,,想起來ChatGPT那句“您的數(shù)據(jù)存在我們這兒,但一旦聊天結(jié)束對話內(nèi)容就會被刪除”的聲明,,恍然大悟,。
這不禁讓一些人開始擔憂數(shù)據(jù)安全問題:
這是否意味著我們發(fā)起的聊天內(nèi)容仍然保存在他們的數(shù)據(jù)庫中?
當然,,有人分析這個擔憂可能過慮了:
也許只是我們的查詢embedding和回答緩存被存下來了,。
因此,,就像發(fā)現(xiàn)者本人說的:
緩存這個操作本身我不太擔心。
我擔心的是OpenAI這樣簡單粗暴地匯總我們的問題進行回答,,毫不關心temperature等設置,,直接聚合明顯有不同含義的提示,這樣影響很不好,,可能“廢掉”許多(基于GPT-4的)應用,。
當然,并不是所有人都同意以上發(fā)現(xiàn)能夠證明OpenAI真的就是在用緩存回復,。
他們的理由是作者采用的案例恰好是講笑話,。
畢竟就在今年6月,兩個德國學者測試發(fā)現(xiàn),,,。
像“科學家和原子”這個更是尤其出現(xiàn)頻率最高,它講了119次,。
因此也就能理解為什么看起來好像是緩存了之前的回答一樣,。
因此,有網(wǎng)友也提議用其他類型的問題測一測再看,。
不過作者堅持認為,,不一定非得換問題,光通過測量延遲時間就能很容易地分辨出是不是緩存了,。
最后,,我們不妨再從“另一個角度”看這個問題:
GPT-4一直講一個笑話怎么了?
一直以來,,咱們不都是強調(diào)要讓大模型輸出一致,、可靠的回答嗎?這不,,它多聽話?。ㄊ謩庸奉^)。
所以,,GPT-4究竟有沒有緩存,,你有觀察到類似現(xiàn)象嗎?
針對早前微信被爆在后臺反復讀取用戶相冊的事件,,1月5日,馬化騰回應稱:“應該是21年10月的事了,,圖片緩存加速造成的誤會,,后面應該用iOS新的解決卡頓的API解決了。
2024-01-08 11:23:45馬化騰談早期微信“偷窺”相冊?蘇有朋轉(zhuǎn)發(fā)回復舒淇:“媽媽說美麗的女人都會嚇人而且很嚇” 都給咱有朋哥嚇到模糊了
2023-11-23 11:01:19蘇有朋回復舒淇