觀察下面這張圖片,,你認(rèn)為這是真實拍攝的還是AI生成的?看著有些可疑,,比如汽車車門和堆疊的樣子像是拼接起來的,。那么下面這兩張呢?如果不仔細(xì)查證,,可能難以相信:它們?nèi)际桥臄z的真實照片,。
十月底開始,西班牙瓦倫西亞地區(qū)經(jīng)歷特大暴雨,,一天的降雨量相當(dāng)于一年,,還持續(xù)不斷。瓦倫西亞地區(qū)的街道有很多斜坡,,這么大的水量足以讓汽車浮起來,,并沿著斜坡一路往下。當(dāng)洪水退去后,,就出現(xiàn)了最初的照片中的景象,。
面對這些照片時,許多人的反應(yīng)是:這肯定是AI做的,,假新聞,。也不能說這些人不講理,確實曾經(jīng)被騙過,。之前美國佛羅里達州被颶風(fēng)襲擊時,,一張穿救生衣的小女孩在救生艇上抱著小狗流淚的圖片橫掃了社交網(wǎng)絡(luò)。這張圖比上面的暴雨圖更顯“AI味”,,從手指細(xì)節(jié)到身體姿勢都有種說不出的怪異,。原帖主并不知道這張圖來自何處,只是表達了對受災(zāi)人民的同情?,F(xiàn)在平臺已經(jīng)補充了背景信息,,強調(diào)這是一張生成的圖片而非真實拍攝的照片。
雖然懷疑精神在某些情況下幫助平臺迅速反應(yīng)并補充警告,,但在另一場災(zāi)難中卻不再奏效,。畢竟,,AI生成的圖像越來越真假難辨。一次次有人用AI圖博眼球,,最終變成了大型“狼來了”現(xiàn)場,。
在評價AI生成的圖片或視頻時,是否足夠?qū)憣嵰恢笔亲钪匾臉?biāo)準(zhǔn)之一,。這對模型提出了很多挑戰(zhàn):是否掌握自然語言規(guī)則,?是否理解常識和現(xiàn)實世界的規(guī)律?能否理解上下文信息并呈現(xiàn)出來,?這是對模型能力的考驗,,也是反映技術(shù)力的有效指標(biāo)。
一開始,,大家為AI能夠生成逼真的圖像而興奮,但后來越來越多的“開局一張圖,,剩下全靠編”的新聞出現(xiàn),,而且越來越難以分辨。六月時,,社交媒體上出現(xiàn)了西安發(fā)生特大爆炸的消息,,時間地點俱全。但西安警方核實后發(fā)現(xiàn)并無此事,。這條消息是由一家MCN機構(gòu)發(fā)布的,。主犯交代自己利用了AI工具,給定提示詞后,,工具會自動抓取相關(guān)文章并生成幾百到上千字的文本,。最高峰時一天能生成4000至7000條信息,幾乎不需要人工參與,,專門挑民生相關(guān),、熱度高的話題和事件。研究表明,,消極,、負(fù)面、激發(fā)情緒的信息更容易抓住人的注意力,。騙子的日均收入高達1萬元,,這讓閱讀,、轉(zhuǎn)發(fā)和評論這種假消息的用戶感到氣憤,。
Perplexity在2022年12月啟動,,是早期投入使用的生成式搜索引擎之一,也被稱作回答引擎,。
2024-06-05 13:50:44Perplexity更新,!AI搜索的下一步