因此,,我們有理由期待,人工智能加速的神經(jīng)科學將在幾年內(nèi)產(chǎn)生快速進展,。
我們應該在這個基本圖景中添加一點,,那就是過去幾年中學到的,或正在學習到的,,一些關于人工智能本身的知識,,可能會幫助推進神經(jīng)科學,即使神經(jīng)科學研究仍然只由人類來進行,。
首先,,「可解釋性」是一個明顯的例子。
盡管表面上,,生物神經(jīng)元和人工神經(jīng)元以完全不同的方式運作,,但「簡單單元組成的的分布式,、訓練過的網(wǎng)絡如何協(xié)同工作以執(zhí)行重要計算」,這個基本問題是相同的,。
舉例來說,,AI系統(tǒng)可解釋性研究人員發(fā)現(xiàn)的一種計算機制,最近在小鼠大腦中被重新發(fā)現(xiàn),。
論文地址:https://www.biorxiv.org/content/10.1101/2023.03.15.532836v1
相比真實神經(jīng)網(wǎng)絡,,對人工神經(jīng)網(wǎng)絡進行實驗要容易得多,因此AI可解釋性很可能成為提高我們對神經(jīng)科學理解的工具,。
此外,,強大的人工智能本身可能比人類更能開發(fā)和應用這個工具。
除了可解釋性之外,,我們從AI那里學到的關于智能系統(tǒng)如何訓練的知識,,很可能在神經(jīng)科學領域引發(fā)一場革命。
Amodei本人在從事神經(jīng)科學研究時發(fā)現(xiàn),,曾經(jīng)很多人關注的關于「學習」的問題,,現(xiàn)在看來是錯誤的,因為那時還沒有「擴展假說」(scaling hypothesis),,或Rich Sutton提出的「the bitter lesson」這樣的概念,。
大量數(shù)據(jù)加上簡單的目標函數(shù)就可以驅(qū)動極其復雜行為,這個想法使得理解目標函數(shù)和架構偏差(architectural biases)變得更有意思,,同時也讓「涌現(xiàn)」過程的復雜計算細節(jié)(emergent computation)變得不那么有趣,。
Amodei表示,近年來自己并沒有密切關注這個領域,,但能隱約感覺到,,計算神經(jīng)科學家們?nèi)匀粵]有完全吸收這個教訓,。
近日,,著名物理學家,、諾貝爾獎獲得者丁肇中教授現(xiàn)身西安交通大學,引起了廣泛關注,。許多網(wǎng)友表示,,課本中的傳奇人物竟然來到了現(xiàn)實生活中,讓人倍感激動與欽佩,。
2024-10-24 17:14:41諾貝爾獎獲得者丁肇中現(xiàn)身西安交大2019年10月9日,,諾貝爾化學獎花落鋰電池領域,,三名研究鋰電池的先驅(qū)摘得殊榮,吉野彰是三位獲獎者里年紀最輕的一位,。
2024-07-05 14:48:56被取代,!諾貝爾獎獲得者:2050年加油站會消失