因此,,我們有理由期待,人工智能加速的神經(jīng)科學(xué)將在幾年內(nèi)產(chǎn)生快速進(jìn)展,。
我們應(yīng)該在這個(gè)基本圖景中添加一點(diǎn),,那就是過去幾年中學(xué)到的,或正在學(xué)習(xí)到的,,一些關(guān)于人工智能本身的知識(shí),,可能會(huì)幫助推進(jìn)神經(jīng)科學(xué),即使神經(jīng)科學(xué)研究仍然只由人類來進(jìn)行,。
首先,,「可解釋性」是一個(gè)明顯的例子。
盡管表面上,,生物神經(jīng)元和人工神經(jīng)元以完全不同的方式運(yùn)作,,但「簡單單元組成的的分布式、訓(xùn)練過的網(wǎng)絡(luò)如何協(xié)同工作以執(zhí)行重要計(jì)算」,,這個(gè)基本問題是相同的,。
舉例來說,AI系統(tǒng)可解釋性研究人員發(fā)現(xiàn)的一種計(jì)算機(jī)制,,最近在小鼠大腦中被重新發(fā)現(xiàn),。
論文地址:https://www.biorxiv.org/content/10.1101/2023.03.15.532836v1
相比真實(shí)神經(jīng)網(wǎng)絡(luò),對(duì)人工神經(jīng)網(wǎng)絡(luò)進(jìn)行實(shí)驗(yàn)要容易得多,,因此AI可解釋性很可能成為提高我們對(duì)神經(jīng)科學(xué)理解的工具,。
此外,強(qiáng)大的人工智能本身可能比人類更能開發(fā)和應(yīng)用這個(gè)工具,。
除了可解釋性之外,我們從AI那里學(xué)到的關(guān)于智能系統(tǒng)如何訓(xùn)練的知識(shí),,很可能在神經(jīng)科學(xué)領(lǐng)域引發(fā)一場革命,。
Amodei本人在從事神經(jīng)科學(xué)研究時(shí)發(fā)現(xiàn),,曾經(jīng)很多人關(guān)注的關(guān)于「學(xué)習(xí)」的問題,現(xiàn)在看來是錯(cuò)誤的,,因?yàn)槟菚r(shí)還沒有「擴(kuò)展假說」(scaling hypothesis),,或Rich Sutton提出的「the bitter lesson」這樣的概念。
大量數(shù)據(jù)加上簡單的目標(biāo)函數(shù)就可以驅(qū)動(dòng)極其復(fù)雜行為,,這個(gè)想法使得理解目標(biāo)函數(shù)和架構(gòu)偏差(architectural biases)變得更有意思,,同時(shí)也讓「涌現(xiàn)」過程的復(fù)雜計(jì)算細(xì)節(jié)(emergent computation)變得不那么有趣。
Amodei表示,,近年來自己并沒有密切關(guān)注這個(gè)領(lǐng)域,,但能隱約感覺到,計(jì)算神經(jīng)科學(xué)家們?nèi)匀粵]有完全吸收這個(gè)教訓(xùn),。
2019年10月9日,,諾貝爾化學(xué)獎(jiǎng)花落鋰電池領(lǐng)域,,三名研究鋰電池的先驅(qū)摘得殊榮,吉野彰是三位獲獎(jiǎng)?wù)呃锬昙o(jì)最輕的一位,。
2024-07-05 14:48:56被取代,!諾貝爾獎(jiǎng)獲得者:2050年加油站會(huì)消失