因此,,我們有理由期待,,人工智能加速的神經(jīng)科學(xué)將在幾年內(nèi)產(chǎn)生快速進(jìn)展,。
我們應(yīng)該在這個(gè)基本圖景中添加一點(diǎn),那就是過去幾年中學(xué)到的,,或正在學(xué)習(xí)到的,,一些關(guān)于人工智能本身的知識(shí),可能會(huì)幫助推進(jìn)神經(jīng)科學(xué),,即使神經(jīng)科學(xué)研究仍然只由人類來進(jìn)行,。
首先,「可解釋性」是一個(gè)明顯的例子,。
盡管表面上,,生物神經(jīng)元和人工神經(jīng)元以完全不同的方式運(yùn)作,,但「簡(jiǎn)單單元組成的的分布式,、訓(xùn)練過的網(wǎng)絡(luò)如何協(xié)同工作以執(zhí)行重要計(jì)算」,這個(gè)基本問題是相同的,。
舉例來說,,AI系統(tǒng)可解釋性研究人員發(fā)現(xiàn)的一種計(jì)算機(jī)制,最近在小鼠大腦中被重新發(fā)現(xiàn),。
論文地址:https://www.biorxiv.org/content/10.1101/2023.03.15.532836v1
相比真實(shí)神經(jīng)網(wǎng)絡(luò),,對(duì)人工神經(jīng)網(wǎng)絡(luò)進(jìn)行實(shí)驗(yàn)要容易得多,因此AI可解釋性很可能成為提高我們對(duì)神經(jīng)科學(xué)理解的工具,。
此外,,強(qiáng)大的人工智能本身可能比人類更能開發(fā)和應(yīng)用這個(gè)工具。
除了可解釋性之外,,我們從AI那里學(xué)到的關(guān)于智能系統(tǒng)如何訓(xùn)練的知識(shí),,很可能在神經(jīng)科學(xué)領(lǐng)域引發(fā)一場(chǎng)革命。
Amodei本人在從事神經(jīng)科學(xué)研究時(shí)發(fā)現(xiàn),,曾經(jīng)很多人關(guān)注的關(guān)于「學(xué)習(xí)」的問題,,現(xiàn)在看來是錯(cuò)誤的,因?yàn)槟菚r(shí)還沒有「擴(kuò)展假說」(scaling hypothesis),,或Rich Sutton提出的「the bitter lesson」這樣的概念,。
大量數(shù)據(jù)加上簡(jiǎn)單的目標(biāo)函數(shù)就可以驅(qū)動(dòng)極其復(fù)雜行為,這個(gè)想法使得理解目標(biāo)函數(shù)和架構(gòu)偏差(architectural biases)變得更有意思,,同時(shí)也讓「涌現(xiàn)」過程的復(fù)雜計(jì)算細(xì)節(jié)(emergent computation)變得不那么有趣,。
Amodei表示,,近年來自己并沒有密切關(guān)注這個(gè)領(lǐng)域,,但能隱約感覺到,計(jì)算神經(jīng)科學(xué)家們?nèi)匀粵]有完全吸收這個(gè)教訓(xùn),。
2019年10月9日,諾貝爾化學(xué)獎(jiǎng)花落鋰電池領(lǐng)域,,三名研究鋰電池的先驅(qū)摘得殊榮,,吉野彰是三位獲獎(jiǎng)?wù)呃锬昙o(jì)最輕的一位。
2024-07-05 14:48:56被取代,!諾貝爾獎(jiǎng)獲得者:2050年加油站會(huì)消失