這些問題不容忽視,。一種解決辦法是,建議對人工智能技術(shù)的使用進行監(jiān)管,。我認(rèn)為通過一般法律來管理人工智能的使用是不現(xiàn)實的,,這似乎有點像試圖通過立法來管理數(shù)學(xué)的使用。一個似乎正在被接受的辦法是,,如果軟件做出了影響你的決定,,那么你應(yīng)該有權(quán)知道這個決定是如何做出的,使用了哪些和你有關(guān)的數(shù)據(jù),,標(biāo)準(zhǔn)是什么,。我認(rèn)為這比較合理。使人工智能可解釋化和透明化,,是當(dāng)今這一領(lǐng)域面臨的最大挑戰(zhàn)之一,。
在某些情況下,人工智能決策可能直接事關(guān)生死,,比如在戰(zhàn)場上使用人工智能系統(tǒng),。盡管目前還沒有證據(jù)表明這種“致命性自主武器”已經(jīng)被使用,但確實已經(jīng)具備了可能性,。過去5年來,,人工智能領(lǐng)域的科學(xué)家們積極行動,希望政府認(rèn)識到這一問題的嚴(yán)重性并做出應(yīng)對,。最近英國政府在一份報告中明確表示,,永遠(yuǎn)不給人工智能系統(tǒng)傷害人的權(quán)力,。
人工智能只是一種技術(shù),,就像任何技術(shù)一樣,,可以用來造福人類,也可能帶來危害,。條件反射式的立法,,對于把控人工智能不太可能奏效。我們需要以負(fù)責(zé)和道德的方式使用人工智能,,正如最近全球關(guān)于自主武器的討論取得進展一樣,,國際社會需要應(yīng)對解決人工智能帶來的挑戰(zhàn)。
(作者為英國牛津大學(xué)計算機系主任邁克爾·伍爾德里奇)
中國青年網(wǎng)北京5月13日電(記者 陳?。?月12日上午,清華大學(xué)主樓報告廳座無虛席,,中國公共管理高端講壇啟動儀式暨首場報告會在這里舉行