新華社北京4月9日電? 新聞分析:人工智能界為何對“殺手機器人”說不
新華社記者
聯(lián)合國《特定常規(guī)武器公約》政府專家小組9日在瑞士日內(nèi)瓦召開會議,,預(yù)定討論致命自主武器系統(tǒng)研發(fā),,也就是常說的“殺手機器人”可能帶來的影響。
50多名世界知名人工智能和機器人研究人員4日宣布,,將聯(lián)合抵制韓國科學技術(shù)院,,抗議該機構(gòu)研發(fā)人工智能武器的計劃。
與此同時,一封公開信已在美國谷歌公司內(nèi)部流傳數(shù)周,,超過3000名谷歌員工簽名要求公司退出一項美國五角大樓人工智能軍事計劃,。
人工智能迅速發(fā)展給社會各個領(lǐng)域帶來深遠影響,對軍事作戰(zhàn)系統(tǒng)研發(fā)也帶來全新理念,。然而,,人工智能界的專家學者及防務(wù)分析人士認為,機器人暴動僅是科幻小說式的終極噩夢,,軍事機器人革命帶來的倫理,、法律及政策等問題,尤其是自主武器能否自行判斷殺敵與否,,才是人們亟須擔憂和討論的現(xiàn)實問題,。
大多數(shù)專家學者一直認為,使用致命武器時,,人應(yīng)當是負責啟動的關(guān)鍵要素,。對什么樣的人工控制才是最適宜的討論還未結(jié)束,相關(guān)的政策制定又已被人工智能技術(shù)的飛速發(fā)展甩在身后,。隨著具有認知能力人工智能系統(tǒng)的出現(xiàn),,更復(fù)雜的問題出現(xiàn)了。
新美國基金會研究人員,、防務(wù)政策分析人士辛格在其著作《連線戰(zhàn)爭:21世紀機器人革命和沖突》中指出,,地緣政治、知識前沿領(lǐng)域不斷前進的動力甚至是追求利益的科技企業(yè),,都是人工智能發(fā)展不可阻擋的力量。簡單來說,,大部分人現(xiàn)在最感到恐懼的是該不該讓能夠“思考”的人工智能系統(tǒng)決定是否殺人,。