原標題:危險程度堪比核武?“殺人機器”研發(fā)或引發(fā)災(zāi)難
參考消息網(wǎng)5月14日報道 美國石英財經(jīng)網(wǎng)站5月11日發(fā)表了賈斯廷·羅爾利希的題為《“第3次戰(zhàn)爭革命”是能夠自己決定殺人的武器》的文章,現(xiàn)將原文編譯如下:
自主致命性武器——批評者稱之為“殺人機器人”——的出現(xiàn)讓許多分析人士感到驚恐,。在沒有人類近距離控制的情況下,裝備了人工智能的某些此類武器能以士兵無法企及的速度和效率選定并消滅目標,。
包括美國在內(nèi)的多個國家正在研發(fā)自主致命性武器,,相關(guān)項目包括裝備人工智能的無人坦克、無人戰(zhàn)斗機等,。
各國就此自行實施了一些準則,,但專家說這些還不夠。美國軍方政策規(guī)定,,無人武器裝備作出開火決定時必須有“適當(dāng)程度的”人類判斷,,但并未對此作出明確定義,而且允許有例外,。美國也是反對在該領(lǐng)域進行國際監(jiān)管的少數(shù)國家之一,。
不過,擔(dān)心爆發(fā)軍備競賽的荷蘭非政府組織“和平”反戰(zhàn)組織最新發(fā)表的報告稱,,要想防止最終的災(zāi)難,,除了全面禁止之外別無選擇。
資料圖片:科幻電影《終結(jié)者》中的天網(wǎng)機器人,。(圖片來源于網(wǎng)絡(luò))
資料圖片:未來士兵想象圖,。(圖片來源于網(wǎng)絡(luò))
這種擔(dān)憂不無道理。人工智能專家認為這種武器將引發(fā)“第3次戰(zhàn)爭革命”,。和前兩次戰(zhàn)爭革命——黑色火藥和核彈——一樣,,此類武器系統(tǒng)能迅速證明其價值,讓擁有它們的一方獲得幾乎不可超越的技術(shù)優(yōu)勢,。
如果不加以禁止,,人工智能武器可能在全世界的軍隊中投入使用。就像社交媒體一樣,,在相關(guān)公司強烈抵制——而同時技術(shù)還在飛速發(fā)展——的情況下,,試圖到后來再回溯性地實施監(jiān)管將被證明困難重重。
正如“和平”組織所聲稱的,,“將生死決定權(quán)交給機器或算法是極不道德的”,。
問題是,我們會及時行動起來嗎,?對于人工智能武器,,快速采取行動極為重要。