想象一下,,未來某個人能夠通過人工智能軟件存在的漏洞,,輕松地將無人機(jī)改造成具攻擊性的半自動戰(zhàn)機(jī),;一群黑客通過滲透醫(yī)院的智能醫(yī)療設(shè)備,,敲詐勒索當(dāng)?shù)卣S著人工智能技術(shù)的快速發(fā)展,,這個未來可能并不遙遠(yuǎn),。顯然,,如果不能防止人工智能技術(shù)的惡意使用,,社會穩(wěn)定將遭受威脅,。
過去一年,我們和其他20多位人工智能領(lǐng)域?qū)<?,通過思考當(dāng)前的人工智能技術(shù)以及其可能如何被壞人利用,,寫成了一份報告——《人工智能的惡意使用:預(yù)測、防止與緩解》,。
這份報告基于人工智能可能被惡意使用的實(shí)際場景,,如利用機(jī)器人進(jìn)行非法活動,借助新一代的難以被監(jiān)測的惡意軟件,,進(jìn)行復(fù)雜的黑客活動,,以及把廣告行業(yè)的工具功能進(jìn)一步延展,針對個人精準(zhǔn)投放等,。事實(shí)上,,在我們召開研討會到完成報告的這段時間,隨著技術(shù)的快速進(jìn)步,一些聽起來像來自科幻小說的假設(shè)場景,,已經(jīng)成真,。例如,報告有一節(jié)討論了如何使用新的人工智能技術(shù),,創(chuàng)建合成視頻和音頻,,炮制知名政客的“假新聞”。這說明,,即使了解人工智能技術(shù)并為其可能造成的特定威脅做好應(yīng)對,,杜絕這類惡意使用的難度依然不小。
這份報告為討論這些問題邁出了第一步,,認(rèn)為只有政府和研究人員都給予持續(xù)關(guān)注,,才有可能識別、預(yù)防和減輕這些威脅,。我們提出了四點(diǎn)建議,。首先,政策制定者應(yīng)該與技術(shù)研究人員密切合作,,了解相關(guān)技術(shù)和目前的風(fēng)險,。其次,人工智能研究人員應(yīng)當(dāng)認(rèn)真考慮技術(shù)這把雙刃劍,,并承擔(dān)適當(dāng)責(zé)任,。第三,需要進(jìn)行更多的研究,,從面臨類似問題的其他領(lǐng)域(如計(jì)算機(jī)安全)學(xué)習(xí)解決之道,。第四,必須將更多的專家和利益相關(guān)者納入對話,。