想象一下,,未來某個人能夠通過人工智能軟件存在的漏洞,輕松地將無人機改造成具攻擊性的半自動戰(zhàn)機,;一群黑客通過滲透醫(yī)院的智能醫(yī)療設(shè)備,,敲詐勒索當(dāng)?shù)卣S著人工智能技術(shù)的快速發(fā)展,這個未來可能并不遙遠(yuǎn),。顯然,,如果不能防止人工智能技術(shù)的惡意使用,社會穩(wěn)定將遭受威脅。
過去一年,,我們和其他20多位人工智能領(lǐng)域?qū)<?,通過思考當(dāng)前的人工智能技術(shù)以及其可能如何被壞人利用,寫成了一份報告——《人工智能的惡意使用:預(yù)測,、防止與緩解》,。
這份報告基于人工智能可能被惡意使用的實際場景,如利用機器人進行非法活動,,借助新一代的難以被監(jiān)測的惡意軟件,,進行復(fù)雜的黑客活動,以及把廣告行業(yè)的工具功能進一步延展,,針對個人精準(zhǔn)投放等,。事實上,在我們召開研討會到完成報告的這段時間,,隨著技術(shù)的快速進步,,一些聽起來像來自科幻小說的假設(shè)場景,已經(jīng)成真,。例如,,報告有一節(jié)討論了如何使用新的人工智能技術(shù),創(chuàng)建合成視頻和音頻,,炮制知名政客的“假新聞”,。這說明,即使了解人工智能技術(shù)并為其可能造成的特定威脅做好應(yīng)對,,杜絕這類惡意使用的難度依然不小,。
這份報告為討論這些問題邁出了第一步,認(rèn)為只有政府和研究人員都給予持續(xù)關(guān)注,,才有可能識別,、預(yù)防和減輕這些威脅。我們提出了四點建議,。首先,,政策制定者應(yīng)該與技術(shù)研究人員密切合作,了解相關(guān)技術(shù)和目前的風(fēng)險,。其次,,人工智能研究人員應(yīng)當(dāng)認(rèn)真考慮技術(shù)這把雙刃劍,并承擔(dān)適當(dāng)責(zé)任,。第三,,需要進行更多的研究,從面臨類似問題的其他領(lǐng)域(如計算機安全)學(xué)習(xí)解決之道,。第四,必須將更多的專家和利益相關(guān)者納入對話。