該文件聚焦人工智能軍事應(yīng)用涉及的研發(fā),、部署,、使用等重要環(huán)節(jié),,就如何在軍事領(lǐng)域負(fù)責(zé)任地開發(fā)和利用人工智能技術(shù)提出解決思路:
一、各國在發(fā)展人工智能武器系統(tǒng)方面應(yīng)保持克制,,人工智能的軍事應(yīng)用不應(yīng)成為發(fā)動戰(zhàn)爭和謀求霸權(quán)的工具,,反對利用人工智能技術(shù)謀求絕對軍事優(yōu)勢,損害他國主權(quán)和領(lǐng)土安全,。
二,、堅持以人為本、智能向善原則,,確保人工智能軍事應(yīng)用符合國際人道主義法,,避免相關(guān)武器系統(tǒng)造成濫殺濫傷和誤用惡用。
三,、要不斷提升人工智能技術(shù)的安全性,、可靠性、可控性,,增強(qiáng)人工智能安全評估和管控能力,,確保人工智能武器永遠(yuǎn)處于人類控制之下。
四,、要對人工智能軍事應(yīng)用加強(qiáng)監(jiān)管,,降低擴(kuò)散風(fēng)險。
五,、要堅持多邊主義,、開放包容原則,共同探討人工智能軍事應(yīng)用問題的解決之道,,建立普遍參與的國際機(jī)制,,形成具有廣泛共識的人工智能治理框架和標(biāo)準(zhǔn)規(guī)范。
六,、加強(qiáng)國際合作,,幫助發(fā)展中國家提升治理水平,確保各國充分享有技術(shù)發(fā)展與和平利用的權(quán)利,。
李松還在發(fā)言中介紹了中方全面參與公約框架下各項(xiàng)議題工作,特別是致力于國際人道主義掃雷援助與合作的情況,。
在為期5天的會議期間,,締約國將全面審議公約過去5年的執(zhí)行情況,同時就公約框架下的新興議題進(jìn)行討論,,并探討相關(guān)舉措,。
《特定常規(guī)武器公約》的全稱是《禁止或限制使用某些可被認(rèn)為具有過分傷害力或?yàn)E殺濫傷作用的常規(guī)武器公約》。該條約于1981年開放簽署,,并于1983年12月生效,。中國于1981年簽署了這一條約,。目前共有125個締約國。