英國(guó)著名物理學(xué)家史蒂芬.霍金(Stephen Hawking)周一表示,人工智能(AI)的崛起可能是“人類文明史上最糟事件”,,除非人類社會(huì)能夠找到控制AI發(fā)展的方法,,否則后果不堪設(shè)想。
臺(tái)灣“中時(shí)電子報(bào)”11月7日援引CNBC消息稱,,霍金是在葡萄牙里斯本舉辦的網(wǎng)絡(luò)高峰會(huì)(Web Summit)演講時(shí)做出這番評(píng)論,。
霍金在演講中談到AI未來發(fā)展的潛力,象是協(xié)助復(fù)原人類對(duì)自然世界的破壞,、根除貧窮與疾病問題,,并“改造”社會(huì)每一個(gè)層面,但他也承認(rèn)未來充滿不確定性,。
霍金表示:“除非我們事先做好準(zhǔn)備并避免潛在風(fēng)險(xiǎn),,否則AI可能成為人類文明史上最糟的事件。因?yàn)樗鼤?huì)帶來危險(xiǎn),,象是制造致命的自主武器(autonomous weapons),,或是成為少數(shù)人壓迫多數(shù)人的工具,亦可能對(duì)經(jīng)濟(jì)造成巨大破壞,?!?/p>