此外,意識必須能發(fā)揮一定重要功能才行,,否則早就在進化過程中被淘汰了,。這些功能也可以套用到人工智能身上。而在這方面,,科幻作品同樣造成了誤導,。無論是在小說還是電視節(jié)目中,意識對人工智能而言都像是一種詛咒,。它們會刻意做出無法預測的行為,,而這些行為往往對人類不利。但在現實世界中,,這種反烏托邦式的情景其實不大可能出現,。無論人工智能會造成何種風險,都不取決于它們是否具備獨立意識,。恰恰相反,有意識的機器還能幫助我們應對人工智能技術帶來的沖擊,。有專家表示,,相比毫無想法的自動化技術,他寧愿與這些有意識的機器共事,。
AlphaGo與人類圍棋冠軍李世乭一決高下時,,很多專家都在思索AlphaGo為何會按這種方式下圍棋。他們想要解釋并理解AlphaGo的動機和邏輯依據,。這種情況對現代人工智能而言十分普遍,,因為它們的決策并非由人類提前設定好,而是通過學習算法和用于訓練它們的數據集自發(fā)產生。由于無法參透這些人工智能,,很多人擔心它們的決策可能有失公平,、過于武斷。現在已經有了算法歧視的例子,。如去年的一項調查發(fā)現,,佛羅里達法官和假釋官使用的一套算法存在種族歧視的情況,導致黑人罪犯被標注的累犯概率會高于實際情況,,而白人罪犯則低于實際情況,。
從明年開始,歐盟法律將給予歐盟居民“要求解釋權”,。人們將有權要求相關人士解釋某個人工智能系統(tǒng)為何會做出某種決策,。但這項新要求從技術上來說頗具挑戰(zhàn)性??紤]到目前神經網絡的復雜程度,,我們還很難參透人工智能做出決策的過程,更別提將這個過程翻譯成人類能理解的語言了,。
如果我們弄不清楚人工智能為何會這么做,,能否直接問問它們呢?我們可以為人工智能配備后設認知能力(metacognition),,讓它們回顧自身行為,,報告自己的內部精神狀態(tài)。這種能力是意識的主要功能之一,。神經科學家在測試人或動物是否有意識時,,尋找的便是這種能力。例如,,自信作為后設認知的基本形式之一,,意識體驗越清晰明了、自信水平便越高,。如果大腦是在不知不覺中處理信息,,我們便會對這些信息感覺不太確定;而如果我們清楚地意識到了某個刺激的存在,,便會感覺自信許多,,比如“我剛才肯定看見了紅色?!?/p>
中國青年網北京3月17日電 自2017年以來,,“人工智能”已經連續(xù)兩年寫入政府工作報告。如何抓住歷史新機遇,,搶占人工智能發(fā)展的制高點,,成為兩會熱議的話題之一