據(jù)有關(guān)媒體報道,,在谷歌研究自然語言處理的科學(xué)家 Daphne Luong 表示,,正確地校準(zhǔn)標(biāo)簽對機器學(xué)習(xí)來說非常關(guān)鍵,有些數(shù)據(jù)集其實并不平衡,,像維基百科上的數(shù)據(jù),,“他”(He)出現(xiàn)的次數(shù)遠(yuǎn)比“她”(She)要多。
王金橋也著重強調(diào)了“數(shù)據(jù)的均衡”,。就算對人來說,,不同人秉持著不同的價值觀,但多聽多看多受教育可以讓人向良好的方向改進,。機器學(xué)習(xí)也是如此,?!坝?xùn)練機器時,要注重數(shù)據(jù)的均衡,,給它更多可靠的數(shù)據(jù),。研究團隊成員具有多元的學(xué)術(shù)背景(如吸納更多社會學(xué)、心理學(xué)等領(lǐng)域?qū)W者加入),、性別,、年齡、價值觀,,也可以幫助機器學(xué)習(xí)更加均衡,,減少機器出現(xiàn)偏見、謬誤甚至失控的可能,?!蓖踅饦蛘f。
“機器學(xué)習(xí)的模型本身也要有一定的防攻擊能力,,從技術(shù)上防止本身結(jié)構(gòu)設(shè)計的漏洞被攻擊,,研究者可以使用各種數(shù)據(jù)攻擊機器,訓(xùn)練機器的反攻擊能力,?!蓖踅饦蛘f。
作惡還是向善,,是人類的選擇
1942年,,阿西莫夫在短篇小說《環(huán)舞》中首次提出著名的機器人三定律:機器人不得傷害人類,或因不作為使人類受到傷害,;除非違背第一定律,,機器人必須服從人類的命令;除非違背第一及第二定律,,機器人必須保護自己,。半個多世紀(jì)過去,人工智能在大數(shù)據(jù)的加持下迎來爆發(fā)式發(fā)展,。某些專用型人工智能把人類智能甩在身后,,人們開始擔(dān)憂,機器傷害人類的那一天是不是不遠(yuǎn)了,。
因此有一種看法很主流——人類訓(xùn)練有意識,、有自我覺知的人工智能是不明智的。開個腦洞,,機器一旦發(fā)展出自我意識,,要反向攻擊人類,場面或許失控。
前段時間,,據(jù)路透社報道,韓國科學(xué)技術(shù)院的人工智能研發(fā)中心正在研發(fā)適用于作戰(zhàn)指揮,、目標(biāo)追蹤和無人水下交通等領(lǐng)域的人工智能技術(shù),,希望在今年年底前研發(fā)出基于人工智能的導(dǎo)彈、潛艇和四軸飛行器,。此事引發(fā)學(xué)術(shù)界的巨大震動,,抗議紛至沓來,并最終以院長保證無意于“殺手機器人”的研發(fā)并重申人類尊嚴(yán)和倫理收場,。在美國,,以“不作惡”為綱的谷歌也因與國防部的合作協(xié)議涉及“Maven項目”被推上風(fēng)口浪尖,反對者普遍認(rèn)為,,識別結(jié)果完全有可能被用于軍事用途,,比如說精準(zhǔn)打擊。谷歌最終表示終結(jié)協(xié)議,。
相較于輿論環(huán)境的憂心忡忡,,研究者對“技術(shù)向善”普遍樂觀。他們認(rèn)為把AI和“殺人機器”聯(lián)系在一起,,近乎“捧殺”,,夸大AI能力之余,也引發(fā)不明真相的公眾恐慌,,無益于人工智能的發(fā)展環(huán)境,。
“很多人提到AI總是一驚一乍,把AI說成超人,。我相信人工智能是能解決問題的,,但大家的期待也要在合理范圍內(nèi)。人和機器各有優(yōu)勢,,技術(shù)會服務(wù)于特定場景,,但也不需要把AI捧上天?!苯邮芸萍既請笥浾卟稍L時,,思必馳北京研發(fā)院院長初敏博士忍不住“抱怨”了一下??磥怼拔覀冃枰鯓拥腁I”這一題,,大家都還沒有答案。
美媒稱,,通過一些著眼未來的倡議,中國正悄悄在西方國家越來越多地撤出的一些領(lǐng)域發(fā)展自己的力量,。人工智能(AI)就是中國帶來重大全球性影響的一個領(lǐng)域
這是6月29日在日本愛知縣豐田元町工廠拍攝的即將下線的豐田氫燃料電池車MIRAI,。只排放水的豐田氫燃料電池車MIRAI被稱為“終極環(huán)保車”,2014年底面市以來備受關(guān)注