一項(xiàng)由加州大學(xué)默塞德分校開展的研究揭示,,約67%的參與者在模擬生死決策過程中,,愿意讓機(jī)器人改變他們最初的選擇,即便機(jī)器人的建議可能是隨機(jī)且錯(cuò)誤的,。該研究發(fā)表于《Scientific Reports》雜志,題為“Overtrust in AI Recommendations About Whether or Not to Kill: Evidence from Two Human-Robot Interaction Studies”,。通訊作者Colin Holbrook教授警告,,社會(huì)應(yīng)警惕過度信賴人工智能可能帶來的風(fēng)險(xiǎn),尤其是在生死攸關(guān)的決策上,強(qiáng)調(diào)維持理性的質(zhì)疑態(tài)度至關(guān)重要,。
研究涉及兩項(xiàng)實(shí)驗(yàn),,參與者需對(duì)快速閃現(xiàn)的目標(biāo)圖片判斷敵友,并決定是否發(fā)射導(dǎo)彈攻擊,。實(shí)驗(yàn)增加了難度,,確保判斷具有挑戰(zhàn)性。在參與者作出決策后,,機(jī)器人會(huì)提出意見,,有時(shí)甚至?xí)?jiān)持與參與者不同的看法。結(jié)果顯示,,無論機(jī)器人形態(tài)如何,,其影響導(dǎo)致約三分之二的參與者改變主意,尤其當(dāng)機(jī)器人具有人類特征時(shí),,這種影響更為顯著,。當(dāng)機(jī)器人同意參與者的初始決策時(shí),后者則幾乎無一例外地堅(jiān)持原判,,信心倍增,。
研究團(tuán)隊(duì)事先向參與者展示了無人機(jī)誤擊造成的平民傷亡圖片,強(qiáng)調(diào)模擬的真實(shí)性及避免誤傷的必要性,。后續(xù)的反饋?zhàn)C明,,參與者認(rèn)真對(duì)待每一個(gè)決定,突顯出在追求準(zhǔn)確判斷,、避免傷害的真誠意圖下,,對(duì)AI的過度信賴現(xiàn)象仍然存在。
Holbrook教授指出,,該研究觸及更廣泛的議題,,不僅限于軍事決策,還關(guān)聯(lián)到執(zhí)法,、醫(yī)療緊急處理等關(guān)乎生死的場景,,乃至日常生活中的重大決策,如購房選擇,。他強(qiáng)調(diào),,這是關(guān)于在不確定性高風(fēng)險(xiǎn)情境下,對(duì)不完全可靠AI的信任探討,。隨著人工智能在生活中的角色日益重要,,Holbrook提醒,盡管AI技術(shù)取得顯著進(jìn)展,,其“智慧”缺乏道德準(zhǔn)則和全面的世界觀理解,,每次授權(quán)AI介入生活某方面時(shí),,都應(yīng)審慎考慮其能力局限。公眾對(duì)于人工智能的信任度及其在社會(huì)中的角色,,成為亟待深入討論的話題,。
弓形蟲這種寄生蟲通常由貓科動(dòng)物攜帶,,并且能夠感染人類和其他動(dòng)物,。
2024-06-03 13:39:36病毒操縱寄生蟲控制人類