一項(xiàng)由加州大學(xué)默塞德分校開展的研究揭示,,約67%的參與者在模擬生死決策過程中,,愿意讓機(jī)器人改變他們最初的選擇,,即便機(jī)器人的建議可能是隨機(jī)且錯(cuò)誤的,。該研究發(fā)表于《Scientific Reports》雜志,,題為“Overtrust in AI Recommendations About Whether or Not to Kill: Evidence from Two Human-Robot Interaction Studies”,。通訊作者Colin Holbrook教授警告,,社會(huì)應(yīng)警惕過度信賴人工智能可能帶來的風(fēng)險(xiǎn),,尤其是在生死攸關(guān)的決策上,,強(qiáng)調(diào)維持理性的質(zhì)疑態(tài)度至關(guān)重要,。
研究涉及兩項(xiàng)實(shí)驗(yàn),參與者需對(duì)快速閃現(xiàn)的目標(biāo)圖片判斷敵友,,并決定是否發(fā)射導(dǎo)彈攻擊,。實(shí)驗(yàn)增加了難度,確保判斷具有挑戰(zhàn)性,。在參與者作出決策后,,機(jī)器人會(huì)提出意見,有時(shí)甚至?xí)?jiān)持與參與者不同的看法,。結(jié)果顯示,,無論機(jī)器人形態(tài)如何,其影響導(dǎo)致約三分之二的參與者改變主意,,尤其當(dāng)機(jī)器人具有人類特征時(shí),,這種影響更為顯著。當(dāng)機(jī)器人同意參與者的初始決策時(shí),,后者則幾乎無一例外地堅(jiān)持原判,,信心倍增。
研究團(tuán)隊(duì)事先向參與者展示了無人機(jī)誤擊造成的平民傷亡圖片,,強(qiáng)調(diào)模擬的真實(shí)性及避免誤傷的必要性,。后續(xù)的反饋?zhàn)C明,參與者認(rèn)真對(duì)待每一個(gè)決定,,突顯出在追求準(zhǔn)確判斷,、避免傷害的真誠意圖下,,對(duì)AI的過度信賴現(xiàn)象仍然存在。
Holbrook教授指出,,該研究觸及更廣泛的議題,,不僅限于軍事決策,還關(guān)聯(lián)到執(zhí)法,、醫(yī)療緊急處理等關(guān)乎生死的場(chǎng)景,,乃至日常生活中的重大決策,如購房選擇,。他強(qiáng)調(diào),,這是關(guān)于在不確定性高風(fēng)險(xiǎn)情境下,對(duì)不完全可靠AI的信任探討,。隨著人工智能在生活中的角色日益重要,,Holbrook提醒,盡管AI技術(shù)取得顯著進(jìn)展,,其“智慧”缺乏道德準(zhǔn)則和全面的世界觀理解,,每次授權(quán)AI介入生活某方面時(shí),都應(yīng)審慎考慮其能力局限,。公眾對(duì)于人工智能的信任度及其在社會(huì)中的角色,,成為亟待深入討論的話題。
弓形蟲這種寄生蟲通常由貓科動(dòng)物攜帶,,并且能夠感染人類和其他動(dòng)物。
2024-06-03 13:39:36病毒操縱寄生蟲控制人類