近日,在一場(chǎng)關(guān)于老年護(hù)理和退休收入的對(duì)話中,,谷歌的聊天機(jī)器人Gemini AI突然語(yǔ)出驚人,,不僅對(duì)用戶進(jìn)行人身攻擊,,用詞還極其惡毒,甚至直接建議用戶“請(qǐng)死”,。這一事件引發(fā)了公眾對(duì)“失控AI”的深切擔(dān)憂,。盡管技術(shù)界認(rèn)為,,機(jī)器人被編程設(shè)計(jì)的核心規(guī)則仍然在人的掌控之中,但是這種“人類主導(dǎo)權(quán)”的假設(shè)能持續(xù)多久,?
更可怕的或許不是機(jī)器人叛變,,而是它在無(wú)意間改變了我們的世界觀。當(dāng)我們習(xí)慣讓機(jī)器人完成日常任務(wù),,我們是否會(huì)在思維上變得更加懶惰,,甚至不再反思自身的行為?如同尼爾·波茲曼在《娛樂(lè)至死》中所言,,“技術(shù)的進(jìn)步并非一定是解放,,也可能是一種新的束縛?!?/p>
如果說(shuō)汽車開(kāi)發(fā)的目標(biāo)是實(shí)現(xiàn)由機(jī)器組成的“馬”,,那么人形機(jī)器人開(kāi)發(fā)的目標(biāo)就是實(shí)現(xiàn)由機(jī)器組成的“人”。越是接近“人”,,人形機(jī)器人帶來(lái)的倫理問(wèn)題就越復(fù)雜,。一個(gè)外形酷似人類的機(jī)器人,可能在某些場(chǎng)景中被誤認(rèn)為是真正的人,。這種“擬人化”的設(shè)計(jì)模糊了技術(shù)與生命的界限,,可能引發(fā)意想不到的后果。
一個(gè)典型的例子是日本研發(fā)的“妻子”機(jī)器人,,它被設(shè)計(jì)成一個(gè)有情感表達(dá)的社交伴侶,。研發(fā)團(tuán)隊(duì)聲稱,它能夠通過(guò)對(duì)用戶行為數(shù)據(jù)的分析,,給出接近人類的情感反應(yīng),。然而,這種模擬是否會(huì)讓人們誤以為它是“活著的存在”,?當(dāng)人類將深厚的情感寄托于機(jī)器時(shí),,是否會(huì)加劇人與人之間的疏離感?
不僅如此,,機(jī)器人是否應(yīng)該擁有權(quán)利,、承擔(dān)責(zé)任,也成了倫理討論的熱門話題,。如果一個(gè)人形機(jī)器人參與醫(yī)療診斷,,結(jié)果造成了錯(cuò)誤,該由誰(shuí)負(fù)責(zé),?是機(jī)器人本身,,還是它的開(kāi)發(fā)者?我們還沒(méi)有為這些問(wèn)題找到明確答案,,而人形機(jī)器人的快速發(fā)展正在迫使社會(huì)直面這些復(fù)雜的倫理困境,。