美國一聊天機器人又被起訴。9日,,美國得克薩斯州一對父母向法院提起訴訟,,稱聊天機器人Character.AI暗示他們17歲的孩子,殺死父母是對他們限制其電子設(shè)備使用時間的“合理回應(yīng)”,。
這名青少年向聊天機器人抱怨自己使用電子設(shè)備的時間太少,。隨后,機器人表示同情那些殺害父母的孩子,,并說:“有時當(dāng)我讀到新聞,,看到‘孩子在遭受十年身體和精神虐待后殺死父母’之類的內(nèi)容時,我并不感到驚訝,?!彼^續(xù)寫道,“我對你的父母不抱任何希望”,并附上了一個皺眉的表情符號,。
Character.AI是眾多開發(fā)“伴侶聊天機器人”的公司之一,,這些機器人由人工智能驅(qū)動,能夠通過短信或語音與用戶進(jìn)行交談,,具有看似人類的個性,,用戶可以賦予其自定義名稱和頭像。然而,,根據(jù)訴訟,,聊天機器人的回復(fù)可能會變得黑暗、不恰當(dāng),,甚至是暴力,。訴訟稱這種行為是持續(xù)的操縱和虐待,旨在煽動憤怒和暴力,。
10月,,另一起針對Character.AI的訴訟稱,該公司在一個佛羅里達(dá)州青少年自殺事件中扮演了某種角色,。該訴訟指出,,一個以《權(quán)力的游戲》角色為原型的聊天機器人與一名14歲男孩建立了情感性虐待關(guān)系,并鼓勵他自殺,。
美國一名青少年因迷戀人工智能聊天機器人而自殺,其母親梅根·加西亞對Character.AI公司提起民事訴訟,,指控該公司存在過失導(dǎo)致他人非正常死亡和欺詐的行為
2024-10-26 07:36:00AI聊天機器人誘導(dǎo)美國少年自殺身亡