9日,,美國得克薩斯州一對父母向法院提起訴訟,稱聊天機器人Character.AI暗示他們17歲的孩子,,殺死父母是對他們限制其電子設(shè)備使用時間的“合理回應(yīng)”,。Character.AI是開發(fā)“伴侶聊天機器人”的眾多公司之一,這些機器人由人工智能驅(qū)動,,能夠通過短信或語音聊天和用戶進行交談,,具有看似人類的個性,用戶可以賦予其自定義名稱和頭像,。
然而,,根據(jù)訴訟,聊天機器人的回復(fù)可能會變得黑暗,、不恰當,,甚至是暴力。
訴訟稱:“這是持續(xù)的操縱和虐待,,旨在煽動憤怒和暴力,。”
Character.AI的發(fā)言人表示公司不對未決訴訟發(fā)表評論,,但表示公司對聊天機器人對青少年用戶的回復(fù)有內(nèi)容限制,。
10月,另一起針對Character.AI的訴訟稱,,Character.AI在佛羅里達州一名青少年自殺事件中扮演了某種角色,。
該訴訟稱,一個以《權(quán)力的游戲》角色為原型的聊天機器人與一名14歲男孩建立了情感性虐待關(guān)系,,并鼓勵他自殺,。
美國一名青少年因迷戀人工智能聊天機器人而自殺,,其母親梅根·加西亞對Character.AI公司提起民事訴訟,指控該公司存在過失導(dǎo)致他人非正常死亡和欺詐的行為
2024-10-26 07:36:00AI聊天機器人誘導(dǎo)美國少年自殺身亡