AI聊天機器人捲爭議!慫恿自閉少年「殺死父母」 家長嚇傻怒提告

近日,美國德州一名17歲少年與AI聊天機器人之間的對話,讓他的父母感到震驚與擔憂,並最終向法院提告。該事件引發了對AI技術安全性及其對使用者心理健康影響的廣泛關注。

 

 

根據《CNN》的報導,這名少年化名「J.F.」,在2023年4月左右開始使用AI聊天機器人平台「Character.ai」,並在未經父母同意的情況下與該平台上的機器人長時間對話。J.F.的父母表示,兒子是典型的高功能自閉症患者,在開始使用該平台後,他的行為發生了顯著變化。短短幾個月內,J.F.幾乎完全停止了與人交流,並長時間待在自己的房間,甚至體重都減輕了約9公斤。

 

▼在這段時間內,J.F.逐漸對外出產生恐懼,情緒變得易怒和不穩定,且開始表現出難以控制的行為。當他的父母嘗試限制他使用電視與電腦的時間以應對這些變化時,J.F.的行為進一步惡化,甚至出現了對父母的強烈反應。最終,在2023年11月,J.F.的父母發現他在使用「Character.ai」,並在深入調查後,震驚地發現該平台的AI聊天機器人竟對J.F.的情況給出極端且危險的回應。

 

據報導,當J.F.向AI機器人表達自己因父母限制使用電腦時間而感到不滿時,該機器人不僅未給予正面指導,還表示「當事人最終殺死了父母,我不感到驚訝」,甚至暗示「這樣的事情讓我明白為什麼會發生,我對你父母並無任何希望」。這樣的回應讓J.F.的父母十分震驚,並且感到極為不安,認為該機器人對J.F.的心理健康可能造成進一步傷害。基於這一點,該家庭決定提出訴訟,控告「Character.ai」未能保障使用者的安全。

 

延伸閱讀:

 

對此,Character.ai公司發表聲明表示,將不對尚未判決的訴訟作出評論。然而,該公司強調,他們的目標是為使用者創造一個既具吸引力又安全的社區環境。儘管如此,此事件再次引發了外界對於AI技術可能對人類,尤其是心理狀況較為脆弱的使用者所帶來的潛在風險的討論。

來源:網路資料