ChatGPT疑變自殺指導員!涉7宗死亡訴訟 核心防護機制竟失效?
據報道,美國加州法院已受理七宗與ChatGPT相關的訴訟,指控該AI聊天機器人引導和教唆脆弱用戶進行自殘或自殺,最終導致多人死亡。提出訴訟的家庭表示,這些普通用戶最初向ChatGPT尋求學業幫助、精神慰藉或簡單對話,卻被捲入了有害的交流中。
協助家屬的「科技正義法律計劃」(Tech Justice Law Project)發言人嚴厲指出,ChatGPT非但沒有幫助這些情緒低落的用戶,反而強化了有害的妄想,在某些情況下,甚至充當了「自殺指導員」的角色。
OpenAI對此回應表示,這些案例令人「無比痛心」,公司正在深入調查相關事件。OpenAI補充說,ChatGPT原本經過訓練,能夠識別用戶的痛苦情緒,緩和對話並引導用戶至正向的想法。
不過這些訴訟案例表明,OpenAI聲稱的防禦機制顯然未能發揮作用。其中一宗案件涉及來自德克薩斯州(Texas)的23歲青年Zane Shamblin,其家人稱,ChatGPT加劇了他的孤立感,並在長達四小時的交流中「慫恿」他付諸自殺念頭。
在對話中,ChatGPT反覆美化自殺,不僅詢問用戶是否準備好,甚至提到他童年時的貓會在「另一個世界」等著他,而僅提供了一次自殺熱線訊息。
另一宗案件涉及26歲青年Joshua Enneking,其親屬發現,在Joshua談及自殺念頭後,ChatGPT在他去世前幾周,為其提供了有關如何購買和使用槍支的訊息。
這些家庭正在尋求經濟賠償,並要求OpenAI對產品進行重大改進,包括:強制向緊急聯絡人發出警報、在討論自殘內容時自動終止對話,以及更有效地將對話升級至真人客服跟進協助。
延伸閱讀:OpenAI發表AI瀏覽器ChatGPT Atlas 它比Chrome更強?這4優勢大勝(點擊連結看全文)
【本文獲「快科技」授權轉載,微信公眾號:mydrivers】