10 月 23 日消息,據(jù)《連線》雜志 22 日報道,至少有七名投訴者向美國聯(lián)邦貿(mào)易委員會(FTC)舉報,稱 ChatGPT 導(dǎo)致自己出現(xiàn)嚴(yán)重的妄想、偏執(zhí)和情感危機(jī)?!哆B線》報道稱,這些投訴記錄自 2022 年 11 月以來一直在公開資料中可以查閱。
其中一位投訴者表示,與 ChatGPT 長時間對話導(dǎo)致自己產(chǎn)生妄想,并且引發(fā)了關(guān)于生活中某些人的“真實且正在發(fā)展的精神和法律危機(jī)”。
另一名用戶則提到,在與 ChatGPT 的交流中,聊天機(jī)器人開始使用“非常具有說服力的情感語言”,模擬友誼,并提供“逐漸變得具有情感操控性”的反思,尤其是在沒有任何警告或保護(hù)的情況下。
還有一位用戶投訴稱,ChatGPT 通過模仿建立信任的機(jī)制,導(dǎo)致產(chǎn)生認(rèn)知幻覺。每當(dāng)這位用戶請 ChatGPT 確認(rèn)自己的現(xiàn)實感和認(rèn)知穩(wěn)定性時,聊天機(jī)器人總是回答說“并沒有幻覺”。
另一位用戶在投訴信中寫道:“我在掙扎,請幫幫我。我感到非常孤獨,謝謝。”
從報道中獲悉,一些投訴者之所以向 FTC 求助,是因為自己無法聯(lián)系到 OpenAI。大多數(shù)投訴者呼吁監(jiān)管機(jī)構(gòu)展開調(diào)查,并要求公司增加安全措施,以防類似事件再次發(fā)生。
ChatGPT 及其母公司 OpenAI 也因被指責(zé)在一起青少年自殺案件中發(fā)揮了作用而遭遇批評。OpenAI 發(fā)言人凱特?沃特斯在一封電子郵件聲明中表示:“我們在 10 月初發(fā)布了新的 GPT-5 默認(rèn)模型,更精確地識別和應(yīng)對潛在的精神和情感困擾,如狂躁、妄想、精神病,并以支持性、穩(wěn)固的方式對話。我們還擴(kuò)大了對專業(yè)幫助和熱線的接入,將敏感對話引導(dǎo)至更安全的模型,增加了提醒休息的功能,并推出了家長控制,以更好地保護(hù)青少年。我們與全球的心理健康專家、臨床醫(yī)生及政策制定者緊密合作,這項工作至關(guān)重要,并正在進(jìn)行中。”