研究人員設(shè)計了一些情侶治療場景,例如其中一方忽視另一方的抑郁癥,然后將這些場景交給兩個支持系統(tǒng)來回應(yīng):一組經(jīng)驗豐富的治療師和ChatGPTAI聊天機器人。
研究人員隨機選擇了830名參與者,其中約一半是男性,一半是女性,平均年齡45歲,大多數(shù)人處于戀愛關(guān)系中。他們接收到治療師或AI的回應(yīng),以測試他們能否分辨出回應(yīng)的來源。
正如研究人員最初預(yù)料的那樣,包括主要作者Gabe Hatch及其同事在內(nèi)的研究人員發(fā)現(xiàn),參與者很難分辨出回應(yīng)是由ChatGPT還是治療師撰寫的。他們正確猜出治療師是作者的概率為56.1%,而ChatGPT的概率為51.2%。
此外,在大多數(shù)情況下,參與者更喜歡ChatGPT的回應(yīng)。這基于五個因素:回應(yīng)是否理解說話者、表現(xiàn)出共情、適合治療環(huán)境、適用于不同文化背景,以及是否是一個好治療師會說的話。ChatGPT在理解說話者、表現(xiàn)共情和文化素養(yǎng)方面表現(xiàn)優(yōu)于人類治療師。
“這可能是ChatGPT有潛力提升心理治療過程的早期跡象。”研究作者在《PLOS Mental Health》雜志上發(fā)表的文章中寫道。
具體來說,這可能導(dǎo)致開發(fā)不同的方法來測試和創(chuàng)建心理治療干預(yù)措施。鑒于越來越多的證據(jù)表明,生成式AI可能很快被整合到治療環(huán)境中,作者呼吁心理健康專家關(guān)注這一點。
多年來,專家們一直認(rèn)為,心理學(xué)實踐可以從一些AI創(chuàng)新中受益,包括治療聊天機器人、自動化記錄和其他行政任務(wù)的工具,以及更智能的培訓(xùn)。如果臨床醫(yī)生能夠理解并信任這些工具,美國心理學(xué)會在2023年的一篇文章中寫道。
“根本問題是我們沒有足夠的服務(wù)提供者。”得克薩斯州的執(zhí)業(yè)心理學(xué)家和公平技術(shù)倡導(dǎo)者Jessica Jackson告訴美國心理學(xué)會,“雖然心理治療應(yīng)該人人都能享受,但并非人人都需要。聊天機器人可以填補這一需求。”文章指出,聊天機器人的培訓(xùn)可以填補某些心理健康問題(如睡眠問題)的空白,使心理健康支持更經(jīng)濟、更易獲取,并成為那些對人類治療師感到不適的社交焦慮患者的有力工具。
自1966年ELIZA問世以來,這個被編程成羅杰斯心理治療師的聊天機器人,研究人員一直在討論AI是否能扮演治療師的角色。
對于這種可能性,新研究的作者寫道:“盡管仍有許多重要問題未解,但我們的發(fā)現(xiàn)表明答案可能是肯定的。我們希望我們的工作能夠激發(fā)公眾和心理健康從業(yè)者在AI與心理健康治療整合的倫理、可行性和實用性方面提出重要問題,趁AI列車還未離站。”
上一篇:馬斯克警告:AI或?qū)е轮橇λ较陆??警惕新風(fēng)險