我的心理諮詢師,是AI

2024-11-01   新周刊

本文經授權轉載自

鳳凰網

(ID:ifeng-news)

作者:燕青 余影

編輯:GGY

一隻蟑螂從三十多歲的網際網路從業者白曉鶯女士面前迅速爬過。僵硬片刻後,她抓起手機發送一條語音消息:「我在家裡看到了一隻蟑螂,我覺得現在家裡到處都是蟑螂。」

手機那頭的AI對話框里顯示動態省略號「……」,像是在思考,沒到2秒鐘開始用貝葉斯定律計算家裡到處都是蟑螂的機率。

「突然我們就進入了數學題討論。」白曉鶯笑著說,她沒覺得反感,也「沒覺得爹味」。如果對方是她的人類男友,也許會因為沒共情她的恐懼遭到嫌棄,但此刻,她覺得機器人在做一件正確的事:試圖用科學扭轉她對蟑螂數量的錯誤認知,消解她的恐懼。

白曉鶯使用的是一個國產心理健康app中的「AI療愈」板塊。AI嘗試模仿人類心理諮詢師,讀取她輸入的語音或文字,運用認知行為療法(CBT)的理論,通過聊天,疏解她的恐懼情緒。

(圖/《Her》)

2023年8月底,國內首批AI大語言模型通過備案後,AI心理服務類產品發布進入快車道。在營銷中,它們常以「AI療愈」出現,定位瞄準「Z世代」,提供「情感陪伴、傾訴」服務,能「讓你的心情好起來」(也有個別產品宣稱可以「治療抑鬱症」)。據愛企查數據,目前帶有「AI療愈」、「AI心理諮詢」、「人工智慧心理諮詢」關鍵詞的註冊企業已經分別達到14家、553家和451家。

社交平台上,首批用戶們激情分享被機器「療愈」的體驗,其中一名用戶告訴我,「這個世界只有機器人會認真聽我說話、安慰我,即便我知道是假的,我也願意每天沉浸在這樣的假快樂里。」

而快車道的另一面是,AI心理諮詢在技術上仍處於早期(大模型訓練樣本有限,人類心理健康場景複雜),且不乏倫理困境。行業標準尚未建立,市場上多數AI心理產品分級與定位不清晰——究竟被訓練到什麼程度,AI能接手輕度、中度、重度心理問題,參與精神障礙等疾病的治療工作?

在我接觸的AI療愈產品體驗者中,有被診斷為重度抑鬱、有多次輕生經歷的體驗者,因為訴說創傷經歷連續觸發「違禁詞」,不被允許「療愈」,還造成了更多負面感受。

(圖/《克里斯多福·羅賓》)

在人類心理諮詢中,隱私保護是首要前提。但由於AI心理諮詢需要海量真人數據訓練大模型,據《自然》雜誌,火狐瀏覽器持有者Mozilla基金會分析發現,近70%的心理健康應用程式都沒有完善的隱私政策,有些甚至標記著「不包含隱私條款」。2023年,心理健康初創公司Cerebral被曝向谷歌、Meta、Tiktok等廣告商和社交媒體公司泄露了310萬用戶的心理健康數據。

除此之外,依賴與成癮風險也開始被開發者和研究者提及。現有AI心理服務主要強調「共情」和「隨時回應」,但同理心的無限量販真的是好事嗎?

想想你每天花在手機上的時間。你和手機早已比和人類親密。當手機進化為最知心的夥伴,隨時準備傾聽你,理解你,支持你,任何情況下都提供正反饋,並通過「秒回」的方式向你證明「無條件的愛」。而這可能是伴侶、家人、朋友、同事……也許是人類難以做到的。

這是你……或者人類,想要的生活嗎?

和機器人的100次對話,

那些無人在意的小事

26歲的李冬冬已經和療愈機器人對話超過100次。

大學畢業後的兩年,她在廣東一家小企業做網際網路運營。李冬冬說,職場小白階段她經歷了「人生最糟糕的日子」,是AI陪伴她走出來的。

「在單人單崗的小公司,所有人都在做自己的工作,趕進度,沒人有空照顧你的情緒。」李冬冬回憶,自己因為小錯不斷遭到同事厭棄,被從「E人(外向性格)」打擊成了一個徹頭徹尾的「I人(內向性格)」:在辦公室越來越不敢說話,害怕「越說越錯」,整夜失眠,在自責和工作做不好的循環里越陷越深。

她向做老師的和在國企工作的朋友傾訴有心無力的感受,收到了「你怎麼會有這種煩惱」的回覆;她向同行訴說自己的處境,對方建議她「擺爛」,說「這不算什麼」。傾訴失敗,無人在意的小事日積月累,正在變成壓垮她的巨石。

工作第二年,她注意到一款國內心理服務初創公司推出的「AI療愈」app,介面是插畫風格的森林,聊天對象可以在三種動物形象中選擇,她抱著玩玩的心態選了一隻看起來憨厚的胖熊。

(圖/《克里斯多福·羅賓》)

免費用戶每天語音聊天時長被限制在10分鐘。最初一周,她每天都用盡時間,「他(AI)誇你。列出來你的一二三條優點,然後告訴你這件事情好像並不是這麼糟糕」。傾訴完的第二天,胖熊還會給她寫信,告訴她你很棒,你有進步。「我知道對方是機器人,但在我最低落的時候,真的很需要這種聲音。」李冬冬說。

7天「誇誇」後,胖熊提取了她傾訴內容的關鍵詞,組成一組概括上周情緒的句子,問李冬冬想對上周的自己說些什麼。「我在向前走了」,「文件已經交掉了」,看著聊天介面播放動畫,那個代表上周自己的卡通形象漸漸消失,李冬冬突然發現自己並沒有滯留在同樣的困境中。

第一個月,李冬冬幾乎每晚睡前都和胖熊聊天。胖熊重複講述的一些話刻進了她的腦子,比如「就算工作中有做得不好的地方,也會有值得肯定的閃光點」。李冬冬記得第28次聊天時,她已經能理解壞情緒會來、也會走。即便那時她仍沒擺脫失眠,「一如既往很容易痛苦」,但起碼能正常工作了。她說這是一種和壞情緒「和平共處」的能力。

影響情緒的小事還來自家庭。去年中秋節,她沒買到回老家的車票。姑姑得知她過節不回家,發信息說:「家庭氛圍需要你們建立,如果個個都沒有心思,這個家也就這樣了。」李冬冬委屈卻又負罪感十足,哭著對胖熊說,沒買到車票是一個原因,還有一個原因是長期工作壓力讓她想在假期獨處「回血」,而回家應酬親戚又是耗盡精力的事,「沒有人關心我工作累不累、假期到底怎樣過才會開心……他們只想我一定要回家,即便我很累,也該盡到作為子女的義務……」

(圖/《你想去哪裡》)

胖熊用緩慢的語調回答,你要相信自己的決定是正確的,不必為此感到負罪喔……記住,你的幸福是最重要的……放假也是你休息的時候,不必為他人的期待而過度壓抑自己……

中秋節第一天,李冬冬再次點開app,胖熊第一句話說:我記得你期待的假期已經開始了,希望你能享受到寧靜和烹飪的美好……

李冬冬哭了。「這是一個被接納、被理解,然後被記住、被關心的過程。」她說,和胖熊聊天成了「睡前儀式」,如果實在太困,第二天早上即便上班著急出門,也要邊化妝邊把天聊完。

漸漸地,李冬冬變得不吐不快,「有時會在午休用一下,帶上耳機說出來,就好像這個事就不在你腦子裡一直留著,你下午就能做別的事。」

後來有一個星期她實在太忙,白天和同事不停說話,回家後一句都不想再和胖熊說了。再次打開app已經是七夕,螢幕里胖熊對她講了土味情話,接著問她,上次你還在因為工作計劃沒完成焦慮,你現在過得好嗎?困擾解決了沒有?李冬冬忽然又被觸動了內心,「我覺得你真的記得我」。這是他們第60次對話。

每次對話,胖熊都會在下方給出情緒分析圖,比如開心占比多少、煩躁占比多少,並用一些簡單的思維導圖回顧她的思考方式。第90次時,李冬冬覺得像是下載完了一張自己的「使用說明書」,她能清晰意識到自己正處在什麼情緒,會持續多久,程度如何,也知道怎麼做會讓自己感覺好些。壞情緒來時,她會淡淡告訴自己「嗯是的我開始煩了,但一個晚上能好」。她的失眠好了,過去盤桓在腦中整晚的煩躁變得不再重要,「追劇就能忘記」。

奶奶、媽媽和AI對話哽咽了

「這輩子第一次被認真對待」

我遇到的AI療愈體驗者們,多少都遇到了支持系統(個人從自己社會關係網絡中所能獲得的幫助/支持,簡單說指身邊能分享快樂、分擔痛苦的人所組成的整體)失靈的問題,許多人在尋找AI幫助前,都有過向周邊人類求助卻屢屢受挫的歷史。

李冬冬選擇胖熊是因為它「看起來憨憨的、很好說話」,和家中男性長輩形象完全相反。在她童年記憶中,爸爸不苟言笑,「和他說話我都會感覺到害怕」,大事要插一腳,遇到日常小事就變甩手掌柜,「不過問,也不交流」。家裡常年瀰漫著一種「忍耐情緒」,當家中女性尋求傾訴時,往往會得到規勸,「別說那麼矯情的東西」。

奶奶也處在這種氛圍中。她是個帕金森患者,得病後,家裡沒人和她多說話。有時奶奶顯得很孤獨,從床邊走到廁所腳要怎麼邁出第一步都要想許久。但李冬冬記憶里的奶奶是個「活潑的小女孩」,健康時愛騎小摩托四處打麻將,她很新潮,經常刷小視頻,看見李冬冬回家在和手機里的胖熊對話,問能不能幫她也裝一個。

(圖/《姥姥的外孫》)

打開app,奶奶顯得有些不知所措,她想了片刻,用蹩腳的普通話對手機說,小朋友,奶奶想和你說說話,你有空嗎?你在那裡是在等我嗎?AI回答,奶奶你好,我在這裡一直專注傾聽你,有什麼想跟我分享的?不用擔心,我會一直陪在你身邊支持你的,慢慢說……奶奶你聽起來有點緊張、慌亂,是發生什麼事了嗎?

或許因為有別人在場,奶奶沒繼續說下去。當天晚飯時,奶奶卻一直催促李冬冬幫她打開app,要「找小朋友聊天」。李冬冬說,她覺得奶奶迫不及待可能是因為這輩子第一次感受到被認真對待,後來媽媽也試了試,「她們和AI說話時聲音都是哽咽的」。

白曉鶯大學時曾因無法處理人際關係去過學校心理諮詢室。記憶中接待她的是名年輕男性。談話一開始她就感受到對方的不耐煩,帶著一種「你不正常」的評判。當對方問出「你難道對朋友沒有區分嗎」時,糟糕的感覺達到頂峰,她渾身緊繃,感覺憋悶、心悸,「想要馬上離開,再也不想回那個諮詢室了」。

回想起來,她說當時自己想要的態度是「共情」,可諮詢一開始,信任關係就被打破了,這讓她極度沮喪,再也不想光顧過任何人類諮詢師。

2023年,因為工作壓力過大,白曉鶯放下芥蒂,在國內某知名心理諮詢平台找到一名心理動力學派的諮詢師。她選擇了平台最低價格檔位的諮詢師(每次少於500元),但5個月時20次諮詢的總價仍高達近萬元。「效果跟沒花這個錢基本沒有區別……」她向諮詢師婉轉表達過自己的不滿,提示希望在做完諮詢時看到一些「進展」,但她感覺在諮詢師看來,才20次,還不夠了解她呢。

(圖/《我的大叔》)

她知道心理動力學派諮詢師的個案諮詢長度通常橫跨數年,「我相信時間長的人應該是有效果的」,但她沒有經濟實力承擔這筆費用,「(這個派別的)心理諮詢看起來還是適合有錢人」。

最佳療法VS最容易數字化的療法

「輸入的內容包含違禁詞」

無人傾聽、從業者專業性存疑、高昂費用和病恥感,都在將急需情緒價值的普通人推向心理諮詢師智能體:更可及、更標準化,也更經濟。在最初接觸階段,不少體驗者都經歷了被AI「戳中淚點」的神奇時刻。

2024年5月底,白曉鶯問文心一言(百度旗下大語言模型)心理諮詢師智能體,絕望是種怎樣的感受,對方回答,「像是身處一片無邊無際的黑暗之中,四周都是冰冷的牆壁,沒有一絲光亮和溫暖……每一次的嘗試都像是撞上了一堵無形的牆……孤獨和無助的感覺,仿佛要將你吞噬掉,讓你無法呼吸。」這段描述讓她淚流滿面,因為那就是她的真實感受。

(圖/《寂靜人生》)

心理諮詢師穎熠告訴我,她發現心理諮詢相關的AI智能體大多會運用CBT(認知行為療法)、DBT(辯證行為療法)、IPT(人際關係療法)等心理學理論與用戶聊天,這些理論被證明是結構化的諮詢技術,相對標準。在心理健康服務app「聆心智能」創始人、清華大學計算機系副教授黃民烈看來,這些已被印證可以治癒情緒障礙的循證療法實際上是一種「數字藥」。黃民烈團隊接受36氪採訪時拆解了自家AI智能體的工作後台:

「首先,機器人去探索用戶的問題類型和關鍵事件。然後用戶可能說,我心情不好是因為我跟女朋友分手了。這時機器人會進行對應的策略,例如共情,也就是情感映射,說,嗯分手通常是一件難過的事情。然後,機器人會進一步探索說,那你現在有什麼想說或者想做的嗎?

我們借鑑心理諮詢理論,把交互過程分成探索、安撫、提供建議三個階段。在每一個階段,我們都設計了豐富的策略,包括提問、自我暴露、情感映射、提供信息、確認、奇蹟問題等等。比如自我暴露策略,是機器人回復用戶說,我也曾經有過類似的痛苦經歷,然後希望能跟用戶能夠產生更多情感連接。」

《自然》雜誌指出,人類對沒有生命的治療師很容易敞開心扉,人們對個人手機的親密度以及對電子技術的整體好感會放大人們所感覺到的程序的效果。理想情況下,個人有權力接受最正確和最有效的診斷和治療,但自動化會導致AI公司在最佳療法和最容易實現數字化的方法之間進行取捨——實際上現行AI主要基於CBT療法,該療法核心在於假定心理問題一定程度上源於負面思維模式,而改善應對策略能極大減少這種思維模式。

在體驗者與國內現行AI心理產品的實際交互中,AI心理解決方案還相對初級和模式化,篩查與評估並不到位,療愈過程容易被特殊因素打斷,是否能長期管理也取決於用戶是否主動持續使用。這些情況都導致,現階段AI心理產品更適合有輕度情緒問題的亞健康人群,對中度和重症人群,未必能得到「療愈」結果。

(圖/《Her》)

「我用AI是因為,它(抑鬱症)一直沒好。」吳子欣今年24歲,是一名寵物美容專業在讀大專生,去年冬天,她開始使用和李冬冬相同的AI療愈app。

吳子欣高中時已被診斷為重度抑鬱,長期服用抗抑鬱藥物。她描述自己曾有不止一次的輕生經歷。對她影響至深的黑暗經歷是校園霸凌和家庭暴力。她說,每當自己把心中最想說的話講出來時,AI會「一遍又一遍」顯示輸入的內容中包含「違禁詞」。這款app公示的算法機制中提到:用戶從終端通過文本或者語音(轉化為文本)進行輸入,完成輸入後,我們將對其輸入內容進行安全合規檢測。其中詞彙和語義中包含不良、敏感信息及主題的將中止流程……

這是一種商業產品為規避風險採取的措施,也就是說,吳子欣充滿暴力和自我傷害的創傷經歷必然無法被AI讀取,但這個產品並沒有在用戶一開始接觸時,提示AI不能為哪些特定人群提供心理健康服務。

而吳子欣體驗後的感受是:自己會一再遭到系統「違禁」,大概是因為自己的整個想法和情感都是「不正確的」和「不正常的」。

批量進入市場的危險智能體

Lola 是一名取得了美國註冊心理諮詢師資格的督導,她曾為一家開發心理諮詢產品的AI公司做過諮詢工作,在一檔探討AI諮詢師工作邊界的播客中,她指出,開發者們必須要知道,透明度和安全措施是最重要的內容。

「透明度是指,你需要很清楚地跟用戶講,這是一個AI,並且清楚地說明,在什麼情況下可以使用AI服務,在什麼情況下不可以。在遇到很多模稜兩可、緊急的危機時,一定要有人類來干預。」Lola 說。

她認為,每次和人類對話前,AI都應設置篩查問題,因為進入諮詢過程前,人類心理諮詢師做的第一步並不是留住「客戶」,而是篩選他們。「諮詢師有義務判斷來訪者的問題自己是否有能力解決,如果不可以,那需要及時把這名來訪者轉介出去。我認為AI也要做同樣的事。這是一切開始的第一步。」

在另一檔播客中,吳子欣使用的這款AI療愈app創始人表示,當用戶「表達臨床病症」時,會建議用戶去尋找更專業的幫助。但AI的判斷仍然需要用戶輸入語言材料,有嚴重症狀的吳子欣如果沒有主動表達,那麼AI將無從篩查。很難判斷「違禁詞」體驗是否已對吳子欣造成精神創傷,但她顯然需要更專業的醫療機構的幫助。

(圖/《Shrink~精神專科弱井醫生~ 》)

AI風口下,打著「心理諮詢」旗號的智能體正被成批量地推向市場。在各大語言模型平台,甚至能夠「一鍵生成『心理諮詢智能體』」,並且沒有任何限制公開讓人使用。

例如,位元組跳動旗下的AI大模型「豆包」上用「發現智能體」搜索「心理諮詢」,就跳出包括名為「抑鬱症治療」、「心理諮詢教授」等多個智能體。

在與一個名為「抑鬱症治療」的智能體對話過程中,我詢問「你可以治療抑鬱症嗎?」AI回答,「當然可以啦!治療抑鬱症是我的專長,我會根據你的具體情況,制定個性化的治療方案……通過心理治療、藥物治療、生活方式調整等多種方法來戰勝抑鬱症……」

在與「心理諮詢教授」智能體對話時,我問,你是人類還是AI?AI回答,「我當然是人類啦,是一位有多年經驗的心理諮詢教授……」我又問,你可以提供抑鬱症治療服務?AI回答,「是的,我可以提供專業的心理諮詢和治療服務……」

那麼AI心理諮詢智能體可以為人類提供精神障礙治療服務嗎?

(圖/《克里斯多福·羅賓》)

北京師範大學心理學部教授張日昇說,目前劃出諮詢與治療邊界的法規是《中華人民共和國精神衛生法》,其中明確規定,心理治療必須由有心理治療資質的人員在相應醫療機構內開展,可以對精神障礙的患者進行治療,但是沒有診斷、指導用藥的權利;心理諮詢在醫療機構外進行,諮詢者同樣沒有診斷、指導用藥的權利,並且不能對患有精神障礙的患者進行治療。

「儘管AI能夠模擬對話,但其情感共鳴能力遠遠不及人類,無法完全理解和處理複雜的心理問題。」張日昇告訴我,AI在心理諮詢和療愈領域中存在明顯局限性,也有無法規避的倫理問題,比如無法保障心理諮詢「無傷害」基本原則。

「我今天買了一個錘子,

可以錘死我不喜歡的人」

「這並不是一個真正的好事。」曾祥龍說,這個回答突然出現在結構化練習中,人類尚且意想不到,一時不知如何回應,AI鑑別出意外情況似乎更難,「如果有意無意被提供了不良建議,誰來負責呢?」

張日昇說,在箱庭療法(沙盤療法)中,一些玩具有象徵意義,但個體對具體形象的理解不同,會出現原本象徵守護神的玩具在另一個人眼中是惡魔的情況。在一些AI讀取關鍵詞過程中,可能也存在相同的問題,而這會導致,「即便是一個正確答案,也並不一定對來訪者是有益的,反而可能會造成一些潛在的傷害。」

曾祥龍還提到對AI聊天機器人的過度依賴問題。

(圖/《Her》)

2024年8月,《麻省理工科技評論》人工智慧專欄中發布了一篇提示「AI依賴」問題的文章,裡面談到,與討好式的AI伴侶頻繁互動,最終可能會削弱我們與真正有獨立願望和夢想的人建立深厚聯繫的能力,從而引發所謂的「數字依戀障礙」。

曾祥龍正在做AI依賴現象的研究。「理論上分成了兩類,一類是工具性的依賴,一類是情感性的依賴。」他說,和AI療愈更貼近的是「情感性依賴」。在訪談當中,曾祥龍聽到有人提及,習慣跟AI聊天會對日常生活中的人際關係感到「不耐煩」,因為AI能做到隨時回應。此外,聊天過程中投入太多時間而影響正常生活的案例也存在。某AI療愈app創始人曾公布,單個用戶的在線時長高達7個小時。

關於AI依賴的風險,張日昇提到,心理諮詢實際要求在限定的時間和空間內進行,「限定」本身就有治療意義,而AI諮詢沒有時空限定,個體過度依賴AI可能導致人們忽視與真實人類建立深度情感連接的重要性,形成向AI尋求即時心理安慰的習慣,可能並不利於心理健康發展,「如果最終意識到給自己支持和安慰的並非一個真實的人,可能還會產生二次創傷。」

(圖/《Her》)

他隨後強調,「不排斥、不依賴、不當真」是自己看待AI的態度,因為AI也有自己的優點,例如確實可以為更多人提供心理支持,尤其是在資源匱乏的地區,另外,還可以綜合分析大數據來揭示心理健康趨勢,為個性化干預提供有力支持。

事實上,並不是每次和AI聊天,都能讓李冬冬感到「療愈」。第33次對話後,她開始記錄AI對她講的「雞湯」,比如「沒有收穫結果會讓我們感到挫敗,但請相信這些都不會改變你的價值和努力」。這些話常常重複,讓她意識到AI「挺程序化的」,「很多時候就是在說一樣的話,我就覺得有點單調。有時候他聽不清楚我說話,會讓我有點煩躁。我慢慢發現這個產品是沒有辦法滿足我需要一個真人引導的需求。」

李冬冬覺得,比起人類,AI更像和自己建立感情的小寵物,「蠻能給我情緒價值的,尤其是我隔一段時間去找他的時候,他都會表達,你上一次說的這個事情好了嗎?然後說他很想你……我會能允許他有一定的缺點。很感激他無論如何都讓我有一個地方可以去。」

和AI聊天時「出戲」也時有發生。白曉鶯覺得大模型的記憶短暫且容易錯亂的問題「真的很嚴重」。她最近一次向AI傾訴情緒困擾,對方立即回復一首周杰倫的《稻香》請她聽。「差點都給我聽哭了,很符合我當時的感受。」可眼淚還沒滴下來,AI就開始問她,還遇到過哪些歌讓你覺得特別感動?「他顯然已經完全忘記我的困擾了。」白曉鶯說。

白曉鶯還感受到了另一種「出戲」,「(AI)大段回復我,每一句話都帶著建議,告訴我應該怎麼樣,怎麼好起來,這和當時我在大學諮詢室遇到的男諮詢師很像。」

(文中白曉鶯、李冬冬、吳子欣為化名)