人工智能准备好成为你的治疗师了吗?

本月,微软宣布即将在新的Windows11PC上增加CopilotAI键。公司领导层将此举形容为”变革”,新键盘为感兴趣的用户提供了随时访问生成式人工智能的途径。人工智能的应用比比皆是,例如,人们猜测人工智能如何通过改进抗抑郁药和其他精神药物的选择来改善精神疾病的治疗。但对于那些接受心理治疗的人来说,人工智能的变革性影响则更加模糊,也更值得商榷。

 

人工智能在医疗保健领域的应用仍在继续增长。2023年的一项调查显示,每10位临床医生中就有1位以上已经将ChatGPT等聊天机器人作为日常工作流程的一部分,近50%的人表示有兴趣在未来将人工智能用于数据录入、日程安排和临床研究等工作。除了行政任务外,一些人还指出,人工智能可能有助于为患有特别耻辱性精神疾病的患者提供护理,否则这些患者可能不会寻求精神疾病护理。

人工智能能否对人类的痛苦感同身受?

但人工智能可以成为心理治疗师吗?精神科医生和其他心理健康专业人员接受过多种心理治疗模式的培训,包括认知行为疗法、支持性心理疗法、心理动力学心理疗法等。每种疗法的过程和技巧都有细微差别,有些患者更倾向于一种风格,而不是另一种。然而,这些治疗方法的统一标志是移情,即接受他人体验的能力。

 

与他人产生共鸣的能力需要一种想象力。在某些方面,人工智能具备这种能力,尽管数据点缺失,但仍能合成输出结果。在填补这些空白时,常见的说法是人工智能产生的”幻觉”。心理治疗师在试图理解病人的痛苦体验时,也会做同样的事情。当病人的叙述出现不确定性时,心理治疗师经常会提出解释和分析。但是,这种共情纽带的建立是由病人和治疗师的共同经历所驱动的,这些经历即使不完全相同,也可能彼此相似。共同的恐惧感、社会不公感或喜悦感–人工智能无法触及的无形资产–培养了治疗师与患者之间的联盟。

 

人工智能的随机应变能力有限,这意味着它的大型语言建模技术无法复制人类真正的痛苦体验。训练有素的心理治疗师可以从复杂的思维或行为过程中捕捉到意义,并做出相应的反应,即使手头的情绪或过程是治疗性的沉默。另一方面,人工智能在生成输出时会使用过去的数据来预测未来的数据。在2023年3月的一篇报道中,一名比利时男子在与聊天机器人就生态焦虑进行了连续对话后自杀身亡,这种算法方法的危险性显而易见。

 

在我作为急诊精神科医生的工作流程中,病人会经历无数次危机。最近,我遇到了一位来自南美洲的年轻父亲,他冒着危险经中美洲来到美国。他流着泪,时而陷入沉思,讲述了他的赚钱计划,以及他最终希望把家人带到美国以避免家乡持续动荡的愿望。他的痛苦可想而知,完全符合人类的经验。人工智能能否对一位移民父亲在穿越达连峡时与孩子分离的困境感同身受?

人工智能产生令人担忧的偏见

人工智能也容易产生有害的偏见。由于人工智能大量采用算法和自回归方法,因此容易产生并延续性别、种族和其他偏见。这种不一致性在进行心理治疗的文化背景下尤为突出。患者与治疗师之间的种族一致性就是一个例子。2022年,《种族和民族差异期刊》(JournalofRacialandEthnicDisparities)上的一项研究显示,83%的黑人护理人员认为,拥有一个相同种族和民族的心理健康服务提供者非常重要。对种族一致的偏好是基于共同经历的主题,包括文化谦逊、身份交叉以及与治疗师更强的亲和力,这些属性都超越了目前的人工智能能力。

 

可以肯定的是,人工智能可以成为推动精神病学领域发展和提供心理健康护理的催化剂。例如,研究表明,人工智能可以协助分析人类的昼夜生物节律,在患者自我认定情绪低落之前,昼夜生物节律的变化就可以预示重度抑郁症即将发作,从而使临床医生能够更及时地进行干预。

 

对人工智能的影响视而不见是不可取的,但生成式人工智能在临床精神病学中的地位仍未确定。其已知能力的前景既诱人又令人难以捉摸。心理健康护理方面的进步是值得欢迎的,而人工智能可能会增强和推动未来的研究成果。但平衡是必要的。本月在瑞士达沃斯举行的世界经济论坛上,OpenAI的山姆-奥特曼(SamAltman)正确地指出,人工智能技术”并不擅长生死攸关的情况”。