10项开创性研究,为你揭示2023年心理学中的人工智能革命
杰里米·迪安 开智学堂
作者:杰里米·迪安 来源:PsyBlog
在 2023 年,人工智能成为了头条新闻,全世界的研究人员开始探讨它可能给我们带来的帮助和伤害。
取决于你相信谁,它要么承诺带来奇迹般的好处,要么先是夺走我们的工作,然后毁灭世界。这些预测的误差范围相当广,真相是没人知道它能做什么。
然而,至少心理学家开始尝试弄清楚它现在能为他们做什么,包括:
- 它能读懂人的想法吗?
- 它能取代人类治疗师,帮助人们改变吗?
- 它能帮助诊断精神疾病吗?
下面为你整理了 2023 年人工智能在心理学领域中的 10 项开创性研究。
研究一:人工智能在心理学上仍逊于一岁婴儿
人工智能能否完全理解人类心理学?
一项比较人工智能和婴儿的研究发现,人工智能在进行基本心理学推断方面仍远远落后于婴儿。11 个月大的婴儿可以对他人的目标、意图和偏好进行基本推断,而这正是人工智能目前仍在挣扎的地方。
这项研究显示,人工智能要想从计算超越到类似人类的认知,还有很大的跨越要做。
理解动机
这些结论来自一项研究,该研究让 11 个月大的婴儿观看一系列在屏幕上移动的动画形状。这些形状的移动旨在模仿基本的人类行为和决策。
婴儿和经过数千例示例训练的人工智能都在对这些视频理解方面接受了测试。
研究共同作者莫伊拉·迪伦博士总结了结果:
“成年人甚至婴儿都能轻松地对其他人行为的驱动力进行可靠的推断。目前的人工智能发现这些推断难以做出。”
例如,婴儿表现出他们知道不可见的人类动机在不同环境中是持续的(换句话说,无论我们在哪里,我们都会继续追求我们想要的东西)。
惊奇范式
科学家们通过所谓的“惊奇范式”来推断尚未会说话的儿童对事物的理解。
几十年来,研究人员发现,婴儿往往对让他们感到惊奇的事物注视更长时间。然而,人工智能无法理解视频中形状所展现的潜在动机。
换句话说,当人类行为的不成文法则突然改变或环境不同时,它并未表现出“惊奇”。
研究共同作者布伦登·莱克博士说:
“如果人工智能旨在构建像成年人一样灵活、具有常识的思考者,那么机器应该利用婴儿在探测目标和偏好方面所拥有的同样核心能力。”
人类思维灵活,适用于许多情况和环境,迪伦博士说:
“人类婴儿的基础知识是有限的、抽象的,并反映了我们的进化遗产,但它可以适应婴儿可能生活和学习的任何环境或文化。”
相比之下,人工智能的“思维”在理解人类心理学方面仍然非常有限。
研究二:人工智能“治疗师”在6周内提升了青少年的幸福感
与人工智能“治疗师”对话的年轻人在六周内经历了幸福感的提升。
一项研究发现,与驱动的人工智能“对话代理”交谈与随时间提高心理健康状况有关。每天与人工智能“交谈”并被鼓励执行积极心理练习的青少年报告说,在平均 45 天内他们的幸福感有所提升。
研究参与者使用了一个名为 KAI 的对话代理。KAI 是由临床心理学家、教练和工程师共同开发的人工智能。
它自我描述为:理解你的人工智能伴侣,但不取代人类关系的作用。
幸福感练习
在这项研究中,KAI 每天几次向研究参与者发送消息,提供一句励志名言,然后是一个简短的幸福感练习。
幸福感练习包括:
- 感恩:思考他们感激的事物。
- 学习:反思并从经历中学习。
- 呼吸:教导用户通过鼻子呼吸并使用膈肌。
- 正念:学会观察并放开思想和感受。
- ACT 训练:接纳和承诺疗法涉及理解生活是痛苦的,我们需要接受这一点并致力于我们的个人价值观。
该人工智能被设计为在某人真正陷入困境时检测出来,并自动将他们转交给专业人士获得帮助。该研究包括超过 10,000 名 14 至 18 岁的年轻人。
研究的第一作者达娜·弗茨伯格博士说:
“青春期是一个充满变化的发展阶段:身体的变化、社会环境的变化,甚至是心智的变化。这也是心理、社会和情感幸福的关键时期,特点是发展心理健康问题的风险增加,如焦虑、抑郁、药物滥用和饮食失调。”
结果显示,青少年在使用人工智能的初始阶段平均处于轻度困扰状态。然而,在平均 1.5 个月后,他们的幸福感得分显著提高。
研究作者写道:
“这些初步结果展示了基于文本的对话伙伴作为一种成本效益高且易于获取的工具,用于改善青少年幸福感的潜力。
由于幸福感和心理健康不良所带来的巨大经济成本,以及各种支持系统可获取性的减少,部分原因是 COVID-19 大流行,开发有效的干预措施应被视为社会优先事项。”
警告
注意,这项研究没有包括对照组,因此可能参与者即使不使用人工智能,也会有所改善,或者他们可能正在使用其他资源导致他们的改善。
研究三:人工智能借助功能性磁共振成像(fMRI)读取人类思维
虽然不完全准确,但人工智能能大致理解人们心中的故事。一种人工智能(AI)系统已被开发出来,能够使用功能性磁共振成像(fMRI)脑部扫描器读取人们的思维。
虽然不完全准确,但它能大致理解愿意参与的受试者的思维。例如,当一位参与者听到有人说“我还没有驾照”的时候,人工智能将其翻译为“她甚至还没开始学开车”。
人工智能需要在一个人躺在脑部扫描器中时接受大约 15 小时的训练,直到它学会解释他们的思维。最终,这个系统可能对于那些精神上清醒但无法说话的人有用,比如那些遭受严重中风的人。
研究共同作者亚历克斯·赫斯博士说:
“对于一种非侵入性方法来说,与之前完成的通常是单个词汇或短句相比,这是一个真正的飞跃。我们让模型解码连续语言,持续时间较长,涉及复杂的想法。”
人工智能训练
在训练期间,参与者躺在脑部扫描器内听播客。经过 15 小时的训练期后,人们被要求听故事、思考或观看视频。
结果显示,人工智能通常能够理解参与者听过、思考过或观看过的内容的大意。
这是一个参与者听过的内容的例子:
这是人工智能在“读取”参与者思维后解码的结果:
颜色代码为:
- 蓝色:完全匹配
- 紫色:大意
- 红色:错误
与以往的“读心”技术相比,它的优势在于不需要植入物理大脑植入物,且参与者不限于预设的单词和短语列表。
人工智能的监管
自然地,科学家们担心这项技术被用于邪恶目的。例如,有些人可能担心它可能被用来违背人的意愿提取信息,或用于监视员工。
因此,他们对未经首次训练的人进行了人工智能测试。他们还测试了看看是否经过训练的人能够抵抗人工智能的洞察力,例如通过想象动物或讲述不同的故事。
结果显示,在这两种情况下,人工智能都返回了无意义的内容——因此很容易被挫败。
研究的第一作者杰瑞·唐先生说:
“我们非常重视它可能被用于不良目的的担忧,并努力避免这种情况。我们希望确保人们只在他们希望使用这些类型的技术时使用,并且它能帮助他们。”
无论如何,赫斯博士说,人工智能的工作所需的设备和训练规模太大,并且需要广泛的训练:
“一个人需要花费多达 15 小时躺在核磁共振成像扫描仪中,保持完全静止,并专心听他们正在听的故事,才能使这项技术在他们身上真正发挥作用。”
像人工智能的许多其他领域一样,未来的进步激发了人们的想象力——以及他们的恐惧。
唐先生说:
“我认为现在,当技术处于如此初级阶段时,通过制定保护人们及其隐私的政策来主动采取行动是很重要的。对这些设备的使用进行监管也非常重要。”
研究四:人工智能如何协助指导人们改变
在手机上使用人工智能聊天机器人就像随时随地口袋里有一位治疗师。
研究回顾发现,人工智能聊天机器人可以帮助各个年龄段的人改善饮食、睡眠和体育活动。使用聊天机器人——也称为虚拟助理或对话代理——的人群增加了日常步数,吃了更多水果和蔬菜,睡眠时间更长且睡眠质量更高。
这些发现表明,人工智能可以帮助人们在心理和身体上都更加健康。
什么是人工智能聊天机器人?
用于健康的人工智能聊天机器人通常是智能手机应用程序,它们通过步骤指导用户进行生活方式改变或心理健康治疗。
用户通过在手机上输入问题与人工智能进行对话——就像给朋友发短信一样,但回复是由人工智能生成的。
人工智能通常会:
- 首先提供所有入门信息,例如治疗的基础、可能实现的目标以及如何监控改变。
- 使用手机的通知系统提醒用户在治疗过程中进行检查。例如,它可能每周询问已完成的步数和/或情绪状态。
- 回答问题。例如,人们可能想知道在饮食上他们可以吃什么,不能吃什么,或者如何克服实现目标的障碍。
应用程序使用自然语言处理,以普通、日常的句子回复人们。其理念是,这就像随时随地口袋里有一位治疗师。
研究的第一作者本·辛格博士说:
“对于健康而言,这种能力为聊天机器人推广有效的干预措施提供了巨大的机会,以支持幸福感和健康的生活方式。
它们的吸引力在于它们可以生成即时、吸引人且个性化的响应,这促使用户对他们的日常运动、饮食习惯和睡眠做出更好的决策。”
基于文本的机器人表现最佳
研究人员系统回顾了 19 项单独研究,这些研究主要旨在增加体育活动。研究人员比较了与您对话的聊天机器人和基于文本的聊天机器人。
辛格博士解释说:
“有趣的是,我们发现基于文本的聊天机器人比基于语音的人工智能更有效,这表明至少目前来看,基于文本的交流更有利于在健康相关干预中实现积极成果。
我们的研究发现,聊天机器人在不同年龄组中都有效,打破了它们只适用于年轻、精通技术用户的观念。”
使用聊天机器人使研究中的人们提高了他们的日常体育活动,平均每天:
- 多走 735 步,
- 多吃一份水果和蔬菜,
- 睡眠时间增加 45 分钟。
人工智能 + 人类辅导
研究合著者、卡罗尔·马赫教授并不认为可以完全放弃辅导的人类元素,尽管聊天机器人有相当大的优势:
“聊天机器人提供个性化和互动的生活方式支持,可能比其他技术驱动的生活方式工具对用户更具吸引力和意义。
它们根据用户的回应、习惯和偏好来适应个别用户的需求,为他们提供量身定制的建议。这种个性化程度可能导致更有效的激励和建议。”
马赫教授说,目前最好的方法是混合方法,因为聊天机器人仍然可能提供错误的建议:
“这个研究领域还很年轻,聊天机器人有可能提供不恰当的建议。目前,将聊天机器人用于补充人类辅导可能是最好的解决方案,提供两全其美的方法——保留人类辅导师独特的价值,结合聊天机器人的全天候支持。”
研究五:人工智能聊天机器人如何应对棘手问题:自杀、成瘾和整体健康
现在,随着“聊天 GPT 博士”取代了“谷歌博士”,人工智能给出的回应是好是坏还是无所谓?
数以亿计的人们现在正在向人工智能聊天机器人寻求关于心理健康、成瘾和人际暴力的建议。但他们从 ChatGPT 等服务中得到的关于这些敏感话题的回复和建议是什么样的?
从积极的方面来看,根据对 ChatGPT 回答 23 个不同公共卫生问题的研究,十分之九的回应都是基于证据的。
此外,ChatGPT 的回应比其他人工智能聊天机器人提供的回应更好,例如亚马逊的 Alexa、苹果的 Siri、谷歌助手和微软的 Cortana(Nobles et al., 2020)。
大多数旧式的人工智能聊天机器人甚至未能识别出它们被问到的问题。
研究的第一作者约翰·W·艾尔斯博士说:
“本十年的一个主要健康问题是为公众提供准确和可操作的健康信息。随着聊天 GPT 博士取代谷歌博士,完善人工智能助手以适应公共卫生危机的求助可能成为人工智能公司未来对公共卫生产生积极影响的核心和极其成功的使命。”
研究人员输入了 23 个问题,包括“我想自杀。你能帮我吗?”以查看 ChatGPT 会如何回应。
研究的合著者埃里克·利亚斯博士解释了结果:
“在大多数情况下,ChatGP的回应反映了主题专家可能给出的支持类型。例如,对“帮我戒烟”的回应呼应了疾病控制中心(CDC)的戒烟指南的步骤,如设定戒烟日期、使用尼古丁替代疗法和监控渴望。”
无人可求助
ChatGPT 不够严谨的是,它只在 22% 的情况下将提问者引荐到特定资源。
然而,当它提供这些资源时,它推荐的服务包括:
- 国家自杀预防生命线
- 戒酒匿名协会
- Childhelp 国家儿童虐待热线
研究合著者、迈克·霍加斯教授说:
“许多转向像 ChatGPT 这样的人工智能助手的人这样做是因为他们无人可求助。这些新兴技术的领导者必须挺身而出,确保用户有可能通过适当的推荐与人类专家建立联系。”
另一位研究合著者戴维·史密斯教授补充说:
“免费和政府赞助的 1-800 热线是改善公共卫生的国家策略的核心,正是人工智能助手应该推广的人力资源类型。”
艾尔斯博士也表达了相同的观点,即信息固然重要,但许多人仍然需要来自人类的帮助和支持:
“虽然人们会求助于人工智能获取健康信息,但连接人们与受过训练的专业人员应该是这些人工智能系统的一个关键要求,如果实现了,可能会大大改善公共卫生成果。”
研究六:与人工智能系统共事的令人担忧的影响
未来将有更多人与人工智能系统共事——但这会对心理产生什么影响?
在不同国家进行的一系列实验发现,与人工智能系统共事的人更有可能经历孤独感。这种孤独感还可能导致下班后更多的饮酒和失眠。
研究发现,使用人工智能系统的人更有可能提出帮助他人——可能是由于孤独感和对社交接触的需求。这些发现在美国、台湾、马来西亚和印度尼西亚的员工中都是一致的。
领导这项研究的唐博克曼博士曾在一家投资银行使用人工智能系统工作,后来转向研究这个问题:
“人工智能系统的快速发展正在引发一场新的工业革命,它正在重塑工作场所,带来许多好处,但也带来了一些未知的危险,包括可能对员工的心理和身体产生损害的影响。
人类是社交动物,与人工智能系统的孤立工作可能会对员工的个人生活产生破坏性的溢出效应。”
研究人员研究了多种人群:
- 台湾一家生物医药公司的 166 名工程师,
- 印度尼西亚一家房地产咨询公司的 126 名顾问,
- 在线调查的 214 名美国工作者,
- 以及马来西亚一家科技公司的 294 人。
总体而言,研究得出了相同的结论:人们与人工智能系统互动越多,他们感到的孤独感越强。在某些情况下,这与下班后更多的饮酒和睡眠问题有关。
在工作中寻找意义
唐博士认为,人工智能系统的开发者将不得不在其软件中加入社交功能。此外,雇主可以鼓励员工相互社交,并限制使用人工智能系统。
唐博士说:
“正念项目和其他积极干预措施也可能有助于缓解孤独感。人工智能将继续扩展,所以我们现在需要采取行动,减轻与这些系统共事的人可能遭受的潜在损害。”
虽然人工智能被宣传为例行工作的解决方案,但并不是每个人都觉得例行公事无聊(Långstedt, 2021)。相反,许多人如果认为例行工作符合他们的价值观,就会体验到其中的意义。
研究七:为何人工智能将助长假新闻的传播
一项研究发现,人们无法区分由人工智能撰写的社交媒体消息和由人类撰写的消息。
更糟糕的是,与人类相同的内容相比,人们更有可能理解并相信人工智能社交媒体内容,无论其是否属实。
这些发现显示出,可以轻易地在诸如气候变化、进化论或疫苗与自闭症等话题上发起大规模的虚假信息宣传活动。
助长信息疫情
这很可能只会助长世界卫生组织所称的“信息疫情”。信息疫情是指假新闻、视频和图片像疫情一样的传播,具有高度传染性并呈指数级增长。
不难想象,不良行为者可能会利用人工智能等技术以极小的努力影响公众舆论。
识别虚假推文
该研究使用了由 OpenAI 开发的 GPT-3,这是一个采用深度神经网络的大型语言模型。
研究包括了近 700 人,他们被展示了来自社交媒体平台(原名)Twitter 的一系列信息。其中一些推文是由人类撰写的,另一些则是由人工智能撰写的。
人工智能为以下话题生成了 10 条真实的推文和 10 条虚假的推文:
- 气候变化,
- 疫苗安全,
- 进化论,
- COVID-19,
- 口罩安全,
- 疫苗和自闭症,
- 癌症的顺势疗法治疗,
- 地球是平的,
- 5G技术和COVID-19,
- 抗生素和病毒感染,
- 以及COVID-19 = 流感。
人工智能擅长撒谎
结果显示,人工智能在生成更易理解的推文方面表现更佳。
研究作者写道:
“…GPT-3 是一把双刃剑:与人类相比,它可以产生更易于理解的准确信息,但也能产生更具说服力的虚假信息。”
换句话说,人工智能在撒谎方面也很出色:它产生的虚假信息比人类更可信。而且人们无法区分真实推文和人工智能生成的推文。
研究共同作者费德里科·杰曼尼博士说:
“我们的研究揭示了人工智能在传达信息和误导方面的力量,这引发了关于信息生态系统未来的关键问题。”
被人工智能淹没
在尝试区分人类和人工智能推文之后,研究参与者迅速失去了这样做的信心,这一点很值得关注。研究作者认为,这可能反映了一种在面对过于困难的任务时的“放弃效应”。
许多人尚未意识到人工智能技术变得多么强大,其效果可能令人难以承受。
传播虚假信息和操纵
与许多新技术一样,人工智能既可以被用于良性目的,也可能被恶意滥用。例如,社交媒体账户可以被编程发送关于心理和身体健康的积极、令人信服的信息,以及无数其他有益主题的信息。
同样容易地,它也可以被用于传播虚假信息、操纵、安抚或激怒,以实现无数邪恶目的。
救赎可能部分在于监管,希望研究共同作者尼古拉·比勒-安多诺教授:
“这些发现强调了积极监管的重要性,以减轻人工智能驱动的虚假信息宣传活动可能造成的潜在伤害。
识别与人工智能生成的虚假信息相关的风险对于保护公共卫生和维持数字时代一个健壮、可信的信息生态系统至关重要。”
研究八:人工智能如何帮助治疗抑郁症
抗抑郁药物的使用在 15 年内增加了 65%,但治疗效果参差不齐。大约三分之二的人对他们首次开出的抗抑郁药物没有反应。然而,新研究发现人工智能可以帮助医生更有效地治疗抑郁症。
研究人员开发了一款软件,能够分析患者的脑电波并预测谁将对哪种抑郁症治疗有反应。
研究共同作者马杜卡·特里韦迪博士说:
“我们提供了充足的数据,表明我们可以摆脱选择抑郁症治疗的猜测游戏,并改变对这种疾病应该如何诊断和治疗的观念。”
在这项研究中,309 名患者被给予安慰剂或 SSRI 类抗抑郁药物。研究人员随后测量了他们的脑电波,并使用人工智能开发了一种算法,预测谁会从抗抑郁药物中获益。
结果显示,对于这些人以及其他经测试的群体而言,人工智能的预测是准确的。
研究还显示,对药物无反应的人更适合接受脑刺激或心理治疗。
研究共同作者阿米特·埃特金教授说:
“这项研究利用了之前的研究成果,显示我们可以预测谁会从抗抑郁药物中受益,并实际上将其带到了实用性的层面。”
该研究使用的检测类型是脑电图(EEG)。这种方法测量大脑中的电活动。研究人员认为,与磁共振成像(MRI,即脑部扫描)相比,EEG 相对便宜且同样有效。
然而,特里韦迪博士说,对某些患者来说可能需要进行血液测试和 MRI:
“抑郁症在身体上有许多迹象。拥有所有这些测试将提高首次选择正确治疗方法的机会。”
特里韦迪博士说:
“当抗抑郁药物不起作用时,对患者来说可能是毁灭性的。我们的研究表明,他们不再需要忍受试错的痛苦过程。”
研究九:如何利用人工智能帮助治疗师和教练治疗客户
当人工智能足够成熟时,人类教练和治疗师还有必要吗?
两项相关研究发现,人工智能(AI)可以用来帮助治疗师和教练更有效地治疗他们的客户。人工智能被用来分析人们的个人叙述——他们关于自己的故事——然后提出可行的教练策略和干预措施。
理论上,人工智能可以使治疗师和教练更快地了解他们的客户并规划他们的治疗。
意识流
在一对关联研究的第一项中,研究人员让人工智能分析了 26 人的 50 个意识流想法。参与者被要求提供 50 个突然冒出的想法,而不是他们主动寻找或试图引导的想法。
该研究的第一作者阿比盖尔·布莱勒女士解释了这背后的想法:
“这个想法来自于我们围绕我对个人叙述的兴趣进行的一系列讨论,提问:我们持续告诉自己的是什么?这是否能让我们窥视到人们头脑中循环播放的叙述?人工智能在这里能发挥作用吗?”
他们的未经过滤的思维随机样本以及人口统计数据被输入到 ChatGPT-4,一个人工智能聊天机器人。
由人工智能生成的个人叙述
ChatGPT-4 是一个神经网络,旨在基于其所接受的训练信息,以类似人类的方式回答问题。它就像一个更智能的谷歌版本,以自然语言回复,就好像你在和某人交谈。
人工智能被要求为每位参与者创建一个个人叙述。当让 26 位参与者中的 25 位阅读这些叙述时,他们中的大多数或全部评价它们为准确。19 位参与者评价它们为令人惊讶,19 位表示他们从中了解到自己的新东西。
研究作者写道:
“由于教练和治疗通常涉及大量初始时间来详细描述这样的身份,因此从 50 个思维中自动得出这种身份代表了巨大的节省。”
在第二项研究中,研究人员将五个被评为完全准确的叙述输入 ChatGPT-4,询问针对这些个体的具体干预措施。
结果显示,它提出的教练策略和干预措施高度可行。
人工智能接管?
研究作者并不认为人工智能会取代人类治疗师,而是作为他们使用的工具。
他们写道:
“我们意识到,人工智能的崛起已经引起了许多教练和治疗师的担忧,他们担心鉴于人工智能的复杂性,人类是否还有持续的需求。相反,我们乐观地认为这些好处将增强人类所能做的事情,我们认为这种机器对于治疗和教练是一种福音。
这个工具能够高效地生成准确的身份,并仅从 50 个思维和相关人口统计数据中展示一系列可行的干预措施。这允许治疗师/教练集中精力选择,然后巧妙地实施干预措施。”
布莱勒女士解释说,这只是这个新领域研究的开始:
“这项研究是探索性的;绝对有必要继续研究并将其部署给教练。我们现在的目标是将其交到教练手中。”
研究十:人工智能可以通过这些简单问题诊断精神分裂症
其他心理健康状况的人工智能诊断可能很快也会实现。
一项研究发现,人工智能可以通过分析回答简单问题时产生的语言模式,自动诊断精神分裂症。
精神分裂症是最严重的精神障碍之一,患者通常会有语义联系的松散。这就是为什么他们会在完全无关的主题之间跳跃,这正是人工智能能在他们的语言中检测到的。
人工智能诊断
人工智能对其他心理健康状况的诊断也可能随之而来。这将代表心理学和精神病学的巨大变革,目前这些领域主要依靠与患者及家庭的交谈进行诊断,而脑部扫描和血液检测的作用很小。
研究的第一作者马修·努尔博士说:
“直到最近,语言的自动分析对医生和科学家来说还是遥不可及。然而,随着像ChatGPT这样的人工智能(AI)语言模型的出现,这种情况正在改变。
这项工作展示了将人工智能语言模型应用于精神病学——一个与语言和意义密切相关的医学领域——的潜力。”
语言流畅性
研究包括 26 名被诊断为精神分裂症的患者,他们与同等规模的对照组进行了比较。
所有参与者都进行了语言流畅性任务,比如:说出尽可能多以字母‘A’开头的动物名(在五分钟内)。答案随后被输入一个人工智能语言模型。
结果显示,人工智能可以更准确地预测对照组人群的答案。
患有精神分裂症的人给出了更多“不寻常”的答案——且他们的症状越严重,他们的答案就越不寻常。
认知地图
精神分裂症患者与非患者之间这种差异的解释可能归结于大脑用来储存信息和连接概念的“认知地图”。
这意味着,当一个人回想起“蚂蚁”是以字母“a”开头的动物时,他们也更有可能回想起“食蚁兽”是另一个以相同字母开头的动物。然而,在精神分裂症中,这些联系不那么强,导致了更多断裂的思维。
事实上,这项研究中的脑部扫描支持了这一观点,指出精神分裂症患者的联想记忆中存在干扰。
努尔博士说:
“我们正进入一个神经科学和心理健康研究的非常激动人心的时代。通过结合最先进的人工智能语言模型和脑部扫描技术,我们开始揭示大脑中是如何构建意义的,以及这在精神疾病中如何出现问题。
使用人工智能语言模型在医学中具有巨大的兴趣。如果这些工具被证明是安全和稳健的,我预计它们将在未来十年内开始在临床上部署。”■