打开APP
userphoto
未登录

开通VIP,畅享免费电子书等14项超值服

开通VIP
人工智能都能读懂人的想法了吗?好可怕!

作者:麦子

转载请注明:解螺旋·临床医生科研成长平台


人工智能是一场正在发生的革命,正在书写的历史,我们看得见摸得着。从顶级期刊那些惊艳的成果及新闻报道刷屏,到今年七月国务院的人工智能发展规划给它的全面支持,甚至鼓励它走进中小学课堂,似乎所有人都紧张而兴奋。有许多人害怕被它取代,又有许多人赶着脚步希望能站上掌舵者的位置。

前些天谷歌DeepMind发表在Nature上的关于围棋AI的大作又是席卷江湖。不过早在七月,DeepMind的创始人Demis Hassabis已经在Neuron上发表过一篇综述,回顾了从神经科学孕育而来的人工智能发展史,当时也是占领在Neuron的“30天最佳阅读量”排行榜榜首好久。

当然了,Hassabis的综述主要是从计算机科学的角度去讲。他还提到,人工智能和人类的神经科学早就各自发展出庞杂的分支,近期互动较少了,而实际上谁也脱离不了谁,两者应该相互滋养。

喵喵喵???神经科学滋养人工智能我们好理解,直觉是要先了解自然的人类智能是怎样的才能模拟出逼真的人工智能对不对?可是Hassabis在最后一小段确实讲到,人工智能是可以反哺神经科学的。Emmm……但他还是讲得好深奥。

恰好,最近有一篇发表在Nature Human Behavior上的研究有这么点意思。人工智能中的机器学习算法与神经科学中很常用的fMRI结合,它能够直窥人的内心,读取你不愿说出来的秘密、你说不清的情绪,更重要的是,它还发现了一些新的现象。

一个难以启齿的秘密

研究人员选取了 “自杀”这样一种想法。这是个沉重又很难防范的行为,正因为当事人不会说出来。即便那些已经意识到自己精神状态异常而去寻求精神心理科医生帮助的人也未能幸免,近80%死于自杀的患者在其最后一次与心理医生的接触中否定了自杀想法。如果人工智能可以越过谎言,或许医生可以早些采取行动,给他们帮助。

结果当然是,AI成功地将有自杀想法的年轻人与对照组区分开来,并准确识别出尝试过自杀行动的人。可是不止这些。

Medscape采访了文章的通讯作者,匹兹堡大学医学院的精神病学教授David Brent。他说,“与自杀想法和行为相关的生物学过程,反映了人们对相关概念的感觉的变化。”翻译一下:大家都看到同一个概念,但常人和自杀意向者对这概念的反应是不一样的,这种“不一样的反应”有生物学上的表现,我们可以检测到。这就是切入点。

Dr. Davie Brent

验证已知:

机器学习分类器有效识别自杀意向者

这项研究纳入了17名有自杀想法的患者,许多是刚刚出院的;还有17名健康志愿者,没有精神疾病的既往史和家族史,没有自杀尝试记录。两组按智力、性别比例(24%男性)和年龄(平均22岁)进行匹配。

研究者用自杀史表格及自杀意向量表评价受试者的自杀行为史,自杀意向的严重程度则采用他评式的哥伦比亚自杀严重程度评定量表(C-SSRS)和自评式的成人自杀意向问卷(ASIQ)。

接着,让受试者接受不同刺激,同时研究者用fMRI来观察脑部活动。刺激物即三组词汇,每组有10个单词,分别与自杀、负向情绪、正向情绪相关。这30个词以随机顺序向受试者呈现6次,每次呈现3秒,间隔4秒,还有周期性的长时间间隔。

受试者们被要求主动想一想词汇所指的意思,脑部的活动就会反应到fMRI上。当然,在给有自杀意向的受试者呈现这些词汇时,会有精神心理医生在场保障他们的安全。

“当你观察大脑活动的模式时,你其实是在处理海量数据。”Brent说,“所以要把大脑的应答区分出类别,传统方法的效率是不高的。”

机器学习分类器识别有自杀意向的受试者,准确率可达0.90(p < 0.000001),17个自杀意向者中识别出15个,而对照组的17人也正确地认出16个(灵敏度0.88,特异性0.94,阳性预测值0.94,阴性预测值0.89)。

分类器的多维尺度分析。实心点为错误分类的样本

将焦虑、童年创伤等组间差异做了统计学校正后,这个分类器仍能保持高准确度。

区分力度最大的几个词是 “death(死亡)”, “cruelty(残酷)”, “trouble(折磨)”, “carefree(无忧无虑)”, “good(好)”, “praise(赞美)”。表现差异最大的脑区包括左额中上区、内侧额叶/前扣带回、右颞中区、左下顶叶区、左额下区。这些区域都反复表现出与自我参照思维相关。

自杀意念组与对照组的差异脑区

Brent说,“似乎当你给出‘死亡’或‘自杀’这样的词汇时,那些有自杀意向的人就会想到‘我的死亡’,而对照组只会想到相关概念,而不一定会想到自己。”此外,有自杀意向的人,似乎也出现了前额叶活动的连接异常。

当健康人遭遇负面思维、情绪时,他们能有效地激活前额叶皮质,将那些“负能量”转移、修饰。有自杀意向的人,这种活动则达不到应有的效率。此时若给予干预,如认知行为学疗法,或许能帮助自杀意向者改变对此类概念的想法。

Brent还提到,研究者们已开发出一种游戏,能促使人们将“自我”与积极思想相关联,而将自杀相关词汇与消极思想关联,帮助修正不良的概念匹配。他说这个游戏能降低自伤与自杀行为。

更令人咋舌的是,这个机器学习程序还能识别患者什么时候改善,不再对自杀耿耿于怀。这或许对治疗有益。

发现未知:

自杀意向者和自杀行动者的区别

作者们还注意到,那6个最能区分健康人与自杀意向者的词汇,都分布在三组词汇表里,一个来自自杀相关组,两个来自负向情绪组,三个来自正向情绪组。

作者在文中写道:“对自杀意向者来说,生活中什么是重要的、好的,什么不是,这些价值取向似乎发生了改变。这份结果提供了一种基于神经科学的量化方法来衡量这种改变。”

文章的一作,卡耐基梅隆大学的Marcel Adam Just教授在前期研究中,鉴定了不同情绪的神经信号。他和同事们用那些算法鉴定了中枢神经在思考那6个词汇时,所发出的 “sadness(悲伤)”, “shame(遗憾、羞耻)”, “anger(愤怒)”, “pride(骄傲)”等情绪的信号。

相比于对照组,“死亡”概念在自杀意向组激起了更多的“遗憾”情绪;而“折磨”激发了更多的“悲伤”,更少的“愤怒”;同时“无忧无虑”激发的“骄傲”情绪也更少。如果能了解到情绪的动向,对精神治疗师也是很有用的,也许能帮助患者找出他们表达不清的那些促使他们走向自杀的原因。

再进一步,在自杀意向者中,机器学习分类器还能分辨出真正尝试过自杀的(9人)和只想过没做过的。

自杀的行动者和非行动者的多维尺度分析

最能区分这两组人的词汇是“death(死亡)”、“lifeless(了无生机)”、“carefree(无忧无虑)”,前2个来自自杀相关组,后1个是正向情绪组。差别最大的脑区是左额上中回,内侧额叶/前扣带回、右颞中区。

尝试过自杀的人和未尝试过的人在情绪上也有特征差异,这可以说是本研究最神奇的发现了。比如在尝试过的人中,“死亡”概念激不起什么悲伤情绪。作者推想,可能对仍然纠结于死不死的人来说,寻死仍是件羞耻的事,而那些自杀过的人大概对死亡是接受或者被吸引的,所以想到死亡就没什么悲伤了。

原本,自杀意向者和真正有行动的人是很难辨别的,也没有什么靠谱的风险因素可以预测。但机器学习发现并正确识别了二者的差异,表明他们对死亡、自杀及其他正向负向概念的感知发生了可检测、可量化的改变。最佳区分词汇“死亡”、“了无生机”(或流行的说法叫生无可恋吧),也许对它们发生了感知上的变化,就是较为紧迫的自杀行为风险因素吧。

更有意思的是,这种可检测到的区别不仅是只有机器能理解的数学模型,它还发现了情绪上的变化,提供一种便于人类理解的模式。

想想未来

这个研究当然也有局限性,比如没设置有精神病而无自杀意向的对照组;还需要受试者高度专注配合(不过研究者也提到他们用这次高度专注生成的数据所训练的模型,也能运用于噪声较高,即不那么专注的受试者)。

更难明确的一点是,有些精心策划的自杀意向者,他们会小心翼翼隐藏起自己的真实意图,不但行动上不会表现,甚至能“关闭”那些泄露天机的想法。这会不会给研究和临床应用造成干扰?但也有人相信,思想和身体一定不是背离的,技术的发展总会让我们找到其中的联系。

当然现在临床应用还很遥远,技术不够便利是一方面,Just教授也在尝试使用脑电图替代fMRI,还有其他研究者在尝试使用电子病历。

而另一方面,有很多人关心伦理问题:我的想法都已经不是秘密,那我还有人的尊严吗?如果要签知情同意书才能做这个检测,那么想要自杀的人会同意吗?一个其他行动和思维能力都正常的成年人,会接受代理人/监护人来签这份同意书吗?

还有一个所有医学AI研究中都会被穷追猛打的问题:AI判错了谁负责?更要命的是,这不同于一般的疾病诊断研究,一般疾病还有坚实的临床诊断方法可以检验,而这次是在判断只有受试者自己才知道的“想法”,如果判断错了,受试者怎么证明自己?

不过先放下这些伦理问题,这个研究却打开了一扇门,机器学习和脑成像这两项极有前途的技术结合,能一瞥人的思维,可能还有背后的机制,尤其它能区分出自杀的行动者和意向者这一点,对自杀理论和预防的改进都会有很大帮助。不得不说是一个“先驱级”的研究,是认知科学上的一道新的光芒,也许将来技术的提高能带来更多更可靠的发现。

最后说回开头提到的Hassabis那篇综述。这篇研究的模式只是他所说的“人工智能研究滋养神经科学研究”中的一种,他还讨论了一些算法的程序跟人的认知模式是否相符,是否可以有借鉴的地方,这更偏向于从计算机科学来理解。感兴趣的同学可以自行探索。

参考资料:

1. Machine Learning, MRI Accurately Identify Suicidal Intent

2. Just, M. A. et al. Machine learning of neural representations of suicide and emotion concepts identifies suicidal youth. Nature Human Behaviour 1 (2017)

3. Hassabis, D., Kumaran, D., Summerfield, C. & Botvinick, M. Neuroscience-Inspired Artificial Intelligence. Neuron 95, 245–258 (2017).

本站仅提供存储服务,所有内容均由用户发布,如发现有害或侵权内容,请点击举报
打开APP,阅读全文并永久保存 查看更多类似文章
猜你喜欢
类似文章
预防自杀:脑成像技术和AI的可能性
基于EEG信号的情绪识别
2019年| 脑机接口论文周报汇总
基于机器学习的情绪障碍诊断:功能网络预测药物反应
人工智能在银行工单处理中的应用
记忆英语单词的科学的方法与技巧
更多类似文章 >>
生活服务
热点新闻
分享 收藏 导长图 关注 下载文章
绑定账号成功
后续可登录账号畅享VIP特权!
如果VIP功能使用有故障,
可点击这里联系客服!

联系客服