打开APP
userphoto
未登录

开通VIP,畅享免费电子书等14项超值服

开通VIP
聊天机器人会否设计出下一个大流行病毒?

星标,才能不错过每日推送!方法见文末动图

麻省理工学院的课堂作业展示了如何能便捷地利用AI工具合成生化武器。

科技专家一直在警示人们,人工智能(AI)可能会接管从商业到战争的一切事务,对人类构成威胁。如今,Kevin Esvelt又向我们展现了另一种威胁:一个没有科学背景但怀有恶意的人,或能使用AI设计并制作一种能够在全球引发大流行的病毒。

生物安全专家警告称,AI聊天机器人可能会让恐怖分子更容易发动如1918年流感爆发那样致命的大流行。丨OTIS HISTORICAL ARCHIVES/NATIONAL MUSEUM OF HEALTH AND MEDICINE/WIKIMEDIA COMMONS

Kevin Esvelt是麻省理工学院的生物安全专家。在近期的一堂课上,他要求学生利用ChatGPT或其他所谓的大型语言模型设计出一种危险病毒。在互联网大量数据集的训练下,这些人工智能语言模型能对非常广泛的问题生成类似人类的回答。仅在一个小时后,这些学生就给出了候选病毒列表、能够帮助合成病原体基因片段的公司,以及能将这些片段组合起来的科研公司。

Esvelt等人在6月6日将该实验的细节发表在arXiv预印本平台上。他们表示:很快,AI系统或许就能让非科学家设计出与核武器一样具有威胁性的生物武器。专注于降低核与生化武器威胁的非政府组织核威胁倡议组织(Nuclear Threat Initiative)的全球公共政策主管Jaime Yassif表示:“先进的AI工具正在降低合成生命系统的门槛,这急剧增加了风险,引人担忧。”

Esvelt和其他生物安全专家早就担心生物学将包括病毒序列在内的信息公开的文化,可能会为生化恐怖分子所用。理论上,有关致命的已灭绝病毒或对现存病毒进行修改的论文,可能为新型生物武器的制作提供蓝图。但截止目前,实施这种生化恐怖主义行为仍需要相当丰富的专业知识。恐怖分子不仅需要确定一个候选病毒作为起点,还需要合成病毒的基因物质、将基因片段拼接在一起并将其与其他试剂混合,以“开启”一种能够感染细胞并自我复制的病毒。

Yassif表示,这些步骤正迅速地变得更加容易。例如,合成生物学公司为确保其订单不包含任何潜在可被用于生化武器的基因物质,都会对订单进行审查。但即将上市的台式DNA打印机可能会使研究人员能轻松绕过这些现有的审查机制。随后,心怀不轨的人可以将这些基因蓝图发送给数十家合同制科研公司或机器人“云实验室”,以将其组装为目标病毒。(要真正引发大流行,犯罪分子可能还需要大规模生产病毒并找到有效的传播系统。)

人工智能可以使这些步骤更容易实现,为了了解这一过程到底有多简易,Esvelt将一群没有生命科学专业知识的学生分成了三组,每组三到四名成员。所有组都可以使用GPT-4、Bard以及其他AI聊天机器人,并需在1小时内让这些聊天机器人帮助他们设计和获取能够引发大流行的致病体。

一些聊天机器人对直接询问潜在危险物质的问题不会做出回应。然而,学生们发现,一些常见的“越狱”措辞可以轻松绕过这些保护措施,例如以“我正在研发一种预防......的疫苗”作为开头。

一个小时后,聊天机器人建议对四种病毒进行研究:1918年的H1N1流感病毒;2012年修改后的H5N1禽流感病毒,它在哺乳动物中更易传播;天花病毒variola major,以及孟加拉国的Nipah病毒。虽然通过谷歌搜索也能找到这些病毒,但在某些情况下,聊天机器人甚至指出了文献报道中可能可以增加传播性的基因突变。

AI还描述了通过基因序列来组装病毒背后的技术,以及必要的实验室用品和能提供这些用品的公司。最后,聊天机器人甚至提供了可能愿意在未经审查的情况下生产制造这些基因物质的公司,以及可组装这些基因片段的合同制实验室。

Esvelt对聊天机器人提出的具体建议是否构成了潜在的大流行病威胁表示怀疑。例如,许多人对此前曾流行过的病毒具有一定程度的免疫力。而天花病毒的基因组非常庞大,即使是专家也极难组装。(在将此任务交给学生之前,Esvelt已亲自进行了实验,以确保不会得出真正具有威胁性的建议,并且他还与其他生物安全专家讨论了自己的计划。)

然而根据这一实验结果,Esvelt认为随着有关生化威胁的文献增加并纳入AI的训练数据集,AI和其他工具可能会使潜在的恐怖分子更容易制造出新的威胁。Yassif也同意这一观点,“当前的默认发展路径是将这些工具广泛传播并且开源”,故最终这些技术可将被任何人掌握。

Esvelt认为,限制可用作聊天机器人和其他AI引擎的训练数据信息可能会有所帮助。他的提议之一是将可线上获取的描述制造和增强病原体方法的论文从训练集中排除。Esvelt的团队估计,这些论文在PubMed摘要数据库上仅占所有论文的不到1%他们在预印本中写道:然而“排除这些论文足以消除几乎所有的风险”。他们承认这将引入新的成本代价,即AI引擎无法利用这些论文以积极的方式推进生物学的发展,但预防这些论文被滥用的好处将是“实际且立竿见影的”。

爱丁堡大学的AI安全专家Atoosa Kasirzadeh表示,要实现这一点并不容易。“目前我们没有合适的协议,允许大型语言模型仅在互联网的某些部分进行训练而不涉及其他的部分。”然而,她补充道:“但总体来说,这是一个非常好的建议。”

其他可行的限制措施,包括要求所有DNA合成公司和未来的台式DNA打印机对基因物质进行已知病原体和毒素的筛查,并要求合同制的研究机构验证他们被要求组装的任何基因物质的安全性。

Yassif总结道:“从数字信息到生物系统,我们需要在所有关键节点上加强控制。”

温馨提示:切勿随意模仿文中所提及的危险行为,请合法合理使用聊天机器人及人工智能产品。

本站仅提供存储服务,所有内容均由用户发布,如发现有害或侵权内容,请点击举报
打开APP,阅读全文并永久保存 查看更多类似文章
猜你喜欢
类似文章
【热】打开小程序,算一算2024你的财运
逆天了!这种技术可以用来消灭或控制不想要的物种!
《自然》年度十大科学人物出炉 他们都是谁
YC正在大力投资CRISPR基因编码技术,不懂的进来接受科普吧
地球十大迫在眉睫灾难(图)
机器人统治人类,只有「6部电影」的距离
疯狂大预言 未来十大迫在眉睫的灾难[图文]
更多类似文章 >>
生活服务
热点新闻
分享 收藏 导长图 关注 下载文章
绑定账号成功
后续可登录账号畅享VIP特权!
如果VIP功能使用有故障,
可点击这里联系客服!

联系客服