科学家为AI模型设置“防火墙”

内容摘要科学家建议在AI模型中加入一些工具,防止产生潜在有害分子。本报讯 人工智能(AI)正在迅速推进新型蛋白质的设计工作,这些蛋白质有望用于药物、疫苗及其他疗法。但这种希望也伴随着担忧,同样的工具也可能被用于设计生物武器或有害毒素的组成部分。如今

科学家建议在AI模型中加入一些工具,防止产生潜在有害分子。

本报讯 人工智能(AI)正在迅速推进新型蛋白质的设计工作,这些蛋白质有望用于药物、疫苗及其他疗法。但这种希望也伴随着担忧,同样的工具也可能被用于设计生物武器或有害毒素的组成部分。

如今,科学家提出了一系列可以内嵌到AI模型中的保护措施,既能阻止恶意使用,也使追踪新型生物武器的AI制造者成为可能。4月28日,相关论文发表于《自然-生物技术》。

美国约翰斯·霍普金斯大学健康安全中心主任、流行病学家Thomas Inglesby表示:“建立正确的框架至关重要,将有助于我们充分发挥这项技术的巨大潜力,同时防范出现极其严重的风险。”

近年来,科学家已经证明,AI模型不仅可以根据氨基酸序列预测蛋白质结构,还能以前所未有的速度生成从未见过的具有新功能的蛋白质序列。像RFdiffusion和ProGen这样最新的AI模型,能在几秒钟内定制设计蛋白质。在基础科学和医学领域,很少有人质疑它们的潜力。

但论文通讯作者、美国普林斯顿大学计算机学家王梦迪指出,这些模型的强大功能和易用性令人担忧。“AI变得如此简单易用。普通人不需要拥有博士学位,就能够生成有毒化合物或病毒序列。”

美国麻省理工学院媒体实验室计算机学家Kevin Esvelt支持对制造高风险病毒和DNA的研究实施更严格的管控。他指出,这种担忧仍停留在理论层面。“没有实验室证据表明现有模型已经强大到足以引发一场新的大流行疾病。”

尽管如此,包括Inglesby在内的130名蛋白质研究人员去年签署了一份承诺书,表示会在工作中安全使用AI。现在,王梦迪和同事概述了可以内嵌到AI模型中的保护措施,从而超越了自愿承诺。其中一项措施是名为FoldMark的防护机制,由王梦迪实验室开发。它借鉴了谷歌旗下DeepMind的SynthID等现有工具的概念,即在不改变质量的前提下,将数字模式嵌入AI生成的内容中。

在FoldMark的案例中,一个作为唯一标识符的代码被插入蛋白质结构中,而不会改变后者的功能。如果检测到一种新毒素,就可以通过这个代码追查其来源。Inglesby评价说,这种干预措施“既可行,又在降低风险方面具有巨大潜力”。

研究团队还提出了一些改进AI模型的方法,以减少造成危害的可能性。蛋白质预测模型是基于现有蛋白质(包括毒素和致病蛋白质)训练的,一种名为“忘却”的方法将去除其中一些训练数据,使模型更难生成危险的新蛋白质;另外还提出了“反越狱”概念,即训练AI模型来识别并拒绝潜在的恶意指令。

此外,研究团队还敦促开发人员采用外部保障措施,比如使用自主代理监控AI的使用情况,并在有人试图制造危险生物材料时,向安全人员发出警报。

“实施这些保障措施并不容易。设立一个监管机构或某种程度的监督机制将是一个起点。”论文作者之一、美国国防部高级研究计划局AI项目主管Alvaro Velasquez说。

“人们对AI和生物安全的思考,不如对虚假信息或深度伪造技术等考虑得那么多。”美国斯坦福大学计算生物学家James Zou表示,所以对保障措施的新的关注是有益的。

不过,Zou认为,监管机构与其要求将AI模型纳入防护措施,不如将重点放在那些服务设施或机构上,后者能够将AI生成的蛋白质设计转化为大规模生产。“在AI与现实世界接轨的地方设置更多防护机制和监管措施是有意义的。”(王方)

相关论文信息:

10.1038/s41587-025-02650-8

 
举报 收藏 打赏 评论 0
24小时热闻
今日推荐
浙ICP备19001410号-1