ChatGPT 如何让生物恐怖主义变得容易

1990 年夏天,三辆卡车在东京及其周边地区的不同地点喷洒了黄色液体,其中包括两个美国海军基地、成田机场和皇宫。袭击者属于一个名为“奥姆真理教”的组织,该组织是一个日本邪教组织,旨在导致文明崩溃,为根据其宗教理想秩序的新社会的崛起腾出空间。五年后,奥姆真理教因在东京地铁发动沙林毒气袭击、造成 13 人死亡、数千人受伤而声名狼藉。

奥姆真理教原意是指 1990 年夏天散布的黄色液体含有肉毒杆菌毒素,这是人类已知的毒性最强的生物物质之一。然而,那年夏天的袭击事件中没有人死亡。他们失败的一个可能因素是奥姆真理教缺乏一项关键知识:传播肉毒杆菌 和传播其产生的高度致命的肉毒杆菌毒素之间的区别。目前尚不清楚奥姆真理教是否成功获得了这种细菌的产毒形式,而且奥姆真理教的攻击失败还有其他原因。

但如果奥姆真理教或类似的邪恶组织能够使用当代人工智能工具,可能就不会犯这个错误和其他错误。ChatGPT非常擅长回答问题和提供知识,包括肉毒杆菌毒素的生产方面的知识。如果奥姆真理教能够访问 ChatGPT,1990 年夏天的袭击是否会被视为历史上最严重的生物恐怖主义事件?

人工智能的进步具有对科学和健康产生积极影响的巨大潜力。ChatGPT 等工具正在彻底改变社会的工作和学习方式,而应用于生物学的人工智能解决了长达十年之久的蛋白质折叠问题,并正在改变药物发现。然而,随着人工智能提高了生物工程的上限并帮助将这些权力分配给大量个人,存在着严重的风险,即它将使奥姆真理教等居心不良的行为者产生潜在的破坏性影响。正如我在最近的预印本中讨论过的论文、ChatGPT 等大型语言模型(LLM)以及新颖的人工智能驱动的生物设计工具可能会显着增加生物武器和生物恐怖主义的风险。

人工智能语言模型如何成为生物武器的威胁倍增器

大型语言模型——非常擅长回答问题和教授军民两用知识——尤其可能会增加生物武器的可及性。在麻省理工学院最近的一次练习中,ChatGPT 只花了一个小时就向非科学家学生介绍了四种潜在的大流行病原体,包括那些缺乏在实验室中制造它们的技能的人如何获得它们的选项,以及如何避免通过从不筛选订单的提供商处获取遗传物质来进行检测。

同时,奥姆真理教对肉毒杆菌和肉毒杆菌毒素的区别缺乏了解的故事并不是一个孤立的例子。过去的生物武器计划经常因没有合适的人员以及所需的知识和专业知识来制造有效的生物武器而遇到瓶颈。基地组织对生物恐怖主义的探索是由拉乌夫·艾哈迈德领导的,他最初研究的是与粮食生产相关的微生物,因此试图快速了解炭疽和其他病原体。2001 年,拉乌夫利用他的科学资历在获取炭疽病方面取得了进展。目前尚不清楚他走了多远。同年12月他被捕。

尽管能够获得相关设备,萨达姆侯赛因领导下的伊拉克从未将其炭疽武器从威力较弱的液体形式转变为更危险的粉末形式,这种粉末形式可以以更高和更可预测的浓度储存和释放。这可能是因为科学家缺乏干燥和研磨炭疽的相关过程的知识。然而,随着聊天机器人变得越来越复杂,它们可能会无意中帮助具有恶意意图的个人提高有关使他们能够造成伤害的主题的技能。

但仅从人工智能实验室助理身上你能学到多少东西呢?毕竟,要制造病原体或生物武器,您不仅需要法学硕士可以提供的那种教学知识,还需要动手实践的隐性知识。隐性知识是指所有无法用语言表达、只能通过直接经验获得的知识。想想如何骑自行车,或者就此而言,如何进行分子生物学程序,这可能需要知道如何握住移液器、摇动烧瓶或处理细胞。很难定义这种隐性知识障碍的程度以及像 ChatGPT 这样的法学硕士可能对降低它有多大影响。然而,一个事实似乎很清楚:如果聊天机器人和人工智能实验室助理使生物制剂的创建和修改看起来更容易,那么很可能会有更多的人尝试他们的手。尝试的人越多,最终成功的人就越多。

此外,ChatGPT 只是语言模型和相关人工智能形式的开始。现在,语言模型正在彻底改变科学家指导实验室机器人执行哪些工作的方式。很快,人工智能系统将能够进行实验策略的构思和设计。因此,人工智能将促进并加速科学的自动化程度,减少推进大型项目所需的科学家数量。这将使秘密开发生物武器变得更加容易。

生物设计工具可以简化生物武器

虽然大型语言模型最终可能会突破生物设计能力的上限,但更专业的人工智能工具现在已经在这样做了。此类生物设计工具 (BDT) 包括AlphaFold2等蛋白质折叠模型和RFdiffusion等蛋白质设计工具。这些人工智能工具通常根据生物数据进行训练,例如基因序列。它们由许多不同的公司和学者开发,以帮助解决重要的生物设计挑战,例如开发治疗性抗体。随着生物设计工具变得更加强大,它们将带来许多有益的进步,例如基于新型蛋白质或设计病毒创建新药物。

但如此强大的设计能力也可能加剧生物风险。在极端情况下,生物设计工具可以设计出具有前所未有特性的生物制剂。据推测,自然病原体的特点是在传染性和致命性之间进行权衡。设计的病原体可能不具有这样的进化限制。像奥姆真理教这样的组织有可能创造出一种比自然界所能产生的任何病毒都要严重得多的大流行病毒,因此,生物设计工具可以将流行病从现在的灾难性风险转变为真正的生存威胁。生物设计工具还可以创建针对特定地区或人群的生物制剂。

在短期内,新的设计能力可能会挑战现有的控制危险毒素和病原体接触的措施。现有的安全措施往往侧重于危险生物的禁止清单或筛查已知的威胁基因序列。但设计工具可能会简单地生成具有类似危险特性的其他代理,而这些措施无法捕获这些代理。

好消息是,至少在最初阶段,生物设计工具带来的新的尖端可能性可能仍然只有数量可控制的现有专家才能使用,他们会将这些设施用于合法和有益的目的。然而,随着生物设计工具变得如此熟练,其输出几乎不需要额外的实验室测试,这种准入障碍将会下降。特别是,当人工智能语言模型学会与工具有效交互时。语言模型已经与专门的科学工具联系起来,以帮助完成特定任务,然后自动应用正确的工具来完成手头的任务。因此,生物设计的高度很快就会被很多人所利用,包括恶意的行为者。

为什么我们需要强制性基因合成规则

可以采取哪些措施来减轻人工智能和生物学交叉带来的风险?有两个重要的角度:加强一般生物安全措施和推进针对新人工智能系统的风险缓解方法。

面对日益强大和易于获得的生物设计能力,一项关键的生物安全措施是通用基因合成筛选。蛋白质或生物体的遗传构建模块的生产是将数字设计转化为物理代理的关键步骤。许多公司专门生产此类 DNA 或 RNA 构件。自 2010 年以来,美国政府建议此类基因合成公司筛选订单和客户,以确保只有合法的研究人员才能获取受控制剂的遗传材料。许多尖端基因合成公司自愿进行此类筛选,并成立了国际基因合成联盟协调这些活动。然而,相当多的基因合成提供商仍然没有进行筛选。事实上,正如麻省理工学院的演习所表明的那样,ChatGPT 非常善于指出这一事实,并就如何利用供应链安全中的此类弱点提供指导。

我们需要的是筛选合成 DNA 产品的强制性基线。要求这样的基线筛选并不违背公司的利益:美国和英国的行业领导者一直在自愿筛选订单,并积极呼吁建立监管基线,以防止竞争对手在安全方面吝啬。强制进行基因合成筛选的措施应采用越来越常见的台式基因合成设备,并且需要面向未来,包括筛选相关药物的功能等同物。数字到物理边界的其他关键服务提供商也需要类似的客户筛选基线,例如提供合成生物体服务的合同研究组织。

推进人工智能治理

除了一般的生物安全措施外,我们还需要针对人工智能的干预措施。第一个重点应该是减轻大型语言模型的风险,因为这些模型不仅可能已经降低了生物滥用的障碍,而且还因为它们的能力可能会快速且不可预测地增强。大型语言模型带来的所有风险都面临着一个关键挑战,即新的危险功能可能只有在模型发布后才会变得清晰。

对模型功能的预发布评估可能在减轻法学硕士风险方面发挥特别重要的作用。这种预先评估是必要的,以确保新模型在公开发布时不包含危险功能——如果由第三方进行,他们可以确保公司在培训和微调期间采取适当的步骤,以减少这些模型出现问题的可能性可能会导致生物滥用。通过结构化访问方法(例如Web ChatGPT界面)发布模型可以确保安全措施能够持续更新。相比之下,开源一个强大的法学硕士存在重大风险,因为微调和防护措施可能很容易被删除,并且如果发现新的危险功能,则不可能撤回模型或更新其防护措施。

一般来说,人工智能工具对生物滥用风险的潜在影响提出了一个深刻的问题:谁应该能够获得双重用途的科学能力?对于试图回答这个问题的政策制定者来说,考虑来自不同学科、人口和地域的不同声音至关重要。这将需要在与病原体相关的科学领域的开放性、非法活动数据流的执法和监测以及滥用风险的增加之间进行艰难的权衡。

一个明智的立场可能是,像 ChatGPT 这样的语言模型不需要向任何人提供详细的分步说明来创建危险的大流行性流感病毒。因此,如果此类模型的公共版本不详细回答有关此问题和其他双重用途主题的问题,那么总的来说可能会更可取。值得注意的是,Anthropic 最近发布的尖端语言模型Claude 2在向用户提供危险实验的详细说明方面比 GPT-4 具有明显更高的障碍。

与此同时,重要的是这些工具使科学家能够接受适当的培训并获得批准来开发新的药物和疫苗。因此,人工智能驱动的实验室助理和生物设计工具需要差异化的访问方法。这可能需要先进的方法让合法科学家在网上验证自己的身份。例如,为了获得预测流感病毒免疫逃逸变体的模型功能,从而为疫苗设计提供信息,科学家可能需要验证并提供适当的生物安全和双重用途审查文件。

除了加剧生物安全风险之外,人工智能的进步也带来了机遇。随着人工智能的进步刺激更严格的基因合成筛选,这将更广泛地加强生物安全。随着生物风险推动人工智能治理措施(例如大型语言模型的预发布评估),这将减轻更广泛的人工智能风险。政策制定者的迅速行动不仅可以提高安全性,还可以为获得人工智能的诸多好处铺平道路。

乔纳斯·桑德布林克 (Jonas Sandbrink) 是牛津大学的生物安全研究员。本文基于他最近发表的题为“人工智能和生物滥用:区分语言模型和生物设计工具的风险”的预印本。本文仅反映作者的观点,不代表作者所属组织的观点。

韭菜热线原创版权所有,发布者:风生水起,转载请注明出处:https://www.9crx.com/74993.html

(0)
打赏
风生水起的头像风生水起普通用户
上一篇 2023年8月15日 23:40
下一篇 2023年8月15日 23:59

相关推荐

  • 谷歌、微软和亚马逊正在推出他们最新的人工智能助手

    谷歌周二表示,正在将Bard 扩展到其多个应用程序,包括 Gmail 和 Docs。第二天,亚马逊透露,它将“很快”让你与 Alexa 进行“近乎人类的对话”。周四,微软举行了一次活动,宣布计划将其生成式人工智能助手“Copilot”嵌入其许多产品中。 产品和服务不同,但其背后的公司所销售的理念是相同的:生成式人工智能很棒,我们的生成式人工智能工具也很棒,所…

    2023年9月27日
    11900
  • ChatGPT 和 Bing AI 的热潮已经结束了吗?

    去年,当生成式人工智能产品开始向公众推出时,引发了一阵兴奋和恐惧。 人们对这些工具仅通过一个文本提示就可以创建的图像和文字感到惊讶。硅谷对一项变革性新技术的前景垂涎三尺,在经历了多年的停滞以及加密货币和虚拟宇宙的失败之后,它可以从中赚到很多钱。人们还担心生成式人工智能改变世界后世界会变成什么样子。数以百万计的工作岗位可能会消失。辨别什么是真实的或什么是计算机…

    2023年9月7日
    10000
  • Parrot 是一种将语音转换为文本的人工智能转录平台,筹集了 1100 万美元的 A 系列资金

    Parrot 的首席执行官 Aaron O’Brien 在科技领域工作了超过 15 年,之前曾在 Flexport、Uber 和 Facebook 等科技公司工作过,他告诉 TechCrunch,Parrot 的创始 团队看到了一个机会,可以将急需的技术带到 长期被忽视和服务不足的法律行业。

    2023年6月20日
    12500
  • 如何负责任地使用人工智能

    想象一下,您可以腾出时间与客户会面和制定战略规划,同时让不知疲倦的助手处理日常任务,甚至帮助分析复杂数据,为您节省时间和金钱。这就是人工智能 (AI) 在改善财富管理实践方面的潜力。人工智能工具已经在金融界掀起波澜,并且越来越易于​​使用。然而,考虑到监管和法律问题,在 RIA 实践中使用人工智能时需要考虑许多陷阱。 不幸的是,那些不使用人工智能的 RIA …

    2024年5月8日
    2300
  • 迈伦·斯科尔斯谈布莱克-斯科尔斯、脱碳、人工智能和育儿

    诺贝尔奖获得者迈伦·斯科尔斯通过研究不确定性如何影响资产价格,彻底改变了我们对金融市场的理解。半个多世纪前,他与费舍尔·布莱克 (Fischer Black) 共同开发了布莱克-斯科尔斯期权定价模型,重新定义了投资专业人士的工作方式,并开辟了金融世界的新时代。 尽管斯科尔斯是当今最有影响力的经济学家之一,但他并没有满足于自己的成就。他继续探索金融市场的内部运…

    2023年9月2日
    10800

发表回复

登录后才能评论
客服
客服
关注订阅号
关注订阅号
分享本页
返回顶部