为什么马克·扎克伯格让 Meta 放弃其最先进的人工智能模型

上周,Meta 在人工智能领域做出了改变游戏规则的举动。

当谷歌和 OpenAI 等其他领先的人工智能公司严密保守自己的秘密之时,Meta决定免费赠送为其创新的新型人工智能大语言模型Llama 2提供支持的代码。这意味着其他公司现在可以使用Meta 的 Llama 2 模型,一些技术专家称其功能与 ChatGPT 相当,可以构建自己的定制聊天机器人。

Llama 2 可能会挑战 ChatGPT 的主导地位,ChatGPT 打破了有史以来增长最快的应用程序之一的记录。但更重要的是,它的开源性质给关于谁应该控制人工智能以及是否可以保证人工智能安全的重要伦理辩论增添了新的紧迫性。

随着人工智能变得越来越先进,也可能更加危险,如果代码被保密(仅限于少数公司的员工),或者应该与公众共享,以便更多的人能够使用它,这对社会会更好吗?参与塑造变革性技术?

顶尖科技公司正在采取不同的方法

在 Meta 的 Llama 2 公告中,马克·扎克伯格在Instagram 上发布了一张自己与微软首席执行官萨蒂亚·纳德拉 (Satya Nadella) 微笑的照片,宣布了两家公司在该版本上的合作伙伴关系。扎克伯格还阐述了为什么领先的人工智能模型“开源”更好,这意味着该技术的底层代码在很大程度上可供任何人使用。

扎克伯格在 Facebook 的另一篇帖子中写道:“开源推动创新,因为它使更多的开发人员能够使用新技术进行构建。 ” “它还提高了安全性,因为当软件开放时,更多的人可以仔细检查它以识别和修复潜在问题。”

此举受到许多人工智能开发人员、研究人员和学者的欢迎,他们表示这将为他们提供前所未有的机会来构建新工具或研究系统,否则创建这些工具或研究系统的成本将高得令人望而却步。尖端的大型语言模型(例如为 ChatGPT 提供支持的模型)可能需要花费数千万美元来创建和维护。

“我只是为可能发生的进展做好准备,”开源人工智能平台 Hugging Face 的研究负责人 Nazneen Rajani 说,该平台与 Meta 合作发布了该版本。Rajani在 Twitter 上发表了一篇文章,评估 Llama 2 首次推出时的功能,并告诉 Vox​​,“我们将能够发现更多秘密成分,了解构建 GPT-4 这样的模型实际需要什么。”

但开源人工智能也伴随着重大风险。该领域的一些最大参与者,包括微软支持的 OpenAI 和谷歌,一直在限制其人工智能系统的公开程度,因为他们认为这些技术存在严重危险。

一些技术专家越来越担心假想的世界末日场景,在这种场景中,人工智能可能比人类更聪明,造成伤害,例如释放生物超级武器或以我们无法完全想象的方式造成其他破坏。OpenAI 的联合创始人Ilya Sutskever 在 2 月份告诉 The Verge,他的公司过去更公开地分享其模型的详细信息是“完全错误的”,因为如果人工智能有一天变得像人类一样聪明,达到一些人所说的水平AGI 或通用人工智能,与大众分享是不明智的。

“如果你像我们一样相信,在某个时候,人工智能——AGI——将变得极其强大,令人难以置信,那么开源就没有意义。这是一个坏主意,”苏茨克维尔当时说道。

虽然我们距离能够对人类造成真正破坏的人工智能还很遥远,但我们已经看到来自开源社区的人工智能工具被以其他方式滥用。例如,Meta在 2 月份发布了第一个严格用于研究用途的 Llama 模型后不久,它就在随心所欲的在线留言板 4Chan 上泄露,然后它被用来创建聊天机器人,散布种族歧视等仇恨内容,在某些情况下,暴力场面。

Meta 生成人工智能副总裁 Ahmad Al-Dahle 在给 Vox 的电子邮件中写道:“我们认真对待这些问题,并采取了一些措施来支持以负责任的方式使用 Llama 2 进行构建。” Al-Dahle 表示,这些措施包括“红队”,即在发布之前对模型进行压力测试,提供预计会产生“风险输出”的提示,例如有关犯罪行为和仇恨内容的提示。Meta 还对其模型进行了微调,以减轻此类行为,并制定了新的指导方针,禁止某些非法和有害的用途。

Meta 表示,在发布后将继续对其模型进行安全性微调。

Al-Dahle 表示:“当技术公开发布和完善时,我们相信它最终会带来更透明的讨论,提高应对威胁的响应能力,并增加构建更负责任的人工智能工具和技术的迭代。”

例如,一些专家指出,甚至在人工智能以当前形式存在之前,我们就已经存在错误信息的问题。他们说,目前更重要的是错误信息的传播方式。普林斯顿大学计算机科学教授阿尔温德·纳拉亚南 (Arvind Narayanan) 告诉 Vox​​,“不良行为者的瓶颈不是产生错误信息,而是传播错误信息并说服人们。” 他补充道,“人工智能,无论是否开源,并没有让这些步骤变得更容易。”

为了遏制错误信息的传播,创建人工智能模型的公司可以对其程序的使用方式施加一些限制。例如,Meta有一些规则禁止用户使用 Llama 2 宣扬暴力或骚扰,但这些规则可能很难执行。

还值得注意的是,《Llama 2》还没有完全开放。Meta 没有发布用于教授最新模型的训练数据,而最新模型是任何人工智能系统的关键组成部分;研究人员表示,这对于衡量人工智能系统中的偏见至关重要。最后,Meta 要求每月拥有超过 7 亿用户的公司(基本上只有少数像谷歌这样的科技巨头)在使用该软件之前征求 Meta 的许可。

不过,总的来说,Llama 2 是我们最近看到的大型科技公司开源程度最高的人工智能项目。这就提出了其他公司将如何应对的问题。

那么到底支持和反对更加开源的人工智能世界的理由是什么?我们似乎正在朝着什么方向前进,特别是考虑到 Meta 最近的声明?

开源可以带来更多创新

如果您是 ChatGPT 等 AI 工具的临时用户,您可能看不到开源 AI 模型的直接好处。但如果您是人工智能开发人员或研究人员,像 Llama 2 这样的开源法学硕士的引入将为您打开一个充满可能性的世界。

“这是一件大事,”AI 初创公司 Chroma 的联合创始人兼技术负责人 Anton Troynikov 表示,该公司构建数据库,开发人员可以将这些数据库插入到 AI 系统中,以利用他们的数据、事实和工具对其进行定制。

对于像 Troynikov 这样的人来说,使用 Llama 2 可以让公司让用户更好地控制其数据的使用方式。

Troynikov 说:“现在您不必向系统外部发送任何数据,您可以在自己的机器上 100% 内部运行它。”他举了医生不需要公开患者医疗记录的例子。给第三方。“您的数据不再需要去任何地方就能获得这些出色的功能。”

Troynikov 表示,他个人刚刚开始使用 Llama 2,并且仍在测试它与他公司技术的配合效果。

现在判断 Llama 2 的具体用途还为时过早,但 Meta 的 Al-Dahle 表示,它看到了“创建基于聊天的代理和助理的一系列可能性,有助于提高企业的生产力、客户服务和效率”否则可能无法访问和部署这项技术。”

改进 Meta 自己的产品也有自身利益的考虑。如果 Meta 将其人工智能模型投入使用,外部工程师的开源社区将改进其模型,然后 Meta 可以使用该模型来构建该公司表示正在开发的应用内人工智能工具,例如业务助理聊天机器人。

这样,Meta 就不必投入所有资源来追赶 OpenAI 和 Google,后者在将生成式 AI 工具纳入其主要产品线方面走得更远。

开源人工智能将利用“大众的智慧”

一些权威专家认为,如果人工智能模型是开源的,它们可能会变得更聪明,总体上道德缺陷也更少。

通过开源人工智能模型,更多的人可以在它们的基础上进行构建和改进。开源人工智能公司 Stability AI 已经在 Llama 2 的基础上创建了一个名为“FreeWilly”的模型。它很快就流行起来,现在在一些测试中可以超越它的起源 Llama 2。这使其在 Hugging Face 开源人工智能模型排行榜上名列前茅。

“Meta 之外的人正在凭借自己的表现和多年来精心收集和策划的模型击败 Meta。他们在一周内就完成了,”拉贾尼说。“打败大众的智慧是非常困难的”

与此同时,人工智能社区在开源知识方面有着悠久的历史。谷歌构建并公开共享了 Transformer 模型,这是一个神经网络,可以通过跟踪数据部分(例如句子中的单词)之间的关系来理解上下文(例如语言)。该模型已成为尖端人工智能模型的基础,并在许多应用中使用,包括 ChatGPT(GPT 中的“T”代表变压器)。

普林斯顿大学教授阿尔温德·纳拉亚南 (Arvind Narayanan) 表示,开源模型使研究人员能够更好地研究人工智能的能力和风险,并阻止权力集中在少数公司手中,并指出了技术“单一文化”形成的风险。

“单一栽培可能会带来灾难性的后果,”他说。“当同一模型(例如 GPT-4)用于数千或数百万个应用程序时,该模型中的任何安全漏洞(例如越狱)都可能影响所有这些应用程序。”

专家指出,从历史上看,人工智能作为一个领域的蓬勃发展是因为公司研究人员、学者和其他专家愿意分享笔记。

“数据科学和人工智能成为一个庞大产业的原因之一实际上是因为它建立在知识共享文化的基础上”,Humane Intelligence(一家开发负责任的人工智能系统的非营利组织)的联合创始人鲁曼乔杜里(Rumman Chowdhury)说。“我认为,对于那些不属于数据科学界的人来说,很难意识到我们为彼此付出了多少。”

此外,一些人工智能学者表示,开源模型不仅可以让研究人员更好地发现大型语言模型中的安全缺陷,还可以发现更多的定性缺陷,这些缺陷已被证明会延续偏见、幻觉或其他有问题的内容。

一些研究人员认为,虽然公司可以提前测试其中一些偏差,但在这些模型投入使用之前很难预测每一个负面结果。

“我认为需要对漏洞可被利用的程度进行更多研究。需要进行审计、风险分析以及风险文件……所有这些只有在拥有开放且可研究的模型时才能完成,”拉贾尼说。

但开源人工智能也可能会出错

即使是开放人工智能模型最热心的支持者也承认存在重大风险。人工智能到底是如何出错的,从更容易伪造人们的身份到消灭人类,至少在理论上是这样。在这种情况下,最紧迫的论点是,如果人工智能确实达到了某种通用人工智能,那么有一天它可能会以我们无法控制的方式超越人类。

在最近的一次参议院听证会上,OpenAI 首席执行官萨姆·奥尔特曼 (Sam Altman) 告诉国会,“人工智能存在所有危险,真正需要密切关注的人越少——绝对的前沿能力”,就越容易做到这一点。供监管机构控制。

另一方面,甚至 Altman 也承认允许开源社区发展的重要性。他建议设定某种限制,以便当模型满足执行特定任务的某些“能力阈值”时,​​应该强制它获得政府的许可。

在这一点上,一些开源支持者似乎同意 Altman 的观点。如果我们达到人工智能模型接近超越人类的程度,那么也许我们可以对开源踩刹车。

但人工智能面临的挑战性问题是,我们在什么时候决定它太强大了,无法不受约束?如果到那时精灵就从瓶子里出来了,那么人工智能的进步就无法阻止了吗?这些问题现在无法确定地回答。但与此同时,开源人工智能已经到来,虽然存在真正的直接风险,以及未来可能滚雪球般的风险,但让更广泛的人思考它对我们所有人来说也有明显的好处。

韭菜热线原创版权所有,发布者:风生水起,转载请注明出处:https://www.9crx.com/74489.html

(0)
打赏
风生水起的头像风生水起普通用户
上一篇 2023年7月31日 01:03
下一篇 2023年7月31日 01:23

相关推荐

  • 戴蒙将人工智能的变革潜力比作蒸汽机

    摩根大通首席执行官杰米戴蒙表示,人工智能可能是该银行目前面临的最大问题,他将其潜在影响比作蒸汽机,并表示这项技术可以“增强几乎所有工作”。 这位首席执行官在年度股东信中用了很大篇幅来强调人工智能对这家华尔街巨头的业务和整个社会的重要性。戴蒙表示,该银行已确定了 400 多个人工智能技术在营销、欺诈和风险方面的用例,聚集了数千名人工智能专家和数据科学家,并开始…

    2024年5月16日
    5000
  • 家族办公室如何利用人工智能? 四大应用

    人工智能 (AI) 在商业世界和流行文化中引起了巨大的轰动和恐惧。每个人都听说过 ChatGPT 和其他生成式人工智能平台,并且越来越多的人在个人和职业生活中使用它们。 投资世界也不例外,金融专业人士正在寻找既实施生成式人工智能又保护自己免受其影响的方法。虽然人工智能是一种有用的工具,可以创造强大而积极的成果,但它也涉及巨大的风险。这就是为什么家族办公室需要…

    2023年11月21日
    10800
  • 为什么硅谷的人工智能预言感觉像是重新包装的宗教

    假设我告诉你,十年后,你所知道的世界将会终结。你将生活在一个天堂里。你不会生病,不会衰老,也不会死亡。永生将属于你!更好的是,你的思想将幸福地摆脱不确定性——你将获得完美的知识。哦,你将不再被困在地球上。相反,你可以生活在天堂。 如果我告诉你这一切,你会认为我是宗教传教士还是人工智能研究员? 任何一个都是一个相当可靠的猜测。 你越听硅谷关于人工智能的讨论,你…

    2023年9月19日
    12500
  • Alphabet 的现金热潮正在提升华尔街的股息希望

    Alphabet Inc. 正在筹集如此多的现金,人们越来越希望它能效仿 Meta Platforms Inc. 的做法,开始派发股息。 多年来,这家搜索巨头一直在将多余的现金投入股票回购,许多投资者预计,当 Alphabet 在 4 月 25 日公布业绩时,该公司还将投入 700 亿美元。但摩根大通和 Truist Securities 等分析师都认为,小…

    2024年5月26日
    2700
  • 苹果在中国遇到的麻烦让基金经理追赶反弹

    几个月来,大型科技股推动美国股市取得令人眼花缭乱的涨幅。市场的引擎现在开始失灵。 最新的麻烦迹象来自苹果公司,有报道称中国计划扩大对一些政府机构使用 iPhone 的禁令,导致该公司股价出现一个月来最严重的两天跌幅。高通公司(Qualcomm Inc.)和Skyworks Solutions Inc.等苹果供应商周四股价下跌超过7%,而微软公司(Micros…

    2023年9月11日
    13100

发表回复

登录后才能评论
客服
客服
关注订阅号
关注订阅号
分享本页
返回顶部