如何理解人工智能:这是一场公地悲剧,而不是一场军备竞赛

您可能听说过将人工智能的进步描述为经典的“军备竞赛”。基本逻辑是,如果你不竞相开发先进的人工智能,其他人就会这么做——可能是更鲁莽、更缺乏安全意识的人。所以,最好你应该建造一台超级智能机器,而不是让另一个人先冲过终点线!(在美国的讨论中,另一个人通常是中国。)

但正如我之前所写,这并不是对人工智能情况的准确描述。不存在单一的“终点线”,因为人工智能不仅仅是像原子弹那样具有单一目的的东西;它也是一种目标。它是一种更通用的技术,就像电力一样。另外,如果您的实验室花时间解决一些人工智能安全问题,其他实验室可能会采取这些改进措施,这将使每个人受益。

正如 AI Impacts 首席研究员 Katja Grace在《时代》杂志上指出的那样,“在经典的军备竞赛中,理论上,一方总能取得领先并获胜。但对于人工智能来说,胜利者可能是先进的人工智能本身(如果它与我们的目标不一致并伤害我们的话)。这可能会让匆忙成为失败的举动。”

我认为将人工智能的情况视为“公地悲剧”更为准确。这就是生态学家和经济学家所说的一种情况,即许多参与者可以获得有限的宝贵资源,并过度使用它,以至于他们为每个人毁掉了它。

公地的一个完美例子:地球大气层吸收温室气体排放而不引发气候灾难的能力。任何一家公司都可以辩称,他们减少使用这种能力是毫无意义的——其他人只会使用它——但每个出于理性自身利益行事的参与者都会毁掉整个地球。

人工智能就是这样。这里的共同点是社会吸收人工智能影响而不陷入灾难的能力。任何一家公司都可以辩称,限制他们部署日益先进的人工智能的程度和速度是毫无意义的——如果 OpenAI 不这样做,那就只有谷歌或百度了,这种说法是这样的——但如果每家公司的行为都像那么,社会结果可能是悲剧。

“悲剧”听起来很糟糕,但将人工智能描述为公地悲剧实际上应该让你感到乐观,因为研究人员已经找到了此类问题的解决方案。事实上,政治学家埃莉诺·奥斯特罗姆 (Elinor Ostrom)正是因为这样做而获得了 2009 年诺贝尔经济学奖。因此,让我们深入研究她的工作,看看它如何帮助我们以更注重解决方案的方式思考人工智能。

埃莉诺·奥斯特罗姆解决公地悲剧的方法

在 1968 年《科学》杂志上的一篇文章中,生态学家加勒特·哈丁 (Garrett Hardin) 普及了“公地悲剧”的概念。他认为,人类对资源的竞争如此激烈,以至于最终摧毁了这些资源。避免这种情况的唯一方法是政府全面控制或全面私有化。“毁灭是所有人奔向的目的地,”他写道,“每个人都在追求自己的最大利益。”

奥斯特罗姆并不买账。她研究了从瑞士到菲律宾的社区,发现了一个又一个人们聚集在一起成功管理共享资源(例如牧场)的例子。奥斯特罗姆发现,社区能够而且确实避免了公地悲剧,特别是当它们遵循八项核心设计原则时:

1) 明确定义管理资源的社区。

2)确保规则在资源使用和维护之间合理平衡。

3) 让所有受规则影响的人参与规则的制定过程。

4) 建立资源使用和行为监控机制。

5)对违规者制定一系列不断升级的制裁措施。

6) 建立解决出现的任何冲突的程序。

7) 确保当局承认社区组织和制定规则的权利。

8)鼓励形成不同规模的多种治理结构,允许不同层次的决策。

将奥斯特罗姆的设计原则应用于人工智能

那么我们如何利用这些原则来弄清楚人工智能治理应该是什么样子呢?

事实上,人们已经在推动与人工智能相关的一些原则——他们只是可能没有意识到它们已经融入了奥斯特罗姆的框架中。

许多人认为,人工智能治理应该从跟踪用于训练前沿人工智能模型的芯片开始。Avital Balwit在《Asterisk》杂志上撰文,概述了一种潜在的治理制度:“基本要素包括跟踪先进人工智能芯片的位置,然后要求任何使用大量芯片的人证明他们训练的模型符合某些安全标准。 ” 芯片控制符合奥斯特罗姆的原则#4:建立监控资源使用和行为的机制。

其他人则指出,如果人工智能公司向世界发布造成伤害的系统,则需要承担法律责任。正如技术评论家特里斯坦·哈里斯和阿扎·拉斯金所说,责任是这些公司真正关注的少数威胁之一。这是奥斯特罗姆的第五条原则:加大对违规者的制裁力度。

尽管科技高管异口同声地声称他们需要加快人工智能发展,以免输给中国,但你也会发现细致入微的思想家认为我们需要国际协调,就像我们最终在核不扩散方面取得的成就一样。这就是奥斯特罗姆的原则。

如果人们已经在应用奥斯特罗姆的一些思想,也许没有意识到,为什么明确指出与奥斯特罗姆的联系很重要?有两个原因。一是我们还没有应用她的所有原则。

另一个是:故事很重要。神话很重要。人工智能公司喜欢将人工智能描述为一场军备竞赛——这证明了他们急于进入市场的合理性。但这让我们所有人都处于悲观的立场。告诉自己一个不同的故事是有力量的:人工智能是一场潜在的公共悲剧,但这种悲剧只是潜在的,我们有能力避免它。

韭菜热线原创版权所有,发布者:风生水起,转载请注明出处:https://www.9crx.com/73572.html

(0)
打赏
风生水起的头像风生水起普通用户
上一篇 2023年7月12日 01:04
下一篇 2023年7月12日 01:23

相关推荐

  • 新的脑机接口技术能读懂你的想法吗?

    几年来,我一直在撰写有关神经技术的文章,标题完全是奥威尔式的。头条新闻警告“ Facebook 正在开发能够读懂你思想的技术”和“读脑技术即将到来”。 好吧,这项技术不再只是“即将到来”。它在这里。 根据《自然》杂志发表的一项研究,在人工智能的帮助下,德克萨斯大学奥斯汀分校的科学家们开发出了一种技术,可以将人们的大脑活动——比如我们脑海中盘旋的未说出口的想法…

    2023年7月19日
    21500
  • GPT 博士? 科技投资者押注人工智能最终将改变医疗保健

    By Priya Anand 顶级风险投资公司押注人工智能的快速发展和公众对 ChatGPT 的迷恋将帮助科技初创公司在硅谷多年来努力推动该行业发展后改变医疗保健行业。 Andreessen Horowitz 一直在源源不断地投资初创公司,这些初创公司希望利用人工智能热潮来改善医疗保健。这包括公司构建人工智能工具来帮助患者护理并减轻临床记录的负担,以及使用人…

    2023年9月6日
    11700
  • 一项新的民意调查显示,美国人不想要比人类更聪明的人工智能

    他们说,主要的人工智能公司正在竞相构建超级人工智能——为了你我的利益。但他们有没有停下来问过我们是否真的想要这样? 总的来说,美国人不想要它。 分享的一项新民意调查的结果。这项民意调查由智库AI 政策研究所委托、YouGov 于 9 月初对 1,118 名不同年龄、性别、种族和政治立场的美国人进行了调查。报告显示,63% 的选民表示监管应旨在 积极防止人工智…

    2023年10月1日
    14400
  • 人工智能技能:科技工作者正在通过课程、研究和工作学习转向人工智能

    尽管科技工作者正在面临薪资停滞、裁员以及对技能的需求普遍低于过去十年的问题,但人工智能专家已成为硅谷新的“it”女孩。 人工智能初创公司NonprofitsHQ的创始人扎克·布朗 (Zac Brown) 表示:“我们今天看到的所有正在开发的产品都正在转向人工智能驱动的操作类型。” “对于一名普通软件工程师来说,这是一段艰难的时期。” 当布朗去年找工作时,他并…

    2023年7月22日
    17200
  • 汤森路透以 6.5 亿美元现金收购人工智能法律科技初创公司 Casetext

    汤森路透已达成收购 Casetext 的最终协议,Casetext 是一家由 Y Combinator 支持的法律科技初创公司。该交易价值 6.5 亿美元现金,预计将于下半年完成…

    2023年6月27日
    21500
客服
客服
关注订阅号
关注订阅号
分享本页
返回顶部