ChatGPT 和大型语言模型:它们的风险和局限性

性能与数据

尽管 ChatGPT 具有看似“神奇”的品质,但它与其他大型语言模型 (LLM) 一样,只是一个巨大的人工神经网络。其复杂的架构由大约 400 个核心层和 1750 亿个参数(权重)组成,所有这些参数都根据从网络和其他来源抓取的人类编写的文本进行训练。总而言之,这些文本源的初始数据总计约为 45 TB。如果没有训练和调整,ChatGPT 只会产生乱码。

我们可能会想象法学硕士的惊人能力仅受其网络规模和训练数据量的限制。这在一定程度上是正确的。但 LLM 的投入需要花钱,而且即使是性能上的微小改进也需要更多的计算能力。据估计,训练 ChatGPT-3 消耗了约 1.3 吉瓦时的电力,OpenAI 总共花费了约 460 万美元。相比之下,较大的 ChatGPT-4 模型的训练成本将达到 1 亿美元或更多。

OpenAI 研究人员可能已经达到了一个拐点,一些人承认 进一步的性能改进必须来自于计算能力的增强以外的其他方面。

尽管如此,数据可用性可能是法学硕士取得进展的最关键障碍。ChatGPT-4 已经接受了互联网上所有高质量文本的训练。然而,更多高质量的文本存储在个人和企业数据库中,OpenAI 或其他公司无法以合理的成本或规模访问。但是,这种精心策划的训练数据加上额外的训练技术,可以对预先训练的法学硕士进行微调,以更好地预测和响应特定领域的任务和查询。此类法学硕士不仅会优于规模较大的法学硕士,而且更便宜、更容易获得且更安全。

但无法访问的数据和计算能力的限制只是阻碍法学硕士的两个障碍。

幻觉、不准确和误用

ChatGPT 等基础人工智能应用程序最相关的用例是收集、关联和总结信息。ChatGPT 和法学硕士帮助撰写论文和大量计算机代码,甚至参加并通过了复杂的考试。公司已将法学硕士商业化以提供专业支持服务。例如,Casetext 公司在其 CoCounsel 应用程序中部署了 ChatGPT,以帮助律师起草法律研究备忘录、审查和创建法律文件以及为审判做准备。

然而,无论他们的写作能力如何,ChatGPT 和 LLM 都是统计机器。他们根据训练期间“看到”的内容提供“合理的”或“可能的”反应。他们无法总是验证或描述其答案背后的推理和动机。虽然 ChatGPT-4 可能已经通过了多个州的律师考试,但经验丰富的律师不应像一年级律师所写的那样更信任其法律备忘录。

当 ChatGPT 被要求解决数学问题时,其统计性质最为明显。提示它集成一些多项三角函数,ChatGPT 可能会提供看似合理但不正确的响应。要求它描述得出答案所采取的步骤,它可能会再次给出看似合理的答复。再问一遍,可能会给出完全不同的答案。应该只有一个正确答案,并且只有一系列分析步骤才能得出该答案。这强调了这样一个事实:ChatGPT 并不“理解”数学问题,也没有应用数学解决方案所需的计算算法推理。

法学硕士的随机统计性质也使他们容易受到数据科学家所说的“幻觉”的影响,即他们冒充现实的幻想。如果他们可以提供错误但令人信服的文本,法学硕士也可以传播错误信息并被用于非法或不道德的目的。例如,不良行为者可能会促使法学硕士以信誉良好的出版物的风格撰写文章,然后将其作为假新闻传播。或者他们可以利用它来获取敏感的个人信息来欺骗客户。由于这些原因,摩根大通和德意志银行等公司已禁止使用 ChatGPT。

我们如何解决与 LLM 相关的错误、事故和滥用问题?根据特定领域的精选数据对预先训练的法学硕士进行微调,有助于提高响应的准确性和适当性。例如,Casetext 公司依靠预先训练的 ChatGPT-4,但通过额外的训练数据(来自所有美国联邦和州司法管辖区的法律文本、案例、法规和法规)补充其 CoCounsel 应用程序,以改进其响应。根据用户想要完成的具体法律任务,推荐更精准的提示;共同法律顾问总是引用其回应的来源。

在初始训练之上应用某些额外的训练技术,例如根据人类反馈进行强化学习(RLHF),也可以减少法学硕士误用或错误信息的可能性。RLHF 根据人类判断对 LLM 回答进行“评分”。然后,这些数据会被反馈到神经网络中,作为其训练的一部分,以减少法学硕士将来对类似提示提供不准确或有害响应的可能性。当然,什么是“适当”的应对措施取决于观点,因此 RLHF 很难说是万能药。

“红队”是另一种改进技术,用户可以通过“攻击”法学硕士来发现其弱点并修复它们。红队成员会编写提示来说服法学硕士做不应该做的事情,因为他们预计现实世界中的恶意行为者也会做出类似的尝试。通过识别潜在的不良提示,LLM 开发人员可以围绕 LLM 的响应设置护栏。虽然这些努力确实有所帮助,但并非万无一失。尽管 ChatGPT-4 上存在广泛的红队,但用户仍然可以设计提示来绕过其护栏。

另一个潜在的解决方案是部署额外的人工智能,通过创建与法学硕士并行的辅助神经网络来监管法学硕士。第二个人工智能经过训练,可以根据某些道德原则或政策判断法学硕士的反应。根据人工智能法官的判断,法学硕士的反应与“正确”反应的“距离”会反馈到法学硕士,作为其培训过程的一部分。这样,当法学硕士考虑对提示的反应选择时,它会优先考虑最道德的反应。

透明度

ChatGPT 和 LLM 具有人工智能和机器学习 (ML) 应用程序的共同缺点:它们本质上是黑匣子。甚至 OpenAI 的程序员也不知道 ChatGPT 如何配置自身来生成文本。传统上,模型开发人员在将模型提交给程序代码之前先设计模型,但法学硕士使用数据来配置自己。LLM网络架构本身缺乏理论基础或工程:程序员选择许多网络功能只是因为它们起作用,但不一定知道它们为什么起作用。

这种固有的透明度问题催生了一个用于验证人工智能/机器学习算法的全新框架——所谓的可解释或可解释的人工智能。模型管理社区探索了各种方法来围绕 AI/ML 预测和决策构建直觉和解释。许多技术试图了解输入数据的哪些特征生成了输出以及它们对某些输出的重要性。其他人对人工智能模型进行逆向工程,以便在仅适用某些功能和输出的本地领域中构建更简单、更可解释的模型。不幸的是,随着模型变得越来越大,可解释的人工智能/机器学习方法变得呈指数级复杂,因此进展缓慢。据我所知,还没有可解释的 AI/ML 成功应用于 ChatGPT 规模和复杂性的神经网络。

鉴于可解释或可解释的人工智能/机器学习进展缓慢,有必要围绕法学硕士制定更多法规,以帮助公司防范不可预见或极端的情况,即“未知的未知数”。法学硕士的日益普及和提高生产力的潜力使得彻底禁止其使用是不现实的。因此,公司的模型风险治理政策不应过多关注验证这些类型的模型,而应关注实施综合使用和安全标准。这些政策应优先考虑法学硕士的安全和负责任的部署,并确保用户检查输出响应的准确性和适当性。在此模型治理范式中,独立模型风险管理并不检查 LLM 的工作方式,而是审核业务用户依赖 LLM 来完成特定任务的理由和理由,并确保使用它们的业务部门有适当的保障措施作为模型输出和业务流程本身的一部分。

下一步是什么?

ChatGPT 和 LLM 代表了 AI/ML 技术的巨大飞跃,让我们离通用人工智能又近了一步。但采用 ChatGPT 和 LLM 会带来重要的限制和风险。在在其业务中部署法学硕士技术之前,公司必须首先采用如上所述的新模型风险治理标准。良好的模型治理政策重视法学硕士的巨大潜力,但通过减轻其固有风险来确保其安全和负责任的使用。

韭菜热线原创版权所有,发布者:风生水起,转载请注明出处:https://www.9crx.com/79042.html

(0)
打赏
风生水起的头像风生水起普通用户
上一篇 2023年11月13日 23:08
下一篇 2023年11月13日 23:28

相关推荐

  • 由于人工智能推动的股市繁荣,世界上最富有的人的财富增长了超过 1500 亿美元

    在 ChatGPT 大放异彩后,人工智能相关股票在 2023 年出现了惊人的飙升。
    一些世界上最富有的人从这次集会中赚了一大笔钱。
    Meta 创始人马克扎克伯格和甲骨文公司老板拉里埃里森的个人财富分别增加了 400 亿美元以上。

    2023年6月20日
    15100
  • 我们都是宽客,系统投资的新时代

    关键点 系统或算法方法对投资决策施加冷静的纪律,但也带来了某些挑战。 系统性策略可能无法快速适应市场的结构性变化。 算法方法可能会导致投资经理毫无根据或夸大地声称采用最新的人工智能或机器学习工具。 由缺乏经验的研究人员进行的回测可能会过度拟合,导致令人失望的现场表现。 抽象的 在这个计算成本低廉、数据庞大、系统或算法驱动的时代,投资越来越受欢迎。系统性策略出…

    2023年10月23日
    9100
  • 摩根士丹利认为 Dojo 将使特斯拉的价值增加 5000 亿美元

    作者: Abhishek Vishnoi,Subrat Patnaik 摩根士丹利表示,通过更快地采用机器人出租车和网络服务,特斯拉公司的 Dojo 超级计算机可能会为该公司的市值增加多达 5000 亿美元。 以 Adam Jonas 为首的分析师在一份报告中写道,Dojo 可以开辟“新的潜在市场”,就像 AWS 为亚马逊公司所做的那样,将该股从同等权重上调…

    2023年9月16日
    15800
  • 人工智能驱动的代理辅导平台 Zenarate 融资 1500 万美元

    在运营拥有 5,000 名座席的联络中心时,Brian Tuite 经常遇到必须对新座席进行基础知识培训的问题。按照他的说法,他们还没有为成功做好准备……

    2023年6月27日
    14600
  • 寻找外星人的过程

    今年夏天,面无表情的前美国空军情报官员戴维·格鲁什(David Grusch)坐在众议院监督小组委员会面前,提出了一些非同寻常的 主张。其中最主要的是,美国政府有一个秘密计划,该计划可以定位然后逆向工程不明飞行物(UAP)——一种表面上不太愚蠢的说法,即不明飞行物(UFO)——并且美国特工拥有非人类生物物质。 他的国会代表听众对此表示怀疑、轻蔑和愤世嫉俗。但…

    2023年10月18日
    12800

发表回复

登录后才能评论
客服
客服
关注订阅号
关注订阅号
分享本页
返回顶部