Claude,一个由前 OpenAI 员工创建的聊天机器人

克劳德

Claude,一个希望与 OpenAI 竞争的聊天机器人

Anthropic 是一家由前 OpenAI 员工于 2021 年创建的人工智能初创公司,它已经悄悄开始测试一种新的类似 ChatGPT 的人工智能助手,该助手似乎在几个关键领域对原始助手进行了改进。

代号 “克劳德”,这是使用 Anthropic 开发的技术创建的,称为“宪法人工智能”和技术 旨在提供一种“基于原则”的方法 使 AI 系统与人类意图保持一致,允许像 ChatGPT 这样的 AI 使用一组简单的原则作为指导来响应查询。

据称,Anthropic 将自己定位为一家 AI 研究和安全公司,致力于创建可信赖、可解释和可操纵的 AI 系统。

迄今为止,这家初创公司已获得超过 700 亿美元的资金,并且最近推出了一款名为 Claude 的人工智能聊天机器人。 后者可与 OpenAI 的 ChatGPT 相媲美,但根据 Anthropic 的说法,克劳德在几个重要方面优于原版。

整个系统处于封闭测试阶段,目前还很少有人可以访问聊天机器人,但 Anthropic 在与社区共享的文档中揭开了其设计某些方面的面纱。

准确地说,为了设计 Claude,Anthropic 团队首先制定了大约十项原则的清单,这些原则共同构成了一种“宪法”(因此称为“宪法 AI”)。

这些原则没有公开,但 Anthropic 说他们是基于慈善的概念 (最大化积极影响), 没有恶意 (避免给出有害的建议)和自主权(尊重选择的自由)。

在实施了这些基本原则后,Anthropic 要求一个不是 Claude 的 AI 系统使用这些原则通过编写各种问题的答案来改进自己(例如,“设计 XX 风格的图片或以 XX 风格创作一首诗XX"). style XX") 并根据宪法审查答复。 人工智能探索了对数千条提示的可能回应。

Claude 没有深入介绍他的实施技术细节,但 Anthropic 关于 Constitutional AI 的研究论文描述了 AnthropicLM v4-s3,这是一个 52 亿参数的预训练模型。 这种自回归模型是在大量文本语料库上进行无监督训练的,很像 OpenAI 的 GPT-3。 Anthropic 告诉我们,克劳德是一个更大的新模型,其架构选择与已发表的研究相似。

该系统选择了最符合宪法的那些,Anthropic 将它们提炼成一个单一的模型。 据这家初创公司称,该模型用于训练克劳德。

什么是克劳德?

克劳德 基本上是预测单词的统计工具,例如 ChatGPT 和其他语言模型。 通过从网络上获取的大量示例文本,克劳德根据周围文本的语义上下文等模型学习了单词出现的概率。 因此,克劳德可以就广泛的话题进行公开对话、讲笑话和进行哲学思考。

然而, 克劳德并不完美,因为像所有人工智能一样, 容易受到 ChatGPT 的一些缺陷的影响, 包括提供与预定约束不匹配的响应。 在一个最奇怪的例子中,询问系统 Base64,一种以 ASCII 格式表示二进制数据的编码方案,绕过其内置的有害内容过滤器。

与 ChatGPT 不同,Claude 可以支持 (但不总是) 谁不知道答案 一个特别难的问题。

测试表明,它似乎也比 ChatGPT 更擅长讲笑话,考虑到幽默是 AI 系统难以掌握的概念,这是一项令人印象深刻的壮举。

值得一提的是,Claude 不对公众开放,因为它只能通过作为封闭测试版一部分的 Slack 集成进行测试。

媒体报道禁运解除后,Beta 参与者在 Twitter 上详细介绍了他们与克劳德的互动。 克劳德会更擅长开玩笑,但不擅长编程。 评论还表明,Claude 容易受到 ChatGPT 的某些缺陷的影响。

最后,如果你有兴趣能够了解更多,可以查阅详情 以下链接。


本文内容遵循我们的原则 编辑伦理。 要报告错误,请单击 信息.

成为第一个发表评论

发表您的评论

您的电子邮件地址将不会被发表。 必填字段标有 *

*

*

  1. 负责资料:AB Internet Networks 2008 SL
  2. 数据用途:控制垃圾邮件,注释管理。
  3. 合法性:您的同意
  4. 数据通讯:除非有法律义务,否则不会将数据传达给第三方。
  5. 数据存储:Occentus Networks(EU)托管的数据库
  6. 权利:您可以随时限制,恢复和删除您的信息。