Claude,一个由前 OpenAI 员工创建的聊天机器人

克劳德

Claude,一个希望与 OpenAI 竞争的聊天机器人

Anthropic 是一家由前 OpenAI 员工于 2021 年创建的人工智能初创公司,它已经悄悄开始测试一种新的类似 ChatGPT 的人工智能助手,该助手似乎在几个关键领域对原始助手进行了改进。

代号 “克劳德”,这是使用 Anthropic 开发的技术创建的,称为“宪法人工智能”和技术 旨在提供一种“基于原则”的方法 使 AI 系统与人类意图保持一致,允许像 ChatGPT 这样的 AI 使用一组简单的原则作为指导来响应查询。

据称,Anthropic 将自己定位为一家 AI 研究和安全公司,致力于创建可信赖、可解释和可操纵的 AI 系统。

迄今为止,这家初创公司已获得超过 700 亿美元的资金,并且最近推出了一款名为 Claude 的人工智能聊天机器人。 后者可与 OpenAI 的 ChatGPT 相媲美,但根据 Anthropic 的说法,克劳德在几个重要方面优于原版。

整个系统处于封闭测试阶段,目前还很少有人可以访问聊天机器人,但 Anthropic 在与社区共享的文档中揭开了其设计某些方面的面纱。

准确地说,为了设计 Claude,Anthropic 团队首先制定了大约十项原则的清单,这些原则共同构成了一种“宪法”(因此称为“宪法 AI”)。

这些原则没有公开,但 Anthropic 说他们是基于慈善的概念 (最大化积极影响), 没有恶意 (避免给出有害的建议)和自主权(尊重选择的自由)。

在实施了这些基本原则后,Anthropic 要求一个不是 Claude 的 AI 系统使用这些原则通过编写各种问题的答案来改进自己(例如,“设计 XX 风格的图片或以 XX 风格创作一首诗XX"). style XX") 并根据宪法审查答复。 人工智能探索了对数千条提示的可能回应。

Claude 没有深入介绍他的实施技术细节,但 Anthropic 关于 Constitutional AI 的研究论文描述了 AnthropicLM v4-s3,这是一个 52 亿参数的预训练模型。 这种自回归模型是在大量文本语料库上进行无监督训练的,很像 OpenAI 的 GPT-3。 Anthropic 告诉我们,克劳德是一个更大的新模型,其架构选择与已发表的研究相似。

该系统选择了最符合宪法的那些,Anthropic 将它们提炼成一个单一的模型。 据这家初创公司称,该模型用于训练克劳德。

什么是克劳德?

克劳德 基本上是预测单词的统计工具,例如 ChatGPT 和其他语言模型。 通过从网络上获取的大量示例文本,克劳德根据周围文本的语义上下文等模型学习了单词出现的概率。 因此,克劳德可以就广泛的话题进行公开对话、讲笑话和进行哲学思考。

然而, 克劳德并不完美,因为像所有人工智能一样, 容易受到 ChatGPT 的一些缺陷的影响, 包括提供与预定约束不匹配的响应。 在一个最奇怪的例子中,询问系统 Base64,一种以 ASCII 格式表示二进制数据的编码方案,绕过其内置的有害内容过滤器。

与 ChatGPT 不同,Claude 可以支持 (但不总是) 谁不知道答案 一个特别难的问题。

测试表明,它似乎也比 ChatGPT 更擅长讲笑话,考虑到幽默是 AI 系统难以掌握的概念,这是一项令人印象深刻的壮举。

值得一提的是,Claude 不对公众开放,因为它只能通过作为封闭测试版一部分的 Slack 集成进行测试。

媒体报道禁运解除后,Beta 参与者在 Twitter 上详细介绍了他们与克劳德的互动。 克劳德会更擅长开玩笑,但不擅长编程。 评论还表明,Claude 容易受到 ChatGPT 的某些缺陷的影响。

最后,如果你有兴趣能够了解更多,可以查阅详情 以下链接。


成为第一个发表评论

发表您的评论

您的电子邮件地址将不会被发表。 必填字段标有 *

*

*

  1. 负责资料:AB Internet Networks 2008 SL
  2. 数据用途:控制垃圾邮件,注释管理。
  3. 合法性:您的同意
  4. 数据通讯:除非有法律义务,否则不会将数据传达给第三方。
  5. 数据存储:Occentus Networks(EU)托管的数据库
  6. 权利:您可以随时限制,恢复和删除您的信息。