Claude,一個由前 OpenAI 員工創建的聊天機器人

克勞德

Claude,一個希望與 OpenAI 競爭的聊天機器人

Anthropic 是一家由前 OpenAI 員工於 2021 年創建的人工智能初創公司,它已經悄悄開始測試一種新的類似 ChatGPT 的人工智能助手,該助手似乎在幾個關鍵領域對原始助手進行了改進。

代號 “克勞德”,這是使用 Anthropic 開發的技術創建的,稱為“憲法人工智能”和技術 旨在提供一種“基於原則”的方法 使 AI 系統與人類意圖保持一致,允許像 ChatGPT 這樣的 AI 使用一組簡單的原則作為指導來響應查詢。

據稱,Anthropic 將自己定位為一家 AI 研究和安全公司,致力於創建可信賴、可解釋和可操縱的 AI 系統。

迄今為止,這家初創公司已獲得超過 700 億美元的資金,並且最近推出了一款名為 Claude 的人工智能聊天機器人。 後者可與 OpenAI 的 ChatGPT 相媲美,但根據 Anthropic 的說法,克勞德在幾個重要方面優於原版。

整個系統處於封閉測試階段,目前還很少有人可以訪問聊天機器人,但 Anthropic 在與社區共享的文檔中揭開了其設計某些方面的面紗。

準確地說,為了設計 Claude,Anthropic 團隊首先制定了大約十項原則的清單,這些原則共同構成了一種“憲法”(因此稱為“憲法 AI”)。

這些原則沒有公開,但 Anthropic 說他們是基於慈善的概念 (最大化積極影響), 沒有惡意 (避免給出有害的建議)和自主權(尊重選擇的自由)。

在實施了這些基本原則後,Anthropic 要求一個不是 Claude 的 AI 系統使用這些原則通過編寫各種問題的答案來改進自己(例如,“設計 XX 風格的圖片或以 XX 風格創作一首詩XX"). style XX") 並根據憲法審查答复。 人工智能探索了對數千條提示的可能回應。

Claude 沒有深入介紹其實施的技術細節,但 Anthropic 關於 Constitutional AI 的研究論文描述了 AnthropicLM v4-s3,這是一個 52 億參數的預訓練模型。 這種自回歸模型是在大量文本語料庫上進行無監督訓練的,很像 OpenAI 的 GPT-3。 Anthropic 告訴我們,克勞德是一個更大的新模型,其架構選擇與已發表的研究相似。

該系統選擇了最符合憲法的那些,Anthropic 將它們提煉成一個單一的模型。 據這家初創公司稱,該模型用於訓練克勞德。

什麼是克勞德?

克勞德 基本上是預測單詞的統計工具,例如 ChatGPT 和其他語言模型。 通過從網絡上獲取的大量樣本文本,克勞德根據周圍文本的語義上下文等模型學習了單詞出現的概率。 因此,克勞德可以就廣泛的話題進行公開對話、講笑話和進行哲學思考。

黃大仙禁運, 克勞德並不完美,因為像所有人工智能一樣, 容易受到 ChatGPT 的一些缺陷的影響, 包括提供與預定約束不匹配的響應。 在一個最奇怪的例子中,詢問系統 Base64,一種以 ASCII 格式表示二進制數據的編碼方案,繞過其內置的有害內容過濾器。

與 ChatGPT 不同,Claude 可以支持 (但不總是) 誰不知道答案 一個特別難的問題。

測試表明,它似乎也比 ChatGPT 更擅長講笑話,考慮到幽默是 AI 系統難以掌握的概念,這是一項令人印象深刻的壯舉。

值得一提的是,Claude 不對公眾開放,因為它只能通過作為封閉測試版一部分的 Slack 集成進行測試。

媒體報導禁運解除後,Beta 參與者在 Twitter 上詳細介紹了他們與克勞德的互動。 克勞德會更擅長開玩笑,但不擅長編程。 評論還表明,Claude 容易受到 ChatGPT 的某些缺陷的影響。

最後,如果你有興趣能夠了解更多,可以查閱詳情 以下鏈接。


發表您的評論

您的電子郵件地址將不會被發表。 必填字段標有 *

*

*

  1. 負責資料:AB Internet Networks 2008 SL
  2. 數據用途:控制垃圾郵件,註釋管理。
  3. 合法性:您的同意
  4. 數據通訊:除非有法律義務,否則不會將數據傳達給第三方。
  5. 數據存儲:Occentus Networks(EU)託管的數據庫
  6. 權利:您可以隨時限制,恢復和刪除您的信息。