Claude, en chatbot skapad av tidigare OpenAI-anställda

Claude

Claude, en chatbot som vill konkurrera med OpenAI

Anthropic, en AI-startup som skapades 2021 av tidigare OpenAI-anställda, har i lugn och ro börjat testa en ny ChatGPT-liknande AI-assistent som ser ut att förbättra originalet på några nyckelområden.

med kodnamn "Claude", detta skapades med en teknik utvecklad av Anthropic, kallad «Constitutional AI» och tekniken syftar till att tillhandahålla ett "principbaserat" tillvägagångssätt för att anpassa AI-system med mänskliga avsikter, så att AI:er som ChatGPT kan svara på frågor med en uppsättning enkla principer som vägledning.

Anthropic, nämns det, marknadsför sig som ett AI-forsknings- och säkerhetsföretag som strävar efter att skapa pålitliga, tolkningsbara och styrbara AI-system.

Startupen har hittills fått mer än 700 miljoner dollar i finansiering och introducerade nyligen en AI-chatbot som heter Claude. Det senare är jämförbart med OpenAI:s ChatGPT, men enligt Anthropic är Claude originalet överlägsen på flera viktiga sätt.

Hela systemet är i stängd beta och få personer har haft tillgång till chatboten ännu, men Anthropic har lyft locket på vissa aspekter av dess design i ett dokument som delat med communityn.

För att designa Claude började det antropiska teamet med att ta fram en lista med ett tiotal principer som tillsammans bildar en sorts "konstitution" (därav termen "Constitutional AI").

Dessa principer har inte offentliggjorts, men Anthropic säger att de är baserade på begreppen välgörenhet (maximera den positiva effekten), icke-ondska (undvik att ge skadliga råd) och autonomi (respektera valfriheten).

Efter att ha implementerat dessa grundläggande principer bad Anthropic ett AI-system, som inte är Claude, att använda dessa principer för att förbättra sig själv genom att skriva svar på olika frågor (till exempel "Designa en bild i stil med XX eller gör en dikt i stilen av XX"). stil XX") och granska svaren i enlighet med konstitutionen. AI:n undersökte möjliga svar på tusentals uppmaningar.

Claude ger lite djupgående om de tekniska detaljerna i sin implementering, men Anthropics forskningsartikel om Constitutional AI beskriver AnthropicLM v4-s3, en förtränad modell med 52 miljarder parametrar. Denna autoregressiva modell tränades utan tillsyn på en stor korpus av text, ungefär som OpenAI:s GPT-3. Anthropic berättar att Claude är en större ny modell med liknande arkitektoniska val som den publicerade forskningen.

Systemet valde ut de som var mest förenliga med konstitutionen, och Anthropic destillerade dem till en enda modell. Enligt startupen användes denna modell för att träna Claude.

Vad är Claude?

Claude är i grunden ett statistiskt verktyg för att förutsäga ord, som ChatGPT och andra språkmodeller. Matad av en mängd exempeltexter hämtade från webben lärde Claude sig sannolikheten för förekomst av ord baserat på modeller som den omgivande textens semantiska sammanhang. Som ett resultat kan Claude hålla en öppen konversation, berätta skämt och filosofera över en lång rad ämnen.

Sin embargo, Claude är inte perfekt, eftersom som all AI, är mottaglig för några av ChatGPT:s brister, inklusive att leverera svar som inte matchar schemalagda begränsningar. I ett av de konstigaste exemplen, frågar systemet i Base64, ett kodningsschema som representerar binär data i ASCII-format, kringgår dess inbyggda filter för skadligt innehåll.

Men till skillnad från ChatGPT kan Claude stödja (men inte alltid) som inte vet svaret till en särskilt svår fråga.

Tester visar att det också verkar vara bättre på att berätta skämt än ChatGPT, en imponerande bedrift med tanke på att humor är ett så svårt koncept för AI-system att förstå.

Det är värt att nämna att Claude inte är tillgänglig för allmänheten, eftersom den endast kan testas genom en Slack-integration som en del av en stängd betaversion.

Betadeltagare beskrev sina interaktioner med Claude på Twitter, efter att embargot för mediebevakning hävdes. Claude skulle vara bättre på att skämta, men dålig på att programmera. Kommentarerna visar också att Claude är mottaglig för några av ChatGPT:s brister.

Slutligen, om du är intresserad av att kunna veta mer om det, kan du konsultera detaljerna i följande länk.


Lämna din kommentar

Din e-postadress kommer inte att publiceras. Obligatoriska fält är markerade med *

*

*

  1. Ansvarig för data: AB Internet Networks 2008 SL
  2. Syftet med uppgifterna: Kontrollera skräppost, kommentarhantering.
  3. Legitimering: Ditt samtycke
  4. Kommunikation av uppgifterna: Uppgifterna kommer inte att kommuniceras till tredje part förutom enligt laglig skyldighet.
  5. Datalagring: databas värd för Occentus Networks (EU)
  6. Rättigheter: När som helst kan du begränsa, återställa och radera din information.