Claude, en chatbot opprettet av tidligere OpenAI-ansatte

Claude

Claude, en chatbot som ønsker å konkurrere med OpenAI

Anthropic, en AI-oppstart opprettet i 2021 av tidligere OpenAI-ansatte, har i det stille begynt å teste en ny ChatGPT-lignende AI-assistent som ser ut til å forbedre originalen på noen få nøkkelområder.

med kodenavn "Claude", dette ble laget ved hjelp av en teknikk utviklet av Anthropic, kalt «Constitutional AI» og teknikken har som mål å gi en "prinsippbasert" tilnærming å justere AI-systemer med menneskelige intensjoner, slik at AI-er som ChatGPT kan svare på spørsmål ved å bruke et sett med enkle prinsipper som en guide.

Anthropic, nevnes det, markedsfører seg selv som et AI-forsknings- og sikkerhetsselskap som streber etter å skape pålitelige, tolkbare og styrbare AI-systemer.

Oppstarten har mottatt mer enn 700 millioner dollar i finansiering til dags dato og introduserte nylig en AI-chatbot kalt Claude. Sistnevnte kan sammenlignes med OpenAIs ChatGPT, men ifølge Anthropic er Claude originalen overlegen på flere viktige måter.

Hele systemet er i lukket betaversjon og få personer har hatt tilgang til chatboten ennå, men Anthropic har løftet lokket på noen aspekter av designet i et dokument den delte med fellesskapet.

Nettopp, for å designe Claude, begynte det antropiske teamet med å utvikle en liste med omtrent ti prinsipper som til sammen danner en slags "konstitusjon" (derav begrepet "Konstitusjonell AI").

Disse prinsippene er ikke offentliggjort, men Anthropic sier at de er basert på begrepene veldedighet (maksimer den positive effekten), ingen ondskap (unngå å gi skadelige råd) og autonomi (respekter valgfrihet).

Etter å ha implementert disse grunnleggende prinsippene, ba Anthropic et AI-system, som ikke er Claude, om å bruke disse prinsippene for å forbedre seg selv ved å skrive svar på forskjellige spørsmål (for eksempel "Design et bilde i stil med XX eller lag et dikt i stilen av XX"). stil XX") og gjennomgå svarene i samsvar med grunnloven. AI undersøkte mulige svar på tusenvis av forespørsler.

Claude gir lite dybde på de tekniske detaljene i implementeringen hans, men Anthropics forskningsartikkel om Constitutional AI beskriver AnthropicLM v4-s3, en forhåndstrenet modell med 52 milliarder parametere. Denne autoregressive modellen ble trent uten tilsyn på et stort korpus med tekst, omtrent som OpenAIs GPT-3. Anthropic forteller oss at Claude er en større ny modell med lignende arkitektoniske valg som den publiserte forskningen.

Systemet valgte de som var mest i samsvar med grunnloven, og Anthropic destillerte dem til en enkelt modell. I følge oppstarten ble denne modellen brukt til å trene Claude.

Hva er Claude?

Claude er i utgangspunktet et statistisk verktøy for å forutsi ord, for eksempel ChatGPT og andre språkmodeller. Matet av et vell av eksempeltekster hentet fra nettet, lærte Claude sannsynligheten for forekomst av ord basert på modeller som den semantiske konteksten til den omkringliggende teksten. Som et resultat kan Claude holde en åpen samtale, fortelle vitser og filosofere over et bredt spekter av emner.

Imidlertid Claude er ikke perfekt, siden som all AI, er utsatt for noen av ChatGPTs feil, inkludert å levere svar som ikke samsvarer med planlagte begrensninger. I et av de merkeligste eksemplene, spør systemet i Base64, et kodingsskjema som representerer binære data i ASCII-format, omgår de innebygde filtrene for skadelig innhold.

Pero i motsetning til ChatGPT, kan Claude støtte (men ikke alltid) som ikke vet svaret til et spesielt vanskelig spørsmål.

Tester viser at det også ser ut til å være bedre til å fortelle vitser enn ChatGPT, en imponerende bragd med tanke på at humor er et så vanskelig konsept for AI-systemer å forstå.

Det er verdt å nevne at Claude ikke er tilgjengelig for allmennheten, siden den kun kan testes gjennom en Slack-integrasjon som en del av en lukket betaversjon.

Beta-deltakere beskrev sin interaksjon med Claude på Twitter, etter at mediedekningsembargoen ble opphevet. Claude ville vært flinkere til å spøke, men dårlig til å programmere. Kommentarene viser også at Claude er mottakelig for noen av ChatGPTs feil.

Til slutt, hvis du er interessert i å kunne vite mer om det, kan du se detaljene i følgende lenke.


Legg igjen kommentaren

Din e-postadresse vil ikke bli publisert. Obligatoriske felt er merket med *

*

*

  1. Ansvarlig for dataene: AB Internet Networks 2008 SL
  2. Formålet med dataene: Kontroller SPAM, kommentaradministrasjon.
  3. Legitimering: Ditt samtykke
  4. Kommunikasjon av dataene: Dataene vil ikke bli kommunisert til tredjeparter bortsett fra ved juridisk forpliktelse.
  5. Datalagring: Database vert for Occentus Networks (EU)
  6. Rettigheter: Når som helst kan du begrense, gjenopprette og slette informasjonen din.