Claude, en chatbot skabt af tidligere OpenAI-medarbejdere

Claude

Claude, en chatbot, der ønsker at konkurrere med OpenAI

Anthropic, en AI-startup oprettet i 2021 af tidligere OpenAI-medarbejdere, er stille og roligt begyndt at teste en ny ChatGPT-lignende AI-assistent, der ser ud til at forbedre originalen på nogle få nøgleområder.

med kodenavn "Claude", dette blev skabt ved hjælp af en teknik udviklet af Anthropic, kaldet «Constitutional AI» og teknikken har til formål at give en "principbaseret" tilgang at tilpasse AI-systemer til menneskelige intentioner, så AI'er som ChatGPT kan svare på forespørgsler ved hjælp af et sæt enkle principper som guide.

Anthropic, nævnes det, markedsfører sig selv som en AI-forsknings- og sikkerhedsvirksomhed, der stræber efter at skabe troværdige, fortolkelige og styrbare AI-systemer.

Opstarten har modtaget mere end $700 millioner i finansiering til dato og introducerede for nylig en AI-chatbot kaldet Claude. Sidstnævnte kan sammenlignes med OpenAIs ChatGPT, men ifølge Anthropic er Claude originalen overlegen på flere vigtige måder.

Hele systemet er i lukket beta, og få mennesker har haft adgang til chatbotten endnu, men Anthropic har løftet låget på nogle aspekter af dets design i et dokument, det delte med fællesskabet.

Netop for at designe Claude begyndte det antropiske team med at udvikle en liste med omkring ti principper, der tilsammen danner en slags "konstitution" (deraf udtrykket "Konstitutionel AI").

Disse principper er ikke blevet offentliggjort, men Anthropic siger, at de er baseret på begreberne velgørenhed (maksimer den positive effekt), ikke-ondsindethed (undgå at give skadelige råd) og autonomi (respekter valgfriheden).

Efter at have implementeret disse grundlæggende principper bad Anthropic et AI-system, som ikke er Claude, om at bruge disse principper til at forbedre sig selv ved at skrive svar på forskellige spørgsmål (for eksempel "Design et billede i stil med XX eller lav et digt i stilen af XX"). stil XX") og gennemgang af svarene i overensstemmelse med forfatningen. AI’en udforskede mulige svar på tusindvis af prompter.

Claude giver kun lidt dybde i de tekniske detaljer i hans implementering, men Anthropics forskningsartikel om Constitutional AI beskriver AnthropicLM v4-s3, en 52 milliarder parameter prætrænet model. Denne autoregressive model blev trænet uden opsyn på et stort korpus af tekst, ligesom OpenAI's GPT-3. Anthropic fortæller os, at Claude er en større ny model med lignende arkitektoniske valg som den publicerede forskning.

Systemet valgte dem, der var mest i overensstemmelse med forfatningen, og Anthropic destillerede dem til en enkelt model. Ifølge opstarten blev denne model brugt til at træne Claude.

Hvad er Claude?

Claude er dybest set et statistisk værktøj til at forudsige ord, såsom ChatGPT og andre sprogmodeller. Næret af et væld af eksempeltekster hentet fra nettet lærte Claude sandsynligheden for forekomst af ord baseret på modeller som den semantiske kontekst af den omgivende tekst. Som et resultat kan Claude holde en åben samtale, fortælle vittigheder og filosofere over en lang række emner.

Imidlertid Claude er ikke perfekt, da ligesom al AI, er modtagelig for nogle af ChatGPTs fejl, herunder levering af svar, der ikke matcher planlagte begrænsninger. I et af de mærkeligste eksempler, at spørge systemet i Base64, omgår et kodningsskema, der repræsenterer binære data i ASCII-format, dets indbyggede filtre for skadeligt indhold.

Pero i modsætning til ChatGPT, kan Claude støtte (men ikke altid) som ikke kender svaret til et særligt vanskeligt spørgsmål.

Tests afslører, at det også ser ud til at være bedre til at fortælle vittigheder end ChatGPT, en imponerende bedrift i betragtning af, at humor er et så svært koncept for AI-systemer at forstå.

Det er værd at nævne, at Claude ikke er tilgængelig for den brede offentlighed, da den kun kan testes gennem en Slack-integration som en del af en lukket betaversion.

Beta-deltagere detaljerede deres interaktioner med Claude på Twitter, efter at mediedækningsembargoen blev ophævet. Claude ville være bedre til at spøge, men dårlig til at programmere. Kommentarerne viser også, at Claude er modtagelig for nogle af ChatGPTs fejl.

Endelig, hvis du er interesseret i at kunne vide mere om det, kan du se detaljerne i følgende link.


Efterlad din kommentar

Din e-mailadresse vil ikke blive offentliggjort. Obligatoriske felter er markeret med *

*

*

  1. Ansvarlig for data: AB Internet Networks 2008 SL
  2. Formålet med dataene: Control SPAM, management af kommentarer.
  3. Legitimering: Dit samtykke
  4. Kommunikation af dataene: Dataene vil ikke blive kommunikeret til tredjemand, undtagen ved juridisk forpligtelse.
  5. Datalagring: Database hostet af Occentus Networks (EU)
  6. Rettigheder: Du kan til enhver tid begrænse, gendanne og slette dine oplysninger.