Claude, een chatbot gemaakt door voormalige OpenAI-medewerkers

Claude

Claude, een chatbot die wil concurreren met OpenAI

Anthropic, een AI-startup die in 2021 is opgericht door voormalige OpenAI-medewerkers, is stilletjes begonnen met het testen van een nieuwe ChatGPT-achtige AI-assistent die op een paar belangrijke gebieden het origineel lijkt te verbeteren.

met codenaam "Claude", dit is gemaakt met behulp van een techniek die is ontwikkeld door Anthropic, genaamd «Constitutionele AI» en de techniek streeft naar een "op principes gebaseerde" benadering om AI-systemen af ​​te stemmen op menselijke bedoelingen, waardoor AI's zoals ChatGPT kunnen reageren op vragen met behulp van een reeks eenvoudige principes als leidraad.

Anthropic, zo wordt vermeld, brengt zichzelf op de markt als een AI-onderzoeks- en beveiligingsbedrijf dat ernaar streeft betrouwbare, interpreteerbare en bestuurbare AI-systemen te creëren.

De startup heeft tot nu toe meer dan $ 700 miljoen aan financiering ontvangen en introduceerde onlangs een AI-chatbot genaamd Claude. De laatste is vergelijkbaar met OpenAI's ChatGPT, maar volgens Anthropic is Claude op een aantal belangrijke punten superieur aan het origineel.

Het hele systeem bevindt zich in een gesloten bètaversie en nog maar weinig mensen hebben toegang gehad tot de chatbot, maar Anthropic heeft een aantal aspecten van het ontwerp onthuld in een document dat het met de gemeenschap heeft gedeeld.

Precies, om Claude te ontwerpen, begon het Anthropic-team met het ontwikkelen van een lijst van een tiental principes die samen een soort "grondwet" vormen (vandaar de term "Constitutionele AI").

Deze principes zijn niet openbaar gemaakt, maar Anthropic zegt dat ze gebaseerd zijn op de concepten van liefdadigheid (maximaliseer de positieve impact), geen kwaadaardigheid (vermijd schadelijk advies) en autonomie (respecteer keuzevrijheid).

Na het implementeren van deze basisprincipes vroeg Anthropic aan een AI-systeem, niet Claude, om deze principes te gebruiken om zichzelf te verbeteren door antwoorden te schrijven op verschillende vragen (bijvoorbeeld: "Ontwerp een afbeelding in de stijl van XX of maak een gedicht in de stijl van XX"). stijl XX") en het beoordelen van de antwoorden in overeenstemming met de statuten. De AI onderzocht mogelijke reacties op duizenden prompts.

Claude geeft weinig diepgang over de technische details van zijn implementatie, maar Anthropic's onderzoekspaper over constitutionele AI beschrijft AnthropicLM v4-s3, een vooraf getraind model met 52 miljard parameters. Dit autoregressieve model werd zonder toezicht getraind op een groot tekstcorpus, net zoals OpenAI's GPT-3. Anthropic vertelt ons dat Claude een groter nieuw model is met vergelijkbare architectonische keuzes als het gepubliceerde onderzoek.

Het systeem selecteerde degenen die het meest consistent waren met de grondwet, en Anthropic destilleerde ze tot één enkel model. Volgens de startup werd dit model gebruikt om Claude te trainen.

Wat is Claude?

Claude is eigenlijk een statistisch hulpmiddel om woorden te voorspellen, zoals ChatGPT en andere taalmodellen. Gevoed door een schat aan voorbeeldteksten van het web, leerde Claude de waarschijnlijkheid van het voorkomen van woorden op basis van modellen zoals de semantische context van de omringende tekst. Hierdoor kan Claude een open gesprek voeren, moppen vertellen en filosoferen over een breed scala aan onderwerpen.

Echter Claude is niet perfect, aangezien zoals alle AI, is vatbaar voor sommige fouten van ChatGPT, inclusief het leveren van reacties die niet overeenkomen met de geplande beperkingen. In een van de vreemdste voorbeelden, waarbij het systeem in Base64 wordt gevraagd, omzeilt een coderingsschema dat binaire gegevens in ASCII-indeling vertegenwoordigt, de ingebouwde filters voor schadelijke inhoud.

Maar in tegenstelling tot ChatGPT kan Claude ondersteuning bieden (maar niet altijd) wie weet het antwoord niet op een bijzonder moeilijke vraag.

Uit tests blijkt dat het ook beter lijkt te zijn in het vertellen van moppen dan ChatGPT, een indrukwekkende prestatie aangezien humor zo'n moeilijk concept is voor AI-systemen om te begrijpen.

Het is vermeldenswaard dat Claude niet beschikbaar is voor het grote publiek, aangezien het alleen kan worden getest via een Slack-integratie als onderdeel van een gesloten bètaversie.

Beta-deelnemers beschreven hun interacties met Claude op Twitter, nadat het media-embargo was opgeheven. Claude zou beter zijn in grappen maken, maar slecht in programmeren. Uit de opmerkingen blijkt ook dat Claude vatbaar is voor enkele van de fouten van ChatGPT.

Tot slot, als u er meer over wilt weten, kunt u de details raadplegen in de volgende link.


Laat je reactie achter

Uw e-mailadres wordt niet gepubliceerd. Verplichte velden zijn gemarkeerd met *

*

*

  1. Verantwoordelijk voor de gegevens: AB Internet Networks 2008 SL
  2. Doel van de gegevens: Controle SPAM, commentaarbeheer.
  3. Legitimatie: uw toestemming
  4. Mededeling van de gegevens: De gegevens worden niet aan derden meegedeeld, behalve op grond van wettelijke verplichting.
  5. Gegevensopslag: database gehost door Occentus Networks (EU)
  6. Rechten: u kunt uw gegevens op elk moment beperken, herstellen en verwijderen.