Claude, un chatbot créé par d'anciens employés d'OpenAI

Claude

Claude, un chatbot qui cherche à concurrencer OpenAI

Anthropic, une startup d'IA créée en 2021 par d'anciens employés d'OpenAI, a discrètement commencé à tester un nouvel assistant d'IA de type ChatGPT qui semble s'améliorer par rapport à l'original dans quelques domaines clés.

avec nom de code « Claude », il a été créé à l'aide d'une technique développée par Anthropic, appelée « IA constitutionnelle » et la technique vise à fournir une approche « fondée sur des principes » pour aligner les systèmes d'IA sur les intentions humaines, permettant aux IA comme ChatGPT de répondre aux requêtes en utilisant un ensemble de principes simples comme guide.

Anthropic, est-il mentionné, se présente comme une société de recherche et de sécurité sur l'IA qui s'efforce de créer des systèmes d'IA fiables, interprétables et orientables.

La startup a reçu plus de 700 millions de dollars de financement à ce jour et a récemment introduit un chatbot AI appelé Claude. Ce dernier est comparable au ChatGPT d'OpenAI, mais selon Anthropic, Claude est supérieur à l'original à plusieurs égards importants.

L'ensemble du système est en version bêta fermée et peu de personnes ont encore eu accès au chatbot, mais Anthropic a levé le voile sur certains aspects de sa conception dans un document qu'il a partagé avec la communauté.

Justement, pour concevoir Claude, l'équipe d'Anthropic a commencé par élaborer une liste d'une dizaine de principes qui, ensemble, forment une sorte de « constitution » (d'où le terme « IA constitutionnelle »).

Ces principes n'ont pas été rendus publics, mais Anthropic dit qu'ils sont basés sur les concepts de la charité (maximiser l'impact positif), non-malfaisance (éviter de donner des conseils préjudiciables) et autonomie (respecter la liberté de choix).

Après avoir mis en place ces principes de base, Anthropic a demandé à un système d'IA, qui n'est pas Claude, d'utiliser ces principes pour s'améliorer en écrivant des réponses à diverses questions (par exemple, "Concevoir une image dans le style XX ou faire un poème dans le style de XX"). style XX") et examiner les réponses conformément à la constitution. L'IA a exploré les réponses possibles à des milliers d'invites.

Claude donne peu de détails techniques sur sa mise en œuvre, mais le document de recherche d'Anthropic sur l'IA constitutionnelle décrit AnthropicLM v4-s3, un modèle pré-entraîné de 52 milliards de paramètres. Ce modèle autorégressif a été formé sans supervision sur un grand corpus de texte, un peu comme le GPT-3 d'OpenAI. Anthropic nous dit que Claude est un nouveau modèle plus grand avec des choix architecturaux similaires à la recherche publiée.

Le système a sélectionné les plus conformes à la constitution et Anthropic les a distillés en un seul modèle. Selon la startup, ce modèle a servi à former Claude.

C'est quoi Claude ?

Claude est essentiellement un outil statistique pour prédire les mots, tels que ChatGPT et d'autres modèles de langage. Alimenté par une multitude d'échantillons de textes tirés du Web, Claude a appris la probabilité d'occurrence des mots en se basant sur des modèles tels que le contexte sémantique du texte environnant. En conséquence, Claude peut tenir une conversation ouverte, raconter des blagues et philosopher sur un large éventail de sujets.

Toutefois, Claude n'est pas parfait, puisque comme toutes les IA, est sensible à certaines failles de ChatGPT, y compris la livraison de réponses qui ne correspondent pas aux contraintes planifiées. Dans l'un des exemples les plus étranges, demander au système en Base64, un schéma de codage qui représente des données binaires au format ASCII, contourne ses filtres intégrés pour les contenus nuisibles.

Mais contrairement à ChatGPT, Claude peut prendre en charge (mais pas tout le temps) qui ne connaît pas la réponse à une question particulièrement difficile.

Les tests révèlent qu'il semble également être meilleur pour raconter des blagues que ChatGPT, un exploit impressionnant étant donné que l'humour est un concept si difficile à saisir pour les systèmes d'IA.

Il est à noter que Claude n'est pas accessible au grand public, puisqu'il ne peut être testé que via une intégration Slack dans le cadre d'une version bêta fermée.

Les participants à la bêta ont détaillé leurs interactions avec Claude sur Twitter, après la levée de l'embargo sur la couverture médiatique. Claude serait meilleur en plaisanterie, mais mauvais en programmation. Les commentaires montrent également que Claude est sensible à certains des défauts de ChatGPT.

Enfin, si vous souhaitez en savoir plus, vous pouvez consulter les détails dans le lien suivant.


Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont marqués avec *

*

*

  1. Responsable des données : AB Internet Networks 2008 SL
  2. Finalité des données: Contrôle du SPAM, gestion des commentaires.
  3. Légitimation: votre consentement
  4. Communication des données: Les données ne seront pas communiquées à des tiers sauf obligation légale.
  5. Stockage des données: base de données hébergée par Occentus Networks (EU)
  6. Droits: à tout moment, vous pouvez limiter, récupérer et supprimer vos informations.