Claude, ein Chatbot, der von ehemaligen OpenAI-Mitarbeitern erstellt wurde

Claude

Claude, ein Chatbot, der mit OpenAI konkurrieren will

Anthropic, ein 2021 von ehemaligen OpenAI-Mitarbeitern gegründetes KI-Startup, hat stillschweigend damit begonnen, einen neuen ChatGPT-ähnlichen KI-Assistenten zu testen, der das Original in einigen Schlüsselbereichen zu verbessern scheint.

mit Codename "Claude", dies wurde mit einer von Anthropic entwickelten Technik erstellt, genannt «Constitutional AI» und die Technik zielt darauf ab, einen „prinzipienbasierten“ Ansatz zu bieten KI-Systeme an menschlichen Absichten auszurichten, sodass KIs wie ChatGPT anhand einer Reihe einfacher Prinzipien als Leitfaden auf Anfragen reagieren können.

Anthropic, so wird erwähnt, vermarktet sich selbst als KI-Forschungs- und Sicherheitsunternehmen, das danach strebt, vertrauenswürdige, interpretierbare und steuerbare KI-Systeme zu schaffen.

Das Startup hat bisher mehr als 700 Millionen US-Dollar an Finanzmitteln erhalten und kürzlich einen KI-Chatbot namens Claude eingeführt. Letzteres ist vergleichbar mit ChatGPT von OpenAI, aber laut Anthropic ist Claude dem Original in mehreren wichtigen Punkten überlegen.

Das gesamte System befindet sich in der Closed Beta und nur wenige Menschen hatten bisher Zugriff auf den Chatbot, aber Anthropic hat einige Aspekte seines Designs in einem Dokument, das es mit der Community geteilt hat, offengelegt.

Um Claude zu entwerfen, begann das Anthropic-Team mit der Entwicklung einer Liste von etwa zehn Prinzipien, die zusammen eine Art „Verfassung“ bilden (daher der Begriff „Verfassungs-KI“).

Diese Grundsätze wurden nicht veröffentlicht, aber Anthropic sagt, dass sie auf den Konzepten der Nächstenliebe basieren (maximieren Sie die positive Wirkung), Nicht-Schädlichkeit (vermeide es, schädliche Ratschläge zu erteilen) und Autonomie (respektiere die Entscheidungsfreiheit).

Nach der Implementierung dieser Grundprinzipien bat Anthropic ein KI-System, das nicht Claude ist, diese Prinzipien zu verwenden, um sich selbst zu verbessern, indem es Antworten auf verschiedene Fragen schrieb (z. B. „Designe ein Bild im Stil von XX oder mache ein Gedicht im Stil von XX"). Stil XX") und Überprüfung der Antworten in Übereinstimmung mit der Satzung. Die KI untersuchte mögliche Antworten auf Tausende von Eingabeaufforderungen.

Claude geht nur wenig auf die technischen Details seiner Implementierung ein, aber das Forschungspapier von Anthropic über konstitutionelle KI beschreibt AnthropicLM v4-s3, ein vortrainiertes Modell mit 52 Milliarden Parametern. Dieses autoregressive Modell wurde unüberwacht auf einem großen Textkorpus trainiert, ähnlich wie GPT-3 von OpenAI. Anthropic sagt uns, dass Claude ein größeres neues Modell mit ähnlichen architektonischen Entscheidungen wie die veröffentlichte Forschung ist.

Das System wählte diejenigen aus, die der Verfassung am besten entsprachen, und Anthropic destillierte sie zu einem einzigen Modell. Nach Angaben des Startups wurde dieses Modell verwendet, um Claude zu trainieren.

Was ist Claude?

Claude ist im Grunde ein statistisches Werkzeug zur Vorhersage von Wörtern, wie ChatGPT und andere Sprachmodelle. Gefüttert mit einer Fülle von Beispieltexten aus dem Web lernte Claude die Wahrscheinlichkeit des Auftretens von Wörtern anhand von Modellen wie dem semantischen Kontext des umgebenden Textes. Dadurch kann Claude ein offenes Gespräch führen, Witze erzählen und über eine Vielzahl von Themen philosophieren.

Jedoch Claude ist nicht perfekt, da wie alle KI, ist anfällig für einige der Fehler von ChatGPT, einschließlich der Bereitstellung von Antworten, die nicht den geplanten Einschränkungen entsprechen. In einem der seltsamsten Beispiele wird das System in Base64 gefragt, einem Codierungsschema, das Binärdaten im ASCII-Format darstellt und seine integrierten Filter für schädliche Inhalte umgeht.

Birne Im Gegensatz zu ChatGPT kann Claude unterstützen (aber nicht immer) wer kennt die antwort nicht zu einer besonders schwierigen Frage.

Tests zeigen, dass es auch besser darin zu sein scheint, Witze zu erzählen als ChatGPT, eine beeindruckende Leistung, wenn man bedenkt, dass Humor ein so schwer zu verstehendes Konzept für KI-Systeme ist.

Erwähnenswert ist, dass Claude nicht für die breite Öffentlichkeit verfügbar ist, da es nur über eine Slack-Integration im Rahmen einer geschlossenen Beta-Version getestet werden kann.

Beta-Teilnehmer schilderten ihre Interaktionen mit Claude auf Twitter, nachdem das Embargo für Medienberichterstattung aufgehoben worden war. Claude wäre besser im Scherzen, aber schlecht im Programmieren. Die Kommentare zeigen auch, dass Claude für einige der Fehler von ChatGPT anfällig ist.

Schließlich, wenn Sie daran interessiert sind, mehr darüber zu erfahren, können Sie die Details in . einsehen den folgenden Link.


Hinterlasse einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert mit *

*

*

  1. Verantwortlich für die Daten: AB Internet Networks 2008 SL
  2. Zweck der Daten: Kontrolle von SPAM, Kommentarverwaltung.
  3. Legitimation: Ihre Zustimmung
  4. Übermittlung der Daten: Die Daten werden nur durch gesetzliche Verpflichtung an Dritte weitergegeben.
  5. Datenspeicherung: Von Occentus Networks (EU) gehostete Datenbank
  6. Rechte: Sie können Ihre Informationen jederzeit einschränken, wiederherstellen und löschen.