Claude, ένα chatbot που δημιουργήθηκε από πρώην υπαλλήλους του OpenAI

Claude

Claude, ένα chatbot που θέλει να ανταγωνιστεί το OpenAI

Η Anthropic, μια startup τεχνητής νοημοσύνης που δημιουργήθηκε το 2021 από πρώην υπαλλήλους του OpenAI, άρχισε αθόρυβα να δοκιμάζει έναν νέο βοηθό τεχνητής νοημοσύνης που μοιάζει με ChatGPT που φαίνεται να βελτιώνεται σε σχέση με το πρωτότυπο σε ορισμένους βασικούς τομείς.

με κωδικό όνομα Το "Claude", αυτό δημιουργήθηκε χρησιμοποιώντας μια τεχνική που αναπτύχθηκε από την Anthropic, που ονομάζεται «Constitutional AI» και η τεχνική στοχεύει στην παροχή μιας «βασισμένης σε αρχές» προσέγγισης να ευθυγραμμίσει τα συστήματα AI με τις ανθρώπινες προθέσεις, επιτρέποντας σε AI όπως το ChatGPT να απαντούν σε ερωτήματα χρησιμοποιώντας ένα σύνολο απλών αρχών ως οδηγό.

Η Anthropic, αναφέρεται, εμπορεύεται ως εταιρεία έρευνας και ασφάλειας AI που προσπαθεί να δημιουργήσει αξιόπιστα, ερμηνεύσιμα και κατευθυνόμενα συστήματα AI.

Η startup έχει λάβει περισσότερα από 700 εκατομμύρια δολάρια σε χρηματοδότηση μέχρι σήμερα και πρόσφατα παρουσίασε ένα chatbot AI που ονομάζεται Claude. Το τελευταίο είναι συγκρίσιμο με το ChatGPT του OpenAI, αλλά σύμφωνα με το Anthropic, ο Claude είναι ανώτερος από το πρωτότυπο με πολλούς σημαντικούς τρόπους.

Ολόκληρο το σύστημα είναι σε κλειστή έκδοση beta και λίγοι άνθρωποι είχαν πρόσβαση στο chatbot ακόμα, αλλά η Anthropic έχει άρει το καπάκι σε ορισμένες πτυχές του σχεδιασμού του σε ένα έγγραφο που μοιράστηκε με την κοινότητα.

Ακριβώς, για να σχεδιάσει τον Claude, η ομάδα Anthropic ξεκίνησε αναπτύσσοντας μια λίστα με περίπου δέκα αρχές που, μαζί, αποτελούν ένα είδος «συντάγματος» (εξ ου και ο όρος «Συνταγματική AI»).

Αυτές οι αρχές δεν έχουν δημοσιοποιηθεί, αλλά Η Anthropic λέει ότι βασίζονται στις έννοιες της φιλανθρωπίας (μεγιστοποίηση του θετικού αντίκτυπου), καμία κακία (αποφύγετε να δίνετε επιβλαβείς συμβουλές) και αυτονομία (σεβασμός της ελευθερίας επιλογής).

Μετά την εφαρμογή αυτών των βασικών αρχών, η Anthropic ζήτησε από ένα σύστημα τεχνητής νοημοσύνης, που δεν είναι ο Claude, να χρησιμοποιήσει αυτές τις αρχές για να βελτιωθεί γράφοντας απαντήσεις σε διάφορες ερωτήσεις (για παράδειγμα, "Σχεδιάστε μια εικόνα στο στυλ του XX ή κάντε ένα ποίημα στο στυλ του ΧΧ"). στυλ ΧΧ") και επανεξέταση των απαντήσεων σύμφωνα με το σύνταγμα. Το AI διερεύνησε πιθανές απαντήσεις σε χιλιάδες προτροπές.

Ο Claude δίνει λίγο βάθος στις τεχνικές λεπτομέρειες της υλοποίησής του, αλλά η ερευνητική εργασία του Anthropic σχετικά με το Συνταγματικό AI περιγράφει το AnthropicLM v4-s3, ένα προεκπαιδευμένο μοντέλο 52 δισεκατομμυρίων παραμέτρων. Αυτό το αυτοπαλινδρομικό μοντέλο εκπαιδεύτηκε χωρίς επίβλεψη σε ένα μεγάλο σώμα κειμένου, όπως το GPT-3 του OpenAI. Το Anthropic μας λέει ότι ο Claude είναι ένα μεγαλύτερο νέο μοντέλο με παρόμοιες αρχιτεκτονικές επιλογές με τη δημοσιευμένη έρευνα.

Το σύστημα επέλεξε εκείνα που ήταν πιο συνεπή με το σύνταγμα και η Anthropic τα απόσταξε σε ένα ενιαίο μοντέλο. Σύμφωνα με την startup, αυτό το μοντέλο χρησιμοποιήθηκε για την εκπαίδευση του Claude.

Τι είναι ο Claude;

Claude είναι βασικά ένα στατιστικό εργαλείο για την πρόβλεψη λέξεων, όπως το ChatGPT και άλλα μοντέλα γλώσσας. Τροφοδοτημένος από πληθώρα δειγμάτων κειμένων που ελήφθησαν από τον Ιστό, ο Claude έμαθε την πιθανότητα εμφάνισης λέξεων με βάση μοντέλα όπως το σημασιολογικό πλαίσιο του περιβάλλοντος κειμένου. Ως αποτέλεσμα, ο Claude μπορεί να έχει μια ανοιχτή συνομιλία, να λέει αστεία και να φιλοσοφεί για ένα ευρύ φάσμα θεμάτων.

Ωστόσο, Ο Κλοντ δεν είναι τέλειος, αφού όπως όλα τα AI, είναι επιρρεπής σε ορισμένα από τα ελαττώματα του ChatGPT, συμπεριλαμβανομένης της παράδοσης απαντήσεων που δεν ταιριάζουν με προγραμματισμένους περιορισμούς. Σε ένα από τα πιο περίεργα παραδείγματα, ρωτώντας το σύστημα στο Base64, ένα σχήμα κωδικοποίησης που αναπαριστά δυαδικά δεδομένα σε μορφή ASCII, παρακάμπτει τα ενσωματωμένα φίλτρα του για επιβλαβές περιεχόμενο.

Αλλά Σε αντίθεση με το ChatGPT, ο Claude μπορεί να υποστηρίξει (αλλά όχι πάντα) που δεν ξέρει την απάντηση σε μια ιδιαίτερα δύσκολη ερώτηση.

Οι δοκιμές αποκαλύπτουν ότι φαίνεται επίσης να είναι καλύτερο στο να λέει ανέκδοτα από το ChatGPT, ένα εντυπωσιακό επίτευγμα αν σκεφτεί κανείς ότι το χιούμορ είναι μια τόσο δύσκολη ιδέα για τα συστήματα τεχνητής νοημοσύνης.

Αξίζει να αναφέρουμε ότι το Claude δεν είναι διαθέσιμο στο ευρύ κοινό, καθώς μπορεί να δοκιμαστεί μόνο μέσω ενσωμάτωσης Slack ως μέρος μιας κλειστής έκδοσης beta.

Οι συμμετέχοντες στο Beta παρουσίασαν λεπτομερώς τις αλληλεπιδράσεις τους με τον Claude στο Twitter, μετά την άρση του εμπάργκο κάλυψης από τα μέσα ενημέρωσης. Ο Claude θα ήταν καλύτερος στο αστείο, αλλά κακός στον προγραμματισμό. Τα σχόλια δείχνουν επίσης ότι ο Claude είναι ευαίσθητος σε ορισμένα από τα ελαττώματα του ChatGPT.

Τέλος, αν ενδιαφέρεστε να μάθετε περισσότερα σχετικά, μπορείτε να συμβουλευτείτε τις λεπτομέρειες στο τον ακόλουθο σύνδεσμο.


Αφήστε το σχόλιό σας

Η διεύθυνση email σας δεν θα δημοσιευθεί. Τα υποχρεωτικά πεδία σημειώνονται με *

*

*

  1. Υπεύθυνος για τα δεδομένα: AB Internet Networks 2008 SL
  2. Σκοπός των δεδομένων: Έλεγχος SPAM, διαχείριση σχολίων.
  3. Νομιμοποίηση: Η συγκατάθεσή σας
  4. Κοινοποίηση των δεδομένων: Τα δεδομένα δεν θα κοινοποιούνται σε τρίτους, εκτός από νομική υποχρέωση.
  5. Αποθήκευση δεδομένων: Βάση δεδομένων που φιλοξενείται από τα δίκτυα Occentus (ΕΕ)
  6. Δικαιώματα: Ανά πάσα στιγμή μπορείτε να περιορίσετε, να ανακτήσετε και να διαγράψετε τις πληροφορίες σας.