Claude, một chatbot được tạo bởi cựu nhân viên OpenAI

Claude

Claude, một chatbot muốn cạnh tranh với OpenAI

Anthropic, một công ty khởi nghiệp về AI được thành lập vào năm 2021 bởi các cựu nhân viên của OpenAI, đã âm thầm bắt đầu thử nghiệm một trợ lý AI mới giống ChatGPT có vẻ cải thiện so với bản gốc ở một số lĩnh vực chính.

với tên mã "Claude", cái này được tạo bằng kỹ thuật do Anthropic phát triển, được gọi là «AI hiến pháp» và kỹ thuật nhằm mục đích cung cấp một cách tiếp cận “dựa trên nguyên tắc” để sắp xếp các hệ thống AI phù hợp với ý định của con người, cho phép các AI như ChatGPT phản hồi các truy vấn bằng cách sử dụng một bộ nguyên tắc đơn giản làm hướng dẫn.

Người ta nói rằng Anthropic tự quảng cáo mình là một công ty bảo mật và nghiên cứu AI luôn cố gắng tạo ra các hệ thống AI đáng tin cậy, có thể hiểu được và có thể điều khiển được.

Công ty khởi nghiệp đã nhận được hơn 700 triệu đô la tài trợ cho đến nay và gần đây đã giới thiệu một chatbot AI có tên là Claude. Cái sau có thể so sánh với ChatGPT của OpenAI, nhưng theo Anthropic, Claude vượt trội so với bản gốc ở một số điểm quan trọng.

Toàn bộ hệ thống đang ở giai đoạn thử nghiệm kín và rất ít người có quyền truy cập vào chatbot, nhưng Anthropic đã tiết lộ một số khía cạnh trong thiết kế của nó trong một tài liệu được chia sẻ với cộng đồng.

Chính xác là, để thiết kế Claude, nhóm Anthropic đã bắt đầu bằng cách phát triển một danh sách khoảng mười nguyên tắc cùng nhau tạo thành một loại "hiến pháp" (do đó có thuật ngữ "AI hiến pháp").

Những nguyên tắc này đã không được công khai, nhưng Anthropic nói rằng họ dựa trên các khái niệm về từ thiện (tối đa hóa tác động tích cực), không có ác ý (tránh đưa ra lời khuyên có hại) và quyền tự chủ (tôn trọng quyền tự do lựa chọn).

Sau khi thực hiện các nguyên tắc cơ bản này, Anthropic đã yêu cầu một hệ thống AI, không phải là Claude, sử dụng các nguyên tắc này để cải thiện chính nó bằng cách viết câu trả lời cho các câu hỏi khác nhau (ví dụ: "Thiết kế một bức tranh theo phong cách XX hoặc làm một bài thơ theo phong cách of XX"). style XX") và xem xét các câu trả lời theo hiến pháp. AI đã khám phá các phản hồi có thể có đối với hàng nghìn lời nhắc.

Claude cung cấp rất ít thông tin chi tiết kỹ thuật về quá trình triển khai của mình, nhưng tài liệu nghiên cứu của Anthropic về AI hiến pháp mô tả AnthropicLM v4-s3, một mô hình được đào tạo trước với 52 tỷ tham số. Mô hình tự hồi quy này được đào tạo không giám sát trên một khối văn bản lớn, giống như GPT-3 của OpenAI. Anthropic cho chúng ta biết rằng Claude là một mô hình mới lớn hơn với các lựa chọn kiến ​​trúc tương tự như nghiên cứu đã công bố.

Hệ thống đã chọn những cái phù hợp nhất với hiến pháp và Anthropic chắt lọc chúng thành một mô hình duy nhất. Theo startup, mô hình này được dùng để huấn luyện Claude.

Claude là gì?

Claude về cơ bản là một công cụ thống kê để dự đoán các từ, chẳng hạn như ChatGPT và các mô hình ngôn ngữ khác. Được cung cấp bởi vô số văn bản mẫu lấy từ Web, Claude đã học được xác suất xuất hiện của các từ dựa trên các mô hình như ngữ cảnh ngữ nghĩa của văn bản xung quanh. Nhờ đó, Claude có thể tổ chức một cuộc trò chuyện cởi mở, kể chuyện cười và triết lý về nhiều chủ đề.

Tuy nhiên, Claude không hoàn hảo, vì giống như tất cả AI, dễ bị một số lỗi của ChatGPT, bao gồm cả việc cung cấp các phản hồi không khớp với các ràng buộc đã lên lịch. Trong một trong những ví dụ kỳ lạ nhất, yêu cầu hệ thống trong Base64, một sơ đồ mã hóa biểu thị dữ liệu nhị phân ở định dạng ASCII, bỏ qua các bộ lọc tích hợp sẵn của nó để tìm nội dung có hại.

Nhưng không giống như ChatGPT, Claude có thể hỗ trợ (nhưng không phải luôn luôn) Ai không biết câu trả lời cho một câu hỏi đặc biệt khó.

Các thử nghiệm cho thấy rằng nó cũng có vẻ kể chuyện cười tốt hơn ChatGPT, một thành tích ấn tượng vì sự hài hước là một khái niệm khó nắm bắt đối với các hệ thống AI.

Điều đáng nói là Claude không có sẵn cho công chúng, vì nó chỉ có thể được thử nghiệm thông qua tích hợp Slack như một phần của phiên bản beta kín.

Những người tham gia Beta đã trình bày chi tiết các tương tác của họ với Claude trên Twitter, sau khi lệnh cấm vận đưa tin trên phương tiện truyền thông được dỡ bỏ. Claude nói đùa giỏi hơn nhưng lập trình dở. Các nhận xét cũng cho thấy Claude dễ mắc phải một số sai sót của ChatGPT.

Cuối cùng, nếu bạn quan tâm có thể biết thêm về nó, bạn có thể tham khảo chi tiết tại liên kết sau.


Để lại bình luận của bạn

địa chỉ email của bạn sẽ không được công bố. Các trường bắt buộc được đánh dấu bằng *

*

*

  1. Chịu trách nhiệm về dữ liệu: AB Internet Networks 2008 SL
  2. Mục đích của dữ liệu: Kiểm soát SPAM, quản lý bình luận.
  3. Hợp pháp: Sự đồng ý của bạn
  4. Truyền thông dữ liệu: Dữ liệu sẽ không được thông báo cho các bên thứ ba trừ khi có nghĩa vụ pháp lý.
  5. Lưu trữ dữ liệu: Cơ sở dữ liệu do Occentus Networks (EU) lưu trữ
  6. Quyền: Bất cứ lúc nào bạn có thể giới hạn, khôi phục và xóa thông tin của mình.