Claude, чат-бот, створений колишніми співробітниками OpenAI

Клод

Клод, чат-бот, який хоче конкурувати з OpenAI

Anthropic, стартап зі штучним інтелектом, створений у 2021 році колишніми співробітниками OpenAI, тихо розпочав тестування нового помічника зі штучним інтелектом, схожого на ChatGPT, який, здається, покращує оригінал у кількох ключових сферах.

з кодовою назвою "Клод", це було створено за допомогою техніки, розробленої Anthropic, під назвою «Конституційний ШІ» та методика має на меті забезпечити «принциповий» підхід щоб узгодити системи штучного інтелекту з намірами людини, дозволяючи штучному інтелекту, як-от ChatGPT, відповідати на запити, використовуючи набір простих принципів як керівництво.

Зазначається, що Anthropic рекламує себе як компанію з дослідження та безпеки штучного інтелекту, яка прагне створювати надійні, інтерпретовані та керовані системи штучного інтелекту.

На сьогодні стартап отримав понад 700 мільйонів доларів фінансування та нещодавно представив чат-бота зі штучним інтелектом під назвою Claude. Останній можна порівняти з ChatGPT OpenAI, але, згідно з Anthropic, Claude перевершує оригінал у кількох важливих аспектах.

Вся система перебуває в закритій бета-версії, і мало хто ще мав доступ до чат-бота, але Anthropic підняв кришку щодо деяких аспектів її дизайну в документі, яким він поділився зі спільнотою.

Точніше, щоб спроектувати Клода, команда Anthropic почала з розробки списку приблизно з десяти принципів, які разом утворюють своєрідну «конституцію» (звідси термін «Конституційний ШІ»).

Ці принципи не були оприлюднені, але Anthropic каже, що вони засновані на концепції благодійності (максимізувати позитивний вплив), ніякої злоби (уникати давати шкідливих порад) і автономії (поважати свободу вибору).

Після впровадження цих основних принципів Anthropic попросив систему штучного інтелекту, яка не є Claude, використати ці принципи для самовдосконалення, написавши відповіді на різні запитання (наприклад, «Створи малюнок у стилі XX або напиши вірш у стилі XX"). стиль XX") і переглядаючи відповіді відповідно до конституції. ШІ досліджував можливі відповіді на тисячі підказок.

Клод мало розповідає про технічні деталі своєї реалізації, але дослідницька стаття Anthropic про конституційний штучний інтелект описує AnthropicLM v4-s3, попередньо навчену модель із 52 мільярдами параметрів. Цю модель авторегресії було навчено без нагляду на великому корпусі тексту, подібно до GPT-3 OpenAI. Anthropic повідомляє нам, що Claude — це більша нова модель із подібними архітектурними рішеннями до опублікованих досліджень.

Система вибрала ті, які найбільше відповідають конституції, і Anthropic об’єднав їх у єдину модель. За словами стартапу, ця модель використовувалася для навчання Клода.

Що таке Клод?

Клод це в основному статистичний інструмент для передбачення слів, як-от ChatGPT та інші мовні моделі. Нагодувавшись великою кількістю зразків текстів, взятих з Інтернету, Клод дізнався ймовірність появи слів на основі таких моделей, як семантичний контекст навколишнього тексту. Завдяки цьому Клод може вести відверту розмову, розповідати анекдоти, філософствувати на найрізноманітніші теми.

Проте, Клод не ідеальний, оскільки, як і всі ШІ, чутливий до деяких недоліків ChatGPT, включаючи доставку відповідей, які не відповідають запланованим обмеженням. В одному з найдивніших прикладів запит системи в Base64, схемі кодування, яка представляє двійкові дані у форматі ASCII, обходить свої вбудовані фільтри для шкідливого вмісту.

перо на відміну від ChatGPT, Клод може підтримувати (але не завжди) хто не знає відповіді на особливо складне питання.

Тести показують, що він також, здається, краще розповідає анекдоти, ніж ChatGPT, вражаюче досягнення, враховуючи, що гумор є таким складним поняттям для систем ШІ.

Варто зазначити, що Claude недоступний для широкого загалу, оскільки його можна перевірити лише через інтеграцію Slack у рамках закритої бета-версії.

Учасники бета-версії детально описали свою взаємодію з Клодом у Twitter після зняття ембарго на висвітлення в ЗМІ. Клод краще жартує, але погано програмує. Коментарі також показують, що Клод сприйнятливий до деяких недоліків ChatGPT.

Нарешті, якщо вам цікаво дізнатися більше про це, ви можете ознайомитися з деталями в за наступним посиланням.


Залиште свій коментар

Ваша електронна адреса не буде опублікований. Обов'язкові для заповнення поля позначені *

*

*

  1. Відповідальний за дані: AB Internet Networks 2008 SL
  2. Призначення даних: Контроль спаму, управління коментарями.
  3. Легітимація: Ваша згода
  4. Передача даних: Дані не передаватимуться третім особам, за винятком юридичних зобов’язань.
  5. Зберігання даних: База даних, розміщена в мережі Occentus Networks (ЄС)
  6. Права: Ви можете будь-коли обмежити, відновити та видалити свою інформацію.