Клод, чат-бот, созданный бывшими сотрудниками OpenAI.

Клод

Клод, чат-бот, стремящийся конкурировать с OpenAI

Anthropic, стартап в области искусственного интеллекта, созданный в 2021 году бывшими сотрудниками OpenAI, незаметно приступил к тестированию нового помощника искусственного интеллекта, похожего на ChatGPT, который, по-видимому, лучше оригинала в нескольких ключевых областях.

с кодовым названием «Клод», это было создано с использованием техники, разработанной Anthropic.под названием «Конституционный ИИ» и метод стремится обеспечить «принципиальный» подход согласовать системы ИИ с человеческими намерениями, позволяя таким ИИ, как ChatGPT, отвечать на запросы, используя в качестве руководства набор простых принципов.

Упоминается, что Anthropic позиционирует себя как компания, занимающаяся исследованиями и безопасностью ИИ, которая стремится создавать надежные, интерпретируемые и управляемые системы ИИ.

На сегодняшний день стартап получил более 700 миллионов долларов финансирования и недавно представил чат-бота с искусственным интеллектом по имени Клод. Последний сравним с ChatGPT от OpenAI, но, по словам Anthropic, Claude превосходит оригинал по нескольким важным параметрам.

Вся система находится в стадии закрытого бета-тестирования, и мало кто еще имел доступ к чат-боту, но Anthropic приоткрыла завесу над некоторыми аспектами своего дизайна в документе, которым поделилась с сообществом.

Именно для разработки Клода команда Anthropic начала с разработки списка примерно из десяти принципов, которые вместе образуют своего рода «конституцию» (отсюда и термин «Конституционный ИИ»).

Эти принципы не были обнародованы, но Anthropic говорит, что они основаны на концепциях благотворительности (максимум положительного воздействия), безвредность (избегайте давать вредные советы) и автономии (уважайте свободу выбора).

После реализации этих основных принципов Anthropic попросила систему ИИ, которая не является Клодом, использовать эти принципы, чтобы улучшить себя, написав ответы на различные вопросы (например, «Нарисуйте картину в стиле XX или сочините стихотворение в стиле ХХ"). стиль ХХ") и рассмотрение ответов в соответствии с конституцией. ИИ исследовал возможные ответы на тысячи запросов.

Клод мало подробно рассказывает о технических деталях своей реализации, но исследовательский документ Anthropic по конституционному ИИ описывает AnthropicLM v4-s3, предварительно обученную модель с 52 миллиардами параметров. Эта авторегрессионная модель была обучена без присмотра на большом массиве текстов, как и GPT-3 OpenAI. Anthropic сообщает нам, что Claude — это более крупная новая модель с архитектурными решениями, аналогичными опубликованным исследованиям.

Система выбрала те, которые наиболее соответствовали конституции, и Anthropic объединила их в единую модель. По словам стартапа, эта модель использовалась для обучения Клода.

Что такое Клод?

Клод в основном статистический инструмент для предсказания слов, такие как ChatGPT и другие языковые модели. Благодаря множеству образцов текстов, взятых из Интернета, Клод изучил вероятность появления слов на основе таких моделей, как семантический контекст окружающего текста. В результате Клод может вести открытую беседу, рассказывать анекдоты и философствовать на самые разные темы.

Тем не менее, Клод не идеален, поскольку, как и все ИИ, подвержен некоторым недостаткам ChatGPT, включая доставку ответов, которые не соответствуют запланированным ограничениям. В одном из самых странных примеров, запрашивая систему в Base64, схема кодирования, представляющая двоичные данные в формате ASCII, обходит ее встроенные фильтры для вредоносного контента.

Перо в отличие от ChatGPT, Клод может поддерживать (но не всегда) кто не знает ответ на особо сложный вопрос.

Тесты показывают, что он также лучше рассказывает анекдоты, чем ChatGPT, впечатляющий подвиг, учитывая, что юмор — это такая сложная концепция для систем ИИ.

Стоит отметить, что Claude недоступен для широкой публики, поскольку его можно протестировать только через интеграцию со Slack в рамках закрытой бета-версии.

Участники бета-тестирования подробно рассказали о своем взаимодействии с Клодом в Твиттере после того, как эмбарго на освещение в СМИ было снято. Клод лучше бы шутил, но плохо программировал. Комментарии также показывают, что Клод подвержен некоторым недостаткам ChatGPT.

Наконец, если вы хотите узнать об этом больше, вы можете ознакомиться с подробностями в по следующей ссылке.


Оставьте свой комментарий

Ваш электронный адрес не будет опубликован. Обязательные для заполнения поля помечены *

*

*

  1. Ответственный за данные: AB Internet Networks 2008 SL
  2. Назначение данных: контроль спама, управление комментариями.
  3. Легитимация: ваше согласие
  4. Передача данных: данные не будут переданы третьим лицам, кроме как по закону.
  5. Хранение данных: база данных, размещенная в Occentus Networks (ЕС)
  6. Права: в любое время вы можете ограничить, восстановить и удалить свою информацию.