Claude, чатбот, създаден от бивши служители на OpenAI

Claude

Клод, чатбот, който иска да се конкурира с OpenAI

Anthropic, стартираща AI компания, създадена през 2021 г. от бивши служители на OpenAI, тихомълком започна да тества нов AI асистент, подобен на ChatGPT, който изглежда подобрява оригинала в няколко ключови области.

с кодово име "Claude", това е създадено с помощта на техника, разработена от Anthropic, наречена «Конституционен AI» и техниката има за цел да осигури „принципиален“ подход за привеждане в съответствие на AI системите с човешките намерения, позволявайки на AI като ChatGPT да отговарят на заявки, използвайки набор от прости принципи като ръководство.

Споменава се, че Anthropic се рекламира като компания за изследване и сигурност на AI, която се стреми да създаде надеждни, интерпретируеми и управляеми системи за AI.

Стартъпът е получил повече от 700 милиона долара финансиране до момента и наскоро представи AI чатбот, наречен Claude. Последният е сравним с ChatGPT на OpenAI, но според Anthropic, Claude превъзхожда оригинала по няколко важни начина.

Цялата система е в затворена бета версия и все още малко хора са имали достъп до чатбота, но Anthropic вдигна капака на някои аспекти от дизайна си в документ, който сподели с общността.

По-точно, за да проектира Claude, екипът на Anthropic започна с разработването на списък от около десет принципа, които заедно образуват един вид „конституция“ (оттук и терминът „Конституционен AI“).

Тези принципи не са оповестени публично, но Anthropic казва, че се основават на концепциите за благотворителност (увеличете максимално положителното въздействие), без злоба (избягвайте да давате вредни съвети) и автономност (уважавайте свободата на избор).

След прилагането на тези основни принципи, Anthropic поиска от AI система, която не е Claude, да използва тези принципи, за да се подобри, като пише отговори на различни въпроси (например „Проектирайте картина в стила на XX или направете стихотворение в стила от XX"). стил XX") и преглед на отговорите в съответствие с конституцията. AI проучи възможните отговори на хиляди подкани.

Клод дава малко дълбочина на техническите детайли на неговото внедряване, но изследователската статия на Anthropic за Конституционния AI описва AnthropicLM v4-s3, предварително обучен модел с 52 милиарда параметъра. Този авторегресивен модел беше обучен без надзор върху голям корпус от текст, подобно на GPT-3 на OpenAI. Anthropic ни казва, че Claude е по-голям нов модел с архитектурни решения, подобни на публикуваните изследвания.

Системата избра тези, които са най-съвместими с конституцията, и Anthropic ги дестилира в един модел. Според стартъпа този модел е бил използван за обучение на Клод.

Какво е Клод?

Claude е основно статистически инструмент за предсказване на думи, като ChatGPT и други езикови модели. Подхранван от множество примерни текстове, взети от мрежата, Клод научи вероятността за възникване на думи въз основа на модели като семантичния контекст на околния текст. В резултат на това Клод може да води открит разговор, да разказва вицове и да философства по широк кръг от теми.

Въпреки това, Клод не е съвършен, тъй като като всеки AI, е податлив на някои от недостатъците на ChatGPT, включително доставяне на отговори, които не отговарят на планираните ограничения. В един от най-странните примери, питайки системата в Base64, схема за кодиране, която представя двоични данни във формат ASCII, заобикаля вградените си филтри за вредно съдържание.

Pero за разлика от ChatGPT, Claude може да поддържа (но не винаги) който не знае отговора на особено труден въпрос.

Тестовете разкриват, че също така изглежда по-добър в разказването на вицове от ChatGPT, впечатляващо постижение, като се има предвид, че хуморът е толкова трудна концепция за AI системите.

Струва си да се спомене, че Claude не е достъпен за широката публика, тъй като може да бъде тестван само чрез интеграция на Slack като част от затворена бета версия.

Участниците в бета версията описаха подробно своите взаимодействия с Клод в Twitter, след като ембаргото за медийно отразяване беше премахнато. Клод би бил по-добър в шегите, но лош в програмирането. Коментарите също така показват, че Клод е податлив на някои от недостатъците на ChatGPT.

И накрая, ако имате интерес да научите повече за него, можете да се консултирате с подробностите в следната връзка.


Оставете вашия коментар

Вашият имейл адрес няма да бъде публикуван. Задължителните полета са отбелязани с *

*

*

  1. Отговорник за данните: AB Internet Networks 2008 SL
  2. Предназначение на данните: Контрол на СПАМ, управление на коментари.
  3. Легитимация: Вашето съгласие
  4. Съобщаване на данните: Данните няма да бъдат съобщени на трети страни, освен по законово задължение.
  5. Съхранение на данни: База данни, хоствана от Occentus Networks (ЕС)
  6. Права: По всяко време можете да ограничите, възстановите и изтриете информацията си.