Я попробовал Microsoft Copilot и увидел, что он даже хуже, чем ChatGPT.

Microsoft Copilot и ChatGPT

Чтобы пользоваться Интернетом, у вас должен быть настоящий интеллект, а не искусственный. Когда мы ищем в Google или любой другой поисковой системе, мы должны иметь возможность фильтровать результаты, иначе мы можем поверить, что умираем, когда ищем что-то вроде «почему у меня болит зуб?» С тех пор, как ИИ вышел на сцену, чтобы разрешить наши сомнения, многое изменилось, но другая важная часть осталась прежней; Нам еще предстоит научиться фильтровать. И если вы используете Второй пилот Майкрософт, вооружитесь терпением.

Дело в том, что с момента запуска Microsoft Copilot прошло около недели, в отличие от Бинг-чат, появилось в Google Play — в App Store оно было доступно чуть меньше времени —. Технологическим носителям потребовалось немного времени, чтобы подчеркнуть, что их можно использовать с ГПТ-4 и ДАЛЛ-Э 3, блюдо слишком сладкое, чтобы не откусить хотя бы один кусочек. Плохо то, что то, что предлагает Microsoft, имеет как минимум пару недостатков.

Microsoft Copilot ленив и неточен

Как и почти все из них, наши отношения не могли начаться лучше. «Создайте мне фото кота на мотоцикле», и оно у меня есть за считанные секунды; «Метал-песня про рождественские спагетти» и здесь у вас есть результат. Я посмеялся, но ну новинка. Вопросы задаются, посмотри в интернете, что является одной из сильных сторон GPT-4, и Boom!, вот и ответ. Но этот второй пилот немного ленив.

Лас- ответы короткие, как у человека, который много знает и его беспокоят ваши вопросы, и эта 1/30 не помогает думать по-другому. Если нас идентифицируют, то по одной теме или чату можно сделать 30 запросов, и этого совсем недостаточно, если вы не найдете ответа. ChatGPT OpenAI также имеет ограничение, но он может пропустить вас после часового общения с ним. И когда он начинает давать тот же ответ, как будто он Бугеара и ничего не прогрессирует? Ну а когда дойдете до 30/30, до свидания. И вы не сможете продолжить чат.

Что разумного в том, чтобы всегда давать один и тот же ответ?

Соломинкой, сломавшей спину верблюду, были именно те петли, которые ИИ не знает, как идентифицировать. Они не знают, что всегда дают один и тот же ответ; Если вы спросите их о чем-то, и они посчитают, что это правильно, они скажут это еще раз, и, поскольку они не боятся тратить время зря, попробуйте.

Сцена была следующая: если кто-то видел скриншоты, которые я публикую, когда говорю о каком-либо программном обеспечении, связанном с музыкой, он знает, что я люблю металл. Я слушаю песню «Homage for satan» группы Deicide, которую я слушаю время от времени и фанатом которой не являюсь. Состав групп и все такое я не знаю, так что начнем:

- "Кто исполнил соло в песне Deicide «Homage for satan»?«Я спрашиваю, надеясь на быстрый ответ и ища что-то еще в YouTube Оскорбительный.
- "Соло […] было написано гитаристами X и Y […]«Он отвечает, прежде чем спросить, нужно ли мне что-нибудь еще.
- "Хм, да. Я хотел знать, кто ее сыграл, а не кто сочинил. Я читал, что он умер?«Прошу уточнить.
- "Соло […] было написано гитаристами X и Y […]. Х умер в 2018 году«И загляните сюда, если мне понадобится что-нибудь еще.
– Уже немного разозлившись и удерживая себя от написания грубости, я настаиваю: «Мне нужно что-то еще, ты не сказал мне, кто это играл. Вы имеете в виду, что один играет одну роль, а другой — другую?».
- "Соло […] было написано гитаристами X и Y […]»...
- "Но кто во что играл?» уже думаю виртуально повесить трубку.
- "Соло […] было написано гитаристами X и Y […]»...
– Закрытие.

Microsoft Copilot против. ЧатGPT

В данном конкретном случае, не узнав ничего о Microsoft Copilot, я захотел попробовать, как это сделал ChatGPT. Сначала я спросил, кто играл в этой песне, не назвав группу, и у ChatGPT возникла одна из галлюцинаций, и он сказал мне, что это из «Behemoth». Когда я его поправил, он извинился, и вот тут первое отличие. Затем он сказал мне, что ее играл только Оуэн, хотя на самом деле ее играл Сантолла, и этот ответ он подтвердил, когда я напрямую спросил его, играет ли он соло.

Так что в итоге мне пришлось искать фотографии участников группы и исследовать их с помощью обычного поисковика.

В целом, если сравнить Microsoft Copilot с ChatGPT (3.5):

Второй пилот Майкрософт ЧатGPT (3.5)
Важнее ответить, чем сделать это правильно Важнее ответить, чем сделать это правильно
Короткие ответы для экономии времени Более развернутые ответы, хотя мы ожидаем меньшего
Честный код, может отсутствовать Код, который вы просите, а что нет
Ограничение 30 запросов Предел есть, но он очень длинный.
Найдите текущие события в Интернете Ограниченная база данных

Что бы ни использовалось, и хотя иногда заметно, что был достигнут некоторый прогресс, пользователи должны знать, какая информация нам полезна и как мы ее используем. Остальное, делегировать так много, не самое умное дело.


Оставьте свой комментарий

Ваш электронный адрес не будет опубликован. Обязательные для заполнения поля помечены *

*

*

  1. Ответственный за данные: AB Internet Networks 2008 SL
  2. Назначение данных: контроль спама, управление комментариями.
  3. Легитимация: ваше согласие
  4. Передача данных: данные не будут переданы третьим лицам, кроме как по закону.
  5. Хранение данных: база данных, размещенная в Occentus Networks (ЕС)
  6. Права: в любое время вы можете ограничить, восстановить и удалить свою информацию.