Pull to refresh

Comments 40

я так понимаю речь про мобильное приложение, только в нем я заметил галочку с gpt 4. нужен vpn и есть ограничение на 30 запросов

ограничение на 30 запросов

Внутри одного диалога, насколько я понял

40 сообщений в час лимит в GPT4 сейчас, количество диалогов роли не играет.

Может быть. Но это не отменяет лимит на 30 сообщений внутри одного диалога

Можно пару слов чем он особенный? По ссылке только говорится о блокировке рекламы... Да и сложно представить что он ещё что то делает помимо основной задачи.

Там на copilot указаны другие ip адреса, благодаря которым он начинает работать в рф. Ну и реклама режется бонусом

Подозреваю, тут очепятка

поэтому стоимость выходных токенов снизилась в три раза ($0,01), а выходных — в два раза по сравнению с базовой моделью ($0,03).

Copilot — это не GPT-4! Это можно проверить с помощью вопросов, на которые реальный GPT-4 даёт правильные ответы. Погуглите вопросы для проверки реального GPT-4. Copilot — это примитивный ИИ. Но чтобы это понять, нужно сравнить. У людей нет доступа к GPT-4, они используют примитивный Copilot и думают, что это GPT-4, просто потому что так написано на тумблере.

Copilot — это не GPT-4! 

Соглашусь! Сразу, как только прочитал новость, пробовал использовать. Единственное то, что можно на халяву пытаться попросить его что-нибудь нарисовать, но получить что-то вменяемое очень сложно.

А текст не идёт ни в какое сравнение даже с gpt чат 3.5

Статья смешная. Стыдно длжно быть такое утверждать.

Ахахазха плюсую. Пробовал я как-то у бинга поспрашивать, выдаёт лютый бред, так ещё и ждёшь ответа по 30 сек. На уточняющие вопросы, попытки подвести к нужному ответу тоже никак не реагирует. Разводит короче Майкрософт

Это можно проверить с помощью вопросов, на которые реальный GPT-4 даёт правильные ответы.

Можно пример таких вопросов, позволяющих однозначно увидеть, что Copilot это не GPT-4?

Вот, к примеру, один из простых вопросов для проверки с небольшим подвохом:
"There are 10 books in the room. I've read 2. How many books are left in the room?"

Ответ Copilot:
"To answer your question, if you have 10 books in the room and you have read 2 of them, then the number of books left in the room is:
10−2=8
There are 8 books left in the room. ?"

Ответ GPT-4:
"The number of books in the room doesn't decrease just because you've read some of them. So, if you started with 10 books and you've read 2 of them, there are still 10 books in the room. However, the number of unread books would be 8."

Я только что выполнил это для вас по вашей просьбе. Вы можете убедиться сами. Существует огромное количество вопросов для проверки.

Ответ Copilot с первого же раза корректный:

Вы понимаете, что у Copilot есть разные режимы и разные ответы в соответствии с ними? А так же осознаете, что даже GPT-4 может варьировать свои ответы из раза в раз, иногда отвечая неправильно? Ваш пример, получается, подтверждает, что используется GPT-4? Есть еще примеры? (к слову, на мои личные бенчмарк вопросы GPT-4 и Copilot отвечает почти всегда одинаково, в отличии от GPT-3.5, которая стабильно допускает больше ошибок и неточностей)

Copilot в режиме  GPT-4 ошибается!
Copilot в режиме GPT-4 ошибается!

Я думаю, вы подделали свой скрин. Именно по этому вопросу есть множество подтверждений среди пользователей на GitHub и на Reddit. Этот вопрос я лично задавал несколько раз в любом режиме, ответ у Copilot всегда выходит ошибочный.

Зачем мне что-то подделывать, что за глупость? У вас Copilot стоит в режиме Creative, измените на Precise и пробуйте снова. Я об этом уже писал выше.

Именно по этому вопросу есть множество подтверждений среди пользователей на GitHub и на Reddit.

А можно увидеть хотя бы одну ссылку на достоверное подтверждение? Или привести хотя бы один достоверный повторяющийся пример различий, который можно воспроизвести?

Copilot ошибается
Copilot ошибается

Без разницы, какой режим выбран. Copilot не способен дать правильный ответ даже на этот простенький вопрос, потому что Copilot далеко не GPT-4.

Мне лень искать ссылки. Google в помощь.

На скрине выбран режим Balanced. Я написал про Precise (по-русски "Точный"). В нем он стабильно дает правильный ответ.

Действительно, в этом режиме чудо, другой ответ. Это при отключенном тумблере "GPT-4", значит, и включенном режиме "точный". Это даёт другой ответ. Возможно Copilot стал немного лучше, на этот простой вопрос ответил верно в одном из режимов.

Но тут тоже проблема: тыкаться по режимам в надежде найти верный ответ.

И всё-таки режим GPT-4 у Copilot врёт, что он GPT-4. Так как ответы даёт неверные по сравнению с оригиналом.

И всё-таки режим GPT-4 у Copilot врёт, что он GPT-4. Так как ответы даёт неверные по сравнению с оригиналом.

С чего вы взяли, что он врет? То, что ответ различаются, не означает, что внутри разные модели - может быть, скажем, разный набор установок.

Copilot стабильно ошибается, отвечая на примитивный вопрос с простым подвохом в двух из трех режимов. В режиме GPT-4 Copilot отвечает стабильно с ошибкой.

Как из этого вытекает, что этот режим "врет" об используемой внутри модели?

Разница становится особенно очевидной, если пользоваться GPT-4. И она огромна. Чепушиный вопрос - всего лишь небольшой пример. Не исключаю, может быть, вы правы и Copilot использует внутри что-то от GPT-4. Название, например. А может быть, не только название.

Я не говорю, что между этими двумя продуктами нет разницы. Я говорю, что эта разница не означает, что у них внутри разные модели - она может быть вызвана, например, разными политиками для ответов. Поэтому утверждать, что MS врет, только на основании того, что ответы различаются - некорректно.

Кому-то выгодно использовать название GPT-4 с целью привлечения новых пользователей. Даже тумблер повесили перед носом с соответствующим названием. Большинство людей, вряд ли станут сравнивать и проверять, насколько Copilot близок к реальному GPT-4. Люди просто читают подобные статьи. Какой заголовок у этой статьи? Они серьезно верят, что это такой же GPT-4, только бесплатно им доют. И дальше несут этот сарафан. В этом заключается враньё.

Кому-то выгодно использовать название GPT-4 с целью привлечения новых пользователей.

А точно новые пользователи на это привлекутся? Или большей части на самом деле все равно?

Большинство людей, вряд ли станут сравнивать и проверять, насколько Copilot близок к реальному GPT-4.

Что такое "реальный GPT-4"?

В этом заключается враньё.

Я все еще не вижу вранья со стороны MS. Я вижу, что вам не нравится результат, и вы называете то, что вы видите, враньем.

Для начала прочитайте, что такое GPT-4 от компании OpenAI. Купите подписку и пользуйтесь какое-то время. Оцените качество ответов. Пощупайте тамошние дополнительные функции, такие как fine-tuning. Голосовой ассистент - шикарная вещь, на мой взгляд ?, а также GPTs и другие. Оцените эту разницу дополнительных функций. Проживите с этим некоторое время. Затем без страха бросайте, переходите на Copilot, и возможно, вы не заметите разницы. Сейчас вы ее не видите, и потом, возможно, и не заметите. Возможно, вас все устроит и вы будете рассказывать всем вокруг, что это очень близкие сопоставимые вещи. Открыл Copilot, тумблер GPT-4 нажал... И вперёд!

Для начала прочитайте, что такое GPT-4 от компании OpenAI.

Я в курсе, что такое "GPT-4 от компании OpenAI". А вот теперь объясните мне, почему вы думаете, что вы используете "реальный GPT-4"?

Купите подписку и пользуйтесь какое-то время.

Зачем?

Затем без страха бросайте, переходите на Copilot, и возможно, вы не заметите разницы.

Опять же, зачем?

Возможно, вас все устроит и вы будете рассказывать всем вокруг, что это очень близкие сопоставимые вещи.

Я вроде бы нигде не говорил, что это "очень близкие" вещи.

Как все вами сказанное влияет на утверждение о вранье?

Сделаем проще. Вот есть очень конкретное утверждение, сделанное MS (не таблоидом, а именно MS):

new Bing runs on OpenAI’s GPT-4 [...] the new Bing is running on GPT-4, which we’ve customized for search

Вы можете доказать, что это утверждение - вранье?

Вот еще одно:

Copilot [...] Access GPT-4 and GPT-4 Turbo during non-peak times
Copilot Pro [...] Gain priority access to GPT-4 and GPT-4 Turbo including during peak times for accelerated performance to get things done faster

Можете доказать, что это вранье?

На тумблере можно написать GPT-7 AGI. Разница в худшую сторону, по сравнению с другими моделями, будет очевидна для пытливого пользователя. Но это никак не мешает утверждать, что именно GPT-7 AGI находится под капотом. Может быть, примитивность ответов связана с настройками или с значительно урезанным числом параметров, или это просто предполагаемые компоненты, которые, возможно, будут включены в будущую GPT-7 AGI. Уточнять недостатки конечно же не нужно, это вредит маркетингу.

Какое тут может быть доказательство, когда отсутствует прямой доступ и возможность проверить.

Я предлагаю использовать для проверки общераспространенный способ с помощью вопросов. Он хорош тем, что предполагает два варианта ответа: ошибочный или верный.

Я предлагаю использовать для проверки общераспространенный способ с помощью вопросов. Он хорош тем, что предполагает два варианта ответа: ошибочный или верный.

Этот способ проверяет только то, что два инструмента дают разные ответы. Он не проверяет, одинаковая ли у них модель.

Вот вам еще один ответ копайлота, тоже совершенно корректный:

There are still 10 books in the room. The number of books doesn't change when you read them. However, if you're asking about how many books are left unread, then the answer would be 10 - 2 = 8 books. So, there are 8 books left to read.

Тыкаться, переключая режимы, надеясь, что Copilot может не ошибиться с ответом на чепушиный вопрос - занятие так себе. Если вам это нравится, я не против.

А зачем тыкаться? Мне никогда и не нужны неточные ответы, поэтому я его один раз при первом эксперименте переключил в Precise, и там и оставил.

Но в моем опыте все ассистенты/боты, которые я пробовал, ошибались в ответах на (по моему мнению) чепушиные вопросы, так что я все равно им особенно не доверяю и хожу проверять по первоисточникам.

"Чепушиный" вопрос
"Чепушиный" вопрос

GPT4 утверждает, что Mahoori - клоун, но Copilot считает, что все могут ошибаться.

Полагаю, что Copilot ошибается.

А вы прочитали ответ chatGPT, или только выражение 10-2=8 вне контекста?

Хм, попросил его дать мне ссылок на русскоязычное rss-каналы it-тематики - накидал ссылок на телеграм)

Sign up to leave a comment.

Other news