Все не совсем так, мы не занижаем модель) Это ее поведение безсистемного сообщения. Мы не задаем системного сообщения по умолчанию, как это сделано что на официальном сайте OpenAI, что в их приложении ChatGPT. Да, можно подумать, а почему модель считает себя старой версией? Так тут уже дело может быть в обучающей выборке, например, эта версия (ChatGPT-3.5) могла часто попадаться в обучающих данных ChatGPT-4o и, например, если нет конкретной инструкции, то модель будет опираться именно на эти данные У модели ведь нет самосознания, только инструкции, которым она должна следовать, соответсвенно и идентифицировать самостоятельно себя не может. Потому, чтобы убедиться с какой именно версией вы работаете, вы можете просто провести тест, аналогичный описанному в статье и сравнить ответы, а узнавать у модели ее версию/размер контекста - дело гиблое, на самом деле, потому что если это не заложено в системном сообщении - она начнет галлюцинировать.
Здесь все просто: вы работаете с ChatGPT через официальный UI, где разработчики ChatGPT уже за вас настроили модель, включая системное сообщение, которое влияет на то, как модель отвечает на промпты пользователя. Именно с помощью этого сообщения задается поведение модели и в нем же может быть прописана версия, как в 3-й картинке от Sawradip в статье. Мы же, предоставляя интерфейс, наоборот, позволяем пользователям настраивать поведение модели самим: можно менять параметры генерации текста, степень креативности и задать собственное системное сообщение, полностью переписывая базовую инструкцию для поведения модели. Конкретные настройки и системные сообщения, которые OpenAI использует в своем UI, недоступны для внешних разработчиков, поэтому вы и видите разницу между “официальными” ответами и теми, что генерирует наш сервис. То есть здесь вся разница, если суммарно, именно в использовании через UI и через API.
Да, еще в марте, когда только открыли доступ, для теста загружала учебник по оптике на 600+ с, не вспомню сколько по токенам точно вышло, но порядка 700-800к. Вопросы в основном были «что на такой-то странице» или «перескажи такой-то параграф», в целом, очень даже, генерировала точные ответы без нареканий.
Спасибо за проявленный интерес к статье! Да, вы абсолютно правы в отношении их доступности, на этот раз, к сожалению, не учла этого момента( А касательно других помощников - вы также правы, я сделала подборку, основываясь на отдельные критерии каждого из ассистентов, например, чтобы поддерживаемые языки и IDE были актуальными для пользователей, или, чтобы у инструмента было активное сообщество. Вообще, список можно бесконечно дополнять, например DataCamp Workspace AI или Tabby, поскольку они также могут претендовать на место в подборке, но я решила выбрать прямо таки самые-самые помощники) Но выбор, кончено, каждый делает в пользу наиболее удобного для себя
Все не совсем так, мы не занижаем модель)
Это ее поведение без системного сообщения.
Мы не задаем системного сообщения по умолчанию, как это сделано что на официальном сайте OpenAI, что в их приложении ChatGPT.
Да, можно подумать, а почему модель считает себя старой версией? Так тут уже дело может быть в обучающей выборке, например, эта версия (ChatGPT-3.5) могла часто попадаться в обучающих данных ChatGPT-4o и, например, если нет конкретной инструкции, то модель будет опираться именно на эти данные
У модели ведь нет самосознания, только инструкции, которым она должна следовать, соответсвенно и идентифицировать самостоятельно себя не может.
Потому, чтобы убедиться с какой именно версией вы работаете, вы можете просто провести тест, аналогичный описанному в статье и сравнить ответы, а узнавать у модели ее версию/размер контекста - дело гиблое, на самом деле, потому что если это не заложено в системном сообщении - она начнет галлюцинировать.
Здесь все просто: вы работаете с ChatGPT через официальный UI, где разработчики ChatGPT уже за вас настроили модель, включая системное сообщение, которое влияет на то, как модель отвечает на промпты пользователя. Именно с помощью этого сообщения задается поведение модели и в нем же может быть прописана версия, как в 3-й картинке от Sawradip в статье.
Мы же, предоставляя интерфейс, наоборот, позволяем пользователям настраивать поведение модели самим: можно менять параметры генерации текста, степень креативности и задать собственное системное сообщение, полностью переписывая базовую инструкцию для поведения модели.
Конкретные настройки и системные сообщения, которые OpenAI использует в своем UI, недоступны для внешних разработчиков, поэтому вы и видите разницу между “официальными” ответами и теми, что генерирует наш сервис.
То есть здесь вся разница, если суммарно, именно в использовании через UI и через API.
да)
убрала упоминание про Скарлетт, чтобы не было недопонимания.
да, у них в этом отношении достаточно сурово:
https://www.congress.gov/bill/118th-congress/house-bill/5586/text
Понимаю, разделяю)
Спасибо!
Да, еще в марте, когда только открыли доступ, для теста загружала учебник по оптике на 600+ с, не вспомню сколько по токенам точно вышло, но порядка 700-800к. Вопросы в основном были «что на такой-то странице» или «перескажи такой-то параграф», в целом, очень даже, генерировала точные ответы без нареканий.
Спасибо вам! Да, их сравнения значительно бы улучшили статью, возьму на заметку при написании следующих статей(:
Спасибо за проявленный интерес к статье! Да, вы абсолютно правы в отношении их доступности, на этот раз, к сожалению, не учла этого момента(
А касательно других помощников - вы также правы, я сделала подборку, основываясь на отдельные критерии каждого из ассистентов, например, чтобы поддерживаемые языки и IDE были актуальными для пользователей, или, чтобы у инструмента было активное сообщество. Вообще, список можно бесконечно дополнять, например DataCamp Workspace AI или Tabby, поскольку они также могут претендовать на место в подборке, но я решила выбрать прямо таки самые-самые помощники)
Но выбор, кончено, каждый делает в пользу наиболее удобного для себя
Конечно(:
Используется профайлер для PHP от Datadog. Скриншоты, представленные в статье взяты из бэка Datadog.
Спасибо вам!(:
Добрый вечер! Да, вы верно подметили, мы этого не указали в статье. Спасибо за то, что уточнили!(: