Комментарии 9
ха-ха, оказывается естественный интеллект тупеет со временем как и естественный, только гораздо быстрее! :)
Или цензурой замучили.
Или сознательно ухудшили. Интересно только, с какой целью?
Или с нагрузкой не справился.
Может быть такое: завлечь на новый продукт, а как только люди привыкнут к нему, как только станет массовым - ухудшить его качество?
Думаю дело в маркетинге. Невозможно продавать новые версии того, что и так уже большинство аудитории устраивает.
Вся надежда на open source . Они такой фигнёй не страдают.
Правда тут могут подгадить. Если введут гос.ограничения отрасли. Как это с системами криптографии.
может просто отупел естественным образом? модель же продолжают обучать на диалогах, но люди в большинстве не особо умные - это как пойти после школы с хорошей базой в профильною гимназию к умным дальше обучаться, а можно пройти похожий курс в ПТУ - выйдешь дегродом
Скорее всего эти модели квантовали, для лучшей масштабируемости и оптимизации скорости. Результат мы наблюдаем.
Подтверждаю.
Лопачу большие объемы законов.
Если в мае 3.5 не рассматривал из-за некачественного парсинга, то сейчас перешел на 3.5.
Причины:
- качество стало норм (не супер, но ручной работы меньше)
- поддержка 16к токенов (масса законов превышают 8к)
- цена.
Конечно, хотелось бы 4 с 32к и адекватной ценой, а то в июне дали поиграться с 32к буквально на пару дней и отключили модель из списка доступных.
Ждем обещаных "32к появится позже".
Крайне рекомендую этот проект: https://openrouter.ai/ - там переключаемый доступ сразу к целому ряду сеток gpt3.5, gpt4 + доступ к Claude с контекстом 100к. Есть из чего выбрать и на чем поэкспериментировать по цене.
Исследование учёных Калифорнийского и Стэнфордского университетов продемонстрировало снижение качества ответов ChatGPT