Search
Write a publication
Pull to refresh

Comments 8

Ну может что-то станет лучше, но пока как-то.. странно. По моим наблюдениям что 3.5, что 4.0 выдают результат хуже, чем был при запуске, но тут имхо, могу ошибаться. Уже где-то писал, что вероятно это связано с тем, что режут выдачу сильно из-за всяких запрещенных вещей. А запрещенного очень много. И если раньше я мог попросить модель следовать каким-то правилам при ответах, то сейчас почти сразу модель то забывает об этом, то потом внезапно вспоминает.

Вообще такое ощущение складывается от всех нейросеток в принципе.
От поиска по картинкам, до перевода текста.

Не то их всех так кастрировали цензурой, не то в последних версиях Tensorflow/PyTorch что-то фундаментально поменялось и сделало всё кривее.

И результат скачет от обновления к обновлению, на примере тех же переводчиков - DeepL последние месяцы по ощущению работает хуже гугловского. Да и относительно самого себя в более ранних итерациях

Пальцем в небо: сейчас на всех не хватает хардварных мощностей, поэтому нейросеткам режут их потребляемые мощности, дабы они не генерили ответ по два часа на каждый промпт.

А вот это близко к правде, в одном из интервью Альтман сообщал, что качество напрямую зависит условных мощностей, поэтому им приходится балансировать, между окупаемостью и качеством.

Объяснение простое - нельзя впихуть невпихуемое.

С каждой попыткой починить чтото при помощи тонкого тьюнинга чтото другое - ломается.

Нейросетка станет ещё чаще посылать в гугл искать ответ самому и говорить, что у неё всё работает?

Локальным llm сетям уже не хватает 64 Гб оперативной памяти, а по количеству параметров они значительно уступают промышленным ИИ. Когда уже дешевыми станут 256 Гб массовые домашние компьютеры.

"Релиз GPT-5 ожидается уже летом."
В этом году OpenAI обещала выкатить только одну модель и это не GPT...

Sign up to leave a comment.