Comments 8
Ну может что-то станет лучше, но пока как-то.. странно. По моим наблюдениям что 3.5, что 4.0 выдают результат хуже, чем был при запуске, но тут имхо, могу ошибаться. Уже где-то писал, что вероятно это связано с тем, что режут выдачу сильно из-за всяких запрещенных вещей. А запрещенного очень много. И если раньше я мог попросить модель следовать каким-то правилам при ответах, то сейчас почти сразу модель то забывает об этом, то потом внезапно вспоминает.
Вообще такое ощущение складывается от всех нейросеток в принципе.
От поиска по картинкам, до перевода текста.
Не то их всех так кастрировали цензурой, не то в последних версиях Tensorflow/PyTorch что-то фундаментально поменялось и сделало всё кривее.
И результат скачет от обновления к обновлению, на примере тех же переводчиков - DeepL последние месяцы по ощущению работает хуже гугловского. Да и относительно самого себя в более ранних итерациях
Пальцем в небо: сейчас на всех не хватает хардварных мощностей, поэтому нейросеткам режут их потребляемые мощности, дабы они не генерили ответ по два часа на каждый промпт.
Объяснение простое - нельзя впихуть невпихуемое.
С каждой попыткой починить чтото при помощи тонкого тьюнинга чтото другое - ломается.
Нейросетка станет ещё чаще посылать в гугл искать ответ самому и говорить, что у неё всё работает?
Локальным llm сетям уже не хватает 64 Гб оперативной памяти, а по количеству параметров они значительно уступают промышленным ИИ. Когда уже дешевыми станут 256 Гб массовые домашние компьютеры.
"Релиз GPT-5 ожидается уже летом."
В этом году OpenAI обещала выкатить только одну модель и это не GPT...
GPT-5 — чего ожидать от новой модели от Open AI? Возможности и потенциал искусственного интеллекта