Обновить
1
Александр@Altair2021

Пользователь

0,1
Рейтинг
Отправить сообщение

На задачах creative writing, например, glm-5 на голову лучше остальных китайцев и gpt. По уровню сопоставима с моделями sonnet/opus, но при этом дешевле в разы.

совместно переписывали фрагменты базового кода модели и тестировали ее на местном железе.

Типа, переписывали CUDA на не-CUDA?

gpt и claude тоже не open-weight, но на опенроутере присутствуют)

странно, что ее нет на опенроутере -- обычно z.ai свои модели сразу на опенроутер выкладывала

А glm-5.1 это glm-5-turbo на опенроутере? Или новая модель?

А можно реализовать через tools/structured output. Токенов сожрёт побольше, но выход будет плюс-минус гарантирован

придумать историю по теме, многие просто впадают в ступор. А ты сидишь и думаешь: "Ну это же так просто

А вот кому как. Некоторым может быть проще придумать/написАть историю по той теме, к которой душа лежит, а на заданную тему писАть вообще не интересно -- поэтому не хотят/не могут.

PS: на хабре ужасно неудобен набор текста с мобильного

Похоже, эта надпись появилась недавно, потому что на старте и несколько дней потом этого не было

И судя по всему, только сегодня, как на OR добавили новые mimo модели

Интересно, какую роль Вы задали нейросетке, чтобы она так отвечала))

Решил проверить Crtl+Shift -- у меня оное вообще не работает) Впрочем, я переключаю язык через win+space -- когда-то эта комбинация очень понравилась на убунте, с тех пор использую только её. Однако при переключении почти всегда появляется окно со списком языков -- и весь процесс порой тормозит. Тоже на всех виндах.

Кто-то сталкивался с тем, что переключение раскладки на винде временами начинает тормозить (на секунду-две)? При быстрой печати особенно заметно, потому что новое слово печатается с первым символом в предыдущей раскладке. Ужасно бесячая хрень на винде (в числе множества прочих)

Зайдите на сайт photos.google.com, перейдите в настройки, выберите «Копирование в облако» и отключите его.

Круто, нейросетки советуют то же семое, но такой опции просто нет. И никакх похожих.

В заголовках обычно пишут информацию компактно

Оно и видно, большинство заголовков:

  • вводят в заблуждение, или

  • хайп, или

  • кликбейт, или

  • вообще не связаны с темой статьи.

Конкретно Ваш заголовок можно отнести к категориям "хайп" и "вводит в заблуждение"

В заголовке имеется в виду, что поднялась точность не модели GPT-5.4 Pro или линейки GPT Pro, а вообще точность ИИ-моделей в физике

Ну так и в чем проблема конкретно это и указать? Зачем тогда вообще указывать gpt5.4, если "точность не модели GPT-5.4 Pro или линейки GPT Pro"? Это и есть введение в заблуждение. А "GPT-5.4 Pro" конкретно для хайпа.

Почему не сформулировать так:

  • Прорыв ИИ в науке за 4 месяца: точность решений по физике выросла на 233%

  • Прорыв ИИ в науке: точность решений по физике выросла на 233% за 4 месяца

Если уж прям невмоготу впихнуть GPT-5.4 Pro:

  • Прорыв ИИ в науке за 4 месяца: GPT-5.4 Pro показал на 233% лучший результат, чем Gemini 3 Pro Preview на бенчмарке по физике (куда более точно)

  • Прорыв ИИ в науке: GPT-5.4 Pro показал на 233% лучший результат на бенчмарке по физике, чем Gemini 3 Pro Preview четырехмесячной давности\4 месяца назад

Это те варианты, которые пришли сходу. Если покумекать чуть подольше, мб и еще что придумается.

Кто-нибудь в курсе, возможно ли отключить синхронизацию фоток с определенного смартфона напрямую в гугл акке, а не на самом смартфоне? Давал когда-то акк родственникам при каждой покупке смартфона -- теперь их фотки синхронизируются почти беспрерывно, отключить не могут/не умеют

Прорыв ИИ в науке: GPT-5.4 Pro (xhigh) поднял точность решений по физике на 233% за 4 месяца

Какая нейросетка вам заголовки сочиняет? По смыслу данного заголовка, gpt-5.4-pro-xhigh 4 месяца усердно трудился, чтобы поднять точность решений по физике на 233%. Что невозможно, так как модели отроду неделя.

Кроме того, почему выкинули gemini-3.1, которая более новая? Почему сравнивать с 3.0 4хмесячной давности? Чтобы циферки получше казались?

А также, в бенчмарке не видно gpt-5.2-pro, gpt-5-pro. С учётом цены Pro было бы логично привести предыдущие флагманы. Типа, логично, что Pro версия будет лучше обычной. А не для Pro прирост будет скромнее -- всего ~120% относительно модели 4хмесячной давности, и скромные 3% относительно gemini-3.1.

А вот это очень сомнительно. Весь инет -- это да, но весь инет суть набор данных с примесью мусора. Как именно происходит предобработка этого набора данных (отбор именно хороших данных, а не мусора) для каждой модели -- вопрос открытый. Каждый создатель llm делает это по-своему, с нужными акцентами. Так что нельзя говорить, что обучающая выборка у всех одинакова.

И таки это поведение заложено создателями модели (claude adaptive thinking) -- модель сама решает, нужно ли ей "думать" и сколько.

а представьте, какой будет список, когда выпустят deepseek v4 (или какой там следующий) ))

а представьте, какой будет список, когда выпустят deepseek v4 (или какой там следующий) ))

Нейронка не может знать, сколько человек ее используют) Тут скорее когда модель публикуют, она недотьюнена. И в первое время после выкатки разрабы докручивают характеристики (системный промпт, температуру и тп)

Информация

В рейтинге
4 547-й
Откуда
Россия
Зарегистрирован
Активность