Search
Write a publication
Pull to refresh
17
2

Аналитик

Send message

Спасибо за внимательный и полезный отзыв! Иногда в процессе работы многое кажется очевидным, но именно Ваши замечания помогают мне сделать объяснения понятнее с первых строк.

Анализирую обратную связь, чтобы лучше понимать, какие темы и форматы интересны читателям Хабра, и стараюсь совершенствовать материалы. Ваши вопросы и комментарии — лучшая мотивация для роста!

Когда я проходил по нашим основным источникам — блогам Google про Gemini 2.5 (и мартовскому анонсу, и обновлениям с I/O 2025), Meta AI блогу о Llama 4 и обзору WindowsCentral про Microsoft Phi-4-mini — меня сразу поразила общая мысль. Там все сходятся на том, что новые версии моделей обеспечивают заметное ускорение генерации ответов при сохранении тех же параметров сэмплинга, включая temperature. Это принципиально — потому что ускорение достигается не ценой «сглаживания» или упрощения вывода, а за счёт внутренних оптимизаций архитектуры и inference-процессов.

Например:

· В блоге Google про Gemini 2.5 Pro подчёркивают, что оптимизации позволили увеличить производительность без потери качества, то есть model выдает ответы быстрее, но с тем же уровнем randomness, контролируемым temperature.

· Meta AI в материале о Llama 4 говорит о повышении throughput и сокращении latency, сохраняя непрерывность процесса генерации при неизменных настройках модели.

· В WindowsCentral описывают архитектуру Phi-4-mini «flash reasoning», где гибридные подходы дают сокращение задержек в 2–3 раза и ускорение отклика до 10х без потери смысловой глубины — опять же, при той же температуре сэмплинга.

Именно поэтому я в статье сформулировал так: «вычисляет ответ быстрее… даже при равной температуре». Эта фраза отражает общий вывод из топовых источников 2024–2025: улучшение скорости генерации стало результатом архитектурных и инженерных инноваций, а не снижением качества генерации за счёт изменения параметров, которые влияют на креативность или детальность ответа.

Рисовал накануне, вечером, а обсудить можно с утра)

Добрый день. Можно установить из репозитория и начать использовать. - https://github.com/TencentARC/GFPGAN

Добрый день. Да, спасибо и Вам. Это перевод — arxiv.org/pdf/2012.15330.pdf. Мне интересен подход. Еще раз спасибо.
Извините, пожалуйста, неточность в формуле, поправил. Спасибо.
В тексте ссылка на этот репозиторий — github.com/wOOL/DNDT
Добрый день. Очень этого хотелось бы. Временных ресурсов не всегда хватает. Работаю над этим. Просто сама статья показалась интересной. Конечно не все гладко, скорее всего как описывают авторы. Да, хорошее у вас пожелание. Спасибо.
Спасибо. Интересное наблюдение.
Да, возможно это тоже интересно. Видите, они бьются над интерпретацией. Чтобы не было «черным ящиком». Контролируемость нужна)
Добрый день. В источнике (https://arxiv.org/pdf/1806.06988.pdf) их в явном виде не приводят. Спасибо.
2017. Тут даже дело не в механизме, не в архитектуре. Тут дело в математике, а именно в tanh и сигмоида. Этот подход применяется в TABNET. Над этим сейчас работаю, меня больше это интересовало. А перевод решил опубликовать, может кому интересно будет. Спасибо.

Information

Rating
1,008-th
Location
Москва, Москва и Московская обл., Россия
Date of birth
Registered
Activity