Comments 12
а вы точно за утренним флэт-вайт вот эти все диаграммы рисуете?
Лаконично, но доступно! Не планируете аналогичный обзор локальных VLM?
Спасибо автору! Но... Очень кратко, потому, не всё понятно. Видно, что он держит что-то в голове (какой-то контекст, который ему кажется весьма ясным, т. к. он не один вечер над ним размышлял), но остальные не всегда в курсе. Это, как некоторые рассказывают, используя местоимения и внутри-то понимают о ком говорят, но внешнему слушателю ничего не ясно: "Она пошла, а тут этот. А эта тоже подошла. Того послали и пошли к этому."
Обычно в статьях при первом использовании термина даётся краткое указание о чем речь (не объяснение понятия обязательно (так любую статью можно превратить в учебник), а просто развернутая трактовка, чтобы было далее понятно о чём именно речь), аббревиатура в первый раз расшифровывается и т. д.
Например (сочиняю на ходу, не лучший вариант — перегружено; и в настоящей статье надо было бы разбить на несколько предложений, но уж как получается для показательного примера...))):
«Тайлы (от англ. tile, плитки — отдельные прямоугольные фрагменты, на которые делится исходная матрица растра) и оверлеи (англ. overlay, уменьшенные копии исходного растра)
(от англ. overlay — уменьшенные версии исходного растра, формирующие пирамиду слоёв по мере уменьшения их размерности в пикселах) в формате TIFF (Tagged Image File Format — тегированный формат файла изображений») позволяют, при грамотном планировании структуры, существенно увеличить производительность при работе с большими растрами размером десятки на десятки тысяч пикселов даже на слабых рабочих станциях.»
Да! И, в науке и технике принято, всё-таки, "пиксел" (произносится примерно, как "пиксэл). "Пиксель" — обывательский термин, хоть и вошёл в словари. См. https://ru.wiktionary.org/wiki/пиксел
Аналогичное словообразование и способ заимствования в русский (см. параграф 40 Розенталя) даёт нам "воксел", но не "воксель", т. к. мягкого знака в английском нет, а заимствование идёт фонетическое (не транскрипцией). Почему воксел ещё без мягкого знака на просторах русской речи? Ну, трёхмерные технологии ещё широко не шагнули в массы, потому журналисты непонимающие ничего в теме ещё пока не выпустили статьи в каком-нибудь Мегаполис-Экспресс. ;-) А, "пиксель" зашёл именно через первые статьи в начале 90-х в ширпотребных изданиях.
Всем удачи! :-)
Спасибо за внимательный и полезный отзыв! Иногда в процессе работы многое кажется очевидным, но именно Ваши замечания помогают мне сделать объяснения понятнее с первых строк.
Анализирую обратную связь, чтобы лучше понимать, какие темы и форматы интересны читателям Хабра, и стараюсь совершенствовать материалы. Ваши вопросы и комментарии — лучшая мотивация для роста!
вычисляет ответ быстрее... даже при равной температуре
А, параметр "температура" как влияет на скорость ответа? o_O Мне казалось, что это не связано с быстродействием. Или в сложных архитектурах это влечёт какую-то многоступенчатую обработку? Может кто пояснительную бригаду вызвать? ))
Когда я проходил по нашим основным источникам — блогам Google про Gemini 2.5 (и мартовскому анонсу, и обновлениям с I/O 2025), Meta AI блогу о Llama 4 и обзору WindowsCentral про Microsoft Phi-4-mini — меня сразу поразила общая мысль. Там все сходятся на том, что новые версии моделей обеспечивают заметное ускорение генерации ответов при сохранении тех же параметров сэмплинга, включая temperature. Это принципиально — потому что ускорение достигается не ценой «сглаживания» или упрощения вывода, а за счёт внутренних оптимизаций архитектуры и inference-процессов.
Например:
· В блоге Google про Gemini 2.5 Pro подчёркивают, что оптимизации позволили увеличить производительность без потери качества, то есть model выдает ответы быстрее, но с тем же уровнем randomness, контролируемым temperature.
· Meta AI в материале о Llama 4 говорит о повышении throughput и сокращении latency, сохраняя непрерывность процесса генерации при неизменных настройках модели.
· В WindowsCentral описывают архитектуру Phi-4-mini «flash reasoning», где гибридные подходы дают сокращение задержек в 2–3 раза и ускорение отклика до 10х без потери смысловой глубины — опять же, при той же температуре сэмплинга.
Именно поэтому я в статье сформулировал так: «вычисляет ответ быстрее… даже при равной температуре». Эта фраза отражает общий вывод из топовых источников 2024–2025: улучшение скорости генерации стало результатом архитектурных и инженерных инноваций, а не снижением качества генерации за счёт изменения параметров, которые влияют на креативность или детальность ответа.
У продавцов ИИ все, как обычно, слишком радужно. Реальные проблемы они предпочитают обходить стороной
А реальные проблемы не решаются? Ну, вот в этой статье описаны методы, применяемые для уменьшения галлюцинаций, нет?
Это несущественно. К реальным проблемам относятся нехватка ресурсов (как электричества с водой, так и редкоземельных), увеличение масштабов загрязнений, изменение климата в следствие игнора мер безопасности ради стремительного наращивания мощностей для ИИ.
Майкрософт вот недавно подписала договор с экологической компанией, чтобы ей списывали выбросы углекислого газа после захоронения отходов, которые разложатся и принесут пользу только спустя миллионы лет. То есть безопасность липовая и соблюдается только на бумаге.
За последний год в результате бума ИИ планета потеплела на рекордные 2 градуса. В Москве каждую неделю потоп по несколько раз. В США электрическая инфраструктура еле держится из-за перегрузок от ЦОД, за год уже случились две аварии, но взамен компании только увеличивают нагрузку. В Ирландии, Дании, Великобритании кончается электроэнергия из-за нейросетевых проектов.
Нас ждёт самая большая катастрофа в истории человеческой цивилизации, если мы не остановимся и не оглянемся на последствия своих решений. А вы предлагаете всего лишь бороться с галлюцинациями языковых моделей....
LLM-обзор 2024-2025 — живой путеводитель для тех, кто не хочет читать сухие отчёты