Комментарии 38
Интересно. Спасибо!
Пока кто-то спорит, догонит ли Россия Intel и AMD в гонке нанометров...
Серьезно, кто-то спорит?
В любой компании есть человек, который "не догоняет"...
Например, у меня в одном браузере отображается "сейч��с", а в другом "в 2027 году, уже сейчас" всё нормально. Так несколько фраз. Это такая защита от копирования текста? Не догоняю.
Это такой своеобразный копирайт ). Он тут уже неоднократно попадался в текстах, написанных, скажем так, не совсем людьми.
В 2026 тырить текст и не прогнать его через нейронку "расскажи своими словами" – это уже верх пофигизма.
Это если выдавать желаемое за действительное )
Это баг, который непросто отловить-воспроизвести, но мы прилагаем усилия к его исправлению )
мне понравилась коричневая жидкостная смесь средней вязкости в ответе про опенсорс.
дальше даже читать желание оптало.
коричневая жидкостная смесь средней вязкости в ответе про опенсорс
А где это там написано? Я почему-то не нашел. Уже подчистили?
почистили. увы. если вкратце там было два вопроса об том насколько открыт будет продукт для сообщества и будет ли что то в опенсорс. ответы на вопрос были жидкими формулировками, вида что да возможно, но надо определиться что именно пойдёт с особыми условиями партнёрам, а что возможно уйдёт в опенсорс. у меня вызвало звоночек в голове, потому я сразу же представил этап бюрократии, затем жадность партнёров и я уже могу представить как ничего в опенсорс не попадёт.
если бы было изначально намерение поделиться хоть с чем то с сообществом, об этом явно бы сказали, и в каком либо роадмапе это было бы указано.
но этого нет.
так формулировки были жидкими что-ли? Я уж подумал что жидким коричневым сам опенсорц был назван. Из контекста вашего комментария не совсем понятно просто
Я ничего не удалял из статьи. Она опубликована в первоначальном виде и не редактировалась. Кроме того, к статье прикреплена ссылка на видео из которого слов не выбросишь.
Не увидел ни одной примерной оценки, что эта штука может. У меня вот лежит с прежних сытых времён несколько Intel Compute Stick. Тоже специальный процессор для нейронок, встроен в экосистему OpenCompute. Очень хорошая штука, если тебе нужно распознавать картинку, а у тебя каждый джоуль электричества – золотой. Во всех остальных случаях это очень нехорошая штука, потому что известный Intel N100 уделывает её в несколько раз.
На сайте процессора motivnt.ru/altai есть раздел прикладные исследования, в которых перечислены демонстраторы технологии. Мировой опыт использования- в блоке "применение..".
Реальные устройства на основе Алтаев уже есть на рынке, или когда планируются к выходу на рынок?
Спикер говорил, что в первой половине этого года будет доступно и железо и инструментарий. В тексте есть про сроки и планы.
Сейчас в наличии процессоры первого поколения, которые в ближайшее время поступят в продажу в составе нейроморфных акселераторов для разработки конечных устройств. Выход "АЛТАЯ-3" сместился на третий квартал 2026 г.
Такое ощущение что задающий вопросы так и пытается выжать что-то кликбейтное из интервьюируемого. Такое ощущение, что он даже не знает, о чем спрашивает и идет по методичке.
Нельзя так. Может ребята и правда неплохой продукт выпустили, но после этого поста просто плеваться хочется.
Я старался раскрыть тему вопросами. Вначале текста есть полное видео живого разговора, мне кажется, из него можно понять, что это был достаточно детальный разговор без фокуса на текстовый кликбейт.
Вы старались раскрыть тему вопросами, но какие вопросы это были? Совершенно профанские. Повесточные. Глупые. Тупые, не побоюсь этого слова. В итоге опять ученые путешествуя во времени, нечаянно изнасиловали журналиста. То есть вас. Простите, но видео вас никак совершенно не оправдывает.
Не буду спорить относительно качества вопросов, у каждого разная система оценки. Я только отмечу, что если у вас есть вопросы не профанские и вы хотели бы получить на них ответы, напишите их здесь или мне лично, я задам их спикеру, подумаем, как дополнить материл.
Довольно прикладеые вопросы по отношению к коммерческому проекту. Что вы ожидали иного?
ПахнУло транспьютерами 30-летней давности. Очень похожие слова...
Одно из их ключевых узких мест — квадратичный рост вычислительной сложности с увеличением длины контекста. Сейчас множество лабораторий по всему миру как раз ищут «следующее большое» решение, потому что трансформер — это не конечная точка эволюции, а текущий этап. Активно ведутся работы по линеаризации этой сложности.
Ну... Я бы не сказал, что эта` "проблема" на стадии лаборатории.
1.) State Space Models (SSMs) такие как Mamba2, RWKV уже сейчас дают O(1).
2.) Активно появляются гибридные Mamba-Transformer, Jamba, где не линейная сложность, но сильно не квадричная. И есть открытые модели на ней, например, Jamba 1.5, Nemotron 3, MambaLlama.
3.) Есть куча других технологий, которые убирают квадратичную зависимость. Например, в Qwen3-Next используется Gated DeltaNet + Gated Attention, которые дают линейную зависимость. Есть Sliding Window Attention, которые используются очень давно (Qwen2, Gemma). Multi-Head Latent Attention (MLA), DeepSeek Sparse Attention (DSA) и так далее.
В общем, уже давно большинство не использует "в лоб" алгоритмы с квадратичной сложностью с трансформерами. Ибо иначе не получить окно в 128K-1M, которое есть в современных моделях. Так что, я бы не сказал, что это "ключевое узкое место современных трансформеров", которое можно обойти только внедряя нейросети совершенно нового типа.
Теперь касательно обратного распространения (backpropagation). Этот алгоритм, лежащий в основе обучения современных сетей, был предложен более 40 лет назад, и лишь сейчас мы смогли масштабировать его. Но у него есть фундаментальные недостатки, связанные с глобальной оптимизацией всей модели. Это крайне неэффективно.
MoE, которое используется в большинстве всех современных моделей, позволяет дообучать (fine-tune) отдельных экспертов - https://apxml.com/courses/mixture-of-experts-advanced-implementation/chapter-3-training-large-scale-moes/fine-tuning-pretrained-moe + https://arxiv.org/abs/2407.01906 + https://openreview.net/forum?id=PPjpGTPG5K¬eId=dlI6oh4zSl. Так что не обязательно оптимизировать всю модель - можно взять Top-N экспертов и дообучить/оптимизировать только их.
Более того, уже появляются исследования по созданию импульсных трансформеров — именно с целью радикального снижения энергопотребления. И в этом суть: главным ограничивающим фактором для развития больших языковых моделей и ИИ-сервисов сегодня является энергия.
Ну тут сложно без цифр и фактуры обсуждать. Потому что, очевидно, что если на GPU запустить алгоритм заточенный под другую архитектуру, то GPU будет менее эффективен. Но есть ли что-то, что можно сравнить типа "вот модель A с "уровнем интеллекта" 60" и она потребляет X Ватт при таком-то TTFT и tok/s, а вот модель-трансформер B с интеллектом 55 и аналогичном TTFT и tok/s и она жрет на два порядка больше?".
Плюс есть LPU/TPU и прочие, которые так же говорят о превосходстве в энергетической эффективности (в ряде ограниченных случаев) и которые используют те же трансформеры.
Короче, ответ на поставленный вопрос "Не пытаетесь ли вы решать проблемы, которых у рынка нет, навязывая свои правила?" остался не раскрытым.
Насчет цены и покупки частными лицами есть информация?
Устройства для исследований на процессоре первого поколения в ближайшее время поступят в продажу. Их будет ограниченное количество, поэтому, если вы планируете приобрести их, рекомендую оставить заявку через сайт motivnt.ru/altai
Нам 65 нанометров в текущем году обещали, а тут на 28 замахнулись, в Китае будут делать? Но не важно, важнее что когда процессор появится, это не проблема, у Интел есть такой процессор, но для него больше ничего нет, нет экосистемы в которой он будет работать, ни софта нет, этакий сферический процессор в вакууме, главное все деньги на него не тратьте, блоху подковать ума особого не надо, вопрос что потом делать, как отбивать вложения
Парни с «Мотива» реально молодцы. Вместо того чтобы в сотый раз пережёвывать, догоним ли мы Интел, они просто взяли и сделали то, что до них в России никто не делал — с нуля задизайнили процессор, без чужих IP-блоков.
Да, 28 нм, не 2 нм. Но в их задаче — энергоэффективность для протезов и роботов — это работает. Говорят, на некоторых задачах энергии жрет в тысячи раз меньше условной NVIDIA. Цифры, конечно, любят проверять, но выглядит красиво.
И что радует — не пытаются скрестить ужа с ежом и впихнуть это в десктопы. Четко понимают, где их ниша. Если у них в 2027 правда пойдет серия и экосистему вокруг поднимут — будет жиза. Пока, наверное, самый вменяемый хардверный проект в отечественной микроэлектронике, про который я слышал.
Не пессимист, но если всё действительно так замечательно, то компанию поглотят с потрохами.
Ближайший пример: Groq. Поглощен NVIDIA.
На этих ребят были большие надежды, пользовался их AI API с 2024.
Последние шесть месяцев делают физиономию, что живые.

«Мы не догоняем Intel». Как в России создают нейроморфный процессор «Алтай»