Pull to refresh
2
0

User

Send message

Молодцы, что через рынок акций пошли. А не продаться кому-то крупному.

Звучит как очень простая задача. Может веса переквантованные были.

Вот если бы они сделали аналог Nvidia H100 на каком-то модном Chisel Scala - вот это был бы поворот. Со всеми моделированием, верификацией. Или как там называются аналоги unit тестов у разработчиков аппаратуры. Надеюсь знатоки verilog подскажут. Вот это была-бы новость!

Сам у GLM 5 поспрашивал про SAP. Помню за него много денег платили. Но тема мимо меня прошла. А тут решил узнать. Что за SAP такое. И, в отличии некоторых других ИИ, glm нормально отвечает.

В Сбере сами говорили, что взяли инфраструктуру для DeepSeek. Только обучили на своих данных. Про Giga 3 Ultra. Только изначально 16 бит выложили: https://huggingface.co/ai-sage/GigaChat3-702B-A36B-preview-bf16 .

Так что пусть вдохновляются. DeepSeek писал, что Engram экономит, умещая первые 12 слоев в 5 слоях. Заодно в сбере сэкономят на обучении новых моделей.

Так что как покурят, пусть за работу принимаются.

Надо пересчитать.

От исходной версии: считать удвоение каждые 2 года. А с момента нового заявления - каждые полтора.

Покритикуйте гипотезу:

Для перехвата спутников, из самого низколетящего класса. Выходить в космос не надо. Нужен стратосферный самолет, который после перехвата и уничтожения спутника быстро сваливается обратно в плотные слои атмосферы.

А на сэкономленные $2 млрд можно наделать низкотемпературные натриевые аккумуляторы. Например CATL Naxtra. Которые стоят вроде около 60-80-100 долларов/кВтч. И оснащать много лет все российские автомобили, сделав их гибридами с 12-20 кВтч батареями.

Интересно, если Baidu выйдет на мировой рынок со своим роботакси Apollo Go

DeepSeek так сладко рассказывала об Engram, что появился LongCat-Flash-Lite

Думаю для русского языка - тоже сойдет. "количество токенов на слово в разных языках" - хорошо гуглится. И для русского языка обычно больше 2 токенов на слово. Хотя модели Вихрь и Т-про хвалятся оптимизацией.

Осталось несколько дней до китайского нового года. Каждая китайская компания сейчас делает срезы.

Дальше будет затишье.

Топикстартеру: еще на днях Longcat flash 2601 вышла. Вполне крупный формат. Вроде не разобрана на хабре. Про сеть ERNIE 5 и тему DeepSeek Engram уже вроде разобрано.

Есть вероятность, что такая среднеразмерная ИИ 27-40B будет даже интереснее крупного формата 700B.

Для программирования рутинных задач. Если средний формат выйдет на плато. Где хорошо описанные, как по техзаданию, запросы выдают рабочий код.

Наконец-то пошли толковые советы.

А то как не откроешь книгу - а там пол релевантного ответа и дальше та же джинса больших американских ии.

А мне 4.5 ernie нравится. Структура повествования ровная. Без сумбурности. Та что 300B A47.

И то, что долгое время на openrouter была только неквантованная модель. Не нужно было конкретного провайдера указывать, чтобы на квант не попасть. Сейчас правда кванты появились.

А 5.0 можно будет оценить. Даже если будет 8 бит. Вопрос когда на openrouter появится. Или ещё где. Сейчас я её в свободном доступе не вижу.

Иногда появляется мысль, что хорошо перебросить флешку с нейронной и комплектом ПО в прошлое. Сколько бы времени сэкономило. Даже при скорости в пару токенов в секунду.

А текущая нейронка, наверное, ещё для кинематографа хороша. Проверять можно даже ошибки современников. Например идея одного автора, получившая распространение только после его смерти.

Вот Китай забил на развитие собственных тех процессов литографии. Покупает у ASML. И на памяти вполне может окупить. Старые DUV - ну и ладно. Тот случай, когда чтобы приготовить яичницу не нужно арендовать поля, выращивать зерно для кур, потом выращивать кур. А надо дойти до Пятерочки и взять десяток. Быть проще. Не надо быть ровней для фермеров. И быть конкурентноспособным на чужих условиях. "стать конкурентоспособными требуются" - подмена того, что важно тем, что неважно.

Или тесты пора менять. Тесты уже заучены наизусть.

Тут похоже на желание протолкнуть отмену авторских прав для ИИ. С помощью нескольких шагов: есть жертва, японец. Несправедливо пострадавший от закона. Оправдываем японца, создаём прецендент. И, после спасения, уничтожаем японскую мультипликацию. Которой японцы сильно гордятся. А что произойдет: сначала опошлят их классические мультфильмы, потом пойдет реклама с героями. И, далее, игры и мультипликация с посредственной проработкой. Что делать: японцы любят смотреть в рот американцам. Так что могут копировать действия Диснея по реакции на ИИ копии.

Вот и пример продукта, который будет востребован в бизнесе среднего масштаба. Можно ведь не только свои сервисы защищать. Но и на чужие грабли наступать.

Information

Rating
Does not participate
Registered
Activity