Иногда появляется мысль, что хорошо перебросить флешку с нейронной и комплектом ПО в прошлое. Сколько бы времени сэкономило. Даже при скорости в пару токенов в секунду.
А текущая нейронка, наверное, ещё для кинематографа хороша. Проверять можно даже ошибки современников. Например идея одного автора, получившая распространение только после его смерти.
Вот Китай забил на развитие собственных тех процессов литографии. Покупает у ASML. И на памяти вполне может окупить. Старые DUV - ну и ладно. Тот случай, когда чтобы приготовить яичницу не нужно арендовать поля, выращивать зерно для кур, потом выращивать кур. А надо дойти до Пятерочки и взять десяток. Быть проще. Не надо быть ровней для фермеров. И быть конкурентноспособным на чужих условиях. "стать конкурентоспособными требуются" - подмена того, что важно тем, что неважно.
Тут похоже на желание протолкнуть отмену авторских прав для ИИ. С помощью нескольких шагов: есть жертва, японец. Несправедливо пострадавший от закона. Оправдываем японца, создаём прецендент. И, после спасения, уничтожаем японскую мультипликацию. Которой японцы сильно гордятся. А что произойдет: сначала опошлят их классические мультфильмы, потом пойдет реклама с героями. И, далее, игры и мультипликация с посредственной проработкой. Что делать: японцы любят смотреть в рот американцам. Так что могут копировать действия Диснея по реакции на ИИ копии.
Вот и пример продукта, который будет востребован в бизнесе среднего масштаба. Можно ведь не только свои сервисы защищать. Но и на чужие грабли наступать.
Сейчас инвесторы выводят средства из Nvidia с прибылью. Может ещё есть возможность роста у NVidia, но тут нужно знать что будет между Китаем и США. А это пока закрытая информация. А в OpenAI почему не веришь? Я бы вообще до конца срока Трампа не беспокоился.
Я спрашивал у ИИ про период Китая, когда посчитали техническое образование ненужным. Как уничтожали ведущие ВУЗы Китая, что получилось. И к чему привело в ближайшие десятилетия. Антропик/Гимини/ОАИ/ХАИ толком не ответили. А вот Китайские четко расписали. К вопросу говоря о замалчивании грязных событий. Просто грязные события должны волновать Китайцев, чтобы появилось отображение в ИИ.
Главное чтобы запросы уровня: "Прохожу перекресток. Хочу взять что-то пожевать, но не знаю чего." работали. А подтверждение через американский телефон или email в зоне .com - найдётся.
Ориентируйся, как MSRP объявят. Geforce RTX 3080 MSRP $699, в действительности в 2 раза дороже. Причем в первое время было дешевле, чем x2 MSRP. С RTX 5090 наоборот. MSRP $1999. Первое время шла по $4-4.5к, сейчас упала до $3к.
Также и с серверной GB200 NVL72. MSRP $3млн. На этапе отбраковки были дешевле x2. 450 млн рублей в конце 2024 года. У нах тогда проблемы с течью охлаждаемой жидкости были. Потом x2 MSRP.
Говорит очень сжато. Вообще максимально сжимает разговор. По сравнению с O3 Pro - не уверен, что лучше. Пока новых идей не увидел. Максимально некрасивый технический русский язык стал еще более мудреным. Нейросеть не думает о красоте речи. Как технарь, просидевший 5 лет в подвале. Но мышление предложениями сохранилось, как и у O3 Pro.
В качестве примера недавно интересовался, когда вычислительные возможности чипов дорастут до массого распространения 10GBase-T и 25GBase-T. И может ли быть связано с российскими разработками в области InGaAs (Читал старые статьи о микроэлектронике). В принципе 5 pro выдал, что и связка Sonnet 4.5, Gemini Pro, GLM 4.6, Grok4 fast вместе взятая. Вот тут 2 вопроса и один ответ ИИ, правда только нумерованный список сбился при копировании ответа в telegraph: https://telegra.ph/25GBase-T-10-07
Считаю, вайб дебаггинг очень плохо поддаётся работе на удаленке.
Требуется постоянное общение. Чтобы выяснить почему так получилось. А сама работа, очень похожа на описанное в книге "Эффективная работа с унаследованным кодом". Только сейчас, прологировать все методы одного класса - просто. Даже мощная gpt не требуется. FIM справится. Для документации и покрытия тестами - что-то помощнее.
Иногда появляется мысль, что хорошо перебросить флешку с нейронной и комплектом ПО в прошлое. Сколько бы времени сэкономило. Даже при скорости в пару токенов в секунду.
А текущая нейронка, наверное, ещё для кинематографа хороша. Проверять можно даже ошибки современников. Например идея одного автора, получившая распространение только после его смерти.
Красивый тост
Вот Китай забил на развитие собственных тех процессов литографии. Покупает у ASML. И на памяти вполне может окупить. Старые DUV - ну и ладно. Тот случай, когда чтобы приготовить яичницу не нужно арендовать поля, выращивать зерно для кур, потом выращивать кур. А надо дойти до Пятерочки и взять десяток. Быть проще. Не надо быть ровней для фермеров. И быть конкурентноспособным на чужих условиях. "стать конкурентоспособными требуются" - подмена того, что важно тем, что неважно.
Или тесты пора менять. Тесты уже заучены наизусть.
Тут похоже на желание протолкнуть отмену авторских прав для ИИ. С помощью нескольких шагов: есть жертва, японец. Несправедливо пострадавший от закона. Оправдываем японца, создаём прецендент. И, после спасения, уничтожаем японскую мультипликацию. Которой японцы сильно гордятся. А что произойдет: сначала опошлят их классические мультфильмы, потом пойдет реклама с героями. И, далее, игры и мультипликация с посредственной проработкой. Что делать: японцы любят смотреть в рот американцам. Так что могут копировать действия Диснея по реакции на ИИ копии.
Вот и пример продукта, который будет востребован в бизнесе среднего масштаба. Можно ведь не только свои сервисы защищать. Но и на чужие грабли наступать.
Сейчас инвесторы выводят средства из Nvidia с прибылью. Может ещё есть возможность роста у NVidia, но тут нужно знать что будет между Китаем и США. А это пока закрытая информация. А в OpenAI почему не веришь? Я бы вообще до конца срока Трампа не беспокоился.
Я спрашивал у ИИ про период Китая, когда посчитали техническое образование ненужным. Как уничтожали ведущие ВУЗы Китая, что получилось. И к чему привело в ближайшие десятилетия. Антропик/Гимини/ОАИ/ХАИ толком не ответили. А вот Китайские четко расписали. К вопросу говоря о замалчивании грязных событий. Просто грязные события должны волновать Китайцев, чтобы появилось отображение в ИИ.
Пока комментарий писал - уже 16.3к
Ну вот. 9 часов с публикации новости прошло. И Qwen Max тысячу потерял. Упал с 18.5 до 17.4
Главное чтобы запросы уровня: "Прохожу перекресток. Хочу взять что-то пожевать, но не знаю чего." работали. А подтверждение через американский телефон или email в зоне .com - найдётся.
Ориентируйся, как MSRP объявят. Geforce RTX 3080 MSRP $699, в действительности в 2 раза дороже. Причем в первое время было дешевле, чем x2 MSRP. С RTX 5090 наоборот. MSRP $1999. Первое время шла по $4-4.5к, сейчас упала до $3к.
Также и с серверной GB200 NVL72. MSRP $3млн. На этапе отбраковки были дешевле x2. 450 млн рублей в конце 2024 года. У нах тогда проблемы с течью охлаждаемой жидкости были. Потом x2 MSRP.
GPT5 Pro каждый ответ начинает с:
Короткий вывод. Краткий ответ. Или вариации этой фразы.
Очень легко определить модель.
А что делает unsloth?
Попробовал GPT 5 Pro.
Говорит очень сжато. Вообще максимально сжимает разговор. По сравнению с O3 Pro - не уверен, что лучше. Пока новых идей не увидел. Максимально некрасивый технический русский язык стал еще более мудреным. Нейросеть не думает о красоте речи. Как технарь, просидевший 5 лет в подвале. Но мышление предложениями сохранилось, как и у O3 Pro.
В качестве примера недавно интересовался, когда вычислительные возможности чипов дорастут до массого распространения 10GBase-T и 25GBase-T. И может ли быть связано с российскими разработками в области InGaAs (Читал старые статьи о микроэлектронике). В принципе 5 pro выдал, что и связка Sonnet 4.5, Gemini Pro, GLM 4.6, Grok4 fast вместе взятая. Вот тут 2 вопроса и один ответ ИИ, правда только нумерованный список сбился при копировании ответа в telegraph: https://telegra.ph/25GBase-T-10-07
Ну так перспективы у них есть?
Или там на больших вводных будет что-то нерешаемое?
Будь тема рабочая - выложили бы десяток тысяч mcp серверов.
294 тысячи долларов - тут уже бюджеты российских ИИ близко. Про бюджет в 2-3М - не в курсе.
Считаю, вайб дебаггинг очень плохо поддаётся работе на удаленке.
Требуется постоянное общение. Чтобы выяснить почему так получилось. А сама работа, очень похожа на описанное в книге "Эффективная работа с унаследованным кодом". Только сейчас, прологировать все методы одного класса - просто. Даже мощная gpt не требуется. FIM справится. Для документации и покрытия тестами - что-то помощнее.
Ну вот. Отдел PR будет ему пирожки выносить.