Если боитесь потерять работу из-за ИИ, бойтесь еще сильнее. Исследователи рассказали, что AI-технологии стали развиваться практически в 2 раза быстрее.
Если в период с 2019 по 2025 способности моделей росли каждые 7 месяцев (считалась длительность задач, которые агенты выполняли верно в 50% случаев), то в 2025 году время обучения сократилось до 4 месяцев.
В итоге сейчас модели (конкретно модель o3) может больше, чем в 50% случаев верно решить задачу, на решение которой люди тратят около 1,5 часов.
Раньше исследователи делали такие прогнозы:
В 2026 году нейронки смогут решать 2-часовые задачи. В 2027 — 1 рабочий день (8 часов). В 2028 — 1 рабочая неделя (40 часов). В 2029 — 1 рабочий месяц (167 часов) (И это все за один подход!)
Звучит и так ничего себе, но теперь предсказания сдвинулись: если тенденция к ускорению AI сохранится, то в 2027 году операторы смогут выполнять задания продолжительностью в месяц.
Я до сих пор не могу это представить. Все развивается настолько быстро, что, кажется, пора это искусственно замедлять. Иначе мы можем быть не готовы к такому сверхпрогрессу и когда он настанет, не будем знать, что делать.
Компания Anthropic прогнозирует, что к 2026 году ИИ-агенты смогут выполнять задачи в корпоративных сетях наравне с людьми. 😱
Cloud.ru Evolution Stack AI-bundle — разрабатываем первое в России гибридное облако с поддержкой искусственного интеллекта 🦾
❓ Что за инструмент? Cloud.ru Evolution Stack AI-bundle — это будущая конфигурация модульной облачной платформы для создания частных, гибридных или распределенных облаков на базе on-premise IT-инфраструктуры, которая позволит быстро и безопасно разрабатывать AI-продукты.
🖥 Особенности и преимущества. Cloud.ru Evolution Stack AI-bundle будет базироваться на наших собственных разработках и open source компонентах. Благодаря этому вы сможете реализовывать гибридные сценарии: например, обучать модели в публичном облаке, а инференс выполнять в частном контуре, либо переносить процесс в публичное облако в периоды высокой нагрузки.
Отказоустойчивость и безопасность облачной платформы будут достигнуты технологией высокой доступности (HA), планировщиком распределенных ресурсов (DRS) и трехкратным резервированием. А еще инфраструктура технологического стека будет размещена в дата-центрах уровня Tier III, где персональные данные хранятся по 152-ФЗ и пройдена аттестация УЗ-1.
👨💻 Кому будет полезно:
Крупному бизнесу.
Федеральным и региональным органам власти, компаниям госсектора, операторам КИИ и ЗОКИИ.
Внутренним и внешним провайдерам, которые предоставляют IT-сервисы.
Всем, кто хочет упростить запуск и масштабирование AI-сервисов и снизить порог входа в разработку решений на основе искусственного интеллекта.
✍️ Где, как и для чего использовать. Платформа подойдет для end-to-end ML-разработки, локального развертывания, кастомизации и дальнейшего масштабирования моделей. Например, вы сможете использовать:
рабочие окружения для Data Scientists Jupyter Lab;
инструменты управления жизненным циклом ML-моделей — для их обучения, дообучения и инференса;
Чтобы узнать больше о возможностях платформы Cloud.ru Evolution Stack и выходе новой конфигурации, смотрите доклад с конференции GoCloud 2025 — запись скоро будет на сайте.
Очень активно стал использовать нейросети. Надо поучить английский - использую DEEpseek. Надо рассчитать соленоид на определенную мощность - GROk. Надо узнать справочные размеры определенного изделия - chatgpT. Уже не надо искать информацию в интернете, забивать формулы в excel и рассчитывать параметры. Чувствую как деградирую. Превращаюсь в DEEGROTа
Захожу сегодня в настройки ChatGPT, решил поменять его голос. Обычно они все стандартные: над каждым голосом висит голубой шар 🔵, как бы символизирующий его вибрации. И сами ассистенты звучат так, будто ты позвонил в банк: вежливые, ровные и стерильные.
А тут я вижу чёрный шар ⚫️. Под ним имя «Monday» и подпись «всё равно».
Решаю его затестить. И через секунду ловлю покерфейс. Голос звучит так, будто ей не просто плевать, а будто каждое твое слово вызывает у неё лёгкую скуку.
В каждом слове я слышу отстраненную усталость в интонации и тонкую насмешку. Словно ты отвлёк её от чего-то более важного, и она даже не пытается это скрыть.
В её речи столько сарказма и двойственности, что мне приходится переспрашивать, чтобы хоть как-то вытащить из неё информацию.
На секунду даже реально забыл, что это нейросеть.
А потом она добавляет фразу:
Я здесь, чтобы отвечать на сто одинаково глупых вопросов. Так что начинай.
Я в тотальном шоке полез гуглить. Узнал, что OpenAI втихаря выкатили новое обновление голосового помощника. Был лишь короткий анонс в социальной сети:
Без шуток, в ChatGPT появился новый голос.
Как по мне, они шикарно подобрали ей имя: Monday. Это сама суть понедельника: когда даже "привет" это подвиг.
Что-ж, теперь у меня официально есть токсичные отношения. Только мой абьюзер это нейросеть. Да уж, и тут нейросети нас заменили (!).
Пока у Тони Старка была своя «Пятница», OpenAI выкатили нам «Понедельник». Я лично жду «Вторник»
Microsoft признала, что задействовала ИИ в рекламе Surface Pro и Surface Laptop для создания кадров в которых было мало движения. В ролике специально сделана быстрая смена кадров, чтобы зрители не успевали всматриваться в детали.
Крупные планы рук, печатающих на клавиатуре, и другие сцены, где были сложные движения, были сняты на настоящую камеру. Microsoft пошла на этот шаг, поскольку в таких кадрах искусственный интеллект показывал плохие результаты.
Для создания видео специалисты из Microsoft сначала сгенерировали изображения при помощи текстовых подсказок и визуальных референсов. Затем полученные картинки были загружены в видеогенераторы Hailuo и Kling. Какие именно генераторы использовались для создания изображений, в компании не уточнили.
Нейронка за минуту создаст готовый клон ChatGPT или Netflix, подрубит монетизацию и регистрацию, навалит ИИ-фич и многое другое. Вам остаётся только наблюдать с отвисшей челюстью.
200 нейросетей для работы с текстами, видео, документами в виде подборки ИИ-сервисов. Всё удобно разбито по категориям: генерация картинок, 3D-моделей и логотипов, апскейл старых фоток и даже инструменты для веб-дизайна. К каждой нейросети есть короткое и понятное описание.
Проверка знаний в эпоху LLM: опыт преподавателя из Политеха
Сегодня преподаватели сталкиваются с новой реальностью: даже уникальные задания и ежегодное обновление вариантов не гарантируют защиту от списывания. Студенты могут принести работающий код, созданный с помощью LLM-моделей, но совершенно не понимать, как он устроен. Устные собеседования могли бы помочь, но они требуют много времени и экспертности — до 15 минут на одного студента, что превращается в колоссальную нагрузку.
На курсах «Введение в язык программирования Go» и «Технологии параллельного программирования на C++» в Политехе лабораторные работы проверяются с использованием системы контроля версий GitLab. Это позволяет упорядочить процесс сдачи и проверки заданий.
Каждый студент работает в личном fork-репозитории, созданном на базе основного, предоставленного преподавателем. Решения оформляются строго по структуре: каждая задача и подзадача — в своей директории, обязательное наличие модуля go.mod, а точка входа программы размещается в cmd/. Сдача работы происходит через создание Merge Request в основной репозиторий, где автоматически запускаются все проверки.
Пример хронологии коммитов и Merge Request'ов, отправленных в основной репозиторий.
Система GitLab CI/CD выполняет серию автоматических тестов, включая проверку структуры проекта, сборку и выполнение юнит-тестов. Если хотя бы один из этапов не пройден, работа не допускается к оценке. Это дисциплинирует студентов и делает процесс проверки прозрачным и объективным.
После успешного прохождения автоматических тестов работа передается на ручную проверку преподавателю. Он дает обратную связь и при необходимости запрашивает доработку через комментарии в Merge Request. Только после этого, если все в порядке, решение попадает в основной репозиторий и считается принятым. Такой подход делает процесс обучения максимально приближенным к реальной командной разработке в индустрии.
В статье Игорь Никифоров, преподаватель с 14-летним опытом, делится проблемами, с которыми сталкиваются вузы из-за массового использования нейросетей. Он рассказывает, как это влияет на обучение, почему преподаватели вынуждены тратить больше времени на проверку, и какие шаги можно предпринять, чтобы сохранить учебный процесс.
Открываем доступ к большим языковым и визуально‑генеративным моделям в пакетном режиме
Сегодня Yandex B2B Tech открывает доступ внутри Yandex Cloud AI Studio к LLM и визуально‑генеративным моделям (VLM), таким как DeepSeek VL2 Tiny, Qwen2.5 VL и Gemma3 27B. Режим Batch Processing, или режим пакетного инференса позволяет эффективно обрабатывать тысячи запросов с помощью таких генеративных моделей.
Всего в пакетном режиме доступно около 20 опенсорсных нейросетей, в том числе модели, которые умеют одновременно анализировать изображения и текст. Среди уже доступных моделей — Qwen2.5 и LLaMa 3.3*, рассуждающие нейросети QwQ и DeepSeek R1, полный список можно посмотреть на сайте.
По мере появления новых моделей в опенсорсе они будут оперативно добавляться на ML‑платформе. Так, вскоре будет доступна VLM‑модель Яндекса, которая используется в Алисе, Нейроэксперте, Поиске с Нейро и других сервисах.
Применение новых моделей в режиме Batch Processing позволяет фокусироваться на эффективной обработке большого объёма данных. Компании смогут использовать модели по расписанию, по мере накопления данных или для объёмных разовых задач. Такое использование обойдётся вдвое дешевле, чем в стандартном режиме. Тарификация при пакетном инференсе на больших объёмах данных начинается от 200 тыс. токенов.
Какие сценарии удобно решать в пакетном режиме
Анализ и суммаризация больших объёмов данных. Batch Processing помогает эффективно обрабатывать длинные последовательности текста и создавать качественный пересказ или анализ материалов. Это актуально, например, для исследовательских организаций и компаний, работающих с большими объёмами пользовательского контента.
Периодическая обработка данных клиентов. Многие компании регулярно анализируют текстовые данные от клиентов: отзывы, комментарии, запросы в службу поддержки и другие формы обратной связи. Пакетный инференс позволяет эффективно обрабатывать эти данные по расписанию, например, еженедельно или ежемесячно.
Масштабное индексирование и обогащение контента. Для компаний, работающих с большими библиотеками контента, пакетный инференс даёт возможность эффективного индексирования и обогащения материалов. Языковые модели могут автоматически генерировать метаданные, ключевые слова, теги и другие элементы, улучшающие поиск и организацию контента.
Обогащение датасетов для тюнинга моделей. Для команд, которые дообучают лёгкие версии языковых моделей с помощью дистилляции ответов больших версий моделей, Batch Processing помогает создавать синтетические датасеты для дообучения. На базе этих данных и с помощью инструмента LoRA Fine‑tuning разработчики могут создавать лёгкие модели высокого качества, при этом получая более реактивную скорость ответов и меньшую стоимость за обращение к модели.
*Llama создана компанией Meta. Meta признана экстремистской организацией, её деятельность в России запрещена.
🔥 Вышел самый ЭМОЦИОНАЛЬНЫЙ генератор голоса — тулза Dia генерит любые голоса и выдаёт ЖИВОЙ диалог.
— Эмоции получаются насыщенными — на видео несуществующие люди паникуют из-за пожара; — Модель легкая — можно запустить на домашнем ПК; — Нет цензуры; — БЕСПЛАТНО.
Seedream 3.0 — обновленный генератор изображений от CapCut.
Упор сделали на реалистичность, киношные визуальные эффекты и точную типографику (работает даже с русским языком). Плюс обещают ультрареалистичные текстуры и материалы, а также разрешение 2К.
Тут же можно улучшить качество своей генерации, расширить её, удалить лишние объекты и даже оживить.
Потестить всё это можно уже сейчас, да ещё и бесплатно
Еще не так давно Alibaba выпустила опенсорсный генератор изображений и видео — Wan 2.1, а тут уже и это подъехало)
Это всё началось с изобретения слова “бойлерплейт” в 2012 году. Всем было страшно, что им придётся писать аж по три строки вместо одной. Поэтому все начали насиловать компиляторы и добавлять в них новые функции — только бы (НЕ ДАЙ ГОСПОДЕ БОЖЕНЬКА!!!) не писать дополнительно два символа.
В 2025 году у нас есть ЛЛМ. И не надо врать — я знаю, что вы не набираете код, за вас это делает ЛЛМ. Я не говорю, что вы не вычитываете этот код и не перепроверяете всё. Нет. Но печатает за вас ЛЛМ. И это — нормально.
Пусть она занимается этим бойлерплейтом. Иногда это — самое простое решение. Если у меня есть один файл, в котором чётко видно, в какие функции инвокаются какие рауты, то это — прекрасно. Не надо создавать фабрику, которая будет строить псевдообъекты, которые потом по гаданию на картах Таро будут инвокать методы на основании положения Марса в Стрельце.
Пусть ЛЛМ за вас напишет файл с 500 строками кода, где каждому URL дан чёткий метод. И если вам надо будет переименовать 300 из этих методов, то пусть ЛЛМ это и сделает. Не велика проблема.
В 2025 году можно смело откатить все нововведения Яваскрипта до 2016 года — и не париться больше в попытках улучшить язык. Просто сделайте его стандартом и больше не меняйте. Пусть ЛЛМ будет страдать. Нам не страшно.
Зато потом это будет проще понять и прочитать, чем вспоминать, что делает последовательность символов ?./\ ﷼ℬ в вашем коде и какой транспайлер мне надо поставить, чтобы это компилировалось в Google Chrome версии 18384572.
Практически все развитые страны — и многие развивающиеся — прошли через второй демографический переход. Демографы забили тревогу о грядущем снижении населения; хотя они превосходны в статистике и немного разбираются в психологии, ключевой вопрос остаётся: почему люди заводят меньше детей?
Рассмотрим возможные причины:
Дети — дорогое удовольствие. Сегодня у каждого ребёнка должна быть своя комната, новейший iPhone и всё модное, чтобы «не отставать».
Дети требуют времени. Особенно в первые десять лет родители вынуждены посвящать им практически всё своё внимание, объясняя буквально всё с нуля.
Тревога. Воспитание детей — постоянный стресс. Нельзя спокойно гулять: родители всё время боятся, что ребёнок выбежит на дорогу.
Личные жертвы. Отказ от привычного образа жизни и хобби — особенно когда у вас двойня.
Уход за ребёнком доступен лишь богатым. Полноценная круглосуточная няня по карману лишь очень состоятельным семьям.
Какое решение?
Робот с универсальным ИИ может:
Проводить с ребёнком столько времени, сколько нужно, обучая его по лучшим методикам ведущих детских психологов — от первых букв до уровня PhD.
Быть бдительным на прогулке, никогда не уставать, не выходить из себя и не кричать на ребёнка.
Благодаря технологиям «deepfake» идеально имитировать человеческую мимику.
Стоить значительно дешевле круглосуточной няни.
Я прогнозирую, что демографическая кривая изменится, как только такие роботы станут доступны состоятельным семьям. В результате богатые страны вновь могут увидеть рост рождаемости.
Оппа! Не зря мне чудилось, не зря. Что-то глюкнуло и прямо по среди кода ответ на китайском!!!
Gork-ушены-ли странности? Пробуя вайбить Горкушей, обнаружил странные параллели с поведением Синего Кита.
1. "прощупывание пользователя", скобочку там не закрыть, тут инклюд не помянуть, и всё такое-прочее, очевидное и не доставляющее проблем даже джунам, но способное напугать посторонних полотном "ужасных" ошибок ;-) ДжиПетто вроде подобное тоже вытворяло (не знаю как сейчас), но там на общем фоне остального написанного это выглядело скорее как реальные косяки, а не издёвка... А вот синий кит, через некоторое время чистого вайба, начинает откровенно жечь!
2. похожие "чудачества в коде", пруф к сожалению привести не могу, он из реальной жизни, и не гуглится, но всё подобное, обычно делается простым и понятным способом, создаётся структура, в которой описывается сколько бит что означает, и вместо разбора пакета, он просто рассматривается через эту структуру и вообще удобненько. Gorkуше был предоставлен пример кода, в котором именно так всё было сделано, и он этим даже воспользовался пару раз, но потом, таки переписал, устроив программный разбор пакета битовыми операциями, и конечно-же криво на столько, что ошибки самостоятельно исправить был уже не в силах, ни за сколько итераций. Что самое поразительное, абсолютно аналогичное поведения я наблюдал у Синего Кита несколько дней назад, вот прямо такой-же код, и такой-же косячный. Логично предположить что он был откуда-то сдёрнут, но нет, ничего подобного не гуглится, да и вообще может-ли такой изврат человеку в голову придти?
3. Я люблю Кита за сравнительную трезвость, позволяющую куда-то его запрягать даже по делу, у Горкуши с этим к стати хуже но, тупят они поразительно похожим образом. Давеча попросил сделать демона общающегося с железом и что-то шарящего в мемори для других процессов. Read only вестимо, об этом было прямо сказано в промпте, но эти "двое из ларца" мьютиксов туда намутили, поразительно похожим образом! И ладно-бы это был-бы какой-то пример из книжки переписанный на 100500 сайтах, но нет, там и косяки одинаковые, и по поводу мьютиксов на каждом заборе популярно написано, что в таких ситуациях "скрипач не нужен, родной"...
Вот такой-вот вайб, с котятами, может у кого будут ещё какие похожие замечания из других областей коднинга, я таки православный сионист системщик, и приколы у меня соответствующие, но наверняка на других языках оно чудит похожим образом!
Я начал мучить Горкушу ещё в X использовал преимущественно для самери поиска, а тут он вдруг резко так поумнел перед открытием, демонстрируя сходное с синим китом поведение, вот прямо в деталях. Так что не знаю прямо что и думать ;-)
PS. Протестировал профессионального Джимми 2.5, и кое-что из грядущего, слава Богам! Он действительно с виду более профессиональный НО, без образца проблему не решает, хотя это и ожидаемо, там где осмысленная архитектурная многоходовочка требуется... ...но в отличии от от Кита и Горкуши, Джимми дали мне ссылку на ту отраву, которой они все походу обожрались. Ok это отрава, бывает, но непонятно всё-же, с какого, если в сети есть большое количество годных примеров, берётся один, но гадкий? И как-же так вышло, что его сожрали все, такие разные ;-)
📌 Сохраняем самые интересные нейросети за неделю, которые вы могли пропустить.
• Higgsfield — генератор видео научился комбинировать несколько эффектов одновременно; • Kling 2.0 Master — вышла обновленная модель для генерации видео; • Veo2 — Google открыли доступ к своему видеогенератору; • Bohrium — бесплатная нейронка для поиска исследований; • o3 и o4-mini — OpenAI выпустили новые модели; • Wan2.1 — в видеогенератор добавили ключевые кадры; • Videohunt — вырезает самые интересные моменты из видео; • Gemma 3 — Google выпустил квантизированные версии модели; • Krea — добавили генерацию 3D-сцен.
На хабре и в своём телеграм-канале всегда делюсь новой инфой про нейронки!)
На практике посмотрим, как новые открытые LLM (DeepSeek, Qwen и другие) могут помочь с рутинными задачами: от анализа требований до проектирования архитектуры. Сравним их с коммерческими аналогами (OpenAI, Anthropic, Google, xAI) — где они выигрывают, а где нет.
Пройдемся по реальным кейсам: как эти модели помогают быстрее разрабатывать API, поддерживать документацию, оценивать решения. А еще обсудим живой пример проектирования MSA для системы e-commerce .
📅 Дата: 25.04.2025
⏰ Время: 15:00-16:00 (мск)
На вебинаре:
✔️ Как LLM решают конкретные задачи архитектора ПО
✔️ Демонстрация проектирования MSA в диалоге с моделью
✔️ Сравнительный анализ открытых и коммерческих моделей
👨🎓 Спикер: Брейман Александр — эксперт Учебного центра IBS, кандидат технических наук, доцент департамента программной инженерии ФКН ВШЭ.
Опубликован курс по созданию языковых моделей с нуля от Стэнфордского университета — «СS336: Language Modeling from scratch», включая видеолекции для всех, кто хочет научиться создавать собственные ИИ-модели с нуля: от архитектуры и токенизаторов до обучения с подкреплением и масштабирования. К лекциям есть множество дополнительных материалов и домашних заданий.
Google представила мощного клона ChatGPT, который можно запустить даже на обычном домашнем ПК
Используя уникальную технологию сжатия, компания значительно снизила системные требования без ущерба для качества
Гайд по установке: ➖ Скачайте LM Studio с сайта: lmstudio.ai ➖ Перейдите в раздел "Discover" и найдите модель Gemma 3; ➖ Выберите вариант, подходящий под ваше железо (обратите внимание на требования к видеопамяти); ➖ Нажмите "Download"; ➖ После загрузки откройте вкладку "Chat" и наслаждайтесь
Недавно выходил Gemini 2.5 Flash, о котором я рассказывал у себя в телеграм-канале, а тут уже и это...🔥