⚡️ Студенты, халява: Cursor раздаёт ВСЕМ бесплатную подписку НА ГОД. Разрабы лучшей тулзы для вайб-кодинга расщедрились на сочный подгон.
За фотку студака получите подписку Cursor Pro на 12 месяцев. Пригодится, даже если вы не пишите код — подписка даёт халявный доступ к лучшим в мире LLM-моделям, при этом почти безлимитный.
Такими находками всегда делюсь у себя, кстати заявки с России конечно же принимают тоже, иначе не постил бы!)
👏 Автоматизация с помощью AI агентов начинает набирать обороты, а я еще ни разу не написал про MCP.
С появлением LLM-агентов, которые самостоятельно принимают решения и выполняют сложные задачи, возникла проблема отсутствия единого стандарта взаимодействия между ними и внешними источниками данных.
Ребята из Anthropic предложили решение — новый протокол Model Context Protocol (MCP), который стандартизирует взаимодействие 🕵️’в с различными сервисами и между собой.
Теперь давайте сравним 3 подхода взаимодействия ИИ с внешними системами:
Имеем, MCP, A2A и Function Calling — это разные способы, как ИИ общается с внешними системами. Вот кратко, что и как:
MCP (Model Context Protocol) С MCP время интеграции может сократиться на 30-50%. Он создает единый протокол для взаимодействия ИИ с разными инструментами, упрощая и ускоряя процессы. Идеально подходит для сложных и безопасных решений.
A2A (Agent-to-Agent) A2A — когда агенты общаются друг с другом напрямую. Это повышает их эффективность на 20-40%, отлично для задач, где нужно координироваться и работать вместе, создавая слаженную команду ИИ.
Function Calling Самый простой метод — помогает выполнить базовые задачи быстрее на 10-20%, вызывая конкретные функции или инструменты прямо из модели. Но он не подходит для сложных систем и масштабирования.
🎚️ Если нужна мощь и гибкость — MCP или A2A. Для простых и быстрых задач — Function Calling. Выбирай, что тебе подходит и вперед! Подробнее про MCP реализацию расписал тут!
📌 Сохраняем самые интересные нейросети за неделю, которые вы могли пропустить.
• 2ch tredshot — сгенерирует скриншот обсуждений на дваче на любую тему; • Gemini 2.5 Pro — бесплатная улучшенная модель от Google; • LTX Studio — выкатили в опенсорс свой генератор видео; • Figma — представила ИИ-инструменты для дизайна; • Comfy — добавили топовые модели для генерации картинок и видео; • Genspark — выпустили агента для генерации и анализа таблиц; • YouLearn — бесплатный ИИ-репетитор по любой теме; • Luma — выкатили инструмент для дорисовки кадров на фото или видео. • 🔥Про все эти нейронки рассказывал у себя!)
🖥 Google выкатил на весь США свой новый режим поиска «AI Mode» – это новая вкладка вроде картинок, карт, а внутри что-то вроде поиска в чатгпт или перплексити, с памятью, карточками товаров и тп, вы все это видели уже
Это гигантский шаг на встречу массовой адаптации LLM, с чем я всех нас и поздравляю!
Кстати, надеюсь уже все видели, что Gemini 2.5 Flash от google вышел!
Студенты, для вас подгон: нашли нейросеть, которая напишет дипломы, курсачи и другие работы за вас.
Полный список возможностей QuillBot: — Перефразирование чужих работ; — Проверка грамматики в тексте; — ИИ-детектор и антиплагиат; — Очеловечиватель ваших работ; — Саммарайзер для конспектов; — ИИ-переводчик, который уделывает Google Translate.
😛 Figma дропнули ИИ-РЕВОЛЮЦИЮ в мире дизайна — на Config 2025 релизнули целую пачку полезных нейрофич. Дизайнеры, кайфуйте:
— Figma Make: превращает простые промты в РАБОЧИЕ приложения. Вам остается только подвигать/перекрасить;
— Figma Sites: генератор САЙТОВ из макетов. Превращает ваши дизайны в сочные и функциональные сайты, при этом настолько просто, что справится даже ребёнок;
— Figma Draw: приложение внутри Figma для создания векторных изображений;
— Figma Buzz: мечта дизайнеров — позволяет генерить картинки СОТНЯМИ, при этом сохраняя фирменный стиль компании;
— Grid: прокачанная версия Auto Layout, в которой ВСЕ элементы дизайна адаптируются под изменения размера фрейма. Подготовить макет под будущее приложение или сайт стало ещё проще;
— Генерация картинок и ИИ-фотошоп прямо внутри Figma.
Большая часть фич уже доступна в приложении, пора пробовать.
Кстати, знали что Figma можно вшить в Cursor? Чек!
🤨 Проходим любые собеседования — нашли тулзу Lockedin AI, которая вживую подсказывает, что отвечать интервьюеру.
Пока HR гоняет по скрипту, ты спокойно читаешь с экрана гениальные реплики, сгенерированные в реальном времени. Работает тихо: есть специальный стелс-режим, который скрывает тулзу от трекеров экрана. Также внутри есть мощный генератор резюме.
Главное — всё это БЕСПЛАТНО. Находим работу мечты — здесь.
🔥 Suno снова король — вышла новая модель V4.5, которую не отличить от реальной музыки.
— Завезли КУЧУ новых жанров; — Звук теперь более сложный и чёткий; — Почти не разваливается под конец песни; — Инструменты теперь звучат как ОТДЕЛЬНЫЕ инструменты, а не как каша звуков; — Самое безумное: генерит треки до ВОСЬМИ МИНУТ!
Пробуем — здесь, пока только для обладателей подписки.
А еще я сделал для вас подборку из 5 крутых музыкальных нейросетей!)
💡 Бустим критическое мышление НА МАКСИМУМ — нашли 13 промтов для ChatGPT, которые выжмут их вашей идеи лучшие результаты.
Человеческий мозг обожает халявить: лепит выводы на скорую руку и цепляется за первое объяснение. Но есть и хорошие новости: это можно исправить. Всё, что нужно — начать задавать правильные вопросы. Сохраняем:
Проверяем свои догадки:
Я думаю, что [твоя мысль]. Какие скрытые предположения я делаю? Что может быть другим объяснением?
Понимаем чужую точку зрения:
Представь себя на месте [человека, с кем я не согласен]. Объясни его позицию так, чтобы она выглядела разумной.
Проверка на обман эмоций:
Я сильно верю, что [тема]. Какие когнитивные ошибки могут влиять на мою оценку?
Ищем дыры в своей логике:
Вот моя логика: [объяснение]. Найди слабые места и ошибки в моих рассуждениях.
Просчитываем шаги наперед:
Я хочу [решение]. Какие неожиданные последствия могут появиться через время?
Разбей мою идею в хлам:
Я собираюсь [план]. Придумай самые жёсткие аргументы, почему это плохая идея.
Проверяем источник информации:
Я прочитал, что [факт/новость]. Какие вопросы стоит задать, чтобы проверить, правда ли это?
Ищем скрытые причины проблемы:
Я снова сталкиваюсь с [проблема], хотя пробовал [попытки решения]. Что я могу упускать?
Меняем способ мышления:
Я хочу [задача]. Как бы к этому подошёл врач? А как бы действовал шахматист?
Глубже понимаем спорные вопросы:
Помоги точно определить, что значит [спорное слово или понятие] в этом контексте.
Поставь под сомнение привычку:
Мы всегда делали [старый способ], но это больше не работает. Почему? Какие альтернативы есть?
Отделяем факты от мнений:
В споре про [тема] — где факты, с которыми согласятся обе стороны, а где личные оценки?
Проверь, правильно ли понял тему:
Я понимаю [сложная тема] так: [объяснение]. Чего я не понял или понял неправильно?
Она «думает» перед тем, как дать ответ, анализирует все возможные варианты решения задачи и выбирает лучший.
— Доступны облегчённые версии с 0.6B, 1.7B, 4B, 8B, 14B и 32B параметрами, которые можно поставить локально даже на домашний ПК; — Поддерживает 100 языков, включая русский; — Ну и самое приятное — это бесплатно ☕️
Если боитесь потерять работу из-за ИИ, бойтесь еще сильнее. Исследователи рассказали, что AI-технологии стали развиваться практически в 2 раза быстрее.
Если в период с 2019 по 2025 способности моделей росли каждые 7 месяцев (считалась длительность задач, которые агенты выполняли верно в 50% случаев), то в 2025 году время обучения сократилось до 4 месяцев.
В итоге сейчас модели (конкретно модель o3) может больше, чем в 50% случаев верно решить задачу, на решение которой люди тратят около 1,5 часов.
Раньше исследователи делали такие прогнозы:
В 2026 году нейронки смогут решать 2-часовые задачи. В 2027 — 1 рабочий день (8 часов). В 2028 — 1 рабочая неделя (40 часов). В 2029 — 1 рабочий месяц (167 часов) (И это все за один подход!)
Звучит и так ничего себе, но теперь предсказания сдвинулись: если тенденция к ускорению AI сохранится, то в 2027 году операторы смогут выполнять задания продолжительностью в месяц.
Я до сих пор не могу это представить. Все развивается настолько быстро, что, кажется, пора это искусственно замедлять. Иначе мы можем быть не готовы к такому сверхпрогрессу и когда он настанет, не будем знать, что делать.
Компания Anthropic прогнозирует, что к 2026 году ИИ-агенты смогут выполнять задачи в корпоративных сетях наравне с людьми. 😱
Нейронка за минуту создаст готовый клон ChatGPT или Netflix, подрубит монетизацию и регистрацию, навалит ИИ-фич и многое другое. Вам остаётся только наблюдать с отвисшей челюстью.
🔥 Вышел самый ЭМОЦИОНАЛЬНЫЙ генератор голоса — тулза Dia генерит любые голоса и выдаёт ЖИВОЙ диалог.
— Эмоции получаются насыщенными — на видео несуществующие люди паникуют из-за пожара; — Модель легкая — можно запустить на домашнем ПК; — Нет цензуры; — БЕСПЛАТНО.
Seedream 3.0 — обновленный генератор изображений от CapCut.
Упор сделали на реалистичность, киношные визуальные эффекты и точную типографику (работает даже с русским языком). Плюс обещают ультрареалистичные текстуры и материалы, а также разрешение 2К.
Тут же можно улучшить качество своей генерации, расширить её, удалить лишние объекты и даже оживить.
Потестить всё это можно уже сейчас, да ещё и бесплатно
Еще не так давно Alibaba выпустила опенсорсный генератор изображений и видео — Wan 2.1, а тут уже и это подъехало)
📌 Сохраняем самые интересные нейросети за неделю, которые вы могли пропустить.
• Higgsfield — генератор видео научился комбинировать несколько эффектов одновременно; • Kling 2.0 Master — вышла обновленная модель для генерации видео; • Veo2 — Google открыли доступ к своему видеогенератору; • Bohrium — бесплатная нейронка для поиска исследований; • o3 и o4-mini — OpenAI выпустили новые модели; • Wan2.1 — в видеогенератор добавили ключевые кадры; • Videohunt — вырезает самые интересные моменты из видео; • Gemma 3 — Google выпустил квантизированные версии модели; • Krea — добавили генерацию 3D-сцен.
На хабре и в своём телеграм-канале всегда делюсь новой инфой про нейронки!)
🚀 Google представляет Gemma 3 QAT: мощный ИИ для обычных видеокарт
Google анонсировала Gemma 3 QAT — новую версию своей модели искусственного интеллекта, оптимизированную с помощью Quantization-Aware Training (QAT). Эта технология позволяет запускать передовые ИИ-модели на потребительских GPU, таких как NVIDIA RTX 4090, без значительной потери качества.
Что нового в Gemma 3 QAT:
🔹 Поддержка 4-битного и 8-битного квантования: значительно снижает требования к памяти и ускоряет работу модели.
🔹 Сохранение высокой точности: даже при сниженной разрядности модель сохраняет точность, близкую к оригинальной.
🔹 Доступность для широкого круга разработчиков: теперь запускать мощные ИИ-приложения можно на более доступном оборудовании.
📌 Круто, что Google делает передовые ИИ-технологии более доступными, позволяя разработчикам создавать мощные приложения без необходимости в дорогостоящем оборудовании.