Астрофотограф по имени Карл рассказал. что потратил всего $20 в магазине хозтоваров и полностью преобразил резкость своих астрофотографий.
В небольшом видео он показал три простых самодельных мода для астрофотографии, которые могут значительно улучшить снимки глубокого космоса без лишних трат, включая маску Бахтинова, напечатанную на 3D-принтере и флокирование трубы телескопа фетровыми полосками. Эти простые усовершенствования телескопа стоят меньше, чем один окуляр, но дают результаты, сравнимые с профессиональным оборудованием для астрофотографии.
С 2026 года США начнут взимать дополнительный возвратный сбор за «добросовестность» (Visa Integrity Fee) в размере $250 за каждую неиммиграционную визу, включая туристические (B-1/B-2), студенческие (F/M), рабочие (H-1B) и обменные визы (J).
Новый сбор «Visa Integrity Fee» стал частью масштабного закона «One Big Beautiful Bill», подписанного президентом Дональдом Трампом 4 июля 2025 года. Исключение составляют только дипломатические категории виз A и G.
По оценкам экспертов, общая стоимость получения туристической визы может вырасти до $450–470, что в 2,5 раза превышает текущую сумму. Помимо нового сбора, также повышаются другие сопутствующие платежи, включая сбор за форму I-94 ($24) и повышенную стоимость ESTA ($40 вместо прежних $21).
Согласно официальному тексту закона, сбор «за добросовестность» рассматривается как залог, который может быть возвращён, если заявитель покинет США в течение пяти дней после истечения визы, не нарушив условий пребывания и не подав на продление. Однако для студентов и рабочих виз это означает, что деньги могут «зависнуть» на годы.
Как улучшить режим ночной съемки с помощью нейросети на примере MEFNet
Смешивание экспозиций обычно применяют для улучшения изображений при дневной съемке, особенно в условиях яркого солнца. Но мы решили проверить: можно ли адаптировать этот способ для съемки в темноте? Он поможет осветлить изображение и заметно снизить уровень шумов.
MEFNet — это подход к слиянию изображений с разной экспозицией. Он создан для работы со статическими последовательностями кадров произвольного разрешения и в произвольном количестве. Название MEFNet происходит от термина Multi-Exposure Fusion, то есть «многоэкспозиционное смешивание». Отсюда и сокращение MEF.
Главная цель MEFNet — извлекать полезные детали как из темных, так и из пересвеченных областей, чтобы сформировать итоговое изображение с хорошим балансом яркости и контраста. При этом метод должен избегать артефактов, характерных для классических алгоритмов.
Схема работы алгоритма MEFNet. Источник: Ma, K., Duanmu, Z., Zhu, H., Fang, Y., & Wang, Z. (2019). Deep guided learning for fast multi-exposure image fusion. IEEE Transactions on Image Processing, 29, 2808-2819
Схема работы алгоритма MEFNet. Источник: Ma, K., Duanmu, Z., Zhu, H., Fang, Y., & Wang, Z. (2019). Deep guided learning for fast multi-exposure image fusion. IEEE Transactions on Image Processing, 29, 2808-2819
Алгоритм MEFNet работает следующим образом. На вход подается серия изображений с разной экспозицией — они сначала переводятся в YUV-формат. Далее основная обработка выполняется только по Y-каналу, который отвечает за яркость. Дело в том, что именно яркостный компонент в наибольшей степени определяет структуру и детализацию сцены.
Затем нужно уменьшить разрешение всех изображений — так сокращаются вычислительные затраты. Полученные кадры поступают в нейросеть, которая генерирует весовые карты для каждого изображения, также в пониженном разрешении. Она обрабатывает серии произвольного пространственного размера и числа экспозиций, а также генерирует карты соответствующего размера и количества. Сеть состоит из семи сверточных слоев с расширенными свертками, которые увеличивают поле восприятия (receptive field) без потери разрешения:
Слои 1–6 используют ядра размером 3×3 с разными коэффициентами расширения (dilation rates): 1, 2, 4, 8, 16, 1. Это позволяет захватывать контекст на разных масштабах.
Слой 7 — финальный слой с ядром 1×1, который преобразует фичи в весовые карты.
Нормализация — после каждого сверточного слоя (кроме последнего) применяется адаптивная нормализация (AN), сочетающая нормализацию по экземпляру (instance normalization) с обучаемыми параметрами.
Активация — используется Leaky ReLU (LReLU) для сохранения структурной информации.
Подробнее о MEFNet и других алгоритмах улучшения режима ночной съемки в мобильных устройствах на примере планшета KVADRA_T читайте в статье Полины Лукичевой из команды AI ML Kit в YADRO.
Всем привет, на связи Вадим, я BI-аналитик и хочу затронуть тему интересную для меня тему. Мой канал в тг: https://t.me/breaking_data
В UI/UX-дизайне и BI-аналитике в частности есть такой эффект - эстетика-юзабилити. Основывается он том факте, что люди воспринимают "привлекательные" продукты как "удобные" и "полезные", даже если никаких отличий от аналогов нет. Важно отметить, что данный эффект работает только в тех случаях, когда никаких значимых технических или функциональных отличий у продуктов нет.
Подсмотрел этот термин у @nastengraph в отношении dataviz'a, но его вполне можно экстраполировать и на другие сферы. Не хочу быть Тайлером Дерденом, но мы живем в мире фаст-фуда. Уйма компаний построены лишь на факте того, что их Бренд или продукт были более "привлекательными" для потребителей: Telegram - на момент его выхода уже существовал What's Up и был монополистом. Apple с Iphone - десятки и сотни брендов, боровшиеся за первенство, но все решил пользовательский опыт. Сегодня в целом трудно представить как рынок смартфонов (читать "рынок монополий"), мог быть зеленым, где не было яркого лидера. Яндекс - долгое время в лидерах российских браузеров был Рамблер, кто-то вообще помнит что это? FaceBook - да, сегодня этому явлению трудно подобрать определение, но когда-то это был ультимативнопрорывной продукт, затмивший остальные соцсети.
Все вышеперечисленные компании - это IT/Tech сектор. Можно разобрать и более низкоуровневые примеры бытовой жизни.
Например, почему мы выбираем одну кофейню, хотя рядом может быть дешевле и вкуснее? Часто — из-за атмосферы, шрифта в меню, музыки, света и логотипа на стаканчике. Та же история с супермаркетами, где "упаковка" важнее продукта. Или с автомобилями, где бренд и "статус" и составляют ценность.
Что это значит? Визуальная подача - имеет значение. В аналитике, жизни, при создании своих проектов всё это не только «про красоту», но и про доверие, удобство.
Мораль: эстетика — это не просто "украшение". Это часть восприятия юзабилити. Не только в BI, где «понятный» отчет часто означает «эффективный» отчет, или любом другом продукте. Красота может и не спасти плохой продукт, но точно может дать хороший шанс среднему (Хотя Феррари до сих пор покупают, возможно, силы эстетики еще изучены в недостаточной степени)
Google больше НЕ НУЖЕН — вышел мощнейший и абсолютно БЕСПЛАТНЫЙ ИИ-поисковик Scira 🔥🔥
Он позволяет находить любую инфу всего в два клика — в него встроены множество нейронок: от Grok и Claude до GPT-4o и Gemini
Имеется режим «глубокого поиска», который нароет вообще любую инфу. Можно настроить поиск исключительно по научным статьям, картам или YouTube
При этом поисковик идеально понимает запросы на русском языке, работает бесплатно и не требует регистрации 👏 Кстати, знаю что поможет упростить использование и сделать ваш опыт максимально комфортным в AI и ML!
Automate Your Daily Tasks in 10 Minutes: A Practical Guide to n8n for Beginners
Until 2022, I thought automation was only large companies. But in 2022 I discovered n8n, and everything changed. Now, I automate routine work, reports, and even whole business processes—sometimes in under 10 minutes. Here’s how it works, what surprised me, and what you can try today.
In 2022, I deployed n8n on a separate VPS to demonstrate the ability to process design data from Revit and show that it's like working in Dynamo or Grasshopper, but for data managers and automation pipelines outside of Autodesk products.
But it was hard to get experts interested in 2022 - at the time, n8n was still in its early stages: there were no Python nodes, no LLM integration, and most workflows took weeks to create, relying on scattered blog posts and incomplete examples on forums.
Fast forward to 2025, and everything has changed.
Today, thanks to native LLM nodes, you can simply ask ChatGPT, Claude, or any advanced AI assistant to generate automation n8n pipelines — whether for validating parameters or producing custom QTO tables — and get ready-to-run workflows in seconds.
Why Bother with Automation?
Let’s be honest: most “office work” is repetitive. Copy-paste, renaming files, sending the same email—again and again. It’s boring and, more importantly, wastes hours every week. For me, automation started as an experiment, but quickly became a must-have. Once you automate your first task, you won’t want to go back.
What is n8n and Why Use It?
n8n (pronounced “n-eight-n”) is a free, open-source tool for automating anything—emails, file operations, notifications, even AI tasks. The best part? No coding needed. You just drag, drop, connect blocks, and press play. It runs on Windows, Mac, or Linux. I set up my first workflow in under 15 minutes.
How I Got Started (And You Can Too)
Install Node.js (from the official site, takes 2 minutes)
Install n8n with one command
Open n8n in your browser (local or online)
Start building: drag blocks (“nodes”) to connect apps, add logic, or even call ChatGPT to write emails for you!
The next “wow moment” for me was connecting n8n to AI tools like Claude and ChatGPT. Need to generate text, analyze data, summarize, or respond to messages? Just add a ChatGPT node—no API coding, just your prompt.
Short on time? n8n has a big library of ready-made templates. You can find workflows for almost any need: document processing, cloud backups, database syncs, even advanced stuff like BIM/CAD data processing. Grab a template, tweak it for your needs, done.
Lessons Learned and Tips
Don’t overthink: Start simple. Even automating one small task (like downloading attachments from email) pays off.
Debug as you go: n8n makes it easy to see where something breaks—just follow the logs, tweak, and re-run.
Experiment: The community is active and shares real-life examples. Some of my best workflows came from GitHub repos or the official n8n library.
Combine tools: I use n8n with spreadsheets, databases, cloud storage, and AI. Everything connects!
Why You Should Try It
After a few weeks, I realized how much time I was saving. Reports that took 30 minutes now take 2. Integrations that seemed impossible (like sending BIM data to a spreadsheet, then to Teams) were suddenly simple.
Automation isn’t just for techies anymore. With tools like n8n, anyone can build and run real workflows—saving hours, reducing errors, and focusing on what really matters.
В системах видеонаблюдения и видеоаналитики часто приходится иметь дело с кадрами низкого качества. Объект съемки далеко, плохое освещение, ограниченные возможности камеры – и вместо четкой картинки мы получаем лишь набор пикселей. Знакомая ситуация?
"Что тут происходит? 😑"
Почему это большая проблема?
Распознать что-либо по такому "размытому квадратику" – серьезный вызов для алгоритмов. Стандартные модели, обученные на четких изображениях, часто теряют эффективность, когда объект занимает по высоте всего 32 пикселя (а то и 10!). Это напрямую влияет на точность работы систем в реальных условиях – будь то поиск автомобиля, предмета или распознавание лиц.
В чем сложность?
Главная трудность – "пропасть" между миром четких картинок (на которых обычно учатся модели) и миром размытых кадров. Алгоритмы плохо переносят знания из одного "мира" в другой.
Как с этим бороться?
В нашей новой (и первой) статье мы подробно разобрали ключевые подходы к решению такой проблемы в контексте распознавания лиц:
1. "Дорисовка" деталей: специальные нейросети пытаются увеличить и улучшить размытое изображение перед анализом. Работает, но есть риск "придумать" несуществующие детали.
2. Адаптация модели: как "подружить" алгоритм с плохим качеством?
Трюки с данными: искусственно ухудшаем хорошие изображения при обучении (сжатие, шум), чтобы модель привыкла к помехам.
Дообучение: учим модель на реальных размытых данных. Важно делать это аккуратно, чтобы она не забыла, как работать с четкими изображениями. Помогают методы вроде LoRA (дообучение только маленькой части сети).
"Учитель" для "ученика": мощная модель, видящая четкие картинки, учит компактную модель работать с размытыми, передавая свои "знания".
3. PETALface: новый подход, который динамически комбинирует разные "настройки" (LoRA-адаптеры) в модели в зависимости от качества конкретного входящего кадра. Перспективно, но требует дальнейшего изучения.
Хотите разобраться глубже?
В статье мы подробно разбираем плюсы и минусы каждого подхода, рассматриваем специализированные датасеты (TinyFace, BRIAR) и анализируем нюансы свежего метода PETALface.
Сталкивались ли вы с проблемой низкого разрешения в своих проектах? Какие методы оказались эффективными? Делитесь опытом в комментариях!
Хотите узнать, как устроен и работает искусственный интеллект, а еще провести время интересно и с пользой? 📚
Тогда ловите подборку от Дмитрия Юдина — технического лидера AI в Cloud․ru. В списке книги как для новичков, так и для продвинутых:
1.«iPhuck 10», Виктор Пелевин 📗
Философия, технологии и сарказм в одном флаконе. Главный герой — детектив и искусственный интеллект, который пишет романы, в которых расследует преступления.
Для тех, кто любит постиронию, искусство и немного цифрового безумия.
2. «Охота на электроовец», 2 тома, Сергей Марков 📗
Это полноценная энциклопедия по истории искусственного интеллекта. От древних счетов до электросетей, от Гиппократа до GigaChat. В книге юмор и много неожиданных фактов.
Будет интересно тем, кто хоть раз спрашивал GigaChat, как он работает :)
3. «Глубокое обучение», Ян Гудфеллоу 📗
Книга, достойная лежать на тумбочке у каждого дата-сайентиста. Толстая, серьезная, техническая. Если хочешь копнуть глубже в нейросети это твой новый лучший (и требовательный) друг.
Не для слабонервных, но зато после прочтения в разговорах можно уверенно использовать пруфы: «Ну, в третьем томе всё расписано…».
4. «Грокаем глубокое обучение», Эндрю Траск 📗
Более дружелюбный вход в тему — Траск объединяет всё пошагово, просто и понятно. Если слово «грокаем» кажется вам сложным, не волнуйтесь — книга помогает реально понять, а не заучить.
Подойдет тем, кто хочет разобраться, но не знает, с какой стороны подойти.
5. «Как учится машина», Ян Лекун 📗
Легенда в мире AI объясняет, куда движется искусственный интеллект, как он работает, и почему нам (возможно) не стоит паниковать. Мало формул, но много рассуждений, иронии и визионерства.
Для тех, кто хочет понимать технологии, а не просто удивляться им.
👉 А еще приглашаем внести свой вклад в развитие отечественного AI — испытать нашего нового AI-помощника Клаудию, который позволяет автоматизировать управление ресурсами и инфраструктурой в публичном облаке Cloud.ru Evolution.
🫧 Технологический пузырь лопнул: что случилось с ИИ-агентами?
Аналитики из Gartner предупредили, что к 2027 году более 40% проектов с ИИ-агентами будут закрыты. Спойлер: ИИ как ключевую технологию никто не отменяет, но если будете запускать своих ИИ-агентов, учтите риски, которые увидели эксперты и добавили мы от себя.
ИИ-агенты — это программы, которые автономно или полуавтономно могут принимать решение с использованием технологий ИИ. Когда вам не надо каждый раз запрашивать чат-бот, а он сам отследит ситуацию и будет выдавать вам самые оптимальные туристические маршруты.
Естественно, это даёт возможность упростить и ускорить бизнес-процессы, и компании активно используют её. Аналитики Gartner предсказывают, что к 2028 году как минимум 15% рабочих решений будет приниматься с участием ИИ-агентов (сейчас около нуля), а 33% корпоративного ПО будет включать ИИ-агентов (сейчас около 1%). Почему же эта же компания предупреждает об отмене почти половины проектов с ИИ-агентами?
Во-первых, из-за непредсказуемой стоимости. Сейчас внедрение ИИ-агентов находится на экспериментальной стадии и может дать первые результаты. Но при попытке полноценно интегрировать их в бизнес-процессы компании могут столкнуться с тем, что это дорого или невыгодно.
Во-вторых, из-за непредсказуемой ценности для бизнеса. Понятно, что ИИ может ускорить бизнес-процессы и повысить их эффективность. А может и не помочь. Только после «приземления» тех же больших языковых моделей будет ясно, могут ли они помочь (как в случае с поиском по техдокументации) или потребуют слишком больших затрат ресурсов на проверку результатов работы ИИ.
Наконец, третий пункт — это сложность риск-менеджмента. Как предотвратить утечку информации и взлом ИИ? Как убедиться в адекватности результатов работы ИИ-агента? Это ещё предстоит научиться узнавать, потому что стандартных методик пока нет.
Возможно, сразу во всех трёх пунктах лежит ещё один момент. Gartner предупреждает, что под модным названием компаниям пытаются «продать» и RPA, и чат-боты и другие процессы, которые работают без ИИ или автоматизации. Если они помогают бизнесу — это, конечно, хорошо, но цена старых решений под видом модных «ИИ-агентов» может оказаться выше, чем у исходного продукта, а значит, финальная окупаемость будет под вопросом.
В общем, совет можно дать такой: используйте новые инструменты, но не поддавайтесь на хайп — взвешивайте риски и потенциал внедрения ИИ-агентов.
Сначала мы хотели просто поиграть в Minecraft с коллегами. Но в какой-то момент поймали себя на мысли, что достраиваем копию очередного нашего дата-центра, да и в целом построек получилось довольно много. Тут-то мы и решили, что пора открыть сервер для всех желающих.
Переходите на сайт, регистрируйтесь и получайте доступ. В игре вас ждут:
Выживание — классический режим с нормальной сложностью, где можно строить, исследовать, добывать. В общем, заниматься типичными майнкрафтовскими делами. А чтобы было веселее, мы добавили туда ежедневные несложные задания с внутриигровыми наградами (железные ботинки или алмазный меч всегда пригодятся). Но можно унести и вполне реальные призы: плюшевых тирексов, носки, кепки и прочее. Для этого нужно искать в деревнях коды сообщать их Telegram-боту (один код = один приз).
Креатив — та часть сервера, где находятся наши дата-центры, музей технологий, необычные постройки от игроков и так далее. С Креативом по умолчанию нельзя взаимодействовать, можно только смотреть. Но если вы проявите свои таланты строителя в Выживании, то сможете добавить сюда свою постройку.
Арена — локация, которую мы открываем только по четвергам для проведения больших PvP- и PvE-событий. Побеждайте и выигрывайте плюшевых тирексов и другие призы от Selectel.
Теперь немного скучной, но важной информации. Играть можно только с ПК. У вас должна быть установлена копия Minecraft Java Edition 1.21.5 или новее. В целом, на этом все. Регистрируйтесь, чтобы получить данные для входа и быть в курсе всех новостей (а еще чтобы получить приз, если победите) и присоединяйтесь к игре.
Да... скоро уже не нужно будет знать как выбрать выдержку, диафрагму, поставить свет, взаимодействовать с моделью... Надо будет просто знать как правильно формировать промпт, чтобы было ровно 5 пальцев и одна голова
В декабре 2024 года солнечный зонд Parker НАСА вошёл в историю, максимально приблизившись к Солнцу, и мы наконец-то можем увидеть некоторые из полученных им снимков. Космическое агентство опубликовало покадровую съёмку наблюдений, сделанных с помощью широкоугольного сканера Parker Wide-Field Imager for Solar Probe (WISPR) во время прохождения зонда через солнечную корону (внешнюю атмосферу) 25 декабря 2024 года, что позволяет детально рассмотреть поведение солнечного ветра вскоре после его выхода. Зонд сделал эти снимки, находясь всего в 6,5 миллионах километров от поверхности Солнца. Для наглядности, в видеоролике НАСА поясняется: «Если бы Земля и Солнце находились на расстоянии одного фута (30 см) друг от друга, зонд Parker Solar Probe находился бы примерно в полудюйме (1,3 см) от Солнца».
Коротко о том, чем гиганты индустрии радовали нас на этой неделе:
🟡Exa Hallucination Detector — проверит факты в сгенерированном тексте; 🟡Vidu — добавили функцию «оживления» изображений; 🟡Grok 4 — вышла новая модель от Маска; 🟡Perplexity — выпустили свой ИИ-браузер Comet; 🟡Higgsfield — теперь умеет создавать ИИ-клонов; 🟡SuperPrompt — браузерное расширение для хранения промптов; 🟡Morphic — научился создавать ИИ-двойников; 🟡Flux Kontext — добавили 15+ новых пресетов для редактирования фото в 1 клик. 🔥Первыми узнавать за новые и полезные нейронки можете тут!)
Представлен открытый проект под названием GenCAD: Image‑conditioned Computer‑Aided Design Generation with Transformer‑based Contrastive Representation and Diffusion Priors. Этот сервис превращает любые чертежи сразу в 3D-модель с кодом CAD. На входе обычный чертёж, на выходе — готовая 3D CAD-модель и вся история её построения с параметрами и командами, как в SolidWorks или Fusion.
Cataclysm: Dark Days Ahead (2025) — как живёт и развивается roguelike, который до сих пор учит выживать
Игра без маркетинга. Без издателя. Без бюджета. Но с кодом, который живёт дольше многих ААА-проектов. Почему Cataclysm DDA всё ещё актуальна — и что из неё может почерпнуть разработчик?
📌 Что это вообще за игра?
Cataclysm: Dark Days Ahead (или просто CDDA) — roguelike-выживалка с открытым исходным кодом. Изначально создана в 2010-х, проект уже давно перерос статус инди-хобби. Вокруг игры сформировалась уникальная архитектура разработки, напоминающая open-source проекты вроде Godot или Blender.
При этом CDDA — это не просто «рогалик». Это огромный симулятор выживания, в котором учитывается всё: климат, диета, микроорганизмы, ткани, генетика, сила удара, источник света, запах, химия топлива, рефлексы NPC… Она не для всех — но от неё сложно оторваться.
🧬 Почему она до сих пор развивается?
Проект жив благодаря:
Cообществу разработчиков, регулярно вносящих правки на GitHub
Модульной архитектуре — почти всё, кроме движка, вынесено в JSON
Открытому патч-процессу: pull-request может отправить любой желающий
Строгому CI — игра проверяется на стабильность при каждом изменении
CDDA — это не Unity и не Unreal. Но это отличный пример того, как жить без них. Игра написана на C++ с минимальной внешней зависимостью и на удивление гибкой логикой.
🧠 Архитектура и интересные решения
📁 JSON Everywhere: почти все предметы, существа, профессии, здания, сценарии, книги, мутанты и их поведение — вынесены в конфиги. Даже атакующие свойства NPC настраиваются без перекомпиляции.
🧪 Эволюция и симуляция: монстры «видят» запах, запоминают игрока, боятся огня, ищут пищу, воспринимают звуки и реагируют на источник света.
🔧 Модификации на лету: моддинг работает в реальном времени. Можно изменить структуру мутанта или добавить новую машину, не трогая движок.
🛠 Технический долг признан открыто: разработчики не скрывают костыли. В issues открыто обсуждаются недоработки, устаревшие решения и предложения по рефакторингу.
🎮 Почему стоит попробовать?
Если ты разработчик — это почти живая документация по построению системной игры с открытым исходником. Если ты игрок — это один из самых глубоко проработанных симуляторов выживания с огромной свободой действий.
Редактировать можно всё: от предметов и диалогов — до поведения монстров
Написать мод — можно за вечер
💬 И всё же...
Что делает старый roguelike привлекательным даже в 2025 году? Что заставляет людей править JSON-файлы, компилить на локальной машине, и устраивать «чистки баланса» спустя 10 лет после релиза?
Возможно, потому что эта игра живёт, а не просто запускается.
Как заставить AI-агентов говорить на одном языке и работать вместе?
Небольшая сноска по поводу того, кто такие агенты, потому что сейчас агентами любят называть обычные автоматизации
Агент — это AI-сущность, которая должна: — понимать задачу и условия выполнения — принимать решения, чтобы добиться наилучшего исполнения — общаться с другими агентами, чтобы прийти к своей цели — работать независимо, как сотрудник
Что предложил и сделал Google? По сути, создал язык и мессенджер для агентов. Как людям нужны слова и способ связи, чтобы договориться — так и агентам нужен стандарт общения
У меня появилась аналогия с островами. Агенты без протокола — как жители разных островов Каждый внутри своего острова как-то справляется. Но сейчас, чтобы выстроить взаимодействие с другими островами — нужно каждый раз договариваться с нуля
A2A протокол предлагает агентам общий язык и единый протокол работы.
И эффект у этого должен быть такой-же, какой сейчас дает нам интернет и английский язык
🏢 И еще одна простая аналогия на примере компании
Катя из HR нанимает людей Дима из Legal проверяет договоры Маша из Logistics заказывает доставку
Они общаются через Telegram на русском языке
😉 В мире ИИ: Катя, Дима, Маша — это агенты
A2A — это их Telegram и русский язык. Если что-то из этого убрать в их коммуникации, то работа встанет
Как обстоят дела AI агентов сейчас — без A2A ⏺ Каждый агент живёт в изоляции ⏺ Все связи — ручные, через API и всякие автоматизации) ⏺ Нет общего языка, нет поиска друг друга ⏺ Всё держится на хрупком и дорогом коде
Что даёт A2A протокол 🔵 Общий язык и формат общения между агентами 🔵 Описание способностей AI-агента через AgentCard в виде JSON формата 🔵 Передача задач и их состояний (Task, Artifact) 🔵 Поддержка долгих задач, асинхронность, push-уведомления 🔵 Безопасность на уровне enterprise (OAuth, TLS, mTLS) 🔵 Поддержка фреймворков по типу LangChain, Genkit, LangGraph и тдтп
🤝 Как Model Context Protocol и A2A работают вместе MCP — это стандарт, который помогает LLM-моделям подключаться к данным, ресурсам и внешним инструментам. Он уже за пару месяцев успел закрепиться как стандарт ниши — OpenAI, Anthropic и многие другие строят совместимость с MCP.
A2A решает другую задачу Он позволяет агентам координировать действия между собой — не как "инструмент → вызов → результат", а как равноправные сущности, которые обмениваются задачами, артефактами и статусами.
MCP — это про «чем пользоваться» A2A — это про «с кем и как взаимодействовать»
MCP соединяет агента с инструментом, A2A — с другими агентами.
И если всё будет развиваться так, как сейчас — мы получим масштабируемые экосистемы, где агенты умеют пользоваться ресурсами и договариваться друг с другом
Пишем в Gemini — «Найди разработчика, можно удалённо, но с таймзоной около Pacific Bay»
Агент через A2A находит HR-агента HR-агент возвращает список кандидатов Зовется другой Агент — интервью-агент Затем зовется агент для проверки background check кандидатов.
И на выходе получаем самого подходящего кандидата
И это все должно работать без Zapier, специальных API и других склеек / костылей
😎 Почему это важно бизнесу
Больше автоматизации Агенты сами находят друг друга, передают задачи, отслеживают статус.
Быстрее запуск и рост Добавить нового агента должно быть очень быстро и просто
Меньше затрат Меньше разработки и поддержки, так как есть единый стандарт
Гибкость Хочешь заменить блок или протестировать нового подрядчика — просто меняешь агента
Понятно, что пока это все стадия "Для гиков", но уже движение есть. MCP понадобилось пол года, чтобы найти свою аудиторию. Для А2А уже прошло 3 месяца, и оно вроде как все еще растет
🤫 ChatGPT и DeepSeek — В С Ё! На замену им пришла новая нейросеть от китайцев — Kimi K2
Это лучшая нейронка для для кодинга и агентных задач с 1 триллионом параметров в открытом доступе
Вот кратко о том, что она умеет: ➖По уровню мощности — как Claude 4, а также лучше GPT-4.1, DeepSeek v3 и Qwen; ➖Обрабатывает 100 тысяч строк данных за раз и строит крутые визуализации; ➖Создаёт любые игры в вебе — на создание клона Minecraft у Kimi K2 ушла одна попытка, когда Gemini 2.5 Pro потратила 4 дня и 6 попыток; ➖Планирует путешествия через 17 инструментов — от поиска до брони прямо в браузере; ➖Токены стоят в 5 раз дешевле, чем у конкурентов — почти за копейки.
Уже доступна всем и бесплатно — тут (сменить язык интерфейса можно в нижней левой части экрана) 😎 Пока что предлагаю прочитать про битву LLM моделей и узнать мои мысли насчет их конкуренции!
Полезные промпты для вашего бизнеса. Часть 3/3. Валидируем идею через взгляд инвестора
Еще давно писал пост с этими промптами, но сейчас еще раз их открыл и прогнал продукт клиента через эти промпты в ChatGPT + Claude. И опять оказалось очень полезно
Подойдет практически любому бизнесу. Если попробуете, то много инсайтов получите
Валидируем идею через взгляд инвестора 📌 Чтобы понять, а как потенциальные инвесторы могли бы посмотреть на вашу идею или уже существующий продукт
💬 Cам промпт
Я хочу проверить свою идею с точки зрения инвестора. Мой продукт – [описание], а целевая аудитория – [описание ICP из части 1]
Оцени идею по этим 5 критериям
1️⃣ Рыночный спрос – действительно ли это большая проблема, которую хотят решить? 2️⃣ Конкурентное преимущество – чем этот продукт уникален? 3️⃣ Масштабируемость – может ли из этого вырасти что-то крупное или это узкая ниша? 4️⃣ Монетизация – как на этом зарабатываются деньги? Готовы ли пользователи платить? 5️⃣ Исполнение и риски – какие главные риски, которые могут убить этот продукт?
В конце поставь инвестиционный балл (1-10) и скажи, что нужно улучшить, чтобы получить 8+/10
Результат, который я перенес из ChatGPT в Miro
Полезные промпты для твоего бизнеса. Часть 3/3. Валидируем идею через взгляд инвестора ChatGPT, Предпринимательство
📌 Почему это полезно?
Помогает избежать ловушки "продукт без спроса".
Заставляет думать о масштабировании, а не просто о запуске.
Полезные промпты для вашего бизнеса. Часть 2/3. Определяем Jobs to be Done ваших клиентов
Еще давно писал пост с этими промптами, но сейчас еще раз их открыл и прогнал продукт клиента через эти промпты в ChatGPT + Claude. И опять оказалось очень полезно
Подойдет практически любому бизнесу. Если попробуете, то много инсайтов получите
Определяем Jobs to be Done ваших клиентов💫 📌 Чтобы понять, какие существующие работы может закрывать твой продукт для клиентов
Jobs to be Done - это задачи реального или потенциального клиента, которые он хочет решить
💬 Cам промпт
Я хочу лучше понять ключевые задачи пользователей через Jobs to be Done инструмент. Мой продукт – [описание продукта], моя аудитория – [описание ICP из части 1].
Разбей их на три категории 1️⃣ Функциональные задачи (какую практическую работу выполняет продукт?) 2️⃣ Эмоциональные задачи (какие эмоции вызывают решение или нерешение проблемы?) 3️⃣ Социальные задачи (как решение проблемы меняет их статус, восприятие окружающими?)
Затем расставь приоритеты ✅ Какая работа самая болезненная? (Сила боли / Частотность) ✅ Где пользователи готовы платить? ✅ У какой задачи еще нет хорошего альтернативного решения?
Результат 💫
Вот такой результат у меня получился на выходе, после того, как я ответы модели переложил в Miro
Эта же картинка была и в первом посте, потому что эти промпты дополняют друг друга
📌 Почему это полезно
Сужает целевую аудиторию → точный маркетинг и правильные решения в продукте.
Фокусирует ценность → продукт решает реальные боли клиентов.
Избегает ошибок → не строим слишком широкий и бесполезный продукт.
==================
Иногда LLM лучше понимаю промпты на английском, поэтому вот его вариант на английском
💬 Prompt
I want to understand the deepest Jobs to be Done (JTBD) for my target users. My product is [describe product] and my audience is [describe ICP].
Break down their JTBD into three categories: 1️⃣ Functional JTBD (What practical task does my product help them complete?) 2️⃣ Emotional JTBD (What emotions does solving this problem trigger for them?) 3️⃣ Social JTBD (How does solving this problem change how they are perceived by others?)
Then, prioritize them based on: ✅ What’s the most painful job? ✅ Where is the highest willingness to pay? ✅ What job still has't great alternative solution?
В продолжении серии постов про Claude Desktop MCP Servers.
В этом посте расскажу про 2 из 4 серверов, с которыми постоянно работаю
Вот какие MCP сервера подключены у меня
🟢 TickTick — мой таск трекер (на чтение и на запись) 🟢 Notion (на чтение и на запись) 🟢 GitHub (на чтение и на запись) 🟢 Google Analytics 4 (только на чтение)
Какие кейсы с Claude Desktop => Notion есть у меня ⤵️
Claude заполняет мою табличку финансов
Я ему говорю, что и куда сегодня потратил, или где и сколько заработал. А он сам распределяет доход по категориям и создает теги, если нужно
Claude заполняет мою табличку персональных метрик
Тут должна быть картинка, но посты на хабре позволяют вставить только 1 картинку, поэтому ссылкой добавлю
Claude сам создал и управляет моей табличкой для UTM меток
Тут должна быть картинка, но посты на хабре позволяют вставить только 1 картинку, поэтому ссылкой добавлю
Claude имеет доступ к папке, в которой я создаю всеразличный контент. И может редактировать, уточнять содержание или дописывать какие-то блоки по моей просьбе.
Например, для поддержания актуальности своего гайда по ChatGPT я периодически запускаю его внутрь каждой главы и прошу сверить содержание с ситуацией на сегодня через DeepResearch.
Или прощу найти в огромном количестве текста точную строку, где находится эта цитата. Вот ссылка на картинку
Что мне нравится во всех кейсах с ноушеном, что возможности LLM, как и возможности Notion, ограничены лишь моей фантазией, поэтому я постоянно придумываю новые возможности их взаимодействия.
Может у вас тоже есть какие то идеи, как еще можно было бы использовать Notion + Claude Desktop?