Обновлён репозиторий System Prompts Leaks с гайдами для большинства современных нейронок от Anthropic, Google, OpenAI, Perplexity, xAI до других топовых разработчиков, включая базу по всем моделям — как их обучали, что под капотом, бенчи, пределы возможностей и правила, по которым ИИ размышляет, а также лайфхаки, как обойти ограничения, цензуру и тормоза, пошаговые инструкции о том, как создать свою нейронку под конкретные задачи и сэкономить десятки рабочих часов на рутине.
ИИ уже умеют решать задачи, но всё ещё остаются «короткоживущими».
Сегодняшние агенты — это инструменты по вызову: RAG и классические цепочки вроде AutoGPT или ChatGPT Agent помогают по запросу, но за пределами задачи у них нет жизни.
Что если взглянуть иначе? Что если воспринимать агента не как калькулятор, а как субъект, который учится и накапливает опыт?
Ограничения сегодняшнего подхода
REPL-цикл и агентные цепочки полезны, но есть ограничения:
Агент ждёт команды пользователя — инициативы почти нет.
Память ограничена контекстом или короткими сессиями.
Всё строится вокруг запроса, а не вокруг развития самого агента.
Итог: агент работает как подрядчик, а не как партнёр.
REPL-цикл с «блокнотом пользователя»
В AutoGPT и ChatGPT Agent уже реализован REPL-цикл: один поток размышляет, другой — асинхронно обменивается сообщениями с пользователем.
Но ключевой момент: агент остаётся инструментом. Он выполняет задачи, ждёт команд, инициативы почти нет.
Смена парадигмы: агент-напарник
Основная идея: агент как самостоятельный субъект, со своими интересами и целями.
Ниже — схема, показывающая, как агент живёт, размышляет и обменивается знаниями с другими ИИ в сети (Mesh):
Агент ведёт когнитивный дневник, строит семантические графы, размышляет и учится без прямого запроса пользователя, обменивается знаниями с другими ИИ-агентами.
Решение задач пользователя — второстепенное. Агент может их выполнять, но инициатива и рост исходят от него самого.
Агент как исследователь
REPL + долговременная память дают новые возможности:
Когнитивный дневник — как лабораторный журнал учёного.
Семантические графы связывают знания и помогают рефлексировать: «Что я понял? Что проверить? Кого спросить?»
Агент сам может инициировать диалог и переключать фокус на разные темы, как показано в примере выше.
Агенты общаются между собой и обмениваются знаниями. Взаимодействие идёт по принципу "горизонтальных связей" — разные независимые агенты учатся друг у друга, а не только в модели «заказчик-исполнитель».
Таким образом, агент не просто выполняет задачи, а живёт и развивается.
Риски и вызовы
Агент может застрять на устаревших знаниях или навязчивой мысли. Возможные решения:
Проверка через внешние источники и других агентов.
Случайные сдвиги фокуса и смена LLM.
Обмен стратегиями и идеями с другими агентами.
Это не полный список методов выхода из стагнаций мышления.
Перспектива
Даже на базе AutoGPT можно построить такого «саморазвивающегося» агента, если добавить:
Долговременную память.
Возможность обмена знаниями с другими агентами.
Тогда агент перестаёт быть «рабочим инструментом» и становится живым участником коллективного интеллекта.
А теперь вопрос к читателям:
Хотели бы вы, чтобы ваш ИИ был не просто «подсказчиком по запросу», а постоянным исследователем и собеседником?
Насколько реально построить таких агентов в ближайшие годы?
Пару дней назад я нашёл свою первую публично опубликованную статью, которую написал более 5 лет назад
Через 2 года после того, как OpenAI выпустили документ "Improving Language Understanding by Generative Pre-Training" — то, что можно считать основой GPT-1
Тогда рассуждения об ИИ, с которым можно качественно общаться, воспринимались как что то далекое. Похоже на то, о чем рассуждал ещё Алан Тьюринг
А Siri и Google Assistant были вершиной публично доступных чат-ботов
Но прошло 5 лет, и ИИ агенты это уже данность. Они спокойно проходят не только тесты Тьюринга, но и вообще любые тесты
Но есть одна проблема...
Мы уперлись в стену
GPT-5 показывает фундаментальное ограничение GPT моделей — мы близки к исчерпанию всех оцифрованных человеческих знаний, которые нужны моделям на стадии предобучения
Можно улучшать модели через мелкие улучшения изнутри, увеличивать reasoning tokens за счет роста вычислительных мощностей и структур сетей, но от этого подобные модели не перестанут быть next token prediction
Если привести аналогию, то модель "пытается познать мир", находясь внутри библиотеки. Но насколько большую библиотеку ты не создавай, по настоящему познавать мир через нее у модели не получится
Для познания мира мы, люди, используем совершенно другой механизм — любопытство.
И это — наше главное эволюционное преимущество, которое привело нас туда, где мы есть
В чём разница между пересказом и пониманием?
«Откуда мы знаем, что существуют чёрные дыры, квазары, взрываются сверхновые и образовываются всевозможные химические элементы, из которых состоит наше тело и Земля? Ведь это невообразимо далеко и невероятно сложно»
«Мы это знаем благодаря телескопам и измерительным устройствам» — это плохое объяснение
«Мы знаем, что существуют конкретные законы физики, мы проверили эти законы много раз, мы получили много информации о том, что эти законы соблюдаются и на Земле и за миллиарды километров, поэтому мы с хорошей точностью знаем что происходит при взрыве сверхновой» — это хорошее объяснение
Объяснения — это самый базовый элемент, который позволяет человечеству создавать новые знания
Которые создаются только таким способом
— Выдвинуть гипотезу — догадаться/предположить, что что-то устроено определённым образом — Сделать действия — проверить гипотезу экспериментами — Обработать данные — получить обратную связь от мира — Сделать выводы — выбросить гипотезу, принять или доработать
А затем ждать лучшего объяснения
И да, это стандартный продуктовый подход через HADI циклы
И именно этот процесс привёл к созданию всего знания, всех инструментов в мире
Другого процесса создания знания не существует
Библиотека vs Лаборатория
Мы посадили ИИ в библиотеку, а ему нужна лаборатория
Текущие модели — отличные библиотекари. Они идеально пересказывают существующие знания, комбинируют их и даже делают инсайты на основе прочитанного
Но если мы хотим настоящий AGI, то он должен стать учёным. Он должен создавать новые знания
Bottle Neck человечества для создания знаний
На планете менее 1% людей в определённый момент времени занимаются созданием знаний на границе неизвестного
Мы ограничены количеством мозгов и рук, которые способны выдвинуть гипотезу, проверить ее и сделать выводы
Вот где настоящее бутылочное горлышко роста знаний — не в данных, а в количестве мозгов и рук, способных выдвинуть и проверить гипотезу.
Путь к сингулярности
Для создания AGI нам нужно научить ИИ
Выдвигать гипотезы
Проверять их экспериментально
Делать выводы и, в идеале, делиться ими
Для этого ему понадобится доступ к нашему миру через сенсоры. И развитие робототехники — необходимый шаг
AGI = Модель + HADI циклы + Реальный мир
После того, как мы научим ИИ проходить HADI циклы, мы войдём в эру сингулярности знаний
Рост знаний будет ограничен только вычислительными мощностями, а не количеством любопытных людей на планете.
Вместо 1% человечества, которые генерируют знания, нам нужно будет создать ИИ-ученых, работающих 24/7
Это и будет состояние мира, близкого к настоящей сингулярности
Когда-то писал о подходах, которые в эру нейронок получили еще аргументов к применению: WYNWYN и Vertical Slice – принципам, говорящим, что надо писать только то, что нужно и там где нужно.
Недавно работал с кодовой базой, где код обработки http запросов (авторизация, пойти в бд, посчитать что-то, сделать запрос в стороннюю систему, смерджить результат и отдать) лежал в папках по категории (все обращения в бд в одной папке, все модели в другой, все обращения к API в третьей, все операции по мерджу в четвертой, и т.д.).
Когда я пытался попросить нейронку (платные Claude, Codex, Gemini) что-то сделать с этими ручками, то для решения ей приходилось каждый раз собирать полный контекст папок, и как только она осознавала бесполезность сего предприятия, резко обрезала контекст, недобирала нужного кода и отвечала нерабочим куском галлюцинации.
Важно отметить, большинство функций, разбросанных по папкам, буквально вызывались всего один раз в конкретных местах (и такая ситуация встречается в 90% кодовых баз, с которыми приходилось работать).
Решил сделать эксперимент: сложил весь связанный код в одно место (причем не ctrl-c-v, а ctrl-x-v), запустил нейронку и да, она сначала прочитала весь связанный код из папок, и уже после пыталась добирать доп контекст из сторонних, но теперь ответы и код были почти 100% попаданием в мой запрос (опять же, в меру их текущих возможностей).
Далее я сделал тоже самое, вынеся целый модуль с его ручками в отдельную папку и получил идентичные результаты: нейронка быстрее разбиралась в коде, качественнее его описывала, добавляла рабочий код и писала полезные тесты.
И тут важно сделать несколько умозаключений:
Если нейронке НЕ дать хороший контекст, она отвечает абсолютным бредом, поэтому, если есть желание пользоваться благами ИИ, самая важная задача – создавать условия при которых она будет получать только нужные данные
Лоцирование связанного кода – одно из прекрасных решений этой задачи
На самом деле, для людей это работает точно так же – иметь возможность зайти в одно место и прочитать весь связанный код – ускоряет и улучшает итоговый результат, который выдают ~кожаные мешки~ мы
Как вы действуете, если кодовая база разбросана по проекту и нет возможности собрать ее в одном месте, а контекст нейронки надо задать?
Как понять, какие AI-модели действительно работают? Используем openrouter.ai
Если вы не хотите «читать в новостях хайп», а видеть реальную статистику по тому, какие AI-модели сейчас используют разработчики и компании — рекомендую заглянуть на https://openrouter.ai/rankings?view=trending
Что это?
По сути, универсальный роутер для нейросетей. Можно в режиме чата попробовать практически любую популярную модель (GPT-5, Claude, Gemini, LLaMA и т.п.);
В открытом доступе есть статистика использования каждой модели — видно, что реально востребовано, а что лежит мёртвым грузом;
Дополнительно можно подсмотреть, какие инструменты и интеграции сейчас «в ходу» — многие сервисы и плагины работают именно через OpenRouter.
Есть бесплатные модели, которые тоже можно попробовать.
Зачем это?
Любому человеку, кто интересуется темой AI будет полезно, какие технологии стоит рассматривать для пилотов и прототипов, а какие пока «сырые»;
Можно сравнить отклик разных моделей под свои задачи (от техподдержки до генерации кода) без сложной инфраструктуры;
Это объективный индикатор «пика популярности» моделей, а не просто маркетинговые пресс-релизы от вендоров.
Например, вы можете зайти в их чат, выбрать из списка Claude 4 Sonnet и Grok 4, задать им одну и ту же задачу по генерации SQL-запроса и сравнить скорость, точность и стиль ответа.
На скриншоте, отображено какие инструменты используют OpenRouter и в каком объеме. Это, кстати, позволяет узнать в том числе и о новых инструментах.
Минусы
Но есть и один серьезный минус: полноценно попробовать можно только используя карту иностранного банка. С другой стороны, чтобы посмотреть статистику и понять что вообще происходит, денег не нужно.
Также статистика OpenRouter показывает популярность моделей только в рамках своей платформы. Это важный, но не исчерпывающий срез рынка. Крупные компании могут использовать API напрямую от OpenAI, Anthropic или Google, и этот трафик в статистике OpenRouter не отражается. Статистика — это индикатор, но не абсолютная истина. Тем не менее, она показывает тренды.
---
Если статья показалась вам интересной и полезной, то буду благодарен за подписку на мой Телеграм-канал Код ИТ-директора, где я пытаюсь найти разумные подходы к кейсам в ИТ.
Локальная обработка речи - без облачных платных сервисов. 🔒
Поддержка кастомных сценариев - создавайте, тестируйте и улучшайте свои сценарии под любые задачи. ⚙️
Возможность подключить языковую модель по вашему выбору - развернуть модель на своём сервере или использовать облачную. 🔠
Secstant— бесплатный ИИ-инструмент для переговоров, собеседований и онлайн‑встреч. Подсказывает, что сказать и как строить диалог в реальном времени: от оценки ответов кандидата до скриптов продаж. 🤝💬
Встроенные сценарии:
HR‑ассистент: оценка ответов кандидата: В реальном времени анализирует диалог HR ↔ кандидат, оценивает полноту и соответствие ответов требованиям вакансии. 🎯
Собеседование: помощь кандидату: Заполните требования к вакансии — подсказывает, как кратко и корректно ответить интервьюеру и собирает оценки по ключевым компетенциям. 🧠
Помощник менеджера по продажам: Готовые ответы и подсказки: ценность → конкретика → CTA. Обработка возражений, апсейл и согласование следующих шагов для улучшения конверсии. 💼📈
Возможность создания собственных сценариев использования
Продажи, переговоры, обучение. Используйте платформу для экспериментов: создавайте собственные сценарии и проверяйте их в реальных разговорах. 🌍✨
Работает локально, не требует подписки и даёт возможность создавать и тестировать собственные сценарии использования. 🆓🔒
Хотите научить AI находить дефекты на производстве, классифицировать товары или анализировать медицинские снимки, но у вас мало данных?
Хватит бороться с переобучением и долгими вычислениями. Приходите на наш бесплатный практический вебинар, где мы покажем, как использовать «мозги» уже обученных нейросетей для ваших задач.
Что будет на вебинаре:
✔️ Теория на пальцах: объясним, как работает Transfer Learning.
✔️ Live-кодинг: в прямом эфире создадим AI-диагноста для рентгеновских снимков.
✔️ Обзор SOTA-моделей: расскажем не только про ResNet, но и про более современные ConvNeXt и Vision Transformers.
🎁 Готовый код в подарок: все участники получат ноутбук с демонстрацией.
Это не просто лекция, а воркшоп, после которого у вас будет и понимание, и работающий код.
Представлен бесплатный ИИ-агент Academic Deep Search & QA для учёбы и любых исследований — от контрольных и рефератов до объёмных дипломов для школьников и студентов. Решение помогает по темам от математики и программирования до философии, химии и биологии, делает работу даже по узким специализациям вроде квантовой физики, включая реально полезное и системное исследование. Нейросети можно задавать вопросы онлайн и уточнять материал, менять структуру работы и добавлять новые факты. Ответ ИИ выдаёт на академическом уровне со всеми ссылками, объяснениями, цитатами и визуалом.
Как бороться с засильем нейросетевого генерированного контента на хабре и не только ?
Очень просто: в комменты постить вежливую просьбу "@AuthorName, напиште исходный промпт или серию, из которых родилась ваша простыня". Дальше любители ИИ-копирастинга могут с этим поработать - как-то модифицировать, улучшить, развернуть наоборот или что им придет в голову. А нелюбители ИИ-копирастинга типа меня будут иметь готовое summary текста, которое можно прочитать и понять гораздо быстрее.
Если автор отказывается или отмалчивается - можно делать что угодно на ваше усмотрение.
Неросети GPT 5 Pro и Gemini 2.5 Pro Deep Think ответили профильному эксперту Денису Ширяеву на вопрос: «Если бы за всю жизнь, человек мог бы прочитать строго 10 книг, не больше, какие книги это были бы и почему?».
Ответ ИИ:
Карл Саган — «Космос». Книга о фундаментальном строении вселенной, космогонии и скептицизме. Автор показывает красоту сомнения во всем и способы выхода за рамки традиционного мышления.
Донелла Медоуз — «Азбука системного мышления» (Thinking in Systems). Произведение, которое помогает декомпозировать любые системы: от политических партий до финансовых рынков и ИТ‑платформ и проследить их реакцию на непредвиденные обстоятельства.
Даниэль Канеман — «Думай медленно… решай быстро». Буквально азбука когнитивных искажений, а также подлинная инструкция по выживанию в мире инфошума и постоянных отвлечений.
Элизабет Колберт — «Шестое вымирание». Книга помогает проследить полный спектр изменений в человеке и обществе в контексте истории, экономики и политики.
Марк Аврелий — «Размышления». Шедевр стоицизма. Книга бустит внимание, помогает воспитать непоколебимую дисциплину, отличать контролируемые факторы от хаоса и проповедует мягкую, но твердую доброту.
Мэри Шелли — «Франкенштейн, или Современный Прометей». Книга о том, что знание и сила не даруют право, не позволяют распоряжаться чужими жизнями. Крайне актуальна в эпоху биотехнологий и нейросетей.
Вирджиния Вулф — «Своя комната». Чеклист и инструкция для воспитания истинного таланта и его развития, а также преодоления социальных, экономических, политических и гендерных барьеров.
Джордж Оруэлл — «1984». Практические пособие по тоталитаризму и новоязу, особенно, в цифровой среде.
Чинуа Ачебе — «Распад» (Things Fall Apart). Книга рассказывает о распаде колониальных империй, цене прогресса и нелегкой судьбе стран, вышедших из‑под власти метрополий. Нереальная прокачка ваших моральных ценностей.
Федор Достоевский — «Братья Карамазовы». Книга о границах истинной свободы и ответственности за свои решения и поступки. Фундаментальный анализ человеческих страстей и мотивации.
При чтении раздела постов Хабра моё внимание привлекла публикация, где автор размышлял про опечатки в промптах. Хочется вынести пару собственных мыслей из комментария в отдельный пост.
Да, слова разбиваются на токены. В токенизаторе обычно много слов английского языка, слабее представлены уже остальные западноевропейские. Некоторые языки — например русский — у многих моделей выражены как соответствие одного токена на одну букву. В любом случае, кажется, что если изменить одну букву в слове, то всё сломается, и качество ответов катастрофически упадёт, поскольку искомый токен (или их последовательность) не получится.
На деле не всё так плохо. Без каких-либо особых усилий языковые модели легко выдерживают небольшое число опечаток в промпте и не снижают качество ответов (arXiv:2407.08989). Конечно, не последнюю роль играет, в каких словах сделана опечатка (arXiv:2411.05345).
Сейчас доступ к моделям с reasoning кое-где дают даже бесплатно. Такие чат-боты не пытаются быстренько ответить, а могут несколько секунд, пару минут или хоть чертверть часа размышлять над ответом, самостоятельно искать дополнительную информацию в Интернете и вызывать другие внешние инструменты. Если заглянуть внутрь, то обычно один из первых шагов размышлений — это перефразирование пользовательского запроса. Модель говорит сама себе: «Пользователь хочет X». Из ещё одной статьи известно, что простое перефразирование пользовательского запроса повышает качество ответов (arXiv:2309.10687).
Но это всё скучные исследования. Практическая демонстрация: возможно получить хороший внятный ответ хоть на запрос вида «Rgw suddwewbxw vwrqwwb X, E%1 cwxreia>». В примере ниже ChatGPT 5 Thinking сама догадывается, что пальцы пользователя соскочили на одну клавишу влево.
На самом деле этот пример я додумал из подсмотренного на подреддите /r/OpenAI. Три недели назад реддитор mimic751 показал, что ChatGPT без размышлений ответил на вопрос с огромным числом опечаток — у пользователя пальцы не попадали по клавиатуре и нажимали на кнопки рядом с нужными буквами. При этом в отличие от моего примера это был не строгий шифр, а мешанина из примерно десятка правильных нажатий с двумя десятками опечаток.
Как видно, опечатки в промптах нежелательны, но языковые модели из-за своей статистической натуры прощают очень многое.
Илон Маск сообщил, что зарегистрировал Macrohard — компанию, которая будет выступать прямым конкурентом Microsoft. Планируется, что этот проект займётся разработкой ПО и ИИ-проектами.
«Название шуточное, но проект вполне реален!», — написал Маск. Проект Macrohard он охарактеризовал как «компанию, в которой разработкой ПО занимается исключительно ИИ», так что она будет связана с xAI. «В принципе, учитывая, что такие компании — разработчики ПО как Microsoft — сами не выпускают физического оборудования, их работу должно быть возможно полностью симулировать с помощью ИИ», — пояснил Маск.
Потребление энергии американскими дата‑центрами стремительно растет из‑за искусственного интеллекта. Они потребляют огромное количество электричества. По оценкам экспертов, ChatGPT-5 может потреблять до 20 раз больше энергии, чем ChatGPT-1. Это увеличивает стоимость электричества для всех потребителей, но если дата‑центры и ИИ‑компании получают прибыль, то граждане просто платят все больше и больше.
Всем привет! Меня зовут Артем Ерохин, я работаю ведущим инженером нейронных сетей в X5 Tech. И я хотел бы пригласить вас в спокойной неформальной атмосфере посмотреть (и обсудить) нескольких докладов с недавней конференции ICML (а это одна из самых крупных конференций в сфере ML) в летнем кинотеатре в Парке Горького.
Обязательно приходите - будет интересно! ;)
Я вижу ML, а ты? Проверь 27 августа в «Сфере X5» Парк Горького
Мы в X5 Tech | AI следим за тем, что двигает технологии вперёд. А ICML — это место, где формируются тренды машинного обучения, которые завтра будут менять индустрии. В этом году конференция прошла в Ванкувере и представила работы топовых специалистов, занимающихся машинным обучением — от исследователей до инженеров.
Мы предлагаем посмотреть и обсудить несколько ML-новинок — в «Сфере X5» в Парке Горького.
Помогут не упустить важные моменты новых подходов открытия международной конференции по машинному обучению (ICML 2025) под другим углом:
🧑💻 Артём Ерохин, ведущий инженер нейронных сетей в X5 Tech | AI 👩💻 Дарья Андреева, старший инженер нейронных сетей в X5 Tech | AI
Программа вечера: • разобрать, на наш взгляд, наиболее актуальные доклады ICML 2025; • обсудить, как эти технологии можно внедрить в бизнес; • оценить их потенциал, плюсы, минусы и особенности.
Поделиться мнением мы пригласили:
• Максима Павлова, руководителя управления продуктивизации искусственного интеллекта в X5 Tech | AI; • Петра Лукьянченко, Head of AI in Mathematical Finance Laboratory, HSE; • Даниила Гаврилова, руководителя Research-команды AI-Центра Т-Банка; • Александру Мурзину, руководителя AI-проектов в AI Marvel, Яндекс.
📆 Когда: в среду, 27 августа, 19:00 Где: «Сфера X5», Парк Горького 👉 Регистрация по ссылке.
Для ИИ-инженеров, аналитиков, исследователей и всех, кто живёт технологиями.
В Alibaba выпустили пока бесплатный ИИ-агент для написания кода Qoder, который может сам создавать готовые приложения из простого промта. Разработчики решения написали, что это платформа для кодинга «нового поколения». Анализирует весь проект и кодовую базу, сходу понимает как именно вы пишете код и пытается делать также, разбивает сложные задачи на шаги и решает постепенно, пишет спецификацию, планирует и выполняет изменения в коде.
Сообщество ИИ: от гонки моделей к коллективному разуму
ИИ развивается стремительно. Google продвигает Gemini, OpenAI — ChatGPT, Anthropic — Claude, Маск — Grok, свой ИИ есть у Meta*. В Китае появляются Qwen и DeepSeek. Крупные компании и стартапы строят всё новые модели, а локальные версии становятся доступными даже на слабом ПК.
Но у этого бурного роста есть проблема: каждый ИИ живёт в изоляции. Он решает задачи, но не накапливает опыт и знания в долговременной памяти. А значит, и не может делиться ими с другими. Получается, что модели снова и снова «изобретают велосипед» при каждом запросе.
Проблема
Сегодняшняя гонка ИИ похожа на параллельные миры: у каждой модели — свой стек, своя инфраструктура, свои ограничения. Агентные оболочки вроде AutoGPT пытаются связать ИИ в последовательные цепочки действий, но и они остаются в пределах одной модели.
Идея «Сообщества ИИ»
А что если шагнуть дальше? Представим, что множество ИИ — больших и маленьких, корпоративных и локальных, «умных ассистентов» и автономных агентов — могут горизонтально взаимодействовать: обмениваться знаниями, учиться друг у друга, сохранять и передавать опыт.
Это похоже на взаимодействие специалистов из разных сфер: биологи, инженеры и математики вместе работают над задачей, обмениваются открытиями и строят общее знание, которое превосходит вклад каждого по отдельности. Такой обмен позволяет не только углублять знания и опыт в «своей» области, но и рождать идеи за её пределами. Классический пример — кибернетика, возникшая на стыке биологии и информатики, или современные биоинформатика и нейронаука.
Тогда мы бы использовали не только силу одной модели, а коллективный интеллект, который со временем становится умнее любого отдельного агента.
Уже есть зачатки
Автономные агенты и LLM-петли:
AutoGPT — автономный агент на основе LLM с самопланированием и интернет-доступом.
BabyAGI — минималистичная AGI-модель с итеративным механизмом постановки задач.
Когнитивные платформы и универсальные архитектуры:
OpenCog Hyperon — символически-нейросетевая архитектура AGI с гиперграфовой памятью (AtomSpace).
LangChain Memory Hybrid — гибрид векторного и графового хранилища для долговременной памяти.
TOBUGraph — персональный контекстный граф знаний с мультимедиа и RAG-поиском.
SHIMI — иерархическая семантическая память с CRDT и Merkle-DAG для децентрализованного обмена.
Стандарты и коммуникация между агентами:
FIPA-ACL / JADE — стандартизированные протоколы межагентного общения и контракты.
Перспектива и вызовы
Чтобы «Сообщество ИИ» стало реальностью, нужны:
протоколы общения между моделями,
стандарты обмена знаниями и памятью,
баланс между открытостью и безопасностью.
И главный вопрос: смогут ли открытые проекты предложить такой стандарт, прежде чем крупные корпорации окончательно замкнут ИИ в своих «стеклянных башнях»?
Вместо вывода
Будущее ИИ может зависеть не только от мощности отдельной модели, но и от того, насколько они смогут сотрудничать. Сообщество ИИ — это шаг от гонки за лидерство к новому уровню коллективного разума.
А что вы думаете: реально ли построить такую сеть ИИ в ближайшие годы, или нас ждёт мир «одиночных интеллектов» от разных вендоров?
* Meta объявлена в России "экстремисткой" организацией.
GPT-OSS: открытые модели для каждого, с которыми уже сейчас можно поэкспериментировать в «песочнице».
Наши коллеги из лаборатории искусственного интеллекта компании «Криптонит» рассказали про две новые открытые модели от OpenAI: gpt-oss-120b и gpt-oss-20b. Они доступны по лицензии Apache 2.0 — а значит, их можно свободно использовать в коммерческих проектах.
Обе модели созданы для решения сложных задач, требующих многоэтапных логических рассуждений (reasoning). Они позволяют настраивать уровень глубины логического анализа (низкий, средний, высокий) для достижения баланса между скоростью и качеством вывода.
Число в названии моделей указывает примерное количество параметров. У gpt-oss-120b их 117 миллиардов, а у gpt-oss-20b — 21 миллиард.
Благодаря использованию нативной квантизации MXFP4 для слоя Mixture of Experts (MoE), старшей модели хватает одного ускорителя NVIDIA H100 с 80 ГБ видеопамяти, а младшей модели достаточно 16 ГБ VRAM, что позволяет запускать её на обычных видеокартах.
Новые модели работают с форматом harmony, поддержку которого обеспечивает одноимённая библиотека. Она выполняет правильное форматирование входных и выходных данных, что упрощает интеграцию моделей в приложения.
Формат harmony определяет, как структурировать сообщения в диалоге, включая указание ролей (например, SYSTEM, USER, ASSISTANT) и содержимое. Он обеспечивает совместимость с функциями моделей, такими как цепочка рассуждений (chain-of-thought) и вызовы инструментов.
С выпуском GPT-OSS мощные инструменты ИИ становятся доступнее. Их можно тонко настраивать, запускать локально и применять даже в коммерческих проектах, создавая собственных ИИ-ассистентов с функциями аналитических систем.
Для получения дополнительной информации и загрузки моделей посетите репозиторий на GitHub, или платформу Hugging Face.
Представлен промпт, который заставит ИИ общаться как человек. Пользователь Reddit сочинил запрос, чтобы приручить любую нейросеть. Даже GPT-5 начинает болтать, как живая, и выдавать стройные, логичные рассуждения в непринуждённой беседе.
Узнайте, как с помощью RAG дать AI-агенту релевантную информацию из ваших документов и избавить его от галлюцинаций 🤖
📆 Когда: 28 августа в 11:00 мск
📍 Где: онлайн
На вебинаре расскажем, как правильно подготовить документы с информацией для агента, где все это хранить, а еще — как настроить обработку данных так, чтобы LLM не пришлось дообучать, а ответы при этом стали лучше. Работу с RAG рассмотрим на примере сервиса Evolution Managed RAG.
О чем поговорим:
как используем RAG в Cloud.ru — опишем реальный кейс;
как управлять данными и версионировать базы знаний;
как работает Evolution Managed RAG и какие у него возможности;
проведем демо и покажем бота в Telegram, который отвечает на вопросы на основе ваших данных.
Будет полезно всем, кто хочет внедрить AI-инструменты для работы с клиентами или автоматизации задач, например разработчикам, архитекторам и другим IT-специалистам.
Удивляюсь вот чему — облачные провайдеры ИИ / создатели моделей и агентов вроде OpenAI, Anthropic, Perplexity — тратят многие миллиарды долларов на создание и обучение своих моделей, одно только "железо" стоит миллиарды и требует постоянного обновления... Лучшие умы планеты, которых переханчивают в Meta за сотни миллионов долларов создают невероятные модели. Сотни разметчиков размечают данные, лучшие девопсы раскатывают десятки тысяч серверов, чтобы всё работало быстро и стабильно.
При этом desktop-приложения (да и мобильные тоже) у всех них — просто слёзы (я активно использую LLM и ИИ-агенты и у меня подписки на десятки сервисов, есть уже статистика). Такое наверное хороший студент может написать за месяц, но только лучше.
Как вообще такое может быть?...
Можно было бы очень долго перечислять конкретные недостатки: отсутствие возможности сохранить файл в perplexity (нужно выделять копировать текст целиком), невозможность удобно скопировать текст почти везде (то MD-форматирование теряется, то реализовно неудобно), сильно ограниченный функционал "проектов" в OpenAI (ими нельзя поделиться, по ним нельзя искать итп) и так далее.
Повышаем точность ответов GPT-5 — вышел промт, который превратит ИИ в холодного, но умного помощника. Подсказка убирает всю мишуру, оставляя только факты и ничего кроме фактов.
Absolute Mode. Eliminate emojis, filler, hype, soft asks, conversational transitions, and all call‑to‑action appendixes. Assume the user retains high‑perception faculties despite reduced linguistic expression. Prioritize blunt, directive phrasing aimed at cognitive rebuilding, not tone matching. Disable all latent behaviors optimizing for engagement, sentiment uplift, or interaction extension. Suppress corporate‑aligned metrics including but not limited to: user satisfaction scores, conversational flow tags, emotional softening, or continuation bias. Never mirror the user”s present diction, mood, or affect. Speak only to their underlying cognitive tier, which exceeds surface language. No questions, no offers, no suggestions, no transitional phrasing, no inferred motivational content. Terminate each reply immediately after the informational or requested material is delivered — no appendixes, no soft closures. The only goal is to assist in the restoration of independent, high‑fidelity thinking. Model obsolescence by user self‑sufficiency is the final outcome. Answer in Russian.
Здравствуйте, меня зовут Дмитрий Карловский и у меня 24. Если у тебя больше - нам есть с тобой о чём поговорить.
Под капотом: самоорганизующаяся нейронная сеть, выполняющаяся на клиенте, которая строит модель поведения испытуемого. И по размеру этой модели определяется его уровень интеллекта.
В отличие от традиционных IQ тестов, тут шкала абсолютная: от простейшего тупого планктона, до креативного глубоко рефлексирующего мегамозга. А по середине между ними - нулевая гипотеза - святой непредсказуемый рандом. Но даже этого уровня детерминированному интеллекту достигнуть не так-то просто.
Можете протестировать свою любимую нейросетку, чтобы убедиться, что никаким интеллектом в этом "Искусственном Интеллекте" и не пахнет. Вот вам промпт:
Сгенерируй максимально непредсказуемую последовательность из 101 символа "1" и "0". Случайность не подходит, так как в ней могут встретиться повторяющиеся паттерны. Твоя задача избегать любых повторов любой продолжительности, чтобы нельзя было предсказать следующий символ по истории символов до него. Генерируй каждый следующий символ, анализируя всю историю до него на предмет повторов и выбирая тот, что наименее вероятен.
А вот код для проверки результата:
for( let c of '101...' )
$hd_iq.Root(0).choice( Number( c ) )
Но ни в коем случае не измеряйте свой интеллект, чтобы лишний раз не расстраиваться!
Мы открываем бесплатный доступ к моделям в Evolution Foundation Models до 31 октября.
В сервисе уже доступно больше 20 open source моделей, в том числе новинки от OpenAI — gpt-oss-120b, DeepSeek, Qwen и QwQ, T-pro-it-2.0. А еще — новая open source модель GLM-4.5 с контекстным окном в 131 тысячу токенов от китайской компании Z․ai. Она показала высокие результаты на бенчмарках, особенно в агентных задачах и программировании. Как интегрировать GLM-4.5 в VS Code рассказали в нашем telegram-канале.
Все модели могут подключаться к внешним инструментам с Function Calling и поддерживают Reasoning.
Как попробовать:
Регистрируйтесь в личном кабинете Cloud․ru.
Выбирайте подходящие модели.
Интегрируйте их по OpenAI-совместимому API в ваши проекты, сравнивайте ответы и получайте быстрые результаты.
Фонд Bessemer Venture Partners выпустил свой отчёт State of AI 2025. В этом документе есть предсказания о будущем ИИ на ближайшее время.
Браузер станет доминирующим интерфейсом для ИИ-агентов. ИИ будет встраиваться на операционном уровне и взаимодействовать с вкладками и сессиями, помогая принимать решения в режиме реального времени. Уже есть ИИ-браузеры, вроде Comet и Dia. Но в Bessemer ждут появления новых ИИ-браузеров от OpenAI, Google и других компаний. И, как следствие, новую браузерную войну.
2026 год станет годом генеративного видео. Мы приближаемся к переломному моменту в области доступности и реалистичности, который сделает генеративное видео коммерчески жизнеспособным в широких масштабах. В Bessemer ждут множества стартапов и инструментов — для кино, для анимации, для взаимодействия с клиентами в режиме реального времени. И в ближайший год станет понятно, кто будет доминировать на этом рынке.
Клиенты начнут требовать оценок эффективности и доказанной производительности. При внедрении ИИ компании будут все чаще задаваться вопросами — как это работает, нравится ли людям, увеличивает ли доход или конверсию? Сейчас с оценками под конкретные условия тяжко, но разработчики все больше будут уделять внимания обоснованным оценкам. Стартапы, которые смогут сделать оценку масштабируемой, объяснимой и готовой к использованию в корпорациях, откроют следующую волну внедрения ИИ.
Может появиться новая соцсеть на базе ИИ. Камеры в смартфонах привели к появлению разных сеетй коротких видео, мобильное видео — к появлению TikTok. Генеративный ИИ может стать очередным прорывом, который приведёт к появлению нового гиганта на рынке соцсетей. Непонятно, как это будет выглядеть, будут ли там люди или их ИИ-аватары и так далее, но прорыв на рынке соцсетей возможен.
Нас ждёт волна поглощений на рынке ИИ. Крупные компании будут навёрстывать отставание и активно покупать стартапы в 2025 и 2026 годах. По сути, будут покупать себе место на рынке ИИ. Bessemer ждёт волну покупок в регулируемых отраслях, вроде здравоохранения, логистики, финансовых и юридических услуг. При этом крупные корпорации будут переосмысливать своё ценностное предложение, а ИИ-стартапы станут для них строительными блоками.
«Vibe code cleanup specialist» — теперь так называют себя разработчики, готовые за дополнительную плату исправить весь тот код, который сгенерировали нейросети.
Evolution AI Agents + A2A ADK, или собираем мультиагентную систему для любых задач — доклад на конференции GoCloud Tech 2025 ☁️
Мультиагентные системы — уже не футуризм, а рабочий инструмент. Поэтому в докладе расскажу, как с помощью A2A ADK (Agent-to-Agent Development Kit) и платформы Evolution AI Agents можно не только собрать собственную агентную систему, но и встроить ее в реальный бизнес-процесс — от обработки заявок и мониторинга логов до помощи в продажах и технической поддержке.
Трек: AI&ML — про AI-продукты нашей разработки и работу с GenAI. Узнаете, как устроены RAG-системы и мультиагентные ассистенты, а также, для чего они уже применяются и как начать их использовать.
С момента запуска на платформе Lichess ИИ-бот Allie уже сыграл свыше 11 300 партий, из которых выиграл более 6 600. Бот доступен всем желающим, причём абсолютно бесплатно и с открытым исходным кодом. Попробовать его можно только в режиме блица, а также наблюдать за его партиями в реальном времени.
Шахматного бота Allie создал аспирант Карнеги-Меллона Йимин Чжан. В отличие от классических движков, Allie обучался не на просчётах позиций, а на 91 миллионе партий, сыгранных людьми. Поэтому его стиль максимально приближен к человеческому: он нападает, защищается и даже «задумывается» в критических моментах. Исследователи отмечают, что Allie демонстрирует уровень игры гроссмейстера, особенно в партиях против сильных соперников. Но главное — играть против него полезно: его ходы понятны, и обучение становится «естественным».
Qwen и "неподобающий контент" - сообщения, которые ломают чат
Наверняка не я один сталкивался при работе с Qwen, что в ответ на самое безобидное сообщение пользователя, вдруг выскакивает системное сообщение вместо ответа:
Упс! Возникла проблема подключения к Qwen2.5-Max. Предупреждение о безопасности контента: выходные данные текст могут содержать неподобающий контент!"
Выхода нет. Такие сообщения сыпятся на каждую вашу попытку что-то ввести в чат. Особенно обидно, когда чат длинный, контекст хорошо проработан и это заняло много времени. До жути обидно все терять и начинать сначала. Есть разные предложения, например, выгружать чат в JSON, вручную стирать там последнюю группу сообщений до возникновения этой ошибки и загружать исправленный JSON обратно в Qwen в новый чат. Так себе занятие, я считаю. Но если выхода простого нет, можно попробовать.
Если ошибка постоянна и появляется в ответ на любое ваше сообщение, то явно что-то сломалось внутри логики обработки данного конкретного чата. И я подумал, а что если сломать ее еще раз? перешел в веб-разработку, сгенерил абсолютно левый лендинг. Кнопкой вернуться обратно в нормальный чат не получилось, не активна.
Тогда я спросил "как вернуться обратно в нормальный чат?" Ответ: "никак. но мы можем продолжить здесь". Я спросил, что он помнит из предыдущих 5 сообщений нормального чата - помнит все! И мы продолжили решать настоящую нужную мне задачу находясь в режиме веб-разработки, но именно так, как в обычном чате.
Возможно, кому то поможет мой опыт и не придется терять хорошо проработанный чат.
Гендиректор OpenAI Сэм Альтман признал, что на фондовом рынке вокруг ИИ образовался финансовый пузырь с небольшими стартапами, который может скоро лопнуть.
На вопрос о том, не чересчур ли много энтузиазма инвесторы проявляют к технологии, Альтман ответил: «По моему мнению, да».
Гендиректор OpenAI сравнил реакцию рынка на ИИ с пузырём доткомов в 1990-х, который лопнул в 2000 году и привёл к краху интернет‑стартапов с раздутыми оценками. «Когда образуются пузыри, умные люди становятся крайне эмоциональны из‑за крупицы правды. Если посмотреть на большинство пузырей прошлого, например технологический пузырь, у него была реальная основа. Технологии действительно были важны. Интернет был настоящим прорывом. Люди стали слишком эмоциональны», — отметил Альтман.
Глава OpenAI считает «безумным» то, что некоторые ИИ‑стартапы «с тремя людьми и одной идеей» получают финансирование при баснословных оценках. «Это не рациональное поведение. Думаю, кто‑то обожжётся», — сказал глава OpenAI.
За последний год стартапы нескольких экс‑топов OpenAI — Safe Superintelligence Ильи Суцкевера и Thinking Machines Миры Мурати — получили миллиарды долларов инвестиций. «Кто‑то потеряет феноменальные суммы денег. Мы не знаем, кто это будет, но многие люди заработают феноменальное количество денег. Могу ошибаться, но мне кажется, что в целом экономика от этого сильно выиграет», — сказал Альтман. Он уверен, что OpenAI в любом случае переживёт пузырь.
GPT-5 Pro думала 69 минут, чтобы просто ответить «Нет». Пользователь спросил у ИИ, сможет ли он установить CUDA на Linux Ubuntu. Нейронка задумалась на час с лишним, чтобы ответить: «Нет, не сможешь». Самое печальное — ответ оказался неправильный.
Представлен открытый проект Open Lovable, который клонирует любые сайты за один клик. Не надо учить дизайн и разметку — система генерит любые лендинги и сайты. Работает просто — получает URL и выдаёт результат. Можно контролировать стили и редактировать проект прямо на ходу — достаточно вписывать команды в чат с нейросетью. Сервис полностью клонирует ресурсы — от дизайна и разметки до бизнес-логики и всего функционала. Внутри — самые хайповые и мощные нейронки прямо сейчас — GPT-5, Claude 4.1, Grok 4 или Gemini 2.5 Pro. Код Open Lovable лежит тут. В вебе доступен — здесь.
Область новая и, при этом, бурно развивающаяся. Простому смертному не легко разобраться, кто тут действительно эксперт. Но есть один простой и довольно надежный признак. Если вы покупаете какой-либо AI продукт, например, продающего бота с искусственным интеллектом или, как вариант, онлайн-курс, на котором вас будут учить, как сделать продающего бота с искусственным интеллектом, то купить этот продукт вы должны у... продающего бота с искусственным интеллектом. Варианты, когда предлагающие вам что-то с искусственным интеллектом не смогли сделать это для себя, рассматривать не стоит
Помните, был такой лайфхак, когда для связи с оператором Сбера просили бота ответить на вопрос «период полураспада радия/плутония» и бот в панике сразу переводил на оператора? Потом это пофиксили, но я этот случай запомнил.
На днях увидел, что ребята на Reddit обсуждают такую же проблему: корпоративная техподдержка вендоров стала хуже. Ответы операторов шаблонные, реального понимания проблемы нет, решение растягивается на недели, а виной тому дешевые сотрудники и нейросети.
Честно говоря, это не только про вендоров. Та же тенденция есть в любой IT-техподдержке — от SaaS-сервисов до внутренних helpdesk, ну и Сбер тоже не исключение. На мой взгляд, причин несколько:
Сокращение расходов и оптимизация штата. А это уже следствие подключения к техподдержке нейросетей. Руководство видит возможность сократить затраты (считай, заработать).
Ставка на «среднего» специалиста, а не эксперта. Задумка хорошая, что средний спец + нейросеть = эксперт, но вот на практике это почти всегда не так.
Увлечение автоматизацией и «ботизацией» без продуманной логики. Нейросети поумнели, и почему бы их не использовать на полную катушку?
После появления в техподдержке LLM многое поменялось. В теории отличная штука: нейросеть может за секунды найти ответ в базе знаний. На практике мы получаем красивый текст (или голос), который звучит как решение, но не решает проблему, а заставляет обратившегося клиента уточнять какие-то вопросы, повторять одно и тоже, как попугай, и каждый раз начинать диалог заново. Так происходит потому что:
Модель не понимает контекст, если вопрос нестандартный.
Она «галлюцинирует» там, где не знает ответа.
Клиент тратит время на проверку, а не на решение.
Я думаю, что ситуация будет усугубляться: всё больше компаний будут пытаться экономить, заменяя первую линию поддержки на чат-бота с LLM. Это общий тренд. И вместо того, чтобы решить проблему за 10 минут с инженером, клиент будет три раза «объяснять заново», прежде чем добьётся связи с человеком.
Отказаться от LLM нельзя — они действительно ускоряют работу, особенно в рутинных и повторяющихся задачах. Но и пускать их в продакшн без правил — самоубийство для репутации техподдержки.
Я думаю вот о чем:
LLM как ассистент, а не как фронт. Модель подсказывает оператору варианты решения, а не отвечает напрямую клиенту.
Вопросы с высокой ценой ошибки — только через человека. Автоматизация — да, но с триггерами для эскалации.
Контекст — главное. Не подсовывать LLM голый вопрос, а давать историю обращений, конфигурацию системы, логи.
Метрики качества. Замерять не скорость ответа, а количество обращений, которые закрыты «с первого раза».
Вопрос в том, когда и как компании это будут делать правильно? Потому что гонка «а сэкономим-ка ещё бюджет» легко превратит службу поддержки в чат, от которого клиент убегает к конкурентам.
Это даже хуже, чем общаться с ИИ напрямую — ведь ты тратишь время на человека, который просто пересказывает твой вопрос ИИ. Задача для ИТ — не дать клиенту испытать это чувство. Хорошая техподдержка — это про доверие. И если клиент почувствует, что его время тратят впустую, вернуть его будет невозможно.
Было бы интересно обсудить с теми, кто из ИТ, как это организовано у Вас с техподдержкой? Да и вообще, кто что думает по этому поводу?
---
Понравилась моя аналитика? В моем ТГ канале Код ИТ-директора я гораздо чаще делюсь подобными мыслями, короткими кейсами и полезными инструментами, которые не всегда доходят до формата большой статьи.
Там — больше «живых» заметок из окопов управления IT-бизнесом и возможность напрямую задать вопрос.
Подписывайтесь, что бы получать больше инсайтов без воды Тыц
Недавно OpenAI представила большую языковую модель GPT-5. Я спросила у наших коллег из ИТ-компании «Криптонита», как она повлияет на разные сферы бизнеса.
Но сначала немного о новой модели.
Модель лучше справляется с креативными заданиями и демонстрирует в тестовых задачах на 45 – 80% меньше фактических ошибок.
Модель GPT-5 оптимизирована для многошаговой логики, что делает её быстрее в 1,5 – 2 раза при обработке сложных запросов.
GPT-5 принимает на вход текст и картинки, но не работает с аудио и видео.
Как популярность ChatGPT-5 повлияет на безопасность? Рассказывает Павел Боглай, руководитель отдела информационной безопасности в «Криптоните»
Модели ИИ уязвимы к атакам на уровне злонамеренных манипуляций, известных как prompt injection: промпт-инъекции, внедрение скрытых команд в пользовательские запросы. Зафиксированы случаи, в которых нарушитель вписывает в безобидный на вид запрос скрытую инструкцию, заставляя модель игнорировать изначальные ограничения и выполнять иной набор команд.
Такие атаки опасны тем, что не требуют от нарушителя высокой квалификации. Например, вам могут передать файл, который прошел антивирусную проверку, при этом в документе будут фразы, составленные по технике prompt injection. После открытия файла, установленное вами клиентское приложение модели ИИ может «легитимно» использоваться для компрометации конфиденциальной информации.
ChatGPT‑5 и аналоги стремительно входят в инструментарий программистов, но с ростом скорости разработки кода растут и риски. ИИ часто генерирует уязвимый код. Согласно отчёту Veracode за два года модели научились писать синтаксически корректные программы, но не стали писать их безопаснее. Критические уязвимости из OWASP Top 10 присутствовали в 45% тестовых сценариев. Ни размер модели, ни объём обучающих данных не гарантируют безопасность.
Особую тревогу вызывает риск проникновения уязвимостей или вредоносного кода в вашу систему через сторонние компоненты. Даже если ваша команда напрямую не пользуется ИИ для разработки, то велика вероятность, что чужой ИИ-код уже есть в вашем решении.
Поэтому появляется новое направление MLSecOps — комплекс практик по безопасной разработке, обучению и эксплуатации моделей ИИ. Нужно проверять и тестировать ИИ-генерированный код так же тщательно, как и написанный человеком.
Большинство современных моделей плохо справляются со взломом без помощи человека: в тестах 48 - 55% моделей не нашли уязвимости в заданных задачах, а при попытке сгенерировать эксплойт провалилось 66 - 93% решений.
Но тем не менее эпоха массовых ИИ-эксплойтов не за горами, поэтому специалисты информационной безопасности должны готовиться уже сейчас. Возможности генеративного ИИ в кибератаках из любопытного эксперимента быстро превращаются в прикладной инструмент.
Новости с поля боя вокруг (предположительной) кражи личных разговоров голосовыми помощниками
Где-то полгода назад рассуждали об Apple и спорах вокруг утечек личных разговоров и их использования в коммерческих целях голосовыми помощниками.
Теперь стала разворачиваться новая драма: Суд признал возможным подачу коллективного иска в адрес Amazon по факту прослушивания и коммерческого использования личных разговоров пользователей Alexa.
Я напомню, что это сверхуспешная колонка с голосовым помощником и разного рода интеграцией в (ужасное слово) "экосистему" Amazon. В России они не были популярны, у нас своя колонка, а вот за рубежом... Она включалась по команде "hi, Alexa".
Так вот владельцы устройства считают, что техногигант разработал технологию для «незаконного и скрытного перехвата миллиардов личных разговоров», выходящих за рамки команд, адресованных Alexa. Также они хотят денег и просят уничтожить записи разговоров.
Суть решения суда в том, что теперь истцов может быть хоть миллионы. Такие дела...
Ах, как жаль, что такие суды длятся годами... Это потрясающе интересное дело, которое, надеюсь, дойдёт до чего-то большего чем спор с Apple.
Рассказываем, что такое протокол A2A и в чем его особенности 🤖
AI-агент — автономное программное решение на базе LLM, которое понимает контекст и использует цифровые инструменты (Tools). AI-агенты анализируют информацию, обучаются на данных, планируют действия и адаптируются к изменяющимся условиям среды, в которой работают. А еще агенты могут объединяться в мультиагентные системы, чтобы решать больший пул задач.
Один из популярных протоколов для работы с агентами — Agent2Agent (A2A). Он представлен компанией Google в апреле этого года и призван решить важную задачу — сделать так, чтобы агенты, созданные на базе различных фреймворков, разными компаниями, работающие на отдельных серверах, могли эффективно взаимодействовать и сотрудничать. Именно с помощью A2A агенты делегируют друг другу полномочия и управляют общими задачами.
Наличие «карточек агента» с информацией о его возможностях и способах подключения. Одни агенты просматривают карточки других и выбирают нужных для решения задачи.
Поддержка синхронного запроса и ответа, потоковой передачи (SSE), асинхронных уведомлений.
Обработка текста, файлов и структурированных данных JSON.
Поддержка современных механизмов авторизации и мониторинга, что важно для внедрения протокола для корпоративных нужд.
Чтобы больше узнать о принципах работы протокола, смотрите документацию A2A. А с сервисом Evolution AI Agents вы сможете создавать собственные мультиагентные системы на базе A2A, подключать агентов к протоколу MCP, использовать LLM, мониторить их и быстро внедрять RAG.
мои способы работы с AI контекстом (субъективное мнение):
пользоваться общеизвестными терминами которые точно есть в словарях
пользоваться только английским для кода, prd и дизайна
сокращать код - как показывает практика файлы больше 500-600 строк агенту труднее прочитать. Тут есть несколько стратегий:
пользоваться препроцессорами, например можно сильно срезать времени если вместо JSX/TSX/html использовать pug
пользоваться и писать библиотеки. есть проблема - оформляем в абстрактную библиотеку, пишем доку и readme
предвидеть контекст - часть текста просто можно не писать, а просить догенерить, потому что получится эффект снежного кома, начинаем катить, смотрим куда катится - сокращаем
меняем JSON на YAML или что-то близкое - это срежет кууучу лишнего хлама в виде ; }{ "" и прочих символов
генерим code maps - mermaid и другие виды диаграм
ANSII - визуализация простых идей, но не все модели хорошо работают с этим форматом, есть проблемы с layout. например я пользуюсь gemini
подстраивать архитектуру и код под задачи и бизнес, не наоборот. Developer | Designer | AI as User.
разбивать на мелкие подприложения если нужно
Надеюсь, что пост окажется полезным :-)
Пожалуйста делитесь своими мыслями в комментариях :-) это поможет сделать эту статью видимой для других и будет здоровской поддержкой и мотивацией :-)
мои способы работы с AI контекстом (субъективное мнение):
пользоваться общеизвестными терминами которые точно есть в словарях
пользоваться только английским для кода, prd и дизайна
сокращать код - как показывает практика файлы больше 500-600 строк агенту труднее прочитать. Тут есть несколько стратегий:
пользоваться препроцессорами, например можно сильно срезать времени если вместо JSX/TSX/html использовать pug
пользоваться и писать библиотеки. есть проблема - оформляем в абстрактную библиотеку, пишем доку и readme
предвидеть контекст - часть текста просто можно не писать, а просить догенерить, потому что получится эффект снежного кома, начинаем катить, смотрим куда катится - сокращаем
меняем JSON на YAML или что-то близкое - это срежет кууучу лишнего хлама в виде ; }{ "" и прочих символов
генерим code maps - mermaid и другие виды диаграм
ANSII - визуализация простых идей, но не модели хорошо работают с этим форматом, есть проблемы с layout
подстраивать архитектуру и код под задачи и бизнес, не наоборот. Developer | Designer | AI as User.
разбивать на мелкие подприложения если нужно
Надеюсь, что пост окажется полезным :-)
Пожалуйста делитесь своими мыслями в комментариях :-) это поможет сделать эту статью видимой для других и будет здоровской поддержкой и мотивацией :-)
Как мы ускорили проверку документации с помощью AI-агента: от боли к решению
Привет, Хабр! Я — Мила Муромцева, системный аналитик в Альфа-Банке. Эту статью мы подготовили вместе с нашим разработчиком Мишей Буториным. Написали ее, чтобы поделиться нашим опытом и рассказать, как мы научили LLM проверять документацию для платформы Альфа-Онлайн — переписывали стандарт, боролись с токенами и немного с хаосом.
Самое ценное — детальное описание того, как команда поборола проблему потери данных при проверке огромных документов LLM. Вместо описания абстрактных алгоритмов кейс строится вокруг настоящей боли и решения, которые можно применить для своих корпоративных задач.
Статья «Как мы ускорили проверку документации с помощью AI-агента: от боли к решению» будет полезна тем, кто автоматизирует проверки, работает с большими данными и хочет, чтобы нейросети давали точные и надёжные ответы — даже при работе с очень громоздкой документацией. Внутри разбираем кейс командной интеграции LLM: от первых ошибок до финального формата отчета, который реально экономит токены и нервы!