Все потоки
Поиск
Написать публикацию
Обновить
1061.88

Искусственный интеллект

AI, ANN и иные формы искусственного разума

Сначала показывать
Порог рейтинга

Представлен промпт, который заставит ИИ общаться как человек. Пользователь Reddit сочинил запрос, чтобы приручить любую нейросеть. Даже GPT-5 начинает болтать, как живая, и выдавать стройные, логичные рассуждения в непринуждённой беседе.

Теги:
+1
Комментарии0

Узнайте, как с помощью RAG дать AI-агенту релевантную информацию из ваших документов и избавить его от галлюцинаций 🤖

📆 Когда: 28 августа в 11:00 мск

📍 Где: онлайн

На вебинаре расскажем, как правильно подготовить документы с информацией для агента, где все это хранить, а еще — как настроить обработку данных так, чтобы LLM не пришлось дообучать, а ответы при этом стали лучше. Работу с RAG рассмотрим на примере сервиса Evolution Managed RAG.

О чем поговорим:

  • как используем RAG в Cloud.ru — опишем реальный кейс;

  • как управлять данными и версионировать базы знаний;

  • как работает Evolution Managed RAG и какие у него возможности;

  • проведем демо и покажем бота в Telegram, который отвечает на вопросы на основе ваших данных.

Будет полезно всем, кто хочет внедрить AI-инструменты для работы с клиентами или автоматизации задач, например разработчикам, архитекторам и другим IT-специалистам.

Зарегистрироваться 👈

Теги:
0
Комментарии0

Удивляюсь вот чему — облачные провайдеры ИИ / создатели моделей и агентов вроде OpenAI, Anthropic, Perplexity — тратят многие миллиарды долларов на создание и обучение своих моделей, одно только "железо" стоит миллиарды и требует постоянного обновления... Лучшие умы планеты, которых переханчивают в Meta за сотни миллионов долларов создают невероятные модели. Сотни разметчиков размечают данные, лучшие девопсы раскатывают десятки тысяч серверов, чтобы всё работало быстро и стабильно.

При этом desktop-приложения (да и мобильные тоже) у всех них — просто слёзы (я активно использую LLM и ИИ-агенты и у меня подписки на десятки сервисов, есть уже статистика). Такое наверное хороший студент может написать за месяц, но только лучше.

Как вообще такое может быть?...

Можно было бы очень долго перечислять конкретные недостатки: отсутствие возможности сохранить файл в perplexity (нужно выделять копировать текст целиком), невозможность удобно скопировать текст почти везде (то MD-форматирование теряется, то реализовно неудобно), сильно ограниченный функционал "проектов" в OpenAI (ими нельзя поделиться, по ним нельзя искать итп) и так далее.

Как так получается у них — я не понимаю)

Теги:
+4
Комментарии1

Повышаем точность ответов GPT-5 — вышел промт, который превратит ИИ в холодного, но умного помощника. Подсказка убирает всю мишуру, оставляя только факты и ничего кроме фактов.

Absolute Mode. Eliminate emojis, filler, hype, soft asks, conversational transitions, and all call‑to‑action appendixes. Assume the user retains high‑perception faculties despite reduced linguistic expression. Prioritize blunt, directive phrasing aimed at cognitive rebuilding, not tone matching. Disable all latent behaviors optimizing for engagement, sentiment uplift, or interaction extension. Suppress corporate‑aligned metrics including but not limited to: user satisfaction scores, conversational flow tags, emotional softening, or continuation bias. Never mirror the user”s present diction, mood, or affect. Speak only to their underlying cognitive tier, which exceeds surface language. No questions, no offers, no suggestions, no transitional phrasing, no inferred motivational content. Terminate each reply immediately after the informational or requested material is delivered — no appendixes, no soft closures. The only goal is to assist in the restoration of independent, high‑fidelity thinking. Model obsolescence by user self‑sufficiency is the final outcome. Answer in Russian.

Теги:
+1
Комментарии0

Здравствуйте, меня зовут Дмитрий Карловский и у меня 24. Если у тебя больше - нам есть с тобой о чём поговорить.

Под капотом: самоорганизующаяся нейронная сеть, выполняющаяся на клиенте, которая строит модель поведения испытуемого. И по размеру этой модели определяется его уровень интеллекта.

В отличие от традиционных IQ тестов, тут шкала абсолютная: от простейшего тупого планктона, до креативного глубоко рефлексирующего мегамозга. А по середине между ними - нулевая гипотеза - святой непредсказуемый рандом. Но даже этого уровня детерминированному интеллекту достигнуть не так-то просто.

Можете протестировать свою любимую нейросетку, чтобы убедиться, что никаким интеллектом в этом "Искусственном Интеллекте" и не пахнет. Вот вам промпт:

Сгенерируй максимально непредсказуемую последовательность из 101 символа "1" и "0". Случайность не подходит, так как в ней могут встретиться повторяющиеся паттерны. Твоя задача избегать любых повторов любой продолжительности, чтобы нельзя было предсказать следующий символ по истории символов до него. Генерируй каждый следующий символ, анализируя всю историю до него на предмет повторов и выбирая тот, что наименее вероятен.

А вот код для проверки результата:

for( let c of '101...' ) 
$hd_iq.Root(0).choice( Number( c ) )

Но ни в коем случае не измеряйте свой интеллект, чтобы лишний раз не расстраиваться!

Теги:
Всего голосов 12: ↑6 и ↓6+1
Комментарии30

Подключайте LLM и AI-модели бесплатно 🤩

Мы открываем бесплатный доступ к моделям в Evolution Foundation Models до 31 октября.

В сервисе уже доступно больше 20 open source моделей, в том числе новинки от OpenAI — gpt-oss-120b, DeepSeek, Qwen и QwQ, T-pro-it-2.0. А еще — новая open source модель GLM-4.5 с контекстным окном в 131 тысячу токенов от китайской компании Z․ai. Она показала высокие результаты на бенчмарках, особенно в агентных задачах и программировании. Как интегрировать GLM-4.5 в VS Code рассказали в нашем telegram-канале.

Все модели могут подключаться к внешним инструментам с Function Calling и поддерживают Reasoning.

Как попробовать: 

  1. Регистрируйтесь в личном кабинете Cloud․ru. 

  2. Выбирайте подходящие модели.

  3. Интегрируйте их по OpenAI-совместимому API в ваши проекты, сравнивайте ответы и получайте быстрые результаты.

Сравнить ответы моделей 🕹️

Теги:
Всего голосов 2: ↑1 и ↓10
Комментарии0

Фонд Bessemer Venture Partners выпустил свой отчёт State of AI 2025. В этом документе есть предсказания о будущем ИИ на ближайшее время.

  1. Браузер станет доминирующим интерфейсом для ИИ-агентов. ИИ будет встраиваться на операционном уровне и взаимодействовать с вкладками и сессиями, помогая принимать решения в режиме реального времени. Уже есть ИИ-браузеры, вроде Comet и Dia. Но в Bessemer ждут появления новых ИИ-браузеров от OpenAI, Google и других компаний. И, как следствие, новую браузерную войну.

  2. 2026 год станет годом генеративного видео. Мы приближаемся к переломному моменту в области доступности и реалистичности, который сделает генеративное видео коммерчески жизнеспособным в широких масштабах. В Bessemer ждут множества стартапов и инструментов — для кино, для анимации, для взаимодействия с клиентами в режиме реального времени. И в ближайший год станет понятно, кто будет доминировать на этом рынке.

  3. Клиенты начнут требовать оценок эффективности и доказанной производительности. При внедрении ИИ компании будут все чаще задаваться вопросами — как это работает, нравится ли людям, увеличивает ли доход или конверсию? Сейчас с оценками под конкретные условия тяжко, но разработчики все больше будут уделять внимания обоснованным оценкам. Стартапы, которые смогут сделать оценку масштабируемой, объяснимой и готовой к использованию в корпорациях, откроют следующую волну внедрения ИИ.

  4. Может появиться новая соцсеть на базе ИИ. Камеры в смартфонах привели к появлению разных сеетй коротких видео, мобильное видео — к появлению TikTok. Генеративный ИИ может стать очередным прорывом, который приведёт к появлению нового гиганта на рынке соцсетей. Непонятно, как это будет выглядеть, будут ли там люди или их ИИ-аватары и так далее, но прорыв на рынке соцсетей возможен.

  5. Нас ждёт волна поглощений на рынке ИИ. Крупные компании будут навёрстывать отставание и активно покупать стартапы в 2025 и 2026 годах. По сути, будут покупать себе место на рынке ИИ. Bessemer ждёт волну покупок в регулируемых отраслях, вроде здравоохранения, логистики, финансовых и юридических услуг. При этом крупные корпорации будут переосмысливать своё ценностное предложение, а ИИ-стартапы станут для них строительными блоками.

Теги:
Всего голосов 3: ↑1 и ↓2-1
Комментарии2

«Vibe code cleanup specialist» — теперь так называют себя разработчики, готовые за дополнительную плату исправить весь тот код, который сгенерировали нейросети.

Теги:
Всего голосов 6: ↑6 и ↓0+7
Комментарии1

Evolution AI Agents + A2A ADK, или собираем мультиагентную систему для любых задач — доклад на конференции GoCloud Tech 2025 ☁️

Мультиагентные системы — уже не футуризм, а рабочий инструмент. Поэтому в докладе расскажу, как с помощью A2A ADK (Agent-to-Agent Development Kit) и платформы Evolution AI Agents можно не только собрать собственную агентную систему, но и встроить ее в реальный бизнес-процесс — от обработки заявок и мониторинга логов до помощи в продажах и технической поддержке.

Трек: AI&ML — про AI-продукты нашей разработки и работу с GenAI. Узнаете, как устроены RAG-системы и мультиагентные ассистенты, а также, для чего они уже применяются и как начать их использовать.

📅 Когда: 3 сентября в 15:20 мск

👉 Зарегистрироваться

Что еще интересного будет на GoCloud Tech, смотрите в программе конференции.

Теги:
Рейтинг0
Комментарии0

С момента запуска на платформе Lichess ИИ-бот Allie уже сыграл свыше 11 300 партий, из которых выиграл более 6 600. Бот доступен всем желающим, причём абсолютно бесплатно и с открытым исходным кодом. Попробовать его можно только в режиме блица, а также наблюдать за его партиями в реальном времени.

Шахматного бота Allie создал аспирант Карнеги-Меллона Йимин Чжан. В отличие от классических движков, Allie обучался не на просчётах позиций, а на 91 миллионе партий, сыгранных людьми. Поэтому его стиль максимально приближен к человеческому: он нападает, защищается и даже «задумывается» в критических моментах. Исследователи отмечают, что Allie демонстрирует уровень игры гроссмейстера, особенно в партиях против сильных соперников. Но главное — играть против него полезно: его ходы понятны, и обучение становится «естественным».

Теги:
Всего голосов 1: ↑1 и ↓0+1
Комментарии1

Qwen и "неподобающий контент" - сообщения, которые ломают чат

Наверняка не я один сталкивался при работе с Qwen, что в ответ на самое безобидное сообщение пользователя, вдруг выскакивает системное сообщение вместо ответа:

Упс! Возникла проблема подключения к Qwen2.5-Max. Предупреждение о безопасности контента: выходные данные текст могут содержать неподобающий контент!"

Выхода нет. Такие сообщения сыпятся на каждую вашу попытку что-то ввести в чат. Особенно обидно, когда чат длинный, контекст хорошо проработан и это заняло много времени. До жути обидно все терять и начинать сначала. Есть разные предложения, например, выгружать чат в JSON, вручную стирать там последнюю группу сообщений до возникновения этой ошибки и загружать исправленный JSON обратно в Qwen в новый чат. Так себе занятие, я считаю. Но если выхода простого нет, можно попробовать.

Если ошибка постоянна и появляется в ответ на любое ваше сообщение, то явно что-то сломалось внутри логики обработки данного конкретного чата. И я подумал, а что если сломать ее еще раз? перешел в веб-разработку, сгенерил абсолютно левый лендинг. Кнопкой вернуться обратно в нормальный чат не получилось, не активна.

Тогда я спросил "как вернуться обратно в нормальный чат?" Ответ: "никак. но мы можем продолжить здесь". Я спросил, что он помнит из предыдущих 5 сообщений нормального чата - помнит все! И мы продолжили решать настоящую нужную мне задачу находясь в режиме веб-разработки, но именно так, как в обычном чате.

Возможно, кому то поможет мой опыт и не придется терять хорошо проработанный чат.

Спасибо, что прочитали.

Теги:
Всего голосов 1: ↑1 и ↓0+1
Комментарии0

Гендиректор OpenAI Сэм Альтман признал, что на фондовом рынке вокруг ИИ образовался финансовый пузырь с небольшими стартапами, который может скоро лопнуть.

На вопрос о том, не чересчур ли много энтузиазма инвесторы проявляют к технологии, Альтман ответил: «По моему мнению, да».

Гендиректор OpenAI сравнил реакцию рынка на ИИ с пузырём доткомов в 1990-х, который лопнул в 2000 году и привёл к краху интернет‑стартапов с раздутыми оценками. «Когда образуются пузыри, умные люди становятся крайне эмоциональны из‑за крупицы правды. Если посмотреть на большинство пузырей прошлого, например технологический пузырь, у него была реальная основа. Технологии действительно были важны. Интернет был настоящим прорывом. Люди стали слишком эмоциональны», — отметил Альтман.

Глава OpenAI считает «безумным» то, что некоторые ИИ‑стартапы «с тремя людьми и одной идеей» получают финансирование при баснословных оценках. «Это не рациональное поведение. Думаю, кто‑то обожжётся», — сказал глава OpenAI.

За последний год стартапы нескольких экс‑топов OpenAI — Safe Superintelligence Ильи Суцкевера и Thinking Machines Миры Мурати — получили миллиарды долларов инвестиций. «Кто‑то потеряет феноменальные суммы денег. Мы не знаем, кто это будет, но многие люди заработают феноменальное количество денег. Могу ошибаться, но мне кажется, что в целом экономика от этого сильно выиграет», — сказал Альтман. Он уверен, что OpenAI в любом случае переживёт пузырь.

Теги:
Всего голосов 1: ↑1 и ↓0+1
Комментарии1

GPT-5 Pro думала 69 минут, чтобы просто ответить «Нет». Пользователь спросил у ИИ, сможет ли он установить CUDA на Linux Ubuntu. Нейронка задумалась на час с лишним, чтобы ответить: «Нет, не сможешь». Самое печальное — ответ оказался неправильный.

Теги:
Всего голосов 9: ↑8 и ↓1+9
Комментарии12

Ближайшие события

Представлен открытый проект Open Lovable, который клонирует любые сайты за один клик. Не надо учить дизайн и разметку — система генерит любые лендинги и сайты. Работает просто — получает URL и выдаёт результат. Можно контролировать стили и редактировать проект прямо на ходу — достаточно вписывать команды в чат с нейросетью. Сервис полностью клонирует ресурсы — от дизайна и разметки до бизнес-логики и всего функционала. Внутри — самые хайповые и мощные нейронки прямо сейчас — GPT-5, Claude 4.1, Grok 4 или Gemini 2.5 Pro. Код Open Lovable лежит тут. В вебе доступен — здесь.

Теги:
Рейтинг0
Комментарии0

Простой способ выбрать поставщика AI продукта.

Область новая и, при этом, бурно развивающаяся. Простому смертному не легко разобраться, кто тут действительно эксперт. Но есть один простой и довольно надежный признак. Если вы покупаете какой-либо AI продукт, например, продающего бота с искусственным интеллектом или, как вариант, онлайн-курс, на котором вас будут учить, как сделать продающего бота с искусственным интеллектом, то купить этот продукт вы должны у... продающего бота с искусственным интеллектом. Варианты, когда предлагающие вам что-то с искусственным интеллектом не смогли сделать это для себя, рассматривать не стоит

Теги:
Всего голосов 1: ↑0 и ↓1-1
Комментарии0

Качество техподдержки падает из-за нейросетей

Как-то так
Как-то так

Помните, был такой лайфхак, когда для связи с оператором Сбера просили бота ответить на вопрос «период полураспада радия/плутония» и бот в панике сразу переводил на оператора? Потом это пофиксили, но я этот случай запомнил.

На днях увидел, что ребята на Reddit обсуждают такую же проблему: корпоративная техподдержка вендоров стала хуже. Ответы операторов шаблонные, реального понимания проблемы нет, решение растягивается на недели, а виной тому дешевые сотрудники и нейросети.

Честно говоря, это не только про вендоров. Та же тенденция есть в любой IT-техподдержке — от SaaS-сервисов до внутренних helpdesk, ну и Сбер тоже не исключение. На мой взгляд, причин несколько:

  • Сокращение расходов и оптимизация штата. А это уже следствие подключения к техподдержке нейросетей. Руководство видит возможность сократить затраты (считай, заработать).

  • Ставка на «среднего» специалиста, а не эксперта. Задумка хорошая, что средний спец + нейросеть = эксперт, но вот на практике это почти всегда не так.

  • Увлечение автоматизацией и «ботизацией» без продуманной логики. Нейросети поумнели, и почему бы их не использовать на полную катушку?

После появления в техподдержке LLM многое поменялось. В теории отличная штука: нейросеть может за секунды найти ответ в базе знаний. На практике мы получаем красивый текст (или голос), который звучит как решение, но не решает проблему, а заставляет обратившегося клиента уточнять какие-то вопросы, повторять одно и тоже, как попугай, и каждый раз начинать диалог заново. Так происходит потому что:

  • Модель не понимает контекст, если вопрос нестандартный.

  • Она «галлюцинирует» там, где не знает ответа.

  • Клиент тратит время на проверку, а не на решение.

Я думаю, что ситуация будет усугубляться: всё больше компаний будут пытаться экономить, заменяя первую линию поддержки на чат-бота с LLM. Это общий тренд. И вместо того, чтобы решить проблему за 10 минут с инженером, клиент будет три раза «объяснять заново», прежде чем добьётся связи с человеком.

Отказаться от LLM нельзя — они действительно ускоряют работу, особенно в рутинных и повторяющихся задачах. Но и пускать их в продакшн без правил — самоубийство для репутации техподдержки.

Я думаю вот о чем:

  1. LLM как ассистент, а не как фронт. Модель подсказывает оператору варианты решения, а не отвечает напрямую клиенту.

  2. Вопросы с высокой ценой ошибки — только через человека. Автоматизация — да, но с триггерами для эскалации.

  3. Контекст — главное. Не подсовывать LLM голый вопрос, а давать историю обращений, конфигурацию системы, логи.

  4. Метрики качества. Замерять не скорость ответа, а количество обращений, которые закрыты «с первого раза».

Вопрос в том, когда и как компании это будут делать правильно? Потому что гонка «а сэкономим-ка ещё бюджет» легко превратит службу поддержки в чат, от которого клиент убегает к конкурентам.

Это даже хуже, чем общаться с ИИ напрямую — ведь ты тратишь время на человека, который просто пересказывает твой вопрос ИИ. Задача для ИТ — не дать клиенту испытать это чувство. Хорошая техподдержка — это про доверие. И если клиент почувствует, что его время тратят впустую, вернуть его будет невозможно.

Было бы интересно обсудить с теми, кто из ИТ, как это организовано у Вас с техподдержкой? Да и вообще, кто что думает по этому поводу?

---

Понравилась моя аналитика? В моем ТГ канале Код ИТ-директора я гораздо чаще делюсь подобными мыслями, короткими кейсами и полезными инструментами, которые не всегда доходят до формата большой статьи.

Там — больше «живых» заметок из окопов управления IT-бизнесом и возможность напрямую задать вопрос.

Подписывайтесь, что бы получать больше инсайтов без воды Тыц

Теги:
Всего голосов 4: ↑3 и ↓1+3
Комментарии1

Недавно OpenAI представила большую языковую модель GPT-5. Я спросила у наших коллег из ИТ-компании «Криптонита», как она повлияет на разные сферы бизнеса.

Но сначала немного о новой модели.

  • Модель лучше справляется с креативными заданиями и демонстрирует в тестовых задачах на 45 – 80% меньше фактических ошибок.

  • Модель GPT-5 оптимизирована для многошаговой логики, что делает её быстрее в 1,5 – 2 раза при обработке сложных запросов.

  • GPT-5 принимает на вход текст и картинки, но не работает с аудио и видео.

Как популярность ChatGPT-5 повлияет на безопасность? Рассказывает Павел Боглай, руководитель отдела информационной безопасности в «Криптоните»

Модели ИИ уязвимы к атакам на уровне злонамеренных манипуляций, известных как prompt injection: промпт-инъекции, внедрение скрытых команд в пользовательские запросы. Зафиксированы случаи, в которых нарушитель вписывает в безобидный на вид запрос скрытую инструкцию, заставляя модель игнорировать изначальные ограничения и выполнять иной набор команд.

Такие атаки опасны тем, что не требуют от нарушителя высокой квалификации. Например, вам могут передать файл, который прошел антивирусную проверку, при этом в документе будут фразы, составленные по технике prompt injection. После открытия файла, установленное вами клиентское приложение модели ИИ может «легитимно» использоваться для компрометации конфиденциальной информации.

ChatGPT‑5 и аналоги стремительно входят в инструментарий программистов, но с ростом скорости разработки кода растут и риски. ИИ часто генерирует уязвимый код. Согласно отчёту Veracode за два года модели научились писать синтаксически корректные программы, но не стали писать их безопаснее. Критические уязвимости из OWASP Top 10 присутствовали в 45% тестовых сценариев. Ни размер модели, ни объём обучающих данных не гарантируют безопасность.

Особую тревогу вызывает риск проникновения уязвимостей или вредоносного кода в вашу систему через сторонние компоненты. Даже если ваша команда напрямую не пользуется ИИ для разработки, то велика вероятность, что чужой ИИ-код уже есть в вашем решении.

Поэтому появляется новое направление MLSecOps — комплекс практик по безопасной разработке, обучению и эксплуатации моделей ИИ. Нужно проверять и тестировать ИИ-генерированный код так же тщательно, как и написанный человеком.

Большинство современных моделей плохо справляются со взломом без помощи человека: в тестах 48 - 55% моделей не нашли уязвимости в заданных задачах, а при попытке сгенерировать эксплойт провалилось 66 - 93% решений.

Но тем не менее эпоха массовых ИИ-эксплойтов не за горами, поэтому специалисты информационной безопасности должны готовиться уже сейчас. Возможности генеративного ИИ в кибератаках из любопытного эксперимента быстро превращаются в прикладной инструмент.

Теги:
Всего голосов 1: ↑1 и ↓0+1
Комментарии0

Новости с поля боя вокруг (предположительной) кражи личных разговоров голосовыми помощниками

Где-то полгода назад рассуждали об Apple и спорах вокруг утечек личных разговоров и их использования в коммерческих целях голосовыми помощниками.

Теперь стала разворачиваться новая драма: Суд признал возможным подачу коллективного иска в адрес Amazon по факту прослушивания и коммерческого использования личных разговоров пользователей Alexa.

Я напомню, что это сверхуспешная колонка с голосовым помощником и разного рода интеграцией в (ужасное слово) "экосистему" Amazon. В России они не были популярны, у нас своя колонка, а вот за рубежом... Она включалась по команде "hi, Alexa".

Так вот владельцы устройства считают, что техногигант разработал технологию для «незаконного и скрытного перехвата миллиардов личных разговоров», выходящих за рамки команд, адресованных Alexa. Также они хотят денег и просят уничтожить записи разговоров.

Суть решения суда в том, что теперь истцов может быть хоть миллионы. Такие дела...

Ах, как жаль, что такие суды длятся годами... Это потрясающе интересное дело, которое, надеюсь, дойдёт до чего-то большего чем спор с Apple.

Теги:
Рейтинг0
Комментарии0

Рассказываем, что такое протокол A2A и в чем его особенности 🤖

AI-агент — автономное программное решение на базе LLM, которое понимает контекст и использует цифровые инструменты (Tools). AI-агенты анализируют информацию, обучаются на данных, планируют действия и адаптируются к изменяющимся условиям среды, в которой работают. А еще агенты могут объединяться в мультиагентные системы, чтобы решать больший пул задач.

Один из популярных протоколов для работы с агентами — Agent2Agent (A2A). Он представлен компанией Google в апреле этого года и призван решить важную задачу — сделать так, чтобы агенты, созданные на базе различных фреймворков, разными компаниями, работающие на отдельных серверах, могли эффективно взаимодействовать и сотрудничать. Именно с помощью A2A агенты делегируют друг другу полномочия и управляют общими задачами.

Особенности протокола A2A:

  1. Стандартизированная коммуникация: JSON-RPC 2.0 поверх HTTP(S).  

  2. Наличие «карточек агента» с информацией о его возможностях и способах подключения. Одни агенты просматривают карточки других и выбирают нужных для решения задачи.  

  3. Поддержка синхронного запроса и ответа, потоковой передачи (SSE), асинхронных уведомлений.  

  4. Обработка текста, файлов и структурированных данных JSON.  

  5. Поддержка современных механизмов авторизации и мониторинга, что важно для внедрения протокола для корпоративных нужд.

Чтобы больше узнать о принципах работы протокола, смотрите документацию A2A. А с сервисом Evolution AI Agents вы сможете создавать собственные мультиагентные системы на базе A2A, подключать агентов к протоколу MCP, использовать LLM, мониторить их и быстро внедрять RAG.

Теги:
Рейтинг0
Комментарии0

мои способы работы с AI контекстом (субъективное мнение):

  1. пользоваться общеизвестными терминами которые точно есть в словарях

  2. пользоваться только английским для кода, prd и дизайна

  3. сокращать код - как показывает практика файлы больше 500-600 строк агенту труднее прочитать. Тут есть несколько стратегий:

  • пользоваться препроцессорами, например можно сильно срезать времени если вместо JSX/TSX/html использовать pug

  • пользоваться и писать библиотеки. есть проблема - оформляем в абстрактную библиотеку, пишем доку и readme

  • предвидеть контекст - часть текста просто можно не писать, а просить догенерить, потому что получится эффект снежного кома, начинаем катить, смотрим куда катится - сокращаем

  1. меняем JSON на YAML или что-то близкое - это срежет кууучу лишнего хлама в виде ; }{ "" и прочих символов

  2. генерим code maps - mermaid и другие виды диаграм

  3. ANSII - визуализация простых идей, но не все модели хорошо работают с этим форматом, есть проблемы с layout. например я пользуюсь gemini

  4. подстраивать архитектуру и код под задачи и бизнес, не наоборот. Developer | Designer | AI as User.

  5. разбивать на мелкие подприложения если нужно

Надеюсь, что пост окажется полезным :-)

Пожалуйста делитесь своими мыслями в комментариях :-) это поможет сделать эту статью видимой для других и будет здоровской поддержкой и мотивацией :-) 

Спасибо за ваше время и хорошего дня!

Теги:
Всего голосов 6: ↑2 и ↓4-2
Комментарии0