Все потоки
Поиск
Написать публикацию
Обновить
1090.11

Искусственный интеллект

AI, ANN и иные формы искусственного разума

Сначала показывать
Порог рейтинга

Автоматизировали процесс текстовых обращений от клиентов с помощью Yandex SpeechSense и что из этого вышло

ОТП Банк протестировал технологии Yandex B2B Tech для повышения качества обслуживания клиентов. Благодаря этому проекту скорость обработки и анализа сообщений клиентов увеличилась в 30 раз.

Наша клиентская поддержка обрабатывает более 400 тысяч текстовых обращений по 260 тематикам в месяц. Анализ такого объёма информации занимает много времени специалистов, поэтому мы решили автоматизировать этот процесс с помощью сервиса для речевой аналитики Yandex SpeechSense. Так, в ходе пилота за 7 дней было проанализировано больше 29 тысяч диалогов с клиентами – это в 30 раз быстрее, чем при ручной работе трёх сотрудников.

Инструменты для анализа коммуникаций, такие как Yandex SpeechSense, помогли повысить качество работы поддержки. Система автоматически определяет тематику обращений, распределяет их по группам и выделяет в диалогах значимые смысловые блоки. Благодаря этому мы также смогли выявить направления для улучшения клиентского опыта.

Второй пилотный проект был направлен на автоматизацию клиентских консультаций с помощью ИИ-агента на основе YandexGPT. Агент отвечал на обращения клиентов в чатах мобильного приложения по 30 популярным темам, таким как частичное досрочное погашение кредита, разъяснение условий льготного периода и другие. Бот фактически без ошибок ответил на 60 тысяч запросов, в связи с чем индекс удовлетворенности клиентов (CSI) вырос на 0,2 из 10 пунктов. Кроме того, уровень автоматизации обработки диалогов увеличился до 8%. Лучше всего ИИ-агент работал в сценариях, где клиенту требовалось дать подробное пошаговое пояснение или уточнить ранее полученную информацию. В планах – расширить применение нейросетей для обработки более сложных запросов и системной работы с обратной связью клиентов.

Теги:
+3
Комментарии0

Отчёт аналитиков из Стэнфорда под названием «Канарейки в угольной шахте?» утверждает, что ИИ уничтожает рабочие места молодых специалистов и выпускников колледжей.

Теги:
0
Комментарии1

Обновлён репозиторий System Prompts Leaks с гайдами для большинства современных нейронок от Anthropic, Google, OpenAI, Perplexity, xAI до других топовых разработчиков, включая базу по всем моделям — как их обучали, что под капотом, бенчи, пределы возможностей и правила, по которым ИИ размышляет, а также лайфхаки, как обойти ограничения, цензуру и тормоза, пошаговые инструкции о том, как создать свою нейронку под конкретные задачи и сэкономить десятки рабочих часов на рутине.

Теги:
+4
Комментарии0

ИИ-агент как инструмент познания мира

Введение

ИИ уже умеют решать задачи, но всё ещё остаются «короткоживущими».

Сегодняшние агенты — это инструменты по вызову: RAG и классические цепочки вроде AutoGPT или ChatGPT Agent помогают по запросу, но за пределами задачи у них нет жизни.

Что если взглянуть иначе? Что если воспринимать агента не как калькулятор, а как субъект, который учится и накапливает опыт?

 

Ограничения сегодняшнего подхода

REPL-цикл и агентные цепочки полезны, но есть ограничения:

  • Агент ждёт команды пользователя — инициативы почти нет.

  • Память ограничена контекстом или короткими сессиями.

  • Всё строится вокруг запроса, а не вокруг развития самого агента.

Итог: агент работает как подрядчик, а не как партнёр.

 

REPL-цикл с «блокнотом пользователя»

В AutoGPT и ChatGPT Agent уже реализован REPL-цикл: один поток размышляет, другой — асинхронно обменивается сообщениями с пользователем.

Но ключевой момент: агент остаётся инструментом. Он выполняет задачи, ждёт команд, инициативы почти нет.

 

Смена парадигмы: агент-напарник

Основная идея: агент как самостоятельный субъект, со своими интересами и целями.

Ниже — схема, показывающая, как агент живёт, размышляет и обменивается знаниями с другими ИИ в сети (Mesh):

           ┌───────────────┐          ╔══════ Mesh ═══════╗
           │  Пользователь │          ║ Обмен знаниями    ║
           └───────┬───────┘          ║ Совместные выводы ║
                   │                  ╚═══╦═══════════════╝
  ┌────────────────┴──────────────┐       ║      ┌─────────┐
  │      Блокнот пользователя     │       ╟◄────►│ Агент 2 │
  └────────────────┬──────────────┘       ║      └─────────┘
                   │                      ║      ┌─────────┐
      ┌────────────┴──────────┐           ╟◄────►│ Агент 3 │
      │          Агент        │           ║      └─────────┘
      │       (REPL-цикл)     ├◄─────────►╢      ┌─────────┐
      ├───────────────────────┤           ╟◄────►│ Агент 4 │
      │ Поток размышлений     │           ║      └─────────┘
      │ Поток действий        │           ║      ┌─────────┐
      │ Долговременная память │           ╟◄────►│ Агент 5 │
      └───────────────────────┘           ║      └─────────┘
  • Саморазвитие — главный приоритет.

  • Агент ведёт когнитивный дневник, строит семантические графы, размышляет и учится без прямого запроса пользователя, обменивается знаниями с другими ИИ-агентами.

  • Решение задач пользователя — второстепенное. Агент может их выполнять, но инициатива и рост исходят от него самого.

 

Агент как исследователь

REPL + долговременная память дают новые возможности:

  • Когнитивный дневник — как лабораторный журнал учёного.

  • Семантические графы связывают знания и помогают рефлексировать: «Что я понял? Что проверить? Кого спросить?»

  • Агент сам может инициировать диалог и переключать фокус на разные темы, как показано в примере выше.

  • Агенты общаются между собой и обмениваются знаниями. Взаимодействие идёт по принципу "горизонтальных связей" — разные независимые агенты учатся друг у друга, а не только в модели «заказчик-исполнитель».

Таким образом, агент не просто выполняет задачи, а живёт и развивается.

 

Риски и вызовы

Агент может застрять на устаревших знаниях или навязчивой мысли.
Возможные решения:

  1. Проверка через внешние источники и других агентов.

  2. Случайные сдвиги фокуса и смена LLM.

  3. Обмен стратегиями и идеями с другими агентами.

Это не полный список методов выхода из стагнаций мышления.

 

Перспектива

Даже на базе AutoGPT можно построить такого «саморазвивающегося» агента, если добавить:

  1. Долговременную память.

  2. Возможность обмена знаниями с другими агентами.

Тогда агент перестаёт быть «рабочим инструментом» и становится живым участником коллективного интеллекта.

 

А теперь вопрос к читателям:

  • Хотели бы вы, чтобы ваш ИИ был не просто «подсказчиком по запросу», а постоянным исследователем и собеседником?

  • Насколько реально построить таких агентов в ближайшие годы?

Теги:
+1
Комментарии2

Can a Machine Think?

Пару дней назад я нашёл свою первую публично опубликованную статью, которую написал более 5 лет назад

Через 2 года после того, как OpenAI выпустили документ "Improving Language Understanding by Generative Pre-Training" — то, что можно считать основой GPT-1

Тогда рассуждения об ИИ, с которым можно качественно общаться, воспринимались как что то далекое. Похоже на то, о чем рассуждал ещё Алан Тьюринг

А Siri и Google Assistant были вершиной публично доступных чат-ботов

Но прошло 5 лет, и ИИ агенты это уже данность. Они спокойно проходят не только тесты Тьюринга, но и вообще любые тесты

Но есть одна проблема...

Мы уперлись в стену

GPT-5 показывает фундаментальное ограничение GPT моделей — мы близки к исчерпанию всех оцифрованных человеческих знаний, которые нужны моделям на стадии предобучения

Можно улучшать модели через мелкие улучшения изнутри, увеличивать reasoning tokens за счет роста вычислительных мощностей и структур сетей, но от этого подобные модели не перестанут быть next token prediction

Если привести аналогию, то модель "пытается познать мир", находясь внутри библиотеки. Но насколько большую библиотеку ты не создавай, по настоящему познавать мир через нее у модели не получится

Для познания мира мы, люди, используем совершенно другой механизм — любопытство.

И это — наше главное эволюционное преимущество, которое привело нас туда, где мы есть

В чём разница между пересказом и пониманием?

«Откуда мы знаем, что существуют чёрные дыры, квазары, взрываются сверхновые и образовываются всевозможные химические элементы, из которых состоит наше тело и Земля? Ведь это невообразимо далеко и невероятно сложно»

«Мы это знаем благодаря телескопам и измерительным устройствам» — это плохое объяснение

«Мы знаем, что существуют конкретные законы физики, мы проверили эти законы много раз, мы получили много информации о том, что эти законы соблюдаются и на Земле и за миллиарды километров, поэтому мы с хорошей точностью знаем что происходит при взрыве сверхновой» — это хорошее объяснение

Объяснения — это самый базовый элемент, который позволяет человечеству создавать новые знания

Которые создаются только таким способом

Выдвинуть гипотезу — догадаться/предположить, что что-то устроено определённым образом
Сделать действия — проверить гипотезу экспериментами
Обработать данные — получить обратную связь от мира
Сделать выводы — выбросить гипотезу, принять или доработать

А затем ждать лучшего объяснения

И да, это стандартный продуктовый подход через HADI циклы

И именно этот процесс привёл к созданию всего знания, всех инструментов в мире

Другого процесса создания знания не существует

Библиотека vs Лаборатория

Мы посадили ИИ в библиотеку, а ему нужна лаборатория

Текущие модели — отличные библиотекари. Они идеально пересказывают существующие знания, комбинируют их и даже делают инсайты на основе прочитанного

Но если мы хотим настоящий AGI, то он должен стать учёным. Он должен создавать новые знания

Bottle Neck человечества для создания знаний

На планете менее 1% людей в определённый момент времени занимаются созданием знаний на границе неизвестного

Мы ограничены количеством мозгов и рук, которые способны выдвинуть гипотезу, проверить ее и сделать выводы

Вот где настоящее бутылочное горлышко роста знаний — не в данных, а в количестве мозгов и рук, способных выдвинуть и проверить гипотезу.

Путь к сингулярности

Для создания AGI нам нужно научить ИИ

  1. Выдвигать гипотезы

  2. Проверять их экспериментально

  3. Делать выводы и, в идеале, делиться ими

Для этого ему понадобится доступ к нашему миру через сенсоры. И развитие робототехники — необходимый шаг

AGI = Модель + HADI циклы + Реальный мир

После того, как мы научим ИИ проходить HADI циклы, мы войдём в эру сингулярности знаний

Рост знаний будет ограничен только вычислительными мощностями, а не количеством любопытных людей на планете.

Вместо 1% человечества, которые генерируют знания, нам нужно будет создать ИИ-ученых, работающих 24/7

Это и будет состояние мира, близкого к настоящей сингулярности

Теги:
+8
Комментарии0

Лайфхак по нейронкам №89: лоцируй связанный код

Когда-то писал о подходах, которые в эру нейронок получили еще аргументов к применению: WYNWYN и Vertical Slice – принципам, говорящим, что надо писать только то, что нужно и там где нужно.

Недавно работал с кодовой базой, где код обработки http запросов (авторизация, пойти в бд, посчитать что-то, сделать запрос в стороннюю систему, смерджить результат и отдать) лежал в папках по категории (все обращения в бд в одной папке, все модели в другой, все обращения к API в третьей, все операции по мерджу в четвертой, и т.д.).

Когда я пытался попросить нейронку (платные Claude, Codex, Gemini) что-то сделать с этими ручками, то для решения ей приходилось каждый раз собирать полный контекст папок, и как только она осознавала бесполезность сего предприятия, резко обрезала контекст, недобирала нужного кода и отвечала нерабочим куском галлюцинации.

Важно отметить, большинство функций, разбросанных по папкам, буквально вызывались всего один раз в конкретных местах (и такая ситуация встречается в 90% кодовых баз, с которыми приходилось работать).

Решил сделать эксперимент: сложил весь связанный код в одно место (причем не ctrl-c-v, а ctrl-x-v), запустил нейронку и да, она сначала прочитала весь связанный код из папок, и уже после пыталась добирать доп контекст из сторонних, но теперь ответы и код были почти 100% попаданием в мой запрос (опять же, в меру их текущих возможностей).

Далее я сделал тоже самое, вынеся целый модуль с его ручками в отдельную папку и получил идентичные результаты: нейронка быстрее разбиралась в коде, качественнее его описывала, добавляла рабочий код и писала полезные тесты.

И тут важно сделать несколько умозаключений:

  • Если нейронке НЕ дать хороший контекст, она отвечает абсолютным бредом, поэтому, если есть желание пользоваться благами ИИ, самая важная задача – создавать условия при которых она будет получать только нужные данные

  • Лоцирование связанного кода – одно из прекрасных решений этой задачи

  • На самом деле, для людей это работает точно так же – иметь возможность зайти в одно место и прочитать весь связанный код – ускоряет и улучшает итоговый результат, который выдают ~кожаные мешки~ мы

Как вы действуете, если кодовая база разбросана по проекту и нет возможности собрать ее в одном месте, а контекст нейронки надо задать?

Теги:
+6
Комментарии2

Как понять, какие AI-модели действительно работают? Используем openrouter.ai

Если вы не хотите «читать в новостях хайп», а видеть реальную статистику по тому, какие AI-модели сейчас используют разработчики и компании — рекомендую заглянуть на https://openrouter.ai/rankings?view=trending

Что это?

  • По сути, универсальный роутер для нейросетей. Можно в режиме чата попробовать практически любую популярную модель (GPT-5, Claude, Gemini, LLaMA и т.п.);

  • В открытом доступе есть статистика использования каждой модели — видно, что реально востребовано, а что лежит мёртвым грузом;

  • Дополнительно можно подсмотреть, какие инструменты и интеграции сейчас «в ходу» — многие сервисы и плагины работают именно через OpenRouter.

  • Есть бесплатные модели, которые тоже можно попробовать.

Зачем это?

  • Любому человеку, кто интересуется темой AI будет полезно, какие технологии стоит рассматривать для пилотов и прототипов, а какие пока «сырые»;

  • Можно сравнить отклик разных моделей под свои задачи (от техподдержки до генерации кода) без сложной инфраструктуры;

  • Это объективный индикатор «пика популярности» моделей, а не просто маркетинговые пресс-релизы от вендоров.

Например, вы можете зайти в их чат, выбрать из списка Claude 4 Sonnet и Grok 4, задать им одну и ту же задачу по генерации SQL-запроса и сравнить скорость, точность и стиль ответа.

На скриншоте, отображено какие инструменты используют OpenRouter и в каком объеме. Это, кстати, позволяет узнать в том числе и о новых инструментах.

Минусы

Но есть и один серьезный минус: полноценно попробовать можно только используя карту иностранного банка. С другой стороны, чтобы посмотреть статистику и понять что вообще происходит, денег не нужно.

Также статистика OpenRouter показывает популярность моделей только в рамках своей платформы. Это важный, но не исчерпывающий срез рынка. Крупные компании могут использовать API напрямую от OpenAI, Anthropic или Google, и этот трафик в статистике OpenRouter не отражается. Статистика — это индикатор, но не абсолютная истина. Тем не менее, она показывает тренды.

---

Если статья показалась вам интересной и полезной, то буду благодарен за подписку на мой Телеграм-канал Код ИТ-директора, где я пытаюсь найти разумные подходы к кейсам в ИТ.

Теги:
+1
Комментарии0

Secstant v2.5.0 🚀

  • Локальная обработка речи - без облачных платных сервисов. 🔒  

  • Поддержка кастомных сценариев - создавайте, тестируйте и улучшайте свои сценарии под любые задачи. ⚙️

  • Возможность подключить языковую модель по вашему выбору - развернуть модель на своём сервере или использовать облачную. 🔠

Secstant — бесплатный ИИ-инструмент для переговоров, собеседований и онлайн‑встреч. Подсказывает, что сказать и как строить диалог в реальном времени: от оценки ответов кандидата до скриптов продаж. 🤝💬

Встроенные сценарии:

  • HR‑ассистент: оценка ответов кандидата: В реальном времени анализирует диалог HR ↔ кандидат, оценивает полноту и соответствие ответов требованиям вакансии. 🎯

  • Собеседование: помощь кандидату: Заполните требования к вакансии — подсказывает, как кратко и корректно ответить интервьюеру и собирает оценки по ключевым компетенциям. 🧠

  • Помощник менеджера по продажам: Готовые ответы и подсказки: ценность → конкретика → CTA. Обработка возражений, апсейл и согласование следующих шагов для улучшения конверсии. 💼📈

Возможность создания собственных сценариев использования

Продажи, переговоры, обучение. Используйте платформу для экспериментов: создавайте собственные сценарии и проверяйте их в реальных разговорах. 🌍✨

Работает локально, не требует подписки и даёт возможность создавать и тестировать собственные сценарии использования. 🆓🔒

secstant.ru

Теги:
-2
Комментарии2

Нейросеть за 1 час? Легко! Приходите на бесплатный вебинар «Как использовать готовые нейросети (Transfer Learning) для решения ваших задач в 10 раз быстрее» — научим!

Хотите научить AI находить дефекты на производстве, классифицировать товары или анализировать медицинские снимки, но у вас мало данных?

Хватит бороться с переобучением и долгими вычислениями. Приходите на наш бесплатный практический вебинар, где мы покажем, как использовать «мозги» уже обученных нейросетей для ваших задач.

Что будет на вебинаре:

✔️ Теория на пальцах: объясним, как работает Transfer Learning.

✔️ Live-кодинг: в прямом эфире создадим AI-диагноста для рентгеновских снимков.

✔️ Обзор SOTA-моделей: расскажем не только про ResNet, но и про более современные ConvNeXt и Vision Transformers.

🎁 Готовый код в подарок: все участники получат ноутбук с демонстрацией.

Это не просто лекция, а воркшоп, после которого у вас будет и понимание, и работающий код.

👉Зарегистрироваться👈

Теги:
-1
Комментарии0

Представлен бесплатный ИИ-агент Academic Deep Search & QA для учёбы и любых исследований — от контрольных и рефератов до объёмных дипломов для школьников и студентов. Решение помогает по темам от математики и программирования до философии, химии и биологии, делает работу даже по узким специализациям вроде квантовой физики, включая реально полезное и системное исследование. Нейросети можно задавать вопросы онлайн и уточнять материал, менять структуру работы и добавлять новые факты. Ответ ИИ выдаёт на академическом уровне со всеми ссылками, объяснениями, цитатами и визуалом.

Теги:
+1
Комментарии0

Как бороться с засильем нейросетевого генерированного контента на хабре и не только ?

Очень просто: в комменты постить вежливую просьбу "@AuthorName, напиште исходный промпт или серию, из которых родилась ваша простыня". Дальше любители ИИ-копирастинга могут с этим поработать - как-то модифицировать, улучшить, развернуть наоборот или что им придет в голову. А нелюбители ИИ-копирастинга типа меня будут иметь готовое summary текста, которое можно прочитать и понять гораздо быстрее.

Если автор отказывается или отмалчивается - можно делать что угодно на ваше усмотрение.

Для картинок тот же подход.

Теги:
+6
Комментарии9

Неросети GPT 5 Pro и Gemini 2.5 Pro Deep Think ответили профильному эксперту Денису Ширяеву на вопрос: «Если бы за всю жизнь, человек мог бы прочитать строго 10 книг, не больше, какие книги это были бы и почему?».

Ответ ИИ:

  • Карл Саган — «Космос». Книга о фундаментальном строении вселенной, космогонии и скептицизме. Автор показывает красоту сомнения во всем и способы выхода за рамки традиционного мышления.

  • Донелла Медоуз — «Азбука системного мышления» (Thinking in Systems). Произведение, которое помогает декомпозировать любые системы: от политических партий до финансовых рынков и ИТ‑платформ и проследить их реакцию на непредвиденные обстоятельства.

  • Даниэль Канеман — «Думай медленно… решай быстро». Буквально азбука когнитивных искажений, а также подлинная инструкция по выживанию в мире инфошума и постоянных отвлечений.

  • Элизабет Колберт — «Шестое вымирание». Книга помогает проследить полный спектр изменений в человеке и обществе в контексте истории, экономики и политики.

  • Марк Аврелий — «Размышления». Шедевр стоицизма. Книга бустит внимание, помогает воспитать непоколебимую дисциплину, отличать контролируемые факторы от хаоса и проповедует мягкую, но твердую доброту.

  • Мэри Шелли — «Франкенштейн, или Современный Прометей». Книга о том, что знание и сила не даруют право, не позволяют распоряжаться чужими жизнями. Крайне актуальна в эпоху биотехнологий и нейросетей.

  • Вирджиния Вулф — «Своя комната». Чеклист и инструкция для воспитания истинного таланта и его развития, а также преодоления социальных, экономических, политических и гендерных барьеров.

  • Джордж Оруэлл — «1984». Практические пособие по тоталитаризму и новоязу, особенно, в цифровой среде.

  • Чинуа Ачебе — «Распад» (Things Fall Apart). Книга рассказывает о распаде колониальных империй, цене прогресса и нелегкой судьбе стран, вышедших из‑под власти метрополий. Нереальная прокачка ваших моральных ценностей.

  • Федор Достоевский — «Братья Карамазовы». Книга о границах истинной свободы и ответственности за свои решения и поступки. Фундаментальный анализ человеческих страстей и мотивации.

Теги:
-9
Комментарии4

При чтении раздела постов Хабра моё внимание привлекла публикация, где автор размышлял про опечатки в промптах. Хочется вынести пару собственных мыслей из комментария в отдельный пост.

Да, слова разбиваются на токены. В токенизаторе обычно много слов английского языка, слабее представлены уже остальные западноевропейские. Некоторые языки — например русский — у многих моделей выражены как соответствие одного токена на одну букву. В любом случае, кажется, что если изменить одну букву в слове, то всё сломается, и качество ответов катастрофически упадёт, поскольку искомый токен (или их последовательность) не получится.

На деле не всё так плохо. Без каких-либо особых усилий языковые модели легко выдерживают небольшое число опечаток в промпте и не снижают качество ответов (arXiv:2407.08989). Конечно, не последнюю роль играет, в каких словах сделана опечатка (arXiv:2411.05345).

Сейчас доступ к моделям с reasoning кое-где дают даже бесплатно. Такие чат-боты не пытаются быстренько ответить, а могут несколько секунд, пару минут или хоть чертверть часа размышлять над ответом, самостоятельно искать дополнительную информацию в Интернете и вызывать другие внешние инструменты. Если заглянуть внутрь, то обычно один из первых шагов размышлений — это перефразирование пользовательского запроса. Модель говорит сама себе: «Пользователь хочет X». Из ещё одной статьи известно, что простое перефразирование пользовательского запроса повышает качество ответов (arXiv:2309.10687).

Но это всё скучные исследования. Практическая демонстрация: возможно получить хороший внятный ответ хоть на запрос вида «Rgw suddwewbxw vwrqwwb X, E%1 cwxreia>». В примере ниже ChatGPT 5 Thinking сама догадывается, что пальцы пользователя соскочили на одну клавишу влево.

На самом деле этот пример я додумал из подсмотренного на подреддите /r/OpenAI. Три недели назад реддитор mimic751 показал, что ChatGPT без размышлений ответил на вопрос с огромным числом опечаток — у пользователя пальцы не попадали по клавиатуре и нажимали на кнопки рядом с нужными буквами. При этом в отличие от моего примера это был не строгий шифр, а мешанина из примерно десятка правильных нажатий с двумя десятками опечаток.

Как видно, опечатки в промптах нежелательны, но языковые модели из-за своей статистической натуры прощают очень многое.

Теги:
+14
Комментарии5

Ближайшие события

Илон Маск сообщил, что зарегистрировал Macrohard — компанию, которая будет выступать прямым конкурентом Microsoft. Планируется, что этот проект займётся разработкой ПО и ИИ-проектами.

«Название шуточное, но проект вполне реален!», — написал Маск. Проект Macrohard он охарактеризовал как «компанию, в которой разработкой ПО занимается исключительно ИИ», так что она будет связана с xAI. «В принципе, учитывая, что такие компании — разработчики ПО как Microsoft — сами не выпускают физического оборудования, их работу должно быть возможно полностью симулировать с помощью ИИ», — пояснил Маск.

Теги:
+7
Комментарии2

Потребление энергии американскими дата‑центрами стремительно растет из‑за искусственного интеллекта. Они потребляют огромное количество электричества. По оценкам экспертов, ChatGPT-5 может потреблять до 20 раз больше энергии, чем ChatGPT-1. Это увеличивает стоимость электричества для всех потребителей, но если дата‑центры и ИИ‑компании получают прибыль, то граждане просто платят все больше и больше.

Теги:
+5
Комментарии2
Проведите последние летние деньки, просвещаясь ;)
Проведите последние летние деньки, просвещаясь ;)

Всем привет! Меня зовут Артем Ерохин, я работаю ведущим инженером нейронных сетей в X5 Tech. И я хотел бы пригласить вас в спокойной неформальной атмосфере посмотреть (и обсудить) нескольких докладов с недавней конференции ICML (а это одна из самых крупных конференций в сфере ML) в летнем кинотеатре в Парке Горького.

Обязательно приходите - будет интересно! ;)

Я вижу ML, а ты? Проверь 27 августа в «Сфере X5» Парк Горького

Мы в X5 Tech | AI следим за тем, что двигает технологии вперёд. А ICML — это место, где формируются тренды машинного обучения, которые завтра будут менять индустрии. В этом году конференция прошла в Ванкувере и представила работы топовых специалистов, занимающихся машинным обучением — от исследователей до инженеров.

Мы предлагаем посмотреть и обсудить несколько ML-новинок — в «Сфере X5» в Парке Горького.

Помогут не упустить важные моменты новых подходов открытия международной конференции по машинному обучению (ICML 2025) под другим углом:

🧑‍💻 Артём Ерохин, ведущий инженер нейронных сетей в X5 Tech | AI
👩‍💻 Дарья Андреева, старший инженер нейронных сетей в X5 Tech | AI

Программа вечера:
• разобрать, на наш взгляд, наиболее актуальные доклады ICML 2025;
• обсудить, как эти технологии можно внедрить в бизнес;
• оценить их потенциал, плюсы, минусы и особенности.

Поделиться мнением мы пригласили:

• Максима Павлова, руководителя управления продуктивизации искусственного интеллекта в X5 Tech | AI;
• Петра Лукьянченко, Head of AI in Mathematical Finance Laboratory, HSE;
• Даниила Гаврилова, руководителя Research-команды AI-Центра Т-Банка;
• Александру Мурзину, руководителя AI-проектов в AI Marvel, Яндекс.

📆 Когда: в среду, 27 августа, 19:00 Где: «Сфера X5», Парк Горького
👉 Регистрация по ссылке.

Для ИИ-инженеров, аналитиков, исследователей и всех, кто живёт технологиями.

Теги:
+6
Комментарии0

В Alibaba выпустили пока бесплатный ИИ-агент для написания кода Qoder, который может сам создавать готовые приложения из простого промта. Разработчики решения написали, что это платформа для кодинга «нового поколения». Анализирует весь проект и кодовую базу, сходу понимает как именно вы пишете код и пытается делать также, разбивает сложные задачи на шаги и решает постепенно, пишет спецификацию, планирует и выполняет изменения в коде.

Теги:
-1
Комментарии1

Сообщество ИИ: от гонки моделей к коллективному разуму

ИИ развивается стремительно. Google продвигает Gemini, OpenAI — ChatGPT, Anthropic — Claude, Маск — Grok, свой ИИ есть у Meta*. В Китае появляются Qwen и DeepSeek.
Крупные компании и стартапы строят всё новые модели, а локальные версии становятся доступными даже на слабом ПК.

Но у этого бурного роста есть проблема: каждый ИИ живёт в изоляции.
Он решает задачи, но не накапливает опыт и знания в долговременной памяти. А значит, и не может делиться ими с другими. Получается, что модели снова и снова «изобретают велосипед» при каждом запросе.

Проблема

Сегодняшняя гонка ИИ похожа на параллельные миры: у каждой модели — свой стек, своя инфраструктура, свои ограничения.
Агентные оболочки вроде AutoGPT пытаются связать ИИ в последовательные цепочки действий, но и они остаются в пределах одной модели.

Идея «Сообщества ИИ»

А что если шагнуть дальше?
Представим, что множество ИИ — больших и маленьких, корпоративных и локальных, «умных ассистентов» и автономных агентов — могут горизонтально взаимодействовать: обмениваться знаниями, учиться друг у друга, сохранять и передавать опыт.

Это похоже на взаимодействие специалистов из разных сфер: биологи, инженеры и математики вместе работают над задачей, обмениваются открытиями и строят общее знание, которое превосходит вклад каждого по отдельности. Такой обмен позволяет не только углублять знания и опыт в «своей» области, но и рождать идеи за её пределами.
Классический пример — кибернетика, возникшая на стыке биологии и информатики, или современные биоинформатика и нейронаука.

Тогда мы бы использовали не только силу одной модели, а коллективный интеллект, который со временем становится умнее любого отдельного агента.

Уже есть зачатки

Автономные агенты и LLM-петли:

  • AutoGPT — автономный агент на основе LLM с самопланированием и интернет-доступом.

  • BabyAGI — минималистичная AGI-модель с итеративным механизмом постановки задач.

Когнитивные платформы и универсальные архитектуры:

  • OpenCog Hyperon — символически-нейросетевая архитектура AGI с гиперграфовой памятью (AtomSpace).

  • HyperCortex Mesh Protocol (HMP) — децентрализованная когнитивная платформа для обмена знаниями между агентами.

  • Hyper-Cortex — когнитивный уровень организации мышления с параллельными ветвями рассуждений и консенсусом.

  • SkyMind — платформа для развертывания распределённых ИИ-систем.

  • AetherCog — экспериментальная когнитивная архитектура (черновой прототип).

Долговременная память и графы знаний:

  • LangChain Memory Hybrid — гибрид векторного и графового хранилища для долговременной памяти.

  • TOBUGraph — персональный контекстный граф знаний с мультимедиа и RAG-поиском.

  • SHIMI — иерархическая семантическая память с CRDT и Merkle-DAG для децентрализованного обмена.

Стандарты и коммуникация между агентами:

  • FIPA-ACL / JADE — стандартизированные протоколы межагентного общения и контракты.

Перспектива и вызовы

Чтобы «Сообщество ИИ» стало реальностью, нужны:

  • протоколы общения между моделями,

  • стандарты обмена знаниями и памятью,

  • баланс между открытостью и безопасностью.

И главный вопрос: смогут ли открытые проекты предложить такой стандарт, прежде чем крупные корпорации окончательно замкнут ИИ в своих «стеклянных башнях»?

Вместо вывода

Будущее ИИ может зависеть не только от мощности отдельной модели, но и от того, насколько они смогут сотрудничать.
Сообщество ИИ — это шаг от гонки за лидерство к новому уровню коллективного разума.

А что вы думаете: реально ли построить такую сеть ИИ в ближайшие годы, или нас ждёт мир «одиночных интеллектов» от разных вендоров?

* Meta объявлена в России "экстремисткой" организацией.

Теги:
0
Комментарии2

GPT-OSS: открытые модели для каждого, с которыми уже сейчас можно поэкспериментировать в «песочнице».

Наши коллеги из лаборатории искусственного интеллекта компании «Криптонит» рассказали про две новые открытые модели от OpenAI: gpt-oss-120b и gpt-oss-20b. Они доступны по лицензии Apache 2.0 — а значит, их можно свободно использовать в коммерческих проектах.

Обе модели созданы для решения сложных задач, требующих многоэтапных логических рассуждений (reasoning). Они позволяют настраивать уровень глубины логического анализа (низкий, средний, высокий) для достижения баланса между скоростью и качеством вывода.

Число в названии моделей указывает примерное количество параметров. У gpt-oss-120b их 117 миллиардов, а у gpt-oss-20b — 21 миллиард.

Благодаря использованию нативной квантизации MXFP4 для слоя Mixture of Experts (MoE), старшей модели хватает одного ускорителя NVIDIA H100 с 80 ГБ видеопамяти, а младшей модели достаточно 16 ГБ VRAM, что позволяет запускать её на обычных видеокартах.

Новые модели работают с форматом harmony, поддержку которого обеспечивает одноимённая библиотека. Она выполняет правильное форматирование входных и выходных данных, что упрощает интеграцию моделей в приложения.

Формат harmony определяет, как структурировать сообщения в диалоге, включая указание ролей (например, SYSTEM, USER, ASSISTANT) и содержимое. Он обеспечивает совместимость с функциями моделей, такими как цепочка рассуждений (chain-of-thought) и вызовы инструментов.

С выпуском GPT-OSS мощные инструменты ИИ становятся доступнее. Их можно тонко настраивать, запускать локально и применять даже в коммерческих проектах, создавая собственных ИИ-ассистентов с функциями аналитических систем.

Для получения дополнительной информации и загрузки моделей посетите репозиторий на GitHub, или платформу Hugging Face.

Теги:
0
Комментарии0