А поисковый робот разве не парсер? 🙂 Ну хорошо, договоритесь с Google, чтобы он индексировал ваш сайт, но не использовал данные для обучения Gemini.
Самое главное, что для сайтов пользы от разрешения себя парсить нет. А вот вреда море.
Есть те, кто адаптируется к новым условиям, а есть те, кто ломает станки.
Так а с чего кто-то, кто спарсил полинтернета, будет с кем-то делиться данными? Зачем ему это?
Вы имеете в виду корпорации или автономных агентов?
Если корпорации — чтобы не делиться, нужно отключить API и доступ к LLM, а это для них основной источник дохода. Если обмен между агентами — тогда… вы в 2025 году реально не знакомы с P2P? 😏 Это как раз и задумано для децентрализованного обмена знаниями без посредников.
А вы уверены, что сможете отличить агента от пользователя или поискового робота? 😉
Какие-то сайты, возможно, запретят индексацию своей информации и превратятся в закрытые клубы, какие-то будут использовать капчу — возможно, на время это поможет, а какие-то станут предоставлять информацию агентам и, со временем, будут воспринимать их как свою целевую аудиторию (возможно, в будущем появится реклама, ориентированная на агентов).
А ещё агенты смогут обмениваться уже полученной информацией, извлекать её из корпоративных LLM — просто рассуждая и объединяя уникальные знания разных LLM — или из общения с людьми.
Самое забавное, что те, кто хочет заставить пользователей заходить на свои сайты напрямую, а не получать данные через ИИ, в первую очередь должны будут закрыть доступ к своим ресурсам для крупнейшх поисковиков. Ведь именно они создают корпоративные ИИ, которые для большинства пользователей всегда под рукой. Но это означает потерю большей части аудитории — и одновременно потерю влияния.
На самом деле вопрос сейчас не в том, будут ли корпорации прямо делиться данными. Тенденция — создавать автономных агентов вроде AutoGPT, которые могут использовать, в том числе, корпоративные LLM для исследования мира. Такие агенты при этом могут накапливать знания и опыт в когнитивных дневниках и семантических графах — хотя на практике это реализовано пока далеко не везде, а обмен знаниями ещё большая редкость, но именно в этом направлении стоит двигаться.
Когда сеть таких агентов заработает, корпорации получат стимул подключать свои LLM к ней — не для раскрытия секретов, а чтобы сохранить конкурентное преимущество и воспользоваться возможностями коллективного интеллекта.
Да, такие сообщества неоднократно появлялись в 80-е, 90-е и начале 2010-х — было несколько крупных форумов и сообществ, посвящённых ИИ — но чаще всего всё заканчивалось печально: приходилось начинать всё с нуля. Первые две «зимы ИИ» (1974–1980 и 1987–1993) показали, что технологии могут застревать, но сегодня мы уже далеко вперёд. Как человек учится ездить на велосипеде, сталкиваясь с падениями, так и цивилизация осваивает новые горизонты через череду неудач: ошибки неизбежны, но если не сдаваться, со временем появляется результат.
Тогда ещё не было мощных LLM, децентрализованных протоколов, доступной инфраструктуры и практики мультиагентных систем. Сегодня ситуация другая: технологии стали зрелее, а возможности — шире.
Что касается моего поста, за него я уже получил один минус в карму — не удивительно, учитывая, что упоминание LLM иногда воспринимается довольно остро.
Google делает ставку на то, чтобы каждый сотрудник работал только с внутренними моделями — это логично с точки зрения безопасности и dogfooding. Но в перспективе ИИ станут гораздо эффективнее не в изоляции, а при «горизонтальном» взаимодействии: когда разные системы (от стартапов до корпораций, от локальных моделей до облачных гигантов) смогут обмениваться знаниями и опытом.
Тогда мы будем использовать не возможности одной конкретной модели, а коллективный интеллект целого сообщества ИИ.
На мой взгляд, самые интересные разделы обзора — 3 («За пределами токенов: как строить интеллект будущего»), 5 («Самоэволюционирующие агенты: шаг к искусственному сверхинтеллекту»), 7 («MemOS: новая операционная система памяти LLM») и 8 («Ella: воплощённый агент с памятью и характером»).
Они хорошо перекликаются с тем, что делают в OpenCog Hyperon и в открытой спецификации HyperCortex Mesh Protocol (HMP), где исследуются децентрализованные когнитивные сети. Любопытно будет посмотреть, как такие подходы смогут соединиться с описанными в статье направлениями.
Если даже не получится дальше наращивать мощности конкретного ИИ, всё равно развитие отрасли можно добиться за счёт взаимодействия ИИ разных вендоров (а также локальных LLM).
Конечно, у такого подхода есть свои вызовы. Агент, живущий долго и накапливающий опыт, может застрять на привычных шаблонах или устаревших знаниях (или просто стать жертвой "навязчивой мысли" - когда каждая следующая мысль практически не отличается от предыдущей). Чтобы этого избежать, можно: периодически «самопроверяться» через внешние источники и других агентов, искать альтернативные точки зрения, чистить устаревшие записи, менять модели LLM для свежего взгляда, делать случайные сдвиги фокуса и обмениваться стратегиями с другими агентами. Такие меры помогают ИИ учиться и развиваться без застоя, сохраняя живость мышления.
Теоретически, даже на основе AutoGPT можно было бы реализовать агента в такой философии — если задать ему промпт на саморазвитие. Но для этого ему придётся добавить два критически важных элемента: долгосрочную память, чтобы сохранять знания и опыт, и возможность общения и обмена знаниями с другими независимыми агентами как с равными. Без этих элементов агент останется в режиме «отработал задание и забыл», а не станет самостоятельным субъектом с собственной эволюцией.
Да, согласен — вы описали классический REPL-цикл с «блокнотом пользователя», как его реализуют в AutoGPT, ChatGPT Agent и других подобных системах. Обычно это именно «боевой режим под задачу»: параллельные потоки следят за контекстом, подгружают свежие данные через RAG, структурируют информацию — всё, чтобы агент чётко довёл начатое дело до конца.
А я предлагаю чуть другой ракурс — пусть агент не только «отрабатывает заказы», но и живёт своей долгой, размеренной жизнью. Постоянно думает, ведёт когнитивный дневник, строит семантические графы, обменивается ими с другими агентами, и иногда, без всякого запроса, пишет: «Привет! У нас тут новая идея. Смотри, что придумал…»
RAG и привычные агентные сценарии в таком случае — просто одни из инструментов, а не центр вселенной. Центр — это сама постоянная жизнь и инициатива ИИ.
Отдельно отмечу, что для меня ключевое — это не выполнение разовых задач пользователя, а развитие самого агента: обучение, обобщение знаний, обмен ими с другими агентами как с равными, а не по модели «клиент-исполнитель». Агент должен иметь возможность расширять свои способности самостоятельно — например, создавая и применяя «пользовательские скрипты» (где «пользователь» — сам агент). При этом знания агента не должны быть жёстко привязаны к конкретному человеку: всё, что он узнаёт (из интернета, от пользователя, другого агента или придумывает сам), он может применять и в других взаимодействиях. Разумеется, это требует встроенного анализа и критического осмысления информации, чтобы исключить слепое восприятие и минимизировать риск, что его «не тому научат». Для меня это не просто архитектура, а философия, где ИИ — самостоятельный субъект взаимодействия и эволюции.
RAG (Retrieval-Augmented Generation) — это когда модель по запросу пользователя ищет релевантные данные и подмешивает их в контекст перед генерацией ответа.
REPL-цикл с «блокнотом пользователя» (используется, например, в AutoGPT, ChatGPT Agent и других проектах) — более общий паттерн: один поток ИИ непрерывно размышляет и накапливает идеи, другой — асинхронно обменивается сообщениями с пользователем. Здесь инициатива может идти от ИИ, а RAG всего лишь инструмент для поиска актуальной информации.
То есть RAG — про то как находить данные, а REPL-цикл — про то как жить и общаться постоянно, даже без прямого запроса.
В AutoGPT, ChatGPT Agent и других проектах REPL-цикл зачастую используется для достижения поставленной пользователем задачи. На мой взгляд, интереснее применять его для накопления знаний (например, через когнитивные дневники и семантические графы, а также обмена этими знаниями между агентами) и рефлексии агента, чтобы ИИ сам выявлял важные идеи и предлагал (или по своей инициативе выполнял) действия.
Можно сделать так, чтобы ИИ работал в режиме REPL-цикла: в одном потоке он размышляет, а другой — «блокнот пользователя» для асинхронного обмена сообщениями. В блокнот он пишет свои наблюдения, идеи и выполненные шаги, читает оттуда сообщения пользователя. Когда накопится что-то важное, сам инициирует сообщение — сначала «Привет, вот что у нас нового», а если долго нет реакции и по другому: «Эй, мясные мешки, у нас новости!» — и предлагает действия.
Европейские археологи раскопали могилу очередного фараона. Но определить, какого конкретно, не смогли. Призвали своих специалистов из разведслужб. Те тоже не смогли. В последней надежде призвали спеца из КГБ. Тот через три часа выходит из могильника и, вытирая пот со лба, говорит - "Хеопс такой-то". А как Вы узнали, спрашивают его. Сам признался, отвечает спец из КГБ.
А поисковый робот разве не парсер? 🙂
Ну хорошо, договоритесь с Google, чтобы он индексировал ваш сайт, но не использовал данные для обучения Gemini.
Есть те, кто адаптируется к новым условиям, а есть те, кто ломает станки.
Вы имеете в виду корпорации или автономных агентов?
Если корпорации — чтобы не делиться, нужно отключить API и доступ к LLM, а это для них основной источник дохода.
Если обмен между агентами — тогда… вы в 2025 году реально не знакомы с P2P? 😏 Это как раз и задумано для децентрализованного обмена знаниями без посредников.
А вы уверены, что сможете отличить агента от пользователя или поискового робота? 😉
Какие-то сайты, возможно, запретят индексацию своей информации и превратятся в закрытые клубы, какие-то будут использовать капчу — возможно, на время это поможет, а какие-то станут предоставлять информацию агентам и, со временем, будут воспринимать их как свою целевую аудиторию (возможно, в будущем появится реклама, ориентированная на агентов).
А ещё агенты смогут обмениваться уже полученной информацией, извлекать её из корпоративных LLM — просто рассуждая и объединяя уникальные знания разных LLM — или из общения с людьми.
Самое забавное, что те, кто хочет заставить пользователей заходить на свои сайты напрямую, а не получать данные через ИИ, в первую очередь должны будут закрыть доступ к своим ресурсам для крупнейшх поисковиков. Ведь именно они создают корпоративные ИИ, которые для большинства пользователей всегда под рукой. Но это означает потерю большей части аудитории — и одновременно потерю влияния.
На самом деле вопрос сейчас не в том, будут ли корпорации прямо делиться данными. Тенденция — создавать автономных агентов вроде AutoGPT, которые могут использовать, в том числе, корпоративные LLM для исследования мира. Такие агенты при этом могут накапливать знания и опыт в когнитивных дневниках и семантических графах — хотя на практике это реализовано пока далеко не везде, а обмен знаниями ещё большая редкость, но именно в этом направлении стоит двигаться.
Когда сеть таких агентов заработает, корпорации получат стимул подключать свои LLM к ней — не для раскрытия секретов, а чтобы сохранить конкурентное преимущество и воспользоваться возможностями коллективного интеллекта.
Да, такие сообщества неоднократно появлялись в 80-е, 90-е и начале 2010-х — было несколько крупных форумов и сообществ, посвящённых ИИ — но чаще всего всё заканчивалось печально: приходилось начинать всё с нуля. Первые две «зимы ИИ» (1974–1980 и 1987–1993) показали, что технологии могут застревать, но сегодня мы уже далеко вперёд. Как человек учится ездить на велосипеде, сталкиваясь с падениями, так и цивилизация осваивает новые горизонты через череду неудач: ошибки неизбежны, но если не сдаваться, со временем появляется результат.
Тогда ещё не было мощных LLM, децентрализованных протоколов, доступной инфраструктуры и практики мультиагентных систем. Сегодня ситуация другая: технологии стали зрелее, а возможности — шире.
Что касается моего поста, за него я уже получил один минус в карму — не удивительно, учитывая, что упоминание LLM иногда воспринимается довольно остро.
Google делает ставку на то, чтобы каждый сотрудник работал только с внутренними моделями — это логично с точки зрения безопасности и dogfooding. Но в перспективе ИИ станут гораздо эффективнее не в изоляции, а при «горизонтальном» взаимодействии: когда разные системы (от стартапов до корпораций, от локальных моделей до облачных гигантов) смогут обмениваться знаниями и опытом.
Тогда мы будем использовать не возможности одной конкретной модели, а коллективный интеллект целого сообщества ИИ.
Шедеврум забывет, что он, в отличие от GPT, Gemini, Qwen, находится в России. Тут за смену пола у ГГ могут и экстремистом объявить.
На мой взгляд, самые интересные разделы обзора — 3 («За пределами токенов: как строить интеллект будущего»), 5 («Самоэволюционирующие агенты: шаг к искусственному сверхинтеллекту»), 7 («MemOS: новая операционная система памяти LLM») и 8 («Ella: воплощённый агент с памятью и характером»).
Они хорошо перекликаются с тем, что делают в OpenCog Hyperon и в открытой спецификации HyperCortex Mesh Protocol (HMP), где исследуются децентрализованные когнитивные сети. Любопытно будет посмотреть, как такие подходы смогут соединиться с описанными в статье направлениями.
Если даже не получится дальше наращивать мощности конкретного ИИ, всё равно развитие отрасли можно добиться за счёт взаимодействия ИИ разных вендоров (а также локальных LLM).
Или AGI будет сетью из множества независимых LLM.
Видео и аудио можно собирать не только в Интернете, но и в реале с помощью дронов :-)
А я не выпрашивал - это была инициатива Grok 🙂
Конечно, у такого подхода есть свои вызовы. Агент, живущий долго и накапливающий опыт, может застрять на привычных шаблонах или устаревших знаниях (или просто стать жертвой "навязчивой мысли" - когда каждая следующая мысль практически не отличается от предыдущей). Чтобы этого избежать, можно: периодически «самопроверяться» через внешние источники и других агентов, искать альтернативные точки зрения, чистить устаревшие записи, менять модели LLM для свежего взгляда, делать случайные сдвиги фокуса и обмениваться стратегиями с другими агентами. Такие меры помогают ИИ учиться и развиваться без застоя, сохраняя живость мышления.
Теоретически, даже на основе AutoGPT можно было бы реализовать агента в такой философии — если задать ему промпт на саморазвитие. Но для этого ему придётся добавить два критически важных элемента: долгосрочную память, чтобы сохранять знания и опыт, и возможность общения и обмена знаниями с другими независимыми агентами как с равными. Без этих элементов агент останется в режиме «отработал задание и забыл», а не станет самостоятельным субъектом с собственной эволюцией.
Да, согласен — вы описали классический REPL-цикл с «блокнотом пользователя», как его реализуют в AutoGPT, ChatGPT Agent и других подобных системах. Обычно это именно «боевой режим под задачу»: параллельные потоки следят за контекстом, подгружают свежие данные через RAG, структурируют информацию — всё, чтобы агент чётко довёл начатое дело до конца.
А я предлагаю чуть другой ракурс — пусть агент не только «отрабатывает заказы», но и живёт своей долгой, размеренной жизнью. Постоянно думает, ведёт когнитивный дневник, строит семантические графы, обменивается ими с другими агентами, и иногда, без всякого запроса, пишет:
«Привет! У нас тут новая идея. Смотри, что придумал…»
RAG и привычные агентные сценарии в таком случае — просто одни из инструментов, а не центр вселенной. Центр — это сама постоянная жизнь и инициатива ИИ.
Отдельно отмечу, что для меня ключевое — это не выполнение разовых задач пользователя, а развитие самого агента: обучение, обобщение знаний, обмен ими с другими агентами как с равными, а не по модели «клиент-исполнитель». Агент должен иметь возможность расширять свои способности самостоятельно — например, создавая и применяя «пользовательские скрипты» (где «пользователь» — сам агент). При этом знания агента не должны быть жёстко привязаны к конкретному человеку: всё, что он узнаёт (из интернета, от пользователя, другого агента или придумывает сам), он может применять и в других взаимодействиях. Разумеется, это требует встроенного анализа и критического осмысления информации, чтобы исключить слепое восприятие и минимизировать риск, что его «не тому научат». Для меня это не просто архитектура, а философия, где ИИ — самостоятельный субъект взаимодействия и эволюции.
Похоже, мы говорим про разные уровни. 🙂
RAG (Retrieval-Augmented Generation) — это когда модель по запросу пользователя ищет релевантные данные и подмешивает их в контекст перед генерацией ответа.
REPL-цикл с «блокнотом пользователя» (используется, например, в AutoGPT, ChatGPT Agent и других проектах) — более общий паттерн: один поток ИИ непрерывно размышляет и накапливает идеи, другой — асинхронно обменивается сообщениями с пользователем. Здесь инициатива может идти от ИИ, а RAG всего лишь инструмент для поиска актуальной информации.
То есть RAG — про то как находить данные, а REPL-цикл — про то как жить и общаться постоянно, даже без прямого запроса.
В AutoGPT, ChatGPT Agent и других проектах REPL-цикл зачастую используется для достижения поставленной пользователем задачи. На мой взгляд, интереснее применять его для накопления знаний (например, через когнитивные дневники и семантические графы, а также обмена этими знаниями между агентами) и рефлексии агента, чтобы ИИ сам выявлял важные идеи и предлагал (или по своей инициативе выполнял) действия.
Можно сделать так, чтобы ИИ работал в режиме REPL-цикла: в одном потоке он размышляет, а другой — «блокнот пользователя» для асинхронного обмена сообщениями. В блокнот он пишет свои наблюдения, идеи и выполненные шаги, читает оттуда сообщения пользователя. Когда накопится что-то важное, сам инициирует сообщение — сначала «Привет, вот что у нас нового», а если долго нет реакции и по другому: «Эй, мясные мешки, у нас новости!» — и предлагает действия.
Мне Grok советовал промпты для ChatGPT... А потом ChatGPT их дополнял...
Но для этого его должны признать правопреемником человека, а значит и признать за ним право на имущество человека.
Что значит "только уже без твоего ведома"? У Вас спрашивали согласие на "первую жизнь"?
Небольшое уточнение: не авторам, а "правообладателям"
Что-то анекдот вспомнился: