Как стать автором
Обновить

Комментарии 14

ЗакрепленныеЗакреплённые комментарии
  1. Очень многим нейросотрудникам и не нужно помнить много. Например у нас есть нейросотрудник - менеджер Телеграм канала Светлана. У нее только одна функция - публиковать пост в нужном Телеграм канале. Для её работы нужен только токен бота и ID канала. В этом случае не нужен большой объем данных в постоянной памяти.

  2. Эмбеддинг/rag ни в какое сравнение по точности не идет с тем, что содержится в системной роли по надежности ответов.

  3. В статье приведен пример для пояснения принципа работа памяти. Вот сотрудники, которые у нас на платформе уже во всю используют память:

    1. Фитнес тренер (помнит текущие показатели пользователя: рос, вес и прочее)

    2. Личный шеф-повар (помнит предпочтения пользователя и любымые блюда)

    3. Диетолог (знает важные показатели: сахар в крови и уровень холестерина пользователя)

    4. SMM-копирайтер (пишет тексты с учетом пожеланий по стилю, данного пользователем)

А потом он будет просить премию в гигабайтах.

Про премию это смешно ))) Но я думаю это вполне реалистичный сценарий. Надо же нейросотруднику дать стимул становится лучше со временем. А вот в чём именно давать премию таким нейросотрудникам пока не понятно..

разве чат боты делают не тоже самое в составе одной сессии общения? по сути это история чата, которая прикладывается в контекст с запросом или я возможно что-то не понял...

при этом проблема упирается в длину контекста, который можно обработать за один запрос.

сумарайзин истории понятен.

но я не увидел предобработки памяти перед загрузкой в контекст, проблема именно в этой предобработке без участия ИИ это просто ctrl+F. ролеплэй чаты уже эту технологию используют и она не однозначно оценена.

Задача постоянно памяти оставаться всегда в системной роли даже при сбросе сессии общения. Это полезно тем, что объяснив ИИ один раз что-то про себя ты уже никогда это не повторяешь. Например сказав что ты не любишь бегать ИИ роль "персональный тренер" будет строить твои тренировки с учетом этого и предложит другие виды упражнений. А роль ИИ "Персональный шеф-повар" будет учитывать твои предпочтения в еде, и так далее...

В данной модели, разобранной в статье именно ИИ каждый раз при ответе пользователя делает предобработку и перестраивает память.

  1. количество постоянной памяти равно 4 килобайтам (context window), тяжеловато будет с таким багажом знаний выжить)

  2. эмбеддинг/rag как раз и был сделан чтобы преодолеть именно эту проблему

  3. поправьте меня если не прав, но вы так и не смогли ничего полезного извлечь из своего сотрудника кроме пары общих фраз. Может стоит подойти к проблеме как-то по-другому, ведь иначе дальше чем игрушка это занятие не уйдет, как думаете?

  1. Очень многим нейросотрудникам и не нужно помнить много. Например у нас есть нейросотрудник - менеджер Телеграм канала Светлана. У нее только одна функция - публиковать пост в нужном Телеграм канале. Для её работы нужен только токен бота и ID канала. В этом случае не нужен большой объем данных в постоянной памяти.

  2. Эмбеддинг/rag ни в какое сравнение по точности не идет с тем, что содержится в системной роли по надежности ответов.

  3. В статье приведен пример для пояснения принципа работа памяти. Вот сотрудники, которые у нас на платформе уже во всю используют память:

    1. Фитнес тренер (помнит текущие показатели пользователя: рос, вес и прочее)

    2. Личный шеф-повар (помнит предпочтения пользователя и любымые блюда)

    3. Диетолог (знает важные показатели: сахар в крови и уровень холестерина пользователя)

    4. SMM-копирайтер (пишет тексты с учетом пожеланий по стилю, данного пользователем)

Однако важно помнить о безопасности и конфиденциальности данных, особенно если в JSON словаре содержится личная информация.

очень правильное замечание! этот вопрос для нас крайне важен.

Спасибо за публикацию. В общем-то очень похоже на часть моей публикации, вышедшей 7 месяцев назад (получение информации об объектах через Q&A, а не через гигантскую нейросеть, как делают даже в Китайской Академии Наук (маппинг на обьекты через трансформер)).

https://github.com/ValeriyAndreevichPushkarev/BAC

Удачи Вам в Ваших исследованиях.

Спасибо! Очень любопытно, обязательно изучу ?

Почитайте, сейчас ChatGPT и клоны используют гигантскую модель для хранения всех возможных маппингов на обьекты (которые хранятся в незарегистрированном как ИС нетипизированном контексте) (не говоря про китайцев). Переход к Q&A - это уже другое )

Расскажите подробнее про нейросекретаршу,и как наматывать ее волосы на кулак

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации

Истории