Прошу меня извинить, что так долго не отвечал. Нет я не использую google sheets. Для хранения данных я прикрутил к n8n контейнер с pg и храню все данные в нём.
Исходя из своего опыта я могу сказать что вы двигаетесь в правильном направлении. Я сделал ТГ канал скажем так полуавтоматический. ИИ в нём оформляет и переводит пост. Сначала я так же как и вы искал модель которая хотя бы четко выполняет промт и возвращает валидный json. Потом когда дело наладилось, мне захотелось более качественного перевода и методом подбора я нашел наиболее подходящую для этого модель. Кроме chatgpt существует масса других моделей. Посмотрите более детально. На опенроутер модели разбиты по категориям и каждая имеет описание и там можно каждую попробовать. Посмотреть на её тупость. Я бы вам посоветовал сохранять сначала данные в векторную бд и только потом скармливать их нейросети. Суммаризация данных не такая уж и сложная задача. Рассмотрите low code платформы, например n8n. Если хотите могу вам ссылку на этот ТГ канал отправить. ПосмОтрите историю моих экспериментов и результат сегодняшний. Заранее признаюсь что откровенную дичь я все же удалял.И ещё, посмотрите внимательно на данные которые вы передаёте. Может их стоит как-то структурировать или очистить перед тем как их передать? А сейчас я открою вам страшную тайну: данные которые рожает нейросеть тоже можно обрабатывать. Нейросеть дала свой комментарий перед или после json? Напихала лишних тегов? Всё решается с помощью простейших функций. Найдите закономерности, крепко подумайте над промтом. Не стесняйтесь использовать более одной модели. Каждая модель в чем-то особенно хороша . Делите описание модели на 2. Маленькая модель не означает плохая модель . И прочее.
Прошу меня извинить, что так долго не отвечал. Нет я не использую google sheets. Для хранения данных я прикрутил к n8n контейнер с pg и храню все данные в нём.
Пожалуйста https://t.me/MilitaryPulseRU. Есть куда расти ещё.
На данном этапе могу только похвалиться телеграмм каналом, который ведётся автоматически. Мне нравится n8n.
Исходя из своего опыта я могу сказать что вы двигаетесь в правильном направлении. Я сделал ТГ канал скажем так полуавтоматический. ИИ в нём оформляет и переводит пост. Сначала я так же как и вы искал модель которая хотя бы четко выполняет промт и возвращает валидный json. Потом когда дело наладилось, мне захотелось более качественного перевода и методом подбора я нашел наиболее подходящую для этого модель. Кроме chatgpt существует масса других моделей. Посмотрите более детально. На опенроутер модели разбиты по категориям и каждая имеет описание и там можно каждую попробовать. Посмотреть на её тупость. Я бы вам посоветовал сохранять сначала данные в векторную бд и только потом скармливать их нейросети. Суммаризация данных не такая уж и сложная задача. Рассмотрите low code платформы, например n8n. Если хотите могу вам ссылку на этот ТГ канал отправить. ПосмОтрите историю моих экспериментов и результат сегодняшний. Заранее признаюсь что откровенную дичь я все же удалял.И ещё, посмотрите внимательно на данные которые вы передаёте. Может их стоит как-то структурировать или очистить перед тем как их передать? А сейчас я открою вам страшную тайну: данные которые рожает нейросеть тоже можно обрабатывать. Нейросеть дала свой комментарий перед или после json? Напихала лишних тегов? Всё решается с помощью простейших функций. Найдите закономерности, крепко подумайте над промтом. Не стесняйтесь использовать более одной модели. Каждая модель в чем-то особенно хороша . Делите описание модели на 2. Маленькая модель не означает плохая модель . И прочее.