Пришёл к выводу, что в большинстве случаев в зависимости от запроса Grok генерирует слишком длинное сообщение, превышающее допустимый предел символов Telegram. Это причина того, что не приходит ответ. Можно, конечно, в конце запроса попросить сжать ответ для экономии токенов. Но правильнее было бы поступить как в GigaChat - создать мини-приложение в телеге, нажав которое открывается полный ответ нейросети.
Не парься.) После прочтения обзора ясно, что "ребята" не хотели полностью заменить анализ, а просто использовали БЯМ для ускорения категоризации запросов. При этом они сами правят ответы БЯМ, а значит, проводят ручную проверку и анализ. То есть, БЯМ использовали для быстрой первичной категоризации, а потом уже вручную проверяли и анализировали результаты. Всё нормально, видно, что работают бывалые.
Вместо итогов приведены смелые обобщения, с которыми можно поспорить. Как по мне, добавление внешних факторов (регрессоров) в модель может улучшить её предсказательную способность, но далеко не всегда. Зачастую результат становится только хуже. А скорость выполнения итерации в 3–5 секунд иногда будет восприниматься как счастье🙂 Конечно, это относительно, но всё же. Изюминка занудства) — орфографическая ошибка «phophet».
Спасибо за слова благодарности! Аж замотивировали.) В данном исследовании используются временные данные о погоде, подготовленные Франсуа (ссылка на вводную о наборе данных, там же описаны его параметры). В данном исследовании модели обучаются на первых трёх годах, а валидация и тестирование на последующих двух неделях (не в отрыве). В завершающей части второй главы планировал показать как дообучить лучшую статистическую модель на валидационных данных, чтобы затем выполнить прогнозирование и сравнить с тестовой частью. Это будет в части с анализом Фурье, которую, по всей видимости, закончу в начале декабря (как, наверное, и у всех к концу года навалилось на работе). Подпишитесь, чтобы не пропустить.)
Набор данных подготовил Ф.Шолле. Я не делал сравнений с другими методами, но идея заманчивая и интересная: вполне тянет на отдельную статью. Если возьмётесь, будет здорово!
Прочтите хотя бы одну профессионально переведённую книгу по ML и Data Science, не надо фантазировать и уподобляться стаду, которое один раз услышало — и понеслось…
— Вот, кстати, один из примеров — сегодняшний обзор книги по машинному обучению: ссылка.
Просто просмотрите.
Вот и натянули сову на глобус >))
Требуется переводчик с русского на русский, ничего не понял.
Пришёл к выводу, что в большинстве случаев в зависимости от запроса Grok генерирует слишком длинное сообщение, превышающее допустимый предел символов Telegram. Это причина того, что не приходит ответ. Можно, конечно, в конце запроса попросить сжать ответ для экономии токенов. Но правильнее было бы поступить как в GigaChat - создать мини-приложение в телеге, нажав которое открывается полный ответ нейросети.
Не парься.) После прочтения обзора ясно, что "ребята" не хотели полностью заменить анализ, а просто использовали БЯМ для ускорения категоризации запросов. При этом они сами правят ответы БЯМ, а значит, проводят ручную проверку и анализ. То есть, БЯМ использовали для быстрой первичной категоризации, а потом уже вручную проверяли и анализировали результаты. Всё нормально, видно, что работают бывалые.
Спасибо за инфо! Бот работает.
Вместо итогов приведены смелые обобщения, с которыми можно поспорить. Как по мне, добавление внешних факторов (регрессоров) в модель может улучшить её предсказательную способность, но далеко не всегда. Зачастую результат становится только хуже. А скорость выполнения итерации в 3–5 секунд иногда будет восприниматься как счастье🙂 Конечно, это относительно, но всё же. Изюминка занудства) — орфографическая ошибка «phophet».
Согласен. Бабушкины суставы и самочувствие дадут прикурить прогнозу ИИ))
Спасибо за слова благодарности! Аж замотивировали.) В данном исследовании используются временные данные о погоде, подготовленные Франсуа (ссылка на вводную о наборе данных, там же описаны его параметры). В данном исследовании модели обучаются на первых трёх годах, а валидация и тестирование на последующих двух неделях (не в отрыве). В завершающей части второй главы планировал показать как дообучить лучшую статистическую модель на валидационных данных, чтобы затем выполнить прогнозирование и сравнить с тестовой частью. Это будет в части с анализом Фурье, которую, по всей видимости, закончу в начале декабря (как, наверное, и у всех к концу года навалилось на работе). Подпишитесь, чтобы не пропустить.)
Сделайте инверсию.
Попробуйте.
«Схлопывает» до многоточия.
www.gnu.org/software/bash/manual/html_node/Readline-Init-File-Syntax.html
Толковые примеры:
www.reddit.com/r/commandline/comments/kbeoe/you_can_make_readline_and_bash_much_more_user
Здесь надо было дать ссылку в виде примечания переводчика, что имеется в виду речной рак :)
— Вот, кстати, один из примеров — сегодняшний обзор книги по машинному обучению: ссылка.
Просто просмотрите.