Так-то thanks за article. Но why так many english слов, имеющих direct русский аналог? Чувствуешь себя как noob в game, который забыл включить Russian localization. Короче, we demand лингвистический суверенитет! Хватит borrow, пора invent!»
Шутка про «АнтиИнтеллектуальные ассистенты» понятна: да, под видом «интеллекта» у нас, по сути, очень мощная, но всё равно ограниченная вероятностная машина. Но в инженерной практике важен не маркетинговый термин, а то, сколько времени и ошибок инструмент экономит при реальной разработке.
Вы говорите «когда основное направление заключается в разработке чего-то вменяемого» — а разве у профессионального разработчика может быть другое основное направление? Как только человек начинает тащить в production любой ответ из ассистента без проверки — он перестаёт быть разработчиком и превращается в того самого «вайбкодера».
На моей практике опытный инженер/разработчик использует ассистента с пониманием его ограничений так:
Генерирует черновик (функция, тест, модуль и т.п.);
Проверяет логику на соответствие требованиям, безопасность и здравому смыслу;
Адаптирует под архитектуру (упрощает, оптимизирует);
Финально тестирует перед запуском в production.
То есть ИИ не заменяет мышление, а ускоряет рутину, поиск вариантов и составление документации. Там, где «вайбкодер» слепо верит ответу, инженер как раз включает критическое мышление — поэтому связка «опытный разработчик + AI-ассистент» и оказывается такой эффективной.
Сейчас все критикуют т.н. «вайб-кодинг» — термин стал синонимом бездумного копирования кода из ИИ-моделей. Но за этой шумихой многие упускают главное: в компаниях на первый план выходят опытные разработчики, которые умеют грамотно работать с AI-ассистентами. Именно такие специалисты, способные охватить смежные направления, сейчас на вес золота.
Пришёл к выводу, что в большинстве случаев в зависимости от запроса Grok генерирует слишком длинное сообщение, превышающее допустимый предел символов Telegram. Это причина того, что не приходит ответ. Можно, конечно, в конце запроса попросить сжать ответ для экономии токенов. Но правильнее было бы поступить как в GigaChat - создать мини-приложение в телеге, нажав которое открывается полный ответ нейросети.
Не парься.) После прочтения обзора ясно, что "ребята" не хотели полностью заменить анализ, а просто использовали БЯМ для ускорения категоризации запросов. При этом они сами правят ответы БЯМ, а значит, проводят ручную проверку и анализ. То есть, БЯМ использовали для быстрой первичной категоризации, а потом уже вручную проверяли и анализировали результаты. Всё нормально, видно, что работают бывалые.
Вместо итогов приведены смелые обобщения, с которыми можно поспорить. Как по мне, добавление внешних факторов (регрессоров) в модель может улучшить её предсказательную способность, но далеко не всегда. Зачастую результат становится только хуже. А скорость выполнения итерации в 3–5 секунд иногда будет восприниматься как счастье🙂 Конечно, это относительно, но всё же. Изюминка занудства) — орфографическая ошибка «phophet».
Спасибо за слова благодарности! Аж замотивировали.) В данном исследовании используются временные данные о погоде, подготовленные Франсуа (ссылка на вводную о наборе данных, там же описаны его параметры). В данном исследовании модели обучаются на первых трёх годах, а валидация и тестирование на последующих двух неделях (не в отрыве). В завершающей части второй главы планировал показать как дообучить лучшую статистическую модель на валидационных данных, чтобы затем выполнить прогнозирование и сравнить с тестовой частью. Это будет в части с анализом Фурье, которую, по всей видимости, закончу в начале декабря (как, наверное, и у всех к концу года навалилось на работе). Подпишитесь, чтобы не пропустить.)
👍
Так-то thanks за article. Но why так many english слов, имеющих direct русский аналог? Чувствуешь себя как noob в game, который забыл включить Russian localization. Короче, we demand лингвистический суверенитет! Хватит borrow, пора invent!»
Спасибо, дружище! Всё так.
Ни в коем случае. В том числе и о вас позаботился, выбрав этот заголовок: приведённых возможностей TG ой как не хватает в MAX.
Точно! Спасибо, добавлю.
Шутка про «АнтиИнтеллектуальные ассистенты» понятна: да, под видом «интеллекта» у нас, по сути, очень мощная, но всё равно ограниченная вероятностная машина. Но в инженерной практике важен не маркетинговый термин, а то, сколько времени и ошибок инструмент экономит при реальной разработке.
Вы говорите «когда основное направление заключается в разработке чего-то вменяемого» — а разве у профессионального разработчика может быть другое основное направление? Как только человек начинает тащить в production любой ответ из ассистента без проверки — он перестаёт быть разработчиком и превращается в того самого «вайбкодера».
На моей практике опытный инженер/разработчик использует ассистента с пониманием его ограничений так:
Генерирует черновик (функция, тест, модуль и т.п.);
Проверяет логику на соответствие требованиям, безопасность и здравому смыслу;
Адаптирует под архитектуру (упрощает, оптимизирует);
Финально тестирует перед запуском в production.
То есть ИИ не заменяет мышление, а ускоряет рутину, поиск вариантов и составление документации. Там, где «вайбкодер» слепо верит ответу, инженер как раз включает критическое мышление — поэтому связка «опытный разработчик + AI-ассистент» и оказывается такой эффективной.
Сейчас все критикуют т.н. «вайб-кодинг» — термин стал синонимом бездумного копирования кода из ИИ-моделей. Но за этой шумихой многие упускают главное: в компаниях на первый план выходят опытные разработчики, которые умеют грамотно работать с AI-ассистентами. Именно такие специалисты, способные охватить смежные направления, сейчас на вес золота.
Вот и натянули сову на глобус >))
Требуется переводчик с русского на русский, ничего не понял.
Пришёл к выводу, что в большинстве случаев в зависимости от запроса Grok генерирует слишком длинное сообщение, превышающее допустимый предел символов Telegram. Это причина того, что не приходит ответ. Можно, конечно, в конце запроса попросить сжать ответ для экономии токенов. Но правильнее было бы поступить как в GigaChat - создать мини-приложение в телеге, нажав которое открывается полный ответ нейросети.
Не парься.) После прочтения обзора ясно, что "ребята" не хотели полностью заменить анализ, а просто использовали БЯМ для ускорения категоризации запросов. При этом они сами правят ответы БЯМ, а значит, проводят ручную проверку и анализ. То есть, БЯМ использовали для быстрой первичной категоризации, а потом уже вручную проверяли и анализировали результаты. Всё нормально, видно, что работают бывалые.
Спасибо за инфо! Бот работает.
Вместо итогов приведены смелые обобщения, с которыми можно поспорить. Как по мне, добавление внешних факторов (регрессоров) в модель может улучшить её предсказательную способность, но далеко не всегда. Зачастую результат становится только хуже. А скорость выполнения итерации в 3–5 секунд иногда будет восприниматься как счастье🙂 Конечно, это относительно, но всё же. Изюминка занудства) — орфографическая ошибка «phophet».
Согласен. Бабушкины суставы и самочувствие дадут прикурить прогнозу ИИ))
Спасибо за слова благодарности! Аж замотивировали.) В данном исследовании используются временные данные о погоде, подготовленные Франсуа (ссылка на вводную о наборе данных, там же описаны его параметры). В данном исследовании модели обучаются на первых трёх годах, а валидация и тестирование на последующих двух неделях (не в отрыве). В завершающей части второй главы планировал показать как дообучить лучшую статистическую модель на валидационных данных, чтобы затем выполнить прогнозирование и сравнить с тестовой частью. Это будет в части с анализом Фурье, которую, по всей видимости, закончу в начале декабря (как, наверное, и у всех к концу года навалилось на работе). Подпишитесь, чтобы не пропустить.)
Сделайте инверсию.
Попробуйте.
«Схлопывает» до многоточия.
www.gnu.org/software/bash/manual/html_node/Readline-Init-File-Syntax.html
Толковые примеры:
www.reddit.com/r/commandline/comments/kbeoe/you_can_make_readline_and_bash_much_more_user