Pull to refresh
4
-2
Олег Захаров@OLZ1

Senior data scientist

Send message

Так-то thanks за article. Но why так many english слов, имеющих direct русский аналог? Чувствуешь себя как noob в game, который забыл включить Russian localization. Короче, we demand лингвистический суверенитет! Хватит borrow, пора invent!»

Спасибо, дружище! Всё так.

Ни в коем случае. В том числе и о вас позаботился, выбрав этот заголовок: приведённых возможностей TG ой как не хватает в MAX.

Точно! Спасибо, добавлю.

Шутка про «АнтиИнтеллектуальные ассистенты» понятна: да, под видом «интеллекта» у нас, по сути, очень мощная, но всё равно ограниченная вероятностная машина. Но в инженерной практике важен не маркетинговый термин, а то, сколько времени и ошибок инструмент экономит при реальной разработке.

Вы говорите «когда основное направление заключается в разработке чего-то вменяемого» — а разве у профессионального разработчика может быть другое основное направление? Как только человек начинает тащить в production любой ответ из ассистента без проверки — он перестаёт быть разработчиком и превращается в того самого «вайбкодера».

На моей практике опытный инженер/разработчик использует ассистента с пониманием его ограничений так:

  • Генерирует черновик (функция, тест, модуль и т.п.);

  • Проверяет логику на соответствие требованиям, безопасность и здравому смыслу;

  • Адаптирует под архитектуру (упрощает, оптимизирует);

  • Финально тестирует перед запуском в production.

То есть ИИ не заменяет мышление, а ускоряет рутину, поиск вариантов и составление документации. Там, где «вайбкодер» слепо верит ответу, инженер как раз включает критическое мышление — поэтому связка «опытный разработчик + AI-ассистент» и оказывается такой эффективной.

Сейчас все критикуют т.н. «вайб-кодинг» — термин стал синонимом бездумного копирования кода из ИИ-моделей. Но за этой шумихой многие упускают главное: в компаниях на первый план выходят опытные разработчики, которые умеют грамотно работать с AI-ассистентами. Именно такие специалисты, способные охватить смежные направления, сейчас на вес золота.

Вот и натянули сову на глобус >))

Женатые и замужние — в топе: пока вы не уходите глубоко в анализ, этот быстрый фактор повышает ранг. Чем точнее ваша модель, тем меньше его вес.

Требуется переводчик с русского на русский, ничего не понял.

Пришёл к выводу, что в большинстве случаев в зависимости от запроса Grok генерирует слишком длинное сообщение, превышающее допустимый предел символов Telegram. Это причина того, что не приходит ответ. Можно, конечно, в конце запроса попросить сжать ответ для экономии токенов. Но правильнее было бы поступить как в GigaChat - создать мини-приложение в телеге, нажав которое открывается полный ответ нейросети.

Не парься.) После прочтения обзора ясно, что "ребята" не хотели полностью заменить анализ, а просто использовали БЯМ для ускорения категоризации запросов. При этом они сами правят ответы БЯМ, а значит, проводят ручную проверку и анализ. То есть, БЯМ использовали для быстрой первичной категоризации, а потом уже вручную проверяли и анализировали результаты. Всё нормально, видно, что работают бывалые.

Вместо итогов приведены смелые обобщения, с которыми можно поспорить. Как по мне, добавление внешних факторов (регрессоров) в модель может улучшить её предсказательную способность, но далеко не всегда. Зачастую результат становится только хуже. А скорость выполнения итерации в 3–5 секунд иногда будет восприниматься как счастье🙂 Конечно, это относительно, но всё же. Изюминка занудства) — орфографическая ошибка «phophet».

Согласен. Бабушкины суставы и самочувствие дадут прикурить прогнозу ИИ))

Спасибо за слова благодарности! Аж замотивировали.) В данном исследовании используются временные данные о погоде, подготовленные Франсуа (ссылка на вводную о наборе данных, там же описаны его параметры). В данном исследовании модели обучаются на первых трёх годах, а валидация и тестирование на последующих двух неделях (не в отрыве). В завершающей части второй главы планировал показать как дообучить лучшую статистическую модель на валидационных данных, чтобы затем выполнить прогнозирование и сравнить с тестовой частью. Это будет в части с анализом Фурье, которую, по всей видимости, закончу в начале декабря (как, наверное, и у всех к концу года навалилось на работе). Подпишитесь, чтобы не пропустить.)

Сделайте инверсию.

# Стандартизация обучающих данных (здесь mean и std это объекты Series pandas)
mean, std = train_data.mean(axis=0), train_data.std(axis=0)
df_scaled = (df - mean) / std
# Инверсия целевой переменной (target)
origin = preds * array(std[target]) + array(mean[target])

Попробуйте.

Скорее музыка неудачно подобрана. Под Fatboy Slim было бы самое-то ;)
set completion-prefix-display-length 3 — как понял, общую часть дополнения при отображении схлопывает до "___"

«Схлопывает» до многоточия.
www.gnu.org/software/bash/manual/html_node/Readline-Init-File-Syntax.html
Толковые примеры:
www.reddit.com/r/commandline/comments/kbeoe/you_can_make_readline_and_bash_much_more_user
Интересно, по какой причине некоторые отдают голос против?
Продолжение о прогнозировании временных рядов с помощью РНС: ссылка.

Information

Rating
Does not participate
Location
Москва, Москва и Московская обл., Россия
Registered
Activity

Specialization

Аналитик по данным, Программный аналитик
Ведущий