Пока дороже... Когда станет дешевле, так и инфраструктуру и серверы будут обслуживать тоже роботы, круг ведь замкнут по сути при наборе критической массы роботов.
Зачем покупать токены, если можно купить подписку? Накто в здравом уме, ежедневно работая с интсрумента для кодинга на промышленном уровне не будет платить за токены вместо фиксированной цены. Ведь эта подписка позволяет использовать примерно в 30 раз больше потраченного на нее (в пересчете на платные токены) (личные замеры конкретно у claude code за 100$)
Автоматизировать часть или полное написание тестов можно через AI, лично практикую на фронтенде с playwright (для конкретного пакета кейсов на больших компонентах). Главное точно описать сценарии тестирования, описать общую стилистику и требования к тестам (пишется один раз навсегда, и мелкими дополнениями время от времени), так же просить писать тест по описанию, но на предварительно изученных других подобных тестов на проекте (подготовка контекста диалога для минимизации ошибок при написании теста).
Для возможного делигирования задачи ввиду загруженности основного разработчика. Либо делегирование правок по задаче, когда оперировать можно меньшим опытом.
Без исходника, по запросу: "в этой папке создай иконку svg - это открытая книга, мы смотрим на нее сверху, но чуть наклонили от себя, там видны еще две страницы сверху (вместе с плоскостью книги видно 2 изогнутых по дуге страницы). Цвет оконтовки белый ultrahink"
Это пофиксили через неделю. Читайте официальный реддит. Проверено лично – модели вернулись в адекватное состояние, работаю ежедневно с ними. https://www.reddit.com/r/ClaudeAI/
Смотрите, в реальной работе вы как разрботчик будете знать об этом и сами модель предупредите, чтобы учитывала это. Вы же разработчик. Это называется Context Engineering и вот этот подход как раз и используют настоящие разработчики при использовании AI в работе.
Да, но модель сказала, что здесь будет момент с переполнением, а я казал "сделай в лоб". Поэтому числа были перенесы без учета этого. Если правильно поставить задачу "сделай с учетом особенностей языка при работе с числами", момент изначально будет учтен в результате. Go/JS имет такие же особенности с числами, что и Java/Python, поэтому я знаю поведение этих моделей.
LLM скорее предсказывает поведение и логику кода, нежели результат. Простой пример: на большом фронтендном коде на JS, она понятия не будет иметь никакого о точном результате, потому как этот точный результат зависит от многих факторов поведения пользователя и он динамичен (сложная форма, к примеру). Но код на js + ts для react будет выдан идеальный, рабочий (и там будет далеко не один файл на выходе). Вывод: им не нужно знать точный результат, чтобы хорошо писать код.
После просьбы перести, учитывая ей сказанное замечание, результат:
def main():
a = 2_000_000_000
b = 2
c = a * b
# Эмулируем 32-битное переполнение int как в Java
c = ((c + 2**31) % 2**32) - 2**31
print(c)
if __name__ == "__main__":
main()
Важно понимать: модели сами говорят, что есть ошибки, а исправлять их или нет, это на усмотрение пользователя, потому что намерение пользователя может быть в переносе чисел как есть. Насколько я это понимаю исходя из опыта работы с ними. Важно что она сама сказала об этом, что и было нужно.
Мы же обсуждаем не то, как модель результат предсказывает, а то, как она код пишет, изначально зная особенности языка и избегая ошибки.
Сейчас спросил у Sonnet 4:
Давайте разберем этот цикл на Фортране пошагово.
В этом коде:
n инициализируется нулем
Цикл do с переменной r идет от 1e9 до 2e9
По умолчанию в Фортране, когда не указан шаг, используется шаг 1
На каждой итерации n увеличивается на 1
Цикл эквивалентен:
fortrando r = 1000000000, 2000000000, 1
Количество итераций будет: (2000000000 - 1000000000) / 1 + 1 = 1000000001
Однако, здесь есть важный нюанс! В Фортране переменные цикла и счетчики по умолчанию имеют тип INTEGER, который обычно 32-битный. Максимальное значение для 32-битного целого числа со знаком составляет 2,147,483,647.
Поскольку значение n должно достичь 1,000,000,001, что меньше максимума для 32-битного целого, программа выполнится корректно.
Результат: 1000000001
Примечание: Если бы верхняя граница цикла была больше (например, 3e9), то могло бы произойти переполнение переменной цикла r, что привело бы к некорректному поведению программы.
В Сбере 30% ИТ сократить ничего не поменяет, так как людей набрали на кучу разных проектов и новых продуктов, с банкингом вообще не связанных.
Пока дороже... Когда станет дешевле, так и инфраструктуру и серверы будут обслуживать тоже роботы, круг ведь замкнут по сути при наборе критической массы роботов.
Ну подождем года три/пять и сгенерируете сериал по этому сценарию. Только тегнуть народ тут не забудьте.
Странно думать, что руководство не оценивает пассажиров по результатам. А это значит, они его таки дают.
Зачем покупать токены, если можно купить подписку? Накто в здравом уме, ежедневно работая с интсрумента для кодинга на промышленном уровне не будет платить за токены вместо фиксированной цены. Ведь эта подписка позволяет использовать примерно в 30 раз больше потраченного на нее (в пересчете на платные токены) (личные замеры конкретно у claude code за 100$)
Первая мысль была о балансировании пришедших денег за подписки. Иначе просто не может быть.
Автоматизировать часть или полное написание тестов можно через AI, лично практикую на фронтенде с playwright (для конкретного пакета кейсов на больших компонентах). Главное точно описать сценарии тестирования, описать общую стилистику и требования к тестам (пишется один раз навсегда, и мелкими дополнениями время от времени), так же просить писать тест по описанию, но на предварительно изученных других подобных тестов на проекте (подготовка контекста диалога для минимизации ошибок при написании теста).
Идентичные ощущения от использования. Для чего его люди применяют так и осталась загадкой для меня, как будто он во всем плох.
У меня почти идентичные затраты и тоже подсчет, что подписка выходит от 5 раз дешевле, чем токены.
Для возможного делигирования задачи ввиду загруженности основного разработчика. Либо делегирование правок по задаче, когда оперировать можно меньшим опытом.
Без исходника, по запросу:
"в этой папке создай иконку svg - это открытая книга, мы смотрим на нее сверху, но чуть наклонили от себя, там видны еще две страницы сверху (вместе с плоскостью книги видно 2 изогнутых по дуге страницы). Цвет оконтовки белый ultrahink"
Claude Code результат по иконке из png в svg. Строго один запрос без итераций и уточнений.
Это пофиксили через неделю. Читайте официальный реддит. Проверено лично – модели вернулись в адекватное состояние, работаю ежедневно с ними. https://www.reddit.com/r/ClaudeAI/
Смотрите, в реальной работе вы как разрботчик будете знать об этом и сами модель предупредите, чтобы учитывала это. Вы же разработчик. Это называется Context Engineering и вот этот подход как раз и используют настоящие разработчики при использовании AI в работе.
В том и отличие разработчиков от вайб-кодеров.
Да, но модель сказала, что здесь будет момент с переполнением, а я казал "сделай в лоб". Поэтому числа были перенесы без учета этого.
Если правильно поставить задачу "сделай с учетом особенностей языка при работе с числами", момент изначально будет учтен в результате.
Go/JS имет такие же особенности с числами, что и Java/Python, поэтому я знаю поведение этих моделей.
LLM скорее предсказывает поведение и логику кода, нежели результат. Простой пример: на большом фронтендном коде на JS, она понятия не будет иметь никакого о точном результате, потому как этот точный результат зависит от многих факторов поведения пользователя и он динамичен (сложная форма, к примеру). Но код на js + ts для react будет выдан идеальный, рабочий (и там будет далеко не один файл на выходе).
Вывод: им не нужно знать точный результат, чтобы хорошо писать код.
После просьбы перести, учитывая ей сказанное замечание, результат:
Важно понимать: модели сами говорят, что есть ошибки, а исправлять их или нет, это на усмотрение пользователя, потому что намерение пользователя может быть в переносе чисел как есть. Насколько я это понимаю исходя из опыта работы с ними. Важно что она сама сказала об этом, что и было нужно.
-294967296 Java
4000000000 Python
Собственно контекст диалога не об этом. Не удивительно, что она плохо предсказывает результат, она для этого и не предназначена.
Мы же обсуждаем не то, как модель результат предсказывает, а то, как она код пишет, изначально зная особенности языка и избегая ошибки.
Сейчас спросил у Sonnet 4: