Опять вы так удивляетесь, как будто люди так никогда не делали. Десятилетиями писали код, тест, тестировали перед выкаткой. А теперь пришли агенты - и ой не работает! Да с чего вдруг?
От того, что в отличии от LLM человек обладает логикой и умеет думать.
Ну так профессионалу никто не мешает автоматизировать/оптимизировать ручное ревью. Да и вариантов у него похоже других уже нет, либо вы останетесь в индустрии и работаете с кодом агентов, неважно как они контрибьютят, в команде или в опенсорс который вы используете, и отвечаете за приложения написанные на нем, либо нет.
Правильно ли я понимаю, что в вашей модели LLM пишет код, пишет на код тесты и проводит ревью кода? То есть вы как работник отказываетесь проверять результаты своего труда
Помогать - это писать за разработчика тесты? Я сомневаюсь, что разработчик, который поленился написать код, сядет за самое скучное - написание тестов.
Правильно ли я понимаю, что LLM пишет код, а потом пишет на свой код тесты.
Выходит:
Ревью нет.
Тестирования нет.
Как вы гарантируете правильность выполнения своей работы?
Личная ответственность тут как бизнесу помогает?
Рынок труда устроен просто: есть наниматель и есть работник. Наниматель берет на себя обязательство оплачивать результаты труда или время, затраченное на их получение. Работник, в свою очередь, берет на себя обязательство выполнять порученную ему работу.
Работник получает задание, выполняет необходимые действия и получает результат своего труда. После этого происходит ключевой этап: он обязан проверить этот результат. Если обнаружены ошибки — исправить их. И только после этого передать результат нанимателю.
Личная ответственность работника — проверять результаты своей работы.
Проблема в истории с Bitget не в том, что LLM «ошиблась». LLM — это инструмент. Инструменты сами по себе не совершают ошибок. Ошибаются люди, которые ими пользуются.
Проблема в том, что работник, использовавший этот инструмент, не проверил результат своей работы перед тем, как передать его дальше.
Зашёл посмотреть, насколько заминусят автора за такой заголовок — и, не ошибся)
В статье всё красиво и складно изложено, но у меня возникает практический вопрос: какие проекты реально можно писать таким образом? Я из тех людей, кто работает в ИТ давно — с 2002 года. Я начинал с Delphi, сейчас основной стек — Go и Kotlin. За свою карьеру я изучил сотни подходов и технологий. И причина в том, что опытный инженер учится каждый день, независимо от возраста или стажа. Поэтому неясно, почему предполагается, что я не способен освоить использование LLM в разработке — это не вопрос неспособности учиться, а вопрос ответственности за результат.
Проблема, на мой взгляд, в том, что вся ответственность за качество и корректность кода всё ещё на разработчике. Я не могу дать гарантию за код объёмом 20 000, 30 000 или миллион строк, который написан группой агентов, пусть даже они якобы проверяют друг друга.
Весь код, который я отправляю в продакшн, должен быть лично проверен мной. И я не представляю, как можно сесть и весь день читать десятки тысяч строк кода, сгенерированного LLM — это сложно, скучно и неэффективно. Даже если прочитать — это не гарантирует, что бизнес-логика и критические вычисления реализованы правильно, потому что без запуска и глубокого тестирования такие вещи не проверишь.
И это не только мои опасения: например, проект на бирже Bitget потерял около 1,78 млн долларов, когда ошибка в сгенерированном коде привела к неверному расчёту цены актива (cbETH) и позволила злоумышленникам извлечь выгоду.
Так что мой вопрос остаётся практическим: где, по вашему мнению, такой код можно безопасно применять: в банках; медицине; промышленности?
И если да — в каких именно частях проектов и с какими гарантиями качества?
А дополнительные мощности им действительно нужны. Судя по новостям, им даже пришлось полностью блокировать YouTube, чтобы высвободить ресурсы для замедления Telegram.
Аналитика уровня /b/
ТСПУ фильтрует весь трафик, дропнуть пакет ничего не стоит: дропнуть 1000 пакетов к youtube стоит столько же сколько и дропнуть 1000 пакетов к youtube и 1000 пакетов к telegram.
Рост FDI в 2025 году - не инвестбум, а эффект базы и смена структуры потоков. В 2023-2024 шёл массовый выход иностранцев и погашение внутригрупповых долгов, из-за чего чистые потоки были отрицательными. В 2025 выход резко сократился, а по линии прямых инвестиций (доли + внутригрупповые займы, в основном из “дружественных” стран) появился приток. Это статистический разворот потоков, а не признак устойчивого роста реальных инвестиций.
Самое главное - из-за политики РКН в российском сегменте интернета фактически уничтожена конкуренция. “ВК”, “Яндекс”, MAX развиваются в изоляции, в вакууме, без внешнего конкурентного давления. Для крупного бизнеса это снижает стимулы к инновациям, а для малого и среднего бизнеса конкуренция - ключевой драйвер развития - просто исчезает.
Экономические исследования показывают, что усиление конкуренции напрямую связано с ростом производительности и инноваций. В её отсутствие рынок стагнирует, качество продуктов падает, а технологическое развитие замедляется. Фактически мы уже наблюдаем эту стагнацию, которая при сохранении текущего курса неизбежно приведёт к деградации цифровой среды.
Здесь может быть забавный эффект - когда компании хотят внедрить новые AI инструменты (не в разработке), им все равно нужно сколько-то разработчиков (использующих AI инструменты для разработки) для этого внедрения.
Когда в конце 1970-х и в 1980-е ПК начали массово заходить в офисы, многие ожидали сокращение рабочих мест из-за автоматизации клерков - набора, учёта, бумажного документооборота. На практике в США общая занятость в тот период росла: по данным BLS, число nonfarm payroll jobs увеличилось почти на 20 млн между 1983 и 1990 годами (то есть массовой “замены людей компьютерами” в виде общего падения занятости не произошло). При этом структура менялась: доля офисно-административных ролей достигла пика примерно к 1980, а затем на фоне массового распространения ПК постепенно снижалась - функции сдвигались и усложнялись. Вывод по статистической картине тех лет: приход ПК не сократил общее число рабочих мест, а сопровождался ростом занятости и перераспределением - меньше рутины “вручную”, больше ролей по поддержке и интеграции цифровых процессов.
От того, что в отличии от LLM человек обладает логикой и умеет думать.
Правильно ли я понимаю, что в вашей модели LLM пишет код, пишет на код тесты и проводит ревью кода? То есть вы как работник отказываетесь проверять результаты своего труда
Помогать - это писать за разработчика тесты? Я сомневаюсь, что разработчик, который поленился написать код, сядет за самое скучное - написание тестов.
Правильно ли я понимаю, что LLM пишет код, а потом пишет на свой код тесты.
Выходит:
Ревью нет.
Тестирования нет.
Как вы гарантируете правильность выполнения своей работы?
Рынок труда устроен просто: есть наниматель и есть работник. Наниматель берет на себя обязательство оплачивать результаты труда или время, затраченное на их получение. Работник, в свою очередь, берет на себя обязательство выполнять порученную ему работу.
Работник получает задание, выполняет необходимые действия и получает результат своего труда. После этого происходит ключевой этап: он обязан проверить этот результат. Если обнаружены ошибки — исправить их. И только после этого передать результат нанимателю.
Личная ответственность работника — проверять результаты своей работы.
Проблема в истории с Bitget не в том, что LLM «ошиблась». LLM — это инструмент. Инструменты сами по себе не совершают ошибок. Ошибаются люди, которые ими пользуются.
Проблема в том, что работник, использовавший этот инструмент, не проверил результат своей работы перед тем, как передать его дальше.
Действительно. Ну и что, что Bitget потерял 1.8 млн, главное, что метрики есть.
В ядре Линукс за 35 лет, написано 40 млн. строк кода и каждый мр прошел ревью и обсуждение, а агенты за ночь генерируют миллионы строк кода.
Статические анализаторы не проверяют бизнес логику.
Кто пишет автотесты?
Личная ответственность исполнителя.
Вся суть моего комментария в этом и была - кто и как проверяет миллион строк кода написанных агентами?
Зашёл посмотреть, насколько заминусят автора за такой заголовок — и, не ошибся)
В статье всё красиво и складно изложено, но у меня возникает практический вопрос: какие проекты реально можно писать таким образом?
Я из тех людей, кто работает в ИТ давно — с 2002 года. Я начинал с Delphi, сейчас основной стек — Go и Kotlin. За свою карьеру я изучил сотни подходов и технологий. И причина в том, что опытный инженер учится каждый день, независимо от возраста или стажа. Поэтому неясно, почему предполагается, что я не способен освоить использование LLM в разработке — это не вопрос неспособности учиться, а вопрос ответственности за результат.
Проблема, на мой взгляд, в том, что вся ответственность за качество и корректность кода всё ещё на разработчике. Я не могу дать гарантию за код объёмом 20 000, 30 000 или миллион строк, который написан группой агентов, пусть даже они якобы проверяют друг друга.
Весь код, который я отправляю в продакшн, должен быть лично проверен мной. И я не представляю, как можно сесть и весь день читать десятки тысяч строк кода, сгенерированного LLM — это сложно, скучно и неэффективно. Даже если прочитать — это не гарантирует, что бизнес-логика и критические вычисления реализованы правильно, потому что без запуска и глубокого тестирования такие вещи не проверишь.
И это не только мои опасения: например, проект на бирже Bitget потерял около 1,78 млн долларов, когда ошибка в сгенерированном коде привела к неверному расчёту цены актива (cbETH) и позволила злоумышленникам извлечь выгоду.
Так что мой вопрос остаётся практическим: где, по вашему мнению, такой код можно безопасно применять: в банках; медицине; промышленности?
И если да — в каких именно частях проектов и с какими гарантиями качества?
Тупые инженеры Мета не знают, что можно писать по 2 млн строк кода в неделю.
У них под управлением инфраструктура целой страны, но когда руки кривые никакие инструменты не помогут
Аналитика уровня /b/
ТСПУ фильтрует весь трафик, дропнуть пакет ничего не стоит: дропнуть 1000 пакетов к youtube стоит столько же сколько и дропнуть 1000 пакетов к youtube и 1000 пакетов к telegram.
Зачем форсить бред журналистов?
В чем проблема? Возьмите код и пересоберите динамические бинарные файлы под каждую платформу.
Работа проделана большая, автору лайк
Рост FDI в 2025 году - не инвестбум, а эффект базы и смена структуры потоков. В 2023-2024 шёл массовый выход иностранцев и погашение внутригрупповых долгов, из-за чего чистые потоки были отрицательными. В 2025 выход резко сократился, а по линии прямых инвестиций (доли + внутригрупповые займы, в основном из “дружественных” стран) появился приток. Это статистический разворот потоков, а не признак устойчивого роста реальных инвестиций.
Самое главное - из-за политики РКН в российском сегменте интернета фактически уничтожена конкуренция. “ВК”, “Яндекс”, MAX развиваются в изоляции, в вакууме, без внешнего конкурентного давления. Для крупного бизнеса это снижает стимулы к инновациям, а для малого и среднего бизнеса конкуренция - ключевой драйвер развития - просто исчезает.
Экономические исследования показывают, что усиление конкуренции напрямую связано с ростом производительности и инноваций. В её отсутствие рынок стагнирует, качество продуктов падает, а технологическое развитие замедляется. Фактически мы уже наблюдаем эту стагнацию, которая при сохранении текущего курса неизбежно приведёт к деградации цифровой среды.
Шел 2026 год, люди до сих пор верили, что БЯМ это ИИ способный думать.
Даже М1 хорошо справляется за свои деньги
Стоит пограничник и фильтрует трафик.
Трафик фильтруется на ТСПУ у каждого провайдера.
https://github.com/orgs/community/discussions/185387
Как обстоят дела с локальными моделями?
Вот вот и вероятностная функция заменит мышление - разработчики будут не нужны, а люди не знающие нот буду писать код
Когда в конце 1970-х и в 1980-е ПК начали массово заходить в офисы, многие ожидали сокращение рабочих мест из-за автоматизации клерков - набора, учёта, бумажного документооборота. На практике в США общая занятость в тот период росла: по данным BLS, число nonfarm payroll jobs увеличилось почти на 20 млн между 1983 и 1990 годами (то есть массовой “замены людей компьютерами” в виде общего падения занятости не произошло). При этом структура менялась: доля офисно-административных ролей достигла пика примерно к 1980, а затем на фоне массового распространения ПК постепенно снижалась - функции сдвигались и усложнялись. Вывод по статистической картине тех лет: приход ПК не сократил общее число рабочих мест, а сопровождался ростом занятости и перераспределением - меньше рутины “вручную”, больше ролей по поддержке и интеграции цифровых процессов.
А как запросить данные на кандидата у третьей стороны не передав его ПД? И тут сразу вопрос: по каким каналам передавались ПД?