Обновить
4
0.5

Пользователь

Отправить сообщение

Опять вы так удивляетесь, как будто люди так никогда не делали. Десятилетиями писали код, тест, тестировали перед выкаткой. А теперь пришли агенты - и ой не работает! Да с чего вдруг?

От того, что в отличии от LLM человек обладает логикой и умеет думать.

Ну так профессионалу никто не мешает автоматизировать/оптимизировать ручное ревью. Да и вариантов у него похоже других уже нет, либо вы останетесь в индустрии и работаете с кодом агентов, неважно как они контрибьютят, в команде или в опенсорс который вы используете, и отвечаете за приложения написанные на нем, либо нет.

Правильно ли я понимаю, что в вашей модели LLM пишет код, пишет на код тесты и проводит ревью кода? То есть вы как работник отказываетесь проверять результаты своего труда

агенты будут помогать

Помогать - это писать за разработчика тесты? Я сомневаюсь, что разработчик, который поленился написать код, сядет за самое скучное - написание тестов.

Правильно ли я понимаю, что LLM пишет код, а потом пишет на свой код тесты.

Выходит:

  1. Ревью нет.

  2. Тестирования нет.

Как вы гарантируете правильность выполнения своей работы?

Личная ответственность тут как бизнесу помогает?

Рынок труда устроен просто: есть наниматель и есть работник. Наниматель берет на себя обязательство оплачивать результаты труда или время, затраченное на их получение. Работник, в свою очередь, берет на себя обязательство выполнять порученную ему работу.

Работник получает задание, выполняет необходимые действия и получает результат своего труда. После этого происходит ключевой этап: он обязан проверить этот результат. Если обнаружены ошибки — исправить их. И только после этого передать результат нанимателю.

Личная ответственность работника — проверять результаты своей работы.

Проблема в истории с Bitget не в том, что LLM «ошиблась». LLM — это инструмент. Инструменты сами по себе не совершают ошибок. Ошибаются люди, которые ими пользуются.

Проблема в том, что работник, использовавший этот инструмент, не проверил результат своей работы перед тем, как передать его дальше.

А бизнесу то что с того? Ему нужны нормальные метрики, типа failure rate или availability.

Действительно. Ну и что, что Bitget потерял 1.8 млн, главное, что метрики есть.

Точно так же как и милоионы кода написанного людьми: секурити сканы, автотесты

  1. В ядре Линукс за 35 лет, написано 40 млн. строк кода и каждый мр прошел ревью и обсуждение, а агенты за ночь генерируют миллионы строк кода.

  2. Статические анализаторы не проверяют бизнес логику.

  3. Кто пишет автотесты?

Какие гарантии качества появляются от того что код написал человек?

Личная ответственность исполнителя.

дело то получается не в том, кто как писал, а в том как проверяли

Вся суть моего комментария в этом и была - кто и как проверяет миллион строк кода написанных агентами?

Зашёл посмотреть, насколько заминусят автора за такой заголовок — и, не ошибся)

В статье всё красиво и складно изложено, но у меня возникает практический вопрос: какие проекты реально можно писать таким образом?
Я из тех людей, кто работает в ИТ давно — с 2002 года. Я начинал с Delphi, сейчас основной стек — Go и Kotlin. За свою карьеру я изучил сотни подходов и технологий. И причина в том, что опытный инженер учится каждый день, независимо от возраста или стажа. Поэтому неясно, почему предполагается, что я не способен освоить использование LLM в разработке — это не вопрос неспособности учиться, а вопрос ответственности за результат.

Проблема, на мой взгляд, в том, что вся ответственность за качество и корректность кода всё ещё на разработчике. Я не могу дать гарантию за код объёмом 20 000, 30 000 или миллион строк, который написан группой агентов, пусть даже они якобы проверяют друг друга.

Весь код, который я отправляю в продакшн, должен быть лично проверен мной. И я не представляю, как можно сесть и весь день читать десятки тысяч строк кода, сгенерированного LLM — это сложно, скучно и неэффективно. Даже если прочитать — это не гарантирует, что бизнес-логика и критические вычисления реализованы правильно, потому что без запуска и глубокого тестирования такие вещи не проверишь.

И это не только мои опасения: например, проект на бирже Bitget потерял около 1,78 млн долларов, когда ошибка в сгенерированном коде привела к неверному расчёту цены актива (cbETH) и позволила злоумышленникам извлечь выгоду.

Так что мой вопрос остаётся практическим: где, по вашему мнению, такой код можно безопасно применять: в банках; медицине; промышленности?

И если да — в каких именно частях проектов и с какими гарантиями качества?

Тупые инженеры Мета не знают, что можно писать по 2 млн строк кода в неделю.

У них под управлением инфраструктура целой страны, но когда руки кривые никакие инструменты не помогут

А дополнительные мощности им действительно нужны. Судя по новостям, им даже пришлось полностью блокировать YouTube, чтобы высвободить ресурсы для замедления Telegram.

Аналитика уровня /b/

ТСПУ фильтрует весь трафик, дропнуть пакет ничего не стоит: дропнуть 1000 пакетов к youtube стоит столько же сколько и дропнуть 1000 пакетов к youtube и 1000 пакетов к telegram.

Зачем форсить бред журналистов?

В чем проблема? Возьмите код и пересоберите динамические бинарные файлы под каждую платформу.

Работа проделана большая, автору лайк

Рост FDI в 2025 году - не инвестбум, а эффект базы и смена структуры потоков. В 2023-2024 шёл массовый выход иностранцев и погашение внутригрупповых долгов, из-за чего чистые потоки были отрицательными. В 2025 выход резко сократился, а по линии прямых инвестиций (доли + внутригрупповые займы, в основном из “дружественных” стран) появился приток. Это статистический разворот потоков, а не признак устойчивого роста реальных инвестиций.

Самое главное - из-за политики РКН в российском сегменте интернета фактически уничтожена конкуренция. “ВК”, “Яндекс”, MAX развиваются в изоляции, в вакууме, без внешнего конкурентного давления. Для крупного бизнеса это снижает стимулы к инновациям, а для малого и среднего бизнеса конкуренция - ключевой драйвер развития - просто исчезает.

Экономические исследования показывают, что усиление конкуренции напрямую связано с ростом производительности и инноваций. В её отсутствие рынок стагнирует, качество продуктов падает, а технологическое развитие замедляется. Фактически мы уже наблюдаем эту стагнацию, которая при сохранении текущего курса неизбежно приведёт к деградации цифровой среды.

Шел 2026 год, люди до сих пор верили, что БЯМ это ИИ способный думать.

Даже М1 хорошо справляется за свои деньги

Трафик фильтруется на границе РФ.

Стоит пограничник и фильтрует трафик.

Трафик фильтруется на ТСПУ у каждого провайдера.

Как обстоят дела с локальными моделями?

Вот вот и вероятностная функция заменит мышление - разработчики будут не нужны, а люди не знающие нот буду писать код

Здесь может быть забавный эффект - когда компании хотят внедрить новые AI инструменты (не в разработке), им все равно нужно сколько-то разработчиков (использующих AI инструменты для разработки) для этого внедрения.

Когда в конце 1970-х и в 1980-е ПК начали массово заходить в офисы, многие ожидали сокращение рабочих мест из-за автоматизации клерков - набора, учёта, бумажного документооборота. На практике в США общая занятость в тот период росла: по данным BLS, число nonfarm payroll jobs увеличилось почти на 20 млн между 1983 и 1990 годами (то есть массовой “замены людей компьютерами” в виде общего падения занятости не произошло). При этом структура менялась: доля офисно-административных ролей достигла пика примерно к 1980, а затем на фоне массового распространения ПК постепенно снижалась - функции сдвигались и усложнялись. Вывод по статистической картине тех лет: приход ПК не сократил общее число рабочих мест, а сопровождался ростом занятости и перераспределением - меньше рутины “вручную”, больше ролей по поддержке и интеграции цифровых процессов.

А как запросить данные на кандидата у третьей стороны не передав его ПД? И тут сразу вопрос: по каким каналам передавались ПД?

Информация

В рейтинге
2 362-й
Зарегистрирован
Активность