Обновить

Ошибка в $5 000 на TON из-за кода, написанного нейронкой

Уровень сложностиПростой
Время на прочтение9 мин
Охват и читатели10K
Всего голосов 16: ↑8 и ↓8+1
Комментарии24

Комментарии 24

Господа, вижу вы достаточно компетентные профессионалы в вайбкодинге и криптотрейдинге, но я умоляю вас: пожалуйста не пишите софт для управления ядерным реактором

И софт для управления кардиостимулятором тоже пусть не пишут, и еще много чего можно добавить.
Но я согласен с автором, LLM по сути тут ни в чем не виновата, это всего лишь инструмент который выполнил свою функцию.
Опасность лишь в том, что ИИ-кодинг дарит ложное ощущение всемогущества. И уже из этого ложного самоощущения допускаются критические ошибки.

Согласен, ллм это усилитель как сказал автор и она не напишет хороший код если у руля неопытный программист

Хорошо, не будем))

Дешево отделались

Согласен с тс и вторым комментом. Вопрос: что за модель использовали? И пользуетесь сейчас?

При производстве того косяка скорее всего был использован Gemini CLI. Я лично обычно еду на Claude Code + Codex. Я тольк терминальными пользуюсь, Курсором пользовался - но потерял в нем смысл

Эти вайбкодеры так и не поняли, что главная их проблема в отсутствии ревью кода...

ну почему же, их ревьювит другой агент )

Код писала нейронка, ошиблась нейронка, ошибку искала наверное тоже она, статью на хабр написала нейронка, автор, а ты вообще существуешь?

технически, автор - так же набор нейронов, просто не виртуальных.

Ну и про теорию мертвого интернета не забываем)

  • Если LLM усиливает понимающего архитектора — получается boost

  • Если LLM усиливает того, кто не понимает предметную область — усиливаются дыры

Это выводы бессмысленные.

По сути, LLM провоцирует нарушение понимания системы. Можно сколько угодно повторять правила, но они будут нарушены и LLM-кой и человеком, потому что 9 раз прокатило, значит и на 10-й прокатит!

Особенно смешно про понимание было после того как автор даже не сам проводил расследование этой детективной истории, а опять полез в нейросети, чатджипити, помоги понять куда утекли 5к!

а нафига самому то думать?)

-45k$ ошибка моя, шортил ZEC в октябре

Если у вас токены доступа тырят, то ИИ тут с боку веник.

Так об этом и речь

А зачем вам вообще http сервис если он делает только on-chain действия?

Ну им никто не рассказал, что можно блокчейн мониторить из изолированного приложения, без всяких ненужных ендпоинтов.

LLM сразу пишет уязвимый legacy-код. Двух зайцев одним выстрелом!

Когда читаю такие статьи - в голову приходят мысли о том, как люди отправляют деньги принцам из Африки, которым не хватает денег на то, чтобы вступить в наследство.

А эти деньги тырят даже не истинные злоумышленники, а те, кто воспользовался огромной дырищей в их архитектуре.

Проблема в том, что писать код было всегда проще, чем читать/проверять. LLM это никак не поменяло, стало только хуже.

Когда код пишешь - он в каком-то смысле уже немного проверен. Тем, что ты к нему как-то пришел, у тебя были какие-то причины написать, так, а не эдак. Когда код читаешь - очень сложно видеть за рамками видимой логичности. Нет, конечно, существуют люди, которые способны читать код так, будто бы его пишут. Я даже знаю... Одного.

У меня же, чтобы прочитать чужой код и быть уверенным, что он работает так, как ожидается, что тесты корректны и достаточны, что он вообще решает поставленную задачу, уходит больше времени, чем написать его самому. И делаю я это обычно для обучения, чтобы человек после десятка-двух моих ревью понял некоторые принципы и начал вызывать больше доверия, требуя меньше внимания к его коду.

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации