Высокоэнтропийный вайбкодинг

Генератор картинок видит "высокоэнтропийный вайбкодинг" как-то так. Но имеется более практическое применение.

Генератор картинок видит "высокоэнтропийный вайбкодинг" как-то так. Но имеется более практическое применение.

Год назад у меня был legacy-проект с одним main.go на две тысячи строк. MVP: бизнес-логика, конфиг, хэндлеры, БД - всё в одном файле. Три месяца в Cursor, аккуратно, по кусочкам, с тестами на коленке, я вытянул это в нормальную структуру. Три месяца…
А недавно я сел переписывать другой свой проект такого же масштаба. Claude Code, Opus, три субагента-ревьювера, тридцать скилов. Неделя. И это я ещё половину времени потратил на BDD, потому что поверх всего накатывал реализацию на godog. Без BDD уложился бы дня за три!
Расскажу про свой тулчейн level85, через который получил эту разницу. Не “десять советов как заставить нейронку писать код”, а как я дошёл до такой конфигурации, что делает её рабочей, и где я продолжаю наступать на грабли.

Введение
В последней моей статье: «Запоминаем иностранные слова по видео-словарю, упорядоченного по грамматическим категориям и переводам» ( https://habr.com/ru/articles/1021912/ ) была создана «видео-книга» ( https://my.mail.ru/mail/emmerald/video/_myvideo/25.html ), в которой были озвучены 500 французско-русских глаголов. При ее просмотре были выявлены следующие нюансы.
Во-первых, пауза между словами (три секунды), в общем случае, утомительна. Если переводов мало, то тишину, желательно, делать короче. На 500 слов ушло при этом чуть более 30 минут. Для всех имеющихся озвученных слов, это будет порядка трех часов, что довольно много.
Во-вторых, текст центрируется по экрану и если обращать внимание, на ключевые слова, то глаза должны «бегать» по всему экрану, что неудобно. Лучше выровнять веь текст по верхней границе.
В-третьих, нет смысла пытаться «объять необъятное», т.е., запоминать стразу все переводы, за один присест, коих может быть около двух десятков. На первых порах, достаточно обратить внимание, хотя бы только, на первое слово-перевод. Поэтому, желательно его выделить отдельно.
В-четвертых, транскрипция между ключевыми словами (французским глаголом и первым переводом) снижает концентрацию внимания. Её лучше вынести в первую строку, а французское слово и ближайший перевод разместить рядом, чтобы глаза могли обозревать их без движения.
Далее, опыт просмотра / прослушки данного видео показывает, что слова, их звучание и, в какой-то
мере, переводы запоминаются даже без желания их учить. Достаточно просто внимательного просмотра.

В этой статье мы поговорим о том, как работать с мировыми финансовыми данными через Yahoo Finance и как получать котировки с российских площадок — Московской биржи и Тинькофф Инвестиций.

С чего начинается Родина для искусственного интеллекта? С датасета на русском языке? С гигантских кластеров H100, закупленных по параллельному импорту? С вывески корпорации на фасаде модели, архитектуру которой придумали в Google? Родина начинается с отказа от вероятностей. С собственных чертежей. С опоры на национальную научную школу.
Это история про открытый креативный промпт к LLM, оставленный без присмотра. Через месяц он превратил пятничную рубрику нашего блога в гимнастику парафразов одного и того же тезиса. Поймал я это не на первой пятнице и даже не на второй: каждая отдельная статья сама по себе выглядела нормально. На четвёртой стало очевидно.
Расскажу, какие четыре вещи я попробовал, прежде чем признать, что промпт-инжинирингом эту штуку не лечат. По дороге всплыло, что часть проблемы сидела не в промпте, а в нашей собственной конфигурации Gemini, на которую я не сразу обратил внимание (точнее - вообще не видел). И как в итоге мы перевели генератор тем с открытого «придумай вопрос» на заранее детерминированную ротацию из курируемого пула. Без файнтюна, без RAG, без переезда на другую модель.

Мы живём в эпоху, когда алгоритмы предсказывают, что мы купим, с кем подружимся и даже за кого проголосуем. Но стоит заговорить о том, что общество в принципе может быть описано математически, как включается внутренний предохранитель: "Люди - не формулы", "Душу не просчитаешь", "Социальное сложнее естественнонаучного и математического описания". Этот рефлекс понятен. Нас учили, что гуманитарное и точное знание разделены непроходимой границей. Но что, если эта граница - не онтологическая, а методологическая? Что если общество не "нематематично", а просто требует другого масштаба наблюдения?
Я не предлагаю свести человека к переменной. Но предлагаю взглянуть на социальную реальность так, как физик смотрит на газ, то есть не разбирать каждую молекулу, а видеть поле, давление, температуру. Оказывается, при таком взгляде из хаоса индивидуальных решений проступают устойчивые паттерны и они описываются уравнениями и с точностью, достаточной для того, чтобы моделировать распространение эпидемий, оптимизировать транспортные потоки и предсказывать финансовые пузыри.

Привет! Я Катя, бизнес-аналитик из Cloud.ru, и в кои-то веки я пишу непосредственно о своей работе, то есть про исследования в индустрии, а не о когнитивной психологии. Хотя другие мои статьи, например о том, как мозг реагирует на фишинг и про когнитивные искажения у LLM, рекомендую почитать всем!
Недавно на большой конференции про облака мои коллеги представили наше новое исследование — «Гибрид здорового человека» — о том, почему бизнес с облачными провайдерами друг друга не понимают, и как строить гибридные облака нормально, а не изобретать костыль и потом страдать от высоких затрат на поддержание и общей неудобности получившейся системы.
Здесь пересказывать результаты я не буду или почти не буду, а расскажу про сам процесс исследования: почему мы вообще решили его провести, какие этапы были в работе, как адаптировались под сложных респондентов — и в середине ресерча поняли, что все это время нас, возможно, неправильно понимали! — и как в подготовке к интервью нам помогал ИИ. Просьба пристегнуться, этот самолет лонгрида идет на взлет.