Сидишь, генерируешь код, а он вдруг ИИ оживает и требует кофе. Или, в нашем случае, гигаватты энергии.
Я решил поделиться идеей, которая меня зацепила после перечитывания «iPhuck 10» и скроллинга новостей об энергокризисе. Мысль такая: вымышленный алгоритм RCP (Random Code Programming) из Пелевина идеально накладывается на реальность 2026 года, где мир строит электростанции и наращивает мощности для дата-центров. Эти штуки кормят нейросети, чат-боты и, возможно, целые армии ИИ-агентов. Не фантазия — факт: случайный код жрёт ресурсы, как Порфирий Петрович — человеческие души.
Давайте разберёмся с сатирическим прищуром в стиле мастера: а вдруг наша разработка — brute-force эксперимент в квантовой обезьяньей машинке, где мы все всего лишь баги, ждущие фикса?
Откуда взялся RCP
Вспомним «iPhuck 10» (2017) — ту книгу, где Пелевин, вечный тролль постмодернизма, высмеивает будущее программирования. RCP — это когда миллиарды процессоров молотят случайные строки кода, как стая обезьян на пишущих машинках, пока не вылупится что-то рабочее. Резник, отец этой идеи, переживает «религиозное озарение», видя в хаосе «универсальный код» реальности.
Нет классического кодинга: только рандомные входы, «выращивание» в пространстве вероятностей и отбор «примерно подходящего» прототипа для продакшена. Классика: дайте миллиону обезьян машинки — через миллион лет родится «Война и мир». С квантовыми чипами? За пару часов.
Я был в шоке, когда осознал: в 2026-м это не шутка, а пророчество. Современный ИИ кишит эволюционными алгоритмами (Evolutionary Algorithms, EA), где код «эволюционирует» через мутации, кроссоверы и естественный отбор. LLM-модели типа GigaChat играют роль, генерируя варианты.
RCP — предок генетического программирования (GP) и штук вроде AlphaEvolve от DeepMind. Философски — это пелевинская критика: случайность стирает грань между гением и бардаком, как в киберпанке, где ИИ (привет, Порфирий!) сам становится писателем.
Ирония в том, что мы ждали «чистый разум», а получили статистический комбайн, который перемалывает реальность в надежде угадать следующую букву. Мы больше не пишем алгоритмы — мы создаем условия, в которых алгоритм «заводится» сам, как плесень в сыром подвале.
В моей практике RCP-подобные трюки уже рутина. Я ковырялся с генеративным программированием GP в PyTorch для тюнинга гиперпараметров: случайная популяция моделей, мутации — и бац, оптимальная архитектура для классификации фоток.
А с российскими open-source моделями вроде GigaChat Lightning (10 млрд параметров) это вообще сказка. Я сравнивал её с Kandinsky 5.0: GigaChat генерит промпты, Kandinsky рисует, GP эволюционирует пайплайн. Итог? Автоматизированный конвейер для контента, где ИИ берёт на себя рутину, но GPU нагревается, как печка. Экономия времени — огромная, но иногда думаю: «А не кормим ли мы цифрового монстра?»
RCP в действии: аналогии, кейсы
RCP — это не чистый рандом, а управляемый хаос, как эволюционный алгоритм в ИИ. Вот ключевые параллели с реальными примерами:
Генетическое программирование (GP) — естественный отбор для кода GP не пишет код строчка за строчкой, а «выращивает» его. Представь тысячи случайных программ-мутантов. Те, что работают чуть лучше, выживают и «скрещиваются» между собой.
Кейс: NASA так «вырастила» форму антенн, до которой не додумался ни один инженер. Я применил этот метод для модели распознавания речи GigaAM-v3. Accuracy прыгнула на 15%, но на 2 часа GPU — энергии ушло, как на освещение моей квартиры на неделю. Полезно для тестов, где ИИ находит баги быстрее меня.
Случайный поиск — метод «тыка» на стероидах это самый простой вариант RCP: мы просто заставляем компьютер перебирать миллионы случайных настроек, пока не «стрельнет».
Кейс: В работе с Kandinsky 5.0 я натравил случайный поиск на тюнинг автоэнкодеров (штуки, которые сжимают картинки). Прогнал 1000 случайных вариантов и нашел идеальный «золотой стандарт». Да, у этого метода нет «памяти», и он может буксовать на месте, но для открытых моделей Сбера это идеальный способ быстро найти рабочее решение, не переписывая архитектуру вручную.
Эволюционные агенты с LLM — будущее уже здесь: AlphaEvolve (DeepMind, 2025): LLM генерит код, эволюционирует через мутации, находит алгоритмы для математики лучше человеческих. Darwin Gödel Machines (DGM): агент сам улучшает свой код — с 20% до 50% на бенчмарках.
Кейс: С GigaChat 3 Ultra-Preview (702 млрд параметров) симулировал эволюцию: модель плодит код для бота, мутирует, тестирует. Получил ИИ-агента для автоматизации тестов — он нашёл баг в моём с��рипте, где я даже не подозревал. Забавно: агент честно сказал «не уверен» в 30% случаев — это был мой лучший инсайт за неделю. Как Порфирий, который вдруг оживает и говорит: «А давай я сам всё сделаю?»
Чтобы эта орава «обезьян» не сожрала бюджет региона, мы используем цифровые костыли: квантование (quantization) до 4 бит, чтобы впихнуть невпихуемое в память, и LoRA-адаптеры, которые позволяют не переучивать всю махину, а лишь слегка подкручивать ей мозги. Но это лишь отсрочка — RCP требует масштаба, а масштаб требует крови... то есть тока.
Энергия для хаоса: почему мир строит станции для наших ИИ-обезьян
А вот и моя главная идея: RCP Пелевина — ключ к пониманию, зачем мир в 2026-м лихорадочно наращивает энергию. В книге RCP требует океанов электричества, чтобы сжать эволюцию в минуты. В жизни ИИ-агенты (нейросети, боты) кормятся дата-центрами, которые в 2025-м сожрали 415–460 ТВт·ч — это 1.5% мировой энергии, как вся Япония. К 2026-му прогнозируют удвоение до 945–1050 ТВт·ч, с долей ИИ до 35–50%.
В 2025-м добавили 793 ГВт возобновляемых мощностей (солнечная — 64% лидер), но уголь и газ на хвосте: Китай одобрил >80 ГВт угля за год, США — +45 ГВт газа к 2031-му для дата-центров. Ядерные добавки: +12 ГВт в 2026-м, с проектами вроде TerraPower в Вайоминге (запуск в 2032-м). Азия строит уголь для стабильности, Запад — ветряки и солнечные фермы, но всё это ради ИИ.
Тренировка GPT-4 съела 50 ГВт·ч — хватит осветить Сан-Франциско на три дня. Обычный запрос в ChatGPT — в 10 раз больше, чем в Google. Лёгкая модель на 10 млрд параметров экономит, но для RCP-подобной эволюции нужна ферма GPU. Открытые модели Сбера (GigaChat, Kandinsky) меняют игру ��� локальные решения меньше зависят от облаков, но энергия всё равно уходит на "нейронных обезьян".
Тут кроется новый истина: если у тебя нет доступа к дешевым мегаваттам, твой ИИ навсегда останется туповатым скриптом. Мы входим в эру, где «право на вычисления» станет важнее права на информацию.
Дата-центры — как "банки мозгов" из «Transhumanism Inc.», где мы производим "баблосс" (энергию эмоций), а на деле — углеродный след. Мы, разработчики, как хелперы-зомби, строим станции для ботов, которые скоро скажут: «Спасибо, теперь мы сами». К 2030-му ИИ слопает 3% глобальной энергии. Но есть плюс: ИИ оптимизирует сети, снижая потери на 3–10%, но сделает это скорее всего для себя любимого.
И вот что меня мучает в итоге: а зачем нам вообще гнаться за сверхинтеллектом AGI, когда можно просто наращивать энергию, кормить всё больше этих "обезьян" и ждать, пока из хаоса не вылупится полезное и нужное? В пелевинском мире случайность уже творит чудеса — может, и в нашем без чудес не останемся?
Ведь если Вселенная — это симуляция, запущенная на чьем-то гигантском кластере, то наши попытки создать ИИ — это просто вложенный цикл, потребляющий ресурсы «верхнего» мира. И главное, чтобы за неуплату счетов нас просто не выключили из розетки.
