Обновить
21.55

Облачные вычисления *

Концепция общего доступа к ресурсам

Сначала показывать
Порог рейтинга
Уровень сложности

FinOps на практике: фаза Inform и управление облачными затратами с помощью штатных инструментов

Уровень сложностиПростой
Время на прочтение13 мин
Охват и читатели3.1K

Облако по природе своей устроено так, что деньги из него утекают как песок сквозь пальцы. Не потому что провайдеры жадные или инженеры попались безответственные. Всему виной органический рост: тут один сервис поднял новый кластер, здесь команда не выключила стейджинг после релиза, там забыли про снапшот двухлетней давности. По отдельности каждый из этих факапов – вроде не катастрофа. Но в конце месяца счета неизменно напоминают о том, что думать так — большое заблуждение. В прошлых материалах цикла мы уже разбирали типичные боли тех, кто работает с облаками, и рассматривали, почему счета растут, хотя инфраструктура не меняется. А сегодня поговорим про первый и самый важный методологии FinOps, которая должна решить эти проблемы: Inform.

Практики FinOps в Telegram| Бот

Почему начинать с оптимизации — плохая идея

Первая мысль, которая появляется, когда счет за облако в очередной раз оказывается процентов на 40 выше запланированного, — взять и что-нибудь урезать. Неважно что. Лишь бы сократить расходы. Ну, оно вроде и логично. Режем лишнее – оставляем нужное – сокращаем траты.

Вот только вся проблема в том, что без понимания структуры затрат такая оптимизация — это что угодно, только не она. Потому что так можно запросто угробить десяток-другой человекочасов на тюнинг компонента, который дает 2% от общего счета, и не заметить, что 60% уходит на базы данных, про которые никто не вспоминал с момента основания компании. Или, скажем, прибить сервис, который выглядел как заброшенный, но на самом деле держал чей-то продакшн. И ходи потом доказывай, что не верблюд.

Читать далее

Новости

«Кровавый переезд»: как миграция в облако превратилась в месяц ада

Уровень сложностиПростой
Время на прочтение9 мин
Охват и читатели3.1K

Месяц ночных смен, потерянные лицензии и ручное «оживление» серверов. Так прошла вынужденная миграция в облако, которая на бумаге выглядела стандартной процедурой.

Эта статья — не техническая инструкция для админов. Это разбор реального «переезда в облако» для собственников и ИТ‑директоров, которые отвечают головой за бизнес‑результат. Мы намеренно не уходим в технические настройки, а показываем, где в миграции рождаются риски простоя и что руководитель обязан потребовать от команды до старта проекта.

Читать далее

Почему счета за облако растут, хотя инфраструктура не меняется?

Уровень сложностиПростой
Время на прочтение10 мин
Охват и читатели6.5K

У компаний, которые работают в облаке, каждый новый месяц начинается с сюрприза. Его преподносят счета, которые почему-то всегда оказываются процентов на 30-40 больше прогноза. И тут начинается. Финдир смотрит на тимлида. Тимлид — на команду. Команда — в логи. А в логах — тишина. Ничего же не меняли. Или меняли?

В прошлой статье мы собрали типовые сцены из жизни. Помните наших героев?

Читать далее

Практическое применение eBPF: serverless-платформа с поддержкой TCP-приложений

Уровень сложностиСредний
Время на прочтение7 мин
Охват и читатели5.8K

Привет! Меня зовут Дима Веселов, уже три года я развиваю облачные технологии в команде Evolution App Services как техлид. Мой путь начинался с классической backend-разработки на Python, но со временем я все глубже погружался в то, как работает инфраструктура, сетевые протоколы, Kubernetes. Сегодня я хочу рассказать, как eBPF буквально в два присеста позволяет делать то, что раньше требовало невероятных усилий.

Кому будет полезен этот материал? В первую очередь разработчикам PaaS-платформ, DevOps-инженерам и архитекторам, которым тесно в рамках классического HTTP-only serverless. Расскажу, как обеспечить масштабирование с нуля для любых TCP-приложений без переписывания их кода.

Читать далее

Космические дата-центры и 100 ГВт на орбите: где ломается бизнес-модель. Разбор от TechCrunch

Время на прочтение7 мин
Охват и читатели9.3K

Идея вынести вычисления в космос звучит как научная фантастика, но крупнейшие игроки уже делают на неё ставку. SpaceX просит разрешение на орбитальные дата-центры мощностью до 100 ГВт, Google запускает Project Suncatcher, стартапы планируют десятки тысяч спутников. Логика проста: солнечная энергия в космосе дешевле и доступнее, а значит и вычисления со временем станут выгоднее.

Но за хайпом — жёсткая математика. Вывод грузов на орбиту всё ещё слишком дорог, производство спутников — капиталоёмкое, а теплоотвод и радиация добавляют сложности и веса. По текущим расчётам, 1 ГВт на орбите обходится почти втрое дороже наземного аналога. Автор издания TechCrunch разобрал, при каких условиях «космический ИИ» может стать экономически оправданным — и где именно сегодня ломается бизнес-модель.

Читать далее

Типовые сценарии использования GPU

Уровень сложностиПростой
Время на прочтение2 мин
Охват и читатели5.3K

Продолжаю разбираться в GPU (ИИ) вычислениях, в это статье с типичными сценариями использования GPU. Крупные компании, например Wildberries, строят под ИИ собственные и специализированные дата - центры. Средние - покупают сервера с GPU себе в стойку. Мне возможно подойдет аренда в облаке.

Читать далее

Вопросы через боль: как посчитать облако и не сойти с ума?

Время на прочтение5 мин
Охват и читатели11K

А вы тоже слышали байку о том, что облако по сравнению с онпрем-инфраструктурой получается едва ли не дешевле электричества из розетки, а PAYG – справедливее коммунизма? Нет, в целом принцип и правда выглядит очень честно: сколько заказал – столько и заплати. Как в ресторане. На практике такого, конечно, чаще всего бывает. Но чего всегда бывает в избытке – так это претензий финотдела, который кого угодно сведет с ума, допытываясь, почему растут счета. А кто бы их знал? Продакшн стабилен, метрики зеленые, архитектура давно устоялась – причин для роста как будто и нет. Но компании то и дело выходят за рамки бюджетов.

Читать далее

Архитектура будущего: как должны эволюционировать наземные комплексы обработки данных дистанционного зондирования Земли

Уровень сложностиСредний
Время на прочтение6 мин
Охват и читатели8.3K

Аналитический обзор ключевых архитектурных проблем и перспективных подходов к построению систем обработки спутниковых данных на фоне взрывного роста группировок космических аппаратов и требований потребителей.

Читать далее

Тестируем B200: живые бенчмарки с GLM-4.7

Уровень сложностиСредний
Время на прочтение7 мин
Охват и читатели7.6K

Если вы занимаетесь обучением или тюнингом больших языковых моделей, используете инференс в режиме реального времени или выполняете сложные HPC-симуляции, то наверняка задавались вопросом: «а каково это будет на одном из лучших в мире чипов»?

Как только мы получили B200, графический процессор, который по заявлениям производителя открывает новые грани производительности, гибкости и масштабируемости, то сразу побежали его тестировать. Сегодня я и мои коллеги из Evolution Bare Metal возьмем лупу SGLang и пристально взглянем на новую карту. Заходите под кат оценить, какие цифры нам покажет B200 «в бою», и узнать, чем отличается эта модель от предыдущих ускорителей, таких как A100, H100 и H200.

Читать далее

5 ключевых IT-трендов 2026 года: от ИИ-агентов и Zero Trust до суверенных облаков

Время на прочтение12 мин
Охват и читатели8.9K

В 2026 году российский IT-рынок продолжит рост и может приблизиться к 4,5 трлн ₽. При этом компании меняют подход к инвестициям: выбирают решения с быстрым и измеримым эффектом. Например, вкладывают в развитие AI-проектов, масштабирование IT-инфраструктуры или создание собственных разработок. 

Чтобы понять, как изменится IT-сфера в ближайшие годы, рассмотрим пять ключевых технологических направлений, которые определят развитие индустрии. Расскажем, чего ждать в 2026 году, и объясним, что это значит для бизнеса.

Читать далее

Cloud4Y строит ЦОДы в МО. Часть 12

Время на прочтение2 мин
Охват и читатели4.8K

Привет, Хабр!

Январь — месяц короткий, с долгими праздниками, но для наших подмосковных строек он стал не менее значимым, чем любой другой. В то время как многие только возвращались к рабочим ритмам, в Марфино кипела работа. И если вы следите за нашим проектом с самого начала, welcome to the club! А если пропустили предыдущие этапы, вот архив: раздватричетырепятьшестьсемьвосемьдевять, одиннадцать.

Читать далее

Второй уровень автономности ИИ: агент сам управляет облаком и администрирует ВМ по SSH

Время на прочтение3 мин
Охват и читатели7.4K

Я решил проверить следующий уровень — может ли ИИ не советовать, а выполнять действия сам.

В этом эксперименте ИИ:

управлял Yandex Cloud через yc

сам создавал ВМ и Managed PostgreSQL

сам подключался по SSH к ВМ

администрировал сервер

поднимал WordPress в Docker

и подключал его к базе, созданной в облаке

Без Terraform.
Без Ansible.
Без ручного выполнения команд человеком.

Это не туториал и не реклама.
Это практическое исследование второго уровня автономности ИИ, где агент реально работает в инфраструктуре, а человек остаётся в контуре управления.

Читать далее

Сравнил грантовые программы облачных провайдеров для стартапов: от 4 тысяч до 2 миллионов рублей

Время на прочтение12 мин
Охват и читатели5.4K

Выбрать облако для стартапа — это как пройти минное поле с завязанными глазами. Хочется взять грант, чтобы сэкономить, но страшно: а вдруг отберут, если проект «неинновационный»? Или дадут миллион, но потратить его можно только на четверть? Я сам столкнулся с этой дилеммой, поэтому провел детальное расследование. Оказалось, что есть провайдер, который дает грант без ограничений на использование, другой — возвращает 30% всех расходов в течение года, а третий — выдает деньги моментально, но лишь на чашку кофе. Ломаю мифы и раскладываю по полочкам все грантовые программы российского облачного рынка.

Читать далее

Ближайшие события

Memory wall: что это и почему важно для индустрии хранения данных

Уровень сложностиСредний
Время на прочтение10 мин
Охват и читатели9K

Серверы становятся мощнее и больше каждый год. Количество ядер растет, векторные блоки для параллельной обработки массивов данных одной инструкцией расширяются, частоты давно уперлись в физические ограничения. Но вычислительная плотность продолжает увеличиваться. При этом производительность памяти и систем хранения растет существенно медленнее. В результате в реальных системах процессор все чаще простаивает, так как технически готов выполнять инструкции, но вынужден ждать, пока данные будут доставлены из хранилища.

Это явление давно известно в архитектуре вычислительных систем как разрыв между процессором и памятью (или Memory Wall). Сегодня он определяет производительность серверов, баз данных, платформ данных и AI/ML-платформ сильнее, чем выбор конкретной модели процессора или видеокарты. А в будущем определит то, какие продукты и решения индустрия будет использовать для решения задачи хранения данных.

Привет! Я Александр Гришин, руководитель по развитию продуктов хранения данных в Selectel. В этой статье я попробую подробно разобрать, что такое этот ваш разрыв между процессором и памятью, как он сформировался, как устроена иерархия памяти в сервере и почему эти ограничения подталкивают индустрию к новым архитектурам и решениям. Погнали!

Читать далее

Орбитальные дата-центры: патентный анализ

Уровень сложностиПростой
Время на прочтение8 мин
Охват и читатели7.4K

Хабр уже писал, что идея «ЦОД в космосе» на низкой околоземной орбите (LEO, 400 км) вышла за рамки научной фантастики. 

Компания Axiom Space в сентябре 2025 г. заявила о создании первого орбитального дата-центра AxODC (от Axiom orbital data center), который разместился на Международной космической станции МКС. Этот ЦОД будет обслуживать не только станцию, но также любые спутники с оптическими терминалами на борту. Использованы 64-разрядные процессоры Microchip PIC64-HPSC и накопители SSD Phison Pascari объёмом 128,88 Тбайт. Терминал способен обеспечить скорость связи с ЦОД на борту МКС до 2,5 Гбит/с. В будущем скорость обмена будет повышена до 100 Гбит/с. 

Мы решили разобраться, что с патентами на орбитальные ЦОДы. 

Читать далее

От железа к облаку и обратно — кейсы миграции

Уровень сложностиПростой
Время на прочтение10 мин
Охват и читатели7.3K

Эта статья — не про то, что «облако плохо» или «дедики устарели», а про реальные кейсы с проверенными цифрами, где компании принимали решение о миграции, считали экономику процесса и делились результатами публично. Попробуем разобраться, что они узнали на собственном опыте.

Читать далее

Архитектурный подход к контролю согласованности в LLM

Время на прочтение10 мин
Охват и читатели7.3K

1.1. Контекст и вызов Современные большие языковые модели(LLM) совершили рывок в обработке естественного языка, приблизившись к человеческому уровню в задачах генерации и понимания текста. Однако за внешней убедительностью ответов скрывается одна большая и существенная проблема: LLM по своей природе всё также остаются «предсказателями» следующего токена, а не системами, построенными на формальной логике или чётких онтологических моделях. Это порождает парадокс: модели, способные вести глубокие дискуссии по сложным темам, могут формировать ложные выводы или выдавать противоречивые утверждения в одном ответе.

1.2. Суть проблемы: смешение абстракций и отсутствие внутренней дисциплины
Галлюцинация не являются основной проблемой, они лишь следствие. Основная причина в
систематическом нарушении согласованности между различными уровнями обработки информации. Это проявляется в нескольких ключевых типах логических сбоев, скрывающихся в архитектуре LLM:

· Фактическая несогласованность: Ответы модели противоречат проверяемым данным или её же собственным предыдущим утверждениям в рамках диалога.
· Логическая несогласованность: Нарушение базовых правил дедукции (например, признание истинности утверждений «А → Б» и «А», но отрицание «Б») или последовательности в цепочках рассуждений.
· Контекстуальная несогласованность: Неспособность сохранять все выводы и факты при генерации сложного ответа, что приводит к искажению или полной замене исходных условий.

Эти сбои — прямое следствие того, что в процессе генерации модель не различает в своей внутренней работе этапы извлечения и верификации сырых данных (факты), построения интерпретаций на их основе (анализ) и формирования окончательных выводов (синтез).

Все эти уровни смешиваются в едином потоке токенов, что делает процесс непрозрачным и непроверяемым. Как следствие, модель может начать рассуждение с одного набора предпосылок, а завершить его — с другим, неявно подменив их в процессе.

Читать далее

Что показали в OWASP Top Ten 2025

Уровень сложностиСредний
Время на прочтение5 мин
Охват и читатели8K

Привет, Хабр! Меня зовут Дмитрий Бахтенков. С 2020 я занимаюсь коммерческой разработкой на .NET, а также пишу для медиа «вАЙТИ». В сфере информационной безопасности существует множество уязвимостей, и разработчикам сложно понять, какие из них важнее учитывать при обучении или отладке процессов безопасной разработки.

Читать далее

Как Cloud4Y строил свои ЦОДы в 2025 году

Время на прочтение3 мин
Охват и читатели7.9K

Привет, Хабр!

Год назад мы начали амбициозный проект — строительство собственных дата-центров в Московской области. Сегодня подводим итоги: что обещали, что построили и куда движемся дальше.

Читать далее

От данных к доказательству: может ли статистическая инвариантность стать ключом к Гипотезе Римана?

Уровень сложностиСложный
Время на прочтение26 мин
Охват и читатели8.5K

Гипотеза Римана, сформулированная в 1859 году, остается одной из самых значимых нерешенных проблем математики. Её доказательство или опровержение не только замкнет фундаментальный вопрос о распределении простых чисел, но и повлияет на криптографию, теорию информации и наше понимание случайности в математике. Традиционные аналитические методы, при всей их изощренности, пока не позволили приблизиться к решению этой задачи. Но что, если мы ищем ответ не там?

Эта статья предлагает радикально новый подход: рассмотреть Гипотезу Римана не как чисто аналитическую проблему, а как проблему распознавания статистических паттернов. Мы исходим из парадигмы, что нули дзета‑функции, если гипотеза верна, должны обладать уникальным статистическим «отпечатком пальца» — инвариантом, который отличает их от любого другого набора точек со схожими свойствами. Это переход от вопроса «почему?» к вопросу «как отличить?».

Наше исследование начинается там, где закончилась предыдущая работа «Взламывая Вселенную». Если там мы научились видеть геометрию нулей через 3D‑визуализации и обнаружили их связь с Гауссовым унитарным ансамблем, то теперь мы делаем качественный скачок. Мы не просто констатируем сходство, а ищем количественную меру этого сходства, которая достигает экстремума именно при выполнении Гипотезы Римана.

В фокусе исследования — два перспективных кандидата на роль такого статистического инварианта.

Циркулярная гипотеза: Мы применим метод «намотки» нормированных нулей на единичную окружность, известный в теории чисел. Гипотеза заключается в том, что при выполнении Гипотезы Римана распределение этих точек на окружности стремится к идеально равномерному, причем скорость этой сходимости и мера отклонения от равномерности будут экстремальными по сравнению с любым другим возможным расположением нулей. Мы разработаем математический аппарат для измерения «степени равномерности» и проверим его на трех типах данных: реальных нулях, синтетических точках на критической линии и точках со смещением.

Читать далее
1
23 ...