Search
Write a publication
Pull to refresh

Comments 16

Мы строим последнее коммерческое облако в России

Звучит как-то не очень обнадёживающе.

Таковы реалии рынка. Плюс хочется сделать облако так, как надо. А после того, как мы этого добьёмся, думаем, уровень входа в сферу будет ещё выше.

Профессионалов в команде тяжело заменить. Пока ищется замена - его работу надо кому-то передать и не факт, что он не подумает уйти тоже. Имхо стратегия на грани "Наташа, мы всё уронили".

Мы вроде бы о том-же говорим: вместо множества середнячков — энное число профи.

Там, где два сильных специалиста могут закрыть функционал службы из десятка средних — какой же тут риск все уронить? Наоборот, каждый из таких сотрудников знает, что делать и как это делать профессионально.

Один умер, второй на больничном. Ситуация времен ковид.

А как вы предлагаете, плодить штат только чтобы распределить знания? Это ж не контейнеры, вроде.

Вроде давно все придумано - категории инженеров с разной зп и разной ответственностью. Ведущий, 1 категории, второй, специалист. Эта система не падает, когда инженеры уходят.

Офис в тратах на перво месте, дальше не читал. Если вы такие оптимизаторы то советую присмотреться к полной удаленке.

Я ранее рассказывал, почему удаленка — это не наш формат. Да и экономия на офисе мизерная.

Мы решили пойти не по классике и строим сейчас одну службу мониторинга, которая будет реагировать на все инциденты и стараться решить их по стандартным автоматизированным сценариям. А в случае неудачи передавать информацию либо сетевым инженерам, либо безопасникам, либо SRE’шникам,

Я чего-то не понимаю, или вы открыли для себя двухуровневую техподдержку?

В принципе 2-3 уровень тоже могут быть круглосуточными, но по "вызову" - сотрудник на дежурстве, но не в офисе и должен в течение получаса приступить к решению проблемы. Это нормальная практика.

Это три автономные эксплуатационные службы, которые обычно разделены. Они существуют у провайдеров помимо техподдержки.

С кучей GPU не думали предоставлять доступ к Open-source LLM? С оплатой за токены на входе / выходе (инференс).

Как я вижу, сейчас все в основном перепродают доступ к зарубежным провайдерам AI - что порождает много вопросов приватности данных.

А для частников в РФ, навскидку, я вариантов не нашел (за разумный прайс, не арендуя сразу GPU в облаке).

Мы сейчас работаем над двумя сервисами с GPU: VDI и ML-платформа.

Т.е. именно о доступе к запущенным моделям речи не идет. В лучшем случае - арендуй VDI или через ML-платформу пробуй.

Жаль. Но может ML-платформа даст подобный сценарий использования - с оплатой за хранение модели и потребляемые ресурсы GPU на инференс.

Спасибо за информацию!

Мы рассмотрим инференс чужих моделей и продажу токенов, если это будет востребовано, но пока у нас уже заезжают крупные заказчики и всё-таки фокус на том, чтобы дать им инфраструктуру как сервис.

Например, если говорить об оверхеде, то любая виртуализация — это оверхед. 

Гениальный вывод на почти пятидесятом году существования виртуализации машин. Но беда в том что никакой современный подход построения облаков не может обойтись без виртуализации. Т.е. без оверхэда.

При этом вы можете говорить об VMware, OpenStack, или контейнерах с докерами все это не более чем разные названия виртуализации. Т.е. оверхэда.

Только ОС способная управлять и оптимизировать многопрофильную нагрузку от мнопользовательского портфеля заказов может минимизировать оверхэд. Я знаю название этой системы, но это за пределами понимания автора статьи и подавляющего большенства читателей этого форума. Так что оставим это за скобками.

Sign up to leave a comment.