Обновить
110.85

Хранение данных *

Что имеем, то храним

Сначала показывать
Порог рейтинга

Ответьте на три вопроса и получите 3 000 ₽ на хранение данных

Хранить данные можно по-разному: в S3, базах данных, аппаратных СХД. К тому же способы можно комбинировать и даже для самых тривиальных задач получить сотни вариантов решения. А если вы работаете с чувствительными данными, то подход к способу хранения данных становится еще ответственнее.

Чтобы было легче определиться, мы предлагаем новым клиентам тест-драйв наших хранилищ и 3 000 бонусных рублей на него. Ответьте на три вопроса, получите рекомендацию по хранению и протестируйте их.

Теги:
+1
Комментарии0

S3 в Рег.облаке: лимит вырос с 500 ГБ до 20 ТБ

S3 в Рег.облаке теперь масштабируется до 20 ТБ — теперь пользователи самостоятельно выставляют квоту через панель. Раньше максимальный лимит объектного хранилища был 500 ГБ — чтобы его поднять, нужно было писать в поддержку. Теперь квота выставляется в режиме реального времени через панель управления Рег.облака.

Сценарии, где это пригодится:

  • архивные резервные копии, которые копятся быстрее, чем ожидалось;

  • медиафайлы высокого разрешения и потоковые данные;

  • логи и датасеты для обучения ML-моделей; 

  • любые задачи, где объем данных растет непредсказуемо.

Повышенные лимиты и мгновенное масштабирование дают компаниям возможность заранее планировать рост проектов и работать с большими объемами данных без ограничений по хранилищу.

Поднять квоту можно в личном кабинете Рег.облака.

Теги:
+1
Комментарии0

Годовалый ребёнок без присмотра решил понажимать на кнопки на коробочке и случайно удалил 32 ТБ данных на NAS‑сервере. Зачем вообще было производителю добавлять функцию «Удалить весь RAID» в меню «Быстрая настройка», родитель не понял.

Теги:
+4
Комментарии2

Когда работаешь с оборудованием, вне зависимости от должности и профессии, то телефон просто набит всевозможными рабочими фотографиями. Если говорим про инженера или архитектора, то скорее всего у них запечатлены план-схемы инфраструктуры, СКС разводки, серийный и MAC-адреса устройств, ...; робототехники обычно снимают своих "подопечных" и эксперименты с различной периферией; ну а у аппаратчиков - каждый шаг разбора, теста и реверса.

И все бы ничего, но иногда в галерею попадают изображения инсайдерского характера, разглашение которых может быть очень "больно" и "дорого". Поэтому требования к телефону, его настройке и разрешениям носят критический характер.
Представьте ситуацию, что сотрудник банка фотографирует вас с паспортом в качестве подтверждения личности для последующей выдачи карты. А вместе с тем, на телефоне установлена автозагрузка фотографий в облачный Google Images, с привязкой к геолокации и автоматическим размещением на Google Maps.

Скажете бред? А я отвечу, что я лично был в ситуации, когда наша команда готовились к Red Teaming'у одного градообразующего мобильного оператора и мы изучали местность по вышеуказанным картам. На наше везение, на здании ЦОДа, в которое нам необходимо было проникнуть, были фотографии серверной, разводки СКС, логины и пароли и еще много чего интересного.
В ходе разбирательства сотрудник пояснил, что злого умысла выгружать внутренние фото у него не было. Просто он озаботился бэкапами своей семейной галереи... в которую попали рабочие фотографии.

Сейчас, да что уж греха таить - уже как пару лет ваш телефон уже не ваш телефон (как и в Windows "Мой компьютер" плавно переименован в "Этот компьютер"). Все, что храните на телефоне, сразу становится достоянием общественности: разрешение на просмотр фото всеми приложениями, доступ к геолокации, камере и микрофону в фоновом режиме, доступ к контактам и самая прикольная тема, когда приложение запрашивает доступ на просмотр активности другого приложения...😂
Да и если почитать лицензионное соглашение, то и само устройство вам не принадлежит: ПО за компанией-разработчиком, а его реверс-инжиниринг и модификация запрещены уголовным законом. Что же касается железа, то эти кирпичи настроены на работу только со штатным кастомным ПО и драйверами, а всевозможные дебаг порты и флэш карты заблокированы.

В чем смысл моего повествования? Удобство использования всегда идет в разрез безопасности. Короткий и легкий пароль - удобно, но не безопасно; длинный и тяжелый - не удобно, но вряд ли вас взломают. Использовать все фичи телефона, включая камеру - удобно, но может все-таки рабочие и очень личные вещи оставить на "откуп" хотя бы оффлайн мыльницам?

В общем, есть над чем подумать на длинных выходных! А пока делитесь скриншотами своей телефонной галереи - давайте вместе оценим вашу работу)

🧠 Обязательно поделись с теми, кому это может быть полезно 💬 Телеграм | 💬 Max | 📝 Хабр | 💙 ВКонтакте | ⚡️Бустануть канал

Теги:
+5
Комментарии0

Бесплатный проект Kiwix позволяет использовать различные ресурсы типа Википедии, TED Talks, Stack Exchange и другие локально и без интернета. Работает просто: скачиваете ZIM-архив один раз, а потом можете искать статьи и просматривать их где угодно, на любом устройстве. Решение доступно на Windows, macOS, Linux, Android и iOS.

Теги:
+2
Комментарии0

Как крупнейший брокер перенес 200 серверов и 100 ТБ данных в российское облако без потерь и неожиданностей

💼 Что за компания

«Ренессанс Брокер» — один из крупнейших профессиональных участников российского рынка ценных бумаг. Сфера деятельности брокера строго регламентирована, а IT-инфраструктура в компании как кровеносная система: любой простой, даже измеряемый минутами, может привести к финансовым потерям и ущербу деловой репутации. Наиболее критический сценарий для IT-инфраструктуры — отказ или перегрузка торгового сервера или шлюза, обеспечивающего связь с биржей. 

🕵️ Задача

Перенести критически важные бэк-офисные системы из иностранного облака в российское, соблюсти требования по SLA, RTO, RPO и обеспечить производительность ключевых компонентов инфраструктуры на аналогичном или лучшем уровне. Например, в случае инцидента время на восстановление работы критических систем должно стремиться к нулю. При этом для баз данных брокер требовал RPO, равное нулю, ведь потеря даже одной транзакции недопустима.

«Ренессанс Брокер» переносил системы с известными нагрузками, поэтому опирался на конкретные цифры производительности базы данных и сети:

  • для транзакционных запросов должно сохраниться среднее время отклика,

  • задержка между критически связанными компонентами внутри облака должна оставаться минимальной,

  • задержка доступа до новых облачных ресурсов должна быть сопоставима или меньше предыдущей.

👨‍💻 Решение

На пилотном этапе брокер сосредоточился на тестировании фундаментальных сервисов Cloud.ru Advancedвиртуальных машинблочного хранилища и объектного хранилища стандартного и холодного класса хранения. Тестирование подтвердило, что инфраструктура Cloud.ru соответствует текущим требованиям к производительности. Это стало одним из аргументов для принятия решения о начале полномасштабной миграции, так как позволило гарантировать бизнесу отсутствие ухудшения в работе критически важных приложений и баз данных.

Сроки миграции в облако Cloud.ru были спланированы и реализованы в два этапа. На приоритетную миграцию закладывали 2–3 месяца. Второй этап по плану должен был занять около 6 месяцев: за это время надо было не просто перенести системы, но и архитектурно их усовершенствовать, например, переехать на новую версию ПО или изменить стек с одной СУБД на другую, включая критически важное разделение зарубежной и российской инфраструктур для соответствия новым регуляторным и законодательным требованиям. 

📈 Результаты

Миграция полностью уложилась в запланированный срок. Все сервисы, включая 200 серверов и 100 ТБ данных, были перенесены с минимальным временем простоя. Изменения затронули практически всех сотрудников компании. Для них переход был максимально прозрачным и свелся в основном к смене адресов для подключения: они продолжили работать с уже знакомыми системами, но уже в новой среде.

Снижение совокупной стоимости владения (TCO) облачной инфраструктурой стало для «Ренессанс Брокера» одним из самых значимых количественных результатов миграции. Клиент достиг этого снижения за счет более прозрачной и предсказуемой модели ценообразования, что позволяет эффективнее управлять бюджетом и избегать неожиданных затрат.

Другой важный результат — сохранение и укрепление высокого уровня SLA в новой среде: брокер обеспечил выполнение строгих требований к доступности и полную сохранность данных.

Подробнее о кейсе на сайте

Теги:
+1
Комментарии0

Что общего между счетами за коммуналку и облачными сервисами?

Самый большой страх перед облаками — это «открытый кран», который за месяц сольет весь бюджет компании. Но есть и хорошая новость: чтобы не разориться, не нужно творить чудеса. Достаточно навести порядок в своей «цифровой квартире» и приучить команду к осознанному управлению ресурсами. Применяем логику рачительного домовладельца к облачной архитектуре и смотрим, где можно сэкономить без потери в производительности.

1. Вынесите счетчик из подвала

Трудно экономить воду, если счетчик спрятан в темном углу за слоем пыли или вообще, запрятан внутри самого поставщика. В ИТ всё так же: команды не начнут оптимизировать код, пока не увидят, сколько стоит их «пробег». Поэтому начните с активации расширенных панелей мониторинга (Billing Dashboards). Расходы должны быть на виду у тех, кто их генерирует, а не только у бухгалтерии в конце месяца.

2. Распределите ответственность

У каждой «лампочки» должен быть хозяин. Назначьте ответственных за каждый ресурс, сервис, базу данных или инстанс, но не для галочки, а специалиста, который понимает, как работает этот ресурс и сколько он стоит. Да, на старте это потребует времени (и, возможно, обучения сотрудников), но в итоге вы получаете прозрачность. Золотое правило: если ресурс нельзя идентифицировать — он не должен существовать. Только так можно понять, кто «льет воду», а кто экономит.

3. Проводите регулярную поверку

Этот пункт напрямую вытекает из предыдущего. Поверка — это не просто аудит «для бухгалтерии», а профессиональный осмотр. Маленькая капля за месяц превращается в кубометры, а забытый «тестовый» сервер — в десятки и сотни тысяч рублей. Проводите ежемесячный аудит: удаляйте брошенные инстансы и делайте оптимизацию мощностей (меняйте размер слишком мощных машин на те, что реально нужны). Сохраняйте историю, чтобы видеть динамику ваших «протечек».

4. «Умный дом» для бюджета

Современные системы защиты перекрывают воду автоматически, как только датчик на полу зафиксировал протечку. В облаках такая страховка также обязательна. Настройте пороговые значения и оповещения о расходах, которые предоставляют облачные провайдеры. Своевременное уведомление о том, что лимит бюджета исчерпан на 80% на первой неделе, спасет вас от крайне неприятного сюрприза в конце месяца.

5. Энергоэффективность на этапе чертежа

Глупо строить дом из картона, а потом пытаться согреть его промышленным обогревателем, поэтому о его энергоэффективности думают еще на этапе проекта. Стоимость облачных услуг напрямую зависит от архитектурных решений. Иногда лишний час работы архитектора на старте окупается многократным снижением счетов за поддержку системы в будущем. 

Переезд в облако не избавляет от ответственности за инфраструктуру, он просто меняет фокус, с обслуживания «железа» на оптимизацию процессов. Ни один облачный провайдер не придет к вам, чтобы выключить за вами свет. Это ваша «цифровая квартира», и уют (как и бюджет) в ней зависит только от вас.

Теги:
Всего голосов 1: ↑1 и ↓0+3
Комментарии0

Представлен проект CapacityTester — утилита с графическим интерфейсом для выявления реальной ёмкости носителей информации. Решение кроссплатформенное, написано на C++ и создано с использованием фреймворка Qt.

Есть два режима работы CapacityTester:

  1. Аналогичный используемому при работе консольных утилит f3write/f3read (пакет f3 — Fight Flash Fraud), когда свободное место на носителе (с файловой системой) заполняется специально сформированными файлами. На носителях большого объёма требуется длительное время для проверки.

  2. Деструктивный режим, когда данные пишутся напрямую на носитель, и фейковая ёмкость может быть выявлена быстрее (у f3 тоже, вроде бы, есть аналогичный режим, но это не точно).

Помимо авторских сборок, у программы есть пакет в репозиториях Altlinux и PKGBUILD в AUR.

Теги:
Всего голосов 3: ↑3 и ↓0+3
Комментарии0

Проект Pentaract позволяет сделать Telegram бесконечное хранилище файлов и превратить мессенджер в личное облако. Основа — PostgreSQL. Технология максимально экономит место, не создаёт лишний мусор, таблицы или списки. Работает без ограничений и без нарушений политики и целостности Telegram.

Теги:
Всего голосов 3: ↑1 и ↓2+1
Комментарии6

Иногда возникает вопрос - как долго данные могут сохраниться на том или ином носителе. Можно ответить теоретически, а можно проверить на практике...

И вот уже почти полтора года две microSD карты старательно лежат в коробочке и пытаются сохранить мои бесценные данные. 22 августа 2024 года была приобретена карточка SanDisk Extreme Pro 512 GB, залита под завязку данными, и положена на хранение в прохладное темное место. По предложению коллег по форуму 25 августа была куплена еще и самая дешевая карточка, Smartbuy 512 GB, тоже залита данными и положена рядом. Карты были выбраны просто - самая дорогая из доступных, и самая дешевая. Условия хранения - бытовые, температура - 21-26 градусов, влажность 30-60%, темнота.

Пара промежуточных тестов - в этой статье под спойлером в разделе "2) Накопители на флеш-памяти". Чтобы зря не ходили туда - дорогая карта изменений за год не продемонстрировала, у дешевой после года - резко упала скорость после начального участка, перезаписанного изначально два раза.

Смотрим - что стало с картами по состоянию на 1 января 2026 года.

Верхний график - дорогая карта, нижний - дешевая. Интересно то, что провал скорости у дешевой карты исчез, остался только в конце. Дополнительно были проверены коды восстановления у файлов, лежащих на картах - ошибок нет, данные читаются те, что были записаны.

Резюме: обе карты сохранили данные в течение полутора лет.

Следующая проверка - 1 июля 2026 года.

Теги:
Всего голосов 7: ↑6 и ↓1+6
Комментарии11

Открытый проект Digler помогает спасти удалённые файлы на жёстком диске, проводит глубокий анализ SSD или HDD и может вернут утерянные данные. Работает со всеми файловыми системами, даже если метаданные отсутствуют. Сканирует не только физические SSD, но и образы дисков. Создаёт детальные отчёты, которые помогут точечно спасти нужные файлы. Умеет работать с файлами любых форматов.

Теги:
Всего голосов 2: ↑1 и ↓10
Комментарии1

Премьера года: знакомьтесь с DataForge!

Вебинар — 16 декабря, 12:00

Друзья, делюсь новостью, которой горжусь: коллеги запускают премьерный вебинар и впервые подробно покажут DataForge — новую российскую self-service платформу для централизованного управления аналитическими данными.

Я внимательно следила за развитием этого продукта и на некоторых этапах принимала участие в обсуждениях — особенно за те функции, которые лично для меня, как аналитика, принципиально важны:
— быстрый сбор и систематизация витрин
— возможность видеть и настраивать бизнес-логику
— единый подход к расчётам для всех систем без бесконечного ручного труда в Excel

DataForge — это инструмент, который сам собирает и поддерживает Data Mart слой для любых связанных систем. Особенно актуален для тех, кто строит витрины на ClickHouse: автоматическая генерация витрин, согласованность расчётов для всех потребителей данных — и всё это без лишних доработок со стороны разработчиков.

О чём расскажут на вебинаре:

  • Какие задачи решает DataForge и как ускоряет работу всех подключённых систем, включая BI

  • Как устроена структура продукта: его место в архитектуре и ключевые компоненты

  • Подробно покажем семантический слой: реестры показателей, измерений, единая бизнес-логика

  • Как работает автоматическая генерация SQL и публикация витрин в базе

  • Как DataForge обеспечивает согласованность метрик и прозрачность данных в любых BI-инструментах

  • Как платформа автоматически транслирует изменения в бизнес-логике во все связанные системы

Спикеры:
Технический директор и владелец продукта DataForge

Формат:
Онлайн, 1 час живого диалога с экспертами, включая демонстрацию интерфейса и ключевых возможностей платформы

Участие бесплатное!

Регистрация по ссылке

Теги:
Рейтинг0
Комментарии0

В Рег.облаке запустили Платформу данных на open-source технологиях

В Рег.облаке стала доступна Платформа данных — индивидуально разворачиваемая среда для полного цикла работы с данными: от сбора и хранения до аналитики, ML-разработки и эксплуатации моделей. Решение проектно конфигурируется под задачи конкретного заказчика и разворачивается в нужном контуре.

Платформа основана на открытых технологиях и позволяет собрать единый data-стек без вендор-лока. В рамках проекта объединяются инструменты для ETL/ELT, потоковой обработки, хранилищ, ML-среды и аналитики, а также могут подключаться проприетарные модули под специфические сценарии.

Что входит в решение:

  • open-source инструменты для хранения, обработки, аналитики и машинного обучения;

  • готовые модули для каталогизации данных, визуализации и ML;

  • возможность интеграции собственных инструментов и сервисов;

  • управляемая эксплуатация: обновления, мониторинг и поддержка.

Основные возможности:

  • единый контур для ETL/ELT, потоковой обработки, ML и BI;

  • масштабируемая архитектура для работы с терабайтами данных;

  • кастомизация инструментов под окружение заказчика;

  • изолированные сегменты для работы с конфиденциальными данными;

  • быстрое развертывание и добавление новых модулей.

Технологический стек

Хранение и управление данными: S3, PostgreSQL, ClickHouse, Apache Iceberg, Open Metadata.
Обработка и трансформация: Airflow, Apache Spark, Flink, Kafka, Trino, Apache Impala.
Аналитика и визуализация: Superset, Metabase, ClickHouse, PostgreSQL, Apache Impala.
Машинное обучение: JupyterLab, Kubeflow, MLflow.
Партнерские решения: готовые SaaS-модули для расширения функциональности.

Платформа подходит для построения единого дата-стека, сквозной аналитики, машинного обучения и обработки больших данных в распределенных инфраструктурах. 

Примеры сценариев использования:

  • консолидация данных и построение бизнес-отчетности;

  • миграция с legacy-систем на современную архитектуру;

  • обучение и развертывание ML-моделей;

  • подготовка данных для AI-систем и нейросетей.

Подробнее о Платформе данных читайте на сайте Рег.облака.

Теги:
Всего голосов 1: ↑1 и ↓0+1
Комментарии0

Ближайшие события

Получите максимум от объектного хранилища данных

Через 25 минут на вебинаре «Внутри S3». Мы создаем масштабируемые, отказоустойчивые и быстрые S3-хранилища: ледяные, холодные, горячие и стандартные. Познакомим вас с устройством сервиса под капотом и разберем, как используют S3 компании из разных сфер. Присоединяйтесь!

Смотреть →

Что обсудим:

👉 как устроено S3 в Selectel на всех уровнях; 

👉 для чего нужны разные типы хранения данных и как с ними работать; 

👉 как использовать частные инсталляции S3; 

👉 как построить собственную дата-платформу с помощью хранилища Selectel.

Подключайтесь к трансляции:

📼 YouTube
📼 VK

Теги:
Всего голосов 2: ↑2 и ↓0+5
Комментарии0

В Рег.облаке появилась возможность разворачивать приватное S3-хранилище на выделенных кластерах

В Рег.облаке стала доступна индивидуальная инсталляция приватного объектного хранилища на базе Ceph — полностью изолированной системы хранения данных с поддержкой S3-API. Кластер разворачивается только под конкретного заказчика и в конфигурации, соответствующей его инфраструктуре и требованиям безопасности.

Хранилище можно развернуть в одном из дата-центров Рег.облака или на стороне клиента, если необходим полный физический контроль над оборудованием и контуром.

Что входит в решение:

  • выделенный Ceph-кластер под одного клиента;

  • поддержка стандартного S3-API;

  • размещение в ЦОДе или на стороне заказчика;

  • обслуживание и эксплуатация кластера силами инженеров Рег.облака.

Основные возможности:

  • полная физическая и логическая изоляция данных;

  • масштабирование от сотен терабайт до нескольких петабайт;

  • отказоустойчивость за счет репликации (обычно x3);

  • высокая пропускная способность в локальной сети (до 100 Гбит/с);

  • предсказуемая модель подписки, включающая оборудование, ПО и поддержку.

Технические характеристики:

  • технология: Ceph Object Storage;

  • протокол: S3-совместимый API;

  • масштабируемость: 500 ТБ – 5 ПБ;

  • изоляция: выделенное оборудование под каждого клиента;

  • надежность: репликация данных;

  • размещение: ЦОД Рег.облака или площадка заказчика.

Хранилище подходит для резервных копий и журналов транзакций, создания Data Lake и работы с большими аналитическими массивами. Приватный S3 пригодится для хранения и раздачи медиаконтента, а также для корпоративных архивов и защищенных хранилищ документов.

Посмотреть доступные конфигурации приватного S3-хранилища можно на сайте Рег.облака.

Теги:
Всего голосов 2: ↑2 и ↓0+4
Комментарии0

Repeater - легкий оркестратор для аналитики

Repeater запускает задачи по расписанию. Задачи описываются в toml-файлах и отображаются в веб-интерфейсе.

title = "wiki"
cron = "55 * * * *"

[[tasks]]
name = "wiki_pageviews"
cmd = "python3 ./examples/wiki_pageviews.py --end_date={{.scheduled_dt}}"   

[[tasks]]
name = "trigger_outliers_update"
cmd = "python3 ./examples/trigger_outliers_update.py"

Возможен запуск при завершении другой задачи, уведомления о падениях, параллельные этапы. Repeater подойдёт для импорта данных и обновления витрин в хранилище.

Попробуйте!

Демо: https://repeater.up.railway.app/
Репозиторий: https://github.com/andrewbrdk/Repeater

Теги:
Рейтинг0
Комментарии0

Вендинговый оператор перенес mission-critical инфраструктуру в облако Cloud.ru и настроил резервное копирование базы данных 💽

👨‍💻 Что за компания

UVENCO — крупнейший оператор вендинговых автоматов бренда UNICUM в России, обслуживает 20 000 торговых аппаратов, включая микромаркеты и кофе-поинты, в 65 городах страны.

Все автоматы оборудованы системой онлайн-телеметрии, которая помогает удаленно мониторить их работу, планировать маршрут и график обслуживания, контролировать продажи и остатки товаров. Так оператор в режиме реального времени видит состояние всего парка оборудования и может обеспечить одинаково высокое обслуживание во всех городах, где стоит вендинг UVENCO.

🕵️ Какая была задача

Система онлайн-телеметрии на 20 000 автоматов — это тысячи транзакций в секунду, постоянные записи в базы данных и высокая чувствительность к задержкам. Для UVENCO это mission-critical система: любая деградация ядра телеметрии отразится на продажах и сервисе по всей стране.

Ранее телеметрия работала на локальных серверах. Но для требуемого SLA пришлось бы резервировать вычислительные кластеры, систему хранения данных (СХД), сеть и питание — это дорого и сложно в сопровождении. Масштабирование под ввод новых автоматов тормозилось бы капитальными затратами.

👨‍🔧 Как ее решили

IT-специалисты UVENCO развернули виртуальные машины и перенесли сервисы телеметрии на платформу Облако VMware. Миграция выполнялась средствами VCDA без изменения архитектуры приложений. После оценки производительности инженеры Cloud.ru предложили перейти на выделенный хост, чтобы исключить шум соседей и закрепить ресурсы только за UVENCO.

📈 Что в результате

Телеметрия работает стабильно, БД регулярно и корректно резервируется. Переезд снял риск простоев и дал UVENCO возможность оперативно масштабироваться под рост нагрузки.

Читать кейс полностью 💼

Теги:
Рейтинг0
Комментарии2

Как настроить резервное копирование в S3

Автоматизация резервного копирования помогает снизить риск потери данных. Один из простых способов — использовать rclone, утилиту для синхронизации и переноса файлов между локальными системами и хранилищами, совместимыми с S3.

Подготовили подробный гайдлайн, как установить rclone на Windows, подключить S3-хранилище, создать скрипт для копирования бэкапов и добавить его в Планировщик заданий — чтобы резервное копирование выполнялось без участия администратора.

Подробную инструкцию смотрите  в базе знаний Рег.облака.

Теги:
Всего голосов 1: ↑1 и ↓0+1
Комментарии0

GlowByte приглашает на первый Data Sapience Data Day: дата, программа, регистрация

Data Sapience объявляет о проведении первой конференции, посвященной работе с большими данными, Data Sapience Data Day, которая состоится 18 ноября 2025 года. Мероприятие объединит ведущих экспертов IT-отрасли и руководителей крупнейших компаний.

Data Sapience Data Day 2025
Data Sapience Data Day 2025

В программе конференции:

Панельная дискуссия с участием CDO лидирующих организаций будет посвящена ключевым темам современного дата-рынка:
▫️ перспективам развития дата-ландшафта;
▫️ влиянию искусственного интеллекта на управление данными;
▫️ оценке готовности рынка (технологии/решения/компетенции);
▫️ вопросам миграции в публичные облака.

Клиенты выступят с докладами и расскажут о кейсах внедрения и эксплуатации решений Data Sapience. Среди спикеров — представители Альфа-Банка, ОТП Банка, Россельхозбанка и других крупных организаций.

Технологические презентации познакомят участников с возможностями Lakehouse-платформы данных Data Ocean и платформы управления данными Data Ocean Governance.

В мероприятии примут участие специалисты Т-Банка, Газпромбанка, Сбербанк Страхования, Адастры и других ведущих игроков рынка.

▶️ ПОДРОБНАЯ ПРОГРАММА И РЕГИСТРАЦИЯ ◀️
Участие в конференции бесплатное. Регистрация обязательна и проходит модерацию в соответствии с закрытым форматом мероприятия.

Теги:
Всего голосов 1: ↑1 и ↓0+1
Комментарии0

Первый Data Sapience Data Day: дата, программа, регистрация

Data Sapience объявляет о проведении первой конференции, посвященной работе с большими данными, Data Sapience Data Day, которая состоится 18 ноября 2025 года. Мероприятие объединит ведущих экспертов IT-отрасли и руководителей крупнейших компаний.

Data Sapience Data Day 2025
Data Sapience Data Day 2025

В программе конференции:

Панельная дискуссия с участием CDO лидирующих организаций будет посвящена ключевым темам современного дата-рынка:
▫️перспективам развития дата-ландшафта;
▫️влиянию искусственного интеллекта на управление данными;
▫️оценке готовности рынка (технологии/решения/компетенции);
▫️вопросам миграции в публичные облака.

Клиенты выступят с докладами и расскажут о кейсах внедрения и эксплуатации решений Data Sapience. Среди спикеров — представители Альфа-Банка, ОТП Банка, Россельхозбанка и других крупных организаций.

Технологические презентации познакомят участников с возможностями Lakehouse-платформы данных Data Ocean и платформы управления данными Data Ocean Governance.

В мероприятии примут участие специалисты Т-Банка, Газпромбанка, Сбербанк Страхования, Адастры и других ведущих игроков рынка.

▶️ ПОДРОБНАЯ ПРОГРАММА И РЕГИСТРАЦИЯ ◀️
Участие в конференции бесплатное. Регистрация обязательна и проходит модерацию в соответствии с закрытым форматом мероприятия.

Теги:
Всего голосов 2: ↑2 и ↓0+2
Комментарии0
1
23 ...