Я 15 лет сижу на лисичке. И с каждым годом она всё хуже, настроек всё меньше и меньше. Обновления ставшие принудительными, уже нельзя выключить сняв галочку. Да и даже в about:config их так просто не отключишь. Дополнений стало меньше. Часть сайтов уже некорректно работает под лисой. Еще лет 5 и куда кроме хрома? Вивальди?)
Был бы интересен компактный корпус под mATX плату
Который бы держал ниже! 60 градусов Xeon L5640 и L5408 и не только в положении «стоя»
С местом под TFX блок питания
С ценой до 10-12к
Банковский сектор,… у нас много табличек =) Informatica ETL — устоявшееся решение, для трансфера данных из одной БД в другую. Но за наводку на Pentaho, Talend спасибо. Мы посмотрим.
Согласен с автором.
Хадуп очень избыточен, пример:
Нужно перебрасывать данные из 7 таблиц на postgreSQL в одну таблицу на mssql.
Решение в котором ключевую роль играет Хадуп:
Новые данные в онлайн режиме подбираются из postgreSQL неким самописным сервисом, летят в logstash от туда в kafka
из кафки, спарк стримингом грузим данные в hive,
а из hive данные забираются каждый день информатикой и льются в MSsql
Я 15 лет сижу на лисичке. И с каждым годом она всё хуже, настроек всё меньше и меньше. Обновления ставшие принудительными, уже нельзя выключить сняв галочку. Да и даже в about:config их так просто не отключишь. Дополнений стало меньше. Часть сайтов уже некорректно работает под лисой. Еще лет 5 и куда кроме хрома? Вивальди?)
Который бы держал ниже! 60 градусов Xeon L5640 и L5408 и не только в положении «стоя»
С местом под TFX блок питания
С ценой до 10-12к
-негативного влияния на мозг не заметил
-позитивного влияния на мозг не заметил
От нескольких прочтенных книг на мой взгляд пользы будет больше.
У нас в компании похожий стек, только про Hadoope
Хадуп очень избыточен, пример:
Нужно перебрасывать данные из 7 таблиц на postgreSQL в одну таблицу на mssql.
Решение в котором ключевую роль играет Хадуп:
Новые данные в онлайн режиме подбираются из postgreSQL неким самописным сервисом, летят в logstash от туда в kafka
из кафки, спарк стримингом грузим данные в hive,
а из hive данные забираются каждый день информатикой и льются в MSsql
итоговая цепочка
postgresql->.net service-> logstash -> kafka ->spark streaming -> hive — > Informatica -> MSSql
И в качестве плана Б был реализован поток на информатике (За 1 день)
postgresql -> IPC -> MSSql
Да хадуп бесплатен, да не нужно платить немалые деньги за лицензию oracle, Informatica ETL
Но стоит ли оно того?