Как стать автором
Обновить
-13
0

Пользователь

Отправить сообщение
По модему если только были. Но это все равно общие каналы связи. Сейчас связать все банки в мире через физически отдельную сеть нереально, бессмысленно, дорого и небезопасно. Да и и смысла нету т.к. все равно не сможешь расстыковаться с интернетом — пользователь на сайте банка сказал сделать перевод, оно ушло в процессинг, затем в SWIFT и далее… Стык никуда не денется.
Кидать собственные кабели между странами? Делать собственную копию интернета на текущих магистралях? Боюсь все просто пошлют SWIFT и мгновенно появится более дешевый конкурент.
Но опять таки, точное время это далеко не все, что стоило бы поправить.


Видя как порой делается безопасность в околовоенных сферах и коммерческих крупных, понимаешь что частенько безопасность там делают не знающие люди, а удобные. А уж банковский сектор так вобще консервативен и жаден до ужаса и там как обычно «пока гром не грянет, а если и грянет то вдруг пронесет»

Что же до сравнения HOTP/TOTP, то по моему мнению HOTP сильнее, так как текущий счетчик неизвестен злоумышленнику.


TOTP — это эволюция HOTP.
А как синхрить счетчик? Вот в банке глюканул компьютер и он потерял запомненный счетчик. Если ему прилетит номер счетчика от SWIFT, тогда это уже ничем не будет отличаться от TOTP (алгоритм то тот-же самый). А если не прилетит и придется заказывать его по другим каналам — то это уже простой в работе.
Что же до атомного источника времени, это из пушки по воробьям, вроде это довольно дорогое удовольствие, но это не точно.


Недорогое, столько же как и gps (что там 1-3к вечнозеленых президентов для банка). В тот же чип вместо кварца вкатан например рубидий. gps можно заюзать только для первой синхронизации времени (все равно ее откуда-то нужно будет взять, а точнее спутников сейчас особо нечего), а затем отключить и жить только на атомных часах.

Например железки symmetricom.

В дополнение, я считаю, что использование времени в качестве части вектора инициализации само по себе ослабляет метод.


Квантового шифрования для передачи ключей еще в нашей повседневности нету. Сотовая связь дырявая.

TOTP хотя бы позволяет иметь оффлайновый генератор и встает вопрос только в первичной инициации, которую можно перезапускать раз в месяц например чтобы не подобрали ключ на основе прежде введенных данных (если нечасто коды используются). В принципе QR код тоже можно по почте получать курьером, хотя это менее надежно крипто-туннеля. Т.е. тут все упирается в первую пересылку которую можно осуществить хоть на вертолете с вооруженной охраной и чемоданчиком с самоуничтожением (тут заиграла музыка из Миссия Невыполнима).
Оффлайновые коды имеют минус в их количестве. Т.е. возможно придеться часто их передавать, а это возможность утечки.
Но большей проблемой является то, что сервера SWIFT обычно (и это тоже рекомендация) изолированы от локальной сети и просто не имеют доступа к NTP-серверам — источникам точного времени, так нужным для корректной работы TOTP.


Это не проблема. Атомный источник времени с NTP в закрытый контур и проблемы нет (либо gps-ntp). Цена копеечная. У гугла или фейсбука (не помню) такой в каждой стойке стоит.

На одной конференции по облачным технологиям (не вспомню какой) был очень интересный доклад на тему готовности бизнеса использовать IaaS, PaaS, SaaS. Так очень важный озвученный недостаток Saas — это огромная сложность миграции с одного Saas провайдера на другого (подняли цены, ухудшилось качество услуг, санкции или еще какие причины) т.к. SaaS практически не стандартизирован (в отличии от Iaas).

Как в этом деле обстоит с вашим предложением? Т.е. нужно описание рисков и возможность их решить.
С некоторых пор мы перестали ходить к ИТ-директорам, а идем сразу к финансистам, и тогда мы говорим на одном языке: капексы, опексы, они считают деньги, и говорят — поехали! И после этого от бизнеса идет запрос на итшников — сделать это, и все.


Вот за это вас ИТ любить и не будет. Потому что финансистам вы риски не рассказываете, технические нюансы тоже (например ограничения по размеру ящиков, надобность более толстых резервируемых каналов связи, возможность настраивания QoS на пограничном маршрутизаторе и возможная его замена, латенси до служб, невозможность повлиять на проблемы в хождении почты), да и ROI тоже на самом деле тоже будут подсчитаны неправильно.
Например есть 3 инженера обслуживающих компанию по разным направлением и перевод на office 365 их количество не уменьшит, просто сместит акценты направления поддержки, людей в первой линии тоже не изменится, плюс если уже есть парк серверов.
А разгребать проблемы с office 365 по итогу все равно будет ИТ и шишки будут лететь на них, а не на финансистов продавивших проект (а в России они редко считают риски и инвестиции больше чем на 1 год).

Плюсы в office 365 конечно есть, но и минусы надо учитывать по всем направлениям, а не просто «посчитали ROI с финансистами и пошли внедрять».

По итогу моя компания съехала с office 365 из-за технических ограничений (у нас много ящиков больше 50гб).
Вот в свое время мы напоролись на тему с виртуализированным ораклом. У него очень оригинальная модель лицензирования для Oracle DB Enterprise в виртуальном окружении. Они признают только свою виртуализацию на своем железе. Т.е. только на их железе ты можешь выделить например 4 vCPU и их оплатить. На чужой виртуализации нужно лицензировать весь хост целиком (все ядра на всех процах) и чуть ли не умножить на сумму всех виртуалок с ораклом. А если не дай бог у тебя еще кластер виртуализации — помножь на все хосты в кластере. При стоимости 45000$ за одно физическое ядро — получается космический корабль. Обычно разработчики об этом не задумываются когда подбирают инструмент (как в принципе получилось у нас), а вот когда вскрывается — становится очень неприятно.
Решение может и интересное, но из-за стоимости владения (Oracle DB, оборудование под него) очень имхо нишевое. Оракл конечно относительно быстр, но вот вопрос с количеством входящих данных и хранящимися данными могут встать очень остро (200 сообщений в секунду это вобще мелочь, а у вас уже вроде все ложится). А покупать экзадату для обработчика логов будет смотреться очень странно. Т.е. реально ощущение «у нас суровый энтерпрайз, мы можем немного подвинуть ораклевую лицензию, давайте пилить на нем»
Какие возможности ПО (дедупликация, компрессия, снапшоты, перезаписываемые снапшоты, ssd кэш на чтение/запись, поддерживаемые протоколы nfs/cifs/iscsi/fc, ставится как монолит или поверх какой-то ОС, ограничение размера лунов, ограничение количества лунов, совместимость с VmWare(драйверы для интеграции), совместимость с Hyper-V)?
Как лицензируется ваше ПО?
Собственно прайсовый ценник к указанным вами конфигурациям лицензий тоже неплохо было указать.
Желательно еще возможность скачать тестовую версию на попробовать.

Т.е. в вашей статье вы расписали как работает любая коммерческая двухконтроллерная хранилка (NetApp, EMC и т.п.), но ничего не сказали про свой продукт и почему его нужно хотя бы рассмотреть.
Если у вас унифицированая инфраструктура с небольшим набором систем, то в летсенкрипт смысл есть (т.е. например у вас только иис и windows server 2012r2 или там RHEL7 со стандартным набором пакетов). Но если у вас например холдинг компаний разработчиков, где набор разномастных систем которые смотрят наружу (win2003/2008/2012к2+iis, vpn'ы разные, rdpaps, S4B, разных кастомизированных линухов вобще можно не считать) просто зашкаливает и небольшой инженерный отдел, то по трудозатратам на внедрение и поддержку лучше наиболее долгоиграющие сертификаты (в идеале лет на 10) — получил сертификат, воткнул, завел в мониторинг, забыл про систему до момента заявки. Реальная экономия времени на раскуривание — а какой готовый скрипт летсэнкрипта в данной системе заработает и не отвалится ли он скажем через год, два, три (у меня например отвалился через пол года после автоматического обновления скрипта автопродления) и если отвалится — его все равно придется чинить либо вам либо другому человеку. Чтобы не забыть про сроки — воткнуть в тот-же заббикс проверку срока в готовый шаблон.

Долгоиграющий сертификата имеют еще один плюс — если он реально на большой срок, то скорее всего бизнес уже в какой-то момент перестроится и вам еще раз придется их внедрять уже в новые системы. И проще опять же внедрить либо его либо купить новый долгоиграющий, чем опять разбираться в готовых скриптах (вы же не будете писать его сами).

Не надо краткосрочные сертификаты возводить в абсолют, они конечно бесплатны, по идее более безопасны и для многих проектов прекрасно подойдут. Но вот затраты времени на их внедрение и поддержку это весьма неоднозначно. Стоимость 1 дня работы инженера гораздо больше чем 1 сертификат на 5-10 лет установленный 1 раз за 10 минут.
Сложность настройки и поддержки автообновлений сертификатов и отслеживание мест где он не обновился. Плюс специфичный софт в который просто так сертификат не пропишешь. Т.е. если у тебя будет где-то сбоить обновление — на это уйдут затраты времени работника при разборе проблемы. В этом случае проще и дешевле будет купить сертификат на 5-10 лет и вспоминать про его обслуживание только в конце срока действия.
Скорее не фаервол, а антиддос. Мы в свое время из-за него туда ушли, но у нас просто сайт был (который ддосили неделями до этого и hetzner нам просто доступ к серваку вырубил из-за 6гбит ддоса).
OVH в Канаде имеет ДЦ и продолжают расширяться. Цены там вполне приятные.
Вы забыли момент что сейчас становятся популярны решения по типу vSAN (VSAN, CEPH, SolidFire, ScaleIO, Nutanix, Starwind и т.п.) и вобще стараются уже делать гиперконвергентные решения (хранилка+виртуализация в одном корпусе). Большие производители (EMC,Netapp,VmWare и т.п.) уже продают данные решения. А это все-таки Ethernet. И при наличии поддержки RDMA(RoCEv2,iWARP) довольно сильно сокращается latency (практически до решений IB, что уже быстрее FC), и получается что FC как протокол становится не нужен т.к. слишком узкоприменим. А скидку на разовую суммарную поставку коммутаторов Ethernet можно получить больше чем скидки раздельно на Ethernet+FC фермы. Либо оборудования понадобится меньше (не хватит скорости — можно например на 200Gbit Ethernet перейти) и плюс не надо будет поддерживать несколько технологий в ДЦ.

По latency:

image

Варианты увеличение скорости:
1) Взять SSD, на нем же быстрее будет идти разработка.
2) Бэкапить снапшотом и вытаскиванием файлов баз. Потом просто подключать файлы в базу.
3) Зеркалить репликой с мастер базы на слейв. Затем просто оторвать слейв и сделать его девом. К мастеру подключить новый слейв, к моменту когда будет нужен новый дев — база уже докатится.

Хотя конечно без структуры вашей фермы разработки и продакшена сложно сказать как лучше оптимизировать.
https://www.ovh.com (Хоcтинг/выделенные сервера/виртуальные сервера) — постоянно включенный антиддос на всю инфраструктуру. Они просто размазали стоимость защиты на всех клиентов (плюс пара центов/доллар за услугу).

https://www.online.net/ примерно также

В свое время из-за ддоса ушли с хетцнера на ovh и отключили внешний антиддос сервис. Атаки пытались быть еще месяц, потом прекратились. Сайт во время атак не испытывал заметных проблем.
Большие проекты это очень растяжимое понятие.

На тему большого выбора и черных списков — вот вы что-то купили, например хранилку, завязали на нее свои возможности. Затем вам внезапно нужно либо расширяться либо закончилась поддержка/гарантия производителя и нужно обновлять хранилку. И вот тут вы понимаете как сильно попали на деньги, но слезть не сможете еще год-два, а то и вовсе никогда (вы например сможете выдрать бюджет на новое недешевое хранилище, но на альтернативное уже денег не будет. и бесплатно в пилот вам хранилку на все ваши обьемы никто не даст). Российский бизнес и ИТ это грустная песня до сих пор.

Вот когда вы закупаетесь с нуля, вот тогда можно поиграть с выборами/конкурсами/поставщиками и потестить решения.

Закладка в хранилище практически у больших игроков идет 10-20ти кратная по цене и разные вендоры держат цену примерно на одинаковом уровне. Хотя даже gpl цены у них запросить это целый квест.

И вы слишком идеализируете владельцев бизнеса. Обычно владельцы — это акционеры, а компания управляется наемным персоналом. Наемный персонал оперирует совершенно другими критериями и сроками. Т.е. например если акционеру надо смотреть на 10 лет вперед, то например финансовому директору (который выстраивает цепочку продаж и является одним из цепочки одобрения крупной закупки) достаточно 3-х лет, чтобы снять свой KPI и либо остаться либо уйти (пока не докатился вал тех решений которые заставят бизнес просесть, либо он спихнет ответственность).

Все-таки IT в более-менее серьезном бизнесе требует капиталовложений на длительный срок и периодически их нужно обновлять, но российский бизнес это в основном начинает немножко прозревать только в момент полного отказа инфраструктуры (что малые компании человек на 10, что покрупнее человек так на 3000) и в этот момент обычно бюджета на замену нету.
Будем смотреть откровенно, текущие закупки дорогих телекомуникационных решений (HP,Cisco,Lenovo,Dell, Netapp, EMC и т.п.) по нашему антимонопольному законодательству проходят как картельный сговор. Другое дело что никто не жалуется и не поднимает бучу на уровень всей страны. Хотя в гос закупках недавно трясли Lenovo и т.п. за сговор, но штрафы низкие.

И при работе с дилерами такое же творится. Там демпингующим просто перестают отпускать товар (здравствуй минимальная цена продажи и минимальная цена указания в общественных прайсах).

А фраза «вы платите за качество, сервис и обслуживание» уже вгоняет в дикий смех.

Кстати тем кто берет оборудование на тест/пилот — прежде чем заключать договор или подписывать акт приемо-передачи оборудования, обратитесь к вашему бухгалтеру как правильно сделать документы. Иначе железку вы вернете, а налоговая вам потом штраф влепит за неоплаченный налог.
Там магнитные поля, как в МРТ. А чувствовать возможно будешь даже лучше, т.к. эта комната заизолирует тебя от внешних электромагнитных полей (wifi соседский)
12 ...
7

Информация

В рейтинге
Не участвует
Зарегистрирован
Активность