Pull to refresh
2
0
Send message

Расскажите пожалуйста, где вы работаете, и как у вас реализована эта правильная концепция?

Спасибо за вашу работу, вы молодцы, и делаете очень полезный и действительно понятный сервис, который работает и облегчает жизнь. Каждый раз, как читаю какую-то инструкцию на Госуслугах и сравниваю с каким-нибудь местечковым региональным порталом, понимаю, насколько серьезный труд проделан, и как хорошо, что в ваших текстах нет всего этого "Во избежание осложнения задымления и животноводства"

Ваша статья, на мой взгляд, максимально некорректна. Вы сами-то серьезно? Где, в таком случае, результаты vStack для 2680? Xeon 2680 и 2630 это очень разные по производительности процессоры, мы недавно старую часть инфраструктуры ровно так и проапгрейдили. Даже в расчете на ядро разница драматическая. У 2680 + 35 Мб кэша против 25 у 2630, +200 Мгц базовой частоты + 200 Мгц максимальной, частота шины выше, частота памяти выше. Ваша статья по уровню необъективности абсолютно равна необъективности рекламы vStack

"это единственный язык, которые понимают выходцы из кооператива"
По моим наблюдениям, они никакого языка не понимают. Кроме того, стоит заговорить о морали, их ручные шавки-пропагандоны обвинят вас, что вы не думаете о практической пользе для родины, а стоит заговорить о деньгах - вы сразу либераст, который живет только ради печенек госдепа и не думает о морали и высших ценностях. И все это как-то успешно комбинируется и в их собственных головах, и мозгах "ядерного электората". Магия, не иначе. Поэтому говорить о каких-то рациональных контраргументах речам господина Володина смысла нет вообще. Главный "рациональный" профит для него из всего этого - он обозначил группу врагов народа.

Насколько я понимаю, речь не только об аутентификации администратора в консоль управления девайсом, а обо всех пользователях организации для доступа к прокси и внутренней сети (VPN). И второй фактор благодаря этому модулю они смогут подключить сами, на портале самообслуживания, без участия админа. Отдельный вопрос, почему это сделано только сейчас, и почему раньше не было хотя бы 2FA с RSA

Я не автор, но предположу, что инфраструктура выпуска, хранения, учета и отзыва RSA-ключей немного сложнее внедрения готового решения + их надо как-то выпустить и безопасно доставить пользователю изначально и пре перевыпуске, а смартфон для СМС и телеграм у него уже есть, поэтому так снижается нагрузка на администраторов и упрощается процедура в целом, за счет самообслуживания. Объяснить про смски паре самых "информационно-неграмотных" проще, чем выпустить ключи на всех. Хотя я все равно вас поддерживаю, и тоже за сертификаты. Вначале труда больше, но надежнее.

Операторы - оперируют, им не важно на каких санках они едут, это не их работа.
Первоисточник и основная причина "нахождения в ЖЖЖ" - государственная внешняя политика (я не буду углубляться сколько именно людей в этом виноваты и какое у них имя и отчество, но эти люди имперсонируют государство и в головах избирателей и де-факто). Поэтому операторы вполне резонно говорят - у нас есть проблема, причина - ваши действия, помогите исправить.
То, что они не плюют на сложившуюся ситуацию, а хотя бы пытаются как-то из нее выбраться - уже хорошо.
Жорес Алферов - выдающийся человек, и более того, всегда, помимо изобретательства и науки настаивал на патентовании, коммерческом планировании по окупаемости и внедрении научных разработок. Но видно, место проклятое, не сложилось.

А скажите пожалуйста, в обоих этих продуктах вообще нет возможности конфигурации через api\cms\конфиг-файлы и все нужно накликивать мышой в бесконечных экранах, или что-то все-таки изменилось и какой-то менеджмент конфигураций клиента и сервера имеется? Ну, как Ansible + git и т. п.?

" имея резерв в 3-5% можно спокойно пережить многомесячные сроки поставок. " - это если вы уверены, что к концу этих месяцев вы действительно можете купить что-то еще. Сейчас же вполне может оказаться, что не сможете.

Тут я полностью с вами согласен, но мы все дружно сидим и ждем, пока найдется добрый человек, или организация с бесконечным бюджетом денег и времени, которые кааак соберуться, каак выкатят нам массовый тест всех видов железа для 1С и best practice как это все готовить. Пока не дождались и читаем скупые рекомендации от 1С и инфостарт. Спасибо автору, потратил силы и время и сделал, что мог.

"ЗЫ: и всёравно я недоумеваю: почему не видно нагрузки на подсистемы... " Сам испытываю те же чувства, но магией мониторить правильные показатели для работы 1С владеют не только лишь все. Я не владею. Я смотрел в sysmon\resmon и глубину очередей по дискам и ввод-вывод по процессам, пытался заглядывать в распределение памяти и в своп. В результате пришли к выводу, что повседневная производительность после апгрейда - хорошая, а по перепроведениям из абсолютно неприемлемой стала минимально достаточной, а для дальнейших улучшений нужен либо бюджет на еще больше быстрого железа, либо на найм аутсорса, который как раз все правильно помониторит, оптимизирует и почистит базу и т.д. Ни на то ни на другое денег пока нет.

  1. "вы как-то не так смотрите цены" - нет вы :)

970 Evo можно установить и в ПК и в любой сервер, u.2 только в сервер с соответствующей платформой. Да, в серверной платформе может быть разъем m.2 и у меня она такая и есть, но он там один, массив сделать нельзя, бэкапится надо очень часто, а бэкап даже журнала плохо влияет на повседневную работу , если сервер уже и так загружен. Мат. плата с двумя и более m.2 или более чем двумя oculink стоит существенно дороже. Кабель oculink у нормального продавца это +3-5 т. р на каждый диск, а SATA-кабель или m.2 разъем условно-бесплатные, они в комплекте с мат. платой.

2.  "на али меньше тысячи " - в сервер? Адаптер с Али? Спасибо, но я так делать не буду. В моем представлении любой приличный бытовой сата-диск надежнее адаптера с Али.

3. Т. е. вот память обязательно с ЕЦЦ, а адаптеры для хранилища - с Али. Это точно разумный баланс по надежности? У нас есть несколько ПК для тестирования баз и быстрых перепроведений с 64 Гб памяти без ECC и за годы их жизни, прогнав через эту память сотни терабайт данных мы не столкнулись ни с какими "битыми базами".
Вы как-то неправильно представляете себе работу памяти с ECC, она защищает только от флип-бита в случае внешнего воздействия, а от повреждения микросхем - никак нет. Может быть, можно настроить получение данных об ошибках памяти и температурах с сенсора, снимать их с ipmi, отдавать в мониторинг и тогда, действительно, узнать, но я нигде такого не видел и не слышал. А в обычно, ECC при повреждении ведет себя так же, как и non-ECC - ошибки и вылеты программ, проблемы с компиляцией. Линус Торвальдс не даст соврать:https://www.zdnet.com/article/even-linus-torvalds-sometimes-has-pc-problems/

У меня есть каталог на windows 2008r2 - сервере, лежащий на Raid1 из жестких дисков, в NTFS, где лежат несколько милионов документов в нескольких сотнях тысяч папок. Сколько именно я не могу сказать, потому что не могу ни зайти в него проводником, ни посчитать их скриптом powershell, сервер при этом зависает намертво. Диски в порядке и по смарту и по тестам поверхности и ФС chkdsk.
И есть копия этих же данных на Linux в Ext4, на одиночном диске. Там нет графического интерфейса, чтобы проверить, зайду ли я туда Наутилусом, но скрипты и du с ними работают вполне нормально. Считать их там я не пробовал, но разница даже по перемещению скрипта и подсчету занятого места явная

К сожалению, по нашему опыту улучшить производительность 1С "завалив" ее новеньким быстрым оборудованием получается, но совсем не так, как хотелось бы. Прирост мощностей в "попугаях" + 250% а быстродействия 1С - 25-30%.
Однако и это уже хорошо.
Обновления ПО на старом железе ухудшают ситуацию, потому что новое ПО приспосабливают делать работу быстрее, потребляя больше ресурсов и адаптируя под новые аппаратно реализованные алгоритмы.
1С очень любит частоту процессора а не количество ядер, потому что многие операции невозможно (или разработчики 1С не умеют) разделять в многопоток. 1.7 Ггц и 12 Гб это очень мало для нее. Рассчитывайте минимум 4 Гб на платформу, лучше 8, +2 Гб на каждого пользователя. А в моменты перепроведений месяцев\кварталов оно способно сожрать 256 Гб ОЗУ в зависимости от вашей базы и объема документов.
В нашем случае 4115R принес ускорение, но не сам по себе, а в сочетании с NVMe дисками и увеличением ОЗУ.

UPD: Харды для 1С это смерть. Если хотите попробовать ускорится бюджетно, мы делали еще такой вариант: Мощный десктопный комп на Ryzen 7 3ХХХ (сейчас лучше 5ХХХ) с максимальной частотой и минимум 8 Ядрами, мат. плату с минимум 64Гб (желательно 128) ОЗУ и поддержкой 2 NVMe PCI-e 3.0 или 4.0. Систему на рейд из SATA SSD, Платформу и базы на NVMe, журналы и кэши на другой NVME. Все это уделает ваши чахлые "Bronze" в разы.

  1. Мы смотрим

  2. Нет, не теряются, посмотрите цены на 2 Tb U.2 - около 50.000 за штуку, а нужен Raid минимум из 2 шт, + кабели + мат. плата с разъемами oculink стоит на 40 Т. р. больше похожей без них

  3. MSSQL мы купили давно и заплатили за него один раз, а диски желательно менять профилактически раз в три года, или уж если совсем затягивать, то раз в 5.

  4. Множество других организаций не используют MSSQL или переходят с него на Postgres

UPD: А если вспомнить, сколько такие диски стоили в момент взлета криптовалюты "Чиа" и наводнений, разрушивших фабрики на Тайване и т. п., да еще умножить это не на 2 а на 4, потому что кластер...

А я понимаю, потому что бюджет. Для подавляющего числа средних компаний с базами размером до 20 Гб никакого смысла в серверных накопителях нет. Да, у них выше надежность и скорость, но если у вас месяц закрывается за 20 минут и на обычных, то скорость серверных вам не нужна, а в смысле надежности проще за стоимость серверного докупить два таких же бытовых HDD на 8 или уже даже 16 Тб, и бэкапить туда базу и журнал почаще, да и все.
Мы себе такого позволить не можем у нас масштабы побольше, поэтому живем на серверных U.2 Oculink но в этом случае стоимость всей платформы (мат. плата, кабели, диски) возрастает настолько, что меньшему бизнесу такие затраты просто не потянуть, он может на десктопных ПК собрать на ту же цену кластер из 3 машин с SATA рейдами в каждой, и их скорости дадут возможность бэкапится каждые 5 минут.

Нет, не так. Я не могу подготовить целую статью, времени нет и сил нет, но я проводил такие тесты:
База на MSSQL + Raid10 x4 SATA + журнал на другом Raid10 x4 SATA
и
База MSSQL + Raid1 x2 NVME U.2 Oculink + журнал на одиночном NVME 2 Tb PCI-e.
NVME в такой конфигурации существенно быстрее. База 70 Гб, Конфигурация Бухгалтерия вер. 3, платформа 1.8.3.18 Количество документов не помню, в самом ненагруженном месяце примерно 27000, в квартал около 160000

Полное "Тестирование и исправление" базы со всеми галками на SATA - 22 часа, на NVME - 16. Закрытие месяца Sata 19 часов, NVME 9,9
По соотношению цена\скорость в тот момент выигрывал SATA потому что был гораздо дешевле, но для бизнеса была важнее скорость, потому что бухгалтерии работать надо, а не ждать, пока месяц закроется. Особенно когда база такая не одна.

Есть доступный для бесплатной загрузки MS SQL Server 2019 for developers, ничем не отличается от полнофункциональной версии. И у многих уже купленные лицензии все еще есть, так что вопрос вполне актуальный. Тем более в свете необходимости планировать переход с MS SQL на Postgres - чтобы понимать, сколько именно производительности будет потеряно. Методика проверки в статье может быть неверной, но сама проблема актуальна. Тем более, что по моей практике, 1С сколько мощностей не дай, она все равно медленная. Если понимаешь, что станет еще медленнее, переход стоит отложить до выяснения подробностей.

Самого давно интересует этот вопрос, спасибо за статью. Но я не вижу очень существенного параметра (проглядел?) - размер базы и количество документов. Судя по скоростям, база какая-то микроскопическая. Вы уверены, что ваши данные не целиком влезали в кэш дисков и вы не измерили именно его?

Да, спасибо, я просто как раз начинаю разбираться в базах и это чисто ради моего мысленного упражнения.

Information

Rating
Does not participate
Registered
Activity