Pull to refresh
2
0
Send message

Дон Кихот прям какой-то…
вы работали когда то с большими и старыми системами? или системами где используются активно компоненты с открытым исходным кодом? в таких ситуациях везде будет разный стиль, где то нравится где то нет, и чем боротся с ветряными мельницами навязывая свои вкусы пора бы уже повзрослеть и научится читать код с разным кол-ом пробелов. так сказать расслабился и начать работать.

ну а разве со всеми новыми технологиями не так? в начале всегда дорого и не выгодно. но как видим деньги на исследования в это дело усиленно вкладывают, значит видят потенциал.

по поводу котельных — необязательно же. например отопление сугубо от тепловых насосов — уже вполне реальность. допустим в датацентре уже стоит отопление земля-вода, а чуть-теплую воду от охлаждение систем можно пустить на прогрев холодной воды (холодная вода то поступает с температурой градусов 10-15), и уже потом она будет нагреватся насосами до нужной. так что тут мне кажется собрать тепло с водяного охлаждения достаточно просто. причем то что тепло может выдаватся неравномерно давно то в теплонасосах решают с помощью тепловых аккумуляторов (кстати говоря сама жидкость в таких огромных кол-ах что мы видим в прототипах погружного охлаждения — аккумулятор тепла).
с другой стороны сейчас тепло и с воздуха научились собирать достаточно просто насосами воздух-вода, так что разница остается как всгегда в деталях — что выгодней строить (сложную?) систему вентиляций или проложить трубы с охлаждающей жидкостью…

ну почему сразу каша. тепло то из помещения надо отводить? надо. а выкидывать в атмосферу разве выгодно? не особо.


я думаю вся выгода водяного охлаждения для дата центров — это возможность вывести тепло на обогрев воды или просто отопление строений рядом. от этого и выходить на рентабельность. особенно учитывая разные зеленые законы и налоговые поблажки это может быть выгодным даже при использовании дорогих жидкостей.


а люди сразу начинают красноглазить про "эффективность в вакууме"… смешно же.

При включенном NLA (что windows давно делает по умолчанию) насколько я понимаю никогда уязвимостей не было, плюс с включенными апдейтами оперативно исправляются и остальные "угловые ситуации", так что для личного пользования я лично не гнушаюсь открывать RDP "в интернеты". Так сказать указываю возможную мотивацию для использования напрямую. :)

Ага, раньше действительно этот клинет еще и скачать просто так нельзя было, было за стеной паролей и логиной на сайте Ciscо (еще один огромный минус кмк). Но судя по всему что у конкурентов все качалось просто прямо с сайта они решили эту «фичу» закапать и теперь гугл находит клиента прямо на сайте Cisco — не прошло и 10ли лет хаха…
Я работаю удаленно уже лет 8, и должен сказать что Cisco AnyConnect — самый глючный VPN что я использовал. Доходило до того что приходилось ставить опен-сурс клиенты на винду (ShrewSoft VPN Client) чтобы добратся до сети клиента. Может конечно Cisco сейчас и подтянулась (ибо конкуренция жмет), но раньше этот клиент был «говном мамонта» имхо и впаривался этот клиент в довесок к сетевому оборудованию. Оно совершенно точно жестко глючило на девелоперских системах — там где постоянно меняеются таблицы роутинга, добавляются новые сетевые адаптеры (для виртуальных машин) и так далее. Рано или подзно в такой системе AnyConnect сносило мозг и он терял связь с реальностью (и таблицой роутинга).

Из последнего что реально понравилось — Pulse Secure. Заходило в сеть клиента в 1-2 клика. После классических VPN клиентов — как глоток свежего воздуха.

как раз подошли к вопросу они по существу, какой толк для legacy аккаунтов поддерживать устаревшие ограничения? тут и пользователь и компания — в выйгрыше (первые получают больше места на диске, вторые экономят время-деньги на поддержке дублирующей инфраструктуры). считать это «ошибкой безопасности» или «абузом» по моему так притянуто за уши. :)
Ну, мир не стоит на месте, работа из дома (или удаленно на своем оборудовании) — тренд. Выгодно как работнику (меньше времени на транспортировку тела, свободный график и так далее) как и работодателю (можно переманить кадра который например в офисе не хочет работать + экономия на рабочем месте).
Вопрос в том готовы к этому технологии IT или сам отдел IT.
Впны старого поколения (работал с Cisco AnyConnect) уж очень хрупкие — буквально создал новую виртуальную машину (а она создает свои адаптеры) и впн слетает, ключи какие-то надо туда сюда ставить обновлять и так далее, вышел новый апдейт виндовс — перестал работать, в общем кучу времени надо тратить на борьбу с ним и саппортом (который тоже стоит денег). Pulse Secure насколько же я понял изначально сделан под ситуации работы на желе «c улицы» и вот прям работает из коробки и создавал 0 проблем (на моем опыте). Вводить 5 полей это конечно круто но когда оно еще и слетает каждый месяц и надо общатся с саппортом — пустая трата времени.
По поводу утечек данных — так же есть куча продуктов/решений, в частности многие клиенты инсталируют тебе софт который включает шифрование + свой антивирус + тулзы по мониторингу за подозрительными действиями. Так что индустрия потихонечку подтягивается под реалии работодателей. Я уже пришел к тому что просто создаю виртуальную машину под клиента и они уже туда ставят все что хотят — обмонитортесь хоть, а диск виртуальной машины шифруется так что даже если ее сопрут толку около 0ля.

Сейчас есть очень простые и удобные VPN клиенты, буквально запустил — ввел пароль — готово.
Тоже работаю из дома и сталкивался со многими клиентами но вот Pulse Secure был самым простым и удобным пока что.

Ну, как раз для работы с векторами и матрицами — питон — очень популярная платформа. Особенно сейчас столкнулся с машинным обучением — и там практически вся (начальная) разработка моделей выполняется на питоне + визуализация через Jupyter Notebook + модули к нему. Очень удобненько, этакая замена Excel'у и MatLab'у но с паблик модулями и человеческим синтаксисом. :)
Еще и в Docker впихивается чтобы инженерам удобней было поднять весь эсперимент где требуется.
А потом уже разработанную модель можно грузить в продакшен как удобно — tensorflow можно и напрямую в плюсах поднять. Ну и питон код что подготавливает данные обычно нет проблем воспроизвести в том же С/С++, в сумме все в плюсе (програмистам легко понять и воспроизвести, математикам ненадо заморачиватся проблемами низко-уровневых языков).

Тут фокус в том что об этом можно (или ненужно) знать. :)
Люди открывают пример, видят stages… и сразу понимают как добавить новый этап сборки. Т.е. как тут уже писали — «just copy and paste», это то что по большому счету хотят видеть все разработчики. Причем насколько я понимаю Jenkins именно навязывает эту структуру и сам разбирает файл а не отдает весь на съедение Groovy, сам сталкивался много раз с ситуациями когда конструкции Groovy не работают в некоторых местах (изза специфики Jenkins).

А вот Gradle + Groovy, со своими импортами зависимостей и зависимости которые могут переопределять «все что движется» приводят к ситуациями когда девелопер со стажем 10+ лет должен тратить часы чтобы понять как оно вообще собирается и кто кого зовет. Вот до такого доводить нельзя но в Gradle мне показалось достичь этого очень легко именно потому что структуру можно полностью переопределить.

Ну если уж продоожать эту мысль, зачем разработчикам Java изучать новый Groovy для билд скриптов Gradle? И зачем вообще Gradle если Maven вполне способен все собрать? :)


Я не JVM разработчик но сталкивался с ситуациями когда пытались прикрутить Gradle для CI — и честно, я непонимаю зачем он весь (и Groovy вместе с ним) нужен. Так как уже есть jenkins pipeline, maven (java), cmake/msbuild/ninja (плюсы). Изучать поверх этого Gradle + Groovy кажется чем то абсолютно избыточным и неуместным.

Не видя код трудно сказать как тяжело его расширить. Но в статье упоминается что под консоль выделена команда, допустим 5-10 человек и наверняка с американскими зарплатами. Вон пишут пространные статьи о том как «корабли бороздят» и рефакторят ради рефакторинга (гы). Напишут ли они хорошую консоль — неизвестно, но миллион и больше бюджет за год съедят точно. :)

С моей точки зрения им надо создать вход в систему для сторонних разработчиков в первую очередь а не пытатся строить звездолет. Покрайней мере надеюсь что они новую консоль отправят в свободное плаванье опен-сурса, и документация тогда кстати говоря ненужна (как пример — msbuild задокументирован формально а по существу чтобы что то понять надо открывать код, блоги форумы и так далее).
обратная совместимость не мешает дать API разработчикам чтобы перехватить все операции с консолью. но такого API нет, полная информация доступна только драйверу и он закрыт, вот и делают в ConEmu и им подобным перехват работы с консолью через dll injection что сложно, глючит. тормозит ConEmu так как ему приходится через поллинг сканировать консоль на изменения…
в *nix в этом плане все конечно лучше, но дело не только в «все устройства — файл» а именно в открытой имплементации. пока api фактически не предусматривает возможность замены драйвера консоли на свою имплементацию — все равно файл или 101 функция из dll.
недоразвитость консоли в win10 помоему напрямую растет изза ограниченности Console API или закрытости драйвера консоли. в частности если бы этот API позволял приложению (а не только kernel драйверу) получать иформацию что порожденное приложение рисует небыло бы проблем сторонним разработчикам писать свои консоли и расширения. но сейчас там одни костыли и попытка перехватить нужную информацию через dll injection (смотрим ConEmu), тормозит и глючит. столько воды в статье налито, а побольшому счету надо драйвер консоли в системе сделать открытым и создать экосистему для сторонних расширений, имхо.

убогое в авто програмное обеспечение и BMW не исключение (сам владею машиной 2015го года с "про" опцией на комп). отставание от смартфонов идет уже наверно на 5 лет если не все 10. навигация там стоит отдельных денег, каждое обновление карт еще денег, и работает ничуть не лучше бесплатного Waze (а местами и хуже — например нет поиска по названию места а не адресу, информация о пробках много где просто не работает). магазин приложений напоминает даже не знаю что… представте умерший windows phone и поделите на 10, практически ничего нет и за это хотят подписку 200+ евро в год. красиво нарисовано, дорого, но практически же и бесполезно. как выражался мой знакомый — компьютер в BMW это как камин в доме — для красоты и декора. хорошо что хоть можно посмотреть давление в покрышках и проверить уровень масла.


и самое забавное — даже нет полноценной возможности проецировать экран сматрфона на экран авто. в самых последних bmw с диким скрежетом впихнули apple car play, для андроида незнаю есть ли что, на машинах старее 2017го года (?) функция недоступна. но ведь любой смарт телек уже лет 5 как позволяет полноценную проекцию? т.е. интеграция телефона с машиной практически не сдвинулась с поддержки блютуз хэндс-фри… в общем для меня как разработчика ПО потуги авто концернов, и частности BMW, выглядят убого.

Я бы сказал погоня за зарплатой не самое важное. Интересная работа + не засиживатся на месте, вот скорее что может ускорить рост, но поиск новых работ с большей зарплатой может привести к такому же эффекту. Неинтересная работа замедляет, как и работа в одном месте ( более пары лет). Начинающему программисту лучше вообще пойти поработать год-два за копейки но в большой конторе с отлаженными процессами и инструментами (т.е. не начинать с кустарного программирования), имхо, ибо в любом случае платить много новичку не будут но в отлаженной конторе большему научишся, а у кустарей мало того что учится нечему так еще надо гореть на переработке.
И где то после 10ти лет работы я лично предпочитаю работать удаленно контрактором, и не пойду работать в оффис даже за больше денег, так как очень удобно в плане свободного времени.

Это была дикая теория, не уверен что включение этой штуки повлияет на то как хранятся сами пароли на клиенте. :)
Сам пользуюсь KeePass но понимаю что если кто-то поставит на мой компьютер логгер/троян вся мои пароли перестанут быть секретом… Надо бы найти (сделать?) 2-х факторный хранитель паролей с динамическим ключом — такие алгоритмы любят в банках использовать.
Да возможно это и не совсем то: скорее всего все пароли дублируются на клиенте… Я почему то думал что эта двойная аутентификация используется чтобы шифровать сами пароли. А она скорее всего просто проверяет вход в гугл «домейн» а дальше уже как обычно, безопасность повышается только если конкретный сайт поддерживает аутентификацию напрямую через гугл-апи (многие это начинают кстати делать).

Вот интересно, можно ли сделать шифрование паролей с двух-факторным аутентификатором/динамическим ключом? Т.е. пользователь пытается получить пароль от сайта, вводит мастер пароль + на телефон приходит вопрос ввести пин, далее если пин верный телефон возвращает какой-то временный ключ открыть базу с паролями… Что-то типа кодового калькулятора как в интернет банках.

авторы нового менеджера пароля пишут что пытаются защитится от злоумышленника получившего доступ к компьютеру жертвы…
но что тогда мешает злоумышленнику с доступом заинсталировать key-logger и получить мастер пароль в момент ввода в будущем? стоимость взлома в обоих случая примерно одинаковая, низкая.

в этом плане нет никакой разницы есть ли на паролях мастер пароль или нет… доступ к компьютеру позволяет обойти как первый так и второй.

я думаю сейчас самой сильной защитой от доступа к ключам является двух-факторная аутентификация, и у Гугла уже есть решение на этой базе — Smart Lock. и судя по тому что я читал эту штука заинтегрирована в Chrome. т.е. для решения задачи безопасного хранения паролей в Chrome достаточно включить двух-факторную аутентификацию, в одно-факторной версии безопасности же никогда не будет в принципе.

Information

Rating
Does not participate
Registered
Activity