Pull to refresh
-16
@mspaintread⁠-⁠only

User

Send message
>не факт, что «проигравшие» находятся в купленной компании, а «победители» — в головной.

Если говорить про RHEL то у IBM нет прямого конкурента, но неповоротливый менеджмент ИБМ может всё испортить и без злого умысла. RH таки самый ынтырпрайзный linux на данный момент.

Если говорить про JAVA EE, то это JBOSS vs Websphere. JBOSS дешевый и более качественный сервер приложений, теперь про него можно забыть (про бесплатный wildfly и подавно) :(((
В каждом бите лежат баунти по 0.5 биткоина. Видно, что перебрали уже 58 с половиной бита.

LBC все забросили, т.к. есть полностью автономный и раз так в 10 быстрее софт bitcrack. Плюс, каждый год скорость GPU удваивается-утраивается.

Ну и напоследок, как правильно пишут ниже, через 99.99итд процентов времени будет практически гарантированно найден первый ключ, это не значит, что его не будет уже в следующем проверенном.
>С тем же успехом можно рассуждать на тему того, что в линукса нельзя поменять ядро

Вообще-то в Debian ещё не так давно можно было использовать фряшное, хурдовое и всякие другие ядра. Какой практический смысл ХЗ. С системД видимо эта фича отломалась (гуглить лень).
>суровые парни шарящие в сорсах постгреса

Вы передергиваете или и вправду считаете, что надо в сорцах СУБД ковыряться, чтобы быть экспертом по этой СУБД? Получается, что по MSSQL и Oracle вообще нет экспертов?

По своему опыту скажу, что для «сеть стоматологических клиник», «сеть пиццерий» и «новостной портал» вообще любая СУБД пойдет и на новые грабли (на которые никто до них не наступил) они не наступят с вероятностью 99.99%. Оставшийся 0.01% решится бэкапами и сменой/апгрейдом версии.
>Как бы стандарт, увы, тут ничего не поделаешь

Стандарт лишь среди жабофобов, как я вижу.

>Я бы сам предпочел такой курс на julia, на scala, в крайнем случае на java

Сегодня вспомнил про Dive into Deep Learning (сайт d2l.ai) Книга от амазоновских спецов, правда про MXNet, но примеры на julia и scala вроде.

Я пока склоняюсь к «почитать теорию в любой из книг про tensorflow» и потом по tutorial-ам deeplearning4j (там и жаба и скала и интеграция с остальным жабохозяйством хорошая)
>у малазийской конторы

Ви это о чём?

>прозрачный саппорт от надежной конторы

Кстати, надежный саппорт у Слона это кто? Я так понял ПостгресПро это чуть ли не 3 чела, которые почти всё рабочее время занимаются впариваниемездят по конференциям. Цитрус был, да всплыл. :)

Уж Монго inc на надежную контору намного больше похожи. Что там у них с Guardian не срослось уже никогда не узнаем, но не факт, что клиент адекватен.

В целом, повторюсь, подход Яндекса (при всём неуважении к яндексу) наиболее адекватный, может и платный саппорт куплен, но есть и свои эксперты по Слону.
>не позволяющий вам оценивать мир программирования беспристрастно

А у тебя есть сертификат о беспристрастности? На слово не привык доверять неизвестным мущщинам.

>вся распределенность уступала обычному локальному сетапу на python в 10 раз по скорости

Да, это крутейший пример негодности жабы и прекраснояти питона. Ещё можно вспомнить про задачи на полмикросекунды и си. Жабка и медленнее си в 100500 раз будет за счёт медленного старта.

>Уверяю вас, силами команды на python, c, и любом другом универсальном языке программирования можно сделать всё то же самое и примерно с теми же трудозатратами

А если добавить в условие «чтобы скорость работы была на уровне жабки»? Удачи в написании например Frontend на питоне (уровня GWT/Primefaces) или си. Про си я вообще ржу под столом. Это ansi который, даже в стринги не умеет? Да, да, с теми же трудозатратами для широкого круга задач.

Всё, передаю пальму адекватности AndreyGaskov.
Я понимаю, что статья про методологию (понравилось), а не про пример.
Но по идее, в такой статье пример должен быть идеальный, а не «от балды».

А в целом (у далекого от ML человека) складывается впечатление, что ML на данной задаче нужно как козе боян и будет часто ошибаться (итого пессимистический прогноз на самом деле вообще не принесёт прибыли, а наоборот). Как производственный календарь РФ оно будет учитывать например? Как учитывать совершенно бессистемные «ой, у нас сеть упала»?
Спасибо за труды. Удивительно, столько слов написано, а правильный ответ мне всё равно пришлось между строчек выискивать. Что-то в духе «мы ученые, культуры программирования нет, IDE тяжело, getRow тяжело, классы какие-то непонятные. где мой фортран?».

И куча попыток натянуть сову на глобусдоказать, что java хуже питона.
Вы, видимо как ученый, плохо разбираетесь почему жабка рулит в ынтырпрайзе.
Жабка универсальная, поэтому ей простительно быть медленнее си. Можно решать очень большой спектр задач силами одной команды. У неё в этом вообще нет конкуренции и ещё долго не будет.

ML набирает обороты, ынтырпрайзу можно было бы предлагать какие-то продукты. Для этого надо палочкой потыкать, не изучая новые языки и не набирая в штат питонистов и седовласых академиков. Это выгодно всем и писателям книг и разрабам фреймворков. А по факту «в команду надо питониста брать, не нравится, отвали»

Можете и дальше игнорировать тот факт, что людей, пишущих на жабе, миллионы. Из них наверняка 80% питон не знают. Можно дальше пойти, писать все книги по ML на эсперанто. Чтобы остались ну совсем уж труъ сатанисты. :)
>взлом 256-битных ключей перебором невозможен

Не невозможен, а маловероятен. Строго говоря, можно сидеть и на бумажке писать цифры, потом на бумажке считать хэши и вероятность угадать чей-то private key не равна нулю. Сейчас скорость перебора на 1 топовой видеокарте больше 1 гигаключа в сек. Первые 2^58 уже перебрали. Всего их 159, а не 256.
>Ведь их ограниченное количество и они будут пропадать.

Биткоинов 16млн и они никуда не пропадают. Мало кто знает, что для обладания биткоином нужно знать лишь 1 число — от 1 до 2^160 (private key). Уже полно психов, которые пытаются брутфорсить весь диапазон. И после подешевления крипты, некоторые на это майнинг-фермы переключили. 2^58 уже отбрутфорсили :)
Ну запустишь перл-скритп в докере и что изменится?

Cчитать, что без докера масштабируемость не делается — свою отсталость светить.

>10 гигабит данных в секунду обрабатывать
>3 года писать надежный сервис для этого

У фанатиков докера уже сам докер данные обрабатывает? Хехе… Ну, взяли докер, потом что, надежный сервис сам напишется? :)))
>весь современный deep learning на питоне
>все фреймворки написаны для него

Ну неправда же. :) У tensorflow есть java API хоть и нестабильное.

И про deeplearning4j я сразу написал. Судя по skymind.ai/wiki/comparison-frameworks-dl4j-tensorflow-pytorch они лучше всех :)

>За скорость итерации

Не знаю, что за итерация такая. Скорость у жабки в разы выше. И вполне можно быстро прототипировать.
Скажите, пожалуйста, почему ML == python?
Есть же нормальные языки, например java.
И deeplearning4j вроде как местами лучше tensorflow и конкурентов.

А все курсы упорно впаривают кактус (питон).
(это не претензия, а вопрос)
>Вы читали вообще про 12-factor-app?

Ой, ну всё, до 2011 года программирования не было. И надежных сервисов.

С этим тоже смешно получается, есть такая очередная хайповая придумка маздайсофта — SDL. При этом, качество ХР и качество «дисяточки» почему-то не в пользу последней. А почему? Потому что «индусы заполонили» и «быстро поднятое упавшим не считается».
>так виртуализация за эти и нужна, чтобы тоже компенсировать >недостаток надежности железа + более гибкое управление
>Докер — лив-миграцию сам не умеет

Итого, спрашивается, а зачем нужен докер (не гуглу!)? Виртуализация уже много лет как есть. И даже бесплатная умеет больше докера. Про VMWARE молчу.

>(она ему и не нужна)

Конечно, у девопусов же мантра «быстро поднятое упавшим не считается» :)))

И от собственного микросерия головного мозга они не страдают. Хотя микросервисы понятие из лохматых 90-х и никто не мешал их делать последние 50 лет на любой из технологий (которые заметно легче очередного хайпового REST).
>Или всерьёз полагаете что кто-то пишет код, работоспособность которого зависит исключительно от undefined behaviour

Может вы не в курсе, что есть UB? Прогеры (разной квалификации) пишут код, а он потом делает совсем не то, что они думали, причём в зависимости от «погоды на Марсе». И безо всякого МО.

С багами аналогично. Можно сколько угодно теоретизировать на тему «спецификацию и реализацию можно верифицировать», на практике баги есть во всем ПО. Даже которое летает в космос на стоящем миллиарды баксов железе.
>что мы все запускаем на дешевом голимом ненадежном железе

Мы это кто конкретно? :) Я в прошлом сообщении уже проехался по нищебродно-хайлоадному подходу. Гугл, вроде, на коньсюмерном мусоре раньше крутился. Зачем натягивать сову на глобус (инструменты для решения проблем масштабирования гугла втюхивать всем)?

В нормальных конторах, даже не особо богатых, в стойках стоят серверы, с надежностью оных ничего не случилось. Сейчас наоборот виртуализация используется в 90% случаев, которая умеет live migration. А докер?!

И касательно железа, я наоборот не устаю поражаться — даже в плохих условиях (регулярные сбои системы охлаждения, а серверы работают как часы. Даже после многократных самоотключений по достижении +42С ambient. ;) У дисков SMART смотришь — 55-57 градусов. И живут по 7 лет. И тд и тп.
>я уж не говорю какой это ад настроить файрволл
>Ну, я бы не сказал, что прямо ад.

Для типичного девопуса добавить правило после докера — непосильная задача. И сам докер писали, похоже, такие же девопусы — например очень типичное правило в таблице nat делающее redirect с 8080 по 80 порт докер не видит и просто тупо не работает. А типичный девопус сидит целый день над этой страшной проблемой и чешет голову, Я и Ж.

>зато бонусов от упаковки конкретных версий сервисов в образы докера и запуска их везде

Да, девопуса заставить обновлять что-либо невозможно. Даже если их сильно пинать за устаревший софт. Иначе бы пользовались yum-репозиториями вендора.

Мне вообще удивительно, как инструменты нищебродного хайлоада (т.е. когда нагрузок много, а денег мало) расползаются и в нормальное ИТ.
До докера уже много лет можно было делать live migration. С «могучим» докером это проблема. Софт писали так, чтобы он не падал раз в день, соответственно 100500 копий его запускать смысла не было. Вменяемое количество копий и деплой по группам можно делать средствами application server-а уже 15 лет. Журналы (логи) читали. А сейчас модно запустить 100500 копий, 30% из которых возможно как-то худо-бедно будут работать, потом терабайты логов грузить в специально развернутый очередной кластер и НЕ ЧИТАТЬ. И этот подход впаривают как передовой… (рукалицо)
>уходить авторы оригинального контента

Оригинальный контент это распаковка кроссовок? :D Правило 90% для ютубы выглядит как «99.999% это мусор».

Information

Rating
Does not participate
Registered
Activity