Интересно про графики. Около 6 месяцев назад пришлось визуализировать time-series с большим объёмом данных, из 5 опробованных библиотек более-менее справился только highcharts.
Выше я написал: «Rust — не относится к системным»
Чуть ниже: «А что плохого что язык системный?»
И ещё чуть ниже: «Писать веб-сервер на системном расте?!?»
мне кажется это вполне доказательство что метка исключительно «системный» плохо влияет на восприятие языка как прикладного, которым раст вполне является, уж что-что, а веб-сервер на rocket делается легко: rocket.rs/guide/getting-started
+ он вылез в топ StackOverflow врядли исключительно по системным вопросам.
Очень странно что Rust отнесли к системным языкам. Да, он позволяет писать на низком уровне, но то, что он это позволяет, вовсе не обозначает, что это основное его применение. Он включает в себя довольно много функционального, что (ИМХО) является одним из признаков прикладного языка, хотя и имеет сложности например с композицией функций.
Не могу сказать по составляющей, но у меня был одинаковый код на python и nodejs (описал комментом ниже). nodejs была заметно быстрее питона, но, к сожалению, у меня она не прижилась, так как питоновские биндинги типа numpy естественно выиграли у нативных JS-решений, не говоря уж о ML.
Написал некий подбор параметров для вычисления. сначала сделал это на Rust, заняло довольно много времени, так как это был первый подход к расту, без каких-то особенных оптимизаций получилось вполне примлемо: ~4млн данных подбирало 7 параметров (где-то 12млн комбинаций) на домашнем i5-7500 около 5 часов.
Потом захотелось добавить ML, естественным выбором для этого был питон. ML подсчитал всё что надо, но я подумал, что питон такой модный и молодёжный, что почему бы не попробовать его применить глубже.
сначала с pandas — скорость была такая, что он и 1k данным считал больше минуты — это ни в какие ворота. Переписал всё исключтельно на numpy — скорость стала вполне приличной.
Но всё не верторизируешь, и одним numpy сыт не будешь — добавил перебор параметров как было раньше — и с каждым лишним if программа проседала на порядки, в итоге ETA подсчёта того что я описал в первом обзаце, показал что оно будет считаться несколько месяцев, что очень резко охладило желание использовать питон где-то за пределами ML.
я так и не понял в чём тут фишка. покопался в комментариях к крейту и там люди тоже не понимают зачем ещё одно тоже самое. Единственное что они ответили, что оно более мультиязычное, но в контексте раста это не очень понятно зачем.
Это не тоже самое что в stdweb, где структура с derive(Serialize) вполне могла быть нормальным параметром между js и wasm? Признаться с ходу не уловил в чём тут особенность.
В stdweb это кстати на вид лучше выглядит к тому же.
Я просто не понимаю одного — если не нравится контракт (в том числе пункт, что он может поменяться) — то не надо было покупать. Если не нравится платить 30% за обслуживание — то не надо было покупать. Вроде как я читал обьяснение — HF не собирался раздавать маржу по 30% вот и решили поменять. Пока что ситуация на данный момент выглядит так, что деньги в концу контракта точно вернутся, так что ничего такого я не вижу. Ну да, безлимит было интереснее конечно. С таким же успехом можно обижаться на скачки курса самого битка и рассуждать о том, что надо было кому-то сделать чтобы он не скакал (быстрее блок увеличивать или ещё что-то)
Если я не ошибаюсь — то односторонний порядок изменения договора предусмотрен одним из пунктов этого договора. Точно такие же пункты можно найти во многих договорах и с обычными банками.
Как «пострадавший», я не вижу тут никаких нарушений со стороны HF, ну кроме репутационных потерь, но если нужнен стабильный курс и, как следствие, стабильная репутация, то это точно не к биткоину, по крайней мере не в настоящий момент.
В комментариях большую часть описали: «всё очень сложно… а я тут вот так придумал (ещё сложнее).
Рассмотрим следующие задачи:
Я хочу использовать ноутбук как усиленный микрофон. Я говорю в него, а голос звучит из колонок Bluetooth в другом конце комнаты.
Отдельное и универсальное решение точно есть, но зачем это стандартным средством в OS?
Как только я публикую твит с хештегом #mom, его копия должна отправляться по электронной почте моей маме.
В чём вообще проблема и причём тут OS?
Я хочу использовать iPhone в качестве микроскопа, закреплённого на стойке из конструктора «Лего». Он транслирует картинку на ноутбук, где у меня управление — кнопки для записи, паузы, приближения и ретрансляции прямого эфира на YouTube.
Таких приложений — десятки, зачем это в OS?
Я хочу сделать простой байесовский фильтр, который реагирует на почтовые сообщения от «Энергосбыта», добавляет тег «коммунальные услуги», делает запись на веб-сайте, извлекает из письма сумму и дату платежа и добавляет запись в мой календарь.
Опять же — тут всё в руках, причём тут всё всего несколько строчек.
Надо скролить и зумить — не уверен что версер-сайд при этом ok.
Чуть ниже: «А что плохого что язык системный?»
И ещё чуть ниже: «Писать веб-сервер на системном расте?!?»
мне кажется это вполне доказательство что метка исключительно «системный» плохо влияет на восприятие языка как прикладного, которым раст вполне является, уж что-что, а веб-сервер на rocket делается легко: rocket.rs/guide/getting-started
+ он вылез в топ StackOverflow врядли исключительно по системным вопросам.
Написал некий подбор параметров для вычисления. сначала сделал это на Rust, заняло довольно много времени, так как это был первый подход к расту, без каких-то особенных оптимизаций получилось вполне примлемо: ~4млн данных подбирало 7 параметров (где-то 12млн комбинаций) на домашнем i5-7500 около 5 часов.
Потом захотелось добавить ML, естественным выбором для этого был питон. ML подсчитал всё что надо, но я подумал, что питон такой модный и молодёжный, что почему бы не попробовать его применить глубже.
сначала с pandas — скорость была такая, что он и 1k данным считал больше минуты — это ни в какие ворота. Переписал всё исключтельно на numpy — скорость стала вполне приличной.
Но всё не верторизируешь, и одним numpy сыт не будешь — добавил перебор параметров как было раньше — и с каждым лишним if программа проседала на порядки, в итоге ETA подсчёта того что я описал в первом обзаце, показал что оно будет считаться несколько месяцев, что очень резко охладило желание использовать питон где-то за пределами ML.
В stdweb это кстати на вид лучше выглядит к тому же.
Как «пострадавший», я не вижу тут никаких нарушений со стороны HF, ну кроме репутационных потерь, но если нужнен стабильный курс и, как следствие, стабильная репутация, то это точно не к биткоину, по крайней мере не в настоящий момент.
В комментариях большую часть описали: «всё очень сложно… а я тут вот так придумал (ещё сложнее).
Отдельное и универсальное решение точно есть, но зачем это стандартным средством в OS?
В чём вообще проблема и причём тут OS?
Таких приложений — десятки, зачем это в OS?
Опять же — тут всё в руках, причём тут всё всего несколько строчек.