к сожалению, кажется, что особо не на чём, но если очень хочется, то варианты такие:
gtk (relm или обычный), либо смотреть в сторону web (yew и ещё альтернативы).
Признаться точно не помню, но вроде 15*100k загружал. Грузилось долго, но highcharts аккуратно отлисовывал постепенно, в отличие от остальных, что тупо вешали всё на несколько минут, потом резко показывали неюзабельную картинку, которая при любом действии опять начинала тормозить.
Интересно про графики. Около 6 месяцев назад пришлось визуализировать time-series с большим объёмом данных, из 5 опробованных библиотек более-менее справился только highcharts.
Выше я написал: «Rust — не относится к системным»
Чуть ниже: «А что плохого что язык системный?»
И ещё чуть ниже: «Писать веб-сервер на системном расте?!?»
мне кажется это вполне доказательство что метка исключительно «системный» плохо влияет на восприятие языка как прикладного, которым раст вполне является, уж что-что, а веб-сервер на rocket делается легко: rocket.rs/guide/getting-started
+ он вылез в топ StackOverflow врядли исключительно по системным вопросам.
Очень странно что Rust отнесли к системным языкам. Да, он позволяет писать на низком уровне, но то, что он это позволяет, вовсе не обозначает, что это основное его применение. Он включает в себя довольно много функционального, что (ИМХО) является одним из признаков прикладного языка, хотя и имеет сложности например с композицией функций.
Не могу сказать по составляющей, но у меня был одинаковый код на python и nodejs (описал комментом ниже). nodejs была заметно быстрее питона, но, к сожалению, у меня она не прижилась, так как питоновские биндинги типа numpy естественно выиграли у нативных JS-решений, не говоря уж о ML.
Написал некий подбор параметров для вычисления. сначала сделал это на Rust, заняло довольно много времени, так как это был первый подход к расту, без каких-то особенных оптимизаций получилось вполне примлемо: ~4млн данных подбирало 7 параметров (где-то 12млн комбинаций) на домашнем i5-7500 около 5 часов.
Потом захотелось добавить ML, естественным выбором для этого был питон. ML подсчитал всё что надо, но я подумал, что питон такой модный и молодёжный, что почему бы не попробовать его применить глубже.
сначала с pandas — скорость была такая, что он и 1k данным считал больше минуты — это ни в какие ворота. Переписал всё исключтельно на numpy — скорость стала вполне приличной.
Но всё не верторизируешь, и одним numpy сыт не будешь — добавил перебор параметров как было раньше — и с каждым лишним if программа проседала на порядки, в итоге ETA подсчёта того что я описал в первом обзаце, показал что оно будет считаться несколько месяцев, что очень резко охладило желание использовать питон где-то за пределами ML.
я так и не понял в чём тут фишка. покопался в комментариях к крейту и там люди тоже не понимают зачем ещё одно тоже самое. Единственное что они ответили, что оно более мультиязычное, но в контексте раста это не очень понятно зачем.
Это не тоже самое что в stdweb, где структура с derive(Serialize) вполне могла быть нормальным параметром между js и wasm? Признаться с ходу не уловил в чём тут особенность.
В stdweb это кстати на вид лучше выглядит к тому же.
gtk (relm или обычный), либо смотреть в сторону web (yew и ещё альтернативы).
Надо скролить и зумить — не уверен что версер-сайд при этом ok.
Чуть ниже: «А что плохого что язык системный?»
И ещё чуть ниже: «Писать веб-сервер на системном расте?!?»
мне кажется это вполне доказательство что метка исключительно «системный» плохо влияет на восприятие языка как прикладного, которым раст вполне является, уж что-что, а веб-сервер на rocket делается легко: rocket.rs/guide/getting-started
+ он вылез в топ StackOverflow врядли исключительно по системным вопросам.
Написал некий подбор параметров для вычисления. сначала сделал это на Rust, заняло довольно много времени, так как это был первый подход к расту, без каких-то особенных оптимизаций получилось вполне примлемо: ~4млн данных подбирало 7 параметров (где-то 12млн комбинаций) на домашнем i5-7500 около 5 часов.
Потом захотелось добавить ML, естественным выбором для этого был питон. ML подсчитал всё что надо, но я подумал, что питон такой модный и молодёжный, что почему бы не попробовать его применить глубже.
сначала с pandas — скорость была такая, что он и 1k данным считал больше минуты — это ни в какие ворота. Переписал всё исключтельно на numpy — скорость стала вполне приличной.
Но всё не верторизируешь, и одним numpy сыт не будешь — добавил перебор параметров как было раньше — и с каждым лишним if программа проседала на порядки, в итоге ETA подсчёта того что я описал в первом обзаце, показал что оно будет считаться несколько месяцев, что очень резко охладило желание использовать питон где-то за пределами ML.
В stdweb это кстати на вид лучше выглядит к тому же.