Я так в 2014 купил cubietruck в надежде, что вот-вот соберут нормальный видеодрайвер с ускорением. Планировал медиаплейер с hdd сделать. А воз, кажется, и ныне там. Хотя кубик без дела не валяется — работает как однорукий роутер с hdd, NFS и minidlna.
Ну меня-то убеждать в преимуществах R/data.table не надо — мне эта связка всегда нравилась своей выразительностью и скоростью.
А вот из-за отставания в deep learning (модно-молодежно) R не стал популярной «прокладкой» к низкоуровневым библиотекам. Питон же постепенно переваривает все интересные фичи R (ну и других языков). Даже без deep learning в R не хватает удобного фреймворка для работы с GPU.
H2O тянет за собой Java + еще один формат as.h2o + интересные ошибки — у меня не те масштабы, чтобы оценить удобство такого подхода.
Для python есть свой data.table, но выглядит пока сыро — полгода назад на нем я так и не смог реализовать то, что было на R/data.table.
Что касается R vs python — по тому же kaggle видно, что доля скриптов на R последние несколько лет неуклонно падает. Подозреваю, что не в последнюю очередь из-за того, что в R до сих пор нет приличного deep learning фреймворка, а велосипед R keras -> py keras не кажется особенно надежным. Может, R torch доведут до ума.
Иногда возникает прямо противоположная задача: нужен, например, типа данных single или int8 (для экономии памяти). В numpy эти типы есть. В R надо что-то придумывать.
Да по типам вопрос не к вам — просто размышления вслух. В base R single == double: «R has no single precision data type». Но зато есть пакет float: > object.size(data.table(x=double(1000000)))
8001152 bytes
> object.size(data.table(x=float(1000000)))
4001768 bytes
Вроде бы то что надо.
А на счет памяти: неоднократно была ситуация, когда удаляешь большой объект или его часть, запускаешь сборщик мусора, а память не освобождается.
А вот из-за отставания в
deep learning
(модно-молодежно) R не стал популярной «прокладкой» к низкоуровневым библиотекам. Питон же постепенно переваривает все интересные фичи R (ну и других языков). Даже безdeep learning
в R не хватает удобного фреймворка для работы с GPU.H2O тянет за собой Java + еще один формат as.h2o + интересные ошибки — у меня не те масштабы, чтобы оценить удобство такого подхода.
Что касается R vs python — по тому же kaggle видно, что доля скриптов на R последние несколько лет неуклонно падает. Подозреваю, что не в последнюю очередь из-за того, что в R до сих пор нет приличного deep learning фреймворка, а велосипед R keras -> py keras не кажется особенно надежным. Может, R torch доведут до ума.
Кажется, это уже было в Симпсонах.
> object.size(data.table(x=double(1000000)))
8001152 bytes
> object.size(data.table(x=float(1000000)))
4001768 bytes
Вроде бы то что надо.
А на счет памяти: неоднократно была ситуация, когда удаляешь большой объект или его часть, запускаешь сборщик мусора, а память не освобождается.