Коллеги, оглянитесь вокруг!
«Большие данные» гораздо ближе к вам и их сильно больше, чем кажется. Несмотря на обилие мероприятий на данную тему, мало кто, «между нами девочками говоря», владеет темой. А чтобы выжать пользу и деньги из информации — нужно очень хорошо разбираться..., именно — в тонкостях.
Технология «отжима больших данных» грубо делится на два, очень очень разных пласта — инженерный и алгоритмический. В первом монолите программное обеспечение пока довольно сырое, бурно развивается, от чего у разработчиков, простыми словами, уже «едет крыша»: приходится разбираться в инструментах от «старого доброго» Hadoop с HDFS, активно используя Hive, Impala, Presto, Vertica и прочая и прочая… и, чтобы не отстать от конкурентов, ювелирно владеть секретами Apache Spark, сваянного на прекрасной лаконичной Scala.
С другой стороны — нужно очень хорошо представлять себе алгоритмы и методики извлечения «правил и шаблонов из данных» и не вздрагивать от словосочетания «линейный дискриминантный анализ», не покрываться испариной при обсуждении тонкостей «логистической регрессии на ядре annova», не падать в обморок при демонстрации «спектральной факторизации» и не пытаться очнуться, представляя процесс «кластеризации текста в неевклидовом пространстве с помощью Locality-Sensitive Hashing» ;-)
Самое страшное в данной ситуации, что наши дети, не выпускающие из рук персональный компьютер — уже разбираются в этих технологиях гораздо увереннее нас! Ка-ра-ул.
Так вот, чтобы подчинить «большие данные» бизнесу и сделать их полезными, у нас есть 2 пути: долгий и правильный.
Долгий путь — обязывает изучить следующие дисциплины:
— теорию вероятностей
— линейную алгебру
— дифференциальное исчисление
— теорию графов
— 100-500 алгоритмов…
— технологию обработки «больших данных»
Займет лет 50.
А правильный путь — сходить на нашу конференцию «Bigdata Conference» 11 сентября 2015 года в Киеве. И буквально через 2-4 дня вы сможете организовать в вашей компании процессы сбора и анализа «больших данных», научить коллег пользоваться Rapidminer, внедрить лучшие алгоритмы машинного обучения — и вывести ваш бизнес на качественно новый уровень! А специалисты технического профиля смогут пополнить копилку знаний от экспертов области — еще бы, мы будем говорить и про Spark, и про кластеризацию социальных графов и, о да, про эффективный «deep learning»!
Ждем вас с нетерпением! До начала конференции остается всего несколько дней.
«Большие данные» гораздо ближе к вам и их сильно больше, чем кажется. Несмотря на обилие мероприятий на данную тему, мало кто, «между нами девочками говоря», владеет темой. А чтобы выжать пользу и деньги из информации — нужно очень хорошо разбираться..., именно — в тонкостях.
Технология «отжима больших данных» грубо делится на два, очень очень разных пласта — инженерный и алгоритмический. В первом монолите программное обеспечение пока довольно сырое, бурно развивается, от чего у разработчиков, простыми словами, уже «едет крыша»: приходится разбираться в инструментах от «старого доброго» Hadoop с HDFS, активно используя Hive, Impala, Presto, Vertica и прочая и прочая… и, чтобы не отстать от конкурентов, ювелирно владеть секретами Apache Spark, сваянного на прекрасной лаконичной Scala.
С другой стороны — нужно очень хорошо представлять себе алгоритмы и методики извлечения «правил и шаблонов из данных» и не вздрагивать от словосочетания «линейный дискриминантный анализ», не покрываться испариной при обсуждении тонкостей «логистической регрессии на ядре annova», не падать в обморок при демонстрации «спектральной факторизации» и не пытаться очнуться, представляя процесс «кластеризации текста в неевклидовом пространстве с помощью Locality-Sensitive Hashing» ;-)
Самое страшное в данной ситуации, что наши дети, не выпускающие из рук персональный компьютер — уже разбираются в этих технологиях гораздо увереннее нас! Ка-ра-ул.
Так вот, чтобы подчинить «большие данные» бизнесу и сделать их полезными, у нас есть 2 пути: долгий и правильный.
Долгий путь — обязывает изучить следующие дисциплины:
— теорию вероятностей
— линейную алгебру
— дифференциальное исчисление
— теорию графов
— 100-500 алгоритмов…
— технологию обработки «больших данных»
Займет лет 50.
А правильный путь — сходить на нашу конференцию «Bigdata Conference» 11 сентября 2015 года в Киеве. И буквально через 2-4 дня вы сможете организовать в вашей компании процессы сбора и анализа «больших данных», научить коллег пользоваться Rapidminer, внедрить лучшие алгоритмы машинного обучения — и вывести ваш бизнес на качественно новый уровень! А специалисты технического профиля смогут пополнить копилку знаний от экспертов области — еще бы, мы будем говорить и про Spark, и про кластеризацию социальных графов и, о да, про эффективный «deep learning»!
Ждем вас с нетерпением! До начала конференции остается всего несколько дней.