Комментарии 3
Если честно, я не помню, когда Отус в последний раз публиковал что-то по ML, не обосравшись по полной, но этот раз превысил все пределы.
Во-первых, это перевод не статьи в блоге, а научной публикации (так вообще можно?). Во-вторых, перевод как обычно отвратительный (избранные перлы ниже). В-третьих, статья выбрана устаревшая и абсолютно идиотская (в половине референсов автор пиарит свои же работы).
Во-первых, в источнике 1 этой схемы нет. Вы студентов статьи писать садите? А то у них есть привычка ссылки на литературу от балды накидывать знаете ли.
Во-вторых, когда вы делаете классификацию чего-то (например, доменов ИИ, как здесь), надо четко понимать признак, по которому делите. Например, Robotics — это область применения, NLP — это класс задач, а Machine Learning — это группа алгоритмов. Их нельзя класть в один уровень разделения.
Господи, да это же просто дичь и вода. Вам уже сто раз писали — не садите людей без технических знаний за перевод статей по сложным темам (таким, как ML).
Передаю привет автору оригинала, который поставил эти четыре термина в один ряд.
Deep learning появился в восьмидесятых (термин введен в 1986), и в источнике 2 про это ничего не написано, автор опять нагло лжёт.
Google Translate от «supervised learning». К вашему сведению, это переводится как «обучение с учителем».
Какая иерархия? Опять надмозговой перевод?
И, кстати, вас не смущает, что ссылка 7 ведет на статью по NLP 2017 года?
Сейчас бы в задаче биометрической аутентификации использовать accuracy как метрику. И ссылка 16, разумеется, ведет на совсем другую статью.
Это две разных задачи, которые ни в коем случае не являются заменой друг друга.
«Базовой линии». Kill me please, переводчик не понимает, что несёт.
Ничего, что вы перевернули смысл предложения?
Про анализ публикаций вообще смешно говорить. В выборке какие-то байесовские сети, когда очевидные тренды последних семи лет — это CNN в CV и всякие рекуррентные / сверточные архитектуры в NLP.
В анализах трендов 2017 год, хотя я смотрю в календарь и вижу 2019.
Во-первых, это перевод не статьи в блоге, а научной публикации (так вообще можно?). Во-вторых, перевод как обычно отвратительный (избранные перлы ниже). В-третьих, статья выбрана устаревшая и абсолютно идиотская (в половине референсов автор пиарит свои же работы).
Рис. 1. Исследования в области искусственного интеллекта (ИИ) Источник: [1].
Во-первых, в источнике 1 этой схемы нет. Вы студентов статьи писать садите? А то у них есть привычка ссылки на литературу от балды накидывать знаете ли.
Во-вторых, когда вы делаете классификацию чего-то (например, доменов ИИ, как здесь), надо четко понимать признак, по которому делите. Например, Robotics — это область применения, NLP — это класс задач, а Machine Learning — это группа алгоритмов. Их нельзя класть в один уровень разделения.
Глубокое обучение является передовой областью исследований машинного обучения (machine learning — ML). Оно представляет из себя нескольких скрытых слоев искусственных нейронных сетей. Методология глубокого обучения применяет нелинейные преобразования и модельные абстракции высокого уровня на больших базах данных. Последние достижения во внедрении архитектуры глубокого обучения в многочисленных областях уже внесли значительный вклад в развитие искусственного интеллекта.… Кроме того, представлены выгода и преимущества методологии глубокого обучения в ее многослойной иерархии и нелинейных операциях, которые сравниваются с более традиционными алгоритмами в обычных приложениях.
Господи, да это же просто дичь и вода. Вам уже сто раз писали — не садите людей без технических знаний за перевод статей по сложным темам (таким, как ML).
Кластеризация, байесовская сеть, глубокое обучение и анализ дерева решений — это только их часть.
Передаю привет автору оригинала, который поставил эти четыре термина в один ряд.
Концепция глубокого обучения (Deep Learning — DL) впервые появилась в 2006 году как новая область исследований в машинном обучении. Вначале оно было известно как иерархическое обучение в [2], и как правило оно включало в себя множество областей исследований, связанных с распознаванием образов.
Deep learning появился в восьмидесятых (термин введен в 1986), и в источнике 2 про это ничего не написано, автор опять нагло лжёт.
и обучение под наблюдением или без него
Google Translate от «supervised learning». К вашему сведению, это переводится как «обучение с учителем».
Позже в 2006 году жадный алгоритм и иерархия были объединены в приложение, способное обрабатывать рукописные цифры [7]
Какая иерархия? Опять надмозговой перевод?
И, кстати, вас не смущает, что ссылка 7 ведет на статью по NLP 2017 года?
Эффективность CNN может достигать 99,35% точности [16].
Сейчас бы в задаче биометрической аутентификации использовать accuracy как метрику. И ссылка 16, разумеется, ведет на совсем другую статью.
В последнее время идентификация на основе изображения лица изменилась на автоматическое распознавание путем определения возраста и пола в качестве исходных параметров.
Это две разных задачи, которые ни в коем случае не являются заменой друг друга.
В результате был достигнут PER на уровне 20,07%. Полученный PER лучше по сравнению с ранее применяемым 3-слойным методом базовой линии нейронной сети
«Базовой линии». Kill me please, переводчик не понимает, что несёт.
Очевидно, что постепенное увеличение числа публикаций мог бы описать экспоненциальный рост. Оригинал: Clearly, there is a progressive increment of publications
that could describe an exponential growth
Ничего, что вы перевернули смысл предложения?
Про анализ публикаций вообще смешно говорить. В выборке какие-то байесовские сети, когда очевидные тренды последних семи лет — это CNN в CV и всякие рекуррентные / сверточные архитектуры в NLP.
В анализах трендов 2017 год, хотя я смотрю в календарь и вижу 2019.
+11
Зарегистрируйтесь на Хабре, чтобы оставить комментарий
Глубокое обучение (Deep Learning): обзор