Pull to refresh

Бодрствующий мозг учится в четыре раза быстрее, чем спящий

Machine learning *Popular science Brain Health

Исследователи из Национальных институтов здравоохранения США записали активность нейронов мозга людей при обучении. Они обнаружили, что в перерывах между обучением мозг в двадцать раз быстрее воспроизводит сжатые воспоминания, чем во время обучения. Кроме того, бодрствующий мозг в четыре раза быстрее запоминает навыки, чем спящий. 

Читать далее
Total votes 14: ↑13 and ↓1 +12
Views 7.3K
Comments 15

Нелинейное сжатие размерности, используя ограниченную машину Больцмана

Data Mining *Algorithms *
Привет. В этом посте мы продолжим экспериментировать с ограниченной машиной Больцмана. В предыдущем посте о регуляризации в РБМ мы увидели как можно получить более локальные фичи, которые обладают большей обобщающей способностью. Но мы не оценили их робастность по сравнению с более простыми и быстрыми алгоритмами. Для этого эксперимента мы обратимся к линейному методу главных компонент (вы можете ознакомиться с этим методом и глянуть реализацию на c# в моем первом посте). Желающим ознакомиться с первоисточником по теории сжатия размерности с использованием РБМ рекомендую глянуть статьи Джеффри Хинтона тут и тут. Мы же продолжим тестирование на множестве печатных больших букв: обучим РБМ, построим главные компоненты, сгенерируем сжатые представления данных, а из них восстановим первоначальные изображения, и затем оценим разницу между оригинальными изображениями и восстановленными.

Читать дальше →
Total votes 38: ↑35 and ↓3 +32
Views 15K
Comments 5

Факторный анализ для чайников

Algorithms *Mathematics *
Думаю многие из нас, хотя бы однажды интересовались искусственным интеллектом и нейронными сетями. В теории нейронных сетей далеко не последнее место занимает факторный анализ. Он призван выделить так называемые скрытые факторы. У этого анализа есть много методов. Особняком стоит метод главных компонент, отличительной особенностью которого является полное математическое обоснование. Признаться честно, когда я начал читать статьи по приведенным выше ссылкам — стало не по себе от того, что я ничего не понимал. Мой интерес поутих, но, как это обычно бывает, понимание пришло само по себе, нежданно-негаданно.
Поехали..
Total votes 61: ↑52 and ↓9 +43
Views 87K
Comments 17

Корреляция, ковариация и девиация (часть 3)

Mathematics *


В первой части показано, как на основе матрицы расстояний между элементами получить матрицу Грина. Ее спектр образует собственную систему координат множества, центром которой является центроид набора. Во второй рассмотрены спектры простых геометрических наборов.

В данной статье покажем, что матрица Грина и матрица корреляции — суть одно и то же.
Читать дальше →
Total votes 23: ↑21 and ↓2 +19
Views 40K
Comments 1

Как подобрать платье с помощью метода главных компонент

.io corporate blog System Analysis and Design *Data visualization Machine learning *
Translation
Итак, кто не против, чтобы одежду ему подбирала программа, машина, нейросеть?

Любой набор изображений возможно проанализировать с помощью метода главных компонент. Этот метод уже довольно успешно применяется при распознавании лиц. Мы же попробуем использовать его на примере женских платьев.

image
Читать дальше →
Total votes 57: ↑54 and ↓3 +51
Views 28K
Comments 13

Нейробайесовский подход к задачам машинного обучения. Лекция Дмитрия Ветрова в Яндексе

Яндекс corporate blog Mathematics *Machine learning *
Этим постом мы завершаем серию лекций с Data Fest. Одним из центральных событий конференции стал доклад Дмитрия Ветрова — профессора факультета компьютерных наук НИУ ВШЭ. Дмитрий входит в число самых известных в России специалистов по машинному обучению и, начиная с прошлого года, работает в Яндексе ведущим исследователем. В докладе он рассказывает об основах байесовского подхода и объясняет, какие преимущества дает этот подход при использовании нейронных сетей.


Под катом — расшифровка и часть слайдов.
Total votes 53: ↑52 and ↓1 +51
Views 29K
Comments 3

Если АНБ вычислило Сатоси Накамото, то как?

Social networks and communities Cryptocurrencies
Создатель криптовалюты Bitcoin Сатоси Накамото остаётся самым загадочным миллиардером на планете. Это один или несколько человек, личность(-и) которых никому не известны. Точнее, не известны широкой публике. По словам известного интернет-предпринимателя и инвестора Александра Мьюса (Alexander Muse), который ссылается на свои источники в Министерстве национальной безопасности, специалистам всё-таки удалось деанонимизировать Сатоси с помощью систем тотальной прослушки PRISM, MUSCULAR и стилометрии. Впрочем, достоверность источника никто не проверял — и далеко не факт, что АНБ не ошиблось в своих вычислениях. По крайней мере, обнародовать настоящее имя Сатоси никто не собирается.

Независимо от достоверности результатов расследорвания, очень интересно, какие методы использует АНБ для деанонимизации пользователей, которые публикуют в интернете много текстов: на форумах, в незащищённых чатах, в письмах по электронной почте.
Читать дальше →
Total votes 39: ↑37 and ↓2 +35
Views 67K
Comments 77

Метод главных компонент: аналитическое решение

Python *Mathematics *Machine learning *Studying in IT Artificial Intelligence
Tutorial


В этой статье мы залезем под капот одному из линейных способов понижения размерности признакового пространства данных, а именно, подробно ознакомимся с математической стороной метода главных компонент (Principal Components Analysis, PCA).
Читать дальше →
Total votes 4: ↑4 and ↓0 +4
Views 11K
Comments 0