Pull to refresh

Comments 5

А мне вот интересно было — как заставить нейросеть «думать» в обратную сторону, т.е. говорить «а сделай ка мне цифру 8»?
Если про тот Хинтоновский пример, что в статье, то это называется generative model («порождающая модель», наверное?), и работает так — вы показываете ей одну цифру 8, а она вам выдает все, что думает на эту тему (много разных цифр 8).
Это-то понятно. Непонятно именно как это происходит в случае с нейросетью.
Вот у меня есть, например, нейросеть (входы-выходы, скрытые слои и веса), и как мне получить то, что «нейросеть думает» об определённом результате?
Интересные рассуждения, но вот эта гипотеза неверная: Гипотеза Сепира-Уорфа может оказаться корректной для обучения с учителем и в корне неправильной для обучения без учителя.

Вернее она верная если всё обучение сети происходитодним и тем же методом. Но в реальности это не так. Если сеть сначала училась с учителем, то дальнейшее обучение без учителя будет эффективнее там, где язык сформировал успешные обобщения. Пользуясь вашим примером, если вы решите научить замечать что-то важное на салатовых картинках без учителя то чувак из Химбы будет учиться быстрее и эффективнее, потому что его мозг уже привык видеть разницу.
Sign up to leave a comment.