Прочитав статью, представил, что в 1989 году могла выйти подобная статья, только про Интернет. Эдакая «Заметка об Интернете и системах связи».
В ней вполне могли бы написать, что «Интернет передаёт, от силы, 1000 писем в день. В то время как старый добрый телеграф передаёт 10^XX сообщений! Есть ли будущее у подобной университетской поделки?».
Сейчас, конечно, по прошествии 30 лет, прочитать такую статью было бы весьма уморительно…
Признаюсь, прочитал статью и перечитал отдельные части несколько раз.
Но так и не понял, чем отличается Differential Programming от обычного Reinforcement Learning.
Конечно, понятно, что нейросети — лишь один из множества способов описать функцию f(x), необходимую для решения некой задачи.
И сама идея применить производную f(x) для поиска решения — как раз понятна.
Но это давно используется при обучении нейросетей.
Что же нового предлагает DP в сравнении с Reinforcement Learning?
Использовать другую, более простую Loss function?
Если да, то можно ли применить это подход для решения задачи MountainCar?
Там не получится определить Loss function столь же просто, как, например, угол наклона маятника в задаче CartPole.
Ведь чтобы решить эту проблему, нужно машинку разгонять влево-вправо, набирая инерцию. Как раз с этой задачей Reinforcement Learning справляется хорошо.
Хорошая статья, спасибо.
Однако, не всегда для квантовых эффектов нужны низкие температуры и сложные лабораторные условия.
Например, как считается сегодня, квантовые эффекты используются в процессе фотосинтеза, увеличивая его эффективность.
Quantum effects observed in photosynthesis (https://phys.org/news/2018-05-quantum-effects-photosynthesis.html)
Очень интересные результаты, спасибо!
Сам занимаюсь другой областью NN, но мне всегда было интересно, можно ли сделать «онлайн обучение новым понятиям».
Я полагаю, человеческий мозг делает такое обучение постоянно, в течение всей жизни.
Услышав незнакомое слово в первый раз мы, исходя из контекста разговора, уже можем сразу отнести его к каким-то группам, установить ассоциативные связи.
Услышав это же слово во второй раз мы можем обновлять связанные с ним ассоциации (его embedding-представление).
Компьютерный алгоритм делает нечто похожее, когда обучается строить для слова его embedding-вектор, за несколько часов (дней?) обрабатывая языковой корпус.
Далее у меня возникают риторические (пока) вопросы:
1. У компьютера длина embedding-вектора задается изначально. Есть ли такое ограничение в мозге?
2. Меняется ли представление в мозге по мере развития (скорее всего да)? Как это можно это повторить в компьютерном алгоритме, автоматически увеличивая длину embedding-вектора по мере «необходимости»?
Эпоксилин — продаётся в любом хозмаге, стоит копейки. Представляет собой два «пластилиновых» кусочка, вероятно: эпоксидка и отвердитель. Для использования они соединяются в равных пропорциях, тщательно перемешиваются, после чего можно лепить из них, что хочешь. Полученная смесь застывает за несколько часов.
А у Вас при приёме метформина не возникает слабость или сонливость? Я по этой причине перестал его принимать. Решил вместо него один день в неделю ничего не есть.
Есть хороший сайт на эту тему: nestarenie.ru
Лично я пробовал метформин несколько месяцев.
Продолжаю пробовать таурин и рутин.
О результатах, видимо, сообщу лет эдак через 30 :))
Согласен, что это интересный вопрос. Однако резкие обвалы и взлеты случаются не так часто. Поэтому для получения стабильного дохода совсем необязательно уметь предказывать кризисы.
Меня больше интересует, какова предсказательная сила этой архитектуры на длительных промежутках?
Выбранный период — 6 месяцев — это слишком мало для обучения нейронной сети.
Я хочу поделиться своим опытом использования RAM-дисков.
Использую SoftPerfect RAM Disk уже больше года.
Просто копировать фильмы на RAM-диск — это неинтересно.
Полезнее изменить переменные среды окружения, чтобы перенаправить каталоги Windows\TEMP и AppData\...\Local\...\Temp на RAM диск.
Это даст ощутимый прирост производительности и скорости работы некоторых программ, типа архиваторов или Photoshop.
Насколько быстрее стало в цифрах — не знаю, не мерял. Но «ощутимо», раз я заметил )
Можно. А еще можно волокна соединять — для объединения лазерных лучей. И я даже больше скажу, можно генерировать лазерный луч в самом волокне. Почитайте про «волоконные лазеры». ru.wikipedia.org/wiki/Волоконный_лазер
Спасибо за статью!
Скажите, пожалуйста, применяется ли в каких-либо двигателях магнитная сборка Халбаха для обмоток статора либо ротора?
Предположительно, она позволит сосредоточить всё магнитное поле в пространстве между статором и ротором, что может повысить эффективность.
В ней вполне могли бы написать, что «Интернет передаёт, от силы, 1000 писем в день. В то время как старый добрый телеграф передаёт 10^XX сообщений! Есть ли будущее у подобной университетской поделки?».
Сейчас, конечно, по прошествии 30 лет, прочитать такую статью было бы весьма уморительно…
Но так и не понял, чем отличается Differential Programming от обычного Reinforcement Learning.
Конечно, понятно, что нейросети — лишь один из множества способов описать функцию f(x), необходимую для решения некой задачи.
И сама идея применить производную f(x) для поиска решения — как раз понятна.
Но это давно используется при обучении нейросетей.
Что же нового предлагает DP в сравнении с Reinforcement Learning?
Использовать другую, более простую Loss function?
Если да, то можно ли применить это подход для решения задачи MountainCar?
Там не получится определить Loss function столь же просто, как, например, угол наклона маятника в задаче CartPole.
Ведь чтобы решить эту проблему, нужно машинку разгонять влево-вправо, набирая инерцию. Как раз с этой задачей Reinforcement Learning справляется хорошо.
Зацепило, купил книжку.
Оглавление многообещающее.
Читаю.
Однако, не всегда для квантовых эффектов нужны низкие температуры и сложные лабораторные условия.
Например, как считается сегодня, квантовые эффекты используются в процессе фотосинтеза, увеличивая его эффективность.
Quantum effects observed in photosynthesis (https://phys.org/news/2018-05-quantum-effects-photosynthesis.html)
Сам занимаюсь другой областью NN, но мне всегда было интересно, можно ли сделать «онлайн обучение новым понятиям».
Я полагаю, человеческий мозг делает такое обучение постоянно, в течение всей жизни.
Услышав незнакомое слово в первый раз мы, исходя из контекста разговора, уже можем сразу отнести его к каким-то группам, установить ассоциативные связи.
Услышав это же слово во второй раз мы можем обновлять связанные с ним ассоциации (его embedding-представление).
Компьютерный алгоритм делает нечто похожее, когда обучается строить для слова его embedding-вектор, за несколько часов (дней?) обрабатывая языковой корпус.
Далее у меня возникают риторические (пока) вопросы:
1. У компьютера длина embedding-вектора задается изначально. Есть ли такое ограничение в мозге?
2. Меняется ли представление в мозге по мере развития (скорее всего да)? Как это можно это повторить в компьютерном алгоритме, автоматически увеличивая длину embedding-вектора по мере «необходимости»?
А самый важный вопрос, конечно, этот:
"… Вам не кажется, что лучшие умы современности занимаются пустяками?"
Если да — то чем Ваши лучше?
Лично я пробовал метформин несколько месяцев.
Продолжаю пробовать таурин и рутин.
О результатах, видимо, сообщу лет эдак через 30 :))
Меня больше интересует, какова предсказательная сила этой архитектуры на длительных промежутках?
Выбранный период — 6 месяцев — это слишком мало для обучения нейронной сети.
Использую SoftPerfect RAM Disk уже больше года.
Просто копировать фильмы на RAM-диск — это неинтересно.
Полезнее изменить переменные среды окружения, чтобы перенаправить каталоги Windows\TEMP и AppData\...\Local\...\Temp на RAM диск.
Это даст ощутимый прирост производительности и скорости работы некоторых программ, типа архиваторов или Photoshop.
Насколько быстрее стало в цифрах — не знаю, не мерял. Но «ощутимо», раз я заметил )
Скажите, пожалуйста, применяется ли в каких-либо двигателях магнитная сборка Халбаха для обмоток статора либо ротора?
Предположительно, она позволит сосредоточить всё магнитное поле в пространстве между статором и ротором, что может повысить эффективность.