Получается, что современный подход к организации обучения позволяет моделям самопроизвольно находить оптимальную комбинацию мыслительных процессов - накопление знаний и их редукцию для формулирования выводов. Напрашиваются закономерные вопросы: 1) можно ли использовать средний слой с максимальным объёмом знаний как репрезентацию внутреннего мира модели? 2) если учесть, что левая половина слоёв кодирует информацию, а правая - декодирует, то не присутствует ли некая параллель между соответствующими слоями, отстоящими от середины? Можно ли использовать эти параллели для оптимизации графа вычислений (можно ли провести какую-то нормализацию модели типа зеркалирования половин слоёв, но чтобы ответы были такими же, как у исходной)?
Было бы интересно в дальнейшем узнать, как влияют LoRa на поведение внутренних размерностей.
Было бы интересно узнать, как влияет другой способ выбора действительной и мнимой части на результат. Что не понятно - какие понятия описывает первая часть эмбединга, а какие - вторая. Что будет, если выбирать парные точки сигнала? Также любопытно было бы обощить этот подход на многомерные сигналы, выполня разбиение не только на действительную и мнимую часть, но на кватернион, допустим.
Интересно было узнать про этот тип диаграмм и Data-журналистике.
Различие между исследованием Nathan Yau и Вашим исследованием в выборе категорий для анализа в том, что: - Nathan Yau анализирует timespent занятия - Вы анализируете transactions Timespent имеет протяжённость, поэтому кружки залипают на месте долгое время. А transactions - точечные события, в которых невозможно находиться долго. Почувствуйте разницу между "заправить машину" и "Работать".
Поэтому точки на Вашей диаграмме скачут, а на диаграмме Nathan формируют устойчивые кластеры. Подозреваю, что ваши матрицы поминутных вероятностей переходов содержат намного меньше нулей, чем в его случае.
Если помечатать. А там и Rehoboam из сериала West World может заработать. Объединяем индивидуальные прогнозы и - бах! - готов прогноз для человечества.
Если серьёзно, то некоторые люди любят, чтобы им напоминали. Пример - напоминания гугла и яндекса по фотографиям. Второй пример - сервис https://www.rewind.ai/ - записывающий ВСЕ действия пользователя. Современный тренд.
У меня почему-то в коллабе обученный бот генерит повторяющийся диалог на несколько строчек. Так должно быть? User: Как дела?
Clone: Хорошо, вышли на улицу.
User: Хорошо. Я сейчас в машине, поеду к тебе.
Clone: Хорошо.
User: Я сейчас в машине, поеду к тебе.
Clone: Хорошо.
User: Я сейчас в машине, поеду к тебе.
Clone: Хорошо.
User: Я сейчас в машине, поеду к тебе.
Clone: Хорошо.
User:
На первый взгляд, задача не выглядит сложной, вероятно, есть подвох?
Например, можно записать формулу окружности, посчитать площадь синего квадранта через интеграл. Для интеграла нужна будет вторая граница по x - координаты пересечения окружности и осей (она выражается через координаты смещения). На мой взгляд, проще всего работать именно в координатах окружности, чтобы с интегралами не возиться, а взять табличный. Однако тут возникнут арксинусы, может быть проблема с производительностью, поэтому можно посчитать заранее ответы и засунуть в ускоряющую структуру.
Однако, существуют данные эмпирических наблюдений, свидетельствующих, что картинка 50 fps и, например, 96 fps визуально отличаются интенсивностью цветов и субъективной оценкой четкости изображений. Этой разницей оправдывают создание фильмов и другого контента с частотой выше 77 fps.
Это можно объяснить эффектом Брока-Зульцера. entokey.com/temporal-properties-of-vision/#Fig2
Короткие вспышки высокой интенсивности воспринимаются субъективно ярче, чем длинные вспышки той же интенсивности.
Получается, что современный подход к организации обучения позволяет моделям самопроизвольно находить оптимальную комбинацию мыслительных процессов - накопление знаний и их редукцию для формулирования выводов.
Напрашиваются закономерные вопросы:
1) можно ли использовать средний слой с максимальным объёмом знаний как репрезентацию внутреннего мира модели?
2) если учесть, что левая половина слоёв кодирует информацию, а правая - декодирует, то не присутствует ли некая параллель между соответствующими слоями, отстоящими от середины? Можно ли использовать эти параллели для оптимизации графа вычислений (можно ли провести какую-то нормализацию модели типа зеркалирования половин слоёв, но чтобы ответы были такими же, как у исходной)?
Было бы интересно в дальнейшем узнать, как влияют LoRa на поведение внутренних размерностей.
Было бы интересно узнать, как влияет другой способ выбора действительной и мнимой части на результат. Что не понятно - какие понятия описывает первая часть эмбединга, а какие - вторая. Что будет, если выбирать парные точки сигнала?
Также любопытно было бы обощить этот подход на многомерные сигналы, выполня разбиение не только на действительную и мнимую часть, но на кватернион, допустим.
Спасибо за статью!
Интересно было узнать про этот тип диаграмм и Data-журналистике.
Различие между исследованием Nathan Yau и Вашим исследованием в выборе категорий для анализа в том, что:
- Nathan Yau анализирует timespent занятия
- Вы анализируете transactions
Timespent имеет протяжённость, поэтому кружки залипают на месте долгое время. А transactions - точечные события, в которых невозможно находиться долго. Почувствуйте разницу между "заправить машину" и "Работать".
Поэтому точки на Вашей диаграмме скачут, а на диаграмме Nathan формируют устойчивые кластеры. Подозреваю, что ваши матрицы поминутных вероятностей переходов содержат намного меньше нулей, чем в его случае.
Если помечатать. А там и Rehoboam из сериала West World может заработать. Объединяем индивидуальные прогнозы и - бах! - готов прогноз для человечества.
Если серьёзно, то некоторые люди любят, чтобы им напоминали. Пример - напоминания гугла и яндекса по фотографиям. Второй пример - сервис https://www.rewind.ai/ - записывающий ВСЕ действия пользователя. Современный тренд.
У меня почему-то в коллабе обученный бот генерит повторяющийся диалог на несколько строчек. Так должно быть?
User: Как дела? Clone: Хорошо, вышли на улицу. User: Хорошо. Я сейчас в машине, поеду к тебе. Clone: Хорошо. User: Я сейчас в машине, поеду к тебе. Clone: Хорошо. User: Я сейчас в машине, поеду к тебе. Clone: Хорошо. User: Я сейчас в машине, поеду к тебе. Clone: Хорошо. User:
На первый взгляд, задача не выглядит сложной, вероятно, есть подвох?
Например, можно записать формулу окружности, посчитать площадь синего квадранта через интеграл. Для интеграла нужна будет вторая граница по x - координаты пересечения окружности и осей (она выражается через координаты смещения). На мой взгляд, проще всего работать именно в координатах окружности, чтобы с интегралами не возиться, а взять табличный. Однако тут возникнут арксинусы, может быть проблема с производительностью, поэтому можно посчитать заранее ответы и засунуть в ускоряющую структуру.
Это можно объяснить эффектом Брока-Зульцера.
entokey.com/temporal-properties-of-vision/#Fig2
Короткие вспышки высокой интенсивности воспринимаются субъективно ярче, чем длинные вспышки той же интенсивности.