Pull to refresh
2
0
Владимир Богачёв @vbogach

User

Send message

Понял, тогда такой вопрос:

По СТГ молекулы газов висят неподвижно, а их тепловая энергия заключена в сжатом упругом поле отталкивания вокруг них.

Так по СТГ получается упругая среда с малоподвижными массами молекул газа в узлах полей отталкивания.

По факту же между массами молекул действуют центральные силы отталкивания, которые можно уподобить пружинам, подчиняющимися при сжатии-растяжении некоторым фиксированным законам, которые при пересчёте на объёмные показатели совпадают с известными термодинамическими формулами.

Проявлением какого взаимодействия (сильное, слабое, электромагнитное, гравитационное) являются центральные силы отталкивания? Какая у них зависимость от расстояния между молекулами (линейная, обратная квадратичная или какая-то другая)?

Ну вот автор выше пишет, что:

По СТГ молекула вполне может быть холодной и очень быстрой, так как она остыла при разгоне за счёт перевода потенциальной энергии сжатия поля в кинетическую энергию полёта.

У меня это вызвало лёгкий диссонанс, я поэтому про формулы и написал. Получается, что температура уменьшилась, а кинетическая энергия увеличилась. Как так произошло - я не совсем понял.

А как вообще определяются температура и давление для единственной газовой молекулы? Можно какие-то формулы посмотреть?

Это правда, но автор в статье пишет:

«Но оптимизатор предполагает, что переполнения знаковых целых произойти не может, поскольку число уже положительное (что в данном случае гарантирует проверка x < 0, плюс умножение на константу). В конце концов, GCC берёт этот код, выдаёт его вам на‑гора и фактически удаляет проверку i >= 0, а заодно и всё, что она подразумевает.»

Отсюда я понимаю, что претензия автора в том, что число переполнилось и стало отрицательным, а при оптимизации проверка на отрицательность была удалена, потому что один раз число уже проверили, и оно умножается на положительную константу, следовательно, остается положительным. Мой пример выше просто иллюстрирует, что в реальности проблема происходит не из-за того, что предполагает автор. Про то, что UB никуда не делось полностью согласен.

На самом деле дело не только в проверке i >= 0. Например, если заменить тип i на uint32_t, то программа будет писать, что "tab[4294963943] looks safe because 4294963943 is between [0;512]", то есть результат сравнения i < sizeof(tab) не соответствует действительности.

Я вот не до конца понимаю, что означает нулевое сопротивление. По определению это вроде отношение разницы потенциалов концов проводника к силе проходящего по нему тока. Значит ли это, что в сверхпроводнике потенциал одинаковый между любыми двумя точками проводника? И как тогда ток "выбирает" направление, в котором он протекает?

А есть какое-то обоснование, почему матрицы, найденные градиентным спуском эквивалентны матрицам, полученным алгоритмом PCA? Будут ли совпадать собственные значения/собственные векторы? Если матрица PCA является наилучшим приближением, то градиентный спуск до полной численной сходимости не будет эквивалентен PCA (поскольку на следующей итерации градиентного спуска приближение будет лучше текущего, следовательно, текущее приближение не является наилучшим, следовательно не эквивалентно PCA)?

Теперь алгоритму дается неразмеченное изображение. Он создает гипервектор для этого нового изображения, затем сравнивает гипервектор с сохраненными гипервекторами класса. Это сравнение определяет цифру, на которую больше всего похоже новое изображение.

То есть для каждого сохранённого вектора класса считаем, например, скалярное произведение с выходом последнего слоя нейросети. Чем это отличается от fully connected слоя? Тем, что веса необучаемые?

На мой взгляд если говорить о воспринимаемом цвете, то разделение спектра на синюю, красную и зеленую части это сильное упрощение, поскольку свет каждой отдельной длины волны одновременно активирует все три типа колбочек с разной интенсивностью, так что для более полной картины нужно как минимум считать интегралы по всему спектру для каждого типа колбочек. Из-за этого эффекта, например, несмотря на то, что зелёный находится посередине спектра, человеческое зрение к нему более чувствительно, так что при меньшей интенсивности спектра в области зеленого наблюдаемая яркость может быть выше.

А почему это что-то необычное? На Земле например в южном полушарии 19% суши, а в северном 39%.

>нейросеть не будет умнее человека

Почему вы в этом так уверены? Человеческие ученики, бывает, превосходят своих учителей. А у GPT в учителях всё человечество.

Не могли бы вы пояснить, чем обусловлен выбор loss-функции mean_squared_error вместе с activation="sigmoid" на последнем слое? Кроме того, почему бы просто не взять случайные эмбеддинги и минимизировать непосредственно ошибку евклидового/косинусного расстояния между ними относительно желаемого? Зачем вводить дополнительные fully connected слои?

Если предположить существование цикла конечной длины, отличного от 1-4-2, то будет ли корректным использовать для него закон больших чисел? Кажется, что в этом случае аргумент не работает.

Получается, что формально есть некая "внешняя" (или "внутренняя" "глубинная", кому как удобно) реальность. И эти наши квантовые частицы - это что то вроде окна, ну или телевизора в эту реальность. "Спутывая" две частицы, мы "наводим две камеры" на одну и ту же рыбу из "глубинной реальности". И смотрим за нею через два телевизора.

Джон Стюарт Белл придумал как в принципе можно проверить так ли это "на самом деле". Люди доработали его методику. Провели эксперименты. И сказали, что да, это так. Некоторые из них сейчас получили нобелевскую премию.

Но это же и есть те самые "скрытые параметры", наличие которых экспериментально было опровергнуто?

А про такую картинку что можно сказать? Эффект вроде бы обратный.

Берем функцию из базы — соединяем с нужными блоками входы и выходы.

Эти функции могут быть очень высокого порядка. Вроде тех, что используются в программировании. А их параметры — ID объектов класса Товар, Марка, Цвет, Адрес и так далее.
Другими словами — передаем спайк (код объекта, ID) в нужное место, а не вектор из рациональных чисел, который обозначает непонятно что.


Кажется, вы придумали экспертные системы. Они имеют кучу своих проблем; кроме того, считать, что по набору экспертных правил вы получите систему, способную к мышлению и интуиции — несколько странно.

«Танцы с бубном» — по другому не получается. Потому что DeepLearning красиво работает на учебных датасетах — реальность ставит всё на место.

Deep Learning имеет огромное число применений в реальном мире.

Что нет в машине мышления, моделирования, творчества.

У OpenAI есть MuseNet, генерирующая музыку. У Nvidia — stylegan2, генерирующая лица людей. Можно ли это назвать творчеством? DeepMind моделирует положение молекул в стекле при помощи графовой нейронной сети, если вы это моделирование имели в виду.
По случаю предлагаю переименовать OpenAI в OpenAPI.
Прежде чем приступать к моделированию, нужно выполнить «центровку» и «стандартизацию» данных путём их масштабирования. Масштабирование выполняется из-за того, что разные величины выражены в разных единицах измерения. Эта процедура позволяет организовать «честную схватку» между признаками при определении их важности.


Для расчёта feature importance при помощи tree-based моделей, на самом деле, делать это не обязательно: в отличие от других моделей, в деревьях не используется взвешивание признаков, и любые монотонные преобразования не повлияют на результат (с точностью до численной погрешности).
Поэтому лучше найти некий более демократичный метод: какой-то способ убедиться, что учтены разные предпочтения
Короче говоря, существует формула для определения «приоритета» пира с точки зрения узла, и отражаются голоса только высокоприоритетных узлов.

Кажется, теорема Эрроу с Вами не согласна.

Information

Rating
Does not participate
Location
Москва, Москва и Московская обл., Россия
Registered
Activity