«Скройте все отвратительные гадости в подкаталогах.hdrtest в build tree и поместите дополнительные проверки build‑time для drm за опцию kconfig», — посоветовал Никула Торвальдсу.
По СТГ молекулы газов висят неподвижно, а их тепловая энергия заключена в сжатом упругом поле отталкивания вокруг них.
Так по СТГ получается упругая среда с малоподвижными массами молекул газа в узлах полей отталкивания.
По факту же между массами молекул действуют центральные силы отталкивания, которые можно уподобить пружинам, подчиняющимися при сжатии-растяжении некоторым фиксированным законам, которые при пересчёте на объёмные показатели совпадают с известными термодинамическими формулами.
Проявлением какого взаимодействия (сильное, слабое, электромагнитное, гравитационное) являются центральные силы отталкивания? Какая у них зависимость от расстояния между молекулами (линейная, обратная квадратичная или какая-то другая)?
По СТГ молекула вполне может быть холодной и очень быстрой, так как она остыла при разгоне за счёт перевода потенциальной энергии сжатия поля в кинетическую энергию полёта.
У меня это вызвало лёгкий диссонанс, я поэтому про формулы и написал. Получается, что температура уменьшилась, а кинетическая энергия увеличилась. Как так произошло - я не совсем понял.
«Но оптимизатор предполагает, что переполнения знаковых целых произойти не может, поскольку число уже положительное (что в данном случае гарантирует проверка x < 0, плюс умножение на константу). В конце концов, GCC берёт этот код, выдаёт его вам на‑гора и фактически удаляет проверку i >= 0, а заодно и всё, что она подразумевает.»
Отсюда я понимаю, что претензия автора в том, что число переполнилось и стало отрицательным, а при оптимизации проверка на отрицательность была удалена, потому что один раз число уже проверили, и оно умножается на положительную константу, следовательно, остается положительным. Мой пример выше просто иллюстрирует, что в реальности проблема происходит не из-за того, что предполагает автор. Про то, что UB никуда не делось полностью согласен.
На самом деле дело не только в проверке i >= 0. Например, если заменить тип i на uint32_t, то программа будет писать, что "tab[4294963943] looks safe because 4294963943 is between [0;512]", то есть результат сравнения i < sizeof(tab) не соответствует действительности.
Я вот не до конца понимаю, что означает нулевое сопротивление. По определению это вроде отношение разницы потенциалов концов проводника к силе проходящего по нему тока. Значит ли это, что в сверхпроводнике потенциал одинаковый между любыми двумя точками проводника? И как тогда ток "выбирает" направление, в котором он протекает?
Теперь алгоритму дается неразмеченное изображение. Он создает гипервектор для этого нового изображения, затем сравнивает гипервектор с сохраненными гипервекторами класса. Это сравнение определяет цифру, на которую больше всего похоже новое изображение.
То есть для каждого сохранённого вектора класса считаем, например, скалярное произведение с выходом последнего слоя нейросети. Чем это отличается от fully connected слоя? Тем, что веса необучаемые?
На мой взгляд если говорить о воспринимаемом цвете, то разделение спектра на синюю, красную и зеленую части это сильное упрощение, поскольку свет каждой отдельной длины волны одновременно активирует все три типа колбочек с разной интенсивностью, так что для более полной картины нужно как минимум считать интегралы по всему спектру для каждого типа колбочек. Из-за этого эффекта, например, несмотря на то, что зелёный находится посередине спектра, человеческое зрение к нему более чувствительно, так что при меньшей интенсивности спектра в области зеленого наблюдаемая яркость может быть выше.
Не могли бы вы пояснить, чем обусловлен выбор loss-функции mean_squared_error вместе с activation="sigmoid" на последнем слое? Кроме того, почему бы просто не взять случайные эмбеддинги и минимизировать непосредственно ошибку евклидового/косинусного расстояния между ними относительно желаемого? Зачем вводить дополнительные fully connected слои?
Если предположить существование цикла конечной длины, отличного от 1-4-2, то будет ли корректным использовать для него закон больших чисел? Кажется, что в этом случае аргумент не работает.
Получается, что формально есть некая "внешняя" (или "внутренняя" "глубинная", кому как удобно) реальность. И эти наши квантовые частицы - это что то вроде окна, ну или телевизора в эту реальность. "Спутывая" две частицы, мы "наводим две камеры" на одну и ту же рыбу из "глубинной реальности". И смотрим за нею через два телевизора.
Джон Стюарт Белл придумал как в принципе можно проверить так ли это "на самом деле". Люди доработали его методику. Провели эксперименты. И сказали, что да, это так. Некоторые из них сейчас получили нобелевскую премию.
Но это же и есть те самые "скрытые параметры", наличие которых экспериментально было опровергнуто?
Берем функцию из базы — соединяем с нужными блоками входы и выходы.
Эти функции могут быть очень высокого порядка. Вроде тех, что используются в программировании. А их параметры — ID объектов класса Товар, Марка, Цвет, Адрес и так далее.
Другими словами — передаем спайк (код объекта, ID) в нужное место, а не вектор из рациональных чисел, который обозначает непонятно что.
Кажется, вы придумали экспертные системы. Они имеют кучу своих проблем; кроме того, считать, что по набору экспертных правил вы получите систему, способную к мышлению и интуиции — несколько странно.
«Танцы с бубном» — по другому не получается. Потому что DeepLearning красиво работает на учебных датасетах — реальность ставит всё на место.
Deep Learning имеет огромное число применений в реальном мире.
Что нет в машине мышления, моделирования, творчества.
У OpenAI есть MuseNet, генерирующая музыку. У Nvidia — stylegan2, генерирующая лица людей. Можно ли это назвать творчеством? DeepMind моделирует положение молекул в стекле при помощи графовой нейронной сети, если вы это моделирование имели в виду.
Прежде чем приступать к моделированию, нужно выполнить «центровку» и «стандартизацию» данных путём их масштабирования. Масштабирование выполняется из-за того, что разные величины выражены в разных единицах измерения. Эта процедура позволяет организовать «честную схватку» между признаками при определении их важности.
Для расчёта feature importance при помощи tree-based моделей, на самом деле, делать это не обязательно: в отличие от других моделей, в деревьях не используется взвешивание признаков, и любые монотонные преобразования не повлияют на результат (с точностью до численной погрешности).
Выглядит как описание коммита, а не совет.
Неплохо было бы увидеть сравнение с ONNX WebGPU.
Понял, тогда такой вопрос:
По СТГ молекулы газов висят неподвижно, а их тепловая энергия заключена в сжатом упругом поле отталкивания вокруг них.Так по СТГ получается упругая среда с малоподвижными массами молекул газа в узлах полей отталкивания.По факту же между массами молекул действуют центральные силы отталкивания, которые можно уподобить пружинам, подчиняющимися при сжатии-растяжении некоторым фиксированным законам, которые при пересчёте на объёмные показатели совпадают с известными термодинамическими формулами.Проявлением какого взаимодействия (сильное, слабое, электромагнитное, гравитационное) являются центральные силы отталкивания? Какая у них зависимость от расстояния между молекулами (линейная, обратная квадратичная или какая-то другая)?
Ну вот автор выше пишет, что:
По СТГ молекула вполне может быть холодной и очень быстрой, так как она остыла при разгоне за счёт перевода потенциальной энергии сжатия поля в кинетическую энергию полёта.У меня это вызвало лёгкий диссонанс, я поэтому про формулы и написал. Получается, что температура уменьшилась, а кинетическая энергия увеличилась. Как так произошло - я не совсем понял.
А как вообще определяются температура и давление для единственной газовой молекулы? Можно какие-то формулы посмотреть?
Это правда, но автор в статье пишет:
«Но оптимизатор предполагает, что переполнения знаковых целых произойти не может, поскольку число уже положительное (что в данном случае гарантирует проверка
x < 0, плюс умножение на константу). В конце концов, GCC берёт этот код, выдаёт его вам на‑гора и фактически удаляет проверкуi >= 0, а заодно и всё, что она подразумевает.»Отсюда я понимаю, что претензия автора в том, что число переполнилось и стало отрицательным, а при оптимизации проверка на отрицательность была удалена, потому что один раз число уже проверили, и оно умножается на положительную константу, следовательно, остается положительным. Мой пример выше просто иллюстрирует, что в реальности проблема происходит не из-за того, что предполагает автор. Про то, что UB никуда не делось полностью согласен.
На самом деле дело не только в проверке
i >= 0. Например, если заменить типiнаuint32_t, то программа будет писать, что "tab[4294963943] looks safe because 4294963943 is between [0;512]", то есть результат сравненияi < sizeof(tab)не соответствует действительности.Я вот не до конца понимаю, что означает нулевое сопротивление. По определению это вроде отношение разницы потенциалов концов проводника к силе проходящего по нему тока. Значит ли это, что в сверхпроводнике потенциал одинаковый между любыми двумя точками проводника? И как тогда ток "выбирает" направление, в котором он протекает?
То есть для каждого сохранённого вектора класса считаем, например, скалярное произведение с выходом последнего слоя нейросети. Чем это отличается от fully connected слоя? Тем, что веса необучаемые?
На мой взгляд если говорить о воспринимаемом цвете, то разделение спектра на синюю, красную и зеленую части это сильное упрощение, поскольку свет каждой отдельной длины волны одновременно активирует все три типа колбочек с разной интенсивностью, так что для более полной картины нужно как минимум считать интегралы по всему спектру для каждого типа колбочек. Из-за этого эффекта, например, несмотря на то, что зелёный находится посередине спектра, человеческое зрение к нему более чувствительно, так что при меньшей интенсивности спектра в области зеленого наблюдаемая яркость может быть выше.
А почему это что-то необычное? На Земле например в южном полушарии 19% суши, а в северном 39%.
>нейросеть не будет умнее человека
Почему вы в этом так уверены? Человеческие ученики, бывает, превосходят своих учителей. А у GPT в учителях всё человечество.
Не могли бы вы пояснить, чем обусловлен выбор loss-функции mean_squared_error вместе с activation="sigmoid" на последнем слое? Кроме того, почему бы просто не взять случайные эмбеддинги и минимизировать непосредственно ошибку евклидового/косинусного расстояния между ними относительно желаемого? Зачем вводить дополнительные fully connected слои?
Если предположить существование цикла конечной длины, отличного от 1-4-2, то будет ли корректным использовать для него закон больших чисел? Кажется, что в этом случае аргумент не работает.
Но это же и есть те самые "скрытые параметры", наличие которых экспериментально было опровергнуто?
А про такую картинку что можно сказать? Эффект вроде бы обратный.
Кажется, вы придумали экспертные системы. Они имеют кучу своих проблем; кроме того, считать, что по набору экспертных правил вы получите систему, способную к мышлению и интуиции — несколько странно.
Deep Learning имеет огромное число применений в реальном мире.
У OpenAI есть MuseNet, генерирующая музыку. У Nvidia — stylegan2, генерирующая лица людей. Можно ли это назвать творчеством? DeepMind моделирует положение молекул в стекле при помощи графовой нейронной сети, если вы это моделирование имели в виду.
Для расчёта feature importance при помощи tree-based моделей, на самом деле, делать это не обязательно: в отличие от других моделей, в деревьях не используется взвешивание признаков, и любые монотонные преобразования не повлияют на результат (с точностью до численной погрешности).
Кажется, теорема Эрроу с Вами не согласна.