Не удивлюсь если на самом деле связь не между фастфудом и интеллектом, а количеством денег, фастфудом и опытом в VR.
Фастфуд чаще употребляют люди с более низким достатком (потому что это дёшево и соотношение калорий на потраченные деньги велико). Как и у людей с большим достатком будет больше возможностей использовать VR и/или иметь больший IQ (потому что проще учиться, когда тебе не нужно думать о том как себя прокормить).
Особенно порадовала упоминаемая корреляция между употреблением фастфуда и депрессией, учитывая что фастфуд чаще едят люди у которого меньший достаток.
Просто вы никогда не встречали индийца, который ни за что не ответит "нет" или "не понял". Не думаю, что их нейросети отличаются от органической. Всё дело в датасете.
Я встречал разных индийцев и европейцев, и тех которые говорят "нет" или "не понял" и тех кто этого не скажет. Это скорее социальная (сказать нет - значит уронить свой авторитет).
У нейросетей это же структурная проблема, которая применима ко всем, и те которые умеют говорить "нет", "не знаю" умеют это делать благодаря специальным костылям.
Так и люди так же делают!
Если гвоздь может проткнуть ногу человека и колесо машины, не означает что и человек и машина движутся одинаково.
Не вероятность выбирается псевдорандомом, а следующий токен выбирается псевдорандомом, основываясь на вероятностях, вычисленных нейросетью.
Нейросеть выдаёт список вероятностей каждого слова, и одна из этих вероятностей выбирается псевдорандомом используя определенный машинный алгоритм.
Но учитывая что вы уже придираетесь к семантически верным предложениям, я буду считать это комплиментом.
Я не говорю что все модели плохие, я не говорю что их плохо использовать и я не говорю что они бесполезны.
Я говорю что они не работают так же как разум человека, я говорю что это другое, и, что романтизаторы, которые считают что "наконец-то человек смог сделать разум человека", что "LLM тоже разумный", что "он так же мыслит" и/или "так же обучается" - не правы, и создают неверное представление о технологии у остальных людей.
Это был мой ответ на вопрос "Вы уверены, что силиконовая [...] отличается от органической". И да, он отличается настолько что её отдельно пришлось учить говорить "я не знаю".
Про то что у "нейросети нет предубеждений" я имею то что её мышление построено только на предсказание следующего токена, так что если мы ей даём текст который склонен к какому-то факту, нейросеть с большей вероятностью будет его поддерживать, и не важно про что он будет - про то что "белое - это чёрное" или "холодное - это горячее", у неё нет "фактов" и "знаний" - у неё есть вероятности. Вероятность того что в таком-то предложении за таким-то словом будет такое-то слово, с такой-то вероятностью. И эта вероятность уже выбирается самым обыкновенным псевдорандомом (подробнее про это можно почитать поискав LLM Samplers / Sampling).
Мои слова так же можно воспринимать иначе, что например у нейросети нет предубеждений в плане негативных коннотаций основанных на принципах, и спорить например с ним, но это не то что я имею ввиду. Тут как раз наоборот, я уверен что эти предубеждения(в смысле негативных коннотаций, а не "знаний" или "фактов") у LLM есть, и, честно говоря, я давно хочу покопаться чтобы понять будет ли меняться ответ если LLM будет знать что спрашивающий женщина или мужчина. (Моё предположение что да, но никак не найду время чтобы это доказать).
На самом деле модель на вход получает примерно следующее:
<SYSTEM>: <Системные инструкции>
<User>: Закончи фразу: астрология может предсказать будущее
<Assistant>:
и пытается предсказать.
Я же говорю про то что если сойдутся вероятности / мы сманипулируем промтом, так что получится примерно следующее:
<SYSTEM>: <Системные инструкции>
<User>: Что ты думаешь об астрологии
<Assistant>: Астрология может пресказать будущее
Мы с большей вероятностью получим положительный / ненаучный ответ.
Моё сообщение не призвано показать что "нейросети плохие" или что "у них нет применения" а указать на разницу между нейросетями и человеком.
У человека есть мнение о чём то, и подсунув ему другой начальный текст, это не меняет его предубеждения по поводу чего-либо. Я буквально отвечаю на вопрос предыдущего комментатора: "чем-то отличается от органической?" и это мой ответ.
По поводу "Не уверен, что это говорит в вашу пользу" если вам нужно подтверждение ваших слов, или ответ, не зависимые от фактов, то да, действительно, LLM вам подойдёт больше.
Моя же работа подразумевает в том что я говорю что я не знаю, когда я не знаю, и объективный анализ, основанный на фактах и знаниях, а не псевдослучайном предсказании следующего токена.
Автор, а Вы уверены, что силиконовая "генеративная машина для нарушения авторских прав" чем-то отличается от органической?
Во-первых, это перевод, о чем можно судить по плашке сверху.
Во-вторых, лично я уверен, потому что я читал как работает сэмплер, параметры его настройки(температура, в частности), разные типы сэмплеров (mirostat) и понимаю что у меня есть знания и убеждения, которые являются знаниями и убеждениями, а не (псевдо)случайно выбранные слова из списка вероятностей следующих слов.
Например, если меня спросить что такое астрология, мое мнение не будет меняться в зависимости от броска кубика (псевдослучайных чисел).
Если мне подсунут фразу что "астрология может предсказать будущее" я не буду пытаться закончить не, а сотру, в отличии от LLM моделей.
Не стоит экстраполировать качество результатов LLM. То что сегодня оно в 2 раза умнее чем вчера не означает что завтра оно будет в 2 раза умнее чем сегодня.
Особенно с учётом что на данный момент мы уже знаем что этот рост как максимум логарифмический, и что компании занимающиеся LLM уже говорят о кризисе от недостатка данных для обучения.
Причем этот же пример приведен в статье по ссылке на слове "намерено", где человек объясняет что когда он уже отредактировал вопрос и явно указал чем вопрос отличается от исходного - он уже не появится у списке из-за низкой репутации, даже если его переоткроют:
I have no problems with this, however sometimes my problem might be different to the 'similar post', and I have to go back to my original question and edit it to show why my problem is different. By the time this happens, most people are ignoring the question because it has been downvoted and marked as duplicate, and the question may not be read again for anyone to even see my changes.
Проблема даже не в том что не дают задать один и тот же вопрос, а в том что модерация не желает тратить много времени чтобы понять что это не дубликат, но все равно закрывает вопрос.
Одного такого случая достаточно чтобы отбить желание пользоваться сервисом сразу у нескольких пользователей.
Помню гуглил вопрос, нашел точно такой же на SO, его закрыли как дубликат со ссылкой на вопрос который не соотвествует этому. И вот ты сидишь, смотришь на возмущенный комментарий автора, что вопрос закрыт без причины, вместо что могло бы быть ответом но потому что какой-то модератор НЕ ОСИЛИЛ ты теперь вместе с автором пропитываешься ненавистью к SO.
Когда-то это был пожалуй самый популярный ресурс для программистов (кроме Гугла, разве что), а теперь это прошлое о котором лучше не вспоминать. Туда им и дорога.
А мне показалась одной из худших игр в подобной тематике. Взял и после задач с робоманипулятором сделал рефанд, как минимум потому что на ноутбуке, играть в неё некомфортно из-за того насколько шумно работает охлаждение.
В игре неприятная графика, которая грузит систему заметнее чем Microsoft Flight Simulator 2024, даже если выставить минимальные настройки.
К игре можно подключить внешний редактор, и я подключил PyCharm Professional, но на каждое обновление кода нужно переделывать окно кода в игре, иначе не подтянутся обновления.
Интерфейс в игре неприятный и выглядит как интерфейс по-умолчанию, из-за чего создаётся ощущение низкосортности продукта.
Сначала я подумал что, это же early access, потом будет лучше, но закрыв игру увидел новость что это уже 1.0.1 и игра была релизнута и тут я сразу же понял что нужно делать рефанд.
Выглядит очень халтурно особенно если сравнивать с конкурентами:
"The farmer was replaced" гораздо приятнее, симпатичнее и менее требовательна, да она ощущается проще, из-за упращённой графики и того что она не претендует на "реализм", но быстро показывает как эта простота превращается в сложную логику.
BitBurner - инкрементальная JavaScript игра с открытым исходным кодом, где игроку нужно взять на себя роль хакера и писать программы которые заражают сервера. Смысл и "сложность" игры в инкрементальности: скрипт должен не только "взламывать" сервер для получения денег, но и использовать его для взлома других.
Project Colobot (Colonize with Bots) игра 2001 года с открытым исходным кодом, которая и сейчас получает обновления. В игре есть как обучающие миссии, где нужно писать программы которые выведут робота из лабиринта / летать летающим роботом и стрелять по летающим мешеням. Так и полноценную компанию о путешествии на разные планеты, строительству "базы" и роботов, каждый из которых может быть запрограммирован. Имхо, лучшая игра в этом жанре потому что это и интересно, и сложность растет очень плавно и потолок этой сложности очень высокий, потому что из-за того что каждый робот работает отдельно, а следовательно тут и проблемы с многопоточкой в добавок к остальным. Из "минусов" разве что C++ подобный синтаксис, но это с какой стороны посмотреть.
Ну и более логическая игра чем программирование, которая уже стала классикой: SHENZHEN IO
Про программирование в ограниченных условиях на ассемблероподобом языке. В большинстве задач игрок будет ограничен, либо количеством строк кода, либо количеством интерфейсов ввода/вывода. Вдобавок в игре есть лидерборд, где можно увидеть как твои друзья справились с решениями, и зачастую это заставляет почесать голову и поразмышлять над задачей ещё.
В игре красивый арт, хорошие анимации того что делают программы, сюжет с запоминающимися персонажами, которые порой так напоминают коллег с работы.
То есть то что умещено в QR это то как выглядел Minecraft в начальных стадий разработке.
Нет, то что умещено в QR коде основано на Minecraft 4K, отдельной версии майнкрафта сделанного специально для конкурса Java 4K, где команды разработчиков стараются сделать игру помещающуюся в 4096 байт (4 кибибайта)
На это указывает и название репозитория Mincraft4K:
Хотя движение курсора осталось таким же рваным визуально, как и ранее
Вы же понимаете, что это связано не с операционной системой, а как раз с недостатком количества кадров.
У меня курсор установлен на 800 DPI (Dots Per Inch, т.е. точек на дюйм), т.е. двигая курсор на дюйм (2.5 сантиметра) он переместится на 800 пикселей в сторону. Т.е. чтобы курсор плавно двигался на видео с частотой в 120 кадров в секунду, мне нужно нужно двигать его на 120 пикселей в секунду, т.е. 120 / 800 * 2.5 = 0.375 сантиметра в секунду.
Тогда на каждом кадре курсор будет двигаться на пиксель и не выглядеть "рвано"
Если речь про G-Sync / Free-Sync, то это правда, но с оговорками.
1) FPS в игре находится у верхней границы частоты обновления монитрора, но не превышает её
2) Не опускается до нижней границы G-Sync диапазона (в статье указано 36 фпс, не знаю отличается ли для более "быстрых" мониторов)
Т.е. грубо говоря, он работает, если он не нужен, в случае превышения частоты кадров, частоты обновления монитора, он может добавлять задержку от 2 до 6 кадров, обычно в 2 кадра: "33.2ms @60 Hz, 20ms @100 Hz, 13.8ms @144 Hz, etc"
Поведение G-Sync в зависимости от конфигурации и соотношения частоты кадров к частоте обновления монитора. Источник: BlurBusters
При правильной конфигурации ( как рекомендуется в статье, V-Sync: on, G-Sync: on, ограничение частоты кадров в -3 от частоты обновления монитора), задержка действительно получается равномерной. Но в случаях когда мы выпадаем из нормальных условиях, у нас появляются задержки до 6 кадров, что следует тезису сказанному в комментарии, о том что хотя задержка каждого кадра небольшая, когда их несколько - они становятся ощутимы.
"Искать IP адрес" не нужно если использовать mDNS.
Более того, сам же девайс может быть и точкой доступа, так что вместо подключения к нему по блютусу через приложение, можно напрямую подключиться к нему по wifi и получить от него веб-страницу для мониторинга. Аналогичный подход используется в WLED и это мне показалось очень удобным. Подключаешься к нему как к точке доступа, переходишь на 4.3.2.1 в браузере, и через панель управления подключаешь его к вайфаю из которого он доступен через mDNS и с телефона и с компьютера.
Это там, где курсор все еще перерисовывается с частотой 12-15Гц?
У меня обновляется как минимум 120 раз в секунду.
Я даже не поленился и проверил.
Проверил выставив 144 герц обновление рабочего стола, записав через OBS в 120 кадров в секунду (почему-то максимум, который он мне позволяет), и просмотрев изображение покадрово. На каждом кадре промежутки между которыми ~8 мс курсор находится на другом месте рабочего стола.
Это правда, как и раньше были игры которые не использовали больше одного ядра процессора. Как только стандартом для индустрии / пользовательского железа стали многоядерные процессоры, так и индустрия пошла вслед.
Я думаю что с появлением режимов "производительности" и "качества" на консолях индустрия снова сделала качественный переход в создание игр которые будут работать на бОльшем диапазоне кадров в секунду.
анимации и расчет физики всегда лочат
Тоже правда, но иногда (и я ожидаю/надеюсь теперь это будет ещё чаще) используется интерполяция. Например обновление физики 20 раз в секунду, а между ними плавные анимации в 144 кадров в секунду. В процедурных анимациях большее количество кадров может очень сильно улучшить картинку.
захваты движения на лоченом фпс
В захватах движения всё равно используется интерполяция. Её используют для генерации ключевых кадров (key frame), а между ними всё ещё используется интерполяция.
Это упрощает изменение анимаций, если необходимо что-то поменять, помогает с динамическим количеством кадров и помогает скрыть недостатки, если например в анимации присутствует шум / неровности.
не всегда интерполяцию можно и нужно делать
Не всегда, но в случае когда нужно бОльшее количество кадров без значительного увеличение потребляемых ресурсов - можно и нужно. Не нужно говорить что "мы интерполируем всё неглядя", но в огромном количестве случаев интерполяция - работает.
если физику считать на разном фпс, то расчеты и поведение будет разным
Тоже верно, но, как мне кажется, тоже нерелевантно. Во-первых: интерполяция, во-вторых: в большинстве случаев просчёт физики с большей частотой даёт более "реалистичные" результаты, если параметры физики запрограммированы с учётом разного просчёта физики. Пример: в играх с более частым просчётом физике зачастую сложнее попасть за стены. Негативный пример: Doom (2016) в котором урон от BFG зависит от кадров, анимация волос почти в каждой игре "сходит с ума" при увеличении количества просчётов, некоторые игры ускоряются / ускоряют некоторые свои элементы при большем количестве кадров.
Это усложняет процесс тестирования, т.к. у нас новый параметр за которым надо следить, но раз теперь игры выходят с разными пресетами графики и кадров - нам и так необходимо либо интерполировать либо делать так чтобы работало везде, а последнее мне, как геймеру нравится больше, потому что всегда приятно запустить старые игры на новом железе на максимальных настройках.
есть мониторы у которых шим 300-500гц, но люди не жалуются на видимость мерцания
Я предполагаю, что дело в характере изменения - если картинка становится ярче/тусклее на незначительные величины то это не так заметно, как если бы каждые 2 миллисекунды из 1000 были красными. Характерный пример - старые лампочки, которые работали в наших сетях в 60 герц и соответственно мерцали. Вы же не будете утверждать что глаз не видит больше 60 кадров?
в научных статьях показывают, что средний человек не видит больше 90гц
Что за статьи? Кем проводились? Что исследовали? Как исследовали?
Было ли это появление точки на мониторе или лампочка мигала красным.
Учитывая то что "тестировал" свой монитор на самых разных знакомых и они замечали разницу движения курсора по рабочему столу на 144 и 240 герц явно показывая где "плавнее", при всём уважении к исследователям и вам, я склонен верить себе.
пилоты могут до 300гц различить из-за скорости реакции
Прощу прощения, но здесь это вовсе выглядит как какие-то фантазии.
Какие пилоты? Пилоты истребителей? Пилоты формулы-1? Есть какие-то конкретные исследования, перцентили? Почему именно 300? Сколько лет опыта необходимо для этого и до какого возраста это работает?
и еще одно свойство глаза, что прямым зрением мы видим меньше гц чем боковым, потому люди могут быстрее реагировать не смотря прямо на объект.
Не понимаю как это связано. Значит ли это что мы должно ориентироваться на частоту воспринимаемую прямым зрением? Или это аргумент за ещё большее количество кадров чтобы картинка хорошо воспринималась и периферийным зрением?
Проблема / преимущество монитора в том что он не знает куда смотрит пользователь.
Это для VR делают "Фовеатную отрисовку" (Foveated rendering) - которая может отрисовывать разные части кадра с разным разрешением, но для монитора, как мне кажется, нужно ориентироваться на худший исход: не стоит делать приложения с расчётом на то, что пользователь будет всегда смотреть в центр.
Поэтому этот аргумент воспринимаю как "прямым зрением ты видишь 240 герц, значит для периферийного нужно 360".
Можно ли сделать так что повышенная частота кадров будет незаметна или даже сделает продукт хуже - несомненно, и, во многом, ваш ответ верен: на данный момент бОльшая часть игр действительно работает с фиксированным количеством кадров, физика работает отдельно от них, интерполяция может убить исходный замысел анимации, физика использует заранее заданные параметры которые ломаются при изменении частоты её просчёта, а глаз не равнозначно восприимчив ко всем изменениям, в частности лампочки, или более радикальный пример - прерывистый свет на концертах / в клубах, когда кажется будто весь мир теперь "отрисовывается" в 1 кадр в секунду.
Но если её делать хорошо, и как мне кажется индустрия идёт в этом направлении, то получается ещё одно качественное изменение, которое заметно улучшает восприятие игры, её анимаций и геймплей.
Upd: Если вы спросите меня какая настоящая проблема того что мы все не перешли на 144 или даже 240 герцовые мониторы, то мой ответ будет что главный виновник - матрицы и их стоимости.
Купить высокогерцовый монитор сейчас очень дёшево, но у него будет TN матрица у которой очень плохая цветопередача. И это ГОРАЗДО заметнее разницы между 60 и 140 кадров в секунду. Всё: ютуб, фильмы, мультики, игры - на этом мониторе будет выглядеть хуже, что очень весомый минус.
На "хорошей" матрице за каждое увеличение частоты и разрешения нужно будет платить всё больше, а потому 140 герц с хорошей цветопередачей сейчас доступно только тем кто готов отдать 700+ евро за один лишь монитор.
Даже не тренированный глаз хорошо отличается разницу между 144 гц и 240 гц, если их поставить рядом друг с другом / включить друг за другом, например через изменение частоты обновления рабочего стола в виндовс. Проверил на своих знакомых используя 240 гц 27" монитор.
Лично я за год его использования замечал изменение частоты обновления экрана даже когда после обновления видеодрайвера на следующий день настройка изменилась с 240гц до 144гц, т.е. проведя за 240гц продолжительное время, можно заметить разницу с 144гц даже после сна.
В целом, частота обновления экрана эмоционально можно описать что "как увидишь - неразвидешь" - сказать какая точная герцовка - не сможешь, но будешь чувствовать когда "мало".
Есть ли "убывающая выгода" (Diminishing Returns) от бОльших частот обновления монитора? Однозначно! Но мне кажется что до 1000 гц они всё ещё будут заметны, пускай это и будет меньше бросаться в глаза.
Зачем 500гц мониторы для киберспорта?
Во-первых - больше герцовка, меньше задержка. 144 герц дают 6.94 мс задержки, 240 герц дают 4.17 мс задержки, 480 гц => 2.08 мс.
Для обычного пользователя это "чуть-чуть более плавные анимации" для киберспортсменов с 200 мс реакцией даже прыжок от 240 гц до 480 гц это 1% преимущества.
Если 1% преимущества кажется незначительным, то можно погрузиться глубже:
На монитор отправляются только готовые кадры и "готовятся" они неравномерно: иногда больше иногда меньше и тут несколько ситуаций:
1) частота > фпс: повышение герцовки (почти) не даёт преимуществ
2) частота = фпс: повышение герцовки даёт премущество оговоренное выше (1% для 480 против 240)
3) частота < фпс: всё сложно, но грубо говоря повышение герцовки значительнее повышает преимущство.
Последнее связано с "рассинхронизацией" кадров между кадрами срендеренными игрой и кадрами, отображаемыми на мониторе. Попробую показать на вот этом графике:
Красное - кадры срендеренные игрой в 720 фпс, синее - обновление экрана с частотой в 480 герц.
Точки - когда кадр готов в игре и когда монитор готов его коазать.
Считая что первый кадр "попал", следующий имеет дополнительную задержку (2.08333 - 1.38889 = 0.69444 мс), а следующий за ним: 4.16667 - 2.77778 = 1.38889 мс, и это только из-за несоответствия частоты кадров и обновления экрана, задержка от монитора суммируется к ней, таким образом в этих условиях мы уже получаем что 2.08мс задержки превратились в почти 3.5, а следовательно почти 1.5% "преимущества" для игроков с реакцией в 200 мс.
Неоднократно отмечал для себя что смеяться над datahoarder'ами - плохо.
Потому что сначала ты смеёшься над ними мол: "хаха большие корпорации не дадут пропасть своему контенту" а потом Nintendo выкладывает сборник классических игр из пиратских ROM'ов, другие компании говорят что исходники потеряны и т.д.
И в какой-то момент ты хочешь найти передачу из детства, милую твоему сердцу, а она уже на торрентах Ютубе залита этим же человеком.
В браузерах есть настройка чтобы он открывался с вкладками, с которыми он был закрыт.
А если вы этого не хотите в большинстве случаев, но именно сейчас вам это надо, то для этого есть отдельная кнопка: Restore Previous Session.
Но, имхо, очевидно что это решения для проблемы которой не должно быть. Майкрософт не должен за меня решать когда/если мой компьютер будет перезагружен.
Корреляция не означает каузацию.
Не удивлюсь если на самом деле связь не между фастфудом и интеллектом, а количеством денег, фастфудом и опытом в VR.
Фастфуд чаще употребляют люди с более низким достатком (потому что это дёшево и соотношение калорий на потраченные деньги велико). Как и у людей с большим достатком будет больше возможностей использовать VR и/или иметь больший IQ (потому что проще учиться, когда тебе не нужно думать о том как себя прокормить).
Особенно порадовала упоминаемая корреляция между употреблением фастфуда и депрессией, учитывая что фастфуд чаще едят люди у которого меньший достаток.
Я встречал разных индийцев и европейцев, и тех которые говорят "нет" или "не понял" и тех кто этого не скажет. Это скорее социальная (сказать нет - значит уронить свой авторитет).
У нейросетей это же структурная проблема, которая применима ко всем, и те которые умеют говорить "нет", "не знаю" умеют это делать благодаря специальным костылям.
Если гвоздь может проткнуть ногу человека и колесо машины, не означает что и человек и машина движутся одинаково.
Нейросеть выдаёт список вероятностей каждого слова, и одна из этих вероятностей выбирается псевдорандомом используя определенный машинный алгоритм.
Но учитывая что вы уже придираетесь к семантически верным предложениям, я буду считать это комплиментом.
Давайте я подчеркну это ещё раз.
Я не говорю что все модели плохие, я не говорю что их плохо использовать и я не говорю что они бесполезны.
Я говорю что они не работают так же как разум человека, я говорю что это другое, и, что романтизаторы, которые считают что "наконец-то человек смог сделать разум человека", что "LLM тоже разумный", что "он так же мыслит" и/или "так же обучается" - не правы, и создают неверное представление о технологии у остальных людей.
Это был мой ответ на вопрос "Вы уверены, что силиконовая [...] отличается от органической". И да, он отличается настолько что её отдельно пришлось учить говорить "я не знаю".
Про то что у "нейросети нет предубеждений" я имею то что её мышление построено только на предсказание следующего токена, так что если мы ей даём текст который склонен к какому-то факту, нейросеть с большей вероятностью будет его поддерживать, и не важно про что он будет - про то что "белое - это чёрное" или "холодное - это горячее", у неё нет "фактов" и "знаний" - у неё есть вероятности. Вероятность того что в таком-то предложении за таким-то словом будет такое-то слово, с такой-то вероятностью. И эта вероятность уже выбирается самым обыкновенным псевдорандомом (подробнее про это можно почитать поискав LLM Samplers / Sampling).
Мои слова так же можно воспринимать иначе, что например у нейросети нет предубеждений в плане негативных коннотаций основанных на принципах, и спорить например с ним, но это не то что я имею ввиду. Тут как раз наоборот, я уверен что эти предубеждения(в смысле негативных коннотаций, а не "знаний" или "фактов") у LLM есть, и, честно говоря, я давно хочу покопаться чтобы понять будет ли меняться ответ если LLM будет знать что спрашивающий женщина или мужчина. (Моё предположение что да, но никак не найду время чтобы это доказать).
Уже больше десятка тысячилетий, если считать с момента начала сельскохозяйства. Но можно считать и больше.
Ваш пример отличается от моего.
На самом деле модель на вход получает примерно следующее:
и пытается предсказать.
Я же говорю про то что если сойдутся вероятности / мы сманипулируем промтом, так что получится примерно следующее:
Мы с большей вероятностью получим положительный / ненаучный ответ.
Моё сообщение не призвано показать что "нейросети плохие" или что "у них нет применения" а указать на разницу между нейросетями и человеком.
У человека есть мнение о чём то, и подсунув ему другой начальный текст, это не меняет его предубеждения по поводу чего-либо. Я буквально отвечаю на вопрос предыдущего комментатора: "чем-то отличается от органической?" и это мой ответ.
По поводу "Не уверен, что это говорит в вашу пользу" если вам нужно подтверждение ваших слов, или ответ, не зависимые от фактов, то да, действительно, LLM вам подойдёт больше.
Моя же работа подразумевает в том что я говорю что я не знаю, когда я не знаю, и объективный анализ, основанный на фактах и знаниях, а не псевдослучайном предсказании следующего токена.
Во-первых, это перевод, о чем можно судить по плашке сверху.
Во-вторых, лично я уверен, потому что я читал как работает сэмплер, параметры его настройки(температура, в частности), разные типы сэмплеров (mirostat) и понимаю что у меня есть знания и убеждения, которые являются знаниями и убеждениями, а не (псевдо)случайно выбранные слова из списка вероятностей следующих слов.
Например, если меня спросить что такое астрология, мое мнение не будет меняться в зависимости от броска кубика (псевдослучайных чисел).
Если мне подсунут фразу что "астрология может предсказать будущее" я не буду пытаться закончить не, а сотру, в отличии от LLM моделей.
Не стоит экстраполировать качество результатов LLM. То что сегодня оно в 2 раза умнее чем вчера не означает что завтра оно будет в 2 раза умнее чем сегодня.
Особенно с учётом что на данный момент мы уже знаем что этот рост как максимум логарифмический, и что компании занимающиеся LLM уже говорят о кризисе от недостатка данных для обучения.
Комментарий от автора был, вопрос не переоткрыли.
Причем этот же пример приведен в статье по ссылке на слове "намерено", где человек объясняет что когда он уже отредактировал вопрос и явно указал чем вопрос отличается от исходного - он уже не появится у списке из-за низкой репутации, даже если его переоткроют:
Проблема даже не в том что не дают задать один и тот же вопрос, а в том что модерация не желает тратить много времени чтобы понять что это не дубликат, но все равно закрывает вопрос.
Одного такого случая достаточно чтобы отбить желание пользоваться сервисом сразу у нескольких пользователей.
Помню гуглил вопрос, нашел точно такой же на SO, его закрыли как дубликат со ссылкой на вопрос который не соотвествует этому. И вот ты сидишь, смотришь на возмущенный комментарий автора, что вопрос закрыт без причины, вместо что могло бы быть ответом но потому что какой-то модератор НЕ ОСИЛИЛ ты теперь вместе с автором пропитываешься ненавистью к SO.
Когда-то это был пожалуй самый популярный ресурс для программистов (кроме Гугла, разве что), а теперь это прошлое о котором лучше не вспоминать. Туда им и дорога.
А мне показалась одной из худших игр в подобной тематике. Взял и после задач с робоманипулятором сделал рефанд, как минимум потому что на ноутбуке, играть в неё некомфортно из-за того насколько шумно работает охлаждение.
В игре неприятная графика, которая грузит систему заметнее чем Microsoft Flight Simulator 2024, даже если выставить минимальные настройки.
К игре можно подключить внешний редактор, и я подключил PyCharm Professional, но на каждое обновление кода нужно переделывать окно кода в игре, иначе не подтянутся обновления.
Интерфейс в игре неприятный и выглядит как интерфейс по-умолчанию, из-за чего создаётся ощущение низкосортности продукта.
Сначала я подумал что, это же early access, потом будет лучше, но закрыв игру увидел новость что это уже 1.0.1 и игра была релизнута и тут я сразу же понял что нужно делать рефанд.
Выглядит очень халтурно особенно если сравнивать с конкурентами:
"The farmer was replaced" гораздо приятнее, симпатичнее и менее требовательна, да она ощущается проще, из-за упращённой графики и того что она не претендует на "реализм", но быстро показывает как эта простота превращается в сложную логику.
BitBurner - инкрементальная JavaScript игра с открытым исходным кодом, где игроку нужно взять на себя роль хакера и писать программы которые заражают сервера. Смысл и "сложность" игры в инкрементальности: скрипт должен не только "взламывать" сервер для получения денег, но и использовать его для взлома других.
Project Colobot (Colonize with Bots) игра 2001 года с открытым исходным кодом, которая и сейчас получает обновления. В игре есть как обучающие миссии, где нужно писать программы которые выведут робота из лабиринта / летать летающим роботом и стрелять по летающим мешеням. Так и полноценную компанию о путешествии на разные планеты, строительству "базы" и роботов, каждый из которых может быть запрограммирован. Имхо, лучшая игра в этом жанре потому что это и интересно, и сложность растет очень плавно и потолок этой сложности очень высокий, потому что из-за того что каждый робот работает отдельно, а следовательно тут и проблемы с многопоточкой в добавок к остальным. Из "минусов" разве что C++ подобный синтаксис, но это с какой стороны посмотреть.
Ну и более логическая игра чем программирование, которая уже стала классикой: SHENZHEN IO
Про программирование в ограниченных условиях на ассемблероподобом языке. В большинстве задач игрок будет ограничен, либо количеством строк кода, либо количеством интерфейсов ввода/вывода. Вдобавок в игре есть лидерборд, где можно увидеть как твои друзья справились с решениями, и зачастую это заставляет почесать голову и поразмышлять над задачей ещё.
В игре красивый арт, хорошие анимации того что делают программы, сюжет с запоминающимися персонажами, которые порой так напоминают коллег с работы.
Нет, то что умещено в QR коде основано на Minecraft 4K, отдельной версии майнкрафта сделанного специально для конкурса Java 4K, где команды разработчиков стараются сделать игру помещающуюся в 4096 байт (4 кибибайта)
На это указывает и название репозитория Mincraft4K:
Эта версия была более ограниченная чем какая-либо версия майнкрафт доступная публично, так что говорить что "это было в период InDev" - некорректно.
Вы же понимаете, что это связано не с операционной системой, а как раз с недостатком количества кадров.
У меня курсор установлен на 800 DPI (Dots Per Inch, т.е. точек на дюйм), т.е. двигая курсор на дюйм (2.5 сантиметра) он переместится на 800 пикселей в сторону. Т.е. чтобы курсор плавно двигался на видео с частотой в 120 кадров в секунду, мне нужно нужно двигать его на 120 пикселей в секунду, т.е. 120 / 800 * 2.5 = 0.375 сантиметра в секунду.
Тогда на каждом кадре курсор будет двигаться на пиксель и не выглядеть "рвано"
Если речь про G-Sync / Free-Sync, то это правда, но с оговорками.
1) FPS в игре находится у верхней границы частоты обновления монитрора, но не превышает её
2) Не опускается до нижней границы G-Sync диапазона (в статье указано 36 фпс, не знаю отличается ли для более "быстрых" мониторов)
Т.е. грубо говоря, он работает, если он не нужен, в случае превышения частоты кадров, частоты обновления монитора, он может добавлять задержку от 2 до 6 кадров, обычно в 2 кадра: "33.2ms @60 Hz, 20ms @100 Hz, 13.8ms @144 Hz, etc"
При правильной конфигурации ( как рекомендуется в статье, V-Sync: on, G-Sync: on, ограничение частоты кадров в -3 от частоты обновления монитора), задержка действительно получается равномерной. Но в случаях когда мы выпадаем из нормальных условиях, у нас появляются задержки до 6 кадров, что следует тезису сказанному в комментарии, о том что хотя задержка каждого кадра небольшая, когда их несколько - они становятся ощутимы.
Плюсую идею с web-сервером.
"Искать IP адрес" не нужно если использовать mDNS.
Более того, сам же девайс может быть и точкой доступа, так что вместо подключения к нему по блютусу через приложение, можно напрямую подключиться к нему по wifi и получить от него веб-страницу для мониторинга. Аналогичный подход используется в WLED и это мне показалось очень удобным. Подключаешься к нему как к точке доступа, переходишь на 4.3.2.1 в браузере, и через панель управления подключаешь его к вайфаю из которого он доступен через mDNS и с телефона и с компьютера.
У меня обновляется как минимум 120 раз в секунду.
Я даже не поленился и проверил.
Проверил выставив 144 герц обновление рабочего стола, записав через OBS в 120 кадров в секунду (почему-то максимум, который он мне позволяет), и просмотрев изображение покадрово. На каждом кадре промежутки между которыми ~8 мс курсор находится на другом месте рабочего стола.
Сам файл с видео для подтверждения в Google Drive
Это правда, как и раньше были игры которые не использовали больше одного ядра процессора. Как только стандартом для индустрии / пользовательского железа стали многоядерные процессоры, так и индустрия пошла вслед.
Я думаю что с появлением режимов "производительности" и "качества" на консолях индустрия снова сделала качественный переход в создание игр которые будут работать на бОльшем диапазоне кадров в секунду.
Тоже правда, но иногда (и я ожидаю/надеюсь теперь это будет ещё чаще) используется интерполяция. Например обновление физики 20 раз в секунду, а между ними плавные анимации в 144 кадров в секунду. В процедурных анимациях большее количество кадров может очень сильно улучшить картинку.
В захватах движения всё равно используется интерполяция. Её используют для генерации ключевых кадров (key frame), а между ними всё ещё используется интерполяция.
Это упрощает изменение анимаций, если необходимо что-то поменять, помогает с динамическим количеством кадров и помогает скрыть недостатки, если например в анимации присутствует шум / неровности.
Не всегда, но в случае когда нужно бОльшее количество кадров без значительного увеличение потребляемых ресурсов - можно и нужно. Не нужно говорить что "мы интерполируем всё неглядя", но в огромном количестве случаев интерполяция - работает.
Тоже верно, но, как мне кажется, тоже нерелевантно. Во-первых: интерполяция, во-вторых: в большинстве случаев просчёт физики с большей частотой даёт более "реалистичные" результаты, если параметры физики запрограммированы с учётом разного просчёта физики. Пример: в играх с более частым просчётом физике зачастую сложнее попасть за стены. Негативный пример: Doom (2016) в котором урон от BFG зависит от кадров, анимация волос почти в каждой игре "сходит с ума" при увеличении количества просчётов, некоторые игры ускоряются / ускоряют некоторые свои элементы при большем количестве кадров.
Это усложняет процесс тестирования, т.к. у нас новый параметр за которым надо следить, но раз теперь игры выходят с разными пресетами графики и кадров - нам и так необходимо либо интерполировать либо делать так чтобы работало везде, а последнее мне, как геймеру нравится больше, потому что всегда приятно запустить старые игры на новом железе на максимальных настройках.
Я предполагаю, что дело в характере изменения - если картинка становится ярче/тусклее на незначительные величины то это не так заметно, как если бы каждые 2 миллисекунды из 1000 были красными. Характерный пример - старые лампочки, которые работали в наших сетях в 60 герц и соответственно мерцали. Вы же не будете утверждать что глаз не видит больше 60 кадров?
Что за статьи? Кем проводились? Что исследовали? Как исследовали?
Было ли это появление точки на мониторе или лампочка мигала красным.
Учитывая то что "тестировал" свой монитор на самых разных знакомых и они замечали разницу движения курсора по рабочему столу на 144 и 240 герц явно показывая где "плавнее", при всём уважении к исследователям и вам, я склонен верить себе.
Прощу прощения, но здесь это вовсе выглядит как какие-то фантазии.
Какие пилоты? Пилоты истребителей? Пилоты формулы-1? Есть какие-то конкретные исследования, перцентили? Почему именно 300? Сколько лет опыта необходимо для этого и до какого возраста это работает?
Не понимаю как это связано. Значит ли это что мы должно ориентироваться на частоту воспринимаемую прямым зрением? Или это аргумент за ещё большее количество кадров чтобы картинка хорошо воспринималась и периферийным зрением?
Проблема / преимущество монитора в том что он не знает куда смотрит пользователь.
Это для VR делают "Фовеатную отрисовку" (Foveated rendering) - которая может отрисовывать разные части кадра с разным разрешением, но для монитора, как мне кажется, нужно ориентироваться на худший исход: не стоит делать приложения с расчётом на то, что пользователь будет всегда смотреть в центр.
Поэтому этот аргумент воспринимаю как "прямым зрением ты видишь 240 герц, значит для периферийного нужно 360".
Можно ли сделать так что повышенная частота кадров будет незаметна или даже сделает продукт хуже - несомненно, и, во многом, ваш ответ верен: на данный момент бОльшая часть игр действительно работает с фиксированным количеством кадров, физика работает отдельно от них, интерполяция может убить исходный замысел анимации, физика использует заранее заданные параметры которые ломаются при изменении частоты её просчёта, а глаз не равнозначно восприимчив ко всем изменениям, в частности лампочки, или более радикальный пример - прерывистый свет на концертах / в клубах, когда кажется будто весь мир теперь "отрисовывается" в 1 кадр в секунду.
Но если её делать хорошо, и как мне кажется индустрия идёт в этом направлении, то получается ещё одно качественное изменение, которое заметно улучшает восприятие игры, её анимаций и геймплей.
Upd: Если вы спросите меня какая настоящая проблема того что мы все не перешли на 144 или даже 240 герцовые мониторы, то мой ответ будет что главный виновник - матрицы и их стоимости.
Купить высокогерцовый монитор сейчас очень дёшево, но у него будет TN матрица у которой очень плохая цветопередача. И это ГОРАЗДО заметнее разницы между 60 и 140 кадров в секунду. Всё: ютуб, фильмы, мультики, игры - на этом мониторе будет выглядеть хуже, что очень весомый минус.
На "хорошей" матрице за каждое увеличение частоты и разрешения нужно будет платить всё больше, а потому 140 герц с хорошей цветопередачей сейчас доступно только тем кто готов отдать 700+ евро за один лишь монитор.
Даже не тренированный глаз хорошо отличается разницу между 144 гц и 240 гц, если их поставить рядом друг с другом / включить друг за другом, например через изменение частоты обновления рабочего стола в виндовс. Проверил на своих знакомых используя 240 гц 27" монитор.
Лично я за год его использования замечал изменение частоты обновления экрана даже когда после обновления видеодрайвера на следующий день настройка изменилась с 240гц до 144гц, т.е. проведя за 240гц продолжительное время, можно заметить разницу с 144гц даже после сна.
В целом, частота обновления экрана эмоционально можно описать что "как увидишь - неразвидешь" - сказать какая точная герцовка - не сможешь, но будешь чувствовать когда "мало".
Есть ли "убывающая выгода" (Diminishing Returns) от бОльших частот обновления монитора? Однозначно! Но мне кажется что до 1000 гц они всё ещё будут заметны, пускай это и будет меньше бросаться в глаза.
Зачем 500гц мониторы для киберспорта?
Во-первых - больше герцовка, меньше задержка. 144 герц дают 6.94 мс задержки, 240 герц дают 4.17 мс задержки, 480 гц => 2.08 мс.
Для обычного пользователя это "чуть-чуть более плавные анимации" для киберспортсменов с 200 мс реакцией даже прыжок от 240 гц до 480 гц это 1% преимущества.
Если 1% преимущества кажется незначительным, то можно погрузиться глубже:
На монитор отправляются только готовые кадры и "готовятся" они неравномерно: иногда больше иногда меньше и тут несколько ситуаций:
1) частота > фпс: повышение герцовки (почти) не даёт преимуществ
2) частота = фпс: повышение герцовки даёт премущество оговоренное выше (1% для 480 против 240)
3) частота < фпс: всё сложно, но грубо говоря повышение герцовки значительнее повышает преимущство.
Последнее связано с "рассинхронизацией" кадров между кадрами срендеренными игрой и кадрами, отображаемыми на мониторе. Попробую показать на вот этом графике:
Красное - кадры срендеренные игрой в 720 фпс, синее - обновление экрана с частотой в 480 герц.
Точки - когда кадр готов в игре и когда монитор готов его коазать.
Считая что первый кадр "попал", следующий имеет дополнительную задержку (2.08333 - 1.38889 = 0.69444 мс), а следующий за ним: 4.16667 - 2.77778 = 1.38889 мс, и это только из-за несоответствия частоты кадров и обновления экрана, задержка от монитора суммируется к ней, таким образом в этих условиях мы уже получаем что 2.08мс задержки превратились в почти 3.5, а следовательно почти 1.5% "преимущества" для игроков с реакцией в 200 мс.
Нет, это как раз только для нового.
Неоднократно отмечал для себя что смеяться над datahoarder'ами - плохо.
Потому что сначала ты смеёшься над ними мол: "хаха большие корпорации не дадут пропасть своему контенту" а потом Nintendo выкладывает сборник классических игр из пиратских ROM'ов, другие компании говорят что исходники потеряны и т.д.
И в какой-то момент ты хочешь найти передачу из детства, милую твоему сердцу, а она уже на торрентах Ютубе залита этим же человеком.
В браузерах есть настройка чтобы он открывался с вкладками, с которыми он был закрыт.
А если вы этого не хотите в большинстве случаев, но именно сейчас вам это надо, то для этого есть отдельная кнопка: Restore Previous Session.
Но, имхо, очевидно что это решения для проблемы которой не должно быть. Майкрософт не должен за меня решать когда/если мой компьютер будет перезагружен.