каждый модуль хранения данных будет способен за 30 секунд обработать более 4 млн изображений высокого разрешения
Это какой-то новый формат измерения производительности? Вообще-то 4 млн за 30 сек, это 133 тысячи кадров HD видео в секунду. Пара камер типа Phantom v1610 вполне могут их "обработать" :)
Из-за ошибки в системе вы больше не можете запускать никакие браузеры кроме edge, мы уже работаем над масштабированием решением это классной идеи проблемы.
Скорее всего просто взяли свои ожидания в перспективе 5 лет, и натянули их на "график для инвесторов", который статистически лучше всего работает. На деле, если 11 операций в 24-м пройдут успешно - очень может быть что Макс в 25-м продавит сотни операций. А если будут проблемы - то в 25-м их может быть быть меньше чем в 24-м...
Но инвесторам и народу нужен четкий план, вот они его и показывают.
Выяснили что: а) можно не нагревать саму воду, атомы у поверхности просто "отрываются" под действием света. Ускоряются ли они при этом (а следовательно нагреваются) - вопрос открытый. б) эффективность процесса гораздо выше, чем была бы, если просто нагревать воду светом (КПД этого процесса очень низкий).
Я понимаю так, что зависимость от длины волны внутри видимого диапазона ЭМ волн - не такая явная. Так что ее хоть и нашли, но уверенности, что она за пределами погрешности нет. А вот разница при частотах видимого или ИК диапазона (или как они еще воде тепло передавали?) - в несколько раз, так что там уверенность есть.
На сегодня нет технологий чтобы создать AR нормального качества с сохранением прямого фонового светового потока. Все что есть - просто складывает две картинки и ни о каком реализме речи нет - только всякие светящиеся указатели, маркеры и пр.
Понимая это, Apple, разрабатывая как раз таки AR-очки, не стали играть в компромиссы, а сделали нормальное решение с камерами и нормальным наложением.
Так что это именно AR, а VR - это альтернатива в использовании, а не ограничение.
То что их очки больше похожи на шлем - тоже ограничение современных технологий. Нормальный AR в меньший форм-фактор не запихнешь, а варианты легких очков - ограничены теми самыми маркерами и малым полем обзора, для чего встроенной в дужку батарейки хватает (и ради чего никто не будет таскаться с внешним АКБ блоком).
очевидное решение (которое почему-то никто не реализует) - тонкий провод (как у наушников) от очков к устройству (смартфону или специальному блоку питания
В смысле никто не реализует? Возможно лучшие, по тех. характеристикам, VR/AR очки, от Apple, именно так и работают...
Делал нечто подобное (только для pH), для одного зарубежного вуза.
Но поступил проще. На коробочке с тест-полосками уже есть цветовая шкала, так что полоску прижимаю к ней, чтобы не возиться с карточками. С помощью OpenCV определяю равномерные области нужного размера, и нахожу те которые выстраиваются в линию, слева от линии, посередине, ищу пиксели в заданном диапазоне цвета/яркости. Дальше усреднение, и сравнение оттенка со шкалой (яркость игнорирую).
На свежем тесте (пока не начал сохнуть и светлеть), вычисляет точнее чем я могу определить глазами. Работает с видео кадрами в реальном времени почти на любом смартфоне (приложение собрано в unity).
Если кому интересно есть видео с работой приложения
p.s. после прочтения статьи подумал, что наверное продешевил:) (5k$, за все).
Как вариант можно ввести подписку для тех кто постит, но не для тех кто читает. Тогда "использовать" - подразумевает "использовать все функции", и может помочь в борьбе с ботами.
Я не говорю, что считаю такой вариант вероятным (это было бы плохо для развития). Это просто пример, показывающий, что возможных толкований больше 1.
Принцип работы, Denoising strength меняется в зависимости выбора других параметров, и в целом он несколько сложнее. Вот тут неплохо описано с примерами.
Если упростить, то да, можно сказать, что этот параметр определяет насколько будет преобразовано исходное изображение во что-то новое. С этим я никак не спорю.
Смысл моего комментария в том, что конкретно в задаче превращения скетча в полноцветное изображения нужно использовать соответствующий инструмент. Используя для этого Denoising strength вы создаете среднее между фотографией и наброском, поэтому и получается ерунда, или фото непохожее на то что нарисовано на наброске, или недо-фото похожее на набросок, но убогое само по себе. В середине компромисс, который одинаково плох с обоих сторон.
У ControlNet есть похожий параметр - Control Weight. Но он при генерации будет делать скетч из промежуточных версий результата (похоже на фильтр выделение границ в фотошопе), и сравнивать ваш набросок с ним. Это позволяет превращать рисунок в фото (а также многое другое). Что и показано на моем примере.
Как показала практика, при значениях ниже 0.5 практически на всех моделях и при любых прочих параметрах генерации, финальное изображение максимально упрощалось и стремилось к наброску. При значениях в диапазоне от 0.5 до 0.6 чаще получались картинки в мультяшном стиле, при этом негативные промты на результат влияния почти не оказывали
Этот параметр не предназначен для работы с набросками. Вы по сути хотите не определять близость результата к наброску, а определять близость наброска полученного из результата, к вашему исходному наброску. Ровно для этой цели и создан ControlNet.
IMHO, нужно просто объявить, что все собранные деньги будут выплачиваться авторам твитов которые пользователь лайкнул за последний год (пропорционально числу лайков * число просмотров). Если пользователь не хочет выводить средства - всё ему поступившее выплачивается тем кого он выберет (если не выберет, раз в год всё выводится в благотворительный фонд).
И сделать статистику чтобы можно было каждый свой цент отследить. Конечно, спамеры попробуют выводить деньги только на свои аккаунты, но такие сетки будет гораздо легче отслеживать, особенно учитывая историю лайков/просмотров до объявления об изменениях и после.
Где то Маск говорил, что платные подписки дают очень небольшой процент прибыли, так что потери будут невелики, зато это обезоружит тех кто сомневается в искренности утверждений о защите от ботов.
Более того, такая система перераспределения денег (по сути), может в целом изменить всю экосистему донатов, если позволить закидывать больше денег в систему (когда-то я писал статью о подобной идее). Что может стать шагом на пути к мета-приложению.
Другой пример - спуститесь под землю, и вы увидите ровно три типа минералов, содержащих кобальт. Один тип минерала будет торчать с потолка пещеры, два других будут находиться на полу. Так будет на любой планете, словно это закон Вселенной.
Ну, объективно говоря, так и есть:) Минералы содержащих кобальт это пирит и кобальт-пирит, и выглядеть они будут везде одинаково, хоть на Земле хоть в другой галактике. Потому, что их внешний вид действительно обусловлен "законами Вселенной":)
Конечно, есть планеты с сильно другой температурой или составом атмосферы/почвы и там могут быть другие, минералы. Но если в игре показана условно обитаемая планета - то и условия вероятно будут похожи. Особенно под поверхностью планеты.
Т.е. я конечно не говорю, что отличий не будет, но ожидания бесконечного разнообразия космоса сильно завышено из-за воображения фантастов. В реальности не будучи специалистом разницу можно и не заметить.
Вот что касается растений - тут вопросов нет. Эволюция может идти сильно по разному и принимать самые неожиданные формы. Так что можно ожидать сюрпризов.
p.s. в обсуждаемую игру не играл, о ней конкретно ничего сказать не могу.
От патента использовать в очках телефон (что делали еще лет 10 назад), до "Microsoft и Apple внедряют бюджетные VR-очки" - настолько далеко насколько это вообще возможно.
Я бы делал так. Экран сенсорный, рядом лежит пульт. В пульте акселерометр и блютус. Если блютус теряет базу - начинает пищать (чтобы не унесли случайно). Пультом может служить мобильник в надежном корпусе, тогда на него можно стримить превью и готовые фотки.
По акселерометру пульт знает, он лежит на месте или его кто-то держит. Если пульт лежит - на экране надпись "попробуйте бла бла бла, нажмите "начать", возьмите пульт...". Человек подходит, трекер об этом знает и меняет картинку (интерактив важен). Тут чуть разные сценарии, от действий пользователя, но не суть.
Когда человек отходит - экран в режиме съемки. Большое превью. До первого кадра там же сбоку висит инструкция ("жми сюда", и фотка пульта).
Если подойти к экрану - он переключается в режим просмотра фото. Должен быть общий список и возможность увеличить, удалить ненужное.
Как "лайфхак" - можно делать снимки с более широким углом, но показывать (в живом превью и в списке) - кропнутые. Пользователь не будет знать что фото больше чем он видит, но можно дать ему возможность подвигать уже готовое фото, чтобы чуть поменять композицию. Будет выглядеть как магия)))
Дальше. Внизу кнопки "завершить" и "получить фото". По факту они делают одно и тоже, но пользователь в разных сценариях будет нажимать разное. По любой кнопке появляется экран - "куда прислать фото?". Там выбор - или сканировать qr код, или (если у него нет сканера) ввести телефон, почту, мессенджеры и пр.
QR-код, обновляется под каждого нового пользователя, содержит его уникальный ключ. При переходе - открывается его уникальная страничка на сайте проекта, где уже размещены его фотки. Он может их скачать, расшиарить, или ввести свои данные и получить на почту/мессенджер. За регистрацию можно получить бонус, скажем RAW'ы.
Ввести телефон не долго, но важно. Любой инвестор вам скажет, что нужно собирать данные для спама (и поможет решить вопросы с их хранением, а пока инвестора нет, можно не хранить).
Главное - просить ввести данные нужно уже когда фото сделаны. Потенциально, там же можно брать оплату (предупреждать, конечно, в начале), но тут вариативно.
Это какой-то новый формат измерения производительности? Вообще-то 4 млн за 30 сек, это 133 тысячи кадров HD видео в секунду. Пара камер типа Phantom v1610 вполне могут их "обработать" :)
Если бы вместо колеса наши предки пытались воссоздать во всех подробностях свои ноги - они бы до сих пор их не создали.
То что искусственные нейроны работают не так как естественные - вовсе не значит, что на их основе не может быть создан разум.
Из-за ошибки в системе вы больше не можете запускать никакие браузеры кроме edge, мы уже работаем над
масштабированиемрешением этоклассной идеипроблемы.Скорее всего просто взяли свои ожидания в перспективе 5 лет, и натянули их на "график для инвесторов", который статистически лучше всего работает. На деле, если 11 операций в 24-м пройдут успешно - очень может быть что Макс в 25-м продавит сотни операций. А если будут проблемы - то в 25-м их может быть быть меньше чем в 24-м...
Но инвесторам и народу нужен четкий план, вот они его и показывают.
Выяснили что:
а) можно не нагревать саму воду, атомы у поверхности просто "отрываются" под действием света. Ускоряются ли они при этом (а следовательно нагреваются) - вопрос открытый.
б) эффективность процесса гораздо выше, чем была бы, если просто нагревать воду светом (КПД этого процесса очень низкий).
Я понимаю так, что зависимость от длины волны внутри видимого диапазона ЭМ волн - не такая явная. Так что ее хоть и нашли, но уверенности, что она за пределами погрешности нет. А вот разница при частотах видимого или ИК диапазона (или как они еще воде тепло передавали?) - в несколько раз, так что там уверенность есть.
StableDiffusion:
Правда не с первого раза))
На сегодня нет технологий чтобы создать AR нормального качества с сохранением прямого фонового светового потока. Все что есть - просто складывает две картинки и ни о каком реализме речи нет - только всякие светящиеся указатели, маркеры и пр.
Понимая это, Apple, разрабатывая как раз таки AR-очки, не стали играть в компромиссы, а сделали нормальное решение с камерами и нормальным наложением.
Так что это именно AR, а VR - это альтернатива в использовании, а не ограничение.
То что их очки больше похожи на шлем - тоже ограничение современных технологий. Нормальный AR в меньший форм-фактор не запихнешь, а варианты легких очков - ограничены теми самыми маркерами и малым полем обзора, для чего встроенной в дужку батарейки хватает (и ради чего никто не будет таскаться с внешним АКБ блоком).
В смысле никто не реализует? Возможно лучшие, по тех. характеристикам, VR/AR очки, от Apple, именно так и работают...
Делал нечто подобное (только для pH), для одного зарубежного вуза.
Но поступил проще. На коробочке с тест-полосками уже есть цветовая шкала, так что полоску прижимаю к ней, чтобы не возиться с карточками. С помощью OpenCV определяю равномерные области нужного размера, и нахожу те которые выстраиваются в линию, слева от линии, посередине, ищу пиксели в заданном диапазоне цвета/яркости. Дальше усреднение, и сравнение оттенка со шкалой (яркость игнорирую).
На свежем тесте (пока не начал сохнуть и светлеть), вычисляет точнее чем я могу определить глазами. Работает с видео кадрами в реальном времени почти на любом смартфоне (приложение собрано в unity).
p.s. после прочтения статьи подумал, что наверное продешевил:) (5k$, за все).
Как вариант можно ввести подписку для тех кто постит, но не для тех кто читает. Тогда "использовать" - подразумевает "использовать все функции", и может помочь в борьбе с ботами.
Я не говорю, что считаю такой вариант вероятным (это было бы плохо для развития). Это просто пример, показывающий, что возможных толкований больше 1.
Принцип работы, Denoising strength меняется в зависимости выбора других параметров, и в целом он несколько сложнее. Вот тут неплохо описано с примерами.
Если упростить, то да, можно сказать, что этот параметр определяет насколько будет преобразовано исходное изображение во что-то новое. С этим я никак не спорю.
Смысл моего комментария в том, что конкретно в задаче превращения скетча в полноцветное изображения нужно использовать соответствующий инструмент. Используя для этого Denoising strength вы создаете среднее между фотографией и наброском, поэтому и получается ерунда, или фото непохожее на то что нарисовано на наброске, или недо-фото похожее на набросок, но убогое само по себе. В середине компромисс, который одинаково плох с обоих сторон.
У ControlNet есть похожий параметр - Control Weight. Но он при генерации будет делать скетч из промежуточных версий результата (похоже на фильтр выделение границ в фотошопе), и сравнивать ваш набросок с ним. Это позволяет превращать рисунок в фото (а также многое другое). Что и показано на моем примере.
Этот параметр не предназначен для работы с набросками. Вы по сути хотите не определять близость результата к наброску, а определять близость наброска полученного из результата, к вашему исходному наброску. Ровно для этой цели и создан ControlNet.
IMHO, нужно просто объявить, что все собранные деньги будут выплачиваться авторам твитов которые пользователь лайкнул за последний год (пропорционально числу лайков * число просмотров). Если пользователь не хочет выводить средства - всё ему поступившее выплачивается тем кого он выберет (если не выберет, раз в год всё выводится в благотворительный фонд).
И сделать статистику чтобы можно было каждый свой цент отследить. Конечно, спамеры попробуют выводить деньги только на свои аккаунты, но такие сетки будет гораздо легче отслеживать, особенно учитывая историю лайков/просмотров до объявления об изменениях и после.
Где то Маск говорил, что платные подписки дают очень небольшой процент прибыли, так что потери будут невелики, зато это обезоружит тех кто сомневается в искренности утверждений о защите от ботов.
Более того, такая система перераспределения денег (по сути), может в целом изменить всю экосистему донатов, если позволить закидывать больше денег в систему (когда-то я писал статью о подобной идее). Что может стать шагом на пути к мета-приложению.
Было бы здорово увидеть подобный разбор FDM популярных принтеров с двумя экструдерами.
Возможность печати растворимых поддержек очень привлекательна, но информации об этом довольно мало.
десятилетия.
Ну, объективно говоря, так и есть:) Минералы содержащих кобальт это пирит и кобальт-пирит, и выглядеть они будут везде одинаково, хоть на Земле хоть в другой галактике. Потому, что их внешний вид действительно обусловлен "законами Вселенной":)
Конечно, есть планеты с сильно другой температурой или составом атмосферы/почвы и там могут быть другие, минералы. Но если в игре показана условно обитаемая планета - то и условия вероятно будут похожи. Особенно под поверхностью планеты.
Т.е. я конечно не говорю, что отличий не будет, но ожидания бесконечного разнообразия космоса сильно завышено из-за воображения фантастов. В реальности не будучи специалистом разницу можно и не заметить.
Вот что касается растений - тут вопросов нет. Эволюция может идти сильно по разному и принимать самые неожиданные формы. Так что можно ожидать сюрпризов.
p.s. в обсуждаемую игру не играл, о ней конкретно ничего сказать не могу.
От патента использовать в очках телефон (что делали еще лет 10 назад), до "Microsoft и Apple внедряют бюджетные VR-очки" - настолько далеко насколько это вообще возможно.
Я бы делал так. Экран сенсорный, рядом лежит пульт. В пульте акселерометр и блютус. Если блютус теряет базу - начинает пищать (чтобы не унесли
случайно). Пультом может служить мобильник в надежном корпусе, тогда на него можно стримить превью и готовые фотки.По акселерометру пульт знает, он лежит на месте или его кто-то держит. Если пульт лежит - на экране надпись "попробуйте бла бла бла, нажмите "начать", возьмите пульт...". Человек подходит, трекер об этом знает и меняет картинку (интерактив важен). Тут чуть разные сценарии, от действий пользователя, но не суть.
Когда человек отходит - экран в режиме съемки. Большое превью. До первого кадра там же сбоку висит инструкция ("жми сюда", и фотка пульта).
Если подойти к экрану - он переключается в режим просмотра фото. Должен быть общий список и возможность увеличить, удалить ненужное.
Как "лайфхак" - можно делать снимки с более широким углом, но показывать (в живом превью и в списке) - кропнутые. Пользователь не будет знать что фото больше чем он видит, но можно дать ему возможность подвигать уже готовое фото, чтобы чуть поменять композицию. Будет выглядеть как магия)))
Дальше. Внизу кнопки "завершить" и "получить фото". По факту они делают одно и тоже, но пользователь в разных сценариях будет нажимать разное. По любой кнопке появляется экран - "куда прислать фото?". Там выбор - или сканировать qr код, или (если у него нет сканера) ввести телефон, почту, мессенджеры и пр.
QR-код, обновляется под каждого нового пользователя, содержит его уникальный ключ. При переходе - открывается его уникальная страничка на сайте проекта, где уже размещены его фотки. Он может их скачать, расшиарить, или ввести свои данные и получить на почту/мессенджер. За регистрацию можно получить бонус, скажем RAW'ы.
Ввести телефон не долго, но важно. Любой инвестор вам скажет, что нужно собирать данные для спама (и поможет решить вопросы с их хранением, а пока инвестора нет, можно не хранить).
Главное - просить ввести данные нужно уже когда фото сделаны. Потенциально, там же можно брать оплату (предупреждать, конечно, в начале), но тут вариативно.
Все imho