Так подключайте внешние экраны — многие таскают с собой ноут и цепляют к местным экранам. Сам сижу за тремя 55'. А если про «взять с собой» — есть уже ноуты с гибким экраном, которые по факту являются 18–20' планшетами, складываемыми пополам. А дальше будут тройные раскладушки (телефоны уже есть), растягиваемые экраны и раскладушки 2×2, и, наконец, AR.
пассивного охлаждения,
Бывает активное охлаждение, которое вообще не слышно, то есть прям совсем не слышно, даже в абсолютной тишине. Только если прям ухо плотно прислонить к вентиляционному отверстию и заткнуть второе. Фокус в том, что даже такой лёгкий обдув повышает эффективность охлаждения в разы (!). У меня был Vaio Duo 13 — в нем было такое охлаждение.
Ничего страшного, скоро наступит время когда 99% контента и комментов будет генерироваться и просматриваться (да-да) ботами, а потом время, когда вместо выхода в сеть будут чаще просто кушать генерируемый в реалтайме ии контент и общаться с ии ботами, ибо больше дофамина. А сеть станет в основном для голографическойсвязи, её функция как хранилище информации и контента будет уже далеко не так актуальна.
И вот тут возможен некий реннесанс того интернета, т.к. в нем снова будут преобладать энтузиасты. Наверное.
Один из выходов это выносить каждый блок/модуль/класс в отдельную сборку и перекомпилировать только её. Я примерно так делал в софте для подсветки. Минус в том, что оно будет жрать память большой ложкой + малая связность со всеми вытекающими.
Это ещё надо постараться железку раскочегарить на всю её мощность.
Изи. Во время игр видеокарте рвёт дно на 95–100%, еле‑еле 40–50 фпс выдаёт.
Во время работы — зависит от работы. Компилятор легко может сожрать 100% CPU и грузить минут 20. А если это 3ds max то нагрузка 100% CPU + 100% GPU встречается не часто, а очень часто. Особенно если несколько рендерингов в нескольких 3ds max одновременно запускать (в этом реально есть смысл).
Параллельная работа это почти всегда полная утилизация. Например, поставил Premiere кодировать, параллельно рендерит 3ds max, параллельно рендерит After Effects. И ты при этом пишешь код или что‑то моделируешь.
Поддержу как обладатель железки 1000+ ватт, которую, чтоб не шумела, вообще поставил в отдельное помещение. Теоретически в такой стол можно поставить обслуживаемую СЖО с двумя идущими подряд радиаторами по 4 тихих вертушки на 800 оборотов. Но это только теоретически — неизвестно, что там вылезет на практике при таких потоках тепла.
Про коврик для мышки забыл :) Ну и ещё парочка периферийных штук + маленькие колонки, но суть дела не меняет.
По ткани мышка прекрасно работает, пока играть не начнёшь. В шутерах из‑за очень быстрых движений ткань начинает заминаться и пружинить, и это очень мешает.
А следы от рук не остаются?
Остаются, но не сильно, ибо руки чистые :) Ткань — расходник, она за год протирается и под замену. Хотя сейчас у меня мысль даже ткань не класть. Шкуркой разок пройтись по доске и норм.
Я так и сделал, только без лакировки :) просто доску 1200×400 к подъёмному механизму прикрутил, сверху мягкую ткань и норм. Клавиатура помещается, мышка и телефон тоже. А больше и не надо.
Ну, по факту оно примерно так и делает, правда без промежуточного преобразования: мы просто на выходе сэмплируем входной звук с кубической/линейной выборкой по вещественному номеру сэмпла. Типа как текстуры на видеокарте сэмплируются по вещественным координатам, только в одномерном варианте.
Засада в том, что у выходного формата тоже бывает частота дискретизации, не делящаяся нацело на частоту кадров. Поэтому ошибку всё равно приходится учитывать, копить и потом что‑то с ней делать.
Я сталкивался с подобной задачей, когда делал софт обработки видео в реалтайме. В нём по всему графу текут видеоаудио кадры — картинка (один полный кадр или два полукадра) + кусок звука. Это для того, чтобы внутри софта не ловить рассинхрон ни при каких обстоятельствах — видео и звук железобетонно прикручены друг к другу.
И прикол с тем, что, например, 48 000 нацело не делится на, например, 29,9999 я осознал далеко не сразу. Решил так.
У меня была разработана штука, умеющая преобразовывать разрешение, чересстрочность, частоту кадров, форму пикселей картинки, дискретизацию, число каналов и частоту звука из произвольных величин в другие произвольные величины. Причём настройки можно менять на лету. Сделана она не для синхронизации, а просто чтобы можно было жрать потоки разных форматов и преобразовывать их в один. И выводить тоже в любых форматах
И есть у этой штуки важная настройка — скорость воспроизведения. По факту это вещественный коэффициент, на который она делит частоту выходных кадров. То есть, если у нас частота выходных кадров 30, а скорость воспроизведения 0.5, то она будет работать так, как будто частота выходных кадров 60 — то есть будет плодить доп кадры.
Промежуточные кадры строятся либо выборкой, либо через прозрачность, но по желанию туда можно вставлять свои модули с какими‑нибудь оптическими потоками.
Так вот. Она обнаруживает погрешность при остатке от деления на входных и выходных параметрах — что дискретизация звука нацело не делится на частоту кадров, и считает накопление этой ошибки. Далее в зависимости от настроек, она может:
Медленно повышать/понижать коэффциент скорости воспроизведения видео (с очень большим демпингом и инертностью)
Просто ждать пока накопится ошибка на 1 целый кадр и дропает или дублирует его, в зависимости от того, какой режим выставлен
Просто считывать несколько дополнительных сэмплов звука или наоборот, забывать их считать
В любом случае, она стремится плавно сократить ошибку погрешности до 0.
Хранит оно 1, от силы 2 предыдущих кадра, поэтом задержка потока получается минимальной.
Во‑первых есть инструменты ретопологии, во‑вторых при переходе от классических инструментов к ии инструментам топология становится не так важна.
Так подключайте внешние экраны — многие таскают с собой ноут и цепляют к местным экранам. Сам сижу за тремя 55'. А если про «взять с собой» — есть уже ноуты с гибким экраном, которые по факту являются 18–20' планшетами, складываемыми пополам. А дальше будут тройные раскладушки (телефоны уже есть), растягиваемые экраны и раскладушки 2×2, и, наконец, AR.
Бывает активное охлаждение, которое вообще не слышно, то есть прям совсем не слышно, даже в абсолютной тишине. Только если прям ухо плотно прислонить к вентиляционному отверстию и заткнуть второе. Фокус в том, что даже такой лёгкий обдув повышает эффективность охлаждения в разы (!). У меня был Vaio Duo 13 — в нем было такое охлаждение.
Ничего страшного, скоро наступит время когда 99% контента и комментов будет генерироваться и просматриваться (да-да) ботами, а потом время, когда вместо выхода в сеть будут чаще просто кушать генерируемый в реалтайме ии контент и общаться с ии ботами, ибо больше дофамина. А сеть станет в основном для
голографическойсвязи, её функция как хранилище информации и контента будет уже далеко не так актуальна.И вот тут возможен некий реннесанс того интернета, т.к. в нем снова будут преобладать энтузиасты. Наверное.
Один из выходов это выносить каждый блок/модуль/класс в отдельную сборку и перекомпилировать только её. Я примерно так делал в софте для подсветки. Минус в том, что оно будет жрать память большой ложкой + малая связность со всеми вытекающими.
Да
Раскладывем окна на рабочем столе. Чтобы сменить контекст нужно просто повернуть голову.
RTX 5090 — 575 Вт
RTX 3080Ti — 350 Вт
Ryzen 7950x — 170 Вт
Плюс всякая мелочь типа расходов материнки и SSD + не 100% кпд у блока питания
Так и набирается.
Да, так и есть. Если в фоне ничего не происходит:)
Изи. Во время игр видеокарте рвёт дно на 95–100%, еле‑еле 40–50 фпс выдаёт.
Во время работы — зависит от работы. Компилятор легко может сожрать 100% CPU и грузить минут 20. А если это 3ds max то нагрузка 100% CPU + 100% GPU встречается не часто, а очень часто. Особенно если несколько рендерингов в нескольких 3ds max одновременно запускать (в этом реально есть смысл).
Параллельная работа это почти всегда полная утилизация. Например, поставил Premiere кодировать, параллельно рендерит 3ds max, параллельно рендерит After Effects. И ты при этом пишешь код или что‑то моделируешь.
Спасибо!
Спасибо, как раз для двухксеонового старичка подыщу что‑нибудь)
Вкусно. Не подскажите как такое искать? В смысле как это называется правильно?
Поддержу как обладатель железки 1000+ ватт, которую, чтоб не шумела, вообще поставил в отдельное помещение. Теоретически в такой стол можно поставить обслуживаемую СЖО с двумя идущими подряд радиаторами по 4 тихих вертушки на 800 оборотов. Но это только теоретически — неизвестно, что там вылезет на практике при таких потоках тепла.
Про коврик для мышки забыл :) Ну и ещё парочка периферийных штук + маленькие колонки, но суть дела не меняет.
По ткани мышка прекрасно работает, пока играть не начнёшь. В шутерах из‑за очень быстрых движений ткань начинает заминаться и пружинить, и это очень мешает.
Остаются, но не сильно, ибо руки чистые :) Ткань — расходник, она за год протирается и под замену. Хотя сейчас у меня мысль даже ткань не класть. Шкуркой разок пройтись по доске и норм.
Я так и сделал, только без лакировки :) просто доску 1200×400 к подъёмному механизму прикрутил, сверху мягкую ткань и норм. Клавиатура помещается, мышка и телефон тоже. А больше и не надо.
Круто.
А как с охлаждением дела?
Да. Управляемый термоядерный синтез. Просто он жрёт энергии очень много, и пока не удаётся выйти в плюс. А так пожалуйста.
А их надёжность связана больше с тем, какие задачи ставит руководство компании, или с тем, что используется для черчения?
Ну, по факту оно примерно так и делает, правда без промежуточного преобразования: мы просто на выходе сэмплируем входной звук с кубической/линейной выборкой по вещественному номеру сэмпла. Типа как текстуры на видеокарте сэмплируются по вещественным координатам, только в одномерном варианте.
Засада в том, что у выходного формата тоже бывает частота дискретизации, не делящаяся нацело на частоту кадров. Поэтому ошибку всё равно приходится учитывать, копить и потом что‑то с ней делать.
Я сталкивался с подобной задачей, когда делал софт обработки видео в реалтайме. В нём по всему графу текут видеоаудио кадры — картинка (один полный кадр или два полукадра) + кусок звука. Это для того, чтобы внутри софта не ловить рассинхрон ни при каких обстоятельствах — видео и звук железобетонно прикручены друг к другу.
И прикол с тем, что, например, 48 000 нацело не делится на, например, 29,9999 я осознал далеко не сразу. Решил так.
У меня была разработана штука, умеющая преобразовывать разрешение, чересстрочность, частоту кадров, форму пикселей картинки, дискретизацию, число каналов и частоту звука из произвольных величин в другие произвольные величины. Причём настройки можно менять на лету. Сделана она не для синхронизации, а просто чтобы можно было жрать потоки разных форматов и преобразовывать их в один. И выводить тоже в любых форматах
И есть у этой штуки важная настройка — скорость воспроизведения. По факту это вещественный коэффициент, на который она делит частоту выходных кадров. То есть, если у нас частота выходных кадров 30, а скорость воспроизведения 0.5, то она будет работать так, как будто частота выходных кадров 60 — то есть будет плодить доп кадры.
Промежуточные кадры строятся либо выборкой, либо через прозрачность, но по желанию туда можно вставлять свои модули с какими‑нибудь оптическими потоками.
Так вот. Она обнаруживает погрешность при остатке от деления на входных и выходных параметрах — что дискретизация звука нацело не делится на частоту кадров, и считает накопление этой ошибки. Далее в зависимости от настроек, она может:
Медленно повышать/понижать коэффциент скорости воспроизведения видео (с очень большим демпингом и инертностью)
Просто ждать пока накопится ошибка на 1 целый кадр и дропает или дублирует его, в зависимости от того, какой режим выставлен
Просто считывать несколько дополнительных сэмплов звука или наоборот, забывать их считать
В любом случае, она стремится плавно сократить ошибку погрешности до 0.
Хранит оно 1, от силы 2 предыдущих кадра, поэтом задержка потока получается минимальной.
Да, как и пережатие. Двойное.