Ну вообще правда, да, это как с играми - игра кривая и бюагованная, ведь видеокарта загружена на 60%, фпс мало, а процессор всего на 40%, то есть дело не в нем.
Хотя по факту дело в нем - однопоток, и даже если игра не однопоточная, выполнение определенных вычислений, завязанных на какой то блок внутри одного ядра, может тормозить все остальные вычисления.
Так и получается что нагрузка 8%, а упор все равно в проц, и он выдает свой максимум в этой задаче
Это вы откуда эти бредни выкопали про 5%? Во первых и близко не 5, во вторых рынок постоянно отвоевывается все больше и больше, в третих в сегменте самосбора, если судить по продажам амазона/крупных магазинов электроники, AMD процы вообще от 60 до 90% рынка имеют, особенно на фоне огромных проблем у конкурента.
Ну и да, обвинять любого производителя процессоров в том что это именно из за него не встал новый патч от майков... Ну.. Что то мне подсказывает что вероятность того, что проблема в патче, а не в проце, где то 99.9.
А у вас что, операционка - это продукт сам в себе? Вы ей пользуетесь, а не играми/приложениями/другими задачами?
Нормальной нагрузка на процессор от OS - 0-1%, все, она не должна потреблять ресурсы нужные для задач.
А устаревшесть процессора определяется его производителностью в задачах, а не опять же фоновой нагрузкой от OS. Я уж молчу про отклик OS и приложений, который на нем просто ужасен, относително современного железа.
Прижечь ножом очень вряд ли, разве что царапину, и то кровь вероятнее что то уже утащила. Вот если кисть/руку оттяпать - наверное да, но это тиак себе вариант
Тест многопотока - это рендеринг какой нибудь, и там никаких шансов у m1 не было.
Архивация - быстрее однозначно, заслуга GDDR памяти распаянной приямо возле проца, со скоростями намного превосходящими DDR4/5.
А сейчас все вообще примерно так, если речь идет о ноутах, тут конечно сравнение не совсем для m3 честное - он куда меньше жрет, и на пассивном охладе, но не это ли выставлялось основным преимуществом и говорилось о конкуренции с десктопом, да и вы сравниваете с 10700K?
Так речь шла не о "равнозначной" конфигурации(как ее вообще можно подобрать, учитывая архитектурные различия, да еще и аппаратные - уровня памяти прямо в SoC), а о топовых x86 процах, где как минимум в многопотоке ничего m1 не светило в принципе, а в однопотоке ДЕСКТОПНЫМ процам м1 точно так же сливал.
У эппля получился реально достойный чип, но не настолько же.
Да не рвал он ничего, зачем вы это рпспостраняете?
Если это где и было - то во всяких тестах тиап гикбенча, который погоду на марсе показывает, если не хуже. В реальных вичислительных задачах такого не было.
Ну тут да, согласен, рокстар положили с пробором, но тоже вопрос - а в чем проблема выпускать античит так, что бы разраб мог бы сам настраивать платформы, или вообще оно само бы выбиралось, раз уже поддержка линукса таки есть?
А что тут удивительного? Это бтв самая большая проблема протона - античиты, если игра не от самой Валв и там есть античит - вероятнее всего работать она не будет. И никаких вариантов, кроме решения со стороны разраба, это пофиксить нет, а так как античиты это как правило сторонее ПО, которое разработчики покупают/арендуют, то они при всем желании повлиять на его работоспобность где то кроме Windows не могут.
Разработчики инсталяторов - конечно же основные пользователи винды, сарказм. ПКМ по пуску одинаков в этом плане с 10, которая вышла уже дохрена лет назад. А ну и еще, помимо пуска она и с другой менбшки запускается, без ввода команд, или вы и ее не знаете?
Откуда я знаю, врут они там у вас или нет? Если у вас на них нет свидетельства о поверке, то по умолчанию они врут.
Это не так работает. Получаются - врут все авторитетеные источники, нвидиа, обзоры, и так далее, но не вы, который в этой теме начал это отрицать? Нет, врете вы, пока не докажете обратного, крупным порталам в любом случае доверия больше. Это раз. Два - я не знаю чем вы там смотрели обзоры, но вот вам раз:
Скрытый текст
Один из крпнейших порталов, измерение - программно аппартаный комплекс, меряется чисто ток GPU.
Там по ссылочкам заодно и потребление можно посмотреть, замеренное аппратно проффесионалами.
Это первое, второе - какая из приведенных 6 цифр мощностей показывает мощность видеокарты? Их надо просуммировать, вычесть, умножить или как? Навскидку, первое число есть сумма второго и четвертого. Тогда что означают третье, пятое и шестое числа? Я больше чем уверен, вы не знаете.
Нет, я конечно понимаю что вы в теме совсем дуб дубом, и пытаетесь тут усиленно доказать что земля плоская, но зачем такие вопросы то задавать, если там все написано?
Первое - и есть потрбление всей видеокарты, так же потребление всей видеокарты можно узнать сложив 5 и 6 показатель, которые соотвественно означают сколько мощности отдается с Pcie слота + 12VHPWR коннектора. Второй показатель - потребление конкретно видеочипа, третий - видеопамяти, сложив их получим почти тоже самое что первый, либо что 5+6, поскольку на плате есть еще элементы которые немного жрут - почти. Четвертый - не обращать внимание, показатель больше про ноутбучные ВК, и сломан Nvidia уже как с год, и показывет погоду на марсе.
И в третьих, мне как то слабо верится что при увеличении тока потребления в 20 раз, напряжение просело всего на 0,1-0,2 В. У вас там провода сечением 10 мм²?
16AWG по стандарту минимально, 6 пар контактов, никаких проблем с таким понижением, учитывая длину проводов, которая никакая.
С сайта интел, спеки коннектора, он должен держать 9.2(9.4 на самом деле) на контакт, что равно 676вт при 12в, спеки PCI-SIG по поводу снижения напряжения:
То есть допускаетеся падение на 7% при максимальной нагрузке, и минимально допустимых по качеству провод + коннектор.
А на моем скрине что до максимальной нагрузки 100вт не хватает, что БП дорогой и новый, контакты в идеале, сечение выше стандарта, отсюда такое падение
Еще вопросы, или может прекратите отрицать реальность?
Датчики установленные внутри видеокарты, или они по вашему врут? Не, они конечно не точные в плане замеролв до десятой ватта, но тут такое и не нужно. И они отображают потребление вплоть до многих компонентов GPU - не только чипа.
Или они врут по вашему? Заговор всемирный, во всех обзорах - такое потребление, на сайте нвидиа - опять тоже самое (хотя они очень заинтересованы в рекламе энергоэффективности своих продуктов, и каждый раз это отмечают и выставляют как огромный плюс, когда потребление падает, как оно упало например в случае 3060-4060)
Опять же - достаточно просто посмотреть на ваттметр на БП, потом врубить GPU стресс тест - и вот циферка, с учетом КПД БП, и она ровно точна та же у меня, что и на датчиках, +-. И вот сколько жрет моя 4090 например
У меня БП показывает и то сколько жрет из розетки, и эффективность, так что да, измерял. Да и к чему это вообще, когда есть миллион датчиков которые это и так покажут, а так же обзоров на любой вкус, что за странные сомнения в общеизвестных цифрах?
Совсем вы от современного железа отстали. 4090, как вам и написали - 450вт, реальных, у любой нормальной модели этот лимит можно расширить до 600, обеспечив лучшие частоты, благо охлад держит даже такое. 14900K - 350вт, и даже 400, при самых серьезных вычислительных нагрузках.
Я больше скажу, у меня модули памяти жрут по 7-8вт каждый. Накиньте сверху запас - и вот вам киловатник уже обязателен, а лучше - больше.
А 1600вт - это больше все же для десктоп станций, уровня когда тебе не игровой ПК нужен, а 2 4090 запихать, а вместо 14900к у тебя тредриппер из топовых.
Либо - серьезный разгон с кастом водой, там можно и с 1 процом и видеокартой таких потреблений добиться.
Все равно что в мезозой ткнуть, сейчас уже все мовсем по другому. (И бтв вовсе не означает что стало лучше, моментов для фиксов стало сильно больше, как и для улучшения работы той же апмяти - разгоанный потенциал один их тех же планок может с релиза на одной и той же материнке вырасти чуть ли не в полтора раза за счет одних обновлений биоса)
Как по мне зубоскалят скорее не из за того что мол вон как там тоже плохо, а на очень распространенные тейки о том, что вот там точно бы такого не было.
Дуров тур просто ну очень показательный, что бы зубоскалить, всегда был примером отжима бизнеса и попыток цензуры(выдача инфы в ВК, попытка блокировки ТГ) в рф, часто приводился как пример и довод того что надо валить, туда где такого нет, а оказывается есть.
И зубоскалят именно на счёт таких утверждений и веры в светлый Валинор.
В случае тг нет никаких конкретных машин, силовики хотят просто получить доступ ко всей переписке/к переписке по запросу, что опять же равно всей, по сути.
Особенно если брать шифрованные чаты.
И да, именно так и нормально, ты оказываешь услугу пересылки анонимных сообщений, и все к о хотят получить к ним доступ - должны идти лесом, и признаваться полицейским государством. Боитесь наркотиков/преступников - ловите их другими методами, а на нарушением анонимности.
Не нравится что то - блокируйте положение, а не создателя арестовывайте. Вам там граждане как раз расскажут, где вы были не правы, за такое, и они это понимают, поэтому и пользуются методами преступников
Ну вообще правда, да, это как с играми - игра кривая и бюагованная, ведь видеокарта загружена на 60%, фпс мало, а процессор всего на 40%, то есть дело не в нем.
Хотя по факту дело в нем - однопоток, и даже если игра не однопоточная, выполнение определенных вычислений, завязанных на какой то блок внутри одного ядра, может тормозить все остальные вычисления.
Так и получается что нагрузка 8%, а упор все равно в проц, и он выдает свой максимум в этой задаче
Это вы откуда эти бредни выкопали про 5%?
Во первых и близко не 5, во вторых рынок постоянно отвоевывается все больше и больше, в третих в сегменте самосбора, если судить по продажам амазона/крупных магазинов электроники, AMD процы вообще от 60 до 90% рынка имеют, особенно на фоне огромных проблем у конкурента.
Ну и да, обвинять любого производителя процессоров в том что это именно из за него не встал новый патч от майков... Ну.. Что то мне подсказывает что вероятность того, что проблема в патче, а не в проце, где то 99.9.
А у вас что, операционка - это продукт сам в себе? Вы ей пользуетесь, а не играми/приложениями/другими задачами?
Нормальной нагрузка на процессор от OS - 0-1%, все, она не должна потреблять ресурсы нужные для задач.
А устаревшесть процессора определяется его производителностью в задачах, а не опять же фоновой нагрузкой от OS.
Я уж молчу про отклик OS и приложений, который на нем просто ужасен, относително современного железа.
Как можно не признавать факты? Это как не признавать времена года, существование солнца, и то что земля круглая. Ах да...
Прижечь ножом очень вряд ли, разве что царапину, и то кровь вероятнее что то уже утащила.
Вот если кисть/руку оттяпать - наверное да, но это тиак себе вариант
Сборка проекта - это так себе тест многопотока.
Тест многопотока - это рендеринг какой нибудь, и там никаких шансов у m1 не было.
Архивация - быстрее однозначно, заслуга GDDR памяти распаянной приямо возле проца, со скоростями намного превосходящими DDR4/5.
А сейчас все вообще примерно так, если речь идет о ноутах, тут конечно сравнение не совсем для m3 честное - он куда меньше жрет, и на пассивном охладе, но не это ли выставлялось основным преимуществом и говорилось о конкуренции с десктопом, да и вы сравниваете с 10700K?
Так речь шла не о "равнозначной" конфигурации(как ее вообще можно подобрать, учитывая архитектурные различия, да еще и аппаратные - уровня памяти прямо в SoC), а о топовых x86 процах, где как минимум в многопотоке ничего m1 не светило в принципе, а в однопотоке ДЕСКТОПНЫМ процам м1 точно так же сливал.
У эппля получился реально достойный чип, но не настолько же.
Да не рвал он ничего, зачем вы это рпспостраняете?
Если это где и было - то во всяких тестах тиап гикбенча, который погоду на марсе показывает, если не хуже.
В реальных вичислительных задачах такого не было.
Ох уж эти флагманские ноутбуки.
Это не Эппл, даже при реальном приросте производительности и энергоэффектиновсти остается вопрос производителности, а пока и прироста ни в чем нет.
А про серверы - только если вам подходят каличные сервера со слабыми ядрами, а это далеко не все типы нагрузок.
Ну тут да, согласен, рокстар положили с пробором, но тоже вопрос - а в чем проблема выпускать античит так, что бы разраб мог бы сам настраивать платформы, или вообще оно само бы выбиралось, раз уже поддержка линукса таки есть?
А что тут удивительного? Это бтв самая большая проблема протона - античиты, если игра не от самой Валв и там есть античит - вероятнее всего работать она не будет.
И никаких вариантов, кроме решения со стороны разраба, это пофиксить нет, а так как античиты это как правило сторонее ПО, которое разработчики покупают/арендуют, то они при всем желании повлиять на его работоспобность где то кроме Windows не могут.
И зачем это тупое вранье? Скорость запуска винды от этого никак не зависит, пол часа она не запускается, чистить реестр не нужно.
Разработчики инсталяторов - конечно же основные пользователи винды, сарказм.
ПКМ по пуску одинаков в этом плане с 10, которая вышла уже дохрена лет назад.
А ну и еще, помимо пуска она и с другой менбшки запускается, без ввода команд, или вы и ее не знаете?
Это не так работает.
Получаются - врут все авторитетеные источники, нвидиа, обзоры, и так далее, но не вы, который в этой теме начал это отрицать?
Нет, врете вы, пока не докажете обратного, крупным порталам в любом случае доверия больше.
Это раз.
Два - я не знаю чем вы там смотрели обзоры, но вот вам раз:
Скрытый текст
https://www.techpowerup.com/review/msi-geforce-rtx-4090-gaming-x-trio/37.html
Два:
Скрытый текст
https://www.tomshardware.com/reviews/nvidia-geforce-rtx-4090-review/8
Там по ссылочкам заодно и потребление можно посмотреть, замеренное аппратно проффесионалами.
Нет, я конечно понимаю что вы в теме совсем дуб дубом, и пытаетесь тут усиленно доказать что земля плоская, но зачем такие вопросы то задавать, если там все написано?
Первое - и есть потрбление всей видеокарты, так же потребление всей видеокарты можно узнать сложив 5 и 6 показатель, которые соотвественно означают сколько мощности отдается с Pcie слота + 12VHPWR коннектора.
Второй показатель - потребление конкретно видеочипа, третий - видеопамяти, сложив их получим почти тоже самое что первый, либо что 5+6, поскольку на плате есть еще элементы которые немного жрут - почти.
Четвертый - не обращать внимание, показатель больше про ноутбучные ВК, и сломан Nvidia уже как с год, и показывет погоду на марсе.
16AWG по стандарту минимально, 6 пар контактов, никаких проблем с таким понижением, учитывая длину проводов, которая никакая.
С сайта интел, спеки коннектора, он должен держать 9.2(9.4 на самом деле) на контакт, что равно 676вт при 12в, спеки PCI-SIG по поводу снижения напряжения:
А на моем скрине что до максимальной нагрузки 100вт не хватает, что БП дорогой и новый, контакты в идеале, сечение выше стандарта, отсюда такое падение
Еще вопросы, или может прекратите отрицать реальность?
Датчики установленные внутри видеокарты, или они по вашему врут? Не, они конечно не точные в плане замеролв до десятой ватта, но тут такое и не нужно.
И они отображают потребление вплоть до многих компонентов GPU - не только чипа.
Или они врут по вашему? Заговор всемирный, во всех обзорах - такое потребление, на сайте нвидиа - опять тоже самое (хотя они очень заинтересованы в рекламе энергоэффективности своих продуктов, и каждый раз это отмечают и выставляют как огромный плюс, когда потребление падает, как оно упало например в случае 3060-4060)
Опять же - достаточно просто посмотреть на ваттметр на БП, потом врубить GPU стресс тест - и вот циферка, с учетом КПД БП, и она ровно точна та же у меня, что и на датчиках, +-.
И вот сколько жрет моя 4090 например
У меня БП показывает и то сколько жрет из розетки, и эффективность, так что да, измерял.
Да и к чему это вообще, когда есть миллион датчиков которые это и так покажут, а так же обзоров на любой вкус, что за странные сомнения в общеизвестных цифрах?
Совсем вы от современного железа отстали.
4090, как вам и написали - 450вт, реальных, у любой нормальной модели этот лимит можно расширить до 600, обеспечив лучшие частоты, благо охлад держит даже такое.
14900K - 350вт, и даже 400, при самых серьезных вычислительных нагрузках.
Я больше скажу, у меня модули памяти жрут по 7-8вт каждый.
Накиньте сверху запас - и вот вам киловатник уже обязателен, а лучше - больше.
А 1600вт - это больше все же для десктоп станций, уровня когда тебе не игровой ПК нужен, а 2 4090 запихать, а вместо 14900к у тебя тредриппер из топовых.
Либо - серьезный разгон с кастом водой, там можно и с 1 процом и видеокартой таких потреблений добиться.
Все равно что в мезозой ткнуть, сейчас уже все мовсем по другому.
(И бтв вовсе не означает что стало лучше, моментов для фиксов стало сильно больше, как и для улучшения работы той же апмяти - разгоанный потенциал один их тех же планок может с релиза на одной и той же материнке вырасти чуть ли не в полтора раза за счет одних обновлений биоса)
Как по мне зубоскалят скорее не из за того что мол вон как там тоже плохо, а на очень распространенные тейки о том, что вот там точно бы такого не было.
Дуров тур просто ну очень показательный, что бы зубоскалить, всегда был примером отжима бизнеса и попыток цензуры(выдача инфы в ВК, попытка блокировки ТГ) в рф, часто приводился как пример и довод того что надо валить, туда где такого нет, а оказывается есть.
И зубоскалят именно на счёт таких утверждений и веры в светлый Валинор.
Это интересно каких же конкретных машин?
В случае тг нет никаких конкретных машин, силовики хотят просто получить доступ ко всей переписке/к переписке по запросу, что опять же равно всей, по сути.
Особенно если брать шифрованные чаты.
И да, именно так и нормально, ты оказываешь услугу пересылки анонимных сообщений, и все к о хотят получить к ним доступ - должны идти лесом, и признаваться полицейским государством. Боитесь наркотиков/преступников - ловите их другими методами, а на нарушением анонимности.
Не нравится что то - блокируйте положение, а не создателя арестовывайте. Вам там граждане как раз расскажут, где вы были не правы, за такое, и они это понимают, поэтому и пользуются методами преступников