моя позиция вполне консистентна с точки зрения вопроса "зачем платить за то, что не приближает к цели?"
Кстати, нет. Для таких задач подходит только ассемблер, возможно, в виде инлайн-вставок либо в лучшем случае интринсиков, но и там появляются особенности с аллокацией регистров, с тем, что не все интринсики мапятся в инструкции, и так далее.
На определенном уровне можно позволить себе писать плюсовый код, оценивая его качество по ASM-выхлопу компилятора и бенчмаркам, не углубляясь в написание на ASM.
а зачем тогда вообще языки с gc, если считать такты они не предназначены, а дополнительная надежность обеспечивается за счет рантайм проверок, которые на тех же плюсах можно делать в режиме прогона тестов под анализаторами, а не в релизе? Вся цель же в том и состоит, чтобы решать проблемы во время компиляции
Угу, потом окажется, что не с того комменты вы считали, вас в это ткнёшь, а вы опять начнёте рассказывать, что вам можно, вы ж считать и читать не умеете, у вас эпл есть
ровно десятый, лол. Помочь пересчитать по пальцам?
Или как я заявил, что без экрана можно за полцены взять сравнимый — а вы потребовали с таким же экраном).
так может тогда сразу вообще без экрана брать, если он не играет роли? И без батарейки, ведь автономность тоже не нужна? И тачпад можно оторвать, ведь им же всё равно никто не пользуется если есть мышка? Ну и сравнивайте тогда свои "аналогичные" ноуты с макмини, раз всё это не важно.
А хотите насладиться своими же выделениями, давайте ткну вас в них еще раз, с чего начался спор:
Фактически речь ИЗНАЧАЛЬНО шла об одних ноутах, а вы начали усираться доказывать что какие-то совершенно другие ноуты с кучей компромиссов дешевле. Потом стали заявлять про какие-то волшебные 19 часов работы у йоги, которые оказались 11 часами в режиме низкой нагрузки (в том, где у MBA - 16) - "вы не понимаете, это другое, это ведь не в два раза а чуть меньше чем вдвое"?
А я как утверждал что сравнивать надо с сопоставимыми ноутами, так и утверждаю.
Как отворачиваетесь от того, что когда цена на эпл не устроила, то начали подменять и выдавать за аналог эпловский ноут с хуже параметрами.
Здесь то? Очнитесь, это было после того, как вы начали за "аналог" выдавать fullHD ноут. Причем я же даже признал что в остальном модель-то норм, но нас изначально интересовал "Лёгкий и в тонком корпусе желательно. Ну и с качественным экраном, и звуком."
У вас странные эротические фантазии, зачем их на остальных выплескивать
риторика уровня 5 класса, ей богу, пора бы повзрослеть.
А вы продолжаете упорно писать чушь, игнорируя даже свои же изыскания?
контекст то этих высказываний разный был, но чего там, это же сложно очень, следить за спором. Зачем, если можно каждое слово выдрать из контекста (сколько я там раз за это предъявлял?), переврать, и выдать это за слова оппонента. 7/11 было про режим "офисной работы", а пара часов - про более-менее интенсивную нагрузку.
Сказал человек, который артикул не смог в гугле поискать?
Характеристики я вам выложил без ссылок, когда вы заявили, что у данного ноута леново только фулшд, я вам дал конкретный артикул, но вы не смогли вбить его в гугл и подтвердить, что 2,5к экран из указанных мною характеристик — присутствовал.
Во-первых, вы даже артикул привели спустя 10 комментариев. Во-вторых, я не собирался и не собираюсь выискивать какую-то херню по заказу. "Есть ссылка на страницу с характеристиками и ценником" = "есть пруф". Если нет - следуйте сами в свои пешие романтические.
Оказалось, что девайсы и весят полтора, и работают не пару часов.
не пару, да, сколько там было, целых 4? Ах, погодите, 2-4 это же "пара"
Если приложение загружает SSD, то суммарное тепловыделение SOC увеличивается. Используется Neural Engine или декодер - еще увеличится. Ну и сюда также нужно добавить и память. В итоге мы можем получить в пике не 90, а больше 100-105 Вт.
А если на корпус проца коротнуть сеть, то там все 100500 Вт будут потребляться... Не, серьезно, где вы в реальной жизни возьмете нагрузку, под которой будет под 100% утилизация CPU, GPU, всех ускорителей и I/O? Особенно учитывая что с общей памятью в GPU-интенсивных задачах CPU не будет буферы туда-обратно копировать.
Я уже должен и скрины с видосиков сохранять, чтоб человек, который в прошлый раз в математику и свои же чиселки не смог, как признать, что вся произнесённая им фраза была полностью ложной, смог на них посмотреть и удостовериться, что все процы в обработке видео стояли и курили, пока на топовой мобильной нвидии рендеринг раз в 5-10 быстрее процесс закончился?
опять пошло - "я никому ничего не должен доказывать, я из головы беру а вы на слово верьте", ага.
Ещё раз, вопрос стоял в том, на сколько десятков минут при упоре педали в пол ноут от эпла проработает дольше.
"сколько проработает при упоре педали" - полезный бенчмарк, ага, ну. Не "сколько посчитает на одном заряде", а "сколько проработает", и пофиг что впустую. Маки то не сбрасывают частоты, в отличие от AMD/nvidia. Лучше замерьте "сколько посчитает" на одном заряде. Утверждаю, что m1pro/max насчитает в примерно 3-4 раза больше конкурентов.
Неа, это вы усирались доказывать, что приставка + подписка за три года стоит дороже аналогичного системника от эпл
нет, я пытался доказать, буквально, что макмини за $700 не стоит, буквально, "как две коробки", за $500 каждая. Всё остальное - ваша чрезмерно вольная фантазия при интерпретации моих аргументов. Забавно даже, что числа 5 и 7 (ибо 7/5 вместо "вдвое") проросли сквозь деменцию, хоть и в новой инкарнации.
сами показали, что время работы оного ноута по тестам было выше заявленных вами
там как было 7 часов против 11 так и осталось
имея артикул не смогли забить в гугле оный и получить подтверждения
ложь, артикула не было, был "ну вон там какой-то леново" и попытка отбрехаться битой ссылкой
Эм, сколько по времени должен работать процессор эпл, чтоб выполнить туже работу, сравнимую с интел + нвидиа?
столько же. Они же мощность M1 нарастили в 2/4 раза, вполне хватат посоревноваться с дискретками
Не помню, тесты рендерингов показывали вроде, что эплы m1 не сильно быстрее работали, чем обычные процы, на фоне видиков просто стояли и курили
опять божественная аргументация уровня "если я не ошибаюсь то где-то там что-то было что подкрепляет мою точку зрения"
Только за счёт видика, который будет жрать столько же, сколько у других (чудес не бывает) — производительность может сравняться, но подровняется и потребление
у вас что-то с восприятием информации странное. Как m1pro сравняется с условной 3080 laptop по энергопотреблению, если первый не может потреблять больше условных 90 Вт (см. ниже), а второй будет работать на 160, плюс еще intel на 45? Вы не понимаете что энергоэффективность apple silicon выше чем у конкурентов, или то, что "выше энергоэффективность" значит "тот же объем работы с меньшим потреблением"?
Напомню, так, для истории, что вы в прошлый раз усирались доказывать как apple не смогут нарастить M1 вдвое, и че-то-там насчитывали что чипы должны получиться по цене epyc'ов. А в реальности apple нарастили CPU вдвое и графику вчетверо, и вложились в цену прошлого поколения.
160W - это потребление мобильной GeForce RTX 3080 в ноутбуке MSI, с которым они сравнивали M1 Max.
да, действительно, там немного странная формулировка. Видимо пытались выделиться не на фоне "какого-то там" ноутбука, а rtx3080. Имо лучше бы привели суммарное потребление для GPU-интенсивной задачи. Получилось бы ~80 Вт против ~200, и можно было бы назвать дельту не в 100 а в 120 Вт.
Можно пойти и другим путем. У оригинального М1 GPU потребляет до 15W. В M1 Max он в 4 раза больше. 4*15 = 60W. Именно эту цифру мы и видим на слайде. Все сходится.
ну это всё если чипы масштабируются линейно, но на практике это ведь не так. Хотя мб они этого и добились, за счет unified memory с полосой 200/400 Gb/s
Максимальное потребление M1 Max = 60 + 30 = 90W + потребление памяти и других контроллеров.
Многие бенчмарки, включая Cinebench и Geekbench длятся больше чем 28 секунд
но меньше 10 минут.
Это особенно хорошо видно на примере MacBook Air.
ну это видно только на примере MBA, только из-за пассивного охлаждения, да и там время на прогрев не 30 секунд, а порядка 7-10 минут при полной загрузке CPU. На M1 устройствах с активным охлаждением такого эффекта в принципе нет.
Собственно, на графиках Apple вы сможете их тоже найти указанные значения мощностей. На графике, который вы привели, вверху указано что это для GPU и цифра в 60W. Это ровно то, о чем я говорю.
они там приводили "GPU performance / total system power". И 160W конкурента тоже суммарные.
Ну и не просто так модификации с M1 Max комплектуются блоками питания на 98 и 140W.
ну 140W там скорее для быстрой зарядки, а не потому, что ноут потребляет 100+W. В конце концов ограничения системы охлаждения никто не отменял (и уж тем более apple лол).
но результаты бенчей 11900h получены в том "штатном" режиме разгона, где проц с 45W TDP работает на 65+ ваттах. Когда в бой вступает видюха, умный механизм распределения энергии современных ноутбуков (забыл какое там коммерческое название у технологии) ограничивает потребление проца, чтобы уложиться в суммарный пакет порядка 100W (зависит от системы охлаждения ноута). Соответственно проц в этом режиме опять не выдает циферки из заветных бенчмарков.
Если процессор кушает 30-40 Вт, видеокарта 60
M1pro/max кушают до 30W в режиме полной загрузки CPU, а CPU+GPU m1pro ограничены 60W. Это есть на графиках из презентации apple, они в этом году даже шкалу обозначили.
То есть вы в оценках и там и там раза в полтора ошиблись, лол.
Если сравнить с мобильным Intel 11900H, то результаты сопоставимы, разрыв около 5/15% в Geekbench для ST/MT. Это при том, что через 2 месяца выходят новые мобильные Alder Lake с +20% IPC и 6+8 ядрами.
это если опираться на самый лучший результат для 11900H. Судя по листингу, средняя система с ним выдает 1630/9200, т.е. разница с M1pro 10/25%. Посмотрим конечно, но одно могу сказать наверняка: в последнее время обещания маркетологов apple сбываются куда лучше, чем у intel.
да не только apple. Если вы зайдете на странички dell xps, lenovo x1 или других конкурентов в этой категории вы увидите примерно такие же наценки на апгрейд оперативки/диска. Просто у конкурентов обычно предложения заканчиваются на 2 TB, а не 8.
А зачем? Сейчас интел альдер лейки сделает, амд на 5нм перейдет и испарится преимущество эпл
ну alder lake всё еще на intel 7 (ранее известный как 10 нм). Что до AMD - ну представят они 5нм проц, к лету ноутбуки с ним будут на полках магазинов, а осенью выйдет следующее поколение макбуков с 3нм процами.
Какая-то очередная супер шаблонная статья про Rust:
Шаг 1: заходим сразу с террора. Рассказываем о том, к каким страшным последствиям могут привести ошибки памяти. На одном-двух абстрактных примерах, никакой конкретики. Забываем упомянуть про степень готовности языка для разработки критически важных систем.
Шаг 2: ссылаемся на исследование майкрософтом своей легаси кодобазы, написанной преимущественно на си и доисторическом стандарте плюсов.
Шаг 3: пишем какой rust быстрый и безопасный. Быстрый в сравнении с языками с GC и автоматическим управлением, безопасный относительно языков с ручным. Далее нечетные шаги пропускаются, т.к. они лишь повторяют этот пункт
Шаг 4: Два предложения про сабж статьи
Шаг 6*: Пишем какой с++ плохой, ведь управлять памятью надо вручную. Про последние 10 лет развития плюсов не упоминаем, несмотря на то, что расту официально всего 6.
Шаг 8-14: цитируем тщательно избранных апологетов. Можно миксануть мнение кого-то авторитетного, в этом случае - Линуса Торвальдса, который говорит не торопиться с растом
Шаг 16: рассуждаем о том, как хочется всё переписать, и как после переписывания на раст в программах точно не останется прям ни единого бага, и как много надо переписывать, и поэтому надо начинать сразу с самых корневых модулей.
Шаг 18-22: повторяем 8-14
Шаг 24: ловим кучу плюсиков от любителей раста, написавших на нем не более helloworld
Шаг 25: отключаем уведомления чтобы проигнорировать 1000+ комментов срача
на этом рендере часть меню сверху, а часть снизу, что лишено смысла. Если уж и засовывать меню вверх, то полностью. Смысл "челки" ведь не в том, чтобы сделать выступ посреди верхней части экрана, а в том, чтобы использовать пространство справа и слева от неё (которое иначе бы даже не было экраном)
Ну это прям совсем вырвано из контекста. Его аргумент про другое - Линус считает что мейнтейнерам нельзя допускать регрессии, прикрываясь стандартом чтобы переложить вину на разработчиков прикладного кода. Даже если прикладной код - позже печально известный своей багованностью flash player. Но попробуй в код Линуса занести что-то не соответствующее стандарту и он отправит тебя в путешествие ничуть не ближе.
моя позиция вполне консистентна с точки зрения вопроса "зачем платить за то, что не приближает к цели?"
На определенном уровне можно позволить себе писать плюсовый код, оценивая его качество по ASM-выхлопу компилятора и бенчмаркам, не углубляясь в написание на ASM.
а зачем тогда вообще языки с gc, если считать такты они не предназначены, а дополнительная надежность обеспечивается за счет рантайм проверок, которые на тех же плюсах можно делать в режиме прогона тестов под анализаторами, а не в релизе? Вся цель же в том и состоит, чтобы решать проблемы во время компиляции
ровно десятый, лол. Помочь пересчитать по пальцам?
так может тогда сразу вообще без экрана брать, если он не играет роли? И без батарейки, ведь автономность тоже не нужна? И тачпад можно оторвать, ведь им же всё равно никто не пользуется если есть мышка? Ну и сравнивайте тогда свои "аналогичные" ноуты с макмини, раз всё это не важно.
А хотите насладиться своими же выделениями, давайте ткну вас в них еще раз, с чего начался спор:
Roman_Cherkasov написал:
"Если уж на то пошло, покажите и вы мне тогда ноутбук с хотя бы i5 11 поколения и картой уровня 1050 с полностью пассивным охлаждением. Лёгкий и в тонком корпусе желательно. Ну и с качественным экраном, и звуком."
На что вы ответили:
"Остаётся только отличный экран за ценник x2 к машинкам с схожими прочими параметрами под линуксом/виндой"
Фактически речь ИЗНАЧАЛЬНО шла об одних ноутах, а вы начали усираться доказывать что какие-то совершенно другие ноуты с кучей компромиссов дешевле. Потом стали заявлять про какие-то волшебные 19 часов работы у йоги, которые оказались 11 часами в режиме низкой нагрузки (в том, где у MBA - 16) - "вы не понимаете, это другое, это ведь не в два раза а чуть меньше чем вдвое"?
А я как утверждал что сравнивать надо с сопоставимыми ноутами, так и утверждаю.
Здесь то? Очнитесь, это было после того, как вы начали за "аналог" выдавать fullHD ноут. Причем я же даже признал что в остальном модель-то норм, но нас изначально интересовал "Лёгкий и в тонком корпусе желательно. Ну и с качественным экраном, и звуком."
пересчитайте
риторика уровня 5 класса, ей богу, пора бы повзрослеть.
контекст то этих высказываний разный был, но чего там, это же сложно очень, следить за спором. Зачем, если можно каждое слово выдрать из контекста (сколько я там раз за это предъявлял?), переврать, и выдать это за слова оппонента. 7/11 было про режим "офисной работы", а пара часов - про более-менее интенсивную нагрузку.
Во-первых, вы даже артикул привели спустя 10 комментариев. Во-вторых, я не собирался и не собираюсь выискивать какую-то херню по заказу. "Есть ссылка на страницу с характеристиками и ценником" = "есть пруф". Если нет - следуйте сами в свои пешие романтические.
не пару, да, сколько там было, целых 4? Ах, погодите, 2-4 это же "пара"
А если на корпус проца коротнуть сеть, то там все 100500 Вт будут потребляться... Не, серьезно, где вы в реальной жизни возьмете нагрузку, под которой будет под 100% утилизация CPU, GPU, всех ускорителей и I/O? Особенно учитывая что с общей памятью в GPU-интенсивных задачах CPU не будет буферы туда-обратно копировать.
опять пошло - "я никому ничего не должен доказывать, я из головы беру а вы на слово верьте", ага.
"сколько проработает при упоре педали" - полезный бенчмарк, ага, ну. Не "сколько посчитает на одном заряде", а "сколько проработает", и пофиг что впустую. Маки то не сбрасывают частоты, в отличие от AMD/nvidia. Лучше замерьте "сколько посчитает" на одном заряде. Утверждаю, что m1pro/max насчитает в примерно 3-4 раза больше конкурентов.
нет, я пытался доказать, буквально, что макмини за $700 не стоит, буквально, "как две коробки", за $500 каждая. Всё остальное - ваша чрезмерно вольная фантазия при интерпретации моих аргументов. Забавно даже, что числа 5 и 7 (ибо 7/5 вместо "вдвое") проросли сквозь деменцию, хоть и в новой инкарнации.
там как было 7 часов против 11 так и осталось
ложь, артикула не было, был "ну вон там какой-то леново" и попытка отбрехаться битой ссылкой
столько же. Они же мощность M1 нарастили в 2/4 раза, вполне хватат посоревноваться с дискретками
опять божественная аргументация уровня "если я не ошибаюсь то где-то там что-то было что подкрепляет мою точку зрения"
у вас что-то с восприятием информации странное. Как m1pro сравняется с условной 3080 laptop по энергопотреблению, если первый не может потреблять больше условных 90 Вт (см. ниже), а второй будет работать на 160, плюс еще intel на 45? Вы не понимаете что энергоэффективность apple silicon выше чем у конкурентов, или то, что "выше энергоэффективность" значит "тот же объем работы с меньшим потреблением"?
Напомню, так, для истории, что вы в прошлый раз усирались доказывать как apple не смогут нарастить M1 вдвое, и че-то-там насчитывали что чипы должны получиться по цене epyc'ов. А в реальности apple нарастили CPU вдвое и графику вчетверо, и вложились в цену прошлого поколения.
да, действительно, там немного странная формулировка. Видимо пытались выделиться не на фоне "какого-то там" ноутбука, а rtx3080. Имо лучше бы привели суммарное потребление для GPU-интенсивной задачи. Получилось бы ~80 Вт против ~200, и можно было бы назвать дельту не в 100 а в 120 Вт.
ну это всё если чипы масштабируются линейно, но на практике это ведь не так. Хотя мб они этого и добились, за счет unified memory с полосой 200/400 Gb/s
так там память и контроллеры встроены же.
но меньше 10 минут.
ну это видно только на примере MBA, только из-за пассивного охлаждения, да и там время на прогрев не 30 секунд, а порядка 7-10 минут при полной загрузке CPU. На M1 устройствах с активным охлаждением такого эффекта в принципе нет.
они там приводили "GPU performance / total system power". И 160W конкурента тоже суммарные.
ну 140W там скорее для быстрой зарядки, а не потому, что ноут потребляет 100+W. В конце концов ограничения системы охлаждения никто не отменял (и уж тем более apple лол).
но результаты бенчей 11900h получены в том "штатном" режиме разгона, где проц с 45W TDP работает на 65+ ваттах. Когда в бой вступает видюха, умный механизм распределения энергии современных ноутбуков (забыл какое там коммерческое название у технологии) ограничивает потребление проца, чтобы уложиться в суммарный пакет порядка 100W (зависит от системы охлаждения ноута). Соответственно проц в этом режиме опять не выдает циферки из заветных бенчмарков.
M1pro/max кушают до 30W в режиме полной загрузки CPU, а CPU+GPU m1pro ограничены 60W. Это есть на графиках из презентации apple, они в этом году даже шкалу обозначили.
То есть вы в оценках и там и там раза в полтора ошиблись, лол.
это если опираться на самый лучший результат для 11900H. Судя по листингу, средняя система с ним выдает 1630/9200, т.е. разница с M1pro 10/25%. Посмотрим конечно, но одно могу сказать наверняка: в последнее время обещания маркетологов apple сбываются куда лучше, чем у intel.
да не только apple. Если вы зайдете на странички dell xps, lenovo x1 или других конкурентов в этой категории вы увидите примерно такие же наценки на апгрейд оперативки/диска. Просто у конкурентов обычно предложения заканчиваются на 2 TB, а не 8.
ну alder lake всё еще на intel 7 (ранее известный как 10 нм). Что до AMD - ну представят они 5нм проц, к лету ноутбуки с ним будут на полках магазинов, а осенью выйдет следующее поколение макбуков с 3нм процами.
за скорость чтения в 7.4 ГБ/с. У самсунговского то порядка 570 МБ/с (я же в ту модель ткнул?). Сейчас посмотрел - сравнимый по скорости SSD стоит по $1000 за 4 ТБ, так что эппловые 8 ТБ за $2200 (плюс НДС) не кажутся чем-то запредельным.
Какая-то очередная супер шаблонная статья про Rust:
Шаг 1: заходим сразу с террора. Рассказываем о том, к каким страшным последствиям могут привести ошибки памяти. На одном-двух абстрактных примерах, никакой конкретики. Забываем упомянуть про степень готовности языка для разработки критически важных систем.
Шаг 2: ссылаемся на исследование майкрософтом своей легаси кодобазы, написанной преимущественно на си и доисторическом стандарте плюсов.
Шаг 3: пишем какой rust быстрый и безопасный. Быстрый в сравнении с языками с GC и автоматическим управлением, безопасный относительно языков с ручным. Далее нечетные шаги пропускаются, т.к. они лишь повторяют этот пункт
Шаг 4: Два предложения про сабж статьи
Шаг 6*: Пишем какой с++ плохой, ведь управлять памятью надо вручную. Про последние 10 лет развития плюсов не упоминаем, несмотря на то, что расту официально всего 6.
Шаг 8-14: цитируем тщательно избранных апологетов. Можно миксануть мнение кого-то авторитетного, в этом случае - Линуса Торвальдса, который говорит не торопиться с растом
Шаг 16: рассуждаем о том, как хочется всё переписать, и как после переписывания на раст в программах точно не останется прям ни единого бага, и как много надо переписывать, и поэтому надо начинать сразу с самых корневых модулей.
Шаг 18-22: повторяем 8-14
Шаг 24: ловим кучу плюсиков от любителей раста, написавших на нем не более helloworld
Шаг 25: отключаем уведомления чтобы проигнорировать 1000+ комментов срача
вы так говорите словно браузер это блокнот какой-то, а не renderer+vm+sandbox сразу для нескольких языков...
на этом рендере часть меню сверху, а часть снизу, что лишено смысла. Если уж и засовывать меню вверх, то полностью. Смысл "челки" ведь не в том, чтобы сделать выступ посреди верхней части экрана, а в том, чтобы использовать пространство справа и слева от неё (которое иначе бы даже не было экраном)
чет слабо верится в утечку от китайского ноунейма за пару дней до презентации
faceid сильно толще крышки макбука
Ну это прям совсем вырвано из контекста. Его аргумент про другое - Линус считает что мейнтейнерам нельзя допускать регрессии, прикрываясь стандартом чтобы переложить вину на разработчиков прикладного кода. Даже если прикладной код - позже печально известный своей багованностью flash player. Но попробуй в код Линуса занести что-то не соответствующее стандарту и он отправит тебя в путешествие ничуть не ближе.