Как стать автором
Обновить

Комментарии 563

Судя по диаграмме, где 4% юзеров доставляют 50% проблем, от них (маководов) уже давно надо было отказаться, как от клиентов

… по-настоящему хорошо знаю я только Windows

Поэтому и 80% проблем с других платформ. ИМХО, автор вообще зря за мультиплатформенностью погнался при таких раскладах. Самое интересное, что, судя по графикам, с поддержкой линукса всё ещё хуже — если он откажется от макоси, то у него будет уже 60% проблем от ~2.5% пользователей покупателей.
Поэтому и 80% проблем с других платформ.

В статье приведён не его график.
О, тогда извиняюсь за невнимательность. Я вначале решил, что это статистика именно по проектам автора.
Тем временем я убедился, что Cogmind (и другое моё ПО) идеально работает через Wine и подобные ему пакеты.

Учитывая специфику игры (это рогалик) она не особо требовательна к ресурсам и нормально будет работать через эмулятор
будет работать через эмулятор

wine — Wine Is Not Emulator
Скрытый текст
An

Caves of Qud у меня, помнится, года два назад прекрасно крашился под вайном. А Tangledeep безбожно лагал. Но у них, справедливости ради, Unity под капотом. У когмайнда — самописный движок на SDL, хоть и значительно более сложный, чем просто консольное окно.

Сейчас всё гораздо лучше с играми у которых Unity под капотом.
SpaceEngine тоже нормально работает через Wine. Если видеокарта позволяет, конечно.
Только по графику красное (Windows, 20%) занимает больше четверти диаграммы, а синее (Linux, 30%) меньше четверти диаграммы.
Что-то тут не сходится
блин так дело же не в том, что клиенты плохие, а в том что игры разрабатывают под винду, а потом минимальными усилиями портируют. Замкнутый круг: все игры на винде потому что вся аудитория на винде, а аудитория на винде из-за игр

Да люди вообще прекрасные, но как клиенты- не очень. Возможно даже от них убытков больше, чем доходов.
ну и у чела нет ни бюджета, ни сил, ни компетенций разбираться с другими платформами

Linux — очень недружелюбная система для тех, кто пытается сам, без майнтейнеров, деплоить приложения. Это на винде один раз завернул — и с высокой вероятностью оно будет работать везде, от XP до 10.
А там чуть не на каждой машине свой вариант пакетного менеджера и библиотек. Да даже тупо на уровне libc вертикальной совместимости ни хрена нет в этой системе, так что и для разных версий Debian/Ubuntu нужно разные сборки делать.
Это крайне нудный монотонный труд, самая настоящая дурная работа. Причём все нововведения, которые позволят хоть немного улучшить ситуацию (вроде snap/AppImage) фанаты Linux неизменно встречают в штыки и поливают помоями.
А там чуть не на каждой машине свой вариант пакетного менеджера и библиотек. Да даже тупо на уровне libc вертикальной совместимости ни хрена нет в этой системе, так что и для разных версий Debian/Ubuntu нужно разные сборки делать.

Патамушта нужны сырцы и дистрибутивы будут сами собирать и никакого монотонного труда, а закрытому коду тут не рады.
Причём все нововведения, которые позволят хоть немного улучшить ситуацию (вроде snap/AppImage) фанаты Linux неизменно встречают в штыки и поливают помоями.

Потому что все кому не лень (а точнее все кому лень или просто почти все) будут паковать библиотеки как в венде и привет расходу ресурсов на копии одной и той-же библиотеки и уязвимостям в библиотеках которые пакетный менеджер быстро латает а ленивые задницы авторов snap/AppImage — нет.
Кто будет собирать? Юзеры? Как много даже опытных юзеров смогут собрать код современного 3D-экшна? Даже не затрагивая проблем с зависимостями, там всё банально сдохнет от нехватки памяти, потому что не с юзерскими 4Гб компилить такое.
И возвращаемся к тому, что я написал ранее: Linux малопригодна для деплоя приложений без помощи майнтейнеров.
Это фундаментальный архитектурный изъян системы. Если майнтейнеры данного дистрибутива не считают нужным вот прямо сейчас собирать игрушку, значит юзеры будут сидеть без игрушки. Или на её старой версии. И как такое поддерживать вообще? Когда под винду фикс можно выложить мгновенно, и уже через полчаса он будет у всех, а под Linux хз как и хз когда…
НЛО прилетело и опубликовало эту надпись здесь
НЛО прилетело и опубликовало эту надпись здесь

Когда речь идёт о продажах, невежество пользователей становится проблемой разработчика.

"невежество" в данном случае — неудачное слово. я — разработчик, но компилировать чужие игры, да и другое ПО, нет ни малейшего желания. со своим забот хватает. :)

неудобство пользователей — тем более ))

Для тех, кто ушел чуть дальше от пещер, склонировать репу, прочитать README.md, запустить /.config ,make и make install не составляет никакого труда.

Вот, например, я вот далеко не самый тупой пользователь. Более того, мне несколько раз приходилось читать маны и компилить софт из исходников. Сел, почитал, разобрался, повторил, получилось. Но знаете, я не хочу тратить время на это. Вообще, ни минуты. Это тупая трата времени на рутинное дело, без которого прекрасно обходились даже 35 лет назад во времена MS DOS. Программа должна ставиться установкой галочки «я согласен с лицензией» и нажатием кнопки «установить».
НЛО прилетело и опубликовало эту надпись здесь
Ну у меня было и такое. Повелся на приличную скидку, купил. Потом вчитался, и решил что ну его нафиг, этого на моем ноуте не будет.

А о каком ПО идёт речь, если не секрет? Интересно почитать, что ж там такое

Это был тот самый AdGuard для мака, о котором я уже как-то писал.
И меня больше напрягло не EULA, а privacy policy (тогда там была какая-то дичь, в еще до-GDPR время) в комбинации с тем, что этот софт делает на компе.

А я хочу, а такие как вы хотят лишить меня этой возможности. Что посоветуете?

Как раз для вас есть целый гитхаб, полный счастья. Дайте и другим людям поюзать Линукс в своё удовольствие, тем способом, который им больше нравится :)
Почему?
В идеале должна быть свобода — свобода выбора. Хочешь — ставь, хочешь — компилируй из исходников.
а все базовые пакеты так и есть в репозиториях -хочешь ставь, или качай исходники и собирай сам.
тогда вы скорее всего придя в мир GNU/Linux выберете себе какой-то популярный дистрибутив, а не что-то вроде CRUX.

мир GNU/Linux разнообразен и большинство людей «не очень в компьютерах» используют в данный момент всего два дистрибутива — Ubuntu и Fedora.

разработчики пользовательского ПО могли бы так и писать — мы поддерживаем OS Ubuntu и OS Fedora. но зачем-то пишут «поддерживаем Linux» (они что — на ядре игру написали? ЛОЛ) и получают массу гемороя. А идёт это всё оттуда же — из-за отсутсвия элементарной начитанности по теме. ну и консультаций с профессионалами.

а потом появляются вот такие статьи. это всё нытьё какое-то в духе «у меня нет денег, фу плохой Apple хочет чтобы ему заплатили, прежде чем принят ПО». Если нет денег — просто не поддерживайте платформу. Будет таких людей много — платформа умрёт или изменится.

Только вот мне что-то подсказывает что в Apple отлично просчитали доход как разработчика так и свой, прежде чем вводить свои правила.
Будто нытье это что-то плохое. Я б даже сказал, наоборот.
НЛО прилетело и опубликовало эту надпись здесь
я в курсе. пробовал — не зашло. но это ввиду специфики работы. был бы я каким-нибудь звукорежиссёром или видеомонтажёром — не отлипал бы.
Была хорошая, удобная платформа для фрилансеров, но потом они ввели какие-то адские комиссии, которые сильно снижались при росте сумм ежемесячных платежей. Это привело к тому, что работать там стало выгодно только тем, кто уже раскрутился. Не вообще, а именно на этой платформе, кто именно нам наработал рейтинг и завёл очень жирных и очень постоянных клиентов. А новичкам, кто пока ловит там один-два относительно небольших заказов в месяц и рейтингов себе ещё не наработал, платформа начала грабить. И всё, они закуклились. Они отсекли новую поросль, а старые будут постепенно уходить: кто-то на постоянную работу мимо платформы, кто-то на пенсию, кто-то сменит предметную область и его рейтинг окажется опять на уровне плинтуса. Да мало ли. И вот Apple делает ровно то же самое: те разработчики, которые уже имеет большой доход, вздохнут, посчитают и решат, что пока терпимо и продолжат работать, а новые перестанут приходить, потому что начинающему разработчику там делать становится нечего. И это касается, в том числе, софта для звука и видео. Это при том, что такой жирный разработчик софта для графики, как Adobe, уже отвалился, хотя и по другим причинам. В общем, платформа и так была не сильно открытой для разработки, а теперь ещё больше закрывается.

А, вот ещё одна история, но наоборот. В начале нулевых, когда Linux начал сильно раскручиваться на дэсктопах, возникла ситуация, когда для новых разработчиков Linux был привлекательнее, потому что средства разработки в нём были «из коробки», тогда как под Windows они стоили как сам компьютер. Хороший, мощный компьютер со всей периферией. Внезапно, правда? То есть порог вхождения был очень высоким. Сначала в M$ на это забивали, а потом осознали, что какая-то маргинальная ОС, место которой на сервере, внезапно может вытеснить их из мира настолок. Как? Да очень просто: новое поколение приходит, учится разрабатывать на доступном инструменте, а это инструмент — внезапно — не под Windows. А поскольку ОС, на которой работает инструмент и, соответственно, пишется ПО, бесплатная, пользователи тоже начнут туда уползать. В общем, они там осознали, кому-то что-то намылили, а что-то наскипидарили и выпустили Express-версию студии, чтобы, значит, молодняк от них не разбегался. Так и удержались. Я как раз в тот период разрабатывал под Windows и в конторе, где я работал, как раз стоял вопрос об обновлении инструментария и его цене.

Это всё к тому, что даже тех, кто работает со звуком и видео это зацепит, хотя и не сразу. Просто перестанут появляться новые производители, а старые вечно держаться не будут. Особенно — в отсутствии конкуренции с молодняком, которые голодный, злой и со свежими идеями. А Джобс, увы, умер и нового не видно. Да и новый-то будет не спасать чужую компанию, а раскрутит свою.
А что за история с Adobe? Впервые слышу. Не подкините ссылочек напочитать?
Они перестали писать свои продукты под Mac OS X. А значит, платформа стала куда менее интересной для дизайнеров. По крайней мере, такая информация до меня доходила. Сейчас проверить не получилось — у них предельно убогий и неудобный сайт. Вот Corel точно поддерживает эту ОС — у них видны триальные пакеты под Win и Mac. А у Adobe всё закопано и сначала надо ввести кучу персональных данных и реквизиты банковской карты и только потом можно получить доступ к пакетам. Триальным пакетам, прошу заметить.
Если вы об этом, то:
Older perpetual versions of our software were not designed, nor tested, to work on macOS 10.15 and are not supported in any way for use on macOS 10.15.

We do not recommend that customers using old versions of Adobe Software update to macOS 10.15.

Old products use 32-bit licensing components and installers and therefore cannot be installed and activated after upgrading to macOS 10.15. While upgrading to macOS 10.15 with these products installed may allow them to function in some capacity, you will not be able to reinstall or activate the software after the upgrade.

Customers may want to uninstall all these old versions prior to upgrading to macOS 10.15, as the uninstaller will not work after upgrading. The Adobe Cleaner Tool can be used to remove Adobe software on macOS 10.15.

это не совсем Adobe отвалился…
Это скорее — а давай вы все дружно раз такое дело обновите ваш 100 лет тому купленный софт, если что это не мы виноваты, это все вот они.

Пусть лучше пишут debian вместо ubuntu, т.к. то что пойдёт на первом с 99% вероятности пойдёт на втором а вот наоборот не факт. Да и Стим свою ubuntu приносит, так что вариант почти всегда рабочий.

Это тупая трата времени на рутинное дело, без которого прекрасно обходились даже 35 лет назад во времена MS DOS. Программа должна ставиться установкой галочки «я согласен с лицензией» и нажатием кнопки «установить».
Не всегда обходились. Когда-то спасал жирный установщик, когда-то можно было наткнутся на ситуацию, когда в установщик не включён условный directx или .net и программа молча падала или не ставилась. Вполне лицензионная программа на вполне лицензионную винду.

Плюс ещё удалить программу со всем тем, что она наставила было либо очень сложно, либо невозможно.
Не всегда обходились.

Любую идею можно реализовать хоть плохо, хоть совсем через задницу, если захотеть :)
Вот тут меня просто на ржач пробило, потому что буквально на днях знакомая пыталась удалить Visual Studio и для этого пришлось использовать специальный деинсталятор. Как говорится, что угодно, лишь бы не делать нормальный пакетный менеджер. Кстати, Mac OS X в это от Windows недалеко ушла: на системном уровне там есть менеджер пакетов, но он, по факту, почти не используется и систему репозиториев приходится прикручивать стороннюю, а это добавляет ещё немного бардака в систему.
Вы не пробовали поставить Visual Studio 2013 на Vista?
нажатием кнопки «установить»

Графическая оболочка в виде инсталлятора с прогрессбаром, скрывающая под собой /.config ,make и make install?
НЛО прилетело и опубликовало эту надпись здесь

Кстати, как показывает практика, достаточно часто неудовлетвореные жизнью неудачники впоследствии становятся весьма успешными людьми.

Даже сложный софт, включающий в себя десятки, а то и сотни библиотек, типа CAD-ов и сред разработки собираются на раз-два.
Вот даже не знаю, как это назвать. «Дезинформация» как-то слабо звучит.
просто человек оооочень меееедленно считает )))
НЛО прилетело и опубликовало эту надпись здесь
В генте нормальные команды тоже сразу дадут по рукам, писать их спеку несложно. То что в генте и прочих фряхах ставится через make, это не значит что можно вот так гадить в систему в обход пакетного менеджера.
В центоси ещё проще, один раз написали спеку (или попросили юзеров) и положили в репу, а потом сборка 1 команда, rpmbuild -ba *.spec
Вообще-то, стоило бы описать ситуацию как «в любых RPM-based и DEB-based дистрибутивах». У меня подобный опыт был. Причём, была система скриптов, которая и репозиторий сама пересобирала, и на сервер всё выкладывала. В общем, да, работа одноразовая, а дальше — только кнопку нажимать или скрипт запускать, это уже как оформить.
НЛО прилетело и опубликовало эту надпись здесь
В Steam, после аплоада на их сервер файлов игры, можно уже сразу устанавливать обновление через их клиент. На Windows точно так. На другие платформы не делал сборки, про них сказать ни чего не могу.
Хах. Так в Steam и для Linux точно так.
А что скажите, к примеру, про msi?
Кто-то распространяет игры под windows чисто через msi? Не видел такого с 2010го
А мы говорим только про игры?
>Это фундаментальный архитектурный изъян системы. Если майнтейнеры данного дистрибутива не считают нужным вот прямо сейчас собирать игрушку, значит юзеры будут сидеть без игрушки.
>блин так дело же не в том, что клиенты плохие, а в том что игры разрабатывают под винду,

Я что-то пропустил когда ветка про игры из поста про игры начала скатываться в общее распространение приложений.

И да, в steam как бы есть не только игры

С первого же комментария про Linux, от которого и идёт эта ветка. К разработке игр претензии его автора отношения практически не имеют.

НЛО прилетело и опубликовало эту надпись здесь
и это не успех — это костыль.
Ну да, что угодно, лишь бы не правильный пакетный менеджер. В итоге, каждый изгаляется как может, потому что других вариантов просто нет. Просто Steam — один из самых удачных костылей. Что не отменяет того, что это — костыль. Пусть и с шагомером, пульсометром, и гравитационной подвеской.

Сложно сказать, ведь steam приносит не только online update+drm но ещё и стабильный набор библиотек и среду исполнения, причём не всегда выходит получить его из дистрибутива.

НЛО прилетело и опубликовало эту надпись здесь
А в чем проблема? Просто класть все нужные библиотеки и правильно прописать сборку — и будет все в один клик собираться.

Современные движки тоже сплошь хорошо умеют в кросс-компиляцию на что угодно, а если самописный то ты и сам знаешь как его собирать.
В том и дело, что автор не знает, как собрать под Linux и Mac OS X. Его игра отлично идёт под Wine — этого он добился, а вот собрать нативно под Linux, не смотря на то, что его движок работает на SDL, которая чуть ли не в обязательном порядке ставится в Linux вместе с системой, он не осилил. И даже попросить кого-нибудь из сообщества сделать ему spec, не говоря уже о сборочных скриптах, несложных, кстати, не догадался. Но жалуется он даже не на сложность сборки, а на то, что Apple изменила правила и теперь таким разработчикам, как автор, стало невыгодно заходить на эту платформу.
Собирают те кому нужно.

У меня есть утилитка одна — я майнтейню только PPA для Ubuntu/Debian.
Но пакет уже собрали 3 майнтернера под другие пакетные менеджеры/дистрибутивы. Причем я не просил, собрали мейнтейнеры дистрибутивов по просьбам пользователей.

И все пользуются…

Но моя утилитка не показатель — она на питоне и ставится из исходников без компиляции — только зависимости надо подтянуть (их не много).
Кто будет собирать? Юзеры?

Маинтайнеры

Для массового использования самому собирать и править сырцы перед сборкой? Это ответ почему у линукса такой процент в мире. Ну не для массового использования.

для конечного пользователя ничего не изменится


apt-get install hedgewars

и пошёл играться

Претензия изначально в том, что в основной репозиторий свежая версия сама не попадёт.

А всё остальное требует чуть большей возни и почему-то многие думают, что пользователи линуксов на это не способны. Как по мне, нормальный вариант — просто сделать packages для скачивания.
В современном линуксе даже постфиксы (или как это правильно называется) типа "-get" убрали — жить стало чуть проще.

В apt-get install foobar apt-get — имя бинарника. Это называется не "постфиксы убрали", а "разработчики APT выпустили новую утилиту apt".

Это все понятно, но юзеру-то без разницы — оно же из коробки так.
> для конечного пользователя ничего не изменится
> apt-get install hedgewars
Без sudo?
В официальных репозиториях, без добавления?

apt, кстати (не apt-get) работает без sudo (вызывает его сам когда надо). Вот только не помню, распростаняется ли это на дебиановский apt или только на LMDE-шный.

Не работает
➜  ~ apt update        
Чтение списков пакетов… Готово
E: Не удалось открыть файл блокировки /var/lib/apt/lists/lock - open (13: Отказано в доступе)
E: Невозможно заблокировать каталог /var/lib/apt/lists/
W: Проблема при удалении файла /var/cache/apt/pkgcache.bin - RemoveCaches (13: Отказано в доступе)
W: Проблема при удалении файла /var/cache/apt/srcpkgcache.bin - RemoveCaches (13: Отказано в доступе)

P.S. Проверял на KDE Neon, что по сути Ubuntu 18.04

Зависит от команды. Всякие там apt search работают (как и apt-cache).

Ну не сказать, и snap и appimage оба вполне юзабельны, особенно если автор не хочет раскрывать исходники, но хочет предоставить гарантировано рабочую копию для любого дистрибутива.
Лично я предпочту установить spotify или skype в snap нежели обычными пакетами в виду своей проприетарности.

А исходники и не надо, потому что ставится-то бинарный пакет. Достаточно этот пакет собрать. А в случае с конкретной игрой конкретного автора, достаточно завернуть в пакет виндовую сборку и подтянуть по зависимостям Wine. Ну, может быть, один раз написать скрипт-стартер, чтобы Wine запускался с нужными ключами и изображал нужную версию Windows. Но это одноразовая работа, как и написание спецификации для сборки пакета.

Если напрягает проприетарность, то надо не тащить в систему тонны мусора, а запускать программу в chroot и прочих «изоляторах».
Если напрягает проприетарность, то надо не тащить в систему тонны мусора, а запускать программу в chroot и прочих «изоляторах».

А разве snap не запускает пакеты в chroot?

Возможно. Не проверял. Но и тонны мусора тащит, хотя есть нормальные пакеты, которые собраны в соответствиями с правилами дистрибутивов. И это никак не мешает запускать их в песочнице.
А разве snap не запускает пакеты в chroot?
Даже если и так, то он не изолирован от основной системы и имеет прямой доступ ко всему. Как следствие для изоляции блобов не годится.

Собираем бинарь без зависимостей (или складываем их рядышком), пакуем всё в архив, который следует распаковывать в /opt/ и норм. Кому надо — те перепакуют в *.deb или *.rpm.

Это уродливый костыльный способ. Как мне звук играть, как нотификации показывать или добавлять себя в меню пуск, как получать доступ к OpenGL?


В линуксе должен быть стандартизированный API платформы и стандартизированный способ доставки приложений. Если я когда-либо буду делать приложения для линукс, я ни секунды своего времени не потрачу на поддержку чего-либо, кроме Дебиан. Так как другие нестандартные дистрибутивы это проблема их разработчиков, а не моя. Либо давайте мне стандартную платформу, либо допиливайте мой воображаемый софт под свои нестандартные дистрибутивы сами.

НЛО прилетело и опубликовало эту надпись здесь
Если я когда-либо буду делать приложения для линукс, я ни секунды своего времени не потрачу на поддержку чего-либо, кроме Дебиан
Кстати, было бы хорошо, если бы все делали приложения хотя бы под один дистрибув. Скажем, если бы все приложения существовали под последнюю LTS Ubuntu, то сделать не-эмулятор (как Wine, но реализующий Убунту) под все остальные дистрибутивы было бы значительно проще.
Так элементарно тогда все остальные дистрибутивы бы загнулись сами собой.
Я склонен верить, что дистрибутивам было бы значительно легче выжить в таком мире, чем в мире, где большинство приложений запускаются только в винде.
> как Wine, но реализующий Убунту

Поздравляю, вы только что изобрели Steam Runtime.
Очень многие программы в последнее время распространяются через AppImage. Со звуком у меня ничего нет, но 3D рендерится нормально (будем честны, яне знаю, как проверить, что под капотом, но не думаю, что на моем железе оно заведется без ускорения), в меню они сами добавились (дебиан + крыска). При первом запуске система спрашивает что-то типа хочу ли я быстрый доступ с рабочего стола (ну или как-то так, я всегда отказываюсь, так что не очень помню детали).
Linux — это ядро. А операционных систем, построенных на базе GNU и Linux — сотни. В каждой из них есть своё API.

Вы просто сравниваете тёплое с мягким. Не надо так.
И чем сложнее собрать из тех же скомпилированных бинарников RPM и другие пакеты? Приложение взаимодействует с библиотеками через ABI, где лежат эти библиотеки, Вам даже знать не надо — система сама про них знает, главное — чтобы эти библиотеки были и были нужных версий, а вот это уже вопрос прописывания зависимостей в спеках и делается это ровно один раз. Ну да, периодически надо подправлять версии, чтобы они соответствовали тому, что используете, и всё. А нотификации показываются через стандартные API или через вызовы той библиотеки, через которую окошки показываете. И к OpenGL доступ получаете через вызовы соответствующих библиотек и системные интерфейсы Вам тут вообще ни к чему. Потому что библиотеки во всех дистрибутивах одни и те же.
уродский способ, но хотя бы так.
Да даже тупо на уровне libc вертикальной совместимости ни хрена нет в этой системе

Вы так говорите будто между релизами vcredist какая-то совместимость есть.

НЛО прилетело и опубликовало эту надпись здесь

Какое это имеет отношение к "вертикальной" совместимости, что бы это ни значило?

НЛО прилетело и опубликовало эту надпись здесь
gtk, python,… тоже стоят параллельно друг другу и не мешают. Всё упирается в пакетный менеджер и желание разработчиков.

Тут вроде бы речь о разработке игр, а это обычно Steam со своим рантаймом.

… и в результате игры портируются не под Linux, а под Steam.

Как будто в этом есть что-то плохое...

Так steam это и есть linux для игр. Бонусом — централизованное хранилище, не надо искать где скачать и как подключать репы.
ну, не все так плохо в линуксовом царстве. Весь софт имеет обратную совместимость и будет прекрасно работать на самых последних версиях ядра и либ. Даже если софту 20 лет кряду. Другой вопрос, почему мейнтейнеры этого не используют и делают жёсткие зависимости? Ну и если уж разработчики хотят какую-то особенную либу, то почему её не поставить рядом с имеющееся? Просто решения типа snap/AppImage технически ужасны: тянуть все с собой и ставить бесконечное колличество идинаковых либ — печаль беда.
Ага конечно. Даже простой пиона на новой версии имеет несколько другой синтаксис.
И если у у тебя на втором написано может и не заработать на свежих версиях.

Лично я сталкивался с приложениями, не работающими из-за слишком новой версии fontconfig. Наверняка с другими либами тоже бывают такие проблемы.


Просто решения типа snap/AppImage технически ужасны: тянуть все с собой и ставить бесконечное колличество идинаковых либ — печаль беда.

Насчёт AppImage согласен, а вот snap/flatpak — уже совсем другое дело, они предоставляют шаренные рантаймы и дедуплицируют одинаковые либы внутри пакетов.

то есть, это по сути будет вторая корневая система внутри домашней папки? Думаю с вопроса понятно что мне кажется, ну, логичным, если бы этот функционал предоставлял сам линукс Ubuntu с помощью APT? почему не написать к нему такое дополнение? Я просто очень скептически относился к такой установке софта, заинтересовали. Надо глянуть.

Для конкретной Ubuntu единственное преимущество snap/flatpak — это запуск приложений в песочнице.
Главная фишка этих форматов — кросс-дистрибутивность. Один раз собранное и упакованное приложение запустится в любом линуксе с установленным flatpak/snap.

Прибивают к версиям т.к. не все библиотеки имеют стабильный ABI, поэтому прописывают версию, а далее идёт совместимость с диапазоном...

Потому что Linux — это не система, а ядро. У ядра строгая обратная совместимость ABI в userspace — Торвальдс бьёт по рукам за даже самые благие попытки её поломать.


А дальше, по сути, каждый дистрибутив следует воспринимать как отдельную систему. У RHEL, например, есть такая же обратная совместимость и по libc, и по базовым библиотекам, если компилять через RHEL devtoolset.


Только ориентированы коммерческие дистрибутивы строго на серверный или embedded рынок. Десктоп под GNU/Linux продвигается исключительно ради разработчиков, т.к. под их привычки потом работодатель выбирает "понятную" серверную ОС.

А там чуть не на каждой машине свой вариант пакетного менеджера и библиотек. Да даже тупо на уровне libc вертикальной совместимости ни хрена нет в этой системе, так что и для разных версий Debian/Ubuntu нужно разные сборки делать.

тут такой же принцип, что и с win/macos/linux: подавляющее большинство сидит на последней стабильной убунте, и по сути таргетить достаточно весьма счетное число дистрибутивов. Часть из которых, кстати, совместимы друг с другом. Да и портировать между дистрибутивами линукса куда проще, чем с винды — создаете N докер контейнеров, в которых будет отличаться только набор установленных пакетов, и в них компилируете.

А вот если пытаться все свои зависимости тащить с собой, как это привычно делать на винде, действительно можно наесться. Собственно, поэтому "(вроде snap/AppImage)" и критикуют — такая модель распространения уменьшает «дурную работу» в краткосрочной перспективе, но преумножает её в долгосрочной.

Посмотрите на это с другой стороны: существует куча софта, которая работает на линуксах, и работает успешно. Скажем, тот же стим явно столкнулся с вашими проблемами и успешно их преодолел.
Вставлю свои пять копеек про создание установочника для винды для полноты картины.
Делал с помощью Inno Settup и с помощью WiX. В обоих проектах приходилось учитывать разные версии винды. Так что фразу «Это на винде один раз завернул — и с высокой вероятностью оно будет работать везде, от XP до 10.» мой опыт опровергает полностью.
А ещё наша прога имела зависимости от другого софта и сторонних библиотек. И тут мне с грустью вспоминалось apt.
НЛО прилетело и опубликовало эту надпись здесь

Это потамушта первый уровень игры в linux — сборка ядра;)

может быть потому что эти нововведения пилят не очень умные люди которые до конца не разобрались в системе и делают не очень качественный продукт?

как идея snap/flatpack/AppImage — великолепны. реализация пока сильно хромает.
А там чуть не на каждой машине свой вариант пакетного менеджера и библиотек. Да даже тупо на уровне libc вертикальной совместимости ни хрена нет в этой системе, так что и для разных версий Debian/Ubuntu нужно разные сборки делать.
Что мешает статически линковать? Тот же firefox скачаный с офсайта прекрасно запускается что на дебиане, что на арче.

1) деплой игрушек на линуксы в большинстве своём идёт через steam, а там уже есть steam runtime.


2) поддержка актуальных lts-дистрибутивов не сложнее поддержки разных версий windows

2 — у винды сейчас одна «основная» версия, это 10. При этом обычный софт (не игры под DX12 и не драйвера) будут работать и в 7, которой уже больше 10 лет.
У винды, как и у центос, срок жизни 10+ лет. ХР больше 10 лет только похоронить пытаются, самой оси за 20 лет уже. Но удивительное дело, до сих пор есть компы с ней. У меня например один комп.
Дебиан — 2 года и привет. Для постоянной разработки это неплохо, но для дома и для проектов которые уже запустили и больше не выделяют денег на «пустые» изменения кода (изменили что-то в дистре — надо фиксить) это ужас. Выпустили LTS, но этого всё-равно мало.
А ещё, поставив ту же 7, я хочу чтобы все обновления не ломали привычный мне интерфейс и прочее. В линях все эти wayland, «плазма больше не падает» и прочее делают больно. А ещё иногда обновление версии ломает видео например. И в итоге проще сидеть на уже устаревшей версии, где всё привычно и работает.
Если считать что «линух для домохозяек» — при таком подходе нужно в корне менять подход, в том числе по времени сопровождения каждой версии. Проблема что многим программистам не понять этого желания стабильности, часто им «нужно же быть новым, модным, молодёжным». За примерами ходить далеко не надо, собирал какие-то гугловые либы под центос 7 пару лет назад, подавай им только последние версии либ и компиляторов. В результате проще найти/написать не такую хипстерскую поделку.
самой оси за 20 лет уже

18, если быть точным, а поддержку закрыли 5 лет назад. Но это для дэсктопов, а я для «встраиваемых» систем вроде банкоматов — только в этом году. Пытались. И продлили ещё на год, потому что в США в следующем году, а много где в госучреждениях до сих пор на хрюне сидят и на Win7, которую тоже должны были закрыть с января, но не получилось.
На самом деле, если правильно приложить к делу руки с большим радиусом кривизны, то сборка RPM делается одной кнопкой под все нужные дистрибутивы, архитектуры и версии. Я сам несколько лет делал сборку 2ГИС под именно в RPM, пока не понял, что уже сам не пользуюсь программой на компьютере, поскольку разработчики всё изгадили и проще открыть сайт. Так вот, в процессе разбирательства со сборщиками, написал несложную систему скриптов, которая всё делала очень просто и красиво, включая выкладывание на сервер. Причём, собирались не только пакеты, но и репозиторий. А запускалось всё под Wine, как и у автора статьи, причём, этот самый Wine был прописан в зависимостях пакетов, так что даже не надо было ставить его отдельно — сам подтягивался. Думаю, то же самое легко делается для DEB, хотя и не пробовал, и для других форматов пакетов и менедежров пакетов. Вопрос только в том, чтобы найти на один раз разработчиков с нужными навыками, но нужна некоторая заинтересованность в окучивании этой части игроков. И есть у меня некоторые подозрения, что игроки с Linux, стучатся в поддержку именно по поводу запуска, а такая система сборки избавит от этих трудностей. А учитывая, что всё сделано на SDL (сужу по комментариям здесь, сам не проверял), то и сделать нативную сборку под Linux будет несложно. Но, опять же, нужна заинтересованность и, возможно, приглашение кого-то сведущего. Но тут уже одноразовым заказом ограничиться не выйдет — надо будет приглашать в команду.
У меня был случай, когда моя игра на разных дистрах шла то со звуком, то без. У меня было все хорошо на Убунте, а, к примеру, у игрового журналиста с Арчем звука не была. Поскольку это была аудиоигра, то оценку моя игра получила… никакую.
А через что шла работа со звуком? Я со звуком не работал, кроме настройки общего звука для всех пользователей, но с тех пор, как появились и были доведены до ума звуковые сервера вроде PulseAuduio, Jack и что-то там ещё, особых проблем не наблюдал.
Судя по диаграмме, этот вывод неверный.
Позвольте мне объяснить.

Допустим, купило игру 100,000 пользователей.
94% пользователей на Windows -> 94,000.
4% пользователей на OS X -> 4,000.
2% пользователей на Linux -> 2,000.

Если 94% продаж было сделано для Windows, а от их числа в саппорт поступило 20% запросов, то в итоге получается 94% * 20% = 18.8% запросов от общего числа купивших игру -> 18,800 тикетов.

4% продаж для OS X * 50% запросов -> 2% пользователей -> 2,000 тикетов.

В итоге — количество тикетов от пользователей Windows в 10 раз больше, чем от пользователей OS X. Означает ли это, что нужно прекращать поддержку OS X?

Если просто смотреть на сухие цифры: 50% и 30% — то может показаться, что OS X приносит слишком много проблем, однако из этой статистики + описании проблемы мы видим, что проблема не в OS X и 50%, а в том, что:

1. Нет нормальной поддержки для OS X, из-за которого эта цифра выше, чем для Windows (автор признался сам в отсутствии нужных знаний).
2. Слишком мало пользователей играют на OS X (в 20+ раз меньше чем на Windows), что заставляет задуматься — а зачем автор вообще пытался освоить этот рынок самостоятельно, без внешнего инвестирования, если усилия того не стоят? Можно было попробовать профинансироваться через кикстартер/аналоги, или хотя бы просто спросить пользователей, а нужна ли им версия под Мак.

Короче говоря, диаграмма «Support Requests by Platform» не может являться показателем того, что нужно ориентироваться на рынок Windows, а про OS X забыть. Совсем другое дело, если бы количество тикетов было на одном уровне, но для этого и доля рынка OS X должна была бы быть не 4%, а 30%, а это уже будет означать, что автору придётся его осваивать, если он не хочет потерять 30% возможной прибыли.
Одобрил комментарий, чтобы сказать, что вы не правы. Круговая диаграмма показывает доли в одинаковых единицах — в количестве запросов для каждой платформы. Если исходить из вашего примера, то 2000 — это 50%, тогда для Windows будет 800 — 20%, для Linux будет 1200 — 30%.
Но она же все равно показывает, что кол-во запросов от линукс пользователей еще больше чем от osx? В смысле, если 2% пользователей линукса генерят 30% саппорт реквестов, то 4% (сколько osx) генерило бы 60%? Или я тоже не правильно понимаю эти графики?
Если честно, звучит малореалистично. Получается, что меньше 1% пользователей Windows обращаются в суппорт, в то время как Макосьники — на порядки больше? Учитывая, что диаграма нарисована криво я предполагаю, что автор (не переводчик) где-то путает или лукавит с порядком цифр

Блин, я только сейчас всмотрелся и обратил внимание — доля Linux + Windows занимает на графике 50%, при этом визуально у Linux должна быть доля 12.5% (потому что линия под углом 45%, по пикселям видно), а по цифрам — 30%.
Кто-то врёт — или график, или цифры, или и то и другое. Может и у OSX не 50% в итоге, если эмоции из статьи вычесть?

Не. На графике доля 50% у Linux + Windows. Просто они перепутаны. Кусок пирога у Линукса меньше, а процент — больше.

Я там просто перепутал почему-то названия, но остальной комментарий считаю верным. Если там эти доли неверные и ОС перепутаны — что ещё там могло быть перепутано? Нужны другие цифры.

Не ясно, считаются ли %% "от числа купивших" или % от общего числа клиентов
но надо смотреть иначе
Сколько денег приносит средний юзер и сколько денег стоит средняя поддержка этого юзера на той или иной платформе

А откуда вообще хайп вокруг игр и Apple? Их платформа, не считая IPhone никак не игровая. Кто-то будет покупать Mac Mini или Macbook, чтобы поиграть? Нет. Купят консоль, а своей консоли у Apple пока нет.
а своей консоли у Apple пока нет

Уже нет (шутка, конечно, это было в 90-х).
Ну возможность поиграть в командировке в какую нить индюшку из стима всё таки потерять не хочется.
браузерные игры вам в помощь в коммандировке) допилят веб до того, что все игры будут в браузере запускаться, наверное
AppleTV в рамках AppleArcade уже может рассматриваться как их игровая консоль (а теперь ещё и поддерживает геймпады от XBOX и PS).
как раз все выходные гонял ее с геймпадом, вполне очаровательно хоть пока и немного глючно
Есть пользователи у кого основной системой — мак. И что делать? Paralle/VMWare? Ну да они в 3D умеют (даже с ускорением) но что-то мало мальски новое — так не запустишь. Винду в дуалбут?
Автор кстати почему то не пишет про еще одну милую особенность Apple-железа. Из-за который например Elite:Dangerous маки теперь вообще не поддерживает. Сначала OpenGL у Apple стал устаревшим и мол не будем мы обновлять стандарт а потом и вообще — он совсем устаревший, быстро переписали все под Metal (даже не кросс-платформенный Vulkan).
Как по мне у 90% ( проценты из головы и личного опыта) юзеров мака стоит винда в дуалбуте.
У меня из круга общения еще нередка ситуация когда винда при этом вообще становится основной системой, и на вопрос зачем было покупать мак, человек недоуменно разводит руками.
Например потому что другие производители компуктеров не делают столь качественные ноуты.
НЛО прилетело и опубликовало эту надпись здесь
Ну, глупость не глупость, а за деньги топовой, да впрочем и любой новой прошки, можно взять нотбук других производителей, и не будет он ничем по качеству отличаться.
Зато по функциям, начинке, и возможности выбора этой самой начинки — будет, и в положительную сторону.
P.S Для тех кто верит что Apple свои ноутбуки как то ОЧЕНЬ качественно в отличии от других производителей делает, велком на любой ремонтный форум, либо пообщайтесь с людьми которые занимаются их ремонтом.
Такая же тотальная экономия на всем, что не заметно пользователю, никакого запаса по прочности, все как у всех в общем то в этом ценовом сегменте.
НЛО прилетело и опубликовало эту надпись здесь
Вот собственно, года 4 тому, как раз озаботился подбором какого-то ноута «как эппл, но дешевый» с перспективой туда впиливания всех систем сразу.
И кончилось это все покупкой таки нескольких девайсов включая эппл )
Вот, сайт dns, брал от минимума, предлагаемого apple

добавляем «сканер отпечатков» и «thunderbolt» и не остается вообще ничего кроме макбуков
Кто нибудь может пояснить в чем я тут заблуждаюсь? На минусы мне как то все равно, не в карму же, просто понять хочу где я не прав. По ссылке что сканер отпечатков что thunderbolt в наличии.
вы сравниваете Huawei MateBook Pro с железом из 2017-ого, с маком 2019-ого с железом из 2019-ого — там соответствующая разница в проце (8250U vs 8257U).
железом из 2017-ого, с маком 2019-ого с железом из 2019-ого — там соответствующая разница в проце (8250U vs 8257U)
Эм с учетом того, что сейчас поступают в продажу процы 10го поколения. То такое сравнение процов восьмого поколения выглядит никак не в пользу макбука…
8257U появился в «Q3'19». U-серии 9-ого поколения я не могу найти, а всякие 10210U еще не вышли (же?).
ок, Действительно они выпустили новые U 8го поколения. Десятого выпустили G, но я честно говоря затрудняюсь их сравнить ark.intel.com/content/www/us/en/ark/compare.html?productIds=196592,191067,124967
Спасибо, сравнил процессоры на сайте интела — действительно разница пусть небольшая — но есть. Хотя честно говоря как по мне разница очень незначительная — но против фактов не пойдешь.
НЛО прилетело и опубликовало эту надпись здесь
Lenovo Yoga 920

тот же проц двухлетней давности. Он кстати, уже в ценовой категории мака.

Кстати говоря трансформеров у apple нет ещё

трансформеры как класс устройств очень нишевый продукт. И они начнут распространяться только когда под них будут сценарии использования с адекватным интерфейсом. Сравните презентацию первого планшетного компьютера от Гейтса в 2001 и от Джобса в 2010.
НЛО прилетело и опубликовало эту надпись здесь
Ну я и покупал 1,5 года назад
Там слабо эволюционируют процы.

10-20% уже существенная разница. Плюс, новый более энергоэффективен под низкой нагрузкой

а не вот например thunderbolt не нужен, вот совсем.

Не зарекайтесь, thunderbolt удобен и достаточно быстро набирает популярность — с ним нормальный монитор превращается в док-станцию. Разумеется не факт, что года через 3 все коммуникации перейдут на usb-c/thunderbolt, но мне было бы обидно сейчас купить ноутбук и потом испытывать ограничения.

А насчёт нишевый продукт, мне очень нравится, кинцо удобно в самолёте посмотреть.

вот таких юзкейсов мало для повсеместного распространения форм-фактора. Хотя, думаю если apple объединят маки с айпадами (на маках уже можно запускать приложухи с iPadOS), он наберет популярность быстрее
НЛО прилетело и опубликовало эту надпись здесь
ну в моём ноуте всё таки i7-8550U, а не i5, так что разница в производительности не понятна

если верить geekbench 5, то lenovo yoga 920 i7-8550u(win) сильно уступает MBP 2019 i5-8257u и своей linux конфигурации. Судя по всему, на винде вендор попросту ограничил частоту проца в многопоточке от перегрева.

И тех процесс у обоих 14nm, так что энергоэффективность я считаю одинаковая.

это делеко не единственный критерий же: на 14-нм техпроцессе и ксеоны c 165W tdp, и y-серия с 8W. У 8257u даже банально базовая частота ниже.

куча интерфейсов сгинули в небытиё…

Ну у кого-то конечно и LPT актуален. Скажем так: жить с единственным thunderbolt портом уже сегодня проще, чем с любыми двумя из набора USB-A/HDMI/Display port/jack/ethernet (которого уже в большинстве ультрабуков нет) плюс зарядка.
НЛО прилетело и опубликовало эту надпись здесь
ну то есть процы i7-8550u и i5-8257u приблизительно равны по производительности.

уточню: процы приблизительно равны. Производительность конкретных конфигураций конкретных ноутбуков — нет
НЛО прилетело и опубликовало эту надпись здесь
А вот с макбук всё не так просто

а что именно там непросто?
НЛО прилетело и опубликовало эту надпись здесь
Где она может занимать место, если накопитель переразмечен с применением грубой силы?
НЛО прилетело и опубликовало эту надпись здесь
Когда как. Не слежу за темой.
Когда как. Не слежу за темой.

защиту T2 можно выключить.
НЛО прилетело и опубликовало эту надпись здесь
Вы видели LG Gram?
По моему, это самые тонкие и легкие ноутбуки из существующих. Производительность? Пожалуйста: i5, i7. Диагональ? 13, 15, 17. Хороший большой тачпад и очень хорошее время работы от батареи.
предоставят ли мне подменный ноутбук — понятия не имею.

Если продавцу или изготовителю было заявлено требование о ремонте или замене технически сложного товара, то можно потребовать также предоставления Вам аналогичного товара на период ремонта или замены Вашего (этот товар должен быть предоставлен и доставлен в течение трех дней).

Ну вот если бюджет до 150к как у прошек — неплохой ноут от асуса: https://www.dns-shop.ru/product/09b06875649c1b80/156-ultrabuk-asus-zenbook-ux533fd-a8139t-sinij/


Памяти в 2 раза больше, ССД в 4. Есть нормальная дискретная видеокарта, то есть поиграть можно. Экран не 2к а FullHD но для такой диагонали это даже лучше. не 13.3", а 15, если это смертельный недостаток то тогда конечно не подходит. В остальном буквально всем лучше, разве что вес на 300г больше.

НЛО прилетело и опубликовало эту надпись здесь
Для тех кто верит что Apple свои ноутбуки как то ОЧЕНЬ качественно в отличии от других производителей делает, велком на любой ремонтный форум, либо пообщайтесь с людьми которые занимаются их ремонтом.


Что-что, а уже за ноутбуки Apple вполне нормальные деньги просит.

Полные аналоги от других производителей стоят столько же.

Вот только не надо тут сравнивать только процессор, но «забывать» тачпад или корпус к примеру. Я про то, что если по всей совокупности признаков (кроме ОС, конечно) смотреть аналоги — то вы удивитесь, что конкурирующие модели стоят ровно столько же, что и ноутбуки Apple.

Однако, в контексте разговора — когда нужна именно MacOS разработчику, то тут выбора нет. Даже с Хакинтошами не все гладко.
Вот только не надо тут сравнивать только процессор, но «забывать» тачпад или корпус к примеру.
Ну, если подбирать полные аналоги, то тогда можно и MacOS включить, и тогда, разумеется, их не будет.
А вот мне, например, тачпад в ноутбуке вообще не нужен, если есть трекпоинт. Которого у Apple нет. Почему нужно включать именно то, что есть в макбуке, и именно в таком виде, в каком оно там есть? Это получается как тендеры на закупку, которые пишут таким образом, чтобы прошёл только один конкретный продукт.
Просто само собой, что если вы ищете по единственному критерию «ноутбук как МакБук», то наиболее подходящим будет именно МакБук. А если бы критерии были хоть чуть другими, то, возможно, и МакБук бы в них не попал.
Про тачпад вы зря. Я с год примерно, когда после рождения ребенка переехал работать по ночам на кухню, ленился доставать ваком под каждое открытие фотошопа. И в итоге на тачпаде макбука я приспособился вполне сносно верстать в индизайне, делать векторные маски и контуры в иллюстраторе, даже в ограниченном объеме ретушировать фотки. Это медленнее, чем перо, но главное, что нет такого, что без планшета как без рук.

Sketchbook Pro продемонстрировал, что тачпад чувствителен к силе нажатия. Этим я чаще баловался, чем использовал для дела, но как-то и иллюстрации подправлял на тачпаде.

Я не проверял, работает ли это где-то еще, но на тачпаде мака можно одним пальцем взять файл (или узел контура) и начать перетаскивать, а если тачпад кончился, то не отпуская, другим пальцем «прокрутить» до нужного места.

Форс тач и реакция на скорость перетаскивания также порядком изменили привычки работы на ноуте. А еще размер на последнем про огромный, куча жестов. И по сравнению с предыдущим тачпад намного проще переносит попадание воды. Просто вытер и все, а раньше нужно было сушить и молиться.

Вот кнопки-бабочки — говно. Приятные, но я через год уже менял по гарантии верхнюю крышку со всеми кнопками, потому что пробел и альт померли.
А что «зря»-то? Вы мой комментарий читали вообще? Я к тому, что у Applе есть специфические штуки, не всем нужные, почему считать их наличие плюсами, но при этом не считать минусами наличие других специфических штук, которые есть на ноутбуках других производителей?
НЛО прилетело и опубликовало эту надпись здесь
Основательный ответ — это ответ с моделями и ценами. Сколько на моей памяти ни пытались показать (тут на хабре) аналоги — всё время что-нибудь не то: то i3 вместо i7, то FullHD вместо ретины, то TFT вместо IPS, то 4 килограмма вместо одного, то пластиковый корпус вместо металла.

Что новенького появилось за это время?
Dell XPS 13 как замена 13" прошки. 9380 уже была хорошей моделью, а только что вышедшая 7390 — еще лучше. А у макбука достоинство только одно — макось из коробки без танцев с Clover и заменой WiFi/BT на совместимую модель.
(Задумчиво)
Ну, например вот Apple и вот Dell.
Дальше смотрим (Apple слева):
— i5 против i7;
— 2560x1600 против 3840x2160;
— 1.25 кг против 1.21 кг;
И наконец, 130к против 90.

Вас устроит такой ответ с моделями и ценами?
UPD. Да, ссылка с критериями выбора, а то получаются два ноута сферических в вакууме.
Air 2018 года — странный выбор, за эти деньги можно взять «серый» 13" Pro Mid-2019, да, памяти и SSD там будет все еще меньше, чем у XPS 13, но в остальном машинка будет сильно интереснее.
Ну, мы же тут все же не покупаем ноутбук, а сравниваем цены. Мне кажется, сравнение получилось довольно корректным: хотя если быть честным до конца, в Маках я разбираюсь не так, чтобы очень хорошо, и модельный ряд их на самом деле не знаю. Выбрал характеристики, ткнул в фильтр, посмотрел, что сколько денег стоит — и в общем-то все.
Сейчас модельная линейка маков выглядит немного странно, лучше потратить немного времени и разобраться что и почём они предлагают потому что мракетологи эппла явно курили что-то просроченное. Ну а если макось не нужна — XPS 13 лучше, никто не спорит.
Мак я покупать не собираюсь, но за информацию спасибо. Никогда не знаешь, где может пригодиться.
Только 90 против 130)
Даже прошелся по собственным ссылкам: нет, вроде все верно. Все первые числа относятся к Apple, и цена тоже )
Да как же-ж. Эппл 80, Делл 130:)
Заголовок спойлера
image

А мне показывает 102 и 117 (Apple и Dell соответственно, по тем же ссылкам). Похоже, по регионам очень сильно варьируются цены.

Ну значит мне можно купить Макбук, накинуть десятку и продать у вас. Бизнес)
Сегодня у меня уже третья картина, но Apple все равно дороже.
89500 против 102890

Видимо да, региональные настройки. Мои он определить не может, а я ему не подсказываю: в результате показывает, как утверждает, для Москвы.
Ну, например вот Apple и вот Dell.
Дальше смотрим (Apple слева):
— i5 против i7;
— 2560x1600 против 3840x2160;
— 1.25 кг против 1.21 кг;
И наконец, 130к против 90.

i5-8257U (2019) vs i7-8550U (2017). Вообще, для технического ресурса сравнивать процессоры по цифре линейки недостойно.

— 2560x1600 против 3840x2160;

если бы только винда умела нормально в 4к )

А еще один нюанс — dell xps ужасно проблемная линейка. Почитайте хотя бы комментарии по вашей же ссылке. У нас в компании даже проводили опрос по xell xps и 2/3 пользователей сталкивались с различными проблемами. А еще, если верить некоторым обзорам dell xps по толщине не 11.6 мм, а все 15 (для сравнения: заявленная толщина 13" прошки — 12.9мм, с учетом ножек — 14). Где-то даже на хабре была статья про все их проблемы.
i5-8257U (2019)
В модели 2018 года?
Может быть, может быть… Только вот беда, у i5-8257U в спецификациях Интела указаны четыре ядра и шесть мегабайт кэша, а у Apple в спецификациях заявлен процессор по цифре линейки, но с двумя ядрами и четырьмя мегабайтами кэша.
Кому верить: вам или Apple?
А еще, если верить некоторым обзорам dell xps по толщине не 11.6 мм, а все 15
Я на секундочку напомню тот текст, на который я отвечал.
Основательный ответ — это ответ с моделями и ценами. Сколько на моей памяти ни пытались показать (тут на хабре) аналоги — всё время что-нибудь не то: то i3 вместо i7, то FullHD вместо ретины, то TFT вместо IPS, то 4 килограмма вместо одного, то пластиковый корпус вместо металла.
Если вы не заметили, я посмотрел все затребованные автором комментария характеристики (о ужас, он тоже сравнивает процессоры по цифре линейки!) и привел сравнение именно по ним.
Теперь же, оказывается, все недостатки в том, что Dell по некоторым обзорам толще! Пускай легче, зато толще! На целых два миллиметра и одну десятую!..
Вам самому не смешно?

Единственная ваша претензия по делу — это ссылка на комментарии с проблемами. Смотрим на комментарии.
Недостатки:
Экран легко царапается, клавиатура оставляет на экране потёртости
заменили вентиляторы, материнскую плату, теперь скрипит кнопка Enter.
wifi-модулем от компании Killer. Карта отвратительная: скорость загрузки то и дело падала до 100-300кб/с, соединение разрывалось, а при выходе из спящего режима она вообще убивала сеть, приходилось перезагружать роутер.
Адский шум кулера
Окей, проблемы налицо. Но давайте сходим в комменты к макбуку?
внезапно начинает шуметь жутко и греться, хотя запущены только ворд и вотсап
Если бы клава не оставляла царапины на экране, то поставил бы 5. Кто нибудь ещё сталкивался с такой проблемой?
— есть такое дело. В области клавиш А(F) — О(J). Царапины появились спустя 2 месяца использования
Сегодня доставят уже третий эир 2018 за вторую неделю… Будем надеяться на чудо ...
Купил для работы попробовать Air 2018, док-станцию, клавиатуру и мышь (ОМГ клавиатура и мышь = 20000 руб!). До этого мой основной ноут — HP Probook G5/450
Сравниваю с Windows и этим буком:
Винда всегда как нужно засыпает и уходит в гибернацию. Тут чистый бук не уходит в слип надолго, а после шаманства иногда уходит в гибернацию. Вынужден выключать ноут каждый раз. Спросил у коллег — они привыкли к теплому ноуту в сумке…
Жлобский блок питания (благо у меня был от HP БП на 90W type-c). Как за такие деньги можно в комплект давать 35W БП — не представляю!
Веб-камера у HP Probook за 60 тыс руб HD, а тут прям сильно хуже...
Почитаешь, плюнешь на эти ноутбуки, и пойдешь собирать десктоп из комплектующих. По крайней мере, у него клавиатура экран точно не поцарапает.
Кому верить: вам или Apple?

упс, перепутал MBP и MBA. Я, впрочем, назвал бы вторую линейку неактуальной учитывая смехотворную разницу в мобильности с прошкой и огромную в производительности

Пускай легче, зато толще! На целых два миллиметра и одну десятую!..
Вам самому не смешно?

дело не в том, что он толще мака, а в том, что он толще чем заявил производитель, на почти 30%.

Единственная ваша претензия по делу — это ссылка на комментарии с проблемами. Смотрим на комментарии.

Смотрим комментарии. Да и в целом это «работает» с любой статьей про «dell xps». У маков меньше распространенных проблем, наподобие проблем с клавиатурой, и совершенно иное к ним отношение. Опять же, MBP — самая популярная линейка ноутов, и сравнивать в лоб по числу проблем нельзя из-за «ошибки выжившего».
упс, перепутал MBP и MBA.
А, ну это нормально.
А то я уже начал сомневаться в своем умении читать. Но прошка вроде бы еще дороже?
дело не в том, что он толще мака, а в том, что он толще чем заявил производитель, на почти 30%.
Обычно я тоже смотрю на относительные числа. Но когда речь идет о первых миллиметрах и бытовой технике… Колбасу резать я не смогу ни Деллом, ни Маком, да они как бы и не для этого. У Делла косяков на самом деле хватает, как бы я нежно к нему не относился: но придираться к трем миллиметрам, это имхо несколько за гранью разумности.

Но в конце концов ладно: не нравится вам Делл, вот вам Леново за 105 килорублей (интересные дела творятся с ценами на яндекс-маркете: утром показывали AIR за 102 тысячи, сейчас при поиске по тем же параметрам минимум за 139, но уже только 2019 года, предыдущая исчезла из выдачи).
Металлический корпус, 1.12 килограмм (в комментах пишут, что зависит от версии, но «легче макбука»; во всяком случае про «четыре килограмма» речи не идет), IPS 3840x2160, Whiskey Lake i7-8565U.
Толщина, правда, подкачала: целых 14.1 миллиметра. Беда…
Леново я не особо люблю, но почему бы и нет?

Рядом примостился целое семейство HP Envy от 93 до 101 тысячи (посмотрим, что будет с ценами на маркете завтра), на 50 граммов тяжелее МакБука. Толщина, правда, целых 15 миллиметров, да…

Так вот, основательно отвечая на вопрос уважаемого oisee, вообще-то выбор есть. И процессоры пошустрее, и экран правильный, и корпус, и весят примерно столько же. И стоят дешевле. А доплачивать по десять килорублей за миллиметр толщины, по моему скромному, как-то кучеряво. Но опять же, дело вкуса.
ну на thinkpad'ы имо действительно стоит посмотреть, по крайней мере по объективным параметрам они смотрятся достойно. Объективное имо — за тачпад/макось мака можно и переплатить. Тачбар конечно крутая штука, но юзкейсов под него меньше чем хотелось бы
Объективное имо — за тачпад/макось мака можно и переплатить.
Может быть, и можно.
Про тачпад маков рассказывают столько, и с таким восхищением, что создается ощущение, что он еще и кофе варить умеет. Притом, что я всегда почитал тачпады заменой для мыши лишь немного лучшей, чем песок овсу — мне уже некоторое время интересно, что же за магия такая скрыта в маковском тачпаде.
Но это, видимо, выплывет только через некоторый опыт использования, что покамест мне не грозит.

А макось… Это, видимо, на любителя. В виртуалке она у меня есть, любопытства ради: но оценить ее по достоинству я, похоже, пока не могу.
Про тачпад маков рассказывают столько, и с таким восхищением, что создается ощущение, что он еще и кофе варить умеет.

Его достоинства:
а. больше среднего тачпада
б. force touch — не надо выискивать m1/m2 или поднимать палец (рискуя сдвинуть курсор), нажимаешь точно туда, куда навел
в. его жесты полезны и удобны в macos (да, на винде/линухе он теряет массу очков)
г. хорошо откалиброван (мало ложных срабатываний/пропущенных событий, отличная точность позиционирования)

Разумеется, это все еще тачпад: в quake на нем не забожишь. Часть его плюсов есть и в других ноутбуках, но я не встречал чтобы в полной мере. Жесты, разумеется, дублируются горячими клавишами, но они удобнее. Собственно, поэтому юзкейсы а-ля «глянуть что-то держа ноут одной рукой» не создают никаких трудностей.

Притом, что я всегда почитал тачпады заменой для мыши лишь немного лучшей, чем песок овсу

ага, тоже так думал, а спустя пару месяцев на маке отложил клаву с мышкой в сторонку и продолжил работать на тачпаде + клаве ноута
б. force touch — не надо выискивать m1/m2 или поднимать палец (рискуя сдвинуть курсор), нажимаешь точно туда, куда навел

Такое сейчас у многих есть.


в. его жесты полезны и удобны в macos (да, на винде/линухе он теряет массу очков)

В GNOME Shell тоже много удобных multi-touch жестов для тачпада из коробки.


Ни в коем случае не берусь сравнивать тачпады маков и других ноутов (я тоже не фанат тачпадов как таковых), но по моим наблюдениям перечисленные преимущества у других производителей тоже есть.

Такое сейчас у многих есть.

Например? Я лично force touch хотя бы отдаленно сравнимую с маком не встречал.

но по моим наблюдениям перечисленные преимущества у других производителей тоже есть.

Часть его плюсов есть и в других ноутбуках, но я не встречал чтобы в полной мере
Спасибо за описание: попытался себе представить — да, это может быть удобным. Так-то пробовать надо, конечно: у всех свои привычки.
а. больше среднего тачпада
На моем рабочем маке у меня регулярно этот тачпад срабатывает когда я что-то печатаю на клавиатуре. Он должен блокироваться в теории, но иногда почему-то нет. Был бы тачпад поменьше как у остальных ноутов — было бы заметно проще на нем работать. Это я к тому что большой тачпад — совсем необязательно плюс.
Это я к тому что большой тачпад — совсем необязательно плюс.

большой тачпад как минимум удобнее для жестов тремя и более пальцами.

На моем рабочем маке у меня регулярно этот тачпад срабатывает когда я что-то печатаю на клавиатуре

хм, не испытываю такой проблемы на своем маке, возможно, вы просто неправильно его держите (хихи).
не испытываю такой проблемы на своем маке
На не-маках, кстати, довольно регулярная проблема. Основания больших пальцев только так ложатся на тачпад. Особенно весело бывает редактировать большой объем текста, с непредсказуемыми перескоками точки ввода.
Я про это, признаться, и забыть успел, ибо на чужих ноутбуках давно не работал, а на своих всегда внешняя мышь, и тачпад отключен.
На не-маках, кстати, довольно регулярная проблема

так на маке же простое касание тачпада ничего не делает, нужно именно кликнуть. Да и сдвинуть курсор основанием большого пальца получится разве что специально
простое касание тачпада ничего не делает, нужно именно кликнуть
А (если вам не сложно) как тогда выглядит перемещение курсора мыши? На обычном это коснулся, провел пальцем, отпустил. А на маке?

На маке так же. Но для клика нужно именно нажать на тачпад, а не просто коснуться как с типичными PC-тачпадами.
Т.е. даже если защита от случайных касаний не сработает — все, что произойдет на маке — это немного поездит курсор, но нажатий не будет.

Может вы когда печатаете кисти держите на корпусе? Это весьма опасно и провдит к тунельному синдрому, кисти должны быть в воздухе при печати.

Задумался.
Последил за собой. Иногда держу на корпусе, иногда в воздухе, в зависимости от продолжительности сеанса печати. Если надо напечатать два слова, а потом подумать над следующими двумя, то на корпусе. Если нужна длинная фраза, или больше одной фразы — то кисти в воздухе.
Но туннельный синдром в наличии, хотя в довольно легкой форме. Шесть лет уже… правда по ощущениям, больше от привычки подпирать рукой подбородок. Пришлось себя переучить на подпирание кулаком.
В маковской мышке, часть жестов доступна прямо на ней. Так что можно особо ее не откладывать )
НЛО прилетело и опубликовало эту надпись здесь
От тунельного синдрома, хорошо помогает музыкальная школа по класу пианино. Там как раз очень сильно заставляют НЕ держать кисть «на корпусе» )))
Как по мне, так лучше помереть от туннельного синдрома, чем ещё раз встретить мою училку по музыке.

Думаю, человек перепутал TFT и TN.

Что самое интересное, но светодиодный AmOLED тоже основан на технологии TFT… почти все дисплеи это TFT-технология, кроме плазмы и ЭЛТ. IPS, TN, MVA — это верхний уровень организации самих ячеек дисплея, а не его TFT-основы.
«Качественные» (с точки зрения пригодности к работе) и «ноуты» — вообще понятия несовместимые же
Я наверное вхожу в те 10 процентов). Я так и не понял зачем для типовых задач загружать на машину две операционки. Многое типовое ПО мультиплатформное.
Правда свежий стим клиент на каталину еще не пришел.

С индивидами которые ставят на мак винду тоже знаком. Зачем они это делают я так и не понял. В игрушки которые они играли есть нативные версии и для маков. Возможно нет физически второго ПК.
Знаете, во времена XP и прочие сытые годы у меня была целая серия частных клиентов, которым я ставил винду на макбуки. Человек десять, наверное, общим счетом.

Ларчик открывался довольно просто. Человеку нужен ноутбук, человек спрашивает, какой ноутбук хороший. То реклама, то добрые люди советуют макбук. После покупки, распаковки и подключения следует минут десять офигелого взгляда с немым вопросом «что это и как с этим работать?», а дальше рука тянется к телефону и набирает номер знакомого эникея. Верните привычную винду!..
Вот с одним подобным. как-то общался в игровом чате. Купили ему в подарок Mac Pro. Вот он в печали что не понятно ничего попросил поставить винду. Возможно это единственная проблема.
Ну, к примеру, у меня на «семёрке» Excel 2016 летает, его не замечаешь. На Хакинтоше с Хай Сиеррой он же версии 16.20 как-то не того. Работает, да, но без той плавности и лёгкости как на Винде.
Хмм, летает экселька. Бывает подглючивает, но летает. Прравда я файлы больше 10 листов не редактировал.
Спрос нa «большие» игры на маках низкий, а на инди проекты все более-менее.
И тут я выражаю удивление играя в wow classic на air 13" 15 года

У меня imac и я играю. Но в нормальные игры, а не "это"

Я что то пропустил? Софт в mac os только подписанный будет ставится? Не пользователь и не слежу особо за ними, поэтому немного в шоке.
Нет, конечно. Но чтобы первый раз запустить неподписанный софт надо ручками в настройки безопасности заходить и разрешать запуск. Как по мне, вполне себе правильное решение, но большинство потенциальных клиентов автора просто не станут разбираться как это сделать.
А, т.е. примерно как в андроиде значит. Ну это еще не так страшно.

В андроиде надо всего нажать дружелюбную кнопошку и согласиться с недружелюбным проклятием. В макоси же в страшной консоли пишется заклинание, которое надо еще правильно нагуглить.

Что, простите? А вы давно макось запускали?
А, вы пытаетесь выключить Gatekeeper совсем. Видимо привычка с Windows отключать UAC осталась у вас слишком глубокой занозой.

Вот тут (парой постов ниже) человек разумный предлагает делать так, как я делаю уже несколько лет, и никаких нецензурных фраз в консоли и прочих танцев с бубном ни разу не требовалось. Но это же не наш метод, да?

Хамить будем дома, ок?

Указывать дома будем, ок? :)

Нет уж чистить комментарии, давайте разберемся.
Я написал комментарий с точкой зрения, которая была неверной, и я ниже это признал, поскольку мне на это несколько раз указали. Вежливо указали, заметьте. А вот эти вот "привычка с Windows" и "не наш метод" — это хамство, так не говорят с незнакомыми людьми. При том, что я в ответ не хамил.


Печально, что когда я поставил человека на место, меня заминусовали — это значит, что часть аудитории хабра не считает хамство в комментариях чем-то постыдным.

Просто путать хамство с сарказмом и иронией (и уж тем более грубить в ответ) — это как-то не очень… Вот и заминусовали.

Переход на личности — это вообще не про сарказм и тем более не про иронию.

Если вы про ad hominem, то здесь его нет.
Видимо привычка с Windows отключать UAC осталась у вас слишком глубокой занозой.

Это что?


Но это же не наш метод, да?

Это что?

давай попробуй заставь работать виртуалку с макосью, для автобилдов, без выключения всей этой маковской херни которую они наворотили.

Да есть еще адекватные люди в мире кторые для для запуска долбаного ранера, под сборку 1ОС приложений не покупают мак за 3к баксоф, а юзают более адекватные и технологичные решения, не смотря на обмазывание епла лицензиями, воплями про авторские права и всовыванием палок в колеса разработчикам на каждом шаге.
Ну у меня лежит на холодильнике домашний недосервер в mini-itx корпусе, успешно гоняющий Mojave под QEMU-KVM. Вот вчера Catalina вышла — надо бы обновиться до неё.

> мак за 3к баксоф
Самый дешёвый MacBook стоит чуть меньше 3k$ — примерно раза в три. И это новый-официальный. Если поискать на том же Авито, то можно взять за 30-40кР модель прошлых-позапрошлых годов, которая будет обновляться до последних версий ОС ещё очень долго.
… притом что оптимальные модели — прошки 2015 года и air 16го.
На MBP 15'' mid 2015 — early 2017 отзыв аккумуляторов пришёл :)
НЛО прилетело и опубликовало эту надпись здесь

Интересно. Не знал, надо будет попробовать, спасибо!

О каком заклинании речь? Нажать правой кнопкой, выбрать «Открыть» и нажать на «Ок»? Это невыносимое заклинание из терминала?

Когда-то не очень давно я интересовался данным вопросом, но гугл мне упорно подсовывал способ spctl master-disable. Так бы я с удовольствием использовал метод попроще.

НЛО прилетело и опубликовало эту надпись здесь
Пункта «Anywhere» вроде как нет в разделе «Allow apps downloaded from:», доступны только «App Store» и «App Store bad identified developers». Нужно руками через терминал включать этот пункт.

Не нужно его включать. Первый раз запускаете программу «ABC Super Soft» скачанную из интернета, появляется в настройках пункт «Разрешить запуск „ABC Super Soft“»
НЛО прилетело и опубликовало эту надпись здесь
Причём ещё с «кошачьих» версий, то есть лет так 10 примерно :)

При запуске от неидентифицированного разработчика оно сначала отправляет в пеший поход с эротическим уклоном, сразу после идём в «System Preferences»/«Security & Privacy»/«General» и видим там кнопку «Всё равно запустить это опасное приложение от неизвестного разработчика». Жмём её и запускаем повторно.
Процедура для каждого ПО однократная, дальше macOS запоминает Ваше решение и по мозгам в этом месте уже не ездит :)
Для разового запуска можно просто из консольки запустить без всего этого.

./AppName.app/Contents/MacOS/AppName
Ну если есть вопросы вида «А как это запустить?», то 99% что консоль — как чудовище адское :)
То есть, чтобы локально компилировать и запускать примитивный Hello world! надо каждый раз ходить в настройки? Или это разово для всех сторонних приложений?
Локальные приложения дает просто так запускать. А вот любое скаченное неподписанное — будьте добры через настройки разрешить.
Если подтереть альтернативные потоки файла (или как там это называется, где у файла хранится всякое и в том числе откуда он скачан) то все будет запускаться? Или локальное приложение имеется ввиду собранный на той-же машине хелловорлд подписанный в момент сборки?
Разово.
Просто через ПКМ -> Open и Ok в диалоге. Не надо никуда заходить, если приложению не надо что-то специфичное. Вполне удобная защита «от дурака» и случайного запуска.
Да, маркетинг берет свое. Разрабы кинулись на то что, на каждом углу ифон написано и макос, а яблочная компания как обычно — «обнаружила новый сегмент» покупателей. Теперь и разрабы попали в ключевой сегмент продаж))

Да, и автор прав, унизительная практика «ручного устаревания» всего и вся, не многим нравится.
Никогда всем сразу хорошо не будет. Apple всегда агрессивно вводили нововведения в своё ПО и свои интерфейсы. Обратная совместимость в Windows так же имеет свои минусы. Нынешние ОС настолько «утяжелились» лишним, что их спасёт либо жёсткое, частичное выпиливание менее актуального кода, либо переписывание с нуля. Не знаю, в вашей реальности во что такое крутое превратилась Microsoft которая десятилетиями несёт одни и те же факапы со своими ОС. Как по мне — все «хороши». Одни пытаются бежать впереди себя, другим уже некуда подцеплять вагоны к своему «товарняку».

Претензии понятны, но суть сводятся к вашим же словам о том, что вы не потянули как финансово, так и физически вести данный проект в одиночку на разные платформы, когда требуется ещё и поддержка клиентов.
Нынешние ОС настолько «утяжелились» лишним, что их спасёт либо жёсткое, частичное выпиливание менее актуального кода, либо переписывание с нуля.
А что с ними такого что их вообще нужно спасать? Если вам нужна система на тостер (хоть метафорически, хоть буквально), где нет ни места ни мощностей, то вам все равно придется искать или допиливать что-то отдельно. Но на абсолютном большинстве пользовательских машин которые продаются сейчас никакой проблемы поставить тяжелую винду с обратной совместимостью нет. Более того, за последние годы системные требования винды практически не выросли — то есть все большее количество железа может ее без проблем запускать. Так есть ли проблема которую вы хотите решить? В теории есть конечно, но что насчет практики? А вот проблема с ПО которое отвалится на макоси — совершенно реальна и с ней столкнутся множество людей.
Это так только со стороны кажется, когда думаешь что у всех комп не хуже райзен 1400/ай5 2ххх-3ххх/ФХ8320, 8 гигов оперативы, да видуха 560/1050 на 4 гига. Но когда ты осознаешь эту армию со встроенным видео с селеронами/пеньками/кор2дубами и прочими А4-А10, то понимаешь что таких компов более 50%. Даже если рассматривать только железо текущего года, ловенд при таком подходе даже для косынки не годится, не то что каких-то игр, в которых хоть что-то движется на экране. То есть если вам нужно лёгкое и холодное решение для простых 2D игрушек, то на 10ке непонятно как вообще этим пользоваться. Даже банальные задачи лагают. Это не правильно.
Да, я именно об этом. Увеличение мощности будет бесконечно, но значит ли это, что и ОС можно «утяжелять» бесконечно? Как по мне так быть не должно, ОС должны быть лёгкими и выступать графическими терминалами для рабочей среды без всего лишнего, чтобы максимальное количество ресурсов шло на выполняемые задачи, а не работу самой операционной системы.
Где то в далеке громко и страшно смеется Electron.
Собственно, обратная совместимость она утяжеляет систему только по хранилищу системных файлов, но то что именно реально мешает системе — это архитектура доставшаяся от предыдущих поколений ради совместимости. Не старые файлы и библиотеки кода мешают системе работать быстро, а архитектура которая позволяет этой совместимости существовать! Убираешь костыли совместимости с 16 и 32-битным кодом и становятся не нужны многие проверки и костыли на низком уровне, поэтому система начинает работать быстрее, а не из-за того что где-то там в недрах лежат старые файлы для совместимости. Они себе лежат и используются только когда запускаешь старое приложение, не создавая дополнительной нагрузки в работе системы.
Проблема только в том, что продать систему, работающую так быстро, что на ней нельзя ничего запустить, не получится. Не весь софт перешел и вообще собирается переходить на x64, допустим. И причин может быть много — от банального нежелания разработчика тратить силы ради нулевого результата, до того, что поддержка приложения закончилась 10 лет назад. И вместо того, чтобы подарить пользователю супербыструю ОС, вы подарите ему головную боль и проблемы, что скорее всего простимулирует его остаться на старой версии ОС и не покупать новую версию.
Коллеги, в корне с вами не согласен.
Ключевая проблема производительности десятки и восмерки не в совместимости, а в нагромождении телеметрий и желании пропускать все через свои сервисы. Если закостылить, то система начинает намного свободнее дышать.
Ключевая проблема производительности десятки и восмерки не в совместимости, а в нагромождении телеметрий и желании пропускать все через свои сервисы. Если закостылить, то система начинает намного свободнее дышать.


Позвольте с вами не согласиться:

Практика использования Windows Vista/7/8/10 на том же железе не подтверждает этого факта.

Напротив — именно Windows 10 заметно отзывчивее поколения Windows Vista/7

Что до телеметрии — то отправляющиеся в фоне данные не влияют на производительность.

Проверить про торможения из-за сервисов MS, «на которые все завязано», не могу — по причине того, что штатным образом (нажатием двух кнопок при установке) отказался от их подключения.

Согласно моему опыту использования win8/10, они выжирают огромное количество дискового ресурса и вполне ощутимое цп.
Поделитель, как вы отказались при установке? Тот же рантайм брокер через который много чего работает (даже дефолтное приложение для просмотра фоточек!) может намертво вешать систему если у вас много картинок в системной «картиночно» папке, во всяком случае так это было у меня на среднем ноутбуке несколько лет назад.
Вот прям практически мой случай, бук Дексп и7, 8 гб ОЗУ, хдд, вин 10 обновлена с 8… после запуска системные службы загружают хард на 90-95% + цп иногда прыгает до 50% и вся эта котовасия может идти от 15 до 40-50 минут — ситуация из коробки
для решения было принято решение перевести это безобразие на ссд и накатить чистую 10 с последующим ручным отключением ништяков от МС
как итог бук летает и больше такой фигней не занимается
ЗЫ да хватило бы просто чистой винды и оптимизации, но для большего комфорта было принято решение воткнуть ссд
НЛО прилетело и опубликовало эту надпись здесь
у меня точно такой же опыт. админить 10ку с hdd я отказываюсь, потому что это потеря времени для меня и пытка для пользователя
Пользовался prestigio 133s относительно недавно — только ssd потребовалось поставить чтобы винда десятка адекватно шевелилась. Но да, железка разве что для совсем простых 2d игр пойдет.
Пользуюсь классически AMD E1-2500 2x1.4, 8 gb ram, hd8240, wd blue 5400 оборотов(скорость около 100 мб). На венде все грузится вечно, очень медленно, хотя даже такой проц не очень напрягается при загрузке софта, как будто скорость загрузки специально сделали медленней на жёстком диске. Фоновые задачи требуют перемалывания пару ТБ в день, то есть елозят диск постоянно. Браузером пользоваться невозможно. Как только поставил Linux Kubuntu 18.04.3, мгноменно все начинает летать. Весь софт с телеграмами/вайберами и прочим хламом с браузером Вивальди вкладок на 15 жрёт около 3.5 гб озу, загружается около 20-50 секунд, правда это больше с интернетом связано, шарю мобильный. По домашнему вайфаю около до 20 секунд максимум, если ютуб вкладка открыта.
Я так понял у вас не ssd? Да, вот к чему — а к диску винда очень требовательна.
НЛО прилетело и опубликовало эту надпись здесь
Оптимизация — это тоже ресурс, и очень сильно платный. Есть деньги — им занимаются, но обычно на это никогда нет денег, поэтому занимаются по остаточному принципу. Кроме того, глубокая оптимизация требует дорогих специалистов высокого уровня, каких мало и на всех не хватает даже если есть деньги.
Понимаете, для того, чтобы программы работали быстро, оптимизация не нужна. Оптимизация — это, грубо говоря, выжимание дополнительных 10% производительности. А чтобы плохой код работал не на 10% быстрее, а в 10 раз, нужна не оптимизация, а обычная нормальная культура разработки. Это вообще бесплатно, просто надо сидеть и писать нормально, а не через задницу.
10% это тюнинг а не оптимизация. Бывает ускорение в разы только от элементарных правок кода, о которых сразу не подумал или не стал заморачиватся из-за дедлайнов.
Увы, нормальная культура разработки в гражданке невозможна — она просто не выдержит конкуренции. Пока вы будете выводить идеальный код, конкурент займёт весь рынок поделием из палок и вам просто не будет места.
Пока вы будете выводить идеальный код, конкурент займёт весь рынок поделием из палок и вам просто не будет места.

Причем к тому моменту когда вы будете готовы запустить релиз свой идеальной программы — конкурент выкатит уже 2 или 3 версию с доработками, новыми фичами и поправленными дефектами и ваша идеальная программа будет не так уж сильно выигрывать на фоне популярной.
Для этого надо нанимать более дорогих и толковых разработчиков, организовать для них максимально удобные условия, чтоб в гугл не сбежали, тиму билдить…
Куда проще нанять быдлокодеров, продать продукт, получить доход и заняться чем-то новым. Или новой версией, которую тоже скорее монетизировать.
ну тут да, но проблема не только в этом. Раньше ловенд был для нетребовательных задач, а сейчас для чего? Сейчас ниже мидлэнда смотрится как будто это мусор, который хотели выкинуть, но решили на этом заработать. Ибо подождать загрузки то не страшно, но вот то что это лагает — это грустно… разработчики вообще живут в своём каком-то виртуальном мире с железом овер 5000 зелени и 1 гбит интернетом.
Всем привет, я разработчик. И моя домашняя станция стоит примерно 2,5k$ (а не 5k$).
Это NVMe накопитель (примерно 3Гб/сек), 64Гб ОЗУ и 8Гб видеопамяти. 2015/2016-й год по железу.
Но этого мне хватит аж до 2022-го.
При этом на оптимизацию я не забиваю. Просто у меня такая работа, что чем больше я сожру памяти и процессора, тем как раз выше она самая (оптимизация)… надо умудриться утилизировать как можно больше мощности ради увеличения скорости работы ПО (железо должно работать по максимум).
Это был сарказм? Похоже мне не хватает таблички «Сарказм»
Ну в моем сообщении сарказма нет совсем никакого — разработчики не всегда забивают на оптимизации. Однако надо понимать что у разного софта есть разное понимание оптимального пути.
Скажем где-то софт будет использовать предельное сжатие всех ресурсов и места будет кушать на диске минимально-возможно (еще и не будет тащить с собой даже самых критически важных компонентов, рассчитывая на их уже наличие в ОС).
Однако во-первых оно может даже не запуститься, во-вторых будет вечно жрать ресурсы ЦП на всевозможную декомпрессию по 100500 раз.
Взять те же современные игры, размер которых перевалил далеко за 50Гб. Да, это одна из самых лучших оптимизаций — мы теперь не едим мощности на компрессию-декомпрессию ресурсов. А в сыром виде их кормим видеокарте.
Или моя ситуация — софт будет кушать столько памяти сколько найдет. И это будет исключительно правильно. Такая заточка у него.
Хотя коллеги по общему IT цеху от такого бывали в ужасе (когда рассказывал). А то, что время исполнения снизилось радикально в десятки раз — это они почему-то (сарказм) считали само собой разумеющимся.
Задача то не любоваться десятками гигабайт памяти и тонной потоков-ядер, а получить выхлоп как можно скорее. Соот-но чтобы приблизить выдачу результата надо как можно более сильно распараллеливание вычислений. Желательно еще и так, чтобы даже если упадет, то остальных не затронуло — значит всюду тонны дублирования, память расходуем камазами. Но никакой в этом трагедии нет. Железо обязано работать.
какая демагогия… это имеет смысл со сложными вычислительными задачами, пусть даже с играми, но тоже спорно. Что-то можно пережимать, что-то нет. А просто раскатывать в оперативе бесконечный кеш… зачем? Это просто бросаться из крайности в крайность. Многие игровые проекты, часто показывают диаметрально разные системные требования при идентичном геймплее и уровне графики. О простых программах вроде месенджеров и говорить бессмысленно, вы видите как они жрут по 100+ или 300+ метров под улюлюканья в стиле «ну это не так и много в 2019 году, блабла», «если не можиш купит себе нормальный пука нищеброд, не пользйся, тибя никто не застявляет». Что это за бред? Как можно клиент, который выглядит точно так же как и оххулиард лет назад превратить из программы жрущей 10 мб в программу жрущую 300 мб+?
пусть даже с играми, но тоже спорно

Ничего спорного в упор не вижу. Зато вижу тот же FarCry 5, который просто идеально летает благодаря подобному подходу.
Если у кого-то не хватает головы правильно использовать концепцию — тут концепция не виновата.

Что это за бред?

А я откуда знаю — мне этого приписывать не нужно. Про это я ничего не говорил.

какая демагогия

И где тут демагогия тоже не понимаю. Я рассказал про то, как кто-то не понимает зачем в определенных ситуациях нужно всепоглащение ресурсов. И что это и есть оптимизация.

*У меня есть еще один пример перед глазами — Cities Skyline… эта игра у меня сжирает 25-30Гб оперативной и 24 видеопамяти (8 своей + еще 16 отбирается из общей).
И это просто прекрасно! Игра изумительно плавная, позволяет строить целые агломерации, а не пресные кварталики, как в SimCity 2013. Чувствуется исполинский размах.
И лагов нет — вся игра в память целиком.
И где тут демагогия тоже не понимаю. Я рассказал про то, как кто-то не понимает зачем в определенных ситуациях нужно всепоглащение ресурсов. И что это и есть оптимизация.

Оптимизация — это максимально эффективное использование ресурсов компьютера, где используют подходы что экономят и память, и процессор. Far Cry 5 — это как раз довольно жрущая игруха., по сравнению С.
*У меня есть еще один пример перед глазами — Cities Skyline… эта игра у меня сжирает 25-30Гб оперативной и 24 видеопамяти (8 своей + еще 16 отбирается из общей).
Щикарно, расскажите как она у вас до 100ГБ+ доползёт. Я так понял вы в неё не играете, а меряете объёмы отожраной оперативы? И считаете что прям меньше она ну никак не может жрать?
где используют подходы что экономят и память, и процессор

Это лишь частный случай.
Кто сказал, что их надо экономить? Для моих задач выгоднее их тратить на 99%, но получать результат быстрее/надежнее. Это тоже оптимизация.
Глупо ждать выхлоп программы неделю — он уже станет бесполезным и бессмысленным. Зато да, ой как мало будем расходовать ЦП/память.

Время самый важный ресурс, который никак не купить. А памяти еще десяток Гб закинуть можно.

И считаете что прям меньше она ну никак не может жрать?

Вы опять не понимаете — я этого не хочу.
Ибо ценой станет постоянное насилование дисковой подсистемы. Зачем оно надо, когда можно от этого избавиться и поднять производительность?
С игрой понятно. А вот объясните лучше, почему скайп для своих задач не обходится хотя бы 50 Мб памяти вместо 800, хотя все сообщения в нём, профили пользователей, смайлики и прочее говно прекрасно поместятся в 1 мегабайт. Или зачем Хром съел 250 мегабайт памяти для рендеринга вот этой страницы? Хотя нет, последнее как раз в целом понятно, расскажите лучше, зачем на этой странице 2.5 мегабайта минифицированных скриптов, для её-то функционала «отправить пост», «редактировать пост», «лайкнуть пост» и навигации?
не обходится хотя бы 50 Мб памяти вместо 800, хотя все сообщения в нём, профили пользователей, смайлики и прочее говно прекрасно поместятся в 1 мегабайт

Меня этот вопрос, как ни странно интересует аналогично.
Скайп — это просто универсальная звонилка-мессенджер. И для таких целей расходы ресурсов аналогично считаю излишними.
Вместе с тем графики явно куда больше чем на 1Мб — есть поверие, что аналитический отдел пришел к выводу «пользователи любят смайлики»
Поэтому скайп ими нафаршировали по самое-самое. Их тонны. Высокополигональных и анимированных.
Но на 800Мб разумеется никак не тянет.
расскажите лучше, зачем на этой странице 2.5 мегабайта минифицированных скриптов

Ну это аналогично не ко мне — если я пилю фронт (что не будет профильным занятием), то по полной использую современные инструменты в том числе и для уменьшения кода в бандлах.
Но у меня нет никаких соц.сетей и прочего не профильного кода (пишу только панели управления софтом… к примеру запуск из браузера браузеров).

P.S. По поводу скайпа есть у меня, с точки QA, много нареканий не столь очевидных. Но однако показательных.
Наиболее понятным будет ситуация вида:
— У вас километровая лента переписки за этот день с собеседником (или группой лиц — тут это не важно)
— Вы хотите отправить файл в чат, перетянули, нажали Enter. Пошла загрузка.
— Вам написали в другом километровом чате. Переключаетесь туда.
— Хоп, загрузка в первый чат оборвалась. Почему? Потому что каждый чат представлялся отдельной изолированной средой в рамках одного приложения.
И да, это разработчики так позаботились об экономии ресурсов юзера — чат не «активный» (не текущий), значит прибиваем активность по максимум.

Вот серьезно, по мне так нафиг такие оптимизации уж делать было. Сей кейс актуален был на это лето.

P.P.S. Но данная ситуация хорошо объясняет потребление оперативной памяти — каждый чат в «своей копии вселенной».

UPD: Про ваш интерес о весе этой страницы. Запуск экспресс анализатора примерно подсказал первоистоки: у нас тут не только базовые сторонние скрипты, но так же и функционал для скажем редактирования сообщений. И вроде как кнопок в форме не то, чтобы прям дофига, однако внутренней логики на JS тут на сотню кб думаю хватит вполне.
А еще библиотека для подсветки кода — там логики тоже тонна. По факту примитивнейший парсер все же.
И код для ютуба в догонку.
Это только по диагонали девтулами пробежался.
Честно говоря, ещё интересен момент в скайпе со скорость отправки сообщений. ООООООООчено долго. Как будто на GPRS сидишь)
Кто сказал, что их надо экономить?
Здравый смысл.
Ибо ценой станет постоянное насилование дисковой подсистемы.
А зачем её насиловать? Если учесть что многие игровые проекты делаются из пачки ассетов, то часто более 50% объектов и так есть в оперативе. А если что-то и подгружается, то это новые объекты, и их не так и много выходит. Я не считаю это насилование жёткого диска, ибо нормально для игр с открытым миром, ибо сам сам мир может и 1 тб весить. Или считаете что надо все же купить 1 тб озу?
Здравый смысл.

Именно! И этот самый здравый смысл мне же говорит — у тебя 100500 лс под капотом безумные вычислительные мощности. Зачем страдать в ожидании, если можно натравить злую числодробилку чтобы получать результаты мгновенно?

Серьезно, зачем жить словно бабушка и её сервиз из серванта? Это когда имеют красивое, но не используют. Глупость и бред же.
делаются из пачки ассетов

Эх, вот как раз скалайн и сделан для широкой публики, хорошо оптимизирован в рамках своей тех-платформы. И он эти самые десятки тысяч ассетов хранит в памяти только если есть где их хранить. А если памяти нет — он её таки чистит! А далее по триллиону раз грузит то, что мгновение назад убрал.
Чудес не бывает!
Хотим продвинутые игры? Они всегда будут жрать нереальное кол-во ресурсов. А могут еще и жрать диск.

Другой пример игры, где нет графония — KSP. Тот самый пресловутый симулятор НАСА. И даже не смотря на отсутствие графики эта игра жрет мощности только так.

Только божество сможет заставить это работать на мощностях калькулятора
image
Именно! И этот самый здравый смысл мне же говорит — у тебя 100500 лс под капотом безумные вычислительные мощности. Зачем страдать в ожидании, если можно натравить злую числодробилку чтобы получать результаты мгновенно?
В этом вся суть. Вместо одноразовой компиляции с оптимизацией предлагается интерпретировать каждый раз кучу скриптов. Как тот же скайп или атом.
Эм, ок, я вижу что высказался криво (меня раз не поняли)…
Безусловно вы правы, лучше вложиться в оптимальный код еще на фазе изготовления/разработки.

Однако надо понимать и иной момент — колоссальные траты ресурсов не всегда причина «кривого кода». Иногда это следствие самых банальных что ни есть вычислений.
Скажем 20 бразуеров в один момент и параллельно. Это именно то, что делает моя программа.
Эм, ок, я вижу что высказался криво (меня раз не поняли)…
Безусловно вы правы, лучше вложиться в оптимальный код еще на фазе изготовления/разработки.
Вы как раз высказались прямо и я вас понял. Вначале разработчик и заказчик покупает компьютер за много денег. Потом, чтобы сделать задачу побыстрее, берут что-то интерпретируемое-переносимое, со множеством абстракций. На то, чтобы переписать ближе к железу нет то ли времени, то ли желания. Даже работая с железом не заморачиваются потреблением примеров. А ведь это только один блоб только в одном месте разобрали. Что будет, если открыть его исходники и начать переписывать?
Скажем 20 бразуеров в один момент и параллельно. Это именно то, что делает моя программа.
Возникает закономерный вопрос — число 20 как-то настраивается? Очень плохо, когда разработчики начинают думать, что это единственная полезная программа, или же что эту программу кто-то перезапустит, если её кеш займёт слишком много места
Возникает закономерный вопрос — число 20 как-то настраивается?

Разумеется настраивается. Я QA, пишу автоматику. А это моя домашняя батарея для параллельного исполнения функциональных тестов :)
Браузеры свои я не напишу при всем желании (и даже возможности, если бы она была) — надо тестировать не в тех, что у меня, а у юзеров.

А если я бы делал, как глупо утверждает мой другой оппонент — я бы итоги прогонов мог ждать в очень много раз дольше… больше чем в 20.
Есть мощность, она продается и покупается за деньги. Время мы не купим никак.
И этот самый здравый смысл мне же говорит — у тебя 100500 лс под капотом безумные вычислительные мощности. Зачем страдать в ожидании,
в каком ожидании? Подгрузка может быть фоновой и не заметной. Ну и не надо думать, что у всех такое железо. Программа должна иметь возможность запускаться на максимальном колличестве конфигураций. Иначе колличество людей, которые асилят запустить это будет критически мала и даже на мощных пука это просто ограничивает возможности железа, ибо получается что мы не используем его на полную. Например, я хочу что-бы на всей карте были лютые пробки, а не всех улицах ходили тысячи людей толпами. Какое мне надо железо для этого?
Серьезно, зачем жить словно бабушка и её сервиз из серванта? Это когда имеют красивое, но не используют. Глупость и бред же.
это так не работает. Вы вроде программист, а сравнение не соответствует.
Только божество сможет заставить это работать на мощностях калькулятора
2 ядра, 4 гига. Притом проц на 2 ГГЦ пойдёт, практически любой, кроме очень старых, типа самых первых пеньков D. Даже по картинке видно, что количество повторяющихся объектов тысячи, а квадратно гнездовые улицы покрытые одинаковой текстурой… Я конечно поближе не вижу, может там по 1 млн поликов вон на том кубике, изображающем из себя здание, но на таком расстоянии LODы должны резко резать детализацию.Но при приближении при всём желании нельзя увидеть все объекты сразу. Выглядит так, что даже окажись на любой улице, в принципе любой видухи на 2 гб хватит. Если разработчики не асилили использование одних и тех же объектов по многу раз из одного и прочее и ставят рекорды «а вот сколько объектов я могу напихать сдублировав их 1 миллиард раз», то это не делает им похвалы.
Не весь софт пишется в надежде его распространить на «пука» (что это такое? У вас пука? У меня точно нет).
Мой софт пишется для тех, кто знает «зачем ему это».
Никаких проблем не имею с этим. У людей разные ценности — я для тех, кто ценит время (а остальное не имеет значения).
Так статичную картинку можно упихнуть и в 2 мегабайта. Но ведь каждое здание это отдельный объект, они хоть и одинаковые но в игровом мире каждый объект может хранить своё состояние отличное от других — например разрушена стена, в окне горит свет… и рисовать его надо будет как-то иначе, соответственно его состоянию. На одни только проверки состояний могут уйти приличное количество ресурсов. Даже если изначально они все были одинаковые.
Подгрузка может быть фоновой и не заметной. Ну и не надо думать, что у всех такое железо. Программа должна иметь возможность запускаться на максимальном колличестве конфигураций.

Программа-то запустится. Только что она должна будет делать, если выбранный вами мир для загрузки помещается в оперативку только наполовину? Любое движение и уже нужна подгрузка с диска. Причем фоновость уже не очень-то и спасает.
Но ведь каждое здание это отдельный объект, они хоть и одинаковые но в игровом мире каждый объект может хранить своё состояние отличное от других — например разрушена стена, в окне горит свет… и рисовать его надо будет как-то иначе, соответственно его состоянию.
Конечно, и надо прорисовывать все 1000 вариантов здания сразу, особенно те, которое находится за 100км и занимает 0.01 пикселя. И конечно это с тенями в 16к и полной колизией.
На одни только проверки состояний могут уйти приличное количество ресурсов.
Конечно, все ж состояния надо проверять, каждую секунду, по 100 раз минимум, а то вот та травинка в Нарнии в одном из шкафов в домах за 100 км нереалистично/не по физике колышется. Срочно исправить!
Программа-то запустится. Только что она должна будет делать, если выбранный вами мир для загрузки помещается в оперативку только наполовину?
Как вы себе это представляете? Как надо поставить камеру, что-бы мир такого масштаба поместился наполовину? Если объекты рядом с вами, то их колличество становится мизерным. То есть условно находясь на улице в поле ближнего вашего зрения впихнутся 5-7 домов. Если дома уже идут дальше, 100метров+ они уже заменяются менее детализированным вариантом LOD, и не представляют такой нагрузки. Вид как на скриншёте может быть получен путем замены домов на кубы, дороги просто плоскости. Автомобили могут быть заменены на спрайты, как в Wolf3D, все равно они занимают 10 пикселей всего, а то что дальше и того меньше. Двигаясь, нет необходимости загружать овер 1млн объектов, ибо они просто не впихнуться в экран, потому подгружаться будет 10-20 объектов не более того. Если надо резко переместится на новое место буквально телепортацией, то все равно подгрузка займёт секунды, что видно по игрухам типа Ведьмака 3, хотя там судя по всему вообще ничего не оптимизировали, и при заставке на движке видно как 3-4 секунды появляются текстуры на стенах. но это разово и дальше идёт идеально ровно. Так что в реальной жизни такая проблема просто создана разработчиками игрухи или софта, не более того.
Одна только проверка попадает ли объект в поле зрения, с какой детализацией его надо отрисовывать и выбор метода отрисовки уже сам по себе способен создать нагрузку в случае очень большого количества объектов. Эти проблемы как-то решают, но везде есть предел. Если, к примеру, окно даёт блик за 10км, а мы отрисовываем объекты в детализации только в радиусе 1км уже будет проблема.
Объекты можно как минимум сортировать по группам, а поле видимости просчитывать Z-буфером. Если объект попадает на экран, он лодируется. Так же группы объектов могут быть по местности, которую они занимают, типа 100 на 100 метров и когда игрок находится возле этих объектов сортировать только их. Так же необязательно проверять все участки, а только в пределах видимости, например площадь 1 х 1 км, то есть 100 таких кусков по 100 на 100 м.
Если, к примеру, окно даёт блик за 10км, а мы отрисовываем объекты в детализации только в радиусе 1км уже будет проблема.
А зачем его вообще рисовать? Его что, видно?
Конечно видно. Это может быть не блик, а лазерная подсветка.
Забавно бывает иногда наблюдать как во многих играх прорисовываются горы когда подходишь к краю игрового пространства… пока не подойдёшь — гор как бы не существует. Забавно, но неинтересно.
Так вот почему на 32 гигах она у меня ели запустилась.
Спасибо за подсказку.
Как вы метко с фотошопом подметили. Я давно это заметил. Помню ВАУ эффект, когда я поменял hdd на ssd и фотошоп запускался мгновенно. А сейчас поставил топовый ssd в надежде хоть немного приблизиться к тому, что было раньше на ssd, но нет. Фотошоп запускается те же 5-10 секунд и подвисается немного после запуска. Все в точности как было на hdd 10 лет назад. Печально. Не понятно, в чем прогресс? Столько всего нового изобрели, а по факту все работает так же, как и раньше.

Я утром логинюсь в комп, запускаю skype, telegram, firefox, yandex.disk и иду заваривать кофе. Потом возвращаюсь к компьютеру и начинаю работать.
НЛО прилетело и опубликовало эту надпись здесь
32 гига шустрой памяти, 8 ядер ряженка и ссд. Только это могло спасти отца русской демократии чтобы подобное добро включая торенты запускались за несколько секунд. По моему это как-то излишне для бытовых задач.
16 гигов, i7 6700 и нормальный ssd. ОС вместе с браузером, почтой, мессенджерами и прочей требухой (иногда сразу андроид студию запускаю) — запускается за считанные секунды. Вместе с самой виндой секунд 10-15.
Почему? Что поменялось в требованиях к диску?
Да кто же его знает, тем не менее это довольно общеизвестный факт что на hdd работать практически невозможно.
Скорей не требования поменялись а способ работы с накопителем. Теперь ещё больше программ конкурируют на доступ к накопителю, а у винчестера очень плохой показатель по максимальному IOPS, отсюда и тормоза. И кеш не помогает — он эффективен только в пределах одного приложения. Разве что вариант использовать десятки гигабайт RAM под общий кеш диска… но тогда ой как больно будет в случае крэша.

Intel RST позволяет использовать SSD (или Optane) как кеш к механическому диску. Работает довольно бодренько.

У вас просадка не по скорости работы винчестера, а по способности его обрабатывать запросы. Обычно для винчестера это значение лежит в районе 100 запросов в секунду. Будешь запрашивать у него по одному сектору за раз, так можно реально скатится до скорости древнего флоппи-диска 200кб/сек и меньше.
Линукс, похоже, банально всё кеширует в RAM или использует оптимальные способы хранения необходимых данных, так чтобы их можно было считать максимально большими кусками. Для Виндовс этому мешает старый легаси-код. Когда-нибудь от него избавятся тогда и залетает… только боюсь к тому времени ОС на винчестерах хранить буду только для целей резервного копирования.

Нет, дело не в легаси. Мой ноутбук с семеркой может вообще диск останавливать и запускать его, только когда открываешь какую-то программу или жмёшь ctrl+s в уже запущенной.
Десятая винда сама по себе безостановочно что-то на диск пишет или читает. Прям сам процесс system может мегабайтами каждую секунду читать и не понятно, как избавиться от этого поведения.

Отчасти помогает остановка сервиса обновлений, но что там еще фоном пишется непонятно.

Монитор ресурсов не показывает ничего? Хотябы в какие файлы пишет, должно показать… может логи составляет.
В 7 было достаточно отключить запись логов событий, чтобы практически ничего не писалось просто так на диск, в 10, видимо, надо избавляться от всей телеметрии и Windows Store (взять основой LTSB версию).
Отключите Application Experience, очень помогает, эта система периодически сканирует диски и делает это крайне не аккуратно. Затем задачи во встроенном антивирусе, если у вас не стоит сторонний, тоже иногда что-то там не понятное происходит не связанное с запланированной проверкой программ.
Пользуюсь классически AMD E1-2500 2x1.4, 8 gb ram, hd8240, wd blue 5400 оборотов(скорость около 100 мб). На венде все грузится вечно, очень медленно, хотя даже такой проц не очень напрягается при загрузке софта, как будто скорость загрузки специально сделали медленней на жёстком диске. Фоновые задачи требуют перемалывания пару ТБ в день, то есть елозят диск постоянно. Браузером пользоваться невозможно. Как только поставил Linux Kubuntu 18.04.3, мгноменно все начинает летать


А вы не продобовали ради объективности просто переставить Windows и сравнить как оно будет с нуля, с чистой ОС Windows?
Это и была чистая венда, 10 PRO. Я скачивал Victoria и драйвера…
Пользуюсь дома еще более классическим Pentium E2160 2x1.8, 4gb ram, 128gb SSD на 1-м поколении SATA, win 7 черте какого года уставновки, видео — антиквариатный Radeon 2600. Основное приложение — как раз таки браузер с кучей закладок)). Производительность устраивает, менять не собираюсь.
Правда из запускаемых игрушек — только не менее классическая Lineage 2.
это ещё не поставили 10ку) Я бы оперативы добавил до 8 гб хотя бы, ибо судя по всему быстродействие достигается елозеньем свопа по SSD. А так комп ещё очень бодрый.
По-хорошему здесь бы какую-нибудь статистику вместе с системными требованиями. Я вполне допускаю что неправ, но просто перечисление отличающегося жизненного опыта слабо убеждают.
Винда последней модификации работает отлично на древнем ноуте 11 года с i-2600 на борту.
И она же отлично себя чувствует на неттопе построенном на двухядерном пентиуме на ядрах атома 2013 года разлива.
Да игрухи на них не поиграть тяжелые, но обычные задачи не доставляют никаких проблем, лагов никаких нет.
Игры сами слабо оптимизированны так что ОС тут не поможет. А 10ка да, слишком много обновляется, слишком часто лзет в Интернет и слишком много ведёт фоновых процессов, но тут дело не в «наследии», а в политике компании и сремлении к SaaS в потребительском сегменте. Хотя и старых багов хватает, возьмём тот же лаг при правом клике мышкой в проводнике.
Там и новых багов хватает, которые не правятся годами. Например, если в папке есть хотя бы один файл, полный путь к которому вместе с именем длиннее 260 символов, то проводник неправильно рассчитывает размер папки по правый клик->свойства.
Алгоритм доходит до этого файла и обламывается, указывая то количество мегабайт, которое успел насчитать на текущий момент. В Windows 7 всё обрабатывается корректно, там этого бага нет.
Багу уже больше года, но его никто и не собирается править. Они более важным делом заняты — спешно фиксят все известные способы отключения обновлений и телеметрии.
спешно фиксят все известные способы отключения обновлений и телеметрии

Всегда есть групповые политики, которые им не отключить (ибо бизнес не поймет). Пользуйтесь и радуйтесь отсутствию апдейтов :)
Мой опыт с вашим не сходится. У одного старшего родственника недавно сгорела видеокарта в его древнем Core 2 Duo и 4GB. Я ему закинул «затычку» в виде GeForce GT 710 с пассивным охлаждением и SSD от погибшего ноутбука, который у меня валялся без дела. Там уже была 10-ка. И вполне себе норм, гораздо лучше работает, чем его Vista со старого харда. Т.е. для интернетов, роликов с Youtube и офисных задач вполне даже хватает. У дядьки моего Ryzen 3 1200, SSD, 8GB и подобная же «затычка» в качестве видеокарты. Все отлично, как домашний ПК он справляется со всем прекрасно. Да что там, у меня у самого в старой квартире стоит Core i3-2100, 8GB, SSD. Так я на нем еще и работаю, когда там бываю: для всякой несерьезной веб-разработки и т.п. его более чем хватает. И везде W10 и без каких-то проблем. Встроенное видео на старых процессорах — это да, печаль. Тут согласен: скорее всего это уже нежизнеспособный вариант даже для банального домашнего использования.
То что вы назвали — нифига не ловэнд железо, особенно Ryzen 3 1200 и core Core i3-2100. У меня на старом компе Е6400 там им ещё до сих пор можно норм пользоваться. Ловэнд железо — это селерон Е3100 или из более современных 1007-1037U, 2900-3900. Это атом, типа D510-525 или из более современных — х8350 или прочие. Иногда человеку нужен холодный ноут или что-то в этом роде для просмотра видео например, общения в интернете, редактирования несложных документов. И судя по всем производители, да и програмисты в целом, не хотят что-бы мы это делали.
Таки Ryzen 3 1200 и core Core i3-2100 это лоуэнд. Такими темпами можно 386 процы до сих пор ставить в пример. Райзены в сравнении конечно будут совсем не лоуэнд. Времена меняются, прогресс идет.

А для «холодный ноут или что-то в этом роде для просмотра видео например, общения в интернете, редактирования несложных документов» давно придуманы планшеты разного рода. От более игрушечных арм айпадов до полноценных сюрфейсов про.
А для «холодный ноут или что-то в этом роде для просмотра видео например, общения в интернете, редактирования несложных документов» давно придуманы планшеты разного рода. От более игрушечных арм айпадов до полноценных сюрфейсов про.


Low-end — это прежде всего цена.
А в вашем примере это не так.
Low-end — это прежде всего цена.

То есть 386ой за $20-30 (ибо уже раритет) это «не такой low end» как Pentium D за $2-5?
У всего есть свои границы. Так что да, boilroom описывает именно low-end на данный момент
На клавиатуре, где я могу полноценно печатать и запустить необходимый мне софт намного комфортней, чем на андроиде. Я даже не буду говорить о цене и сравнивать это с моим ноутом за 100 долларов.
И не утрируйте. Я имею ввиду именно современные процы с потреблением энергии до 15 ватт. А выбор просто чуть более медленного проца, чем мидлэндовый, не делает его ловэнд. i3/i5/i7 это явно производительные решения, а вот celeron N3xxx и N4xxx это уже ловенд. А вот мой E1-2500 пусть и не суперсовременный, но это ловенд.
попытка эксплуатации ноутбука образца 2009 года на Athlon x2 QL-64/4GB RAM/SSD после чистой установки сборки Windows 10 1809 провалилась — после каждой перезагрузки система уходила в себя минут на 10 со 100% загрузкой CPU от всяких обновляторов и antimalware executable и в это время имела околонулевую отзывчивость, притом эта активность периодически возникала ещё и после перезагрузки в рандомные промежутки времени. На более старых сборках таких острых проблем не возникало. При этом в драйверах 10-ки выпилили поддержку DXVA.

Откат на Windows 8.1 все проблемы решил — отзывчивость системы вернулась к норме и в качестве печатной машинки/браузера ноут стал работать нормально. И аппаратный декодер видео вполне себе заработал.

Так что всё же системы изрядно жиреют и требования к процессору и памяти потихоньку растут.
Купил недавно новый ноут с предустановленной 10кой естественно. Ноут неприрывно молотил хардом (при том что система стоит на NVME) и выл кулером процессора. Снес под корень и поставил Gentoo. Последний раз шум вентилятора и харда слышал когда ее компилировал.
Я не так давно сидел на компе с двухядерным процом дешёвого сегмента, и двумя гигами памяти. Нормальной там была только видеокарта — какая-то игровая джифрсина, 465 вроде. И я это считал игровым компом долгое время, нормально обновился только пару лет назад. Так вот — у меня там на семёрке нормально запускались игры(не топ ААА, но всё же), браузер, среда разработки, кино. Сейчас у меня десятка вместе с браузером уже кушает гига четыре памяти. Да, восьми гигов ей хватит, если игры требовательные не запускать, или там фотошоп. Но я бы не назвал ваши компы лоуэнд — это вполне себе рабочие лошадки, которые просаживаются только по видеокартам, и только в играх или обработке видео.
И при этом всем им достаточно установки 10 и SSD, и все начинает вполне себе шустро бегать.
Пройдет еще 5 лет — и все будет значительно лучше, я думаю.
Пройдет еще 5 лет — и все будет значительно лучше, я думаю.


С чего бы это?
Мне вот кажется, что наоборот, прогресс SSD достигнет плато, а софт будет и дальше жирнеть в расчёте на производительные диски. И начнёт ОС грузиться уже не 5 секунд, а 10… 15… 30… (но с очень красивой анимацией и кнопочку какую-нибудь встроят, чтобы отвлечь пользователя).
А без SSD что, слабо работать быстро? После того, как бинарник прочитался в память вообще не должно быть никакой разницы, что там внутри ssd или cd-rom.
Если бы бинарник был один… и если бы только прочитался… так ведь система зачем-то постоянно разные файлы дёргает которых часто нет в памяти, что-то даже обратно записывает.
Не в том объёме. Изначально нужно прочитать профиль/конфиги, бинарник, плагины, то потом, если они всё ещё в кеше(если оперативки хватает) всё это перечитывать не нужно. В винде дисковая активность продолжается и после полной загрузки, и по этой причине винда вполне себе тормозит. В гну/линуксе этой лишней деятельности нет, и по этому система работает вполне нормально. Всё же не гигабайты кеша и конфигов программы пишут.
Да, в мире миллионы офисных машин. И на них действительно тяжело работать, но не с Виндой, а в браузере.
В целом, нужно иметь сильное желание чтобы сидеть на чем-то слабее того чего вы описали. А разработчику, наверное, по долгу службы надо иметь хороший инструмент. Пускай не топ, но хотя бы мидл.
у меня 10-ка вполне отзывчиво работает на китайском планшете 4х годичной давности с 1гб памяти и 16 гб диска и 4 ядерном ультрамобильном цп, какой там рейзен и 8 гб озу? Да, чтобы реально что то запускать помимо самой оси надо мин 2 гб RAM, но если на то пошло, то у моего прошлого нетбука 8 летней давности 10 гб озу, короче проблемы надуманные.
у моего прошлого нетбука 8 летней давности 10 гб озу, короче проблемы надуманные.
Умненький, благоразумненький Буратино, сколько же он стоит?
:)) Эм, это обычный дешевый нетбук леново S205 2011года= 450$ + сразу 50$/8gb DDR3, удачная модель с поддержкой до 2х8гб озу при своих <1,5кг. Сейчас он мало что стоит, хотя техника вечная, не то что ноуты последних лет- гнутся в руках под собственным весом, при долларовой цене 2х.
Года два назад я повелся на рекламу и купил сыну мини-ноутбук Asus с запаянным в плату 32 Гб флеш-диском и слотом под SD-карту. Там установлены Вин 10 и Офис, лицензионные — и все. На сегодняшний день — диск С: полон и даже если удалить все инсталляторы обновлений, временные файлы, чекпойнты, запретить службу обновления и т.п. — ОС все равно скачивает какие-то дополнения и обновления, поедая все свободное место.
Айфон, пользователь нафотал так что заполнилась вся память… с файлами ничего сделать нельзя, даже чтобы скопировать их на компьютер надо свободное место(копию файла перед копированием на компьютер делает?). Ладно, стали удалять файлы чтобы освободить… а место всеравно считанные килобайты, ага… система видит: место освободилось, продолжу ка я качать обновление системы.
хмм наверное можно заблокировать доступ к сервисам эппл, чтобы спокойно освободить место, но ситуация конечно ужасная.
Хорошо бы… но если есть только мобиьный интернет или чужая точка доступа? Не так это всё просто… и сервера наверняка CDN которые замаешься блочить. И обычный пользователь столкнувшись с этой ситуацией сможет это сделать? Время ушло ещё и на то чтобы выяснить источник проблем… А каково тем кто не шарит в технологиях?

Настройки > Основные > Хранилище и удалите выкачанный апдейт. Там же можно посмотреть что действительно занимает место. Не нашел как отключить авто-загрузку, но выключение Wi-Fi должно с этим помочь.


Фотки можно выгружать через iCloud Photo Library, система будет сама удалять локальные копии.


Также можете зайти в iCloud.com и скачать свои файлы из бразера, а потом их удалить.


Ну и покупайте больше памяти, что еще посоветовать.

Та-же ситуация ±. 32 гига на систему, 2 гига оперативки, атом вместо проца — снес офис (либре поставил), убрал вообще все с системного диска (благо еще 500 гигов в «клавиатуре»), выключил гибернацию, и как-раз после недавнего обновления десятка взяла и похудела почти на 10 гигов. Советую попробовать то-же самое — переустановка винды и обновить до последней версии, а потом уже ставить софт, вынести всякие аппдата вместе с папкой Юзерс на второй диск и пользоваться.
И в чем, собственно проявляется эта утяжеленность? Средний юзер со средним ПК ее как-то заметят? Или проблема только в некой идеологической составляющей, когда тебя напрягает, что свежая винда занимает 15 гигов (условно), а не 5 и тратит пару лишних тактов на какую-то проверку для древних приложений? Место на жестком диске сейчас не стоит практически ничего — юзер забивает свой терабайтный диск фильмами по 10 гигов. Поэтому к лишним 100 мегабайтам кода стоит относиться спокойнее. Юзер хочет двух вещей: чтобы работало и чтобы работало быстро. И он хочет этого одновременно, а не «будет работать быстро, но не все будет работать».
Многие фирмы еще весной продавали нетбуки с «диском» 32 Гб. Сейчас стараниями Микрософт на такой компьютер Вин 10 с Офисом уже не поместится. Соответственно, вышли новые модели с 64 Гб — насколько их хватит?
Ну кто такие нетбуки покупал, ССЗБ.
Суть не в ССЗБ — а в том, что официальная и лицензионная ОС написана так, что без всякого вмешательства пользователя распухает на 10 Гб за полгода. При этом функциональность не меняется. У меня дома основной компьютер — Мак, на работе Линукс — ни там, ни там этого не происходит (как минимум, в таких масштабах).
Уже не первый и не второй год не могу понять, откуда у всех берётся это распухание. Давайте посмотрим:
* свежеустановленная на виртуалку система (Windows 10 x64 Pro) — папка \Windows занимает 7,15 Гб.
* установленная на реальное железо как раз где-то полгода назад (менял HDD на SSD) x64 Enterprise (ну так получилось) — 11,5 Гб.
* Но! из них Installer ≈2,5 Гб; ну и разные драйверы/DirectX/VCRedist и так далее.

Что вы с ней такое делаете, что она пухнет?

Ах, да, если производитель — не дядюшка Ляо (привет, DNS!), то на таких устройствах должна использоваться технология WIMBoot, которая ещё более экономно распоряжается местом.
Ах, да, если производитель — не дядюшка Ляо (привет, DNS!), то на таких устройствах должна использоваться технология WIMBoot, которая ещё более экономно распоряжается местом.

Насколько помню, wimboot не позволит нормально проапгрейдить систему до следующего релиза — только с танцами с бубном, либо с убийством wimboot. Так что это тоже не панацея.
Винда обновления ставит, и папка WinSxS пухнет.
А вы оставьте ее ничего не делать пару дней и увидите. Как написал выше Areso, Update начинает тянуть обновления. Каждый пакет обновлений (сам по себе 2-3 Гб в архиве) — отьедает в установленном виде еще как минимум столько же.
А вы оставьте ее ничего не делать пару дней и увидите. Как написал выше Areso, Update начинает тянуть обновления. Каждый пакет обновлений (сам по себе 2-3 Гб в архиве) — отьедает в установленном виде еще как минимум столько же.


Еще Windows XP, что вышла в 2002 уже хранила историю обновлений и загруженные пакеты. И позволяла их безболезненно удалить по отдельному желанию пользователей. А вы до сих по удивляетесь?
Винда была установлена с настройками по умолчанию, так и работает, периодически обновляется, что я делаю не так?
Справедливости ради, должен отметить, что Линукс тоже умеет копить старые ядра и все такое у себя. Да, объемы меньше, а период полузаполнения выше, но те же яйца… иногда чиню такое клиентам на дешевых VPS-ках с маленькими дисками.

Это от дистрибутива зависит. В некоторых система обновления держит последние три версии ядра для fallback, в некоторых какое-то другое количество, а в других старые версии вообще не держатся.

Может быть, но в Линуксе большинство драйверов может управлять десятками разных устройств на том же чипсете (а то и на разных). В Винде драйвер принтера, например — сотни мегабайт, если качать с сайта производителя. Что они туда пихают — я ума не приложу, вроде как за последние лет 10-15 принтеры принципиально не изменились…
Один пакет драйверов под десятки принтеров… вот и размерчик. Потом туда включены цифровые копии инструкций к принтерам, файлы помощи и прочие подобные ресурсы. По копеечке, помноженной на количество поддерживаемых принтеров драйвером и получается сотня мегабайт.
В линуксе это чинится штатно и легко средствами пакетного менеджера.
ага, один раз я так пытался починить родителю линукс. Системный диск отказывался делать что-либо с ошибкой нехватки места. Причем удаление файлов не помогало, так как закончились иноды. Довольно долго разбирался пока нашел и восстановил.

Ну и штатно это примерно так
dpkg -l linux-* | awk '/^ii/{ print $2}' | grep -v -e `uname -r | cut -f1,2 -d"-"` | grep -e [0-9] | grep -E "(image|headers)" | xargs sudo apt-get -y purge

что сразу же напоминает мне три команды которыми можно установить генту
Ну и штатно это примерно так
У вас автоматический вариант, единственное что требуется, так скопировать в консоль и нажать Enter. Можно сделать несколькими командами, тогда выражение станет гораздо проще.
Место на жестком диске сейчас не стоит практически ничего

Только пропускная способность подгрузки в память этого 'ничего' для приложений и ос до сих пор остается самым узким местом по скорости.
Купить большой диск не сложно и не очень дорого. А что делать с тем, что большинству программ нужно как-то вместится в память вашего компьютера? А что с тем что все эти ресурсы будут последовательно обрабатываться антивирусами и индексером чтобы упросить вам поиск, тормозить при загрузке через 3g, да и наконец когда каждый производитель думает именно так и самого большого хранилища становится мало очень быстро.
Это все без учета компов в которых увеличить объем диска невозможно ( ну или очень сложно ака эппл ).
Нынешние ОС настолько «утяжелились» лишним, что их спасёт либо жёсткое, частичное выпиливание менее актуального кода, либо переписывание с нуля.
*смотрит на metro-приложения в Windows и GNOME 3 в Linux*
А вы уверены, что проблема в неактуальном коде?
НЛО прилетело и опубликовало эту надпись здесь
Выйдет. Если виртуалка (касается и VMware ESXi/vSphere тоже) запущена на железе производства одной конкретной компании. Потому что макось по лицензии нельзя ставить на другое железо. Даже в виртуалку.
А не официально — если надо в виртуалку — для VMware — берете патчер под нужную версию ESXi/Workstation и после этого все ставится штатно. Ну или ставите хакинтошные сборки.
На хосте лучше все же иметь интел а не amd.
НЛО прилетело и опубликовало эту надпись здесь
То есть, мне покупать эппловское железо только ради того, чтобы собрать мою софтину под эппл?

Есть еще www.macstadium.com
То есть, мне покупать эппловское железо только ради того, чтобы собрать мою софтину под эппл?

Официально — да. Ну или арендовать в какой то форме (те же хостеры вроде macstadium или там hosted ci системы вроде bitrise (они умеют и на маке собирать))
Virtualbox, VMware ESXi/vSphere, QEMU — без проблем, все легко нагугливается. С Hyper-V пока не умеет но если на Hyper-V поднять линух, включить для вируалки nested virtualization, то внутри получится и QEMU с макосью ))))
<Нынешние ОС настолько «утяжелились» лишним, что их спасёт либо жёсткое, частичное выпиливание менее актуального кода, либо переписывание с нуля.

Сравнивая размеры Windows разных версий основное как-то не похоже, что утяжеление идет от поддержки старого кода.
Если бы процент продаж игр на MacOS был не 4%, а существенно больше, чтобы окупить устройства Apple и время на разработку, то, думаю, программисты лучше поддерживали бы MacOS. Ведь на iOS и на PS4 такие же строгие правила публикации: обязательная премодерация игр, подпись софра платным сертификатом, принудительное устаревание API.
Чтобы процент был выше нужно либо мотивировать разработчиков делать игры, либо мотивировать пользователей покупать железо от эпл для игр, либо купить несколько шедевров эксклюзивов. Первый вариант эпл сейчас активно закапывает, игровыми мощностями за вменяемые деньги они никогда не славились, так что второй тоже не подходит. Остается третий, но это так себе дорожка. Впрочем может и сработать, PS как пример.
НЛО прилетело и опубликовало эту надпись здесь
«у вас всё не так, как в мире windows»
Все же потеря обратной совместимости это не просто другая парадигма. Это реальный объективный недостаток платформы.
Не буду говорить за всех, только за себя, но как по мне 32 битные программы нужно было выпилить уже давно, как начали внедрятся 64 битные. Я ещё на Windows 7 в году 2010 удивлялся двум папкам Program Files, ведь Microsoft мне сказали, что пришла эра 64 битных программ, а здесь всё равно большинство 32 битных ставится. Многое ли изменилось за 9 лет с таким подходом? Нет. Мы, люди, ленивые и никому не хочется переписывать софт если можно оставить и так. А когда выбора нет, то приходится либо подстраиваться, либо перестать поддерживать.
А зачем менять если оно работает? Я искренне не понимаю логики: «давайте заставим разраотчиков каждые n лет переписывать программы на новую технологию». Если оно работает — пускай работает, чем вам 32 битные программы не угодили то? Просто потому что они старые и не модные что ли?
НЛО прилетело и опубликовало эту надпись здесь
Я попробую ответить, что мне не нравится в 32-битном софте.
Во-первых, их поддержка в ОС рождает в ядре примерно полтонны костылей. И я не шучу — все эти прыжки между Long, Compatibility и Protected обходятся системе очень не бесплатно, а когда вызываются 32-битные syscall-ы — начинается истинный ад. О том, что надо тащить за собой ещё и 32-битные версии системных библиотек (чтобы загрузчику было, с чем линковать приложения) — напоминать обязательно?
Во-вторых, производительность. Ну серьёзно, у x64 16 64-битных general-purpose регистров, операции в которых стоят процессору примерно ничего. У 32-битных всего 4 регистра по 32 бита. Тут уже на любом алгоритме приходится лезть в кэш памяти (что уже не бесплатно, а его же ещё надо синхронизировать между ядрами), а при плохом раскладе в DDR (что ну вот совсем дорого).

А, вишенка на торте: каждая «дорогая» операция сказывается не только на занятом времени процессора, но и на том, сколько драгоценных электронов девайс сожрёт из вашей батарейки. Попробуйте попользоваться 32-битным фотошопом и 64-битным, и сравните скорость работы и потребление батарейки. Вы наверняка заметите разницу.

Резюмирую. Compatibility Mode надо выпилить нафиг из всех операционок, а лучше из железа.
И это сразу приведёт просто к чудовищным тормозам, потому что все будут вынуждены перейти на новые версии программ, а новые версии работают медленнее и весят больше.
Серьёзно, мне как-то не встречалось такого коммерческого продукта, где бы версия скажем 6.0 весила меньше, жрала меньше памяти или хотя бы работала шустрее, чем версия 3.0. Всегда, абсолютно всегда тормознутость от версии к версии только растёт. И хорошо ещё, если хотя бы и функционал растёт. А то ведь ещё и наоборот нередко бывает, когда какие-то функции в новой версии «нинужны», потому что разработчику их сложно поддерживать.
Именно поэтому значительная часть пользователей предпочитает сидеть на минимально возможной версии, которая только покрывает их потребности. Скажем, глупо ставить последний Офис, если абсолютно все документы в конторе могут обрабатываться OfficeXP, который загружается даже быстрее, чем вы сделаете двойной клик, на современном железе не тормозит и не отжирает своим ленточным интерфейсом четверти и без того узкого экрана ноутбука.
Так что в целом отказ от 32-биток — это отказ от маленьких и шустрых старых программок в пользу современных монстроидных угрёбищ, которые тормозят даже на 16-ядернике с 32Гб памяти.
А вы не передёргивайте. Тормоза софта не от 64-битной архитектуры, а от раздолбайства программистов. Заливайте им минусы в рейтинг приложения за тормоза, пишите в поддержку о том что пользоваться этим болезненно, и голосуйте рублём за качественный софт. Те, кто поймут — начнут изучать профайлер. Остальные просто сгинут с рынка. Это и есть эволюция и естественный отбор — adapt or die в чистом виде.
> Остальные просто сгинут с рынка. Это и есть эволюция и естественный отбор — adapt or die в чистом виде.

Пока я вижу только увеличение количества приложений на электроне. Зато 64 бита :)

С электронами и прочими реактами это правило тоже работает. В некоторых случаях их применение оправдано. Например, мне на работе пришлось делать кроссплатформенный тул (мак+вин+никс), причём по-быстрому, и чтобы в тул потом осилил "среднестатистический юзер с небольшим багажом специфичных знаний и парой страниц PDF-инструкций". Из того, что я знал в этот момент из подходящего — это NodeJS+Bootstrap, либо FreePascal. Решил использовать первый по причине того, что часть функционала уже была (в другом проекте) на ноде, а часть неплохо работала в нативном хроме. Работает себе и работает. Даже развивается. Но везде есть обратная сторона — например, я трижды подумаю, нужны ли такие бонусы такой ценой для продакшн-софта. С вероятностью в 80% — нет)

Ах, если бы. Вы это Адобу расскажите. До сих пор лучшая версия — от 2015 года

Видимо субъективно. Пользуюсь последним ЦЦ на МБА — никаких проблем не ощущаю. Хотя, у меня Фш/Ил не основные инструменты, может, если бы пользовался постоянно — были бы претензии...

НЛО прилетело и опубликовало эту надпись здесь
А вы не передёргивайте. Тормоза софта не от 64-битной архитектуры, а от раздолбайства программистов.

Так MicroSoft само всячески поддерживает такое раздолбайство. Новые версии ОС -> новые средства разработки -> новый код, тянущий больше ресурсов за счет новых фреймворков и библиотек и требующий последние ОС.
Резюмирую. Compatibility Mode надо выпилить нафиг из всех операционок, а лучше из железа.
Да, да, особенно из тех сборок в которых 2 Гб оперативки. x64 бессмысленно, если нет необходимости прямо в памяти обрабатывать > 3.5 Гб. Для регистров есть x32 abi
Серьёзно? То-есть про GP-регистры я зря написал? 64 бита это не только про память, но про архитектуру CPU в целом. Возможность адресации больше 4гб — лишь приятный бонус длинных указателей, не более того. Использовать 32-битную ОС на 64-битном CPU — это как купить авто с двигателем V8, но выкрутить из 4х цилиндров свечи и оторвать бензотрубки «чтоб топливо не жрало».
То-есть про GP-регистры я зря написал?
x86 != x32 abi != x64
Про x32 abi. По мне, ещё один костыль. Хотя, раз есть прирост производительности, то пускай существует. Однако он выполняется в long mode, и compatibility для него опять же не нужен.

И кстати, в англоязычной Вики упоминается, что его хотят deprecate.
И кстати, в англоязычной Вики упоминается, что его хотят deprecate.
По тому и хотят, что обленились. То поддержку не systemd выкинут, то героически начнут возрождать. Поддержка x86 не требует доработки компиляторов, поиска новых учебников, покупки нового железа. Тот же самый Космонавт в один момент решил поставить точку на x86, совершенно забыв про steam и wine, зато когда ему про это напомнили, то быстро пошёл на попятную. Проблемы с убунтой не было бы, если бы они сразу сказали — мы ориентируемся на сервер, а десктоп собирайте сами.
Отличный совет. Для любого пользователя который пользуется современным ПО, которое регулярно выпускается. А что делать компаниям, которые работают с ПО написанным когда-то давно, кем-то кого уже нет? Заказывать себе ПО у другой компании? Нанимать программистов? Я до сих пор помню страшный ужас, с которым столкнулся в районной администрации — у них сломался матричный принтер. Казалось бы — какая проблема? Поставить им новую HP-шку и дело с концом, администрация закупает железо, принтеры есть. Проблема в том, что данный принтер печатал на специфических бланках свидетельства о смерти\рождении\браке — не помню уже что именно. Печатал через свой драйвер. С помощью специфического ПО, написанного под DOS каким-то человеком, который там уже давно не работает. Поменяли принтер — нужно менять и драйвер. Поменяли драйвер — вместе с компом, а ПО для печати бланков запустили в DOS эмуляторе — разметку мест для печати на бланке невозможно нормально сконфигурировать. Не попадаем в поля. Несколько техников копались с этой системой неделю, в результате нашли на развалах такой же древний принтер, взяли от него рабочую печатную головку, и поставили обратно весь комплекс — принтер, комп с досом, ПО и драйвер. Потому что иначе — не работает как надо. А чтобы работало как надо — нужно нанять системного программиста который напишет софт. Это только один кейс, с которым я столкнулся. Но я регулярно читаю про такие же специфические кейсы — в разных узких областях. Проблема же не в том, чтобы переписать некий фотошоп на х64. Проблема в куче программ, которыми пользуются, но переписывать их некому. Слишком узкая ниша, никому не интересно писать для этого рынка, а те, кто использует такое ПО — не потянут оплатить работу программистов.
А зачем менять если оно работает?

Да в том-то и дело, что работает до тех пор, пока не попытаешься как-то связать 32-битные драйвера с 64 битным софтом и наоборот.
Например, простенькая вроде бы задача, выгрузить данные из таблички в Excel при помощи SSIS. Лет 10 назад, в 32-битную эпоху решалась за 5 минут. Сейчас, SQL-Server 64-битный, офис на машине тоже, а Visual Studio — 32-битная, и драйвера от Excelя хочет тоже 32-битные, которые поставить нельзя, потому что 64-битные (это которые от офиса) уже стоят. Ну, в общем, после часов так 6 возни, ставишь старый SQL-сервер, который 32-битный…
А потом надо деплоить это на 64-битный сервер. и все по-новой
Микрософт этой поддержкой легаси сделала себе продажи, т.к. корпоративный сегмент — это весьма медленный мамонт, который после анонса «а теперь мы нафиг выпиливаем совместимость со старым ПО» вполне себе может сказать «ну ничего, мы на старой версии посидим», ну а что, поддержка досовского софта была выпилена только в 64 битных системах в силу специфики 64битного режима работы. И пока стоимость обновления(а ещё бывает замены с переобучением и прочим) софта будет превышать выгоду от этого обновления — бизнес не станет обновляться. В пример вам Windows XP и её PoSReady версия, сколько её держали на плаву после сворачивания поддержки Win Xp SP3? В микрософт не дураки сидят, выкидывание совместимости им выльется в падение продаж и прочего, а если они к этому ещё и старую версию снимут с платной поддержки, то влажные мечты линуксоидов о мифическом прошествии «вендекапец» вполне себе могут начать сбываться.
Есть многие тысячи программ, которые не будут переписаны уже никогда. Да хотя бы одни только игрушки взять.
И многие тысячи людей, которые запилят что-то что б они работали. Вон, взять спектрумы — не самое новое изобретение, а народ клепает системы (и в контексте харда тоже), новые игры, новые контролеры, да в общем все клепает. Даже добавляет в современные дисплеи старые артефакты, для аутентичности )
Давайте половину ядра выкинем, поддержку 90% софта сломаем, а энтузиасты, глядишь, что-нибудь и придумают! (вообще не совсем представляю, как.)
При чём тут спектрумы — решительно не понял.
НЛО прилетело и опубликовало эту надпись здесь
… но на возвращение разъёма 3.5" я всё ещё надеюсь
В конце концов, мир консолей тоже зачастую убивает совместимость при смене поколения модели, но к этому все привыкли.
Ага, только вот там оно идет в обратную сторону: текущее поколение Xbox уже имеет обратную совместимость, и следующее поколение Playstation тоже её получит.
НЛО прилетело и опубликовало эту надпись здесь
Не запрети приказным порядком Стив Джобс эмуляцию кода в iOS

Там разрешён javascript / приложения-обёртки вокруг сайтов.

Как минимум с флешем, насколько я помню, там были сильные консерны по поводу безопасности. Если точнее — то с желанием общатся с железом на шибко низким уровне, что давало флешу потенциально неорганиченные возможности по влиянию на систему.

Хром, к слову, уже стал предупреждать о выпиливании флеша из себя в скором времени )
Я вот только не совсем понял. А в вин 10 есть обратная совместимость?
Ибо лично я, плотно перешел на мак именно после выхода вин 10, ибо часть софта (местами критичного для меня) перестала работать.

У друга в 10ке запустилась древняя игруха, которая не запускалась в 7ке…
Надо на конкретные приложения смотреть. Там в настройках 1000 и 1 параметр совместимости.

Ну, то что винда заточена под игры — это ок. Хотя лично меня, лицезрение биоса в момент собствено играния в ранних версиях десятки довольно огорчало…
Но, когда мне на попытку запустить клиент цитрикса, сказали — фиг тебе, запускать теперь можно только приложения скачанные из магазина, причем что б его установить из магазина — надо сначала удалить предыдущею версию, а анинсталятор предыдущей версии запускать тоже нельзя, бо он тоже не скачан из магазина… Вот это меня уже огорчило окончательно.
фиг тебе, запускать теперь можно только приложения скачанные из магазина
В ранних версиях десятки не было такой штуки. Она появилась сначала в Windows 10 S (через 2 года после релиза), потом перекочевала в большую винду настройкой. И в Pro версии она выключена, а в домашней вроде тоде не должна прям в жесткое ограничение быть выставлена.

image

Вот с чем действительно были проблемы на старте, так это с антивирусами, не поддержавшими новые ограничения безопасности.
Весьма возможно. У меня была версия про, и вполне вероятно, что когда-то включу опять тот комп где она стояла, что б разобратся в чем же там была проблема.
Но, поскольку у меня нет ни религиозных, ни финансовых зависимостей от системы, то пока будет макось.
Это он еще не видел как в последних маках (Macbook Air) устроена система охлаждения, «новаторская» и «инновационная».



Apple очевидно потихоньку скатываются по накатанной, еще новость про
EPIC JAILBREAK: Introducing checkm8 (read «checkmate»), a permanent unpatchable bootrom exploit for hundreds of millions of iOS devices.
twitter.com/axi0mX/status/1177542201670168576
На телефоны Apple можно будет поставить Android или даже Linux насколько я понял.
Угу, сначала поставьте линукс на какой-нибудь откровенно китайский телефон, к SoC-у которого вам не дадут документации и драйверов. А потом проведите реверс яблочного телефона и повторите.
Время покажет, умельцы что-нибудь придумают.
Вот только умелец должен быть уровня «да я по HEX дампу исполняемого файла тебе скажу что оно делает», а таковых мало.

Ну, умелец может схитрить, используя HxD, который показывает дизассесембли x86 в реальном, защищённом и длинном режимах в правой части экрана, которую по идее можно допилить до PPC/ARM. (Конец факта по теме.)

Через некоторое время работы с такой хитростью, и начинаешь уже интерпретировать код самостоятельно. Знал я человека, который выучил кракозяблы которые выводились в ДОСе с неправильной кодировкой и он их свободно читал как родные символы.
Может быть макбук и в среднем на 2% тоньше, на 4% легче и на 8% дольше работает от батареи, чем Обычный Стиральный Порошок, но на Windows 10 я могу без всяких виртуалок пользоваться своим сканером Nikon Coolscan V из 2003 года, используя родное 32-битное ПО (правда, обновленный 64-битный драйвер).
Написав сегодня приложение на VC++ можно быть уверенным что оно проработает на любой windows еще 20+ лет, а в прекрасной макоси дай бог, чтобы через год не пришлось переписывать.
НЛО прилетело и опубликовало эту надпись здесь

Есть маленькая проблемка — ну вот ничерта не нужОн ваш сканер современному пользователю. Дома он просто сфоткает бумагу на телефон, применит фильтр и сохранит результат в Dropbox. На работе — отправит файл по email с МФУ.


И написав сегодня приложение на VC++ оно может и проработает 20+ лет, да вот только никто про него не узнает. Исключение — профессиональное ПО и корпоративный сегмент.

ничерта не нужОн… современному пользователю
Да, поэтому.
Просто некоторые отдельные несознательные несовременные пользователи по-старинке предпочитают сами решать, что им нужно. Здесь корень проблемы, ага.
Apple очень сильно затягивает гайки, принимает слишком часто «революционные решения» и прямо «вендор-локает» пользователей. Смехом, но в новом айфоне без привязки карты, нельзя скачивать приложения.

И все это происходит на общем ухудшении качества железа Apple и «потери» инновационного духа (новым айфоном уже не удивить)
Вот вы наврали, а кто-то ещё и поверит. В Apple ID есть пункт «нет» — нет карты, и всё, сиди и качай бесплатный софт. И причём тут новый айфон? Про инновации вообще смешно, некоторые люди ждут чего-то незнамо чего вместо того чтобы жить и получать удовольствие, а технику считать вторичным в своей жизни, а не возносить в абсолют.

У Apple хватает косяков за которые можно и нужно ругать, но чтобы их знать нужно как минимум пользоваться.
Apple ID в самом телефоне или где-то в учетке на сайте Apple. Что-то найти не могу.
Можно как через сайт, так и через устройство. Если так сложно и не можете с элементарным разобраться, то можете гуглом воспользоваться. Здесь не тех. поддержка =)

Дарю (надеюсь читать за вас не нужно?) — «Создание и использование идентификатора Apple ID без указания способа оплаты» support.apple.com/ru-ru/HT204034
НЛО прилетело и опубликовало эту надпись здесь
Два вранья на три абзаца. Слабо, вы можете лучше.
Этот пункт заныкан так, что без гуглинга его не найти.
А вы правы, пока не загуглил, не смог найти кнопку «Нет»

image
… заплатить эплу денег, чтобы иметь возможность запустить на своем айпаде собственноручно написанную программу...


Вот это улыбнуло, зачет :)
то нужно заплатить эплу денег, чтобы иметь возможность запустить на своем айпаде собственноручно написанную программу

не нужно)
НЛО прилетело и опубликовало эту надпись здесь
Эппл вроде никогда не позиционировался как девайс, с которым можно делать что угодно (хотя, кстати, можно — через всяческие хомбревы и иже с ними, но будет не так красиво). Они заточены на экспектед результат на экспектед действия пользователя. Логично, что для этого они должны быть очень сильно в курсе, чего тот пользователь сможет сделать.
Собственно, что андроид, что винда, плавно движутся в том же направлении.
НЛО прилетело и опубликовало эту надпись здесь
Почему то вспомнились трактора джон дир, которые самому чинить нельзя. Кстати не сказал бы что цены вдвое завышены, заметно выше аналогов, да, но не вдвое (если отдельные железки не считать, иногда бывает и больше, да).
НЛО прилетело и опубликовало эту надпись здесь
НЛО прилетело и опубликовало эту надпись здесь
В статье про «заколебал эппл, все врмя старое выбрасывает, новое втыкает», комментировать «нет в том эппле ничего нового» — это концептуально )
Статья говорит только «старое выбросили». Насколько я могу судить, в статье тоже ничего, по сути, нет про «новое». Поддержка 64-битных программ — это не новое, это давно было.
улыбнулся, уже и не помню когда был первый мак, сколько их сменилось, сейчас у меня, только айфон и айпад вместо мака…
но как и 25 лет назад, мне рассказывают, Что Эппол уже не торт, что железо у них все хуже, что вау давно пропало, а операционка — полный отстой, что скоро они потеряют всех пользователей))
Эта стабильность — радует ))
Про отказ от поддержки 32бит, вполне верное решение, иначе разработчикам так и будет лень обновлять софт и его компоненты под 64, и оно так и будет с нами волочиться еще с десяток лет
Было бы не так плохо, если бы необходимость поддержки 32-битных приложений не затрагивало всю систему в виде многочисленных костылей. Как к примеру поддержка 802.11g протокола для WiFi ограничивает скорость соединения более современных протоколов, работающих в режиме совместимости.
у Вас много девайсов осталось, которые не поддерживают хотя бы 802.11n?
А многие люди знают про эту опцию? По умолчанию включена полная совместимость, даже если она уже не нужна. Впрочем, у меня досихпор есть живая сетевая карточка 802.11g почти как новая.
насколько я помню, режим совместимости включается когда появляются в сети устройства, не поддерживающие n. можно в роутере это принудительно отключить, но в условиях сокращения таких устройств смысла отключать вроде как и нет.
Немного не так, этот режим совместимости включен всегда и заключается он в увеличенном защитном интервале между пакетами. Если его уменьшить, девайсы со старым протоколом будут очень часто ловить коллизии и не давать жизни другим. А поскольку со временем скорости выросли, выросла стоимость этого интервала и отпала необходимость его выдерживать.
Вы знаете, сколько людей сидит, например на TP-Link WR340GD?
там речь про то, что у тебя роутер с 802.11n ограничивает клиентов на 802.11g для совместимости со старыми устройствами. если роутер стандарт n не поддерживает, то и проблемы нет.
не понял фразы, ибо сидя даже на новом N девайсе устройство с G сетевой картой не имело никаких ограничеиней. В сети смарт и ноут с N 150 сетью, и старенький ноут с G 54 мбит сетью. Какие должны быть ограничения? Скорость скачивания как была ограничена 2.5 мб(20 мбит) в секунду, так и осталась.
устройство с G сетевой картой не имело никаких ограничеиней

Правильно, g устройства и не будут иметь ограничений. Ограничения коснутся n устройств.


Режим совместимости работает так, что если в сети есть хоть одно g устройство, то роутер работает в g режиме со всеми клиентами (в том числе и с n клиентами). Если роутер не умеет в n, то и проблемы как бы "нет", т.к. все в любом случае довольствуются скоростью g. Но если роутер умеет в n, 9 из 10 клиентов в доме умеют в n, но один клиент — только в g, то все 10 клиентов будут работать со скоростью 54 Mbps. При том, что 9 из них могли бы работать на скорости 150-600 Mbps.

У меня не роутер… Просто комп с вайфай картой раздаёт. Но всё равно даже роутеры, уже давно могут работать в несколько сетей. Выделяя для каждого устройства свой стандарт, и свою частоту. Например, на N устроцствах у меня скорость скачивания около 6 мб, в то время как на G устройстве 2.5 мб. Как такое может быть? Особенно окогда они работают одновременно? Однажды я просто заметил, что скорость сети показывается то 63 мбит, то 72 мбит, система сама видя скачивание отдаёт всю скорость на него, ограничивая отдачу и работая в необходимом стандарте и режиме для каждого устройства. По крайней мерее у меня сейчас так. Может так не везде и просто включается стандарт G для всех тупо.
Там всё сложнее. все N клиенты работают с высокой скоростью но не могут передавать данные слишком часто — из-за ограничения G протокола с его низкими скоростями установлен защитный интервал на детектирование коллизий слишком большой для современных высоких скорсотей, и ради совместимости его УМЕНЬШИТЬ НЕЛЬЗЯ иначе один клиент G может запросто положить всю сеть утопив её в коллизиях.
Из-за этого у вас скорость на N клиентах всего 6Мб вместо 15Мб… она выше чем G но меньше чем могла бы быть.
Скорость сети показывает приемник ту на которой удалось установить стабильное соединение в данных условиях. Это сильно зависит от уровня сигнала — чем ниже уровень тем меньше скорость с которой железо может стабильно удерживать связь.
Про подписание приложений должен заметить, что Windows сегодня тоже активно препятствует запуску и установке приложений, если они не подписаны.
Когда у меня начали падать показатели в воронке «загрузки»-«запуски», я понял, что пора делать ноги с этой платформы. SmartScreen показал, что небезопасно, значит небезопасно. Точка. Даже с антивирусниками было легче. Да, обойти можно, но аудитория сжимается в разы, а платить деньги ежегодно за воздух за ключ я не готов, учитывая, что мне от этого нет и не было никакой выгоды.
НЛО прилетело и опубликовало эту надпись здесь

Оно и ясно, что приложению с урезанным доступом подтверждение не нужно. Но тут появляются проблемы производительности (а оно играм критично) и собственно самого доступа (для глубоко системных прилад и специфического оборудования).

У ютуба, с его стадией по его мнению, вполне получилось перевести игры в веб. Правда, пока еще этого никто не видел )
Не хотел бы я жить в таком мире.
А что с железом, у вас MAcbook 2011 года, на нём спокойно запускается Xcode 10.0 и 10.1, поправьте, если я не прав на счёт второго, 10.0 точно запускается на High Sierra, проверял пару недель назад. Им по прежнему можно подписать приложение, опять же поправьте, если не прав. Про себя скажу, что у меня mbp 13 дюймов минимальный, конца 2012 года, стоит как современная ось и без тормозов, так и инструменты разработчика, как Xcode, так и всё то добро, что я натаскал через Home brew, и никак не могу понять, в чём это apple меня к чему-то принуждает? 7 лет этот ноут со мной, только вот принуждения никак не почувствую.

С железом плохо то что на макбук 2011 не встанет Мохаве, а новый ИксКод с СДК от 13 (сейчас 13.1) ТРЕБУЕТ Мохаве.Сам в этом году апнул работающий макбук про 2011 на макбук про 2015 из-за этого. А равно пришлось апнуть айфон 6 плюс на XR из-за того что iOS 13 не встает на iPhone 6 (но это в принципе нормально- телефон старый — 5 лет уже).
Но с апгрейдом макбука обидно — было i7 16 Gb SSD и стало i7 16Gb SSD. Ну видяха быстрее да — игры лучше идут, но мне это не нужно. Изменения в скорости компиляции и т.п. незаметно.
Но больше всего раздражает огораживание.
Приведу пример — я занимаюсь платформой для гибридных приложений.
Сейчас Apple запрещает UIWebView и требует использовать WKWebView. Но если раньше можно было спокойно перехватывать все http запросы внутри приложения (идущие от WebView) то теперь этого НИЗЗЗЯ. Почему? Зачем? Патамушта! А это реально важно блин в нашей сфере. Под стонами разрабов Эпол таки дали возможность перехватытвать запросы к кастомным схемам из WkWebView, НО! запрещено ставить свой перехватчик для http/https ПОЧЕМУ ?! Авот! Есс-но можно и сломать, но блин возникают риски размещения приложения в АппСторе. Почему не сделать нормально? Зачем эти ограничения ВНУТРИ приложения ?!

— 64 битам — уже «сто лет в обед»
— Приложения под Мак: распространяй в магазине — Xcode сделает почти всё сама, распространяй через свой сайт — Apple Notarization — просто автоматизировать либо же в build pipeline встроить, привет Гейткиперу
— Приложения под Windows: подпиши приложение — спи спокойно, привет Смартскрину
— Инсталляционные пакеты собрать под macOS, Windows, Linux давно не проблема

Нативные приложения под macOS и Windows плюс кроссплатформенный UI без проблем распространяются, также нет особых проблем и с Linux.

Вполне за вменямые сроки можно эти шаги и самому автоматизировать либо же в гугле есть рецепты.

Конкретно по macOS Catalina — подсуетились ещё во времена первых бета версий, сейчас уже всё работает как часы и всё отлично с Apple Notary Service.

В чём суть, простите, истерики — не понятно.

Кстати, Swift on Linux неплохо заходит.
В чём суть, простите, истерики — не понятно.

Статью не читали? В том, что нотаризация и подпись стали обязательны с приходом каталины для вообще всего софта, а не только аппстора, а это значит иметь железо эпл, иметь их аккаунт разработчика. Зачем это все человеку, который имеет мизерный процент клиентов? Незачем, проще вообще отказаться от поддержки платформы. Эпл в конец свихнулись, вот народ и негодует. И поделом, если они потеряют значительную часть разработчиков. Давно пора было задуматься, их икскод лютое говно, а платформа с каждой версией все менее дружелюбна для разработчика. Довольно странно делать такие шаги, когда доля на рынке и так маленькая.

Ну и на закуску 32-бита больше не поддерживаются. Куда деть приложения, которые перекомпилить некому? Эпл вот плевать. Им лишь бы себе жизнь легче сделать.
По первой части повторюсь: давно подсуетились и сделали всё что надо ещё с Мохави и первого анонса нового сервиса нотаризации. Как пользователь я только за такие меры, если мне надо запустить неподписанный софт, но я точно знаю и доверяю разработчику, то ПКМ+Открыть, и нет проблем.

В своей практике давно уже не использую 32 битный софт ни на одной из платформ, на работе и заказчикам как-то «плавно». Да и совместимость на уровне исходных кодов никто не отменял.
По первой части повторюсь: давно подсуетились и сделали всё что надо ещё с Мохави и первого анонса нового сервиса нотаризации.

Вас этот пост и не касается. Не у всех работа вокруг эпл крутится. Для кого-то это просто еще одна платформа и с такими усилиями эпл эта еще одна платформа просто исчезнет из списка.

Как пользователь я только за такие меры, если мне надо запустить неподписанный софт, но я точно знаю и доверяю разработчику, то ПКМ+Открыть, и нет проблем.

Ничего подобного не будет www.reddit.com/r/MacOS/comments/cdsxto/macos_catalina_cannot_exec_app_why_are_they_not Я сам не проверял, но даже ПКМ не дает запускать. Софт необходимо нотаризовать, каждый билд, чтобы он запустился. Надо еще проверить, но скорее всего это означает гемор с ползанием по настройкам, чтобы разрешить запуск. Это в лучшем случае. В худшем — я даже не знаю, эпл может вообще не дать отключить это. Может простому пользователю это и не доставит проблем, который в фейсбуке ползает, да из аппстора программульки качает. Судя по нынешней эпл, это их целевая аудитория. Потому что для всех остальных что железо, что софт доставляют все больше головной боли.

В своей практике давно уже не использую 32 битный софт ни на одной из платформ, на работе и заказчикам как-то «плавно»

Опять же, значит вас этот пост и не касается. Это не значит, что проблемы нет, а значит и для истерики повод есть. Нет никаких объективных причин убирать поддержку кроме как желание эпл побыстрее снять с себя бремя поддержки.

Да и совместимость на уровне исходных кодов никто не отменял.

Какая совместимость? Какой код, если его нет физически? Если даже он есть, кто будет проверять, что что-то не сломается от перехода на 64-бита? Кто будет, наконец, компилировать? Пользователь, которому игрушку хочется запустить или утилиту?

На самом деле это не так плохо. Если эппл даст способ это виртуализовывать, условны "докер для приложения х32", которые будут тормознуто, криво, но работать, это будет мотивацией переезжать без жесткого запрета. Ну и снимет бремя поддержки 32 с эппла.


С одной стороны я сам люблю поиграть в старые игрушки. С другой я очень хотел бы иметь идеальный софт без костылей и режима поддержки легаси.

а это значит иметь железо эпл.

с железом проблема как бы известная. и решаемая если надо собирать что-то часто, есть хостинг-сервисы на эту тему (вроде macincloud, будет макось на маке, правда не то что бы особо дешево), есть hosted ci сервисы вроде bitrise (с бесплатным базовым тарифом).
а это значит иметь железо эпл

А типа до этого не надо было? Херак-херак и в продакшен, пусть юзеры проверяют, рабочий ли вообще билд?

иметь их аккаунт разработчика

100 баксов в год. Автор продает свою игру по 20 баксов, даже с учетом всех отчислений и налогов — 10 продаж в год вполне отбивают эти затраты. Либо этих 10 продаж нет, и тогда невелика потеря, либо попахивает жлобством.
А типа до этого не надо было?

Вообще, если не на ассемблере софт писать, то — да, не надо. Должно быть достаточно эмулятора на любом железе, который имитирует те же контракты, что и реальное железо. Отсутствие багов в реализации STL Swift (или на чём там теперь софт) не является проблемой разработчика.

Отсутствие багов в реализации STL Swift (или на чём там теперь софт) не является проблемой разработчика

Работоспособность коммерческого приложения — не проблема разработчика? Как удивительно, что Apple пытается такое фильтровать.
НЛО прилетело и опубликовало эту надпись здесь
Работоспособность коммерческого приложения — не проблема разработчика? Как удивительно, что Apple пытается такое фильтровать.
А какое дело вообще Apple до бинарников, распространяющихся не в их сторе? Что дальше, сертификация мониторов, которые можно подключать к макбуку? Цветопередача не дотянула до видения Тима Кука — долой с глаз пользователей?
Эти бинарники распространяются на их девайсах. А эпплу, внезапно, есть дело до своих конечных пользователей, у которых из-за этого могут быть проблемы, с которыми они позвонят эпплу, у которого для этих проблем должен быть гайд что делать.
Насколько хорошо они эти проблемы решают — то другой вопрос, но минимизировать риски они вполне себе могут.
А эпплу, внезапно, есть дело до своих конечных пользователей, у которых из-за этого могут быть проблемы, с которыми они позвонят эпплу, у которого для этих проблем должен быть гайд что делать.
Как-то эта философия не вяжется с одновременным дропом поддержки 32-битных приложений.

Я тут вижу только попытку окончательно запереть вообще весь свой тулчейн, с прицелом на перевод дистрибуции всех приложений в свой стор. И я совсем не понимаю, зачем защищать такое поведение с точки зрения потребителя и тем более разработчика.
НЛО прилетело и опубликовало эту надпись здесь
То-есть если все вокруг тестируют своё ПО на всех вариантах железа (ну или хотя бы на каждой платформе) и фиксят у себя баги, специфичные для какой-то платформы, а мне лень и я напишу только под мак, соберу универсальный кросс-билд и выкачу в прод, а когда мне с винды напишут «у тебя нихрена не работает на последней Win10» — я могу ответить «да похер, пинайте майкрософт что у них STL не по стандартам»? А что, так можно было? Мы зря держим 5 айфонов, дюжину андроидов, и несколько ноутов с разными виртуалками? Пойду скажу начальству что можно продать половину тестового парка девайсов…

Я пишу как должно быть, а вы мне — как бывает в этом зоопарке, где контракт STL на самом деле ничего не значит, и каждый лепит реализацию как умеет силами подручных джунов. У вас пять айфонов именно потому, что Apple забила на корректность контрактов — никогда про такое не думали, не? Кстати, а почему всего пять? А вдруг в разных партиях тоже специфичные для платформы баги, а вы-то и не в курсе?
Повторяю ещё раз — если "у тебя нихрена не работает на последней Win10", то корректный ответ — это не "хорошо, поставим проверку версии Windows и сделаем туда специальную заплатку для этого случая", а "хорошо, мы открыли в Windows support-ticket по вашему случаю и будем наблюдать за прогрессом". Ну а уж то, что корректный подход не работает — на самом деле, огромная проблема сложившейся монополии, где вместо того, чтобы чинить явный баг в одном месте, где он реально возник, мы имеем идентичные манки-патчи в тысячах приложений, ведь "манки-патч быстрее". Вы потом только не удивляйтесь где-нибудь в другой теме что кто-то код копипастит со StackOverlow — копипастить оно тоже быстрее, чем с нуля писать.


WraithOW,


Работоспособность коммерческого приложения — не проблема разработчика?

А что разработчик коммерческого приложения должен, по вашему, делать, если в его STL 2+2 = 4, но 2+1 = 21, м? Закупить ещё пару айфонов, развернуть на нём автотесты, а в свой код добавить спецпроверку, чтобы добавление единицы работало как в стандарте? Или всё-таки пнуть того, кто стандартное поведение реализовывал? А то по вашему коллективному комментарию получается, что вы как разработчики отвечаете перед пользователем, а Apple перед вами ничем не отвечает. Удобно для Apple, ничего не скажешь. Я думаю, они прямо в восторге от этой ситуации.

Никто не мешает вам как разработчику открыть тикет в Apple/M$/github/ещё куда-нибудь. Но версию ОС уже зарелизили и раскатали на пару миллионов девайсов. И обновить приложение вам сильно быстрее, чем ждать патча ОС, а потом убеждать всех обновиться. Можете этого не делать и терять клиентов — и закрыться банкротом за день до релиза исправляющего патча.
Кстати да, верно подмечено.
Даже был свидетелем как в одном продукте были в патч-логах записи вида «тут будет костыль», а через года полтора другой патч-лог с записью «в ядро внесен фикс, убираем свой костыль».
P.S. Пламенный привет драйверам для хрома.
Я пишу как должно быть, а вы мне — как бывает

Ну если речь про "как должно быть", то софт вообще должен быть без багов. И библиотеки должны быть без багов. И вирусов/троянов/вымогателей не должно быть. Только качественные приложения. И пиратства не должно быть. И вообще преступности. И болезней.


Вот только все эти влажные фантазии (с вашей включительно) не имеют никакого отношения к реальному миру. И пока одни неистово негодуют по поводу того, что "эппл/майкрософт/спортлото не выполняет контракт STL (что бы это не значило), так не должно быть, проблема не моя, фиксить я её не буду" — их пользователи уходят к тем, кто не жлобится на закупку тестовых девайсов и прикручивает костыли для обхода "не выполняющегося контракта STL", невзирая на всю неправильность и несправедливость происходящего.


а Apple перед вами ничем не отвечает. Удобно для Apple, ничего не скажешь. Я думаю, они прямо в восторге от этой ситуации.

Эппл перед разработчиком отвечает ровно в той мере, которая прописана в соглашении, которое разработчик принимал, создавая и выкладывая свои приложения под их платформы. Если разработчику эта мера кажется недостаточной или еще что-либо кажется "неправильным" — он может не разрабатывать приложения под эту платформу и идти зарабатывать деньги на правильных платформах, которые "выполняют контракт STL". Не подскажете такую, кстати?

Эппл перед разработчиком отвечает ровно в той мере, которая прописана в соглашении, которое разработчик принимал, создавая и выкладывая свои приложения под их платформы

Иными словами, — ни в какой мере не отвечает, потому что тем же соглашением за Apple закрепляется право в любой момент в одностороннем порядке это соглашение поменять.


Да, мир несправедлив, человеческий фактор вносит постоянные возмущения в сложившуюся ситуацию, в софте бывают баги. Я только не пойму, какими принципами Вы руководствуетесь, когда агитируете здесь за сохранение всего этого. "Настоящие успешные пацаны не жмотят купить лишний айфон для тестов"? Ну, предположим, такая дедовщина — тоже принцип, в какой-то степени, но я не вижу для себя пользы в согласии с Вашей позицией. Ну вот вообще совсем.


И вирусов/троянов/вымогателей не должно быть. Только качественные приложения. И пиратства не должно быть. И вообще преступности. И болезней.

Что характерно, никогда не видел попыток это всё защищать, как Вы защищаете баги в библиотеках. Также напоминаю, что всё это (кроме пиратства) — следствия собственного локального несовершенства реализаций стандарта в соответствующей области. Конкретно в случае преступлений в STL столько дыр, что отдельные segmentation fault даже не приводят к исключениям. Как и злокачественные опухоли в случае болезней. Опять же, какие у вас аргументы против улучшения ситуации в каждом из этих случаев?

Херак-херак и в продакшен, пусть юзеры проверяют, рабочий ли вообще билд?
У меня вот железки нету, но есть друг, который может потестить работоспособность. Он утверждает, что все работает.
А типа до этого не надо было? Херак-херак и в продакшен, пусть юзеры проверяют, рабочий ли вообще билд?

У меня был период когда приложения под iOS приходилось писать под макосью в VMware Workstation. Ну — работоспособность билдов проверялась. На самом дешевом iPod Touch'е. (c учетом того что нужен был GPS — пришлось разобраться как с помощью джейла — подключить дешевый bluetooth gps приемник)

Я бы сказал, что самое зло это то, что яббл не стал вулкан реализовывать.

Еще расширения для сафари на Obj-С/Swift перевели.

Вы так говорите, как будто бы это что-то плохое. В конце концов в таком виде эти расширения смогут работать существенно быстрее.

Вы так говорите, как будто бы это что-то плохое. В конце концов в таком виде эти расширения смогут работать существенно быстрее.

Во первых зачем расширениям какое то ускорение если оно по большей части висит, делает куда то запросы ждет от пользователя нажатия на кнопки, ждет загрузку страниц что бы ее обработать итд итп. Что тут обжектив-си/свифт могут существенно улучшить непонятно. При всем при этом они не могут использовать те же API которые браузер джаваскриптам предоставляет они используют какие то свои-системные, в которых нету ни управления браузерными вкладками там вообще нихрена нет там только можно подсунуть функцию которая браузером будет запускаться когда он будет обрабатывать какое то событие и присылать объект окна в котором это все происходит. В общем это в корне отличается от того к чему все привыкли. Вебразрабы такие подходы к программированию использовать не смогут, ладно еще obj-c но свифт то тащит свой jvm-овский рантайм, его стандарт постоянно переписывается с ломанием совместимости (то чем например руби и питоны уже переболели) у него вообще никаких преимуществ нет.


Ну а самое веселье в том что встраиваемые расширением content.js никуда не делись (и не денутся, потому что тогда вообще будет непонятно чем расширение от обычного приложения отличается) и с ними можно общаться через систему сообщений и таким образом все супер-пупер новая система расширений сводиться к тому что мы навстраиваем скриптов на каждой вкладке и будем их из бакенда просить что то сделать, потому что даже у скриптов на странице больше возможностей чем у него.


В чем вообще смысл всей этой задумки если только не бинарная дистрибьюция что бы пользователь в код не посмотрел. (Так что таки они превратились в майкрософт, я еще с macOS 10.13 заподозрил неладное, какие то обновления с перезагрузками гибернейт как у шин10, охренеть вообще)

Судя по посту у вас хорошая профитность на Виндоуз. Ну так и сосредоточьтесь на ней, Мак не геймерская платформа и да как вы заметили выжить в ней могут крупные вендоры

Отказ от 32 бит? Ну и замечательно, можно это рассматривать как пинок для появления новых решений для платформы, наверняка для предотвращения потери пользователей это многих смотивирует на написание нативных вещей

И не судите так токсично, у мака отличный стабильный софт, да дороговато но за что платить есть и это видно невооружённым глазом
Пока цена портирования и поддержка платформы выше, чем выручка с нее — можно и не начинать. Для игры имеет смысл рассматривать iOS и iPadOS как платформу для жизни, где много денег и пользователей. Может быть даже больше, чем в windows. И для indie игры в первую очередь стремиться туда. С выходом Catalina портировать игру на macOS большого труда не составит. И будет сразу одним релизом будет закрыто три платформы.
Просто возможно Apple стала too big для одинокого инди-разработчика и всяких pet-проектов.
Если человек не тащит техподдержку и актуальные либы/методы (которым требуется соотв актуальная ОС и железо для нее) то получается что он выдает некачественный продукт, как бы он его не любил и не корпел над ним.
А в чем проблема с ранним доступом на AppStore?
Для тестирования и раннего доступа, там есть testflight. Платформа эппла, это не стим, который можно завалить тонной игр раннего доступа, которые в 90% случаях не доживают до своей мажорной версии. Делая мобильные игры под IOS я взял за правило, публиковать там только минорные обновления. И в крайнем случая, баг фиксы, если прям срочно нужно. А так в тестфлае погоняли, потестировали, все ок — делаем дальше. Накопилось контента — выпускаем контент с минорным обновлением. А то что в стиме, обновления в день по 10 штук выкатывается — это как по мне, не есть хорошо.

Но мне лучше, что на эпстор не проходит толпа гомн… делов раннего доступа, которые заваливают сторы своим сырьем, и потом тихо сливаются.

И у эпла сервис лучше, чем например у гугла, если честно. С эпле тебе всегда говорят, что с твоим приложением не так и что нужно исправить. А в гугле тебя просто лочат, без описании проблемы.
Упорные слухи идут что уже в 2020-ом Эппл перейдет на Arm который в последние годы резко стал торт. Уже и Торвальдс агитирует за переход на арм, и Майкрософт стахановскими темпами под него начали доделывать винду и вставили в последний Surface.

Подозреваю что они решили отстрелять весь легаси заранее, чтобы потом на переправе не пришлось весь зоопарк сразу тащить.(или рисковать ещё большим гневом пользователей скидывая сразу 32 бит и 64 битные программы под x86)

и Майкрософт стахановскими темпами под него начали доделывать винду и вставили в последний Surface.


И Microsoft Windows и Surface на ARM уже были выпущены. Аж лет 10 назад начала вкладываласься MS в разработку под ARM по взрослому. И выпущены были они под ARM лес 7 назад. Потом, правда, MS передумала. Но наработки-то никуда не исчезли. Нужно только пыль сдуть.

Майкрософт к ним вернулась в будущем Surface Duo, а он обещает быть очень громким. Если Майкрософт не запорят реализацию это будет такой комбайн заменяющий весь спектр от телефона до нетбука и надолго единственный успешный в своем классе — так что он задаст тренд как айфон задает на телефоны.
Surface Pro 7 на Intel и Windows 10
Surface Pro X на Arm и Windows 10 on Arm
Surface Neo на интел и Windows 10X
Surface Duo на Arm и Android

Пока что универсальностью и не пахнет. Тем более что Surface Duo — всего лишь очередной смарт на андроиде
я так понял что Surface Duo это что-то вроде яндекс.телефона: андроид перепиленный под фичи майкрософта (кортану и azure небось вкрячат).
ARM от мелкомягких сдулся, последнее что помню — Win10IOT на распберри 3 b, дальше тишина, даже на 3 b+ спустя год после релиза не вышел официальный образ.
Я так понимаю с армами (вернее с чипсетами/SoC на ARM) проблема в том что они сильно разные, их сильно много и винда совсем не единственная ос, как это было в каком нить 1986 году, чтоб все под нее рванули драйверы писать.
А без драйверов сами понимаете как оно будет работать.
У Apple это все упрощено потому что они сами контролируют и свое железо и свою ОС, да и опыт переползания с платформы на платформу уже есть :)
Подозреваю что они решили отстрелять весь легаси заранее, чтобы потом на переправе не пришлось весь зоопарк сразу тащить.(или рисковать ещё большим гневом пользователей скидывая сразу 32 бит и 64 битные программы под x86)
в Windows 10 on ARM x86/x64 приложения запускаются :)
Уже лет 5 пользуюсь Ubuntu как основной операционной системой и не испытываю никаких проблем. Можно настроить/поменять что угодно, никакой обязаловки и количество софта в последнее время тоже радует, есть и мощные графические редакторы, и программы обработки звука, и средства проектирования. Для целей разработки ситуация, естественно вообще вне конкуренции. Переходите в наш клуб и забудьте про эти кошмары с Mac или Windows.
Столкнулся с ситуацией в Убунте когда не оказалось браузера способного поддерживать частоту обновления 165гц. Впрочем, саму систему тоже было сложно настраивать для этой частоты. Вот что делать если Хром вообще не собран с функцией поддержки 60fps+, а Хромиум без аппаратной поддержки выдает нестабильные 80fps.
На Винде после включения с новой видеокартой через 3 минуты были скачаны драйверы, Хром уже был готов работать в нужном режиме со стабильной частотой 165гц.

И вот в чем дело, таких косяков море. Для разработки Линукс отличный, для всего остального — нет. Поэтому с ним хорошо работать на расстоянии — через виртуалки/etc.
Зачем вам 165, если человеческий глаз различает не более 25? С редким железом да, на линукс могут быть проблемы, так как производители не всегда пишут драйвера. Как вариант — просто преверять наличие драйверов перед покупкой переферии.
Зачем вам 165, если человеческий глаз различает не более 25
У вас получилась постирония. Или скинете пруфы?

Давайте дам подсказку.
Заголовок спойлера

Нисколько не ирония, вот пруф про 25 en.wikipedia.org/wiki/Frame_rate
По самым последним данным предел разрешения 77 FPS (пруф, если заранее концентрироваться на ожидаемом изображении), но эти эксперименты последнего десятилетия и странно, что за всё предыдущее время никто не обнаружил подобного.
Что касается показанного вами видео, то скорее всего эффект связан с размытием камеры, качеством последующего сжатия видео и т.п… Это как с 4k, видео снятое камерой 4k смотрится чётче даже если смотреть на FullHD, просто потому, что FullHD аппаратура работает на пределе и чуть-чуть недорабатывает, а 4k работает с запасом. Кстати, я на экране с 60 FPS разницу между 60 и 30 на вашем видео не вижу. Не утверждаю, что её нет, но 165 это уже совсем перебор.
вот пруф про 25
Какой абзац, где говорится что глаз не видит больше 25?

По самым последним данным предел разрешения 77 FPS
Какое отношение имеет разрешение к fps?
Абзац «Human vision», но да, там уже обновлённая информация про 13 мс, так что получаются те же самые 77 FPS в пике. Если почитать оригинал научной работы, то можно увидеть большое количество условий, чтобы воспроизвести такую точность, что почти не реально при бытовом просмотре видео. Про 25 FPS точно где-то была иформация, это частота не с потолка, а выведенная экспериментально, так как даже в начале 20-го века сделать на киноплёнке хоть 100 кадров в секунду было не проблема, просто не целесообразно. Что реально субъективно влияет на качество бытового просмотра — это глубина цвета. Мониторы с контрастностью, скажем 3000:1, показывают картинки с таким же качеством с абсолютно изумительной реалистичностью. Как будто через окно смотришь, только расстояние фокусировки глаза выдаёт подделку. Так что технике есть куда совершенствоваться и помимо FPS, только это как правило сложнее и дороже, чем просто чаще обновлять кадры и выдавать это за инновацию в магазинах.

Какое отношение имеет разрешение к fps?

Разрешение это более общее понятие, не путайте с устоявшимся термином «разрешение экрана». Разрешение может быть слуха по восприятию частот, зрения по востриятию цвета или расстояния между точками, есть разрешение чувствительности человеческой кожи, которое показывает насколько далеко должны быть расположены два стимула, чтобы не сливаться в один. В данном контексте термин «разрешение» используется для восприятия кадров, то есть предел, после которого человек не может распознать, был показан один кадр или больше.
Нисколько не ирония, вот пруф про 25 en.wikipedia.org/wiki/Frame_rate

Не нашел в этом пруфе ничего про "человеческий глаз различает не более 25".


По самым последним данным предел разрешения 77 FPS (пруф, если заранее концентрироваться на ожидаемом изображении)

Вы вообще читали свои пруфы? Давайте я перескажу, что там вообще за исследование было, если такие трудности у вас. Людям демонстрировали серию вообще никак не связанных изображений по 13 мс каждое. И этих 13 мс оказалось достаточно чтобы получить концептуальное понимание показанных картинок. Это не имеет вообще никакого отношения к частоте кадров в анимации.


Кстати, я на экране с 60 FPS разницу между 60 и 30 на вашем видео не вижу.

Вероятно это потому, что вы на своем экране с 60 FPS смотрели видео с 30 FPS. 60 FPS youtube дает только для качества 720p+. Нажмите на шестеренку в правом нижнем углу, выберите там нормальное качество видео (которое оканчивается на "p60") и будет вам счастье.


но 165 это уже совсем перебор.

Для вас — может быть. Но это не отменяет того, что разница между теми же 60 FPS и 165 FPS есть. И вполне заметная даже для не особо тренированного человеческого глаза. Для кого-то и разрешение 1366х768 — норм, а всякие там FullHD с 4K — перебор. Но это тоже не отменяет того факта, что разница между 4К и 1366х768 очень даже видна.

Офигеть. Честно говоря раньше как то думал что из за привычки к аниме (у которого кадров в секунду обычно даже заметно меньше 20) для меня это не так критично и не очень заметно, но это видео мне раскрыло глаза. Сначала 30 fps кажутся вполне плавными и нормальными, но когда показывают 60 — глаза прямо удовольствие получают.
НЛО прилетело и опубликовало эту надпись здесь
первое видео очень сомнительно, что 30

Чем вызваны сомнения?


На 1:50 я насчитал ~12 FPS вместо 30

И это не удивительно, потому что там 60 и 120 FPS, замедленные в 4 раза. Т.е. 15 и 30 фпс соответственно.


image


на 4:35 тоже далеко не 30

Вот же коварные обманщики


image

НЛО прилетело и опубликовало эту надпись здесь
На днях пробовал вернуться на линукс — так и не смог побороть тиринг в firefox. Т.е. вот везде его нет в firefox есть(( Решалось установкой опции какой то в конфиге огнелиса — но при этом перед выходом из браузера ее снимать приходилось, поскольку после перезапуска с этой опцией браузер вообще начинало корежить по страшному. Вот честно, тиринг для меня наверно одна из самых раздражающих проблем на линуксе, фиксится на каждом железе по разному и не всегда до конца (может руки кривые, не знаю, но как по мне оно должно из коробки работать, иначе позиционировать это как систему для пользователей нельзя).
На днях пробовал вернуться на линукс — так и не смог побороть тиринг в firefox
Какое железо, xorg/wayland?
Уже и не вспомню ни версий ни железа. Но вечные проблемы с тирингом меня преследовали на трех ноутбуках и одном пк. Иногда удавалось пофиксить везде, иногда он только в каких то приложениях был, иногда вообще не удавалось. От версий ПО и железа зависело, да.
Как вам не везёт. Работал с linux на 20+ девайсах, о тиринге узнал первый раз от вас сейчас.
А его замечать уметь надо. Наверняка сталкивались но не обращали внимания. Зато в момент когда заметишь такое — уже пользоваться становится очень неприятно.
Все думал-думал, чем мне заголовок не нравится. А вот чем: неким самодовольством/бахвальством. Сравните: «Простите, пользотели моей программы, работающие на macOS...» и «Простите, пользователи macOS, „
Вот мне автора исходного текста не за что ни винить, ни прощать — я не пользовался его приложениями и не собираюсь.
Странная конечно логика, почему мобильные разработчики не жалуются и просто работают?
Почему не жалуются? Жалуются. ios закрытая, android хоть и более открытый в плане установки — но тоже не сахар.
Раньше я любил андроид. Потом я перестал его любить, потому что перестал понимать, как он работает. Потом я начал под него писать, и начал не любить потому, что понял, как он работает. И только став тимлидом, пообщавшись с профессиональными андроидистами, сделав ревью полноценного проекта, и порешав с ними не один десяток багов, я могу заявить: я не люблю андроид, потому что не понимаю, как ЭТО может работать! :D

Шутки шутками. Но во всех системах можно найти плюсы и минусы. Я могу долго писать, что хорошего в безопасности iOS и как эта же самая безопасность иногда мешает мне жить, как хорош JIT (+zygote) в Android, и каких невероятных багов я наловил на Camera API и как ущербна система permissions… Одно нельзя забывать: все системы используются юзерами. А приложение мы пишем для них. И если уж решил что-то делать — используй имеющиеся инструменты чтобы сделать это максимально хорошо, насколько это возможно. Иначе нахрена ты полез в профессию?
Честно говоря не очень понял о чем вы. Тут больше про политику компаний в плане модерации игр и приложений, а также возможности устанавливать ПО не из сторов. В последнее время была куча статей жалоб на это дело.

Я покупаю компьютер Мак для работы, личного бизнеса или хобби. Игры для меня на последнем месте. Для этого есть Nintendo Switch.

Простите но если вы разработчик который предлагает мне свой продукт для моей любимой платформы, а сами брезгуете этой платформой пользоваться, то я даже смотреть в сторону вашего продукта не хочу. Меня больше интересуют маленькие студии которые разрабатывают только под одну плафтформу, такие продукты всегда выиграшнее для пользователей.

НЛО прилетело и опубликовало эту надпись здесь

Не о привязке речь. Если вы разрабатываете для всего подряд то скорее всего это будет разжиревшее прожорливое приложение под Electron. Если вы делате нативное приложение то оно будет по максимуму использовать симтемные API, что означает меньше кода и меньше багов, максимальная скорость и минимальный расход памяти.


Что касается "привязки" который вы так остерегаетесь, я, например, пользуюсь нативным приложением SourceTree, и их Windows версия для меня совершенно не премущество, ибо Windows машин в нашем доме нет и не будет. Еще я пользуюсь BBEdit программа которой больше 27 лет эклюзивно разрабатывается под Mac: SourceTree 191.3 MB, BBedit 36.3 MB. И это только размер приложения.


Для каких то студий важен максимальный доход а для других уникальность и удобство. Логично что поддерживая маленькие студии мы получаем более богатые и шустрые приложения.

ибо Windows машин в нашем доме нет и не будет

Вы в этом так уверены? Вы знаете как будет развиваться Apple и их политика по отношению к пользователю, ОС, устройству в течении десятков лет?
Я вот хоть предпочитаю windows, всегда рассматриваю наличие нативной версии приложения под linux и android как очень большое преимущество.

12 лет опыта использования MacOS и начинаешь доверять платформе и людям которые её поддерживают. Тем не менне я слежу за настоящим и критикую ошибки Apple. Возмьмем их провал с цилиндрическим Mac Pro например или ненадежную клавиатуру MBP. Такое низкое качество я не терпелю, у нас в отделе все перешли на новый MBP и я один настаиваю на то чтобы пользоваться старым. Очень надеюсь на новый дизайн (2019/2020). Mac Pro они уже исправили. Еще были проблемы со стабильностью iOS 13 из-за чего я ждал версии 13.2 перед тем как обновляться.


Если прийдется переходить на новую платформу, то я перейду. Пока что чего-то лучшего не придумали. Может iPadOS только, если её будут продолжать улучшать.


Приложениям находятся альетернативы, я не боюсь учиться новому. Я же сменил Windows на Mac. Больше усилий уйдет на освоение новой ОС в целом, управление системными настройками, быстрые команды, расширения и прочее.

Ну я скорее не про нахождение функциональных альтернатив на новой платформе, а про проблему переноса данных между этими альтернативами на разных платформах. А на время переходного периода возможно не одноразового переноса а двусторонней синхронизации.

Вот это хороший аргумент. К счастью большинство программ работают просто с файлами (фото, видео, текст). Но есть и исключения: Заметки, Таск Менеджеры. Это действительно плюсь когда можно просто зайти в учётную запись и получить свои данные. Но как правило такие решения стоят денег, в виде подписки и качество самого продукта окызывается ниже. Яркий пример: Evernote VS Apple Notes. Второё бесплатно и намного шустрее работает.


Думаю тут каждый решает для себя, для меня доступ к файлам и возможность экспорта это всегда плюс.

Поддержу Redgard. Конкретно эта проблема решается открытыми форматами, а не кроссплатформенными приложениями.

12 лет опыта использования MacOS и начинаешь доверять платформе и людям которые её поддерживают.
Мне интересно как 12 лет использования макоси изменили бы тот факт что за последний год каждое крупное обновление ломало мне рабочую прошку. Я настолько потерял к разработчикам системы доверие что перестал обновляться. Вот что в таком случае эти годы использования поменяли бы? Система менее глючной и сломанной точно не была бы, это не от моего опыта с ней работы зависит.
Каждый раз удивляюсь, читая про обновления, сломавшие ноуты. Может я просто везучий, но оба моих Эйра (2013 и 2017 годов) не ловили ни одного глюка при обновлении. Только однажды я получил мёртвую ФС когда в процессе обновления на APFS у меня отвалилась зарядка (запнулся о провод), я этого не заметил, и ноут таки рубанулся (до обновления было 10% и этого, конечно же, не хватило). Вот тогда пришлось гулять в онлайн-рекавери и ставить систему по новой.
Это смотря что понимать под словом «сломало». К примеру, если у вас там стоит достаточно сложный аудио софт (типа протулз) и подключено еще всякое аудио же оборудование (еще и не дай бог по блутузу что-то) — то обновлять в этом ззоопарке хоть что-то — это достаточно официально плохая идея. Правда не на макоси, а на любой системе.
Бо в этих моцных специализированных софтах, такое количество всяческих хаков ради производительности, причем сделанных за последние 20 лет минимум, что любое изменение поведения системы (даже в лучшую сторону) просто ломает их логику.
Ableton с примерно гигабайтом VST/AU и NI Komplete Audio 6 чувствуют себя прекрасно начиная с 10.8. Обновления периодически прилетают, проблем нет.
Собственно, когда я имел к тестированию этого отношение, именно, если не ошибаюсь, Ableton использовался как «ну вот так надо сделать что б стабильно было» )
Ну и его писали на С++ чисто, для себя любимого и окло 2000-го. А протулз — на С, С++ и ассемблере и в 1989 бережно храня все баги (бо это ж не какое-то поделие, а солидный продукт) и добавляя все время всяческие фичи в стиле — а если надо 100500 каналов, да в 196 качестве, да с плагинчиками, да в риалатайме обрабатывать, да еще что б кофе варило…
А да, и еще и что б на фоне, на каждый чих проверяло лицензию, которая имеет место быть в виде хардварного ключа.
Я настолько потерял к разработчикам системы доверие что перестал обновляться.

Делать исследования, теситировать и ждать 1-3 года это совершенно нормально у профессионалов, и вы демонстрируете свой професионализм и выдержку, за это хвалю.


Apple выпускает бета версии для разработчиков и тратит огромные деньги на WWDC, от разработчиком стороннего ПО многое зависит. Некоторым требуется больше времени, как вы сами упомянули, в связи со сложностью софта.

Так а в чем заключается доверие то? Если вы сами признаете что до обновления нужно 1-3 года подождать и посмотреть. На мой взгляд доверие к разработчикам — это когда я ставлю то, что они сделали веря что у меня ничего не сломается потому что они все продумали.

Если вы пользуетесь только их программами то им и доверяйте, если у вас ломается чужая программа то Apple не в силах попровить чужой код. Код требуете регулярных обновлений чтобы адаптироваться к изменениям платформы. Платформа должна меняться иначе она станет не конкурентноспособна и устареет. Извините но невозможно улучшить систему без депрекации устаревгших API и введения новых. Даже в этом случае разработчиков предупреждают за много много лет вперёд.

Если вы пользуетесь только их программами то им и доверяйте, если у вас ломается чужая программа то Apple не в силах попровить чужой код.
Я еще раз повторю кейс: сломался вайфай на макбуке. Это не просто программа от эпла, это часть обновляемой системы на железе для которого эта система создавалась. Как вы предлагаете после этого доверять таким разработчикам?

Если не ошибаюсь, это когда они решили переписать mDNSResponder, закончилось это всё тонной багов, и возврату к старому коду. Да, виноваты. Да, исправили. Все мы люди. Если вы писали софт то знайте что без ошибок нельзя. Главное это чтобы на этих ошибках учиться. Доверяй, но проверяй. Я сам слушаю отзывы блоггеров / подкастеров перед тем как обновляться и вам советую.

Если вы писали софт то знайте что без ошибок нельзя.

Без ошибок нельзя. А вот без критичных ошибок на продакшене, особенно если бюджет на разработку измеряется в миллиардах, не только можно, но и по-хорошему должно быть обязательно.

Тем не менее, есть баги которые вылезают только после массового выпуска в продакшн. Никакие деньги, а/б тесты, юнит тесты, ручные тесты от этого не спасут.

Хм. А раньше чего их не было? Особенно если учесть, что количество поддерживаемых ОС конфигураций пользовательских устройств у Apple в сравнении с виндой весьма и весьма ограничено, и протестировать их все — задача не бог весть какой сложности для компании таких масштабов.
У винды есть аж одно поддерживаемое именно ей полностью устройство — сурфейс котрое.
Что не мешает иногда делать из него кирпитчъ ;)

Я думаю мы "доверие" трактуем по разному. Для меня доверие к Apple это знание того что они не почевают на лаврах а продвигают индустию вперёд и постоянно совершенствуют платформу (Power Nap, T-chip, Swift, APFS, SIP, Metal). Я доверяю тому что если разработчик играет по правилам и вкладывается в продукт то он будет работать надёжно и мне не нужно будет ждать обновлений по пол года. С программами которыми я пользуюсь у меня проблем нет, поэтому я ими и пользуюсь.


Для вас же доверие это некоторая забота вендора к вашей конфигурации, даже если кастомное ПО делает что-то своим особым образом, вендор должен под него подстороиться и не дай бог что-то сломать. Это больше похоже на стиль Windows которые до сих пор разрешают запускать ДОС приложения (могу ошибаться), не могут расстаться с 32 битной платформой и не могут адаптировать свою ОС под высокое разрешение.

НЛО прилетело и опубликовало эту надпись здесь
У меня есть выборка в 50 человек офиса. Каждый второй сталкивается с проблемами при каждом крупном обновлении. Не все проблемы серьезные, зачастую это сломанные специализированные инструменты, как уже предположили. Но вот недавно было обновление которое сломало вайфай и ушло в бесконечный цикл перезагрузок потому что макбук не в состоянии оказался выкачать обновление заранее и требовал подключения к интернету для завершения процедуры. Подключение которое сам и убил. Так что да, это вам просто повезло.

Похоже ваша IT отдела не выполняет свою функцию и не тестирует новое ПО с вашей конфигурацией. Обычно в компаниях ждут одобрения перед тем как обновиться. В ОС встроены возможности запретить обновление без одобрения админов. К сожалению многие компании зависят от весьма некачетсвенного ПО которое медленно обновляется.

Вопрос не в нашем IT отделе, а в качестве обновлений MacOS. Макбуки ломает обновление системы, а не обновление отдельных программ. Ну и я как-то всегда думал что тестировать обновление системы для макбуков на собственно макбуках — задача тестировщиков эпла все же, разве нет?

Конечно они тоже должны тестировать, и я допускаю что невозможно выпусить код без багов.

Кстати, у них есть вакансии Wifi QA Engineer. Смутно подозреваю, что их появление как-то связано с вышеописанным случаем )

Ну и как бы, для корпоративного сегдмента — фейлы любых апдейтов — это таки фейлы ИТ отдела.
И о каком тогда доверии речь?
ошибся, прошу прощения
Я понимаю аргумент, что аудитории на Маках мало и поддерживать платформу ради каких-то 3-х процентов не имеет смысла (если только большая часть проблем не решается за тебя движком и ты релизишь на платформе только потому что можешь).

Но предъявленные аргументы, на мой взгляд, смехотворны. Убрали поддержку 32bit? Рили? В 2019? Я считаю правильным усилия Эппл силком всех загонять в светлое будущее. Здесь, имхо, ситуация несколько другая, чем с Windows: Майкрософту надо продавать ОС, а если ОС не поддерживает старые программы, то и переходить на нее не будут. Эпплу надо продавать новое быстрое железо, и под это железо надо софт, который может пользоваться возможностями железа по максимуму. А городить прослойки совместимости, как это делает Майкрософт, никак не помогает иметь быструю ОС.

Эппл модерирует приложения и мешает релизить каждые два часа?! Я извиняюсь, что это за релиз-диарея?! Что там? Пиксели передвинул? Итем добавил? Квест на 10ом уровне пофиксил? И ради этого мне надо все бросать и срочно обновляться?! Лично я, когда вижу частые релизы, воспринимаю это как непрофессионализм, «оно там все разваливается и надо ежесекундно затыкать дыры». По-любому, это все или не тестировалось вообще или тестировалось минимально.

Если все делать правильно и выпускать вдумчивые, запланированные апдейты с приличным количеством нового контента, то и модерация мешать не будет.

Доходы от игр в AppStore выше чем доходы от игр на PC, а переносить Unity или другие игры с тем же Catalyst стало еще проще, не говоря уже про M1, где все работает из коробки. Другими словами там только пересборка проекта нужна с минимальной полировкой. И если это был какой-то casual хорошо написанный, так ты его выпустишь на iOS, iPadOS, macOS, tvOS из одного кода. С поддержкой внешних контроллеров и т.д. Просто начинать писать надо под iOS. И тогда переход на другие платформы будет легким. А если начинать писать для Windows, а потом портировать на macOS, да может быть боль.

Публикации