включать мобильную точку доступа, не заходя в меню настроек второго уровня;
умеет
двигать ярлыки по рабочему столу, не привязываясь к верхнему краю;
не умеет
убирать из нижней шторки ненужные некоторым (многим!) кнопки вроде AirDrop;
Большинство кнопок нижней шторки вполне себе можно убрать. Конкретно AirDrop убрать нельзя, но она и так не отображается в нижней шторке. Чтобы ее увидеть нужно еще после выдвигания шторки еще сделать лонг-тап (или 3д тач) по секции с connectivity штуками. Там-же, к слову, и Personal hotspot можно включить одним нажатием.
выключать экран не кнопкой, а удобно расположенным ярлыком (и не ассистив-тачем, который надо двигать постоянно чтобы не мешался);
Ответ конечно "не умеет", но не могли бы вы описать ситуацию, где это реально необходимо/удобно? А то мне такую слегка сложно представить.
Всегда и везде доступная физическая кнопка — не подходит. Ассистив тач с сенсорной кнопкой — тоже неудобно, мешается. Зато сенсорная кнопка, спрятанная в условном месте, к которому еще нужно отдельно докликакть и досвайпать — удобно. Откровенно говоря, выглядит как натягивание андроида совы на глобус.
показывать напоминания на рабочем столе рядом с ярлыками;
умеет
автоматически записывать звонки, на случай если забудешь что-то важное (и да, это законно в РФ);
Ну если сильно нужно — можно подключить к компу и записать через QuickTime. Но это конечно извращение. Сам по себе айфон их записывать не умеет.
показывать часы и уведомления на заблокированном экране с минимальным расходом аккумулятора и без тройного нажатия кнопки питания (ладно хоть не четверного:)
Если вы про Always-On Display, то да, из коробки не подвезли и не факт, что подвезут. Видимо оставили это как фичу apple watch. Но есть сторонние приложения вроде этого. К слову, получится прямо как ваш невероятно удобный юз-кейс, когда блокировать экран нужно не физической кнопкой, а отдельным непонятно куда засунутым "удобно расположенным ярлыком".
Про тройное нажатие чесно говоря, вообще не понял, о чем речь. Да, на тройной клик можно навесить разные шорткаты, но для показа часов и нотификаций достаточно либо один раз нажать кнопку питания, либо тапнуть по экрану, либо просто поднять телефон со стола. Если вы раньше нажимали 3 раза, то это было совершенно необязательно
если выбирать примерно равные устройства по размеру экрана, то вес и размер может быть и не в пользу айфонов
По весу преимущество в 6-7% на вашем скрине я вижу. Но вот по размеру андроиды проигрывают на 16% для 6,1" девайса и на 20% для 6,7".
Насколько эта разница критична — вопрос отдельный. Но на +2 мм (из 9) в толщине корпуса я бы внимание обратил, а вот +15 г (из 230) к весу скорее всего вообще не заметил бы.
Эмм. Как вы сделали такой вывод из процитированного текста?
Вся статья о том, что как раз не придется ничего менять. Даже чипсеты 400 серии (вышли вместе с Ryzen 2000 серии в 2018 году) будут поддерживать новые процессоры, пусть и с задержкой.
X570 — это не новый чипсет. Чипсеты 500 серии вышли вместе с райзенами 3000 серии. И они могут поддерживать 5000 серию хоть сейчас после обновления биоса.
Из того что сразу в голову приходит: CAD, ML, рендеринг для 3д-моделирования и видео-продекшена. Для первого 3090 не особо применима в силу ограничений в драйвере, но для остального — вполне себе.
Дело в том, что "объявлена" — это как бы исчерпывающее описание состояния технологии и ее доступности на сегодняшний день. Есть только этот слайд и обещание запилить поддержку технологии в DirectX.
Так что как минимум в данном случает, ни о каком RTX IO речи не идет и идти не может.
Во-вторых, даже если бы RTX IO был доступен, то я очень сомневаюсь, что протечка (или даже пробоина) в одной абстракции (nvme диски) работала бы так же хорошо с абсолютно другой абстракцией (ram/vram диски).
Во-первых, "официальное" позиционирование титанов у них постоянно меняется. Да, тьюринговый у них в deep-learning-ai. Но паскалевские и максвелловские прекрасно себя чувствовали в игровой GeForce серии. При этом абсолютно так же стоили в разы дороже своих 80 ti собратьев, будучи производительнее на считанные проценты.
Во-вторых, банальная математика со спецификациями показывает, что даже в самом идеальном случае максимальная разница между 3080 и 3090 составит 20%. Производительность не появляется магическим образом из ниоткуда, потому что иначе "никто брать не будет".
Если у нас 20% больше ядер и на 20% шире шина памяти, то на идеальных синтетических нагрузках (и при условии, что 3090 сможет буститься так же эффективно, как и 3080) будет +20% производительности. В более приближенных к жизни сценариях (как игры, например) прирост, очевидно, будет меньше (например 10%).
Единственное исключение — ситуации с нехваткой памяти. Там да, 3090 сможет засиять вовсю. Но к современному геймингу такие ситуации все таки имеют очень слабое отношение.
Что, кстати, косвенно подтверждается и тем, что на презентации по сути единственный шоу-кейс 3090 — это игра в 8К, где действительно 3080 может упираться в память. На слайдах со сравнениями производительности 3090 отсутствует как явление. Потому что
они там понимают что никто тогда брать ее не будет
Нет, не понимают. И много лет уже выпускают титаны, которые (в играх) в лучшем случае на 10-15% быстрее xx80 Ti соответствующего поколения, будучи при этом в 2 раза дороже.
Хорошо, что вы им открыли наконец глаза. А то сидят там, наверное, головы ломают, почему же никто не берет.
Не очень понятно, почему с читалками у вас решение проблемы — не покупать продукт, который вам не нравится, а с айфоном — заставить производителя переделать продукт так, чтобы он вам стал нравиться.
Собственно, к чему эти полумеры? Зачем ограничиваться телефонами и читалками. Давайте обяжем вообще всех производителей устройств с процессором предоставлять возможность поставить свой софт на них. Да еще и без "Вот именно, «заморочитесь»". А то производители роботов-пылесосов совсем распоясались. Не дают фортнайт и EGS поставить, монополисты проклятые!
3.1.5(a) Goods and Services Outside of the App: If your app enables people to purchase goods or services that will be consumed outside of the app, you must use purchase methods other than in-app purchase to collect those payments, such as Apple Pay or traditional credit card entry.
Да достаточно просто, на самом деле. Если речь про Python, то блокирующие IO-bound вызовы легко и непринужденно превращаются в неблокирующие асинхронные путем запуска их в отдельных потоках. Если вызов не IO-bound, а CPU-bound, то из-за GIL запускать желательно в отдельном процессе. Тут уже могут быть некоторые проблемы, т.к. не все и не всегда легко переживет сериализацию и перенос в другой процесс. Но в большинстве случаев проблема тоже вполне решаемая.
В asyncio это все есть из коробки: run_in_executor, ThreadPoolExecutor, ProcessPoolExecutor и вот это вот все.
Для начала стоило бы учесть, что месяцы имеют разную длительность и либо нормализовать данные (показывая не общее к-во дней рождения, а например среднее к-во дней рождения в день), либо по оси X отображать равные промежутки (напр. недели вместо месяцев).
В противном случае даже при абсолютно равномерном распределении на гистограмме у вас будут скачки в 3-10%.
Да, так и есть. Это проблема не JSON-а как такового, а JavaScript-а, который под капотом все числа представляет в виде 64-битных double. С другими языками все зависит от десериализатора. Большинство работают нормально и используют 64-битные целые без проблем. Но когда-то натыкался на какую-то либу, которая во имя "совместимости" на .NET тоже портила числа >= 2^53.
Кроме того, даже если (де-)сериализатор не подвержен проблеме 53 битов, есть вероятность, что он не умеет нормально работать с беззнаковыми 64 битными целыми. Потому что под капотом парсит все целые в знаковый 64-битный инт, не учитывая тип поля-назначения. И в обычно все работает. За исключением случаев когда поле назначения — беззнаковый 64-битный инт и значение превышает 2^63.
Да, сейчас не может, но в 2010 мог. А все функции показанной нокии (и не только их) может выполнять и сейчас. Вот мне и интересно, почему нокия не тыква, а айфон тыква)
Давайте тогда как-то конкретнее определим, что входит в "превратиться в тыкву". А то первый айфон, так-то, тоже может принимать смс и даже лежать на полке. И еще устанавливать приложения из стора. Но он почему-то тыква, а это — не тыква.
Мериться частотами — занятие довольно глупое даже при сравнении производительности процессоров разных поколений от одного производителя. Использовать частоты как аргумент при сравнении процессоров на абсолютно разных архитектурах — вообще лишено всякого смысла.
Честное слово, единственный равносильный ответ на это — замечание, что это A12X "задушенный" (с) размерами. Ведь i7 почти в 3 раза больше, а все равно проигрывает! A12X всего лишь 10.1mm x 12.6mm, тогда как i7 — целых 22 mm x 16.5 mm.
Ну речь все же шла о поддержке старого железа со стороны ОС. И тут все чуть менее гладко. На железе прошлого века десятка уже не запустится, ей нужен SSE2.
Хотя и поддержкой железа 2000 года macOS похвастаться не может, это да.
Но cyber_roach же говорил не про маки с macOS, а про айфоны с iOS. Которым в плане длительности и качества поддержки нет равных. Как бы это кого не раздражало.
мы же так уже делали с айфонами не раз и айпадами на 32-х битной архитектуре и прокатило
Серьезно? При всех косяках Эппл обвинять их в недостаточно долгой поддержке своих устройств?
Я просто напомню, что 32-битные айфоны и айпады перестали поддерживаться в iOS 11. В 2018 году. При этом iOS 10 еще год получала обновления (последнее летом 2019). Последний 32-битный айфон вышел в 2013 году. Последний айпад в 2012.
Ох уж эти коварные эпл со своими коварными планами. По 6 лет коварно поддерживают устройства, чтобы потом максимально коварно перестать! Какое коварное коварство!
Как же хорошо, что остались еще другие производители смартфонов и планшетов, которые максимально честно и открыто, с искренней заботой о пользователе выпускают апдейты для своих устройств в лучшем случае 1-2 года после выпуска.
умеет
не умеет
Большинство кнопок нижней шторки вполне себе можно убрать. Конкретно AirDrop убрать нельзя, но она и так не отображается в нижней шторке. Чтобы ее увидеть нужно еще после выдвигания шторки еще сделать лонг-тап (или 3д тач) по секции с connectivity штуками. Там-же, к слову, и Personal hotspot можно включить одним нажатием.
Ответ конечно "не умеет", но не могли бы вы описать ситуацию, где это реально необходимо/удобно? А то мне такую слегка сложно представить.
Всегда и везде доступная физическая кнопка — не подходит. Ассистив тач с сенсорной кнопкой — тоже неудобно, мешается. Зато сенсорная кнопка, спрятанная в условном месте, к которому еще нужно отдельно докликакть и досвайпать — удобно. Откровенно говоря, выглядит как натягивание
андроидасовы на глобус.умеет
Ну если сильно нужно — можно подключить к компу и записать через QuickTime. Но это конечно извращение. Сам по себе айфон их записывать не умеет.
Если вы про Always-On Display, то да, из коробки не подвезли и не факт, что подвезут. Видимо оставили это как фичу apple watch. Но есть сторонние приложения вроде этого. К слову, получится прямо как ваш невероятно удобный юз-кейс, когда блокировать экран нужно не физической кнопкой, а отдельным
непонятно куда засунутым"удобно расположенным ярлыком".Про тройное нажатие чесно говоря, вообще не понял, о чем речь. Да, на тройной клик можно навесить разные шорткаты, но для показа часов и нотификаций достаточно либо один раз нажать кнопку питания, либо тапнуть по экрану, либо просто поднять телефон со стола. Если вы раньше нажимали 3 раза, то это было совершенно необязательно
По весу преимущество в 6-7% на вашем скрине я вижу. Но вот по размеру андроиды проигрывают на 16% для 6,1" девайса и на 20% для 6,7".
Насколько эта разница критична — вопрос отдельный. Но на +2 мм (из 9) в толщине корпуса я бы внимание обратил, а вот +15 г (из 230) к весу скорее всего вообще не заметил бы.
Эмм. Как вы сделали такой вывод из процитированного текста?
Вся статья о том, что как раз не придется ничего менять. Даже чипсеты 400 серии (вышли вместе с Ryzen 2000 серии в 2018 году) будут поддерживать новые процессоры, пусть и с задержкой.
X570 — это не новый чипсет. Чипсеты 500 серии вышли вместе с райзенами 3000 серии. И они могут поддерживать 5000 серию хоть сейчас после обновления биоса.
Из того что сразу в голову приходит: CAD, ML, рендеринг для 3д-моделирования и видео-продекшена. Для первого 3090 не особо применима в силу ограничений в драйвере, но для остального — вполне себе.
Дело в том, что "объявлена" — это как бы исчерпывающее описание состояния технологии и ее доступности на сегодняшний день. Есть только этот слайд и обещание запилить поддержку технологии в DirectX.
Так что как минимум в данном случает, ни о каком RTX IO речи не идет и идти не может.
Во-вторых, даже если бы RTX IO был доступен, то я очень сомневаюсь, что протечка (или даже пробоина) в одной абстракции (nvme диски) работала бы так же хорошо с абсолютно другой абстракцией (ram/vram диски).
Во-первых, "официальное" позиционирование титанов у них постоянно меняется. Да, тьюринговый у них в deep-learning-ai. Но паскалевские и максвелловские прекрасно себя чувствовали в игровой GeForce серии. При этом абсолютно так же стоили в разы дороже своих 80 ti собратьев, будучи производительнее на считанные проценты.
Во-вторых, банальная математика со спецификациями показывает, что даже в самом идеальном случае максимальная разница между 3080 и 3090 составит 20%. Производительность не появляется магическим образом из ниоткуда, потому что иначе "никто брать не будет".
Если у нас 20% больше ядер и на 20% шире шина памяти, то на идеальных синтетических нагрузках (и при условии, что 3090 сможет буститься так же эффективно, как и 3080) будет +20% производительности. В более приближенных к жизни сценариях (как игры, например) прирост, очевидно, будет меньше (например 10%).
Единственное исключение — ситуации с нехваткой памяти. Там да, 3090 сможет засиять вовсю. Но к современному геймингу такие ситуации все таки имеют очень слабое отношение.
Что, кстати, косвенно подтверждается и тем, что на презентации по сути единственный шоу-кейс 3090 — это игра в 8К, где действительно 3080 может упираться в память. На слайдах со сравнениями производительности 3090 отсутствует как явление. Потому что
Нет, не понимают. И много лет уже выпускают титаны, которые (в играх) в лучшем случае на 10-15% быстрее xx80 Ti соответствующего поколения, будучи при этом в 2 раза дороже.
Хорошо, что вы им открыли наконец глаза. А то сидят там, наверное, головы ломают, почему же никто не берет.
Ну в команде на 16 секунде видно, что там как раз и задается скорость в 1500 IOPS.
Что, впрочем, не отменяет того, что видео с переключением на все маркетинговые 50К+ иопсов выглядело бы намного уместнее.
Не очень понятно, почему с читалками у вас решение проблемы — не покупать продукт, который вам не нравится, а с айфоном — заставить производителя переделать продукт так, чтобы он вам стал нравиться.
Собственно, к чему эти полумеры? Зачем ограничиваться телефонами и читалками. Давайте обяжем вообще всех производителей устройств с процессором предоставлять возможность поставить свой софт на них. Да еще и без "Вот именно, «заморочитесь»". А то производители роботов-пылесосов совсем распоясались. Не дают фортнайт и EGS поставить, монополисты проклятые!
https://developer.apple.com/app-store/review/guidelines/#goods-and-services
Да достаточно просто, на самом деле. Если речь про Python, то блокирующие IO-bound вызовы легко и непринужденно превращаются в неблокирующие асинхронные путем запуска их в отдельных потоках. Если вызов не IO-bound, а CPU-bound, то из-за GIL запускать желательно в отдельном процессе. Тут уже могут быть некоторые проблемы, т.к. не все и не всегда легко переживет сериализацию и перенос в другой процесс. Но в большинстве случаев проблема тоже вполне решаемая.
В
asyncio
это все есть из коробки:run_in_executor
,ThreadPoolExecutor
,ProcessPoolExecutor
и вот это вот все.Для начала стоило бы учесть, что месяцы имеют разную длительность и либо нормализовать данные (показывая не общее к-во дней рождения, а например среднее к-во дней рождения в день), либо по оси X отображать равные промежутки (напр. недели вместо месяцев).
В противном случае даже при абсолютно равномерном распределении на гистограмме у вас будут скачки в 3-10%.
Да, так и есть. Это проблема не JSON-а как такового, а JavaScript-а, который под капотом все числа представляет в виде 64-битных double. С другими языками все зависит от десериализатора. Большинство работают нормально и используют 64-битные целые без проблем. Но когда-то натыкался на какую-то либу, которая во имя "совместимости" на .NET тоже портила числа >= 2^53.
Кроме того, даже если (де-)сериализатор не подвержен проблеме 53 битов, есть вероятность, что он не умеет нормально работать с беззнаковыми 64 битными целыми. Потому что под капотом парсит все целые в знаковый 64-битный инт, не учитывая тип поля-назначения. И в обычно все работает. За исключением случаев когда поле назначения — беззнаковый 64-битный инт и значение превышает 2^63.
Да, сейчас не может, но в 2010 мог. А все функции показанной нокии (и не только их) может выполнять и сейчас. Вот мне и интересно, почему нокия не тыква, а айфон тыква)
Давайте тогда как-то конкретнее определим, что входит в "превратиться в тыкву". А то первый айфон, так-то, тоже может принимать смс и даже лежать на полке. И еще устанавливать приложения из стора. Но он почему-то тыква, а это — не тыква.
Не более оригинально, чем сравнивать по частотам ARM и x64
Мериться частотами — занятие довольно глупое даже при сравнении производительности процессоров разных поколений от одного производителя. Использовать частоты как аргумент при сравнении процессоров на абсолютно разных архитектурах — вообще лишено всякого смысла.
Честное слово, единственный равносильный ответ на это — замечание, что это A12X "задушенный" (с) размерами. Ведь i7 почти в 3 раза больше, а все равно проигрывает! A12X всего лишь 10.1mm x 12.6mm, тогда как i7 — целых 22 mm x 16.5 mm.
Ну речь все же шла о поддержке старого железа со стороны ОС. И тут все чуть менее гладко. На железе прошлого века десятка уже не запустится, ей нужен SSE2.
Хотя и поддержкой железа 2000 года macOS похвастаться не может, это да.
Но cyber_roach же говорил не про маки с macOS, а про айфоны с iOS. Которым в плане длительности и качества поддержки нет равных. Как бы это кого не раздражало.
Поделитесь примерами других телефонов 2007 года выпуска, которые не превратились в тыкву в 2010 году.
Серьезно? При всех косяках Эппл обвинять их в недостаточно долгой поддержке своих устройств?
Я просто напомню, что 32-битные айфоны и айпады перестали поддерживаться в iOS 11. В 2018 году. При этом iOS 10 еще год получала обновления (последнее летом 2019). Последний 32-битный айфон вышел в 2013 году. Последний айпад в 2012.
Ох уж эти коварные эпл со своими коварными планами. По 6 лет коварно поддерживают устройства, чтобы потом максимально коварно перестать! Какое коварное коварство!
Как же хорошо, что остались еще другие производители смартфонов и планшетов, которые максимально честно и открыто, с искренней заботой о пользователе выпускают апдейты для своих устройств в лучшем случае 1-2 года после выпуска.