UI и на китайских "ноутбуках" на селероне быстрее работает… До тех пор пока не надо поработать в любом графическом приложении (даже банальном paint.net) или с графическим планшетом. Тогда каждое движение планшетом или тачпадом вызывает каскадные микро-фризы "не отвечает" на рабочее окно на 0.3с с мерцанием и переключением на другие окна. Неизлечимо.
Работа с нейросеткой мне видится похожей на работу с очень навороченным и сложным, но все же техническим приспособлением по перемешиванию чужих изображений, схожим по объему вклада чего-то нового в творчество.
Тогда фотография — не искусство. Причем любая. Это просто работа с навороченным и сложным техническим приспособлением. Задал настройки, ракурс, свет, нажал кнопку — и дальше оно само запечатлело реальный (не созданный автором) уже существовавший объект, само его фильтром байера свело и в RAW/JPG сохранило. Творческой деятельности не больше чем с нейронкой, в основном тупо технические навыки.
А если таки установка ракурса/настроек/света для получения хорошего результата — это искусство, то и установка гиперпараметров, настроек, модулей, обучение и использование подключаемых эмбедингков/лор/гиперсетей и, самое главное, составление корректного позитивного и негативного промта с корректной развесовкой — тоже искусство.
Без всего этого сеть сделает "бррр" и выдаст мешанину инсульто-подобной трехголово-восьмирукой фигни покрытой пальцами, на каких бы шедеврах она не училась.
Причем критично чтобы он буквально был похож (т.е изображал тот же объект в ± том же ракурсе и т.д). Т.к если похож стиль, но нарисовано то чего исходный автор ни разу не рисовал — то это уже не плагиат (а стиль авторским правом не охраняется, только конкретные изображения).
Студенты при просмотре тоже в мозг фотки загружают. И рисуют не из жизненного опыта, а перетасовывая загруженные фотки и изображения реального мира, загруженные из зрительного аппарата. И творят не своё искусство, а коллаж из увиденного ранее по жизни. Слепой вам ничего подобного не нарисует — не из чего коллаж делать.
Если вы в РФ, то к вам придёт музей, и выкатит вам нехреновый счёт.
И уже наверняка выкатил всем кто с Мона Лизой рисует комиксы, мемасы, картинки с другими персонажами по мотивам и т.д? И публикующим площадкам (реактор, пикабу, акомикс) тоже наверняка? Не похоже.
Любой более-менее скиловый художник большинство бытовых стилей повторить может куда точнее чем нейросети. Например, человек рисующий аниме-фанарты высокого качества повторит без напряга почти любой современный аниме-стиль и половину стилей фан-артеров из инстаграма. Быстрее, лучше и точнее нейросети, которая даже обучаясь на тысячах артов чисто 1 персонажа не может точно его элементы одежды повторить...
Люди в целом учатся быстрее и качественнее, просто нейросеть не ограничена одним мозгом и может параллелиться на сотни и тысячи устройств (но при этом учится всё равно люто неэффективно).
Приближенную апроксимацию любых данных при должном успехе и из числа Пи (или из любого генератора случайных последовательностей) с некоторой вероятностью при определенном старании извлечь можно. Означает ли это, что генераторы случайных последовательностей являются производными от этих данных?
JPG яляется математическим (пусть и не точным) описанием конкретного bitmap-изображения, а не случайным набором шума, которое при некотором старании с некоторой вероятностью может сложиться во что-то похожее.
Код нейронной сети таковыим не является — он вообще не для картинок, его задача оперировать коэффициентами весов модели. Любой совместимой модели, а не от конкретной картинки. Веса модели нейронной сети тоже таковыми не являются — они создаются без всяких картинок, иницализируясь рандомом или нулями, и в дальнейшем туда никакой информации о картинках не пишется ни в каком виде (как и вообще какая-либо новая информация) — там только меняются уже существовавшие (до всяких картинок) коэффициенты. Так что веса тоже не производная от картинки — они созданы из рандома, и картинка на их коэффициенты имеет весьма опосредованное значение. Примерно как цветовой профиль монитора имеет отношение к нарушению патента на цвет если вы случайно выберете не патентованный оттенок, а на мониторе увидите патентованный...
то в чем непонятность требования не ходить за его картинками?
В том что он требует "не ходить" не у Stability.AI/OpenAI/Google которые ходят и смотрят, а у каталога ссылок, который никуда ни за чем не ходит и ничего не учит.
Но ваша нейросеть — просто инструмент для зарабатывания бабок.
Бабки просто отдайте за использование чужого "труда".
Коммерческий художник, обучившийся на трудах и работах других художников и фотографов — просто инструмент для зарабатывания бабок. Пусть тоже отдаст бабки всем, чьими работами он вдохновлялся при обучении, чьи работы использовал как референсы, на чьих персонажей фан-арты на патреоне рисовал и т.д и т.п. Ибо этого художника от нейронки радикально отличает только белковый носитель вместо кремниевого.
Разрешить рисовать только слепым или запертым в одиночной камере с рождения и чужих работ точно не видевшим. Чтобы точно на чужом не обучались и чужой труд в своих работах не использовали.
о-вторых, в программировании важен функционал кода, а не имитация чьей-то манеры.
Именно по-этому наверно вместо нечитаемого (но обладающего нужным функционалом) спагетти-кода примудано ООП, паттерны проектирования и прочие веселые шаблоны, по сути являющиеся иммитацией конкретного стиля, кем-то когда-то придумаенного.
стиль написания кода выявить — сложнее, чем в визуальном искусстве.
Ничуть. Лингивстический анализ для текстовой информации имеется, и характерные для человека вещи выявить может и в коде.
В-четвертых, нейросеть — не человек, это продукт с настройками.
Мозг человека — нейросеть с настройками. Модели нейросети — не продукт с настройками. Есть алгоритм их обучения и их применения — это код, с настройками. Но сами модели — черный ящик, и что творится внутри него понятно весьма смутно (хоть и понятнее мозга, ибо тут хотя бы архитектуру мы сами проектируем)
Да не вопрос. Но смотреть она может только на JPG файлы, полученные через камеру и записанные на носитель, ибо это генеративная сеть, а не робот общего назначения, способный прийти самостоятельно к горам. Считайте что инвалид. Но таки да, авторы модели могут ей нафоткать сами и скормить.
Вот только давайте догда вы при выборе курорта или страны для переезда будете не чужие фото/видео/обзоры нужного места смотреть и читать, а сами поедете смотреть своими глазами. Ибо зачем вы на чьи-то фотки интересущего объекта смотрите для получения информации? Свои сделайте.
Зайдите на их сайт, посмотрите их проекты. У них нет ни одной генеративной text2image модели. Они не этим занимаются. С таким же успехом у меня нет пруфов, что яндекс и гугл не учат генеративные модели на своей выдаче.
И в котором есть условия использования, с которыми Вы согласились на его использование другими.
Могу показать вам 1000 и 1 реп без каких-либо условий и лицензий (т.е по-умолчанию условия площадки). Художник свои работы на публичный доступ тоже на площадках выкладывает. И я очень глубоко сомневаюсь что в их условиях сказано, что смотреть на изображения имеет право только белковый интеллект/человек и что выводы из просмотренного может делать только белковый интеллект/человек. Они запрещают копирование и переиспользование, но ничем из этого обучающаяся модель не занимается. Она буквально "смотрит и делает выводы", меняя лишь коэфициенты своих весов, причем заранее созданных при инициализации модели, еще до увиденной первой картинки. Она даже новых весов внутри себя она не создает, в отличии от человека, новые нейронные связи формируюещего (т.е по сути куда больше выносящего из увиденного).
На это он вроде согласен. И на просмотр человеком согласен. А на именно "использование в коммерческих целях" не согласен.
Претензии у него к LAION. Laion учит на датасете? Нет. Laion просто аггрегирует ссылки. И выгладывает их (а не фото) на некоммерческой основе для всех (в отличии от гугла, который делает это на коммерческой основе, монетизируя рекламой). А кто по ним уже пройдет и посмотрит — от них не зависит.
Это как предъявлять претензии к гуглу за то, что кто-то учит сеть на результатах запроса к google image search.
Напишите код. Его просмотрит нейросеть, а вам потом денег не даст. Патамушта она сама код написала, а вы тут ни при чём.
Напишите код, залейте его в публичный гитхаб-реп, который виден всем, под лицезией не запрещающий его просмотр, изучение и формирование определенных выводов по результату изучения. Кто-то пройдет и посмотрит, освоит на примере вашего кода какие-то годные ООП-практики (не заучивая сам код и сам код никак напрямую и косвенно не используя) и потом пойдет писать свой код на работе (т.е за деньги), используя освоенные практики. И вам, внезапно, не заплатит. Есть в этом что-нибудь странное? Вроде нет. А нейронки именно так и делают.
Просмотр людьми и использование в программном мега-продукте - разные юридические категории. Тем более, что мега-продукт нацелен на извлечения прибыли, а просмотр разрешен ради рекламы способностей фотографа.
Ну значит удалить фотографа из всех поисковых систем. Ибо хранят ссылки? Хранят. Просматривает (и индексирует) их робот? Робот. Корпорации владеющие поисковыми системами являются мега-корпорациями? Да. Делают это ради получения прибыли (в отличии от некоммерческой laion) ?- делают. Вывод? Нафиг из выдачи ссылки на фото (а из поиска по картинкам - и сами фото в виде кэшированных превью). Пусть через сарафанное радио ищут.
Если продавец продает себе в минус или 0, то в чем его выгода от такого развода?
А давайте действительно проверим. Только цену роутера гляньте не на али, а на таобао. И после этого сравните, остается ли продавец в плюсе после 20$ возврата от весьма солидной наценки на али или нет. Вангую что остается.
От рыбок зависит. Нашим местным рыбкам (не карасю и ротану — этим на всё пофиг) в теплой воде так-то вообще не очень живется ибо кислород в теплой воде не очень задерживается. Окуни летом прям у берега на пляжах каматозные от нехватки кислорода периодически, можно ходить руками ловить… (летом вечно беда аквариум для них охлаждать)
А вот всякие инвазивные полу-тропические виды, закинутые не очень сознательными аквариумистами, и пресноводные креветки вроде макробрахиумов — вполне будут жить и процветать.
Реальные кейсы? Их есть у меня. Тривиальный дуал-контуринг для реконструкции меша в stl по слайсами GPT не смогла за неделю мучений. В тех случаях, когда её код был вообще работоспособен и не дергал не существующие либы и методы — он в лучшем случае делал кривую рандомную 2D STL. Делал он её 3 раза (из примерно 140+ попыток) и 2 из них были марширующими кубами.
Очень заслуживающие доверия решения, точно надо вставлять в свой код...
Единственное, для чего оно годится прям хорошо — простенькие bash/powershell скрипты для домашнего использования генерить, и то лишь если лень в синтаксис вникнуть.
P.S. А вообще ваши юзкейсы мне мой опыт рисования фан.арта со Stable Diffusion очень напоминают. Пока просишь "нарисовать что-то" — всё шикарно, красиво, радует глаз и кажется норм. До тех пор пока не оказывается что надо нарисовать что-то конкретное. И тогда ни файнтюн модели, ни Lora оверфитнутая на конкретного персонажа (чтобы наверняка) не дают сгенерить фан-арт на конкретного персонажа. И по факту — час генерим (чтобы получить из кучи УГ хоть одну нормальную базу) и еще 2-3 дня дорисовываем/перерисовываем/дорабатываем руками, возращаясь к нейронке лишь чтобы сгладить покрас в img2img. Умей я рисовать хоть немного (реально — хотя бы чуть-чуть) — и быстрее было бы рисовать с нуля, попросив у SD лишь скетч для идеи. С GPT точно так же.
Но с выходом MS Teams Work preview убедился, что это не совсем так. Летает, память не жрёт как не в себя. А он, внезапно, тоже на web!
На сегодня, скорее всего, скорость работы больше зависит от прямых рук кодеров.
Да. Вот только разница в том, что та производительность, которая в Electron будет достигаться болью и страданием ради оптимизаций на каждом шагу, в условных Delphi/C++/Net.core будет из коробки. Т.е прям сразу. На нормальных компилируемых языках для десктопа можно писать лютый говнокод, который по потреблению ресурсов будет ± таким же как насмерть заоптимизированный JS. А представьте, что будет если этот говнокод еще и оптимизировать?)
Можно упираться и плеваться, но для конечного пользователя важно, чтобы было в первую очередь красиво, а уже во вторую — быстро.
Серьезно?
Проведите простой, но очень (максимально) наглядный эксперимент. Возьмите старенький нетбук с Atom N455 и 2gb ddr2 RAM (MSI Wind U135 например).
В одном из вариантов отсавьте идущую в комплекте WinXP и офис 2003. Во втором варианте накатите Win7 + Office 2019.
Дайте пользователям открыть большой перегруженный doc-файл. И узнайте, что им понравится больше — старая XP с древним дубовым 2003 офисом, который стартанет там примерно за 2-3с и еще за 10 прогрузит весь документ, или красивая Win7 с загрузкой в 8 минут, открытием 2019 офиса (стильно-модно молодежного) еще в почти минуту и парой минут на загрузку документа.
Что-то мне подсказывает, что выбор будет отнюдь не в пользу блестящих свисто-перделок, а в пользу страшного но нормально работающего.
У меня так провайдер A1 родителям на древнем выдаваемом им TV-боксе (который и без того был древней дохлой тормозной дичью) нобновил 2 раза андроид и накатил вместо старого ПО своё новое, и задержа в переключении пунктов меню сменилась с терпимых 1-3с до 12-40с (почти до минуты! переключение пунктов в меню чтоб фильм найти!!). Зато красиво, да...
UI и на китайских "ноутбуках" на селероне быстрее работает… До тех пор пока не надо поработать в любом графическом приложении (даже банальном paint.net) или с графическим планшетом. Тогда каждое движение планшетом или тачпадом вызывает каскадные микро-фризы "не отвечает" на рабочее окно на 0.3с с мерцанием и переключением на другие окна. Неизлечимо.
А вин10 тем временем пашет как часы.
Тогда фотография — не искусство. Причем любая. Это просто работа с навороченным и сложным техническим приспособлением. Задал настройки, ракурс, свет, нажал кнопку — и дальше оно само запечатлело реальный (не созданный автором) уже существовавший объект, само его фильтром байера свело и в RAW/JPG сохранило. Творческой деятельности не больше чем с нейронкой, в основном тупо технические навыки.
А если таки установка ракурса/настроек/света для получения хорошего результата — это искусство, то и установка гиперпараметров, настроек, модулей, обучение и использование подключаемых эмбедингков/лор/гиперсетей и, самое главное, составление корректного позитивного и негативного промта с корректной развесовкой — тоже искусство.
Без всего этого сеть сделает "бррр" и выдаст мешанину инсульто-подобной трехголово-восьмирукой фигни покрытой пальцами, на каких бы шедеврах она не училась.
Причем критично чтобы он буквально был похож (т.е изображал тот же объект в ± том же ракурсе и т.д). Т.к если похож стиль, но нарисовано то чего исходный автор ни разу не рисовал — то это уже не плагиат (а стиль авторским правом не охраняется, только конкретные изображения).
Студенты при просмотре тоже в мозг фотки загружают. И рисуют не из жизненного опыта, а перетасовывая загруженные фотки и изображения реального мира, загруженные из зрительного аппарата. И творят не своё искусство, а коллаж из увиденного ранее по жизни. Слепой вам ничего подобного не нарисует — не из чего коллаж делать.
Норм упрощение.
И уже наверняка выкатил всем кто с Мона Лизой рисует комиксы, мемасы, картинки с другими персонажами по мотивам и т.д? И публикующим площадкам (реактор, пикабу, акомикс) тоже наверняка? Не похоже.
Любой более-менее скиловый художник большинство бытовых стилей повторить может куда точнее чем нейросети. Например, человек рисующий аниме-фанарты высокого качества повторит без напряга почти любой современный аниме-стиль и половину стилей фан-артеров из инстаграма. Быстрее, лучше и точнее нейросети, которая даже обучаясь на тысячах артов чисто 1 персонажа не может точно его элементы одежды повторить...
Люди в целом учатся быстрее и качественнее, просто нейросеть не ограничена одним мозгом и может параллелиться на сотни и тысячи устройств (но при этом учится всё равно люто неэффективно).
Приближенную апроксимацию любых данных при должном успехе и из числа Пи (или из любого генератора случайных последовательностей) с некоторой вероятностью при определенном старании извлечь можно. Означает ли это, что генераторы случайных последовательностей являются производными от этих данных?
JPG яляется математическим (пусть и не точным) описанием конкретного bitmap-изображения, а не случайным набором шума, которое при некотором старании с некоторой вероятностью может сложиться во что-то похожее.
Код нейронной сети таковыим не является — он вообще не для картинок, его задача оперировать коэффициентами весов модели. Любой совместимой модели, а не от конкретной картинки. Веса модели нейронной сети тоже таковыми не являются — они создаются без всяких картинок, иницализируясь рандомом или нулями, и в дальнейшем туда никакой информации о картинках не пишется ни в каком виде (как и вообще какая-либо новая информация) — там только меняются уже существовавшие (до всяких картинок) коэффициенты. Так что веса тоже не производная от картинки — они созданы из рандома, и картинка на их коэффициенты имеет весьма опосредованное значение. Примерно как цветовой профиль монитора имеет отношение к нарушению патента на цвет если вы случайно выберете не патентованный оттенок, а на мониторе увидите патентованный...
В том что он требует "не ходить" не у Stability.AI/OpenAI/Google которые ходят и смотрят, а у каталога ссылок, который никуда ни за чем не ходит и ничего не учит.
Коммерческий художник, обучившийся на трудах и работах других художников и фотографов — просто инструмент для зарабатывания бабок. Пусть тоже отдаст бабки всем, чьими работами он вдохновлялся при обучении, чьи работы использовал как референсы, на чьих персонажей фан-арты на патреоне рисовал и т.д и т.п. Ибо этого художника от нейронки радикально отличает только белковый носитель вместо кремниевого.
Разрешить рисовать только слепым или запертым в одиночной камере с рождения и чужих работ точно не видевшим. Чтобы точно на чужом не обучались и чужой труд в своих работах не использовали.
Именно по-этому наверно вместо нечитаемого (но обладающего нужным функционалом) спагетти-кода примудано ООП, паттерны проектирования и прочие веселые шаблоны, по сути являющиеся иммитацией конкретного стиля, кем-то когда-то придумаенного.
Ничуть. Лингивстический анализ для текстовой информации имеется, и характерные для человека вещи выявить может и в коде.
Мозг человека — нейросеть с настройками. Модели нейросети — не продукт с настройками. Есть алгоритм их обучения и их применения — это код, с настройками. Но сами модели — черный ящик, и что творится внутри него понятно весьма смутно (хоть и понятнее мозга, ибо тут хотя бы архитектуру мы сами проектируем)
Да не вопрос. Но смотреть она может только на JPG файлы, полученные через камеру и записанные на носитель, ибо это генеративная сеть, а не робот общего назначения, способный прийти самостоятельно к горам. Считайте что инвалид. Но таки да, авторы модели могут ей нафоткать сами и скормить.
Вот только давайте догда вы при выборе курорта или страны для переезда будете не чужие фото/видео/обзоры нужного места смотреть и читать, а сами поедете смотреть своими глазами. Ибо зачем вы на чьи-то фотки интересущего объекта смотрите для получения информации? Свои сделайте.
Зайдите на их сайт, посмотрите их проекты. У них нет ни одной генеративной text2image модели. Они не этим занимаются. С таким же успехом у меня нет пруфов, что яндекс и гугл не учат генеративные модели на своей выдаче.
Могу показать вам 1000 и 1 реп без каких-либо условий и лицензий (т.е по-умолчанию условия площадки). Художник свои работы на публичный доступ тоже на площадках выкладывает. И я очень глубоко сомневаюсь что в их условиях сказано, что смотреть на изображения имеет право только белковый интеллект/человек и что выводы из просмотренного может делать только белковый интеллект/человек. Они запрещают копирование и переиспользование, но ничем из этого обучающаяся модель не занимается. Она буквально "смотрит и делает выводы", меняя лишь коэфициенты своих весов, причем заранее созданных при инициализации модели, еще до увиденной первой картинки. Она даже новых весов внутри себя она не создает, в отличии от человека, новые нейронные связи формируюещего (т.е по сути куда больше выносящего из увиденного).
Претензии у него к LAION. Laion учит на датасете? Нет. Laion просто аггрегирует ссылки. И выгладывает их (а не фото) на некоммерческой основе для всех (в отличии от гугла, который делает это на коммерческой основе, монетизируя рекламой). А кто по ним уже пройдет и посмотрит — от них не зависит.
Это как предъявлять претензии к гуглу за то, что кто-то учит сеть на результатах запроса к google image search.
Напишите код, залейте его в публичный гитхаб-реп, который виден всем, под лицезией не запрещающий его просмотр, изучение и формирование определенных выводов по результату изучения. Кто-то пройдет и посмотрит, освоит на примере вашего кода какие-то годные ООП-практики (не заучивая сам код и сам код никак напрямую и косвенно не используя) и потом пойдет писать свой код на работе (т.е за деньги), используя освоенные практики. И вам, внезапно, не заплатит. Есть в этом что-нибудь странное? Вроде нет. А нейронки именно так и делают.
Ну значит удалить фотографа из всех поисковых систем. Ибо хранят ссылки? Хранят. Просматривает (и индексирует) их робот? Робот. Корпорации владеющие поисковыми системами являются мега-корпорациями? Да. Делают это ради получения прибыли (в отличии от некоммерческой laion) ?- делают. Вывод? Нафиг из выдачи ссылки на фото (а из поиска по картинкам - и сами фото в виде кэшированных превью). Пусть через сарафанное радио ищут.
А давайте действительно проверим. Только цену роутера гляньте не на али, а на таобао. И после этого сравните, остается ли продавец в плюсе после 20$ возврата от весьма солидной наценки на али или нет. Вангую что остается.
От рыбок зависит. Нашим местным рыбкам (не карасю и ротану — этим на всё пофиг) в теплой воде так-то вообще не очень живется ибо кислород в теплой воде не очень задерживается. Окуни летом прям у берега на пляжах каматозные от нехватки кислорода периодически, можно ходить руками ловить… (летом вечно беда аквариум для них охлаждать)
А вот всякие инвазивные полу-тропические виды, закинутые не очень сознательными аквариумистами, и пресноводные креветки вроде макробрахиумов — вполне будут жить и процветать.
Реальные кейсы? Их есть у меня. Тривиальный дуал-контуринг для реконструкции меша в stl по слайсами GPT не смогла за неделю мучений. В тех случаях, когда её код был вообще работоспособен и не дергал не существующие либы и методы — он в лучшем случае делал кривую рандомную 2D STL. Делал он её 3 раза (из примерно 140+ попыток) и 2 из них были марширующими кубами.
Очень заслуживающие доверия решения, точно надо вставлять в свой код...
Единственное, для чего оно годится прям хорошо — простенькие bash/powershell скрипты для домашнего использования генерить, и то лишь если лень в синтаксис вникнуть.
P.S. А вообще ваши юзкейсы мне мой опыт рисования фан.арта со Stable Diffusion очень напоминают. Пока просишь "нарисовать что-то" — всё шикарно, красиво, радует глаз и кажется норм. До тех пор пока не оказывается что надо нарисовать что-то конкретное. И тогда ни файнтюн модели, ни Lora оверфитнутая на конкретного персонажа (чтобы наверняка) не дают сгенерить фан-арт на конкретного персонажа. И по факту — час генерим (чтобы получить из кучи УГ хоть одну нормальную базу) и еще 2-3 дня дорисовываем/перерисовываем/дорабатываем руками, возращаясь к нейронке лишь чтобы сгладить покрас в img2img. Умей я рисовать хоть немного (реально — хотя бы чуть-чуть) — и быстрее было бы рисовать с нуля, попросив у SD лишь скетч для идеи. С GPT точно так же.
А с поддержкой кучи расширений, которые есть для автоматика, как там?
Ибо он конечно кривулина та еще и автоматик кодит как рандом на душу положит, но он де-факто стандарт и всё в первую очередь пилится под него.
Да. Вот только разница в том, что та производительность, которая в Electron будет достигаться болью и страданием ради оптимизаций на каждом шагу, в условных Delphi/C++/Net.core будет из коробки. Т.е прям сразу. На нормальных компилируемых языках для десктопа можно писать лютый говнокод, который по потреблению ресурсов будет ± таким же как насмерть заоптимизированный JS. А представьте, что будет если этот говнокод еще и оптимизировать?)
Серьезно?
Проведите простой, но очень (максимально) наглядный эксперимент. Возьмите старенький нетбук с Atom N455 и 2gb ddr2 RAM (MSI Wind U135 например).
В одном из вариантов отсавьте идущую в комплекте WinXP и офис 2003. Во втором варианте накатите Win7 + Office 2019.
Дайте пользователям открыть большой перегруженный doc-файл. И узнайте, что им понравится больше — старая XP с древним дубовым 2003 офисом, который стартанет там примерно за 2-3с и еще за 10 прогрузит весь документ, или красивая Win7 с загрузкой в 8 минут, открытием 2019 офиса (стильно-модно молодежного) еще в почти минуту и парой минут на загрузку документа.
Что-то мне подсказывает, что выбор будет отнюдь не в пользу блестящих свисто-перделок, а в пользу страшного но нормально работающего.
У меня так провайдер A1 родителям на древнем выдаваемом им TV-боксе (который и без того был древней дохлой тормозной дичью) нобновил 2 раза андроид и накатил вместо старого ПО своё новое, и задержа в переключении пунктов меню сменилась с терпимых 1-3с до 12-40с (почти до минуты! переключение пунктов в меню чтоб фильм найти!!). Зато красиво, да...