Да банальная инфляция, рост издержек и амортизация, 90% оборудования на производствах импортное, те же мобильные станции. Где нет особой конкуренции и импорт перекрыли, просто желание срубить легких денег.
На самом деле там нет такого страшного технологического разрыва. DALLE-2 тоже был не open source, что не помешало сделать Stable Diffusion, на обучение которого ушло что-то в районе 1 млн долларов. Или сберу выучить свою GPT https://github.com/ai-forever/ru-gpts и выложить в open source.
На самом деле технология накапливалась вполне суб-линейно(от вложенных ресурсов), просто произошло накопление "критической массы", когда это прорвало в сторону практических применений на гране "магии". А так это еще со времен ImageNet образца 2015 го года, было понятно, что по мере развития технологий deep learning, мир не останется прежним. А сейчас уже даже становится понятно, что технологическая сингулярность, это не фантазия упоротых гиков и фантастов, а уже тут-тук в дверь.
Есть описание моделей позапрошлого поколения на которых это все основанно.https://habr.com/ru/post/490842/ И там честный end-to-end. Про нейросетки мы понимаем гораздо больше "как" чем "почему".
Нет там никакого вручную добавленной "семантической модели" (чтобы это не значило). Слишком много языков она знает, а с верилогом вообще вряд ли бы кто-то стал заморачиваться (здесь можно провести аналогию с копированием различных стилей в рисующих нейросетках). А так, то что еще три года назад казалось фантастикой уже стучится в дверь. Примерно представляю, что было десять лет назад в ML/AI и текущие реалии это совсем другое. (сейчас все стараются делать end-to-end без каких-либо искусственных промежуточных "ручных" этапов)
Отличный подход, давайте сделаем чтобы все шарахались от IT, как чёрт от ладана. Тогда и специалистов не будет, да и стратегический резерв перестанет быть нужен.
Никогда с подобным не сталкивался, хотя перепробовал и FHD + FHD, 2K+2K, 2K+4K на условных nvidia затычках. В основном конечно с оригинальными nvidia драйверами. Для чистоты эксперимента, надо было попробовать ванильную KDE и GNOME(Kubuntu/Ubuntu). Прелесть в том, что оболочек много разных и при желании можно подобрать то что нужно.
NP задачи очевидно решаются брутфорсом имеющим в худшем случаи экспоненциальную сложность. То что брутфорс оптимизирован и решает какие-то реальные инстансы гораздо быстрее, с теоретической точки зрения ничего не значит и не делает его принадлежащим P.
Да симметричный, но есть трюк с конвертацией асимметричной в симметричную. Не только на плоскости, веса не должны удовлетворять неравенство треугольника.
Какие-то странные утверждения. Как взаимосвязана скорость линукса и количество мониторов? Молчу уж про то, что линукс можно более-менее настроить даже на совсем днищенском железе, где винда уходит в долгий своп.
Потому что у байкала купленное IP ядро и обвязка, для RISC-V многое пришлось бы разрабатывать с нуля. Были российские разработчики RISC-V в духе Syntacore. Но фабов для производства все равно нет.
Списки шрифтов в системе, впомогательные данные для локализации ввода, что-то для растеризации текста (кеш глифов), например. Подождите, пока его перепишут на электрон. Тогда в нем будут ВСЕ кэши.
Если вы про файловые кэши и в этом духе, то они являются системными и не привязаны к конкретном процессу. А по поводу электрона, возможно вы и правы, но когда перепишут, тогда и приходите.
Его не видно только если его специально свернули, или открыли что-то другое во весь экран. А обычно у пользователя блокнота открыт рабочий стол с кучей файлов, слева блокнот, справа блокнот, и над ними еще один блокнот.
Ну и отлично, не понятно о чем вы беспокоитесь, финальный фрэйм буфер все равно привязан к размеру экрана. А перерисовка приложений так же происходит по событию(в духе WM_PAINT). Даже если там и застрянут какие-то буфера, то это все равно ни о чём. Просто напомню, что 2K в 32 битном цвете, это всего лишь около 15 Мб памяти. Но реальное потребление будет очевидно меньше, так как бОльшая часть графики, просто перерисовывается по событию.
Какой "ваш приватный ключ"? Сертификат нужен чтобы получить аутентичный публичный ключ "другой стороны", а дальше классическое согласование ключей через DH и шифрование потока данных симметричной криптой посредством согласованного сессионного ключа.
Какието сплошные проекции из мира "лысых обезьян". Если цивилизация смогла преодолеть минимум сотни световых лет, то шмалять в нее чем либо из современного арсенала человечества, глупо и бессмысленно.
Да банальная инфляция, рост издержек и амортизация, 90% оборудования на производствах импортное, те же мобильные станции. Где нет особой конкуренции и импорт перекрыли, просто желание срубить легких денег.
На самом деле там нет такого страшного технологического разрыва. DALLE-2 тоже был не open source, что не помешало сделать Stable Diffusion, на обучение которого ушло что-то в районе 1 млн долларов. Или сберу выучить свою GPT https://github.com/ai-forever/ru-gpts и выложить в open source.
По поводу "статья написана человеком", довольно двойственно получилось(/шутка)
На самом деле технология накапливалась вполне суб-линейно(от вложенных ресурсов), просто произошло накопление "критической массы", когда это прорвало в сторону практических применений на гране "магии". А так это еще со времен ImageNet образца 2015 го года, было понятно, что по мере развития технологий deep learning, мир не останется прежним. А сейчас уже даже становится понятно, что технологическая сингулярность, это не фантазия упоротых гиков и фантастов, а уже тут-тук в дверь.
Есть описание моделей позапрошлого поколения на которых это все основанно.https://habr.com/ru/post/490842/ И там честный end-to-end. Про нейросетки мы понимаем гораздо больше "как" чем "почему".
Нет там никакого вручную добавленной "семантической модели" (чтобы это не значило). Слишком много языков она знает, а с верилогом вообще вряд ли бы кто-то стал заморачиваться (здесь можно провести аналогию с копированием различных стилей в рисующих нейросетках). А так, то что еще три года назад казалось фантастикой уже стучится в дверь. Примерно представляю, что было десять лет назад в ML/AI и текущие реалии это совсем другое. (сейчас все стараются делать end-to-end без каких-либо искусственных промежуточных "ручных" этапов)
Отличный подход, давайте сделаем чтобы все шарахались от IT, как чёрт от ладана. Тогда и специалистов не будет, да и стратегический резерв перестанет быть нужен.
Никогда с подобным не сталкивался, хотя перепробовал и FHD + FHD, 2K+2K, 2K+4K на условных nvidia затычках. В основном конечно с оригинальными nvidia драйверами. Для чистоты эксперимента, надо было попробовать ванильную KDE и GNOME(Kubuntu/Ubuntu). Прелесть в том, что оболочек много разных и при желании можно подобрать то что нужно.
Скорее D(a, b) <= D(a, c) + D(b, c)
https://en.wikipedia.org/wiki/Travelling_salesman_problem#Metric
NP задачи очевидно решаются брутфорсом имеющим в худшем случаи экспоненциальную сложность. То что брутфорс оптимизирован и решает какие-то реальные инстансы гораздо быстрее, с теоретической точки зрения ничего не значит и не делает его принадлежащим P.
Да симметричный, но есть трюк с конвертацией асимметричной в симметричную. Не только на плоскости, веса не должны удовлетворять неравенство треугольника.
Какие-то странные утверждения. Как взаимосвязана скорость линукса и количество мониторов? Молчу уж про то, что линукс можно более-менее настроить даже на совсем днищенском железе, где винда уходит в долгий своп.
Оставлю для интересующихся SOTA.
https://en.m.wikipedia.org/wiki/Concorde_TSP_Solver
Решает инстансы до несколько десятков тысяч вершин.
Под капотом integer programming подход с branch and cut.
T1 это был MIPS, ARM как я понимаю в районе 2020 го появился.
Потому что у байкала купленное IP ядро и обвязка, для RISC-V многое пришлось бы разрабатывать с нуля. Были российские разработчики RISC-V в духе Syntacore. Но фабов для производства все равно нет.
С чего бы ему работать? https://en.wikipedia.org/wiki/Message_loop_in_Microsoft_Windows
Если вы про файловые кэши и в этом духе, то они являются системными и не привязаны к конкретном процессу. А по поводу электрона, возможно вы и правы, но когда перепишут, тогда и приходите.
Ну и отлично, не понятно о чем вы беспокоитесь, финальный фрэйм буфер все равно привязан к размеру экрана. А перерисовка приложений так же происходит по событию(в духе WM_PAINT). Даже если там и застрянут какие-то буфера, то это все равно ни о чём. Просто напомню, что 2K в 32 битном цвете, это всего лишь около 15 Мб памяти. Но реальное потребление будет очевидно меньше, так как бОльшая часть графики, просто перерисовывается по событию.
Извините, но это натягивание совы на глобус. Не будут они принципиально тратить больше ресурсов.
Общие read-only сегменты кода(в том числе ресурсы) будут расшарены между процессами.
Какие там кэши могут быть в блокноте?
Площадь окна на экране, вы серьезно? Если его не видно, то оно вряд ли будет даже отрисовываться.
Это верно для стороны создавшей сертификат, но я не очень понял как это соотносится с темой статьи.
Какой "ваш приватный ключ"? Сертификат нужен чтобы получить аутентичный публичный ключ "другой стороны", а дальше классическое согласование ключей через DH и шифрование потока данных симметричной криптой посредством согласованного сессионного ключа.
Какието сплошные проекции из мира "лысых обезьян". Если цивилизация смогла преодолеть минимум сотни световых лет, то шмалять в нее чем либо из современного арсенала человечества, глупо и бессмысленно.