Это как раз про бизнес. Не про бизнес это покупка студий ради талантов или чего еще. МС очевидно скупает то, где много IP. Больших и дорогих. На людей я думаю им пофиг. В этих студия всех, в общем-то, никого тоже не осталось. Близарды теже - ничего общего с той студией уже не имеют.
Как она должна окупить - Спенсер давно обрисовал свои планы - game pass. За счет насыщения сервиса играми он заставляет все больше людей на него подписываться, а это recurring revenue, так сказать. В отличие от игр, где постоянно огромные риски, деньги за подписку льются рекой. Сейчас вот все ждут, что world of warcraft там появится и выйдет на консолях. Это же десятки миллионов игроков. И таких IP у них теперь с десяток. В конечном итоге вполне видится ситуация, когда game pass будет запущен даже на других консолях.
Вышел пресс релиз, все понятно с сони. Ребята хотят залезть в игры сервисы. Ну, удачи. Деньги это конечно приносит, но ненависть со стороны игроков к этой теме постоянно растет.
has deep expertise in bringing incredible immersive experiences at great scale to the community through games that evolve and develop over time, and has a hugely impressive roadmap for future content. It’s that expertise coupled with the highly engaged PlayStation community that makes this partnership such an incredibly exciting addition
И в обоих случаях наверное никого из оригинального таланта не осталось. Весь смысл этих сделок в покупке IP, но в случае данной сделки я в недоумении. В чем смысл этой покупки? Кроме destiny, погрязшей в скандалах и бойкотах, банджи ничего не стоит. Прав на halo у нее нет, тех людей там уже нет, каких-то особых технологий и талантов тоже. С микрософт все очевидно - обе крупные покупки позволили им завладеть самыми известных брендами в истории индустрии. Тут - непонятно.
А вебсокеты умеют ли по QUIC летать? Стандарт предполагает HTTP1 и TCP. Даже на http2 толком не переехали. Я видел только разговоры, что неплохо бы что-то сделать, а что непонятно. Есть WebTransport, но вроде еще не готово и все равно это не вэбсокеты.
Проблема в том, что наличие точки зрения не означает, что её нужно высказывать в любой удобный момент и по любому поводу.
Точку зрения можно высказывать где угодно, как угодно и какую угодно. Реагировать на нее вам или кому-то другому это ваше или их дело. Вот и все, нет никакой проблемы.
Данная новость отличный повод еще раз обсудить роль nginx в современном мире. Вот люди и высказываются, что детище важное, но начинает уступать другим по вполне объективным причинам. С чего вдруг об этом нужно молчать и проходить мимо. Важный вклад автора проекта от этого никуда не денется.
Как раз это куда лучше, т.к. написан он безопасном языке и его реализация стека уже проверена временем. В том числе реализация TLS, где у nginx используется корявый openssl. А бенчмарки говорят, что traefik запросто тягается с nginx, haproxy и envoy.
Envoy хотя бы понимает grpc, что для многих компаний сегодня очень важно. От прокси нужно наличие API, чем как раз отличаются envoy и traefik и чего нет у nginx.
По ссылке у вас все логично - адекватный рейт лимит не реализовать без внешнего общего хранилища. Самый стандартный паттерн это вот как раз поставить сбоку клатер redis, который сможет принять дофига нагрузки, и кучу инстансов проксей, которые смогут адекватно держать лимиты вместе. Судя по всему, nginx ничего подобного не умеет, что для меня лично бы сделало его непригодным для этих целей. Envoy при этом умеет local rate limit, когда редис не нужен и все работает как у нджинкс - лимиты исполняет каждый инстанс сам в изоляции от остальных. Если нужно бложик закрыть проксей, то нджинкс сгодится наверное. Если нужно принять дохера трафика, балансировать и рейтами покрыть его, то очевидно нужно что-то более адекватное типа envoy как раз.
Не знаю как это в мире джавы делают (там скорее какой-нить tomcat будет). В мире Go, например, очень часто статику им же и сервят. Нода думаю не исключение. Зачем для этого nginx. Лишняя прослойка и гемор. Если у приложения ничего кроме статики нет или это SPA какой-нить - ну да, там nginx хватит простого.
А много кто использует nginx именно как веб-сервер? Для чего? Сейчас повсеместно все написано на джавах, го, джаваскриптах, питонах и прочих, где внутри свои серверы. Нджинкс он и есть прокси, это основное его применение сколько я его помню. И сейчас его ткают в тот же кубер именно с той же целью. В этом плане он очевидно начинает уступать более современным решениям. Есть envoy, мы вот traefik гоняем. Сложность и неудобство конфигурации я читал уже неоднократно. Dropbox хороший бложик писал по миграции с nginx на envoy https://dropbox.tech/infrastructure/how-we-migrated-dropbox-from-nginx-to-envoy
Опять же, это все с позиции нас, кто видит не дальше своего носа. Нужно смотреть, что творится в энтерпрайзах. Для этого можно, например, залезть в отчетности и доклады инвесторам. Отчетности к сожалению не выделяют nginx продукты, все в сумме, что ожидаемо. Презентация - общия слова. Зато транскрипт https://www.fool.com/earnings/call-transcripts/2021/07/26/f5-networks-inc-ffiv-q3-2021-earnings-call-transcr/ содержит много полезно и из него вполне видно, что nginx продукты пользуются спросом у больших клиентов и за счет этого у F5 продолжается рост.
Ну кто им пользуется я знать не могу. Очевидно они здесь давят на тот факт, что если вы типа сидите на nginx платном, то смотрите, все юзают ингресс nginx. Переходите и на платный ингресс. Он там как минимум WAF в себе содержит, за что они деньги и просят, что в общем-то, штука важная для энтерпрайза.
Начинания то правильные. Включились в самые хайповые направления. Правда сейчас набирает популярность eBPF в этом месте и тут вроде nginx предложить нечего. Не вижу упоминаний по крайней мере.
Да, multipath в спеке есть. Опять же, всякие отказоустойчивые многоконтроллерные хранилки строить. Ну и всегда один диск можно поделить на неймспейсы и тогда хосты вообще никак не смогут друг другу мешать.
Хороший вопрос. Я так сходу в спеке не нашёл упоминаний подобного, чтобы nvme как-то сказал, что доступ только на чтение. Неизвестно будет ли подобный юзкейс вообще рассматриваться или все же до юзера мы все равно отдаём iscsi
Разные интерфейсы это ведь не просто кабель другой. Речь обо всей экосистеме. SAS, SATA и PCIe требуют совершенно разных инструментов для обслуживания инфраструктуры. Другие утилиты, другие драйверы, другие протоколы, другие бекплейны. Все разное и порой несовместимое. Зачем это нужно людям. Лучше они переведут все на nvme, где у них будет единый набор спек для железа, программных протоколов, бекплейнов, менеджмента и всего всего.
Я вот как раз не теме всех этих делл и прочих энтерпрайзов, где понапихано непонятных всяких контроллеров за огромные деньги и ниодной нормальной схемы, чтобы понять, как это поделие все работает.
Я бы собирал очень просто. Взял бы любую платформу, где U.2 бекплейн имеет прямое подключение к процессору для каждого диска, минуя даже pcie свитчи. Если не хочется с NUMA бодаться, то взять однопроцессорную.
Это какие-то приколы делл? Зачем нужна эта безделушка? Почитал, какая-то плата с контроллером, но при этом рейд софтварный и требует драйвера в винде (для линукса вроде умеет прикидываться mdraid и линукс ничего про этот контроллер не знает). Зачем оно нужно? Что винда, что линукс умеют без сторонних средств делать зеркало для загрузочного раздела. На остальных дисках это чудо тем более не нужно, рейд можно чем угодно настроить.
Я конечно понимаю, прикольно, когда рейд настраивается из под UEFI и логотип делл красуется, но какая-то пустая трата денег в нынешние времена. Я бы понял, если бы рейд там аппаратный был, но для U.2 это было бы вообще кощунство.
Как правило, оба подключены напрямую к процессору. U.2 так уж точно, т.к. здесь речь о high-end дисках. Обычно от бекплейна идут кабели в oculink порты. m.2 бывает подключаются к чипсету на интел платформах, но это все равно полноценные линии pcie, которые в конечном итоге упираются в процессор.
Это как раз про бизнес. Не про бизнес это покупка студий ради талантов или чего еще. МС очевидно скупает то, где много IP. Больших и дорогих. На людей я думаю им пофиг. В этих студия всех, в общем-то, никого тоже не осталось. Близарды теже - ничего общего с той студией уже не имеют.
Как она должна окупить - Спенсер давно обрисовал свои планы - game pass. За счет насыщения сервиса играми он заставляет все больше людей на него подписываться, а это recurring revenue, так сказать. В отличие от игр, где постоянно огромные риски, деньги за подписку льются рекой. Сейчас вот все ждут, что world of warcraft там появится и выйдет на консолях. Это же десятки миллионов игроков. И таких IP у них теперь с десяток. В конечном итоге вполне видится ситуация, когда game pass будет запущен даже на других консолях.
Вышел пресс релиз, все понятно с сони. Ребята хотят залезть в игры сервисы. Ну, удачи. Деньги это конечно приносит, но ненависть со стороны игроков к этой теме постоянно растет.
И в обоих случаях наверное никого из оригинального таланта не осталось. Весь смысл этих сделок в покупке IP, но в случае данной сделки я в недоумении. В чем смысл этой покупки? Кроме destiny, погрязшей в скандалах и бойкотах, банджи ничего не стоит. Прав на halo у нее нет, тех людей там уже нет, каких-то особых технологий и талантов тоже. С микрософт все очевидно - обе крупные покупки позволили им завладеть самыми известных брендами в истории индустрии. Тут - непонятно.
Это ж сколько мусорного трафика будет от этого QUIC в глобальном масштабе, если он пинги постоянно слать будет
А вебсокеты умеют ли по QUIC летать? Стандарт предполагает HTTP1 и TCP. Даже на http2 толком не переехали. Я видел только разговоры, что неплохо бы что-то сделать, а что непонятно. Есть WebTransport, но вроде еще не готово и все равно это не вэбсокеты.
Точку зрения можно высказывать где угодно, как угодно и какую угодно. Реагировать на нее вам или кому-то другому это ваше или их дело. Вот и все, нет никакой проблемы.
Данная новость отличный повод еще раз обсудить роль nginx в современном мире. Вот люди и высказываются, что детище важное, но начинает уступать другим по вполне объективным причинам. С чего вдруг об этом нужно молчать и проходить мимо. Важный вклад автора проекта от этого никуда не денется.
Как раз это куда лучше, т.к. написан он безопасном языке и его реализация стека уже проверена временем. В том числе реализация TLS, где у nginx используется корявый openssl. А бенчмарки говорят, что traefik запросто тягается с nginx, haproxy и envoy.
Envoy хотя бы понимает grpc, что для многих компаний сегодня очень важно. От прокси нужно наличие API, чем как раз отличаются envoy и traefik и чего нет у nginx.
По ссылке у вас все логично - адекватный рейт лимит не реализовать без внешнего общего хранилища. Самый стандартный паттерн это вот как раз поставить сбоку клатер redis, который сможет принять дофига нагрузки, и кучу инстансов проксей, которые смогут адекватно держать лимиты вместе. Судя по всему, nginx ничего подобного не умеет, что для меня лично бы сделало его непригодным для этих целей. Envoy при этом умеет local rate limit, когда редис не нужен и все работает как у нджинкс - лимиты исполняет каждый инстанс сам в изоляции от остальных. Если нужно бложик закрыть проксей, то нджинкс сгодится наверное. Если нужно принять дохера трафика, балансировать и рейтами покрыть его, то очевидно нужно что-то более адекватное типа envoy как раз.
Не знаю как это в мире джавы делают (там скорее какой-нить tomcat будет). В мире Go, например, очень часто статику им же и сервят. Нода думаю не исключение. Зачем для этого nginx. Лишняя прослойка и гемор. Если у приложения ничего кроме статики нет или это SPA какой-нить - ну да, там nginx хватит простого.
А много кто использует nginx именно как веб-сервер? Для чего? Сейчас повсеместно все написано на джавах, го, джаваскриптах, питонах и прочих, где внутри свои серверы. Нджинкс он и есть прокси, это основное его применение сколько я его помню. И сейчас его ткают в тот же кубер именно с той же целью. В этом плане он очевидно начинает уступать более современным решениям. Есть envoy, мы вот traefik гоняем. Сложность и неудобство конфигурации я читал уже неоднократно. Dropbox хороший бложик писал по миграции с nginx на envoy https://dropbox.tech/infrastructure/how-we-migrated-dropbox-from-nginx-to-envoy
Опять же, это все с позиции нас, кто видит не дальше своего носа. Нужно смотреть, что творится в энтерпрайзах. Для этого можно, например, залезть в отчетности и доклады инвесторам. Отчетности к сожалению не выделяют nginx продукты, все в сумме, что ожидаемо. Презентация - общия слова. Зато транскрипт https://www.fool.com/earnings/call-transcripts/2021/07/26/f5-networks-inc-ffiv-q3-2021-earnings-call-transcr/ содержит много полезно и из него вполне видно, что nginx продукты пользуются спросом у больших клиентов и за счет этого у F5 продолжается рост.
Ну кто им пользуется я знать не могу. Очевидно они здесь давят на тот факт, что если вы типа сидите на nginx платном, то смотрите, все юзают ингресс nginx. Переходите и на платный ингресс. Он там как минимум WAF в себе содержит, за что они деньги и просят, что в общем-то, штука важная для энтерпрайза.
Начинания то правильные. Включились в самые хайповые направления. Правда сейчас набирает популярность eBPF в этом месте и тут вроде nginx предложить нечего. Не вижу упоминаний по крайней мере.
Проект вышел на новые рынки. Например вот
https://www.nginx.com/products/nginx-service-mesh/
https://www.nginx.com/products/nginx-ingress-controller/
Да, multipath в спеке есть. Опять же, всякие отказоустойчивые многоконтроллерные хранилки строить. Ну и всегда один диск можно поделить на неймспейсы и тогда хосты вообще никак не смогут друг другу мешать.
Хороший вопрос. Я так сходу в спеке не нашёл упоминаний подобного, чтобы nvme как-то сказал, что доступ только на чтение. Неизвестно будет ли подобный юзкейс вообще рассматриваться или все же до юзера мы все равно отдаём iscsi
Ну ethernet 100G/200G/400G/800G не зря делают. Не факт правда, что процы смогут вывезти такие скорости.
Есть вот такая платформа https://www.supermicro.com/en/Aplus/system/1U/1114/AS-1114S-WN10RT.cfm Дешево, но скорости все равно огромные можно достичь
Разные интерфейсы это ведь не просто кабель другой. Речь обо всей экосистеме. SAS, SATA и PCIe требуют совершенно разных инструментов для обслуживания инфраструктуры. Другие утилиты, другие драйверы, другие протоколы, другие бекплейны. Все разное и порой несовместимое. Зачем это нужно людям. Лучше они переведут все на nvme, где у них будет единый набор спек для железа, программных протоколов, бекплейнов, менеджмента и всего всего.
Я вот как раз не теме всех этих делл и прочих энтерпрайзов, где понапихано непонятных всяких контроллеров за огромные деньги и ниодной нормальной схемы, чтобы понять, как это поделие все работает.
Я бы собирал очень просто. Взял бы любую платформу, где U.2 бекплейн имеет прямое подключение к процессору для каждого диска, минуя даже pcie свитчи. Если не хочется с NUMA бодаться, то взять однопроцессорную.
Вот пример топовый топ https://www.supermicro.com/en/Aplus/system/2U/2124/AS-2124US-TNRP.cfm 24 диска, 96 pcie 4.0 линий, напрямую идущих из процессора. Тут конечно ретаймеры понадобились, но для 4.0 похоже по-другому уже никак.
Это какие-то приколы делл? Зачем нужна эта безделушка? Почитал, какая-то плата с контроллером, но при этом рейд софтварный и требует драйвера в винде (для линукса вроде умеет прикидываться mdraid и линукс ничего про этот контроллер не знает). Зачем оно нужно? Что винда, что линукс умеют без сторонних средств делать зеркало для загрузочного раздела. На остальных дисках это чудо тем более не нужно, рейд можно чем угодно настроить.
Я конечно понимаю, прикольно, когда рейд настраивается из под UEFI и логотип делл красуется, но какая-то пустая трата денег в нынешние времена. Я бы понял, если бы рейд там аппаратный был, но для U.2 это было бы вообще кощунство.
Как правило, оба подключены напрямую к процессору. U.2 так уж точно, т.к. здесь речь о high-end дисках. Обычно от бекплейна идут кабели в oculink порты. m.2 бывает подключаются к чипсету на интел платформах, но это все равно полноценные линии pcie, которые в конечном итоге упираются в процессор.
https://polyworks.kz/wp-content/uploads/2017/09/Supermicro-X11SPH-nCTF-Block-Diagram.jpg
Почему? iscsi торчит в сеть и никого это не волнует. Чего вдруг тут это станет проблемой?
Если говорить о платформе выше, то там нормальный nvme бэкплейн с поддержкой горячей замены.