Вы сказали, что x86 мог занять некую нишу, занятую теперь GPU.
Я в ответ спросил, что компании потеряли, если они обе производят GPU и как конкурировать со специализированными ускорителями?
Ничего не потеряли ("подвела жадность" - это возмущение несправедливостью), а если конкурировать, то тоже путём специализированного ускорения (AVX-512, AMX, HBM-память внутри процессора, NPU).
Флопсы говорят о рафинированном "числодроблении". На первом графике могли по ошибке смешать FP32 и FP64 ("Data ... was mainly Wikipedia and the odd mailing list post" ситуацию не проясняет), на втором в конце процессоры отстают в 3 раза в FP64 (график от nvidia, процессоры не уточняются).
К чему был кивок на экспериментальный 80-ядерный процессор? Чтобы возмутиться, что направление осталось экспериментальным. Но нет, x86-числодробилки пошли в продажу. И ради желанного дробления чисел им недостаточно было обрасти ядрами, пришлось мутировать и обзавестись 16-канальной распаянной GDDR5 (а в следующем поколении типа-HBM на подложке + 6 каналов DDR4). Подозреваю, что такие мутанты с распаянной памятью не интересны, но именно они хорошо дробят числа - надо бояться своих желаний.
Зачем обосновывать позицию "CPU так отстают от GPU из-за сговора" ссылкой (второй) на это?
GPUs obtain high FLOP rates because they are specialized for highly parallel computations and they have more transistors dedicated to data processing rather than flow control or data caching as in the case of a CPU.
к тому же у интел были HEDT под 2011 сокет, только за очень много денег
Из-за "очень много денег" они совсем не конкурировали. Ближайшее у AMD - склейка из двух FX'ов (Opteron 6300, до 4 сокетов).
FX в некоторых задачах дотягивались до i7, стоя гораздо дешевле. Благо были i7 без графики с 20% скидкой в виде Xeon E3.
Тезис, что "подвела жадность" у @MasterMentor- ерунда:
Intel теперь продаёт для нейронок Gaudi, но должен выкинуть HBM-память и вернуть x86-ядра а-ля Xeon Phi, чтобы стало хуже?
Нишу GPGPU AMD и Intel позорно отдали производителям GPU, среди которых AMD, Intel...
Но допустим, что из производства дешёвых много-многоядерников можно извлечь выгоду, пусть и непонятную мне. Тогда бы он знал, что потомок 80-ядерника вышел в продажу в виде ~60-ядерных Xeon Phi, которые распродавались в 2014-2015 по $200-$300. Что с ними делать?
10 лет назад в сервер можно было упихнуть 48 "больших" x86-ядер, 9 лет назад - уже 144. Зачем терять деньги, предлагая то же самое потребителям со скидкой? Получится нехорошая конкуренция между товарами. Зачем им было спешить с многоядерностью, если конкурентов тогда не было? Сейчас надо догонять Apple и проблема тоже не в количестве ядер.
Нет, они обычно не хотят закрывать модификации библиотеки. Они хотят оставить свой код под своей лицензий.
Проблема в том, что LGPL/GPL/AGPL - вирусные лицензии, они не только заботятся о возврате вклада в исходный проект (если тот модифицируется), но и стараются заразить прилинкованный софт. Копилефт без вирусности - это MPL от Mozilla и CDDL.
Другая проблема в том, что GPL несовместима с CDDL (поэтому Linux отдельно, а OpenZFS отдельно). А GPLv2 несовместима с GPLv3 и AGPL. Ладно, возвращать вклад хорошо. Но если GPL-проект включит в себя код BSD-проекта и модифицирует его, то... тот не сможет вернуть вклад под BSD? А также GPL заражает GPL-с-linking-exception? Несовместимости плодятся.
И всё это - возня в песочнице, нарушителей засудить сложно*, да и желающие могут повторить недавний ход Red Hat: "вы можете запросить GPL-исходники своего купленного RHEL, но и мы можем обрубить вам обновления и отказаться продавать снова".
* последний случай, описанный на https://gpl-violations.org/news/ - 11 лет назад. На сайте нет "доски позора", чтобы их самих за клевету не пытались засудить?
Или наоборот, слишком хорошо осознали, что централизация помогает дистанцироваться от лишних проблем: всякого сомнительного и потенциально незаконного (копии текстов без явного разрешения уже попадают в эту категорию).
Есть ipfs и ipfs gateway, чтобы "через браузер, без дополнений", но... это скорее такая продвинутая чудаковатая CDN. Она решает одни проблемы торрентов (доступность из браузера, контентная адресация индивидуальных файлов, обновление файлов), но не призвана заменить их.
Нафига она сделана файловой системой? (это прикольно). Почему не предусмотрено простое сидирование? (молодой человек, это не для вас делали!). Почему за почти 10 лет не сделали ограничение скорости (по техническим причинам, уходите говорят, закрыто!). И какой смысл ещё в... (я сейчас полицию вызову!).
Мы говорили об исчезновении информации из интернета. А то, что историю правок надо искать внизу и там же переключатель на десктопную версию сайта - это вопрос компьютерной грамотности (для произвольных сайтов есть ещё переключатели в браузерах).
Полного видео не может быть. То, чего не может быть, нельзя найти. Но ладно, я назвал крупнейший архив, где стоит поискать, а получил игнор. То есть... тоже не очень нужно было?
TL;DR: за первым термином стоит одна организация, за вторым другая. Первый термин лучше, потому что статья с сайта первой организации.
Например, первый термин можно перепутать с freeware (постарайтесь не путать), а второй термин можно перепутать с source-available (это другое, постарайтесь отказаться от термина).
"это не ОС" - это такая политическая позиция в поддержку GNU.
Линус: trying to rename it "GNU/Linux" at every opportunity they get
Столлман: we can never go along with calling the system "Linux".
На gnu.org градус хуцпы поднимается вплоть до "GNU/Linux (а грубо говоря, GNU OS) - это операционная система с операционной системой GNU OS, в которой нет ядра, но она всё ещё операционная система".
Free - это то, что облучается аурой Столлмана, он мозоли ест. А Open Source облучается аурой корпорации Open Source Initiative, она пыталась превратить термин в свою торговую марку. Для защиты от их излучения надо прочитать молитву: Free... Libre (доп. защита от ауры фриварщиков)... Open Source Software. FLOSS. Да, есть такой термин, туда накидали всех слов на всякий случай.
Открытое ПО - это когда вам честно предоставляют исходный код, с которым вы можете делать
Нет, это про пермиссивные лицензии (BSD, MIT, Apache).
А свободное ПО накладывает ограничения на использование по типу "никакой свободы врагам свободы".
А это про копилефтные (GPL, AGPL).
Если игнорировать ауру, свободное и открытое ПО - одно и то же.
Разницу надо разглядывать под микроскопом. Вот Столлман критикует "открытое по OSI" за то, что в него попадает лицензия, по которой надо публиковать исходники, даже если модифицируешь для себя:
Open Watcom is nonfree because its license does not allow making a modified version and using it privately.
Ну и что? Это же в духе копилефта, за который выступает Столлман. В русском переводе, кажется, даже не поняли, что он хотел сказать:
Open Watcom несвободен, потому что его лицензия не допускает изготовление измененных версий для частного пользования.
Privately использовано в смысле "конфиденциально", а не "без коммерции".
Да, есть такая фича, "ambient mode / профессиональное освещение" - градиент вокруг видео от почти серого (с оттенком) к чёрному с медленной анимацией. Но связи с blurhash ведь нет.
В Firefox сломана целиком (бандинг в виде бегающих полос), в хроме - частично (без проблем в динамике, но бандинг остаётся). На квадратных и вертикальных видео проблемы заметнее.
У автора цитаты (Larry McVoy = luckydude@HN = владелец BitKeeper) дальше было ещё два абзаца:
It says a lot that we have a bk fast-export and we can incrementally run that and get idempotent results. As in go from BK to Git on an ongoing basis, have two people do it in parallel and they both get bit for bit identical results. If you try and go the other way, Git -> BK, if you do it in parallel you get different results because Git doesn't store enough information, so BK has to make up the missing bits.
Git has no file create|delete|rename history, it just guesses. That's my biggest regret, I wish Linus had copied that part.
Вообще, на HN это место в статье тоже вызвало вопросы ("Why is this crappy? What would be better?"), но Ларри явился в комменты и ещё прошёлся по Git'у.
Там есть история правок, источники и их архивация ботами (на archive.org и .is), зачем такой пример в разговоре про потерю информации? Так же странно говорить об одном полном видео - его просто не может быть, начать надо с двухсот девяти ютубовских роликов группы 2 мая.
Демагог. Посмотри ещё на глупых учоных - не хотят от неактуальной инфы отказываться. Инфа из интернета самоустраниться пытается, а они ссылку на архив ставят, гады.
Утверждение про частоту примером не доказать, нужно исследование, вряд ли такое есть.
В целом о проблеме доступности: думаю, кому статья актуальна, те и так знают, что меньше месяца назад кэш гугла как сервис закрыли, или что около 2000 сайтов целиком исключено из archive.org. Или имеют свои какие-то свои примеры на тему работы с источниками.
Из кэша гугла можно было вытащить недавно удалённую или изменённую информацию, всё ещё попадающую в выдачу (остались кэши бинга и яндекса).
они скорее встанут в очередь, чем каждое успеет загрузиться на 10% или сколько нужно для генерации первого тира.
Надо 10-15%, чтобы браузер начал отрисовывать jpeg (он ждёт DC-коэффициенты всех каналов; можно отрисовывать ч/б раньше, но в браузерах так не принято),
В идеале нужна параллельная загрузка 10-15% всех картинок, Cloudflare в 2019 году пишет[1][2], что HTTP/2 что-то такое позволяет (с оговоркой про хром и поддержку серверами...).
Что придет ей на смену? Многие говорят, это будет что-то, связанное с искусственным интеллектом, но никто не может сказать наверняка. Что мы можем сказать точно: скорее всего, новый этап будет связан с рядом случайных событий и группой талантливых хакеров.
Нынешний успех Git'а связан с гитхабом, с авторитетом Линуса. Почему ситуацию должны изменить технические причины? Думаю, Git с нами до конца, он постепенно растворится в централизованных хостингах - будет всё менее важно, что у них под капотом - Git, что-то Git-совместимое или уже несовместимое, потому что хостинг будет всё дальше обрастать функцональностью и VCS будет лишь рядовой функцией среди прочих.
Жизненный пример, в википедии кто-то умудрился написать: "GitLab includes a distributed version control based on Git, including features such as access control, bug tracking...". Что включает в себя VCS, что децентрализовано, используется ли сам Git? Мы ответы знаем, но они не так уж и важны, это единая платформа. Буква D в DVCS теряет своё значение, гипотетические VCS будущего могут снова стать централизованными, It's Evolving, Just Backwards.
Принципиально новое можно внедрять в хостинг или прямо в Git, за деньги его получится развивать в нужном такой-то компании направлении (будет Git Foundation и Platinum Membership).
Идея круть, но реализация местами "чисто для себя". Багтрекеру (можно посмотреть на него в репозитории самого Fossil'а) далеко до гитхаба, гитлаба, багзиллы, первых версий багзиллы... и вот мы уже в 90-х, там и встроенный форум до эпохи форумов не дотягивает. Экспорта/импорта в другие багтрекеры (гитхаб/гитлаб) нет, пулл-реквестов нет.
Вы сказали, что x86 мог занять некую нишу, занятую теперь GPU.
Я в ответ спросил, что компании потеряли, если они обе производят GPU и как конкурировать со специализированными ускорителями?
Ничего не потеряли ("подвела жадность" - это возмущение несправедливостью), а если конкурировать, то тоже путём специализированного ускорения (AVX-512, AMX, HBM-память внутри процессора, NPU).
Флопсы говорят о рафинированном "числодроблении". На первом графике могли по ошибке смешать FP32 и FP64 ("Data ... was mainly Wikipedia and the odd mailing list post" ситуацию не проясняет), на втором в конце процессоры отстают в 3 раза в FP64 (график от nvidia, процессоры не уточняются).
К чему был кивок на экспериментальный 80-ядерный процессор? Чтобы возмутиться, что направление осталось экспериментальным. Но нет, x86-числодробилки пошли в продажу. И ради желанного дробления чисел им недостаточно было обрасти ядрами, пришлось мутировать и обзавестись 16-канальной распаянной GDDR5 (а в следующем поколении типа-HBM на подложке + 6 каналов DDR4). Подозреваю, что такие мутанты с распаянной памятью не интересны, но именно они хорошо дробят числа - надо бояться своих желаний.
Зачем обосновывать позицию "CPU так отстают от GPU из-за сговора" ссылкой (второй) на это?
(48 ядер - что я посчитал?.. 15 шт. в E7-8xxx v2 * 8 сокетов = 120)
Из-за "очень много денег" они совсем не конкурировали. Ближайшее у AMD - склейка из двух FX'ов (Opteron 6300, до 4 сокетов).
FX в некоторых задачах дотягивались до i7, стоя гораздо дешевле. Благо были i7 без графики с 20% скидкой в виде Xeon E3.
Тезис, что "подвела жадность" у @MasterMentor- ерунда:
Intel теперь продаёт для нейронок Gaudi, но должен выкинуть HBM-память и вернуть x86-ядра а-ля Xeon Phi, чтобы стало хуже?
Нишу GPGPU AMD и Intel позорно отдали производителям GPU, среди которых AMD, Intel...
Но допустим, что из производства дешёвых много-многоядерников можно извлечь выгоду, пусть и непонятную мне. Тогда бы он знал, что потомок 80-ядерника вышел в продажу в виде ~60-ядерных Xeon Phi, которые распродавались в 2014-2015 по $200-$300. Что с ними делать?
10 лет назад в сервер можно было упихнуть 48 "больших" x86-ядер, 9 лет назад - уже 144. Зачем терять деньги, предлагая то же самое потребителям со скидкой? Получится нехорошая конкуренция между товарами. Зачем им было спешить с многоядерностью, если конкурентов тогда не было? Сейчас надо догонять Apple и проблема тоже не в количестве ядер.
WSL - Windows Subsystem for Linux. Поэтому очевидно, что Linux лучше /s
Нет, они обычно не хотят закрывать модификации библиотеки. Они хотят оставить свой код под своей лицензий.
Проблема в том, что LGPL/GPL/AGPL - вирусные лицензии, они не только заботятся о возврате вклада в исходный проект (если тот модифицируется), но и стараются заразить прилинкованный софт. Копилефт без вирусности - это MPL от Mozilla и CDDL.
Другая проблема в том, что GPL несовместима с CDDL (поэтому Linux отдельно, а OpenZFS отдельно). А GPLv2 несовместима с GPLv3 и AGPL. Ладно, возвращать вклад хорошо. Но если GPL-проект включит в себя код BSD-проекта и модифицирует его, то... тот не сможет вернуть вклад под BSD? А также GPL заражает GPL-с-linking-exception? Несовместимости плодятся.
И всё это - возня в песочнице, нарушителей засудить сложно*, да и желающие могут повторить недавний ход Red Hat: "вы можете запросить GPL-исходники своего купленного RHEL, но и мы можем обрубить вам обновления и отказаться продавать снова".
* последний случай, описанный на https://gpl-violations.org/news/ - 11 лет назад. На сайте нет "доски позора", чтобы их самих за клевету не пытались засудить?
Или наоборот, слишком хорошо осознали, что централизация помогает дистанцироваться от лишних проблем: всякого сомнительного и потенциально незаконного (копии текстов без явного разрешения уже попадают в эту категорию).
Есть ipfs и ipfs gateway, чтобы "через браузер, без дополнений", но... это скорее такая продвинутая чудаковатая CDN. Она решает одни проблемы торрентов (доступность из браузера, контентная адресация индивидуальных файлов, обновление файлов), но не призвана заменить их.
Нафига она сделана файловой системой? (это прикольно). Почему не предусмотрено простое сидирование? (молодой человек, это не для вас делали!). Почему за почти 10 лет не сделали ограничение скорости (по техническим причинам, уходите говорят, закрыто!). И какой смысл ещё в... (я сейчас полицию вызову!).
Мы говорили об исчезновении информации из интернета. А то, что историю правок надо искать внизу и там же переключатель на десктопную версию сайта - это вопрос компьютерной грамотности (для произвольных сайтов есть ещё переключатели в браузерах).
Полного видео не может быть. То, чего не может быть, нельзя найти. Но ладно, я назвал крупнейший архив, где стоит поискать, а получил игнор. То есть... тоже не очень нужно было?
TL;DR: за первым термином стоит одна организация, за вторым другая. Первый термин лучше, потому что статья с сайта первой организации.
Например, первый термин можно перепутать с freeware (постарайтесь не путать), а второй термин можно перепутать с source-available (это другое, постарайтесь отказаться от термина).
"это не ОС" - это такая политическая позиция в поддержку GNU.
Линус: trying to rename it "GNU/Linux" at every opportunity they get
Столлман: we can never go along with calling the system "Linux".
На gnu.org градус хуцпы поднимается вплоть до "GNU/Linux (а грубо говоря, GNU OS) - это операционная система с операционной системой GNU OS, в которой нет ядра, но она всё ещё операционная система".
Если вы тоже заметили странности в определениях, то см. http://linux.topology.org/lingl.html
Free - это то, что облучается аурой Столлмана
, он мозоли ест. А Open Source облучается аурой корпорации Open Source Initiative, она пыталась превратить термин в свою торговую марку. Для защиты от их излучения надо прочитать молитву: Free... Libre (доп. защита от ауры фриварщиков)... Open Source Software. FLOSS. Да, есть такой термин, туда накидали всех слов на всякий случай.Нет, это про пермиссивные лицензии (BSD, MIT, Apache).
А это про копилефтные (GPL, AGPL).
Если игнорировать ауру, свободное и открытое ПО - одно и то же.
Разницу надо разглядывать под микроскопом. Вот Столлман критикует "открытое по OSI" за то, что в него попадает лицензия, по которой надо публиковать исходники, даже если модифицируешь для себя:
Ну и что? Это же в духе копилефта, за который выступает Столлман. В русском переводе, кажется, даже не поняли, что он хотел сказать:
Privately использовано в смысле "конфиденциально", а не "без коммерции".
В википедии. Потеря того, что сохраняется (история правок) и поиск какого-то видео как полного (существуют только сотни разрозненных видео), смущают.
Да, есть такая фича, "ambient mode / профессиональное освещение" - градиент вокруг видео от почти серого (с оттенком) к чёрному с медленной анимацией. Но связи с blurhash ведь нет.
В Firefox сломана целиком (бандинг в виде бегающих полос), в хроме - частично (без проблем в динамике, но бандинг остаётся). На квадратных и вертикальных видео проблемы заметнее.
У автора цитаты (Larry McVoy = luckydude@HN = владелец BitKeeper) дальше было ещё два абзаца:
Вообще, на HN это место в статье тоже вызвало вопросы ("Why is this crappy? What would be better?"), но Ларри явился в комменты и ещё прошёлся по Git'у.
Я здесь к нему присоединюсь (не считаю замедление поводом создавать локальный архив важных видео).
Там есть история правок, источники и их архивация ботами (на archive.org и .is), зачем такой пример в разговоре про потерю информации? Так же странно говорить об одном полном видео - его просто не может быть, начать надо с двухсот девяти ютубовских роликов группы 2 мая.
Демагог. Посмотри ещё на глупых учоных - не хотят от неактуальной инфы отказываться. Инфа из интернета самоустраниться пытается, а они ссылку на архив ставят, гады.
Если примеры нужны, то они не нужны.
Утверждение про частоту примером не доказать, нужно исследование, вряд ли такое есть.
В целом о проблеме доступности: думаю, кому статья актуальна, те и так знают, что меньше месяца назад кэш гугла как сервис закрыли, или что около 2000 сайтов целиком исключено из archive.org. Или имеют свои какие-то свои примеры на тему работы с источниками.
Из кэша гугла можно было вытащить недавно удалённую или изменённую информацию, всё ещё попадающую в выдачу (остались кэши бинга и яндекса).
Надо 10-15%, чтобы браузер начал отрисовывать jpeg (он ждёт DC-коэффициенты всех каналов; можно отрисовывать ч/б раньше, но в браузерах так не принято),
В идеале нужна параллельная загрузка 10-15% всех картинок, Cloudflare в 2019 году пишет[1][2], что HTTP/2 что-то такое позволяет (с оговоркой про хром и поддержку серверами...).
Ещё можно запросить только 10-15% (stackoverflow о range requests и прочих костылях), а потом... загружать заново целиком? Получается слишком костыльное и тяжёлое решение.
Нынешний успех Git'а связан с гитхабом, с авторитетом Линуса. Почему ситуацию должны изменить технические причины? Думаю, Git с нами до конца, он постепенно растворится в централизованных хостингах - будет всё менее важно, что у них под капотом - Git, что-то Git-совместимое или уже несовместимое, потому что хостинг будет всё дальше обрастать функцональностью и VCS будет лишь рядовой функцией среди прочих.
Жизненный пример, в википедии кто-то умудрился написать: "GitLab includes a distributed version control based on Git, including features such as access control, bug tracking...". Что включает в себя VCS, что децентрализовано, используется ли сам Git? Мы ответы знаем, но они не так уж и важны, это единая платформа. Буква D в DVCS теряет своё значение, гипотетические VCS будущего могут снова стать централизованными, It's Evolving, Just Backwards.
Принципиально новое можно внедрять в хостинг или прямо в Git, за деньги его получится развивать в нужном такой-то компании направлении (будет Git Foundation и Platinum Membership).
Идея круть, но реализация местами "чисто для себя". Багтрекеру (можно посмотреть на него в репозитории самого Fossil'а) далеко до гитхаба, гитлаба, багзиллы, первых версий багзиллы... и вот мы уже в 90-х, там и встроенный форум до эпохи форумов не дотягивает. Экспорта/импорта в другие багтрекеры (гитхаб/гитлаб) нет, пулл-реквестов нет.