Pull to refresh
3
0.2
Send message

Копаюсь в одном немолодом проекте, переводя как раз с 3.8 на более-менее актуальные версии. И ... пришлось прочитать несколько комментариев прежде чем понять юмористичесукю направленность ;)

Мой критерий проще некуда и я его указал - это позиционирование карты в рамках семейства. Куда уж еще проще. Цифры 50, 60, 70, 80 и 90. Где тут середина? Уж определенно лучше "рейтинга" карт. Но если хотите рейтинга, держите https://www.ixbt.com/3dv/video-chart-1220.html - рейтинг на конец 2020 года. Как рассмотрите там 1650 в мидле - пишите, обсудим.

Только ради бога, оставьте при себе свои фантазии относительно моих высказываний, или уж умудритесь прочитать их перед этим.

"На моих 6 мониторах в 4K на максималках не идёт нормально ни одна игра даже на картах 3080, значит они дно" никак с моим заявлением вообще не связано. Если уж на то пошло, 3090 не давала мне нужной производительности в нужной мне игре даже в 2К, но это никак не меняет её позиционирования в линейке - это топ поколения.

И не "кококо остальные карты мусор" , а "карта со дна даже не прошлой линейки - мусор". Заметьте, первое - ваши фантазии в споре с неким оппонентом в вашей голове, второе - опять же, очевидный факт позиционирования.

И не "70 тоже может быть нижним сегментом", а "70 карты в рамках семейства - уверенный серднячок".

Вы умудрились вообще ничего не суметь прочитать.

Знаете, передумал, вы пожалуй не ходите по ссылке. А то увидите там 3070 в топ-10 и сделаете очередной гениальный вывод, а еще раз чтойто мне разжевывать уже лениво.

1650 это днище. Даже на момент выхода. Похороните его пожалуйста уже. Закопайте и повесьте табличку "ты был самой распространненой картой в стиме". Десятое поколение было восхитительно. Но блин, его анонс это 2016 год. 6 лет на минуточку! И до сих пор по какому-то недоразумению считается, что на этом железе современные игры должны отлично работать. Причем на картах из низа этого поколения.Даже если изо всех сил считать её принадлежащим к двадцатому - в его рамках она была примерно на уровне плинтуса, подпираемая снизу лишь затычкой в виде 1630 которую в жизни еще найти надо было умудриться. Если бы не проблемы с наличием карт тридцатого поколения, 1650\60 остались бы на уровне недоразумений типа 930 и аналогичного шлака ставщяегося в сборки "лишь бы что-то порт занимало".

70 карты в рамках семейства это уверенный середнячок. Топ - 80, 90. 50-60 - низ. Вроде даже нумерация слегка намекает. (вопрос с расслоением, Ti, Super и т.д. оставим за рамками)

По ходу чтения не отпускала мысль, что шли куда-то в сторону риск менеджмента, но не дошли.

Между тем, один из двух ключевых моментов в вашей схеме на мой вкус вообще не раскрыт - как вы работаете с мотивацией? В одном из скриптов она упомянута, но как понял уже постфактум, после произошедшего инцидента.

А как измеряете? А проактивное улучшение? Ведь иначе у вас все будут скатываться в угол диаграммы и возникновение инцидента станет лишь вопросом времени.. Или это отдается на откуп того отдела, который по идее должен этим заниматься (HR), а там у вас зайки и солнышки и прям умеют с этим работать?

Ну и самое главное. Внедрение-то помогло? Или внедрили еще одну технологию, увеличили нагрузку на все звенья, чем безусловно улучшили мотивацию и...

Не минусатор но обосновать могу.

1. Из шести примеров в начале посте только два можно объяснить операционной системой.

2. Про то, что будет как только на линуксе начнет работать сколь-нибудь заметное число конечных пользователей вам уже написали

3. Ваше мнение вообще довольно слабо связано с довольно интересной статьей и сводится к вечном срачу вин vs невин. А между тем как довольно неплохо показано разница в этих примерах скорее проходит между "пользователь с навыками" и "пользователь без навыков".

Займусь некропостингом, вдруг читающим дальше будет интересно )

Оставлю как отправные точки, что
Во-первых, у фигур есть метод write_html позволяющий сохранить созданное в html-текст. Во-вторых есть plotly.offline, который насколько понимаю, делает примерно тоже самое c некоторыми нюансами.

У меня он под столом на работе стоит. Из примерно тех же соображений (дешевле) :D Но нам нужнее пока однопоток, поэтому вариантов немного

Охлад ему нужен лютый, факт. На предварительных тестах двухсекционная водянка под ним задыхалась. Трехсекционка держит. Даже пиковые 250Вт+

Там нюанс в том, что когда включаются все ядра, он просто по дефолтной конфигурации сбрасывает частоты., даже если запас по охлаждению есть. Плюс Е-ядра в принципе живут на меньшей частоте. При желании, богатом воображении и кошельке можно рискнуть поставить хоть в биосе хоть в XTU, чтобы держало всегда и всё, у меня такой нужды не было, поэтому не рисковал, не скажу насколько уверенно будет такое. Но тут уж как повезёт. 3365 вживую не гонял, не знаю, нам терять треть дури просто по частоте к сожалению не вариант, хотя на старших братьев поглядываем временами. Хотя если прикинуть банальной арифметикой, чот мне с трудом верится, что он удержит 64 потока на полных 4ГГц тоже уложившись в свои 250Вт. Пощупать бы вживую.. но где ж такое на пощупать найдешь (

Но если вашим товарищам важнее многопоточка, то конечно домашние камни это очень странный выбор, там реальных ядер-то восемь штук против 32 у xeon'а (я как-то из снобизма энергоэффективные за ядра не держу), даже смысла с серверными сравнивать нет, тем более что в сервер и несколько камней воткнуть можно (если модель по памяти позволяет)

Поколение-недоразумение. Обозвали бы уж честным 13 рефрешем и не насиловали журналистов..

Подняли частоты - ну ок, на эти 200мгц как понимаю примерно каждый первый камень и так гнался - после отработки производства можно отбраковку видимо потщательнее проводить.

Какой смысл в добавлении недоядер в семерку - вообще не понял, разве что в тестах померятся агрегатами. Пока задач нет и имеющихся восьми за глаза хватает. Как только появляется задача - вероятно уж лучше её на нормальное ядро сажать, теплопакет-то один на всех. И задействование всех ядер выносит этот пакет далеко наружу (вместе с охлаждением, которое мало когда готово к такому перепаду). И это все на фоне того, что "высокоинтеллектуальные" алгоритмы распределения задач по ядрам, по-прежнему, кроме пробивающего насквозь рука-лицо ничего не вызывают.

Зависит от задачи. В однопотоке он вполне держит свои частоты. Но если загрузить все (не дай боскх включая "энергоэффективное" недоразумение), то частоты просто бай дизайн упадут, там даже дело не в тепловыделении. Но если вам повезет найти экземпляр... :D

Не совсем, просто с появлением 48Гб модулей теже 4 планки стали давать не 128 а 192Гб. Они ретроспективно поменяли описания камней, в том числе старых линеек (что на мой взгляд, без дополнительных пометок отдает свинством)

Насколько я понимаю, сам камень-то адресовать может как и старшие братья до позеленения, появятся 64гб модули - еще поднимут..

Посмотрел бы я на установку 95 на 386 :D
В виде эксперимента еще ладно, но что всерьез, кто-то таким занимался… кхм… отдадим дань безумству.

Будучи убежденным "пека-боярином", и человеком, считающим приставки странным недоразумением, чудовищно усложнящим жизнь всей игровой индустрии, тем не менее хочу вступится за плойку

В 21 кажется году была ситуация, когда бетаверсия ммо от амазона new world просто сжигала старшие карты nvidia. Тоесть в стане пк-компонентов устройство для игр не просто отключалось или уходило в троттлинг, а просто умирало от игры. И это на фоне страшнейшего дефицита карт, при котором цены на этих старших монстров были заоблачными. Так что у всех бывают проблемы..

многоядерность — специфика железного устройства процессора- он состоит физически из нескольких ядер. её нельзя поддерживать, она или есть или её нет.
многопоточность — специфика программного устройства, позволяющая запускать на устройстве несколько параллельных потоков выполнимого кода (с оговорками)
hypertreading — особенность процессоров intel позволяющая за счет нескольких конвееров исполнения запускать "вроде-как" несколько потоков на одном ядре. это не маркетинговое название многопоточности ни разу. вы можете отключить HT и остаться с многопоточностью на современных процессорах. это слегка перпендикулярные понятия.

Это кстати отличный вопрос. История с larrabee вообще максимально странная. Я даже помню как тут на хабре был ряд статей перед "выпуском", в том числе от людей непосредственно принимавших участие в разработке. Все ждали, ждали, ждали… и так ничего не дождались.
Разве что чуть позже на серверном рынке вышли очень загадочные xeon phi в которые видимо часть наработок пошла, но они были столь загадочны, что я даже не слышал про живые проекты на них (кроме суперкомьютеров)

А вы много видите тех, кого погнали с работы под этим лозунгом? Мне пока скорее ситуация видится как "те кто работают с ИИ окажутся в более выгодной ситуации, чем те, кто с ним работать не умеет и не хочет учиться".


Да, для кого-то это может оказаться неприятным (но даже вряд ли сколь-нибудь фатальным в массе). Но это история последних сотен лет развития цивилизации, и ничего нового тут нет. Люди умевшие считать только на счетах вытеснены людьми с калькуляторами, а потом и с компьютерами, это буквально пример в моей семье, и даже там он не был как-то ужасным.

Просто любопытно, а какой ответ вы ждали? 3.5 не подключена к сети, если мы именно про openAI-модель, она не умеет в картинки, как четверка, я правда в некоторой растерянности… Описание фотографии может быть?

Давайте продолжим, если не возражаете, я по шагам буду продолжать )


Требование полноты графа, это вы конечно перестарались. В этом контексте бы и слабой связности навскидку хватило (кстати ваш алгоритм полноты не переживёт, можете проверить).


Но тогда еще нужно не забыть об ацикличности, а то возникнут проблемы

Ого, спасибо, у меня почему-то было застрявшее убеждение что truncate это ddl не попадающая под транзакционность

Это на мой взгляд довольно странное рассуждение.
Компаний делающих GPU две с половиной. GPGPU как направление на популярном рынке создано nvidia (это не решающий фактор, но право первопроходца часто имеет некоторое значение)
Вроде бы никто не говорит, что без nvidia бума нейросетей не было бы вообще, я вроде это даже явно подчеркнул (и упомянул например TPU от гугла). Но сейчас очевидно, что бум нейросетей ретроспективно и по факту во многом связан именно с ними.
Про вендор-лок я вообще не понял, если честно. В какой момент и какой вендор-лок мог как-то повлиять на нейросети? Я не помню ни одного фреймворка железобетонно прибитого к nvidia, у большинства есть прослойка между железом, дающая как минимум возможность работать на CPU.
Если бы AMD представила что-то действительно сопоставимое с CUDA, возможно занялась бы оптимизацией популярных фреймворков для своих карт, всё было бы иначе (мне вот одно время казалось что прямой доступ с ssd мог перевесить на их сторону, дав несравнимый с бортовым объем дополнительной но медленной памяти)
По моему представлению, CUDA на всем времени своего развития была более человекоориентирована, чем все попытки сделать что-то подобное со стороны AMD. Например на том же рынке майнинга, где цепочка код-деньги сверхкороткая, в некоторые моменты у людей хватало сил и воли на оптимизацию именно для чипов AMD, когда их числодробительное превосходство было заметным и давало очевидный и быстрый профит. В нейросетях, где куда важнее быстрое прототипирование и отработка гипотез, а цепочка до прибыли ни разу не очевидна, я вот так сходу даже не вспомню, были ли случаи явной оптимизации под красных. Хотя сейчас судя по соседним статьям Лиза явно намерена дать бой. Посмотрим что выйдет. В любом случае исход этого противостояния будет выгоден конечным пользователям.

А если вопрос коммерциализации вас не так тревожит, то может вам подойдет например LAION-5B? Хотя, как понимаю, сейчас все скорее упирается в мощности чем в количество картинок которое нужно найти?

Information

Rating
2,132-nd
Registered
Activity