Comments 191
Стройте аналогию.
Если первый вариант, то вопрос имеет все шансы побить рекорд пресловутого
Прохладная история. Это за сколько и какие надо было купить карты с окупаемостью год при эфире за 400$?
Но если вам так скажут, вы же наверняка обратитесь в другой банк?
Зато когда был выбор брать валютный кредит под 3% или рублевый под 15%, они были самые умные.
Ну во-первых, никакого выбора не было, тк рублевую им просто не давали. Во вторых, никто не давал им кредитов под 3%, там были цифры порядка 8-12% в валюте
У нас давали 5-7% в валюте. Куча "пострадавших" потом устраивали голодовки и митинговали — как итог начали разбирать каждый случай отдельно. Почти везде рублевый кредит был одобрен. Почти все посчитали себя умней. Лично я не представляю как можно решиться взять кредит в валюте на 20 лет, получая ЗП в рублях.
Или карты ещё берут из-за универсальности (перескочить с одной валюты на другую)?
Асик на тот-же Ethereum сделать можно, но сложно. Алгоритм намного сильнее нагружает подсистему памяти, чем ядра + требует большого объема памяти(>2Gb).
В общем и целом да. на биткоин асики сделали довольно быстро так-как алгоритм прост как топор. Потом был лайткоин, который создавали с целью усложнения разработки асиков. Но на него асики тоже сделали и до-сих пор активно используют. На большинство нынешних альткоинов асики сделать можно но целесообразность этого мала. Создатели этих валют добиваются децентрализации вычислительных мощностей, как было задумано еще в биткоине, но накрылось из-за этих самых спецвычислителей, которые Китай делал в промышленных масштабах.
В идеале, мощности майнинга у каждого юзера должны быть равными, чтобы любой всегда мог присоединиться на равных. Но, в то же время, чтобы избежать ситуации, когда один человек создаёт миллионы аккаунтов и получает награду, как миллион юзеров (валюта анонимная, регистрировать можно сколько угодно кошельков), вводится какое-то физическое ограничение, например, кол-во вычислительной мощности.
Разработка алгоритмов, «устойчивых к асикам», увеличивает шансы владельцев ПК. Но, к сожалению, видеокарты сейчас очень походят по возможностям на CPU, это позволяет использовать их, и снова получается сильный перекос в сторону специализированных решений.
Как альтернатива бесполезного прожигания электричества, сейчас рассматривается концепция proof-of-stake.
Но, к сожалению, видеокарты сейчас очень походят по возможностям на CPU
К сожалению? На CPU майнят ботнеты и ушлые админы, это еще хуже. Еще можно вспомнить как XRP раздавали.
Как ни посмотри а справедливо распределить монетки в реальном мире невозможно.
Очень интерсно, не знал, что альткоины сулодняют вычисления намерено.
Proof-of-stake это, что такое?
А вы — все еще ждете ответа.
Немного подробнее тут https://habrahabr.ru/post/331706/#comment_10285554
или гуглите.
Асик на тот-же Ethereum сделать можно, но сложно. Алгоритм намного сильнее нагружает подсистему памяти, чем ядра + требует большого объема памяти(>2Gb).
Да и не нужно, вроде как к концу года Ethereum должен перейти на proof-of-stake.
Уже карты без портов выпускаются
Эмм… так про них и статья :)
Где это такой аттракцион невиданной щедрости от магазинов?
Ну скорее всего карты сдают по гарантии, после насилия с майнингом у них часто летит система охлаждения. А так как гарантия на топовые карты около 3х лет, то после скажем пары лет некоторые магазины не заморачиваются с ремонтом, а возвращают полную стоимость карты.
У моего друга первый возврат в магазин видюхи занял около месяца, но вернули всё в том числе и проценты по кредиту за эту видюху, на вторую он потратил уже три недели, сейчас это у него занимает неделю.
Вот прям приходишь и говоришь «Я не хочу замену я хочу возврат денег», а потом начинаешь показывать бумажки с выдержками закона, тебя шлют собирать другие бумажки гоняют в свою бухгалтерию и строят всяческие препятствия, но в итоге отдают все деньги потому как в суде они проиграют.
P.S. Да-да я знаю что у каждого есть друг которому приписываются те подвиги которые не хочется приписывать себе, но это и в правду был мой друг, но если угодно можете читать вместо «моего друга» «я».
Хотел добавить что я упустил что затраченное время бралось от момента когда проведение экспертизы закончено. Обычно на экспертизу магазин тратит месяц.
И умоляю не просите пруфы на все эти законы, этим занимался не я, я лишь видел результат и пачку документов (листов наверное в 20-40) которые понадобились человеку что бы вернуть деньги.
Одна проблема — биткоины на самых дорогих nVidia считались медленнее, чем на среднего класса AMD.
Разве R9 nano не самая быстрая?
AMD надо было их перевыпустить на 14 nm, специально для майнеров.
биткоины на самых дорогих nVidia считались медленнее, чем на среднего класса AMD
И я сказал именно то, что хотел сказать. Именно про биткоины, а не про другие криптовалюты, именно тогда, до появления «асиков», а не сейчас.
То, что сейчас для тех же этериумов два производителя примерно на одном уровне за примерно одинаковые деньги — это уже другая история про другую криптовалюту.
А биткоины на видеокартах года три назад перестали окупать затраченное электричество. Сейчас, вроде, при цене больше $2000 за BTC, видеокарты снова начали окупать потраченное электричество.
Вообще, nVidia уже 10 лет выпускает «видеокарты» без видеоразъемов под маркой Tesla (а также Ферми, Кепплер и другие великие ученые...)
Tesla действительно серия чипов для GPGPU и прочих вычислений, но вот Fermi, Kepler, Maxwell, Pascal — это просто названия микроархитектур у NV, а не специализированные серии GPU.
А еще видеокарты «модульны»; если выйдет из строя одна видеокарта из их количества на стоимость ASICа, то это не такая большая потеря, как если бы сломались сразу все.
Другое дело, что товарищу повезло, ибо большинство недорогих карт под полной нагрузкой, разногом и 100% вертушки быстро уходят за 80, а то и 90 градусов (хотя, опять же, ни один из производителей не писал, что карты так использовать некорректно), начинают троттлиться, и производительность только падает.
А толку?
Толку — 15%
Tested that with my Titan X pascal.
Non-OC: 31-35 MH/s @ 230W
OC’ed: ~41.5 MH/s @ 410W
Упрется в производительность системы охлажденияУпрётся, но разогнанная карта выдаёт больше.
Но если не одна, — то эти 170 ватт тепла еще нужно отвести из помещения и быстро упретесь и в охлаждение и в лимит общей мощности на сеть. Это действительно важно, ибо в серьезных «майнинговых» на охлаждение уходит едва ли не столько же денег и мощности, сколько на сам майнинг. Плюс Titan X вообще говоря своеобразный выбор карты для майнинга, две 580 будут быстрее, дешевле (были?) и «холоднее», а вот с ними такой трюк уже едва ли пройдет.
Для домашних экспериментов резонно, но не более того.
Так что не берите видюхи с рук от майнеров :) На всякий случай.
А видеокарты сейчас стали выгоднее, тк в последний месяц поднялась цена на как раз такие криптовалюты, которые майнятся на видяхах. Не факт что через месяц не поменяется в обратную сторону. Люди смотрят на текущую мгновенную доходность (которая такая в последний месяц или даже неделю), умножают/делят, приходят к выводу что все окупится через 6 месяцев и бегут в магазины. Над тем что через месяц доходность будет в 2-3 раза ниже не думают. Ну и видимо подбадривает возможность продать видеокарты геймерам. Хотя я сомневаюсь в этом, такой ажиотаж, столько геймеров по-моему нет, чтобы потом это все купить.
Над тем что через месяц доходность будет в 2-3 раза ниже не думают. Ну и видимо подбадривает возможность продать видеокарты геймерам.
Всё ещё проще они возвращают их в магазин в нерабочем виде без видимых повреждений, так как видеокарта не входит в список высокотехнологичных товаров, то за нерабочую карту можно требовать деньги назад в полном объёме. Магазины конечно сопротивляются, но по закону обязаны вернуть деньги.
Потому цена видюхи в принципе не важна.
Если видеокарта накрылась от перегрева, то это вина производителя. Потому что у всех видеокарт есть троттлинг и порог выключения. То есть все ниже этих температур — нормальные условия. И возвращаясь к своему первому сообщению: выйти за «рамки» этих условий можно только перешив биос. За все остальные отвалы чипов, перегретые чипы памяти: будьте добры, платите компенсацию. Потому что если бы эта карта не перегрелась у майнера, то перегрелась бы у геймера. А так весь этот «хайп» как раз покажет нам, кто из производителей грешит плохим охлаждением итп. Краш-тест своего рода :)
Магазины обычно и пытаются внушить человеку всё что вы там писали, тянут с экспертизой, пытаются предлагать заменить на другую, запугивают судом и «независимой экспертизой» и т.п. Но есть закон о защите прав потребителей и на данный момент эта правовая база позволяет получить деньги обратно.
Если вы не хотите в это верить, ради бога, я просто написал потому как встречался с этой ситуацией, мне бы самому не пришло в голову так поступить потому как я бы тоже считал что деньги вернуть невозможно, но практика показывает обратное.
С позиции магазина — магазину наплевать, что там вы делали с видеокартой до поломки — майнили, играли, фильмы смотрели, суп размешивали. Магазину важно, чтобы были соблюдены условия гарантийности производителя. То есть, чтобы карта была не залита жидкостью, не было механических, термических, электрических и т.п. повреждений, вызванных внешним воздействием.
Если от эксплуатации 24/7 при 100С отпаялся BGA — это гарантийный случай. Если от постоянной высокой нагрузки сгорел мосфет — это не гарантийный случай. Если вы размешали ею суп — это не гарантийный случай.
Насчёт экспертизы, судов и ЗоЗПП. У нормальных магазинов есть тестировщики, которые могут провести первоначальную диагностику, т.е. осмотр на предмет нарушений условий эксплуатации. Если таковых нет, то карточка отправляется в Москву в сервис-центр производителя. С момента принятия карточки от вас у магазина есть 45 календарных суток, не считая дня принятия, чтобы отремонтировать карту. Если не успели, то на 46й день магазин обязан вернуть вам деньги или выдать новую такую же карту. Если таких же точно (по артикулу магазина) нет — могут предложить функциональный аналог на ваш выбор. Если понравится — забираете, если нет, то забираете деньги по чеку.
Специально никто возврату денег препятствовать не будет, вас таких сотни в месяц, овчинка не стоит выделки. Разумеется, если это не магазинчик на первом этаже панельки формата «Всё для вас: дискеты, клавиатуры, мониторы».
И да, видеокарты — это ТСТ (технически сложный товар), т.к. является компонентом персонального компьютера. См Перечень ТСТ и разъяснительное письмо к нему.
Если понравится — забираете, если нет, то забираете деньги по чеку.
Или больше, если цена выросла.
В этом и есть известный прикол возврата денег. Через 1-2 года возвращаемый товар устарел и подешевел, или вообще снят с продажи, но магазин обязан вернуть сумму по чеку. Если взять деньгами, можно сразу же купить более современный аналог, да ещё и сдача останется.
В случае если ремонт занимает более 45 дней или сколько то там суммарно дней в году(точно не помню — посмотрите в ЗоЗПП) вы можете отказаться от дальнейшего ремонта и потребовать возврат суммы. Либо по чеку, либо больше, если на момент принятия решения сумма выросла.
У меня с этим был занятный прикол.
В 2013 году купил проектор.
В середине 2014 начались проблемы, несколько раз возил его в ремонт, в третий раз я приехал с планшетом, прямо в магазине подключил «свежеотремонтированный» проектор к планшету и увидел очередной дефет.
Заявил о том, что хочу возврат денег.
Они такие — нивапрос.
Я такой, ага, и вписал не сумму от 2013 года, а актульная цену.
Они такие — чего, бл***?
Я такой — вот вам мой запрос, 10 дней вам на ответ.
На 9 позвонили: да-да, претензия удовлетворена, приезжайте.
Смотрю на сайте — Цена упала на четверть!
Напоминаю — сумма возврата берется не на дату подачи заявления, а на дату удовлетворения.
Я такой — «вот уроды...». Ну и ладно. Я все равно зарабатывать на них не собирался.
Согласился.
На следующий день цена вернулась к прежнему значению.
А по поводу технически сложного товара то вот этот список
— ни каких видеокарт. Но упираться не буду, раз вы там работаете, то вам виднее.
а не для перепродажи ли или извлечения прибыли покупают видеокарту
А доказать?
Гляньте во многих ГТ написано, что розничная продажа подразумевает индивидуальное пользование частными лицами.
А что, майнеры регистрируют ИП? Частные лица вполне. Просто видеокарт целая гора.
По остальному: видеокарты для майнинга не то чтобы часто разгоняют. Обычно наоборот. :)
Кроме того, разгон не является причиной снятия с гарантии. Разгон это вообще дело обычное. И больше, чем задумал производитель, видеокарта себя разогнать не даст (по вольтажу). Так что единственный шанс слететь с гарантии — молоть чушь о том, как ты прогревал видеокарту до 105 градусов 24 на 7 и\или перешить биос на модифицированный. Сдается мне, 90% майнеров спокойно пройдут все стандартные проверки СЦ.
А за независимую экспертизу, как я понимаю, магазин должен будет вернуть деньги, если она будет в пользу владельца видеокарт (но вот тут я как раз могу быть очень не прав). А еще можно даже в суд подать против таких «умников» в магазине — вполне реально что-нибудь сверху отсудить. Короче, не все так просто, да и государство у нас на стороне покупателя в основном.
Сам не майнер, если что :)
там менеджеры и копейку выгрызут но на практике нет, странно… а компьютерное время пропадает по ночам, неужели эти расчёты на пк дороже электричества?
В общем, итог — профит реален и может быть довольно твердым и значительным, но это далеко не free money. Радикальное его увеличение при скачке курса — это круто, но многие ли способны эти скачки прогнозировать хотя бы с точностью до полугода?
Что не мешает существовать ЦОДам, заточенным чисто на майнинг. Но опять же, они хитрые. Они сдают в аренду свои «мегахэши в секунду» за реальные деньги по принципу «утром деньги, вечером стулья». И да, некоторые из них часть своих мощностей используют для майнинга для себя, но оплачивают этот майнинг те, кто покупает мощности за деньги.
А за счет чего эти карты дешевле и производительнее карт с портами?
За счет того, что нет пары копеечных разъемов? Чем, собственно, технически то они отличаются?
PS Может, конечно, тем, что это продукт будет не конкурирующий с видеокартами и за них можно будет просто меньше брать маржу, а видеокарты продолжать продавать по искуственно завышенным ценам...?
Если видеоразъемов нет, то можно эти ядра отдать на вычисления. Плюс, мелочь, но 10 килобаксов в год плюс 15 центов с каждого HDMI устройства производитель платит за лицензию. А с накладными расходами, разъемом, оснасткой для запрессовки/монтажа разъема, интерфейсами это вылезает в достаточно большие деньги для конечного пользователя. С DVI вроде сейчас не нужно лицензионные отчисления платить (раньше было до доллара за штуку, вроде бы...), но сам физический разъем дофига денег стоит.
Найти где-то упоминаний, что шифрованием потока занимаются какие-то отдельные блоки процессора или дополнительные микросхемы на видеокарте — мне не удалось. Как и упоминаний, что шифрованием занимаются такие же как все ядра GPU. (Мои воспоминания — из старины глубокой, когда у производителей сменились поколения видеокарт, появились разъемы HDMI и DP, но… производительность относительно предыдущего поколения почти не выросла. «В кулуарах» это объясняли тем, что теперь надо шифровать видео...)
Я не понимаю, зачем карте что-то шифровать или расшифровывать?
Суть технологии в том, чтобы шифрованные данные с Blu-Ray передать через ОС и видеокарту сразу в монитор, и расшифровывать только там. Чтобы пользователь нигде не смог перехватить расшифрованный контент и выложить на torrent.
Суть технологии в том, чтобы шифрованные данные с Blu-Ray передать через ОС и видеокарту
Но нет гарантии, что разрешение монитора настолько же плохое, как на Blu-Ray. Бывают мониторы и с в разы большим разрешением… Именно по этому требуется, чтобы видеокарта расшифровала данные с диска, перекодила их в другое разрешение и фрейм рейт, передала поток с нужным разрешением и фреймрейтом в монитор.
Если вам нужна видеокарта, заказывайте «за бугром». В США, например, цены адекватные. У нас же уже 1070 стоит как там 1080TI.
Для этого есть Nvidia Tesla и Intel Xeon Phi, или они хуже?
Но производители не упустят шанс навариться, им тоже выгодно нагнетание ситуации, за что торгаши им скажут спасибо, всё говно и неликвид распродали. Даже 7ХХ/9ХХ серии Nvidia, пылившихся на полках расхватали.
вот пример http://www.neurosolutions.com/products/cuda/
Основную нагрузку на себя берет видеокарта, когда нужно считать огромные сети (десятки-сотни мегабайт), если вы сумеете распаралелить обучение сразу нескольких сетей или реализовать алгоритм, который утилизирует видеокарту вычислениями по полной (проблема в том что мы должны посчитать сеть, подправить ее веса, снова посчитать, достаточно сложно в общем случае сразу запустить вычисление нескольких сетей), то вы можете получить и больший профит, и 100х не предел.
Закупать специализированные видеокарты для этого считаю бессмысленным, если вы не собираетесь использовать софт, заточенный (читай при наличии vendorlock) под них.
На текущий момент, как я понимаю, лучшие рекомендации — NVIDIA GTX 1080ti, но в основном не потому что зеленые быстрее, а потому что весь софт в первую очередь пилится под них (спасибо amazon с дешевой арендой серверов), но в принципе софт потихоньку пилят и для AMD ATI.
https://www.overclockers.ru/hardnews/85271/opublikovan-pervyj-obzor-majning-kart-nvidia-p106-100.html
В принципе, решение начать выпуск специализированных видеокарт для майнеров правильное.Нет, оно в принципе ошибочное. Специализированные видеокарты — это деградация, шаг назад к ASIC-ам и большим фермам. Для криптовалют критически важна распределенность.
Люди всегда делали специальные инструменты под отдельные задачи, и это хорошо — иначе (условно) землю мы копали бы ведрами, а краску на стены клали бы вениками. Теми, что для пола.
Если что-то приносит пользу, умельцы сразу начинают думать, как оптимизировать процесс. В наше время это предложение можно переформулировать в «если что-то приносит доход, умельцы сразу начинают думать, как заработать на этом еще больше». И людям, покупающим по 500 видеокарт совершенно наплевать, что критически важно для криптовалют — сломают сложность этой и перейдут к другой. Этот процесс невозможно ограничить со стороны производителей железа или продавцов — им просто наплевать. Только со стороны разработчиков крипты\алгоритма. Хотя там наверное будет обычная борьба а-ля «адблок против рекламщиков». Одни модернизируются, другие находят способ поломать.
Шаг назад для авторов крипты — да. Но им повезло, что только шаг. 30% прироста — это далеко не асик. Но рассчитывать на то, что в скором времени не появится какая-нибудь вундервафля для добычи эфира с х2\х4\х10 производительностью — неразумно.
Этот процесс невозможно ограничить со стороны производителей железа
Вообще-то можно. Всего два производителя карт и эти карты отличаются настолько, что под них создают разные майнеры. Если лишь один производитель начнет усиленно «зарабатывать», то может оказаться так, что в валютах следующего поколения его видеокарты будут иметь хешрейт в разы ниже.
А тут полный аналог Асиков, возможно желающие купить и найдутся, но для рядового мелкого майнера они не представляют интереса.
Возвращаясь к Вашему посту — далеко не полный аналог асиков. Потому что майнить можно такой видеокартой (почти) что угодно, было бы желание, а асиком только то, что хотел его производитель. Ну и ценники — асики-то вы знаете сколько стоят? :) По цене одного для BTC можно целую ферму собрать, особенно если железо по адекватным (даже +33%) ценам считать.
Скоро на Авито и ему подобных Юлах будет много дешевых GTX 1080.
Это какая мощь для взламывания паролей и радужных таблиц. Не удивлюсь. если после этого будет большой скачек размеров паролей «в домохозяйствах». Эти бы мощности да в мирных целях…
Я думаю криптоэкономика теперь никуда не денется, джин из кувшина выпущен, загнать обратно можно только чем то вроде апокалипсиса
криптоэкономика теперь никуда не денется
Вера в
Согласен. Криптоэкономика никуда не денется, поскольку это же не только coin всякие.
Хотите в мирных целях? Присоединяйтесь к Folding@home. Только где гарантия, что вы будете считать не запчасти для новых супервирусов?
«В будущем появился новый способ заработка — считать различные бессмысленные числа. Люди вкладывают огромные средства в покупку более быстрых счётных машин, которые считают до триллиона никому не нужных чисел в минуту.»
Сложные расчеты и так сейчас на GPU ведутся.
А перетаскивать ОС на GPU — нафига?
Да собственно, смотрим на датацентры: там постоянная проблема с геометрическим пространством-объёмом, с энергопотреблением и с тепловыделением. Я так понимаю, перенос системы (не столько OS, сколько приложений) на GPU (хотя «G» тут уже неадекватно) позволит заметно снизить цену вычислений.
Обратите внимание: я предлагаю переносить на GPU приложения. А вот ядро (то, что сейчас называют словом «ядро») разделяется: половина остаётся на CPU, а половина переезжает на GPU.
При этом он очень плохо работает с условными переходами. Если на какой-то «конвейерной линии» условие не выполняется, то она просто на это время выключается и простаивает.
В отличие от CPU в GPU нет никакой логики предсказания переходов или опережающего выполнения кода.
Теперь попробуйте прикинуть число условных переходов в обычном приложении (не связанном с массовой обработкой данных) и поймёте что GPU будет работать с ним отвратительно.
Работа с трёхмерной графикой требует определять, какой объект находится ближе, а какой дальше от наблюдателя. Соответственно, тут тоже условный переход.
Логика предсказания переходов и опережающее выполнение кода нужны в основном для того, чтобы эффективно выполнять уродский набор команд x86. При отказе от совместимости с этим говном мамонта — потребность в предсказании переходов и опережающем выполнении кода резко падает.
GPU делится на гриды, все процессоры грида выполняют одну программу. Внутри грида есть деление на блоки. Все потоки блока выполняют программу грида синхронно. За счёт этого не нужно каждому потоку отдельно выполнять выборку команд, декодирование, предсказание переходов — всё одинаково для блока. На этом экономия транзисторов.
Работа с трёхмерной графикой требует определять, какой объект находится ближе, а какой дальше от наблюдателя. Соответственно, тут тоже условный переход.Не нужен. Для работы z-буфера достаточно конструкции с логикой
X = C ? A : B;
Такая команда, CMOV, есть даже в «уродском» i686 (тоже введена для избавления от ветвлений).
GPU делится на гриды, все процессоры грида выполняют одну программу.Ок, а как же программа, выполняющаяся на разных процессорах, понимает, на каком процессоре она работает, и с какими данными ей надо оперировать?
Ну, в Unix процесс делает fork(), и в зависимости от возвращённого значения понимает — это родитель или ребёнок. С порождением потока (thread) ещё проще.
Кстати, в одной программе спокойно можено разместить несколько программ, и по ходу выполнния каждый процессор идёт по своей ветке.
Внутри грида есть деление на блоки. Все потоки блока выполняют программу грида синхронно.Хм-м-м, а вот это уже — серьёзное ограничение на набор программ, которые могут использовать мощь вычислителя полностью.
Однако, остаётся тот же вопрос про разделение данных. Допустим, мне надо умножить массив на константу и поместить результат туда же. Ок, я разделил массив поровну между процессорами — т.е. первый процессор обрабатывает первые сто элементов, второй — вторые сто, etc. Но как мне инициализировать начальное значение индекса?
Для работы z-буфера достаточно конструкции с логикойЭто хорошо, если A и B — уже вычисленные значения. Иначе их придётся сначала оба вычислить, а это может оказаться гораздо дороже ветвления.
X = C? A: B;
Т.е. команда полезная, но не во всех случаях. Насколько она полезна в трёхмерной графике — я что-то не очень хорошо вижу.
Такая команда, CMOV, есть даже в «уродском» i686Что за «i686»? По логике это д.б. Pentium'Pro либо Pentium'II; ну или м.б. Pentium'MMX.
PS: Спс, познавательно пишете. Я бы почитал ещё что-нибудь.
как же программа, выполняющаяся на разных процессорах, понимает, на каком процессоре она работает
как мне инициализировать начальное значение индекса?Есть «переменная»
threadIdx
Это хорошо, если A и B — уже вычисленные значения. Иначе их придётся сначала оба вычислить, а это может оказаться гораздо дороже ветвления.Тогда увы. Придётся вычислять оба случая. Обычно большие ветвления, такие, как удаление полностью невидимых объектов, можно сделать на CPU, а на GPU — небольшие, как видимость отдельных пикселей в некоторой зоне.
Что за «i686»? По логике это д.б. Pentium'Pro либо Pentium'IIВсё верно, довольно старая инструкция.
всегда, когда кто то покупает, означает что кто то продает, без относительно того, выглядит это как доход или нет.
Или вообще, пойти ещё дальше и сделать под это дело материнку, которой для работы нужна будет только видеокарта, ОЗУ и процессор там есть (немного доработать нужно, правда)
Вообще, видео подсистема очень часто обгоняет центральный процессор по производительности. (Еще на старых добрых MSX ЦП работал на частоте 3.5 МГц, а видеочип шарашил аж сразу на 10-ти МГц.) Но слишком разные задачи. Ядро видеокарты заточено на выполнение небольшой программы на большом наборе данных. Там нет блоков предсказания ветвлений, например, просто потому, что там приблизительно нет ветвлений. Там, грубо говоря, есть «умножить i-й элемент массива A на j-й элемент массива Б от нуля до упора и положить результат в массив Ц».
А с идеей взять ARM-ядро в качестве процессора общего назначения и прикрутить к нему большой и мощный GPU в качестве «числодробилки» — NV носится уже года 3. Уже, вон, сам Cray грозится произвести для англичан суперкомпьютер по такой технологии.
И вот той самой DDR4 на ядро поддерживается до 64 гигов, по крайней мере, для процессоров с 12-ю ядрами. Что интересно, именно такие стоят, например, на суперкомпьютере Тьанхе 2, который на втором месте в Топ500.
И да, про гигабайты кэша я погорячился.
Но. Еще раз. У «обычного» процессора — до 64 гигабайт на ядро, у GPU — около 6 мегабайт на ядро…
Из-за этого запуск Linpak на GPU выглядит очень смешно — загружаем 12 гигов данных в память «ускорителя», он за доли секунды все обсчитывает, выгружаем результаты из ускорителя, выполняем над полученными данными что-то в обычном процессоре, получаем новую пачку данных, грузим их в «ускоритель»… В результате, то процессор загружен на 100%, GPU -0%, то CPU — 0%, GPU — 100%.
Если задача требовательна в объёму памяти, то видеокарта может не подойти, к этому нет возражений.
Но если требование к объёму умеренно, а основной тормоз — Bandwidth, то зачем считать гигабайты на ядро.
По спекам общий на все ядра bandwidth GPU и CPU близок (y CPU больше, но не на порядки).
Тем не менее, хеш etherium, который представляет из себя 200 рандомных чтений из массива рандомных данных общим объёмом более гигабайта, показывает следующее:
30-40 MH/s на топовых GPU (18-25 MH/s на средних GTX1060), и 0.4-0.8 MH/s на разных CPU (нигде не видел более 1 MH/s на CPU).
То есть, из CPU не получается выжать теоретически возможный bandwidth (вряд ли из-за криворукости программистов, который из майнеров и так выжимают последнее).
Если это базы полнотекстового поиска, типа Sphinx, сложные алгоритмы не параллелятся. Они больше похожи на zip/rar.
Остаются параллельные алгоритмы, типа нейросетей, когда память обрабатывается однотипно. Собственно, такие применения уже есть.
qw1 Я попытался поискать примеры интересных/сложных запросов для «сфинкса»… Там как-то грустно все и исключительно для SQL гиков. Напишите что-нибудь про этот поиск!
Сначала ищется вхождение слов в документы, используя суффиксное дерево или обратный индекс.
Уже на этом этапе есть проблема с GPU: все потоки блока должны выполняться синхронно.
Т.е., если поиск по дереву в первом запросе дошёл до листа, а по другому запросу не дошёл, первый должен выполнять холостые топтания на месте. Это надо как-то предусмотреть в алгоритме.
Затем надо найти оптимальный план пересечения и объединения найденных векторов с кодами документов, и это зависит от длин векторов (применяем сортировку и merge, если длины примерно равны, или поиск значений одного вектора внутри другого, если сильно отличаются).
В том же sphinx вычисления ленивые — если алгоритм получил искомые N результатов, дальше вектора не обрабатываются.
А потом ещё применить ранжирование…
Наверное, можно запараллелить, если есть 256 одинаковых запросов типа «word1 AND word2 AND word3».
Но, если все типы запросов в перемешку, типа «word1 OR word2», а другой — «word1 NEAR word2 AND word3», и т.д., то — нет.
В общем, увели разговор в сторону… А суть в том, что есть задачи, которые сильно выигрывают в скорости при обсчете на ускорителях. А отсутствие видеовыхода на плате — означает кроме освобождения некоторых ресурсов «видео» процессора, еще потенциально освобождает немного памяти.
Я считал, что DB в памяти как раз для кеша (или в качестве кеша) и используется, из-за быстроты доступа.
Для memcached 6GB мало?И RJ45 прямо в видеокарту вотнуть? ))
Или сэкономить и поставить 2 ГБ дешёвой RAM в сервер и добавить дорогую видеокарту с 6 ГБ как модуль хранения данных?
RAM дешевле, чем в VRAM.
Доступ к RAM быстрее, чем к памяти, расположенной за PCI-E (тем более, что вытащенные из видеокарты данные нужно разместить в RAM, чтобы использовать).
Видеопамять не приобретается, ее получаешь в довесок к видеокарте, мало того, в большинстве случаев эта видеопамять простаивает (майнинг не рассматриваем, сейчас в альткоинах специально алгоритм делают таким, это следствие попыток защиты от ASIC-решений).
p.s. несколько лет назад я экспериментировал со свапом в видеопамяти, там были проблемы, попаданием буфера экрана в область свопа, но полагаю все решаемо.
Пойду изобрету специализированный безокулярный микроскоп для забивания гвоздей.
Nvidia и ASUS разработали специализированные видеокарты для майнинга криптовалют