Люди с низким интеллектом не способны поддерживать диалог на сложные темы с людьми с высоким интеллектом, предпочитая просто генерировать шум (small talk), и потому сторонятся и недолюбливают их - но виноваты люди с высоким интеллектом (ибо их меньше, а потому буллить по отличительному признаку проще).
Люди с низким интеллектом не хотят/не могут четко и конкретно формулировать и доносить информацию в понятном окружающим виде и вынуждены полагаться на "отрыгрыш", "иносказание", "невербальные сигналы", "язык тела", "намеки", "эмоции" и прочие шарады, приванные помочь человеку с низким интелелктом хоть в каком-то виде донести информацию и скрыть неспособность человека четко и понятно явными не двусмысленными словами описать что ему надо (проще говоря "они всё понимают, только сказать не могут..."). Но виноваты опять же способные четко и понятно доносить информацию люди с выским интеллектом.
2.1) Косвенное из п.2 - намеки, иносказания и прочее подобное может использоваться с целью сослагания отвественности (не "я не сказал", а "он не понял") и умышленного введения в заблуждение и обмана ("он всё неправильно понял" или "я говорил не это" или "ну нельзя же прямо сказать - обидится, поэтому попытаемся на****, сказав не прямо, вдруг не смекнет"), что говорит не в пользу использующих подобное людей.
Покажите мне 64гб ddr5 по вашим сказочным ценам - я её там сразу и выкуплю.
За моими ценами можете зайти прямо сейчас на wildberrys/ozon и глянуть на самую дешманскую ddr5 указанного объема 64гб, отсортировав по цене. Увидите 19-20к только за память, максимально китайскую и возможно из стремных чипов. И б/у ram пока что не дешевле.
Рязань б/у конечно поверю в 12к, хотя 7500ф не настолько стар для этого, но это вы с общей суммы в 40к скинете жалкие 3к.
На счет ушатанного во все дыры проца - CPU почти вечные и так, они обычно мрут или по переразгону/неверному вальтажу, или если криворуко ноги коротнуть при установке. А серверные камни еще и из несколько более качественного и отборного кремния, чем потребительские. Они б/у обычно более надежны чем многие десктопные новые (13-ый интел тому пример)
Вот только разница не 10к, а 22-27к, если зайдете на основные массовые площадки и проверите. И это если брать к ряженке максимально китайский полуподвальный обвес. DDR 5 всё еще слишком дорога если брать достойный (от хотя бы 64гб) объем
И вы таки не ответили - а зачем? Если вы каждый день по много с компа играете - откуда у вас столько времени? А если из поигрулек - вечерняя каточка в лол/доту/кс/тундру/фортнай/апекс - то там не то что зеона, там ryzen 5 2600 за глаза будет и древней 1080ti. А если современные игры - то на поиграть пару вечеров с графоном лучше чем на актуальных консолях - зеона и условной 3060 тоже достаточно. Для абсолютно ровных абсолютно играбельных плавных 60-75 фпс с ровным фреймтаймом. Чтобы именно играть и проходить игру без лагов, а не со школотой со двора меряться у кого на 2 фпс больше.
Вы предлагаете людям переплачивать в двое, ради того чтобы 80% из них никогда этой мощью не воспользовались. У меня 3090 - как вы думаете, за работой и семейными делами как часто и какую самую тяжёлую игру она видела? Пару раз геншин и sea of thieves (это не нагрузка) и один раз для теста после покупки был запущен alan wake 2. 90% времени эта карточка видит обучение нейронок или просто простаивает. И на смену r5 3600 пришел 5600, а не 5700x или 7500f, а было искушение взять именно зеон, но ecc ddr4 2400 для llm хуже чем crucial на 3800...
Ставите фреймлок на 90 и радуетесь ровному фреймтайму.
А на счет второй части - вам может и из 2010, а вот мне и моем 2024 на zotac 3090 даже в андервольте приходится фреймлок выставлять для легких игрушек т.к иначе при фрейрейте выше 140 — 92°+ на хотспоте и памяти на 300-320W и адский вой кулеров видяхи. А так - приятные 82-83 и всего лишь 77% оборотов... Корпус если что просторный от фракталов и везде вертушки 140 от be quite. И холодная ряженка на cpu. Но - zotac есть zotac.
1) Из ваших слов (даже если не вдаваться в реальность ваших цифр) следует буквально следующее: дешевый комп на рязани - в 2 РАЗА!! дороже компа на Xeon.
2) Я зашел провериь на WB. x99 доска + Xeon + 64gb DDR4 RAM стоит 22к. По сути весь комп в сборе. А также я проверил цену на чисто кит из 64gb DDR5 на том же WB - вы не поверите, внезапно самый дешевый - 20к. Т.е как весь комп на зеоне. + 16к на 7500f OEM (самый дешевый) + 10к за самую копеечную китайскую нонейм доску от maxsun уровня того же машиниста.
Т.е самый копеечный билд на 7500ф выходит в 2-2.5 раза дороже не самого копеечного варианта на зеоне (ибо они есть и дешевле). И при этом разница по факту далеко не 10к, если вы не про сборку с 8gb RAM, ибо DDR5 пока что стоит как крыло самолета.
Если денег девать некуда, можно конечно брать самое новое и быстрое, кто ж спорит то. Но для редких домашних поигрулек по вечерам (а они именно такие если вы не школьник с кучей времени и не киберкотлета) - так ли это действительно необходимо? Люди с консолей играют за такие деньги, а там ни графики ни фпс...
Можно конечно сказать про "возможность апгрейда чрез 3-5 лет", и для АМД это возможно даже справедливый и реалистичный сценарий в отличии от Intel, но даже тут есть такой тонкий момент, что через 3 года по цене апгрейда можно будет просто выкинуть старый зеон вместе с материнкой и взять новый (ибо сегодняшние севрера к тому моменту тоже по-списывают, а китайцы времени зря терять не станут).
Когда это разница между 120 и 170 фпс - разница уже не существенна, и то и другое играется одинаково, но со 120 видяха меньше греется и меньше жрет.
И в целом если фпс 60+ (для особых эстетов - 90+) насиловать видяху еще большим числом кадров - это только почем зря изнашивать оборудование и слушать вой кулеров.
А оно и не запрещает. Оно "настойчиво предлагает этого не делать, предупреждая о последствиях", ибо это вполне себе отключаемая опция в основных настройках смартфона.
Так что гугл вполне справедливо говорит "скачанное непойми что непойми откуда окажется опасным с большей вероятностью чем софт из Play Store" и не делает "сомнительные источники" опцией по-умолчанию. И не должен. Но, в отличии от Apple, ни коим образом (при даче добровольного сознательного согласия в процессе включения нужной опции) не препятствует.
Так что ваши претензии, уж простите, высосаны из пальца, как и продиктованные исключительной жадностью претензии Epic Games.
А то так можно дойти до того, что Google из жадности и сговора с мобильными операторами навязывает вам использование 4g вместо домашнего Wi-fi, т.к wifi тоже надо спевра руками включить в настройках...
Ну и до кучи на счет подобного, включенного по умолчанию:
Это не дырка, оно не само ставится, приложения ставит пользователь.
При вашем подходе поставит пользователь троян, и тот в автоматическом режиме никого не спрашивая накатит еще десяток криптолокеров и ботнетов, ибо "ну разрешено же ставить из сторонних источников без разрешения".
В то время как при текущем подходе и с Google Play автоматически софт не может другой софт ставить, и из сторонних оно при поптыке поставить выдаст юзеру плашку "слышь, разреши в настройках" и пока не включат разрешение поставиться не сможет, что уберегает от кучи проблем, даже если случайно какую малварь вытащил (даже если с google play).
Вы по сути предлагаете открыть широченные ворота для для троянов и руткитов.
Это словно сказать "не люблю эти китайские Redmi, остают от последнего iPhone". Вы сравнивайте продукты близких ценовых категорий. А это (в случае Xeon) в лучшем случая Ryzen 5-7 3x00 (и то они скорее всего почти в 2 раза дороже),
И вопрос тут стаивться иначе - а есть ли иные варианты сборки ПК схожей производительности на продаваемых в магазинах комплектующих за те же деньги + допустим 30% сверху? И внезапно окажется, что старенький (не такой уже к слову и старенький) зеон спокойно уделывает конкурентов из своей ценовой категории, с легкостью конкурирует с ценовой категорие чуть выше в игровых задачах, и может потягаться с еще более высокой категорией в рабочих. А еще на копеечных двухголовых материнках может за дешево дать 8 каналов ddr4 для CPU-инференса LLM =)
И тут уже задумываешься, а точно ли для десктопа бюджетная условно-актуальная рязань или Core лучше китайского зеона? Слабое место тут не проц. Тут слабое место китайская мать (в меньшей степени, если от неё странного не хотеть) и китайская ECC-память (в большей степени ибо вот это реально электронный мусор)
Охотно верю статье, вот прям охотно. Т.е ряженка 3600 на частотах 3.6-3.8 по всем ядрам чудесно тянет современные игры (например alan wake 2) упираясь в GPU, а Xeon на 4ггц +/- тех же годов уже не потянет. Ну-ну. Скорее уж идущая в комплекте "Память" от atermiter что-то не потянет.
И что это у вас за игры, которые в 2024 долбятся в одно ядро вместо нормального мультипотока? Ну, кроме Geekbench, он очевидно так себе игра, только для любителей меряться цифрами =)
Вы действительно не видите разницы между "в контроллируемую среду просочилось пару представителей малвари" и "установка рандомного трэша непонятного происхождения с рандомных источников из интернета по ссылке, которую пользователь кликнул в вайбере/ поп-ап-рекламе/ по требованию мошенника"? 90% вирусов даже на пк пользоватлей возникают по причине скачивания сомнительных вещей по сомнительным ссылкам из выдачи гугла вместо скачивания хотя бы с проверяемых торррентов... (при том что там тоже иногда есть малварь, но на порядок реже)
Если оно просто станет в N раз быстрее - в принципе не сильно скажется. Упирается всё в основном в объем VRAM (из которого вытекает скорее размер модели, а не скорость её обучения). Т.е модельки не станут жирнее, просто 7-35b можно будет учить 2 дня, а не 2 недели.
Тут бы для потребительского сегмента не столько мощные по чипу железки начать выпускать, сколько чистые ML-ускорители, т.е чипы состоящие из одних лишь CUDA-ядер (или более эффективных аналогов) вообще без видео-ядер, не мощный (чтобы ел и грелся не сильно), но с большим объемом быстрой многоканальной памяти. Современные модельки эффективно прожевывать может даже CPU, проблема лишь в скорости доступа к памяти, Apple M2/M3 и AMD Epyc с 8-channel DDR5 тому пример - они уже на уровне условной P40, только с машстабированием аж до 512 гб.
1) Откуда статистика? Если из стим - это не 0.55% пользователей, это 0,55% геймеров, что не тождественно. Для игр такая карта оверкил даже сейчас.
Смотрите целевую адиторию - пользователи генеративных нейронных сетей/ML энтузиасты. Если смотреть по всем людям в мире, а не целевым группам - можно вообще много до чего интересного досмотреться и прийти к мысли, что iPhone не нужны т.к наиболее популярны звонилки до 150$.
2) 3090 стоит 500-700$. Это дешевле айфона, с которым нынче каждый второй бегает. Проблема не в том, что её тяжело купить и это спец.девайс. Проблема в том, что (пока что) она мало кому была нужна сама по себе (не было задач + релизнулась в бум майнинга по чудовищному оверпрайсу). Бум генеративных ИИ пришелся на последние 3 года. LLM (юзабельных) - на последние полтора. Карточки просто еще не успели оказаться у своих потребителей. При этом ту же древнюю p40 на 24гб с ростом популярности LLM смели с ebay и Ali настолько быстро, что за пол года её цена выросла с 150 до 400$ и её (в отличии от p100) теперь хрен найдешь.
На Vast.ai в аренду 3090 на пользовательских машинах упали до цены аренды 3060, вытеснив их, что тоже вполне показатель.
Люди вкатываются в локальные нейронки. Причем не только бородаты IT-дяди, но и школьники/студенты. Ибо когда условная Replica/Character ai задалбывает цензурой за твои же деньги, а потом выясняется что всё то же можно поднять дома на своей 3060 и заставить говорить буквально что угодно по цене тарифа на электроэнегию - многие это пробуют и остаются.
Через пять лет эти сотки и двухсотки будут также на алике по 200баксов продаваться
Что-то я А100 до сих пор не вижу по разумным ценам. И даже древней Т4, которую даже на коллабе никто особо не использует. p40/p100 настолько дешевые т.к иначе их даже на вторичке не сбыть ибо одна 3090 по цене 2х p40 с раз этак в 8 большей производительностью.
Зайдите на HuggingFace. Большиснтво локальных RP-файнтюнов это 4b-7b-14b-20b. Это учится локально и пользуется локально (порой даже на CPU). Это самый ходовой размер (до 35b т.к больше не влазит в 3090). Как и все модельки SD/Flux семейства с 1000 и 1 Lora.
На серьезные LLM никто и не замахивается. Но если все новые LLM и Image Gen модельки вдруг будут архитектурно под спец.железо, которое будет только по предзаказу у корпораций за 100500 шекелей - это убъет опен сорс/open weight на корню.
3090 стоит 700$ (б/у еще дешевле). Это не напряжно, это цена нормального смартфона. Современенные LLM приемлемого качества (и все модели для генерации изображений) запросто крутятся на это вполне себе потребительской карте 4-летней давности.
И на ней же учат 100500 лор для Stable Diffusion, и не меньшее колличество для 4-20b LLM-ок. Именно что пользотватели, не компании в датацентрах.
Опять же, как раз таки Quadro (в отличии от Tesla) у пользователей стояли, да и сейчас если в тематические сабреддиты залететь - у многих есть A5000/A6000.
Но вот если выпустят условный ASIC для нейронок, который будет отдельной приблудой со своей архитектурой, на который перенесут все новые более совершеннные модели (сделав непригодными для запуска/обучения на GPU или ином пользовательском домашнем оборудовании) и будут (кроме космических цен) отгружать этот самый ASIC только компаниям по предзаказам как сейчас с H100/B200 - это будет очень-очень грустно.
И, как обычно, речь практически 100% об ускорителях за over9999$ для корпораций (как и майнмнг девайсы), а не о потребительских дешевых устройствах в PCI-E слот, готовых прийти на смену дорогим видеокартам. А значит еще один способ отобрать у пользователя возможность запуска всяких там локальных расцензуренных Ллам, и загнать его в загончик с платным API от 2-3 корпораций...
Написать песню уровня лучших баллад столетия? Nein. Написать песню лучше современной российской поп-эстрады, в которой один куплет поется один раз и дальше зацикливается припев из двух фраз? Вообще на изи, еще и музыку подберет, и вокал, и исполнит.
Нарисовать художественную картинку, которую узкий круг эстетов, базируясь исключительно на своем субъективном "чустве прекрасного" сочтет шедевром на века? Врядли. Нарисовать картину лучше, чем 99% творчется на девианарте и сопоставимую с топовыми цифровыми пейзажами с Artstation (либо конкрутоспособную 80% NSFW-художников с патреона например) - запросто.
Написать стих, который западет в душу всем и каждому? Нет, но с этим и кожанные писатели не справляются. Написать гимн школы, речевку, шутливые вирши в юмаристический журнал, стих по заданию в школу, рифмованный текст на нужную тематику для загадки/лора в игре? Как нефиг.
Нейронка может это делать. Она не может это делать лучше чем 99% профессионально занимающихся этим людей, но уже вполне может (при должном подходе и навыке работы с ней), как ниже указали, делать сопоставимо с 80% тех, кто делает это в рамках своей рабочей/творческой деятельности (а не просто лучше 80% случайных обывателей).
Если нет препятствий, чтобы нейронка сама (сама, именно сама) чего-то зарабатывала, то чего этого нет до сих пор. Все еще Сэм ходит, деньги просит у инвесторов. (в том числе на разработку видеокарт отличных от Кожанки)
Вообще так-то, чисто технически, GPT-4, отвечающая на ваши вопросы по API за шекели - зарабатывает деньги для Сэма своей деятельностью. В абсолютно автономном режиме, не требуя постоянного контроля и вмешательства в свою деятельность. Дополните её скриптом, который по приходу на почту счета от энергокомпании будет переводит на баланс энергокомпании указанную сумму (которую GPT прочтет из счета) с баланса, на который приходят шекели за API - и вот у вас уже ИИ сам трудится и сам оплачивает =)
Для того чтобы ИИ всё это делал - ему не обязательно быть субъектом и обладать волей. Он вполне может делать это, выполняя чью-то чужую волю, как любой нормальный раб.
ну и нейронки учат и что. Собсно нейронки это продвинутый калькулятор.
Ну так и человек тоже не далеко ушел. Больше и сложнее + общего назначения. И всё.
Вы опять про некое будущее рассуждаете. Кошки уже тысячи лет существуют. Нейронки, аналога кошки, нет вообще. И не предвидится в ближайшие годы.
1) А почему нам нужна цифровая нейронка, являющаяся именно полной и точной копией биологической (весьма, надо скаазать, не оптимальной и не сильно эффективной)? Сделать сеть с поведением кошки (питание, размножение, охота, свободные прогулки) можно и не дублируя стуруктуру мозга кошки. 2) Нейросеть может профессионально играть в Quake 3 и Dota 2, используя множетсво различного вооружения, перемещаясь по карте, собирая бонусы/предметы/артефакты и уничтожая себе подобных эффективными (и не типичными для кожаных игроков) способами. Чего, наприме, кошка не может. И делает сеть это не перебором всех возможных ходов (как любят вспоминать в контексте шахмат). Наглядный пример сети, делающей набор сложных активностей (перемещение, "охота", "питание" и улучшение своих параметров) для достижения конкретной цели случайным зависящим от текущей ситуации и окружения путем. Не сказал бы, что высокоуровневая активность кошки (т.е не управление внутренними органами, а +/- сознательная деятельность) прям таки катастрофически более сложная, чтобы нейросеть схожей с описанными архитектуры в синтетической среде, при задании нужный целей, стимулов и системы вознагрождений, не смогла её эмулировать".
А кто заставит? Если ИИ, допустим, будут делать не корпорации, а крупные государства? Например, правительства США и Китая. Кто именно сможет заставить эти страны и их правителтсва что-то там регулировать?
Государства, которые откажутся в этом учавствовать либо санкциями загонят в ХХвек либо ядерными бомбами в неолит.
Развитый ИИ без ограничений - эффективнее и опаснее такого же, но ограниченного. Боюсь, скорее уж отказавшиеся в этом участвовать государства бомбами и санкциями загонят в неолит тех, кто повелся и сам себя ограничил, превратив их просто вы источник ресурсов для себя.
А ведь технический прогресс может быть путём в сторону от создания комфортной и гуманистической среды обитания для человека.
А может быть как раз именно к созданию комфортной и гуманистической среды и ведет? Просто люди боятся задумываться об ответе на вопрос "а что делать, когда это будет достигнуто и дальше не надо будет развиваться, двигать прогресс и что-либо вообще делать?"
Проводя аналогии с ММОRPG - когда в игре заканчивается контент, люди обычно из неё уходят, а не ищут чем себя в ней развлекать дальше =)
В статье автора целью является занять пост. Если пост занят - это уже и есть успех, цель достигнута. Для прочих целей уже не только EQ надо =)
Выводы из статьи:
Люди с низким интеллектом не способны поддерживать диалог на сложные темы с людьми с высоким интеллектом, предпочитая просто генерировать шум (small talk), и потому сторонятся и недолюбливают их - но виноваты люди с высоким интеллектом (ибо их меньше, а потому буллить по отличительному признаку проще).
Люди с низким интеллектом не хотят/не могут четко и конкретно формулировать и доносить информацию в понятном окружающим виде и вынуждены полагаться на "отрыгрыш", "иносказание", "невербальные сигналы", "язык тела", "намеки", "эмоции" и прочие шарады, приванные помочь человеку с низким интелелктом хоть в каком-то виде донести информацию и скрыть неспособность человека четко и понятно явными не двусмысленными словами описать что ему надо (проще говоря "они всё понимают, только сказать не могут..."). Но виноваты опять же способные четко и понятно доносить информацию люди с выским интеллектом.
2.1) Косвенное из п.2 - намеки, иносказания и прочее подобное может использоваться с целью сослагания отвественности (не "я не сказал", а "он не понял") и умышленного введения в заблуждение и обмана ("он всё неправильно понял" или "я говорил не это" или "ну нельзя же прямо сказать - обидится, поэтому попытаемся на****, сказав не прямо, вдруг не смекнет"), что говорит не в пользу использующих подобное людей.
Покажите мне 64гб ddr5 по вашим сказочным ценам - я её там сразу и выкуплю.
За моими ценами можете зайти прямо сейчас на wildberrys/ozon и глянуть на самую дешманскую ddr5 указанного объема 64гб, отсортировав по цене. Увидите 19-20к только за память, максимально китайскую и возможно из стремных чипов. И б/у ram пока что не дешевле.
Рязань б/у конечно поверю в 12к, хотя 7500ф не настолько стар для этого, но это вы с общей суммы в 40к скинете жалкие 3к.
На счет ушатанного во все дыры проца - CPU почти вечные и так, они обычно мрут или по переразгону/неверному вальтажу, или если криворуко ноги коротнуть при установке. А серверные камни еще и из несколько более качественного и отборного кремния, чем потребительские. Они б/у обычно более надежны чем многие десктопные новые (13-ый интел тому пример)
Вот только разница не 10к, а 22-27к, если зайдете на основные массовые площадки и проверите. И это если брать к ряженке максимально китайский полуподвальный обвес. DDR 5 всё еще слишком дорога если брать достойный (от хотя бы 64гб) объем
И вы таки не ответили - а зачем? Если вы каждый день по много с компа играете - откуда у вас столько времени? А если из поигрулек - вечерняя каточка в лол/доту/кс/тундру/фортнай/апекс - то там не то что зеона, там ryzen 5 2600 за глаза будет и древней 1080ti. А если современные игры - то на поиграть пару вечеров с графоном лучше чем на актуальных консолях - зеона и условной 3060 тоже достаточно. Для абсолютно ровных абсолютно играбельных плавных 60-75 фпс с ровным фреймтаймом. Чтобы именно играть и проходить игру без лагов, а не со школотой со двора меряться у кого на 2 фпс больше.
Вы предлагаете людям переплачивать в двое, ради того чтобы 80% из них никогда этой мощью не воспользовались. У меня 3090 - как вы думаете, за работой и семейными делами как часто и какую самую тяжёлую игру она видела? Пару раз геншин и sea of thieves (это не нагрузка) и один раз для теста после покупки был запущен alan wake 2. 90% времени эта карточка видит обучение нейронок или просто простаивает. И на смену r5 3600 пришел 5600, а не 5700x или 7500f, а было искушение взять именно зеон, но ecc ddr4 2400 для llm хуже чем crucial на 3800...
Ставите фреймлок на 90 и радуетесь ровному фреймтайму.
А на счет второй части - вам может и из 2010, а вот мне и моем 2024 на zotac 3090 даже в андервольте приходится фреймлок выставлять для легких игрушек т.к иначе при фрейрейте выше 140 — 92°+ на хотспоте и памяти на 300-320W и адский вой кулеров видяхи. А так - приятные 82-83 и всего лишь 77% оборотов... Корпус если что просторный от фракталов и везде вертушки 140 от be quite. И холодная ряженка на cpu. Но - zotac есть zotac.
1) Из ваших слов (даже если не вдаваться в реальность ваших цифр) следует буквально следующее: дешевый комп на рязани - в 2 РАЗА!! дороже компа на Xeon.
2) Я зашел провериь на WB. x99 доска + Xeon + 64gb DDR4 RAM стоит 22к. По сути весь комп в сборе.
А также я проверил цену на чисто кит из 64gb DDR5 на том же WB - вы не поверите, внезапно самый дешевый - 20к. Т.е как весь комп на зеоне. + 16к на 7500f OEM (самый дешевый) + 10к за самую копеечную китайскую нонейм доску от maxsun уровня того же машиниста.
Т.е самый копеечный билд на 7500ф выходит в 2-2.5 раза дороже не самого копеечного варианта на зеоне (ибо они есть и дешевле). И при этом разница по факту далеко не 10к, если вы не про сборку с 8gb RAM, ибо DDR5 пока что стоит как крыло самолета.
Если денег девать некуда, можно конечно брать самое новое и быстрое, кто ж спорит то. Но для редких домашних поигрулек по вечерам (а они именно такие если вы не школьник с кучей времени и не киберкотлета) - так ли это действительно необходимо? Люди с консолей играют за такие деньги, а там ни графики ни фпс...
Можно конечно сказать про "возможность апгрейда чрез 3-5 лет", и для АМД это возможно даже справедливый и реалистичный сценарий в отличии от Intel, но даже тут есть такой тонкий момент, что через 3 года по цене апгрейда можно будет просто выкинуть старый зеон вместе с материнкой и взять новый (ибо сегодняшние севрера к тому моменту тоже по-списывают, а китайцы времени зря терять не станут).
Когда это разница между 120 и 170 фпс - разница уже не существенна, и то и другое играется одинаково, но со 120 видяха меньше греется и меньше жрет.
И в целом если фпс 60+ (для особых эстетов - 90+) насиловать видяху еще большим числом кадров - это только почем зря изнашивать оборудование и слушать вой кулеров.
А оно и не запрещает. Оно "настойчиво предлагает этого не делать, предупреждая о последствиях", ибо это вполне себе отключаемая опция в основных настройках смартфона.
Так что гугл вполне справедливо говорит "скачанное непойми что непойми откуда окажется опасным с большей вероятностью чем софт из Play Store" и не делает "сомнительные источники" опцией по-умолчанию. И не должен. Но, в отличии от Apple, ни коим образом (при даче добровольного сознательного согласия в процессе включения нужной опции) не препятствует.
Так что ваши претензии, уж простите, высосаны из пальца, как и продиктованные исключительной жадностью претензии Epic Games.
А то так можно дойти до того, что Google из жадности и сговора с мобильными операторами навязывает вам использование 4g вместо домашнего Wi-fi, т.к wifi тоже надо спевра руками включить в настройках...
Ну и до кучи на счет подобного, включенного по умолчанию:
При вашем подходе поставит пользователь троян, и тот в автоматическом режиме никого не спрашивая накатит еще десяток криптолокеров и ботнетов, ибо "ну разрешено же ставить из сторонних источников без разрешения".
В то время как при текущем подходе и с Google Play автоматически софт не может другой софт ставить, и из сторонних оно при поптыке поставить выдаст юзеру плашку "слышь, разреши в настройках" и пока не включат разрешение поставиться не сможет, что уберегает от кучи проблем, даже если случайно какую малварь вытащил (даже если с google play).
Вы по сути предлагаете открыть широченные ворота для для троянов и руткитов.
Это словно сказать "не люблю эти китайские Redmi, остают от последнего iPhone". Вы сравнивайте продукты близких ценовых категорий. А это (в случае Xeon) в лучшем случая Ryzen 5-7 3x00 (и то они скорее всего почти в 2 раза дороже),
И вопрос тут стаивться иначе - а есть ли иные варианты сборки ПК схожей производительности на продаваемых в магазинах комплектующих за те же деньги + допустим 30% сверху? И внезапно окажется, что старенький (не такой уже к слову и старенький) зеон спокойно уделывает конкурентов из своей ценовой категории, с легкостью конкурирует с ценовой категорие чуть выше в игровых задачах, и может потягаться с еще более высокой категорией в рабочих. А еще на копеечных двухголовых материнках может за дешево дать 8 каналов ddr4 для CPU-инференса LLM =)
И тут уже задумываешься, а точно ли для десктопа бюджетная условно-актуальная рязань или Core лучше китайского зеона? Слабое место тут не проц. Тут слабое место китайская мать (в меньшей степени, если от неё странного не хотеть) и китайская ECC-память (в большей степени ибо вот это реально электронный мусор)
Охотно верю статье, вот прям охотно. Т.е ряженка 3600 на частотах 3.6-3.8 по всем ядрам чудесно тянет современные игры (например alan wake 2) упираясь в GPU, а Xeon на 4ггц +/- тех же годов уже не потянет. Ну-ну. Скорее уж идущая в комплекте "Память" от atermiter что-то не потянет.
И что это у вас за игры, которые в 2024 долбятся в одно ядро вместо нормального мультипотока? Ну, кроме Geekbench, он очевидно так себе игра, только для любителей меряться цифрами =)
Вы действительно не видите разницы между "в контроллируемую среду просочилось пару представителей малвари" и "установка рандомного трэша непонятного происхождения с рандомных источников из интернета по ссылке, которую пользователь кликнул в вайбере/ поп-ап-рекламе/ по требованию мошенника"?
90% вирусов даже на пк пользоватлей возникают по причине скачивания сомнительных вещей по сомнительным ссылкам из выдачи гугла вместо скачивания хотя бы с проверяемых торррентов... (при том что там тоже иногда есть малварь, но на порядок реже)
Если оно просто станет в N раз быстрее - в принципе не сильно скажется. Упирается всё в основном в объем VRAM (из которого вытекает скорее размер модели, а не скорость её обучения). Т.е модельки не станут жирнее, просто 7-35b можно будет учить 2 дня, а не 2 недели.
Тут бы для потребительского сегмента не столько мощные по чипу железки начать выпускать, сколько чистые ML-ускорители, т.е чипы состоящие из одних лишь CUDA-ядер (или более эффективных аналогов) вообще без видео-ядер, не мощный (чтобы ел и грелся не сильно), но с большим объемом быстрой многоканальной памяти. Современные модельки эффективно прожевывать может даже CPU, проблема лишь в скорости доступа к памяти, Apple M2/M3 и AMD Epyc с 8-channel DDR5 тому пример - они уже на уровне условной P40, только с машстабированием аж до 512 гб.
1) Откуда статистика? Если из стим - это не 0.55% пользователей, это 0,55% геймеров, что не тождественно. Для игр такая карта оверкил даже сейчас.
Смотрите целевую адиторию - пользователи генеративных нейронных сетей/ML энтузиасты. Если смотреть по всем людям в мире, а не целевым группам - можно вообще много до чего интересного досмотреться и прийти к мысли, что iPhone не нужны т.к наиболее популярны звонилки до 150$.
2) 3090 стоит 500-700$. Это дешевле айфона, с которым нынче каждый второй бегает. Проблема не в том, что её тяжело купить и это спец.девайс. Проблема в том, что (пока что) она мало кому была нужна сама по себе (не было задач + релизнулась в бум майнинга по чудовищному оверпрайсу). Бум генеративных ИИ пришелся на последние 3 года. LLM (юзабельных) - на последние полтора. Карточки просто еще не успели оказаться у своих потребителей. При этом ту же древнюю p40 на 24гб с ростом популярности LLM смели с ebay и Ali настолько быстро, что за пол года её цена выросла с 150 до 400$ и её (в отличии от p100) теперь хрен найдешь.
На Vast.ai в аренду 3090 на пользовательских машинах упали до цены аренды 3060, вытеснив их, что тоже вполне показатель.
Люди вкатываются в локальные нейронки. Причем не только бородаты IT-дяди, но и школьники/студенты. Ибо когда условная Replica/Character ai задалбывает цензурой за твои же деньги, а потом выясняется что всё то же можно поднять дома на своей 3060 и заставить говорить буквально что угодно по цене тарифа на электроэнегию - многие это пробуют и остаются.
Что-то я А100 до сих пор не вижу по разумным ценам. И даже древней Т4, которую даже на коллабе никто особо не использует. p40/p100 настолько дешевые т.к иначе их даже на вторичке не сбыть ибо одна 3090 по цене 2х p40 с раз этак в 8 большей производительностью.
Зайдите на HuggingFace. Большиснтво локальных RP-файнтюнов это 4b-7b-14b-20b. Это учится локально и пользуется локально (порой даже на CPU). Это самый ходовой размер (до 35b т.к больше не влазит в 3090). Как и все модельки SD/Flux семейства с 1000 и 1 Lora.
На серьезные LLM никто и не замахивается. Но если все новые LLM и Image Gen модельки вдруг будут архитектурно под спец.железо, которое будет только по предзаказу у корпораций за 100500 шекелей - это убъет опен сорс/open weight на корню.
3090 стоит 700$ (б/у еще дешевле). Это не напряжно, это цена нормального смартфона. Современенные LLM приемлемого качества (и все модели для генерации изображений) запросто крутятся на это вполне себе потребительской карте 4-летней давности.
И на ней же учат 100500 лор для Stable Diffusion, и не меньшее колличество для 4-20b LLM-ок. Именно что пользотватели, не компании в датацентрах.
Опять же, как раз таки Quadro (в отличии от Tesla) у пользователей стояли, да и сейчас если в тематические сабреддиты залететь - у многих есть A5000/A6000.
Но вот если выпустят условный ASIC для нейронок, который будет отдельной приблудой со своей архитектурой, на который перенесут все новые более совершеннные модели (сделав непригодными для запуска/обучения на GPU или ином пользовательском домашнем оборудовании) и будут (кроме космических цен) отгружать этот самый ASIC только компаниям по предзаказам как сейчас с H100/B200 - это будет очень-очень грустно.
И, как обычно, речь практически 100% об ускорителях за over9999$ для корпораций (как и майнмнг девайсы), а не о потребительских дешевых устройствах в PCI-E слот, готовых прийти на смену дорогим видеокартам. А значит еще один способ отобрать у пользователя возможность запуска всяких там локальных расцензуренных Ллам, и загнать его в загончик с платным API от 2-3 корпораций...
Написать песню уровня лучших баллад столетия? Nein. Написать песню лучше современной российской поп-эстрады, в которой один куплет поется один раз и дальше зацикливается припев из двух фраз? Вообще на изи, еще и музыку подберет, и вокал, и исполнит.
Нарисовать художественную картинку, которую узкий круг эстетов, базируясь исключительно на своем субъективном "чустве прекрасного" сочтет шедевром на века? Врядли. Нарисовать картину лучше, чем 99% творчется на девианарте и сопоставимую с топовыми цифровыми пейзажами с Artstation (либо конкрутоспособную 80% NSFW-художников с патреона например) - запросто.
Написать стих, который западет в душу всем и каждому? Нет, но с этим и кожанные писатели не справляются. Написать гимн школы, речевку, шутливые вирши в юмаристический журнал, стих по заданию в школу, рифмованный текст на нужную тематику для загадки/лора в игре? Как нефиг.
Нейронка может это делать. Она не может это делать лучше чем 99% профессионально занимающихся этим людей, но уже вполне может (при должном подходе и навыке работы с ней), как ниже указали, делать сопоставимо с 80% тех, кто делает это в рамках своей рабочей/творческой деятельности (а не просто лучше 80% случайных обывателей).
Вообще так-то, чисто технически, GPT-4, отвечающая на ваши вопросы по API за шекели - зарабатывает деньги для Сэма своей деятельностью. В абсолютно автономном режиме, не требуя постоянного контроля и вмешательства в свою деятельность. Дополните её скриптом, который по приходу на почту счета от энергокомпании будет переводит на баланс энергокомпании указанную сумму (которую GPT прочтет из счета) с баланса, на который приходят шекели за API - и вот у вас уже ИИ сам трудится и сам оплачивает =)
Для того чтобы ИИ всё это делал - ему не обязательно быть субъектом и обладать волей. Он вполне может делать это, выполняя чью-то чужую волю, как любой нормальный раб.
Ну так и человек тоже не далеко ушел. Больше и сложнее + общего назначения. И всё.
1) А почему нам нужна цифровая нейронка, являющаяся именно полной и точной копией биологической (весьма, надо скаазать, не оптимальной и не сильно эффективной)? Сделать сеть с поведением кошки (питание, размножение, охота, свободные прогулки) можно и не дублируя стуруктуру мозга кошки.
2) Нейросеть может профессионально играть в Quake 3 и Dota 2, используя множетсво различного вооружения, перемещаясь по карте, собирая бонусы/предметы/артефакты и уничтожая себе подобных эффективными (и не типичными для кожаных игроков) способами. Чего, наприме, кошка не может. И делает сеть это не перебором всех возможных ходов (как любят вспоминать в контексте шахмат). Наглядный пример сети, делающей набор сложных активностей (перемещение, "охота", "питание" и улучшение своих параметров) для достижения конкретной цели случайным зависящим от текущей ситуации и окружения путем. Не сказал бы, что высокоуровневая активность кошки (т.е не управление внутренними органами, а +/- сознательная деятельность) прям таки катастрофически более сложная, чтобы нейросеть схожей с описанными архитектуры в синтетической среде, при задании нужный целей, стимулов и системы вознагрождений, не смогла её эмулировать".
А кто заставит? Если ИИ, допустим, будут делать не корпорации, а крупные государства? Например, правительства США и Китая. Кто именно сможет заставить эти страны и их правителтсва что-то там регулировать?
Развитый ИИ без ограничений - эффективнее и опаснее такого же, но ограниченного. Боюсь, скорее уж отказавшиеся в этом участвовать государства бомбами и санкциями загонят в неолит тех, кто повелся и сам себя ограничил, превратив их просто вы источник ресурсов для себя.
А может быть как раз именно к созданию комфортной и гуманистической среды и ведет? Просто люди боятся задумываться об ответе на вопрос "а что делать, когда это будет достигнуто и дальше не надо будет развиваться, двигать прогресс и что-либо вообще делать?"
Проводя аналогии с ММОRPG - когда в игре заканчивается контент, люди обычно из неё уходят, а не ищут чем себя в ней развлекать дальше =)