Ставите фреймлок на 90 и радуетесь ровному фреймтайму.
А на счет второй части - вам может и из 2010, а вот мне и моем 2024 на zotac 3090 даже в андервольте приходится фреймлок выставлять для легких игрушек т.к иначе при фрейрейте выше 140 — 92°+ на хотспоте и памяти на 300-320W и адский вой кулеров видяхи. А так - приятные 82-83 и всего лишь 77% оборотов... Корпус если что просторный от фракталов и везде вертушки 140 от be quite. И холодная ряженка на cpu. Но - zotac есть zotac.
1) Из ваших слов (даже если не вдаваться в реальность ваших цифр) следует буквально следующее: дешевый комп на рязани - в 2 РАЗА!! дороже компа на Xeon.
2) Я зашел провериь на WB. x99 доска + Xeon + 64gb DDR4 RAM стоит 22к. По сути весь комп в сборе. А также я проверил цену на чисто кит из 64gb DDR5 на том же WB - вы не поверите, внезапно самый дешевый - 20к. Т.е как весь комп на зеоне. + 16к на 7500f OEM (самый дешевый) + 10к за самую копеечную китайскую нонейм доску от maxsun уровня того же машиниста.
Т.е самый копеечный билд на 7500ф выходит в 2-2.5 раза дороже не самого копеечного варианта на зеоне (ибо они есть и дешевле). И при этом разница по факту далеко не 10к, если вы не про сборку с 8gb RAM, ибо DDR5 пока что стоит как крыло самолета.
Если денег девать некуда, можно конечно брать самое новое и быстрое, кто ж спорит то. Но для редких домашних поигрулек по вечерам (а они именно такие если вы не школьник с кучей времени и не киберкотлета) - так ли это действительно необходимо? Люди с консолей играют за такие деньги, а там ни графики ни фпс...
Можно конечно сказать про "возможность апгрейда чрез 3-5 лет", и для АМД это возможно даже справедливый и реалистичный сценарий в отличии от Intel, но даже тут есть такой тонкий момент, что через 3 года по цене апгрейда можно будет просто выкинуть старый зеон вместе с материнкой и взять новый (ибо сегодняшние севрера к тому моменту тоже по-списывают, а китайцы времени зря терять не станут).
Когда это разница между 120 и 170 фпс - разница уже не существенна, и то и другое играется одинаково, но со 120 видяха меньше греется и меньше жрет.
И в целом если фпс 60+ (для особых эстетов - 90+) насиловать видяху еще большим числом кадров - это только почем зря изнашивать оборудование и слушать вой кулеров.
А оно и не запрещает. Оно "настойчиво предлагает этого не делать, предупреждая о последствиях", ибо это вполне себе отключаемая опция в основных настройках смартфона.
Так что гугл вполне справедливо говорит "скачанное непойми что непойми откуда окажется опасным с большей вероятностью чем софт из Play Store" и не делает "сомнительные источники" опцией по-умолчанию. И не должен. Но, в отличии от Apple, ни коим образом (при даче добровольного сознательного согласия в процессе включения нужной опции) не препятствует.
Так что ваши претензии, уж простите, высосаны из пальца, как и продиктованные исключительной жадностью претензии Epic Games.
А то так можно дойти до того, что Google из жадности и сговора с мобильными операторами навязывает вам использование 4g вместо домашнего Wi-fi, т.к wifi тоже надо спевра руками включить в настройках...
Ну и до кучи на счет подобного, включенного по умолчанию:
Это не дырка, оно не само ставится, приложения ставит пользователь.
При вашем подходе поставит пользователь троян, и тот в автоматическом режиме никого не спрашивая накатит еще десяток криптолокеров и ботнетов, ибо "ну разрешено же ставить из сторонних источников без разрешения".
В то время как при текущем подходе и с Google Play автоматически софт не может другой софт ставить, и из сторонних оно при поптыке поставить выдаст юзеру плашку "слышь, разреши в настройках" и пока не включат разрешение поставиться не сможет, что уберегает от кучи проблем, даже если случайно какую малварь вытащил (даже если с google play).
Вы по сути предлагаете открыть широченные ворота для для троянов и руткитов.
Это словно сказать "не люблю эти китайские Redmi, остают от последнего iPhone". Вы сравнивайте продукты близких ценовых категорий. А это (в случае Xeon) в лучшем случая Ryzen 5-7 3x00 (и то они скорее всего почти в 2 раза дороже),
И вопрос тут стаивться иначе - а есть ли иные варианты сборки ПК схожей производительности на продаваемых в магазинах комплектующих за те же деньги + допустим 30% сверху? И внезапно окажется, что старенький (не такой уже к слову и старенький) зеон спокойно уделывает конкурентов из своей ценовой категории, с легкостью конкурирует с ценовой категорие чуть выше в игровых задачах, и может потягаться с еще более высокой категорией в рабочих. А еще на копеечных двухголовых материнках может за дешево дать 8 каналов ddr4 для CPU-инференса LLM =)
И тут уже задумываешься, а точно ли для десктопа бюджетная условно-актуальная рязань или Core лучше китайского зеона? Слабое место тут не проц. Тут слабое место китайская мать (в меньшей степени, если от неё странного не хотеть) и китайская ECC-память (в большей степени ибо вот это реально электронный мусор)
Охотно верю статье, вот прям охотно. Т.е ряженка 3600 на частотах 3.6-3.8 по всем ядрам чудесно тянет современные игры (например alan wake 2) упираясь в GPU, а Xeon на 4ггц +/- тех же годов уже не потянет. Ну-ну. Скорее уж идущая в комплекте "Память" от atermiter что-то не потянет.
И что это у вас за игры, которые в 2024 долбятся в одно ядро вместо нормального мультипотока? Ну, кроме Geekbench, он очевидно так себе игра, только для любителей меряться цифрами =)
Вы действительно не видите разницы между "в контроллируемую среду просочилось пару представителей малвари" и "установка рандомного трэша непонятного происхождения с рандомных источников из интернета по ссылке, которую пользователь кликнул в вайбере/ поп-ап-рекламе/ по требованию мошенника"? 90% вирусов даже на пк пользоватлей возникают по причине скачивания сомнительных вещей по сомнительным ссылкам из выдачи гугла вместо скачивания хотя бы с проверяемых торррентов... (при том что там тоже иногда есть малварь, но на порядок реже)
Если оно просто станет в N раз быстрее - в принципе не сильно скажется. Упирается всё в основном в объем VRAM (из которого вытекает скорее размер модели, а не скорость её обучения). Т.е модельки не станут жирнее, просто 7-35b можно будет учить 2 дня, а не 2 недели.
Тут бы для потребительского сегмента не столько мощные по чипу железки начать выпускать, сколько чистые ML-ускорители, т.е чипы состоящие из одних лишь CUDA-ядер (или более эффективных аналогов) вообще без видео-ядер, не мощный (чтобы ел и грелся не сильно), но с большим объемом быстрой многоканальной памяти. Современные модельки эффективно прожевывать может даже CPU, проблема лишь в скорости доступа к памяти, Apple M2/M3 и AMD Epyc с 8-channel DDR5 тому пример - они уже на уровне условной P40, только с машстабированием аж до 512 гб.
1) Откуда статистика? Если из стим - это не 0.55% пользователей, это 0,55% геймеров, что не тождественно. Для игр такая карта оверкил даже сейчас.
Смотрите целевую адиторию - пользователи генеративных нейронных сетей/ML энтузиасты. Если смотреть по всем людям в мире, а не целевым группам - можно вообще много до чего интересного досмотреться и прийти к мысли, что iPhone не нужны т.к наиболее популярны звонилки до 150$.
2) 3090 стоит 500-700$. Это дешевле айфона, с которым нынче каждый второй бегает. Проблема не в том, что её тяжело купить и это спец.девайс. Проблема в том, что (пока что) она мало кому была нужна сама по себе (не было задач + релизнулась в бум майнинга по чудовищному оверпрайсу). Бум генеративных ИИ пришелся на последние 3 года. LLM (юзабельных) - на последние полтора. Карточки просто еще не успели оказаться у своих потребителей. При этом ту же древнюю p40 на 24гб с ростом популярности LLM смели с ebay и Ali настолько быстро, что за пол года её цена выросла с 150 до 400$ и её (в отличии от p100) теперь хрен найдешь.
На Vast.ai в аренду 3090 на пользовательских машинах упали до цены аренды 3060, вытеснив их, что тоже вполне показатель.
Люди вкатываются в локальные нейронки. Причем не только бородаты IT-дяди, но и школьники/студенты. Ибо когда условная Replica/Character ai задалбывает цензурой за твои же деньги, а потом выясняется что всё то же можно поднять дома на своей 3060 и заставить говорить буквально что угодно по цене тарифа на электроэнегию - многие это пробуют и остаются.
Через пять лет эти сотки и двухсотки будут также на алике по 200баксов продаваться
Что-то я А100 до сих пор не вижу по разумным ценам. И даже древней Т4, которую даже на коллабе никто особо не использует. p40/p100 настолько дешевые т.к иначе их даже на вторичке не сбыть ибо одна 3090 по цене 2х p40 с раз этак в 8 большей производительностью.
Зайдите на HuggingFace. Большиснтво локальных RP-файнтюнов это 4b-7b-14b-20b. Это учится локально и пользуется локально (порой даже на CPU). Это самый ходовой размер (до 35b т.к больше не влазит в 3090). Как и все модельки SD/Flux семейства с 1000 и 1 Lora.
На серьезные LLM никто и не замахивается. Но если все новые LLM и Image Gen модельки вдруг будут архитектурно под спец.железо, которое будет только по предзаказу у корпораций за 100500 шекелей - это убъет опен сорс/open weight на корню.
3090 стоит 700$ (б/у еще дешевле). Это не напряжно, это цена нормального смартфона. Современенные LLM приемлемого качества (и все модели для генерации изображений) запросто крутятся на это вполне себе потребительской карте 4-летней давности.
И на ней же учат 100500 лор для Stable Diffusion, и не меньшее колличество для 4-20b LLM-ок. Именно что пользотватели, не компании в датацентрах.
Опять же, как раз таки Quadro (в отличии от Tesla) у пользователей стояли, да и сейчас если в тематические сабреддиты залететь - у многих есть A5000/A6000.
Но вот если выпустят условный ASIC для нейронок, который будет отдельной приблудой со своей архитектурой, на который перенесут все новые более совершеннные модели (сделав непригодными для запуска/обучения на GPU или ином пользовательском домашнем оборудовании) и будут (кроме космических цен) отгружать этот самый ASIC только компаниям по предзаказам как сейчас с H100/B200 - это будет очень-очень грустно.
И, как обычно, речь практически 100% об ускорителях за over9999$ для корпораций (как и майнмнг девайсы), а не о потребительских дешевых устройствах в PCI-E слот, готовых прийти на смену дорогим видеокартам. А значит еще один способ отобрать у пользователя возможность запуска всяких там локальных расцензуренных Ллам, и загнать его в загончик с платным API от 2-3 корпораций...
Написать песню уровня лучших баллад столетия? Nein. Написать песню лучше современной российской поп-эстрады, в которой один куплет поется один раз и дальше зацикливается припев из двух фраз? Вообще на изи, еще и музыку подберет, и вокал, и исполнит.
Нарисовать художественную картинку, которую узкий круг эстетов, базируясь исключительно на своем субъективном "чустве прекрасного" сочтет шедевром на века? Врядли. Нарисовать картину лучше, чем 99% творчется на девианарте и сопоставимую с топовыми цифровыми пейзажами с Artstation (либо конкрутоспособную 80% NSFW-художников с патреона например) - запросто.
Написать стих, который западет в душу всем и каждому? Нет, но с этим и кожанные писатели не справляются. Написать гимн школы, речевку, шутливые вирши в юмаристический журнал, стих по заданию в школу, рифмованный текст на нужную тематику для загадки/лора в игре? Как нефиг.
Нейронка может это делать. Она не может это делать лучше чем 99% профессионально занимающихся этим людей, но уже вполне может (при должном подходе и навыке работы с ней), как ниже указали, делать сопоставимо с 80% тех, кто делает это в рамках своей рабочей/творческой деятельности (а не просто лучше 80% случайных обывателей).
Если нет препятствий, чтобы нейронка сама (сама, именно сама) чего-то зарабатывала, то чего этого нет до сих пор. Все еще Сэм ходит, деньги просит у инвесторов. (в том числе на разработку видеокарт отличных от Кожанки)
Вообще так-то, чисто технически, GPT-4, отвечающая на ваши вопросы по API за шекели - зарабатывает деньги для Сэма своей деятельностью. В абсолютно автономном режиме, не требуя постоянного контроля и вмешательства в свою деятельность. Дополните её скриптом, который по приходу на почту счета от энергокомпании будет переводит на баланс энергокомпании указанную сумму (которую GPT прочтет из счета) с баланса, на который приходят шекели за API - и вот у вас уже ИИ сам трудится и сам оплачивает =)
Для того чтобы ИИ всё это делал - ему не обязательно быть субъектом и обладать волей. Он вполне может делать это, выполняя чью-то чужую волю, как любой нормальный раб.
ну и нейронки учат и что. Собсно нейронки это продвинутый калькулятор.
Ну так и человек тоже не далеко ушел. Больше и сложнее + общего назначения. И всё.
Вы опять про некое будущее рассуждаете. Кошки уже тысячи лет существуют. Нейронки, аналога кошки, нет вообще. И не предвидится в ближайшие годы.
1) А почему нам нужна цифровая нейронка, являющаяся именно полной и точной копией биологической (весьма, надо скаазать, не оптимальной и не сильно эффективной)? Сделать сеть с поведением кошки (питание, размножение, охота, свободные прогулки) можно и не дублируя стуруктуру мозга кошки. 2) Нейросеть может профессионально играть в Quake 3 и Dota 2, используя множетсво различного вооружения, перемещаясь по карте, собирая бонусы/предметы/артефакты и уничтожая себе подобных эффективными (и не типичными для кожаных игроков) способами. Чего, наприме, кошка не может. И делает сеть это не перебором всех возможных ходов (как любят вспоминать в контексте шахмат). Наглядный пример сети, делающей набор сложных активностей (перемещение, "охота", "питание" и улучшение своих параметров) для достижения конкретной цели случайным зависящим от текущей ситуации и окружения путем. Не сказал бы, что высокоуровневая активность кошки (т.е не управление внутренними органами, а +/- сознательная деятельность) прям таки катастрофически более сложная, чтобы нейросеть схожей с описанными архитектуры в синтетической среде, при задании нужный целей, стимулов и системы вознагрождений, не смогла её эмулировать".
А кто заставит? Если ИИ, допустим, будут делать не корпорации, а крупные государства? Например, правительства США и Китая. Кто именно сможет заставить эти страны и их правителтсва что-то там регулировать?
Государства, которые откажутся в этом учавствовать либо санкциями загонят в ХХвек либо ядерными бомбами в неолит.
Развитый ИИ без ограничений - эффективнее и опаснее такого же, но ограниченного. Боюсь, скорее уж отказавшиеся в этом участвовать государства бомбами и санкциями загонят в неолит тех, кто повелся и сам себя ограничил, превратив их просто вы источник ресурсов для себя.
А ведь технический прогресс может быть путём в сторону от создания комфортной и гуманистической среды обитания для человека.
А может быть как раз именно к созданию комфортной и гуманистической среды и ведет? Просто люди боятся задумываться об ответе на вопрос "а что делать, когда это будет достигнуто и дальше не надо будет развиваться, двигать прогресс и что-либо вообще делать?"
Проводя аналогии с ММОRPG - когда в игре заканчивается контент, люди обычно из неё уходят, а не ищут чем себя в ней развлекать дальше =)
А в чем выражается ценность например котиков? Они просто живут. Едят, спят, размножаются, и занимаются тем, что интересно исключительно им самим. Как и 99% прочих живых существ на земле независимо от степени разумности (от неё лишь зависит вариантивность и широта спектра занятий). Человек тоже будет просто жить. Есть, спасть, плодиться, гулять по улице, взаимодействовать с другими особями своего вида...
Все сложные конструкции типа работы и прочего существуют лишь потому, что для описанного нужны материальные блага, которые ограничены и которые надо как-то делить не по системе "я богатый господин и всё моё, а вы - рабы". Если ИИ решит эту проблему - можно будет просто жить. Так, как хочется, а не как вынуждены. Потому что когда делаешь вещи, которые хочется сделать - не стоит вопрос "а зачем?" (точнее ответ на него "потому что хочется"). Независимо от того, делает ли кто-то (включая ИИ) то же самое лучше.
Мы тоже не можем. Вспомните сны. Там почти все двери и лифты это порталы в лучшем случае в другую локацию (зачастую весьма деформированную), а в худшем чуть ли не в иной мир и преисподнюю.
Человек не представляет, что за дверью. Человек или помнит +/- точно, что именно там находится, или комбинирует что-то +/- подходящее из своей обучающей выборки (памяти) + какая-то часть мозга отвечает за проверку корректности такой комбинации (с оценкой вероятностей и вот это вот всё).
Для генеративных видео достаточно чуть лучше обучит модель, чуть более полно представить пограничные кейсы в обучающей выборке (убрав перекосы, ибо видосики из интернета - это нифига не универсальный набор охватывающий всё равномерно), чуть увеличить размер сети, и т.д. И будет она вам красиво и правдополобно рисовать что именно находится за дверью/в отражении зеркала/и т.д. Особенно если ей тоже прикрутить дополнительную модель проверки корректности новых токенов (т.е рефлексию, подобную той что в рассматриваемой в этом посте GPT-o1).
"может" где-то там в будущем. А кошки уже живут тысячи лет
Может и сейчас. Даже не совсем ИИ - робот пылесос достаточно успешно строит карты локаций и более-менее приемлемо перемещается по ним. ИИ в синетический средах может куда больше и куда лучше.
И никаких препятствий к тому, чтобы нейронка зарабатывала и оплачивала электричество тоже нет. Подключение к биржам, пара скрипитов проверки счетчика и переводов денег в определенные даты - и спокойно обойдется без кожаных.
Вы старательно игнорируете тот факт, что всему, что человек умеет, его изначально учат. И что кошки существовали не с момента сотвореня мира, а долгое (чудовищно долгое) время прогрессировали при помощи генетического алгоритма из одноклеточного объекта без какой либо свободы воли и интелекта, вся жизнедеятельность которого состояла из одной зацикленной программы.
Наличие интеллекта (неважно искуственного или естественного) не требует обязательного наличия свободы воли (и вообще самой воли как таковой). Да, сети не самостоятельны - они делают что-то только если им, грубо говоря, приказать. Но делают это именно они (пишут, рисуют), не человек.
Ставите фреймлок на 90 и радуетесь ровному фреймтайму.
А на счет второй части - вам может и из 2010, а вот мне и моем 2024 на zotac 3090 даже в андервольте приходится фреймлок выставлять для легких игрушек т.к иначе при фрейрейте выше 140 — 92°+ на хотспоте и памяти на 300-320W и адский вой кулеров видяхи. А так - приятные 82-83 и всего лишь 77% оборотов... Корпус если что просторный от фракталов и везде вертушки 140 от be quite. И холодная ряженка на cpu. Но - zotac есть zotac.
1) Из ваших слов (даже если не вдаваться в реальность ваших цифр) следует буквально следующее: дешевый комп на рязани - в 2 РАЗА!! дороже компа на Xeon.
2) Я зашел провериь на WB. x99 доска + Xeon + 64gb DDR4 RAM стоит 22к. По сути весь комп в сборе.
А также я проверил цену на чисто кит из 64gb DDR5 на том же WB - вы не поверите, внезапно самый дешевый - 20к. Т.е как весь комп на зеоне. + 16к на 7500f OEM (самый дешевый) + 10к за самую копеечную китайскую нонейм доску от maxsun уровня того же машиниста.
Т.е самый копеечный билд на 7500ф выходит в 2-2.5 раза дороже не самого копеечного варианта на зеоне (ибо они есть и дешевле). И при этом разница по факту далеко не 10к, если вы не про сборку с 8gb RAM, ибо DDR5 пока что стоит как крыло самолета.
Если денег девать некуда, можно конечно брать самое новое и быстрое, кто ж спорит то. Но для редких домашних поигрулек по вечерам (а они именно такие если вы не школьник с кучей времени и не киберкотлета) - так ли это действительно необходимо? Люди с консолей играют за такие деньги, а там ни графики ни фпс...
Можно конечно сказать про "возможность апгрейда чрез 3-5 лет", и для АМД это возможно даже справедливый и реалистичный сценарий в отличии от Intel, но даже тут есть такой тонкий момент, что через 3 года по цене апгрейда можно будет просто выкинуть старый зеон вместе с материнкой и взять новый (ибо сегодняшние севрера к тому моменту тоже по-списывают, а китайцы времени зря терять не станут).
Когда это разница между 120 и 170 фпс - разница уже не существенна, и то и другое играется одинаково, но со 120 видяха меньше греется и меньше жрет.
И в целом если фпс 60+ (для особых эстетов - 90+) насиловать видяху еще большим числом кадров - это только почем зря изнашивать оборудование и слушать вой кулеров.
А оно и не запрещает. Оно "настойчиво предлагает этого не делать, предупреждая о последствиях", ибо это вполне себе отключаемая опция в основных настройках смартфона.
Так что гугл вполне справедливо говорит "скачанное непойми что непойми откуда окажется опасным с большей вероятностью чем софт из Play Store" и не делает "сомнительные источники" опцией по-умолчанию. И не должен. Но, в отличии от Apple, ни коим образом (при даче добровольного сознательного согласия в процессе включения нужной опции) не препятствует.
Так что ваши претензии, уж простите, высосаны из пальца, как и продиктованные исключительной жадностью претензии Epic Games.
А то так можно дойти до того, что Google из жадности и сговора с мобильными операторами навязывает вам использование 4g вместо домашнего Wi-fi, т.к wifi тоже надо спевра руками включить в настройках...
Ну и до кучи на счет подобного, включенного по умолчанию:
При вашем подходе поставит пользователь троян, и тот в автоматическом режиме никого не спрашивая накатит еще десяток криптолокеров и ботнетов, ибо "ну разрешено же ставить из сторонних источников без разрешения".
В то время как при текущем подходе и с Google Play автоматически софт не может другой софт ставить, и из сторонних оно при поптыке поставить выдаст юзеру плашку "слышь, разреши в настройках" и пока не включат разрешение поставиться не сможет, что уберегает от кучи проблем, даже если случайно какую малварь вытащил (даже если с google play).
Вы по сути предлагаете открыть широченные ворота для для троянов и руткитов.
Это словно сказать "не люблю эти китайские Redmi, остают от последнего iPhone". Вы сравнивайте продукты близких ценовых категорий. А это (в случае Xeon) в лучшем случая Ryzen 5-7 3x00 (и то они скорее всего почти в 2 раза дороже),
И вопрос тут стаивться иначе - а есть ли иные варианты сборки ПК схожей производительности на продаваемых в магазинах комплектующих за те же деньги + допустим 30% сверху? И внезапно окажется, что старенький (не такой уже к слову и старенький) зеон спокойно уделывает конкурентов из своей ценовой категории, с легкостью конкурирует с ценовой категорие чуть выше в игровых задачах, и может потягаться с еще более высокой категорией в рабочих. А еще на копеечных двухголовых материнках может за дешево дать 8 каналов ddr4 для CPU-инференса LLM =)
И тут уже задумываешься, а точно ли для десктопа бюджетная условно-актуальная рязань или Core лучше китайского зеона? Слабое место тут не проц. Тут слабое место китайская мать (в меньшей степени, если от неё странного не хотеть) и китайская ECC-память (в большей степени ибо вот это реально электронный мусор)
Охотно верю статье, вот прям охотно. Т.е ряженка 3600 на частотах 3.6-3.8 по всем ядрам чудесно тянет современные игры (например alan wake 2) упираясь в GPU, а Xeon на 4ггц +/- тех же годов уже не потянет. Ну-ну. Скорее уж идущая в комплекте "Память" от atermiter что-то не потянет.
И что это у вас за игры, которые в 2024 долбятся в одно ядро вместо нормального мультипотока? Ну, кроме Geekbench, он очевидно так себе игра, только для любителей меряться цифрами =)
Вы действительно не видите разницы между "в контроллируемую среду просочилось пару представителей малвари" и "установка рандомного трэша непонятного происхождения с рандомных источников из интернета по ссылке, которую пользователь кликнул в вайбере/ поп-ап-рекламе/ по требованию мошенника"?
90% вирусов даже на пк пользоватлей возникают по причине скачивания сомнительных вещей по сомнительным ссылкам из выдачи гугла вместо скачивания хотя бы с проверяемых торррентов... (при том что там тоже иногда есть малварь, но на порядок реже)
Если оно просто станет в N раз быстрее - в принципе не сильно скажется. Упирается всё в основном в объем VRAM (из которого вытекает скорее размер модели, а не скорость её обучения). Т.е модельки не станут жирнее, просто 7-35b можно будет учить 2 дня, а не 2 недели.
Тут бы для потребительского сегмента не столько мощные по чипу железки начать выпускать, сколько чистые ML-ускорители, т.е чипы состоящие из одних лишь CUDA-ядер (или более эффективных аналогов) вообще без видео-ядер, не мощный (чтобы ел и грелся не сильно), но с большим объемом быстрой многоканальной памяти. Современные модельки эффективно прожевывать может даже CPU, проблема лишь в скорости доступа к памяти, Apple M2/M3 и AMD Epyc с 8-channel DDR5 тому пример - они уже на уровне условной P40, только с машстабированием аж до 512 гб.
1) Откуда статистика? Если из стим - это не 0.55% пользователей, это 0,55% геймеров, что не тождественно. Для игр такая карта оверкил даже сейчас.
Смотрите целевую адиторию - пользователи генеративных нейронных сетей/ML энтузиасты. Если смотреть по всем людям в мире, а не целевым группам - можно вообще много до чего интересного досмотреться и прийти к мысли, что iPhone не нужны т.к наиболее популярны звонилки до 150$.
2) 3090 стоит 500-700$. Это дешевле айфона, с которым нынче каждый второй бегает. Проблема не в том, что её тяжело купить и это спец.девайс. Проблема в том, что (пока что) она мало кому была нужна сама по себе (не было задач + релизнулась в бум майнинга по чудовищному оверпрайсу). Бум генеративных ИИ пришелся на последние 3 года. LLM (юзабельных) - на последние полтора. Карточки просто еще не успели оказаться у своих потребителей. При этом ту же древнюю p40 на 24гб с ростом популярности LLM смели с ebay и Ali настолько быстро, что за пол года её цена выросла с 150 до 400$ и её (в отличии от p100) теперь хрен найдешь.
На Vast.ai в аренду 3090 на пользовательских машинах упали до цены аренды 3060, вытеснив их, что тоже вполне показатель.
Люди вкатываются в локальные нейронки. Причем не только бородаты IT-дяди, но и школьники/студенты. Ибо когда условная Replica/Character ai задалбывает цензурой за твои же деньги, а потом выясняется что всё то же можно поднять дома на своей 3060 и заставить говорить буквально что угодно по цене тарифа на электроэнегию - многие это пробуют и остаются.
Что-то я А100 до сих пор не вижу по разумным ценам. И даже древней Т4, которую даже на коллабе никто особо не использует. p40/p100 настолько дешевые т.к иначе их даже на вторичке не сбыть ибо одна 3090 по цене 2х p40 с раз этак в 8 большей производительностью.
Зайдите на HuggingFace. Большиснтво локальных RP-файнтюнов это 4b-7b-14b-20b. Это учится локально и пользуется локально (порой даже на CPU). Это самый ходовой размер (до 35b т.к больше не влазит в 3090). Как и все модельки SD/Flux семейства с 1000 и 1 Lora.
На серьезные LLM никто и не замахивается. Но если все новые LLM и Image Gen модельки вдруг будут архитектурно под спец.железо, которое будет только по предзаказу у корпораций за 100500 шекелей - это убъет опен сорс/open weight на корню.
3090 стоит 700$ (б/у еще дешевле). Это не напряжно, это цена нормального смартфона. Современенные LLM приемлемого качества (и все модели для генерации изображений) запросто крутятся на это вполне себе потребительской карте 4-летней давности.
И на ней же учат 100500 лор для Stable Diffusion, и не меньшее колличество для 4-20b LLM-ок. Именно что пользотватели, не компании в датацентрах.
Опять же, как раз таки Quadro (в отличии от Tesla) у пользователей стояли, да и сейчас если в тематические сабреддиты залететь - у многих есть A5000/A6000.
Но вот если выпустят условный ASIC для нейронок, который будет отдельной приблудой со своей архитектурой, на который перенесут все новые более совершеннные модели (сделав непригодными для запуска/обучения на GPU или ином пользовательском домашнем оборудовании) и будут (кроме космических цен) отгружать этот самый ASIC только компаниям по предзаказам как сейчас с H100/B200 - это будет очень-очень грустно.
И, как обычно, речь практически 100% об ускорителях за over9999$ для корпораций (как и майнмнг девайсы), а не о потребительских дешевых устройствах в PCI-E слот, готовых прийти на смену дорогим видеокартам. А значит еще один способ отобрать у пользователя возможность запуска всяких там локальных расцензуренных Ллам, и загнать его в загончик с платным API от 2-3 корпораций...
Написать песню уровня лучших баллад столетия? Nein. Написать песню лучше современной российской поп-эстрады, в которой один куплет поется один раз и дальше зацикливается припев из двух фраз? Вообще на изи, еще и музыку подберет, и вокал, и исполнит.
Нарисовать художественную картинку, которую узкий круг эстетов, базируясь исключительно на своем субъективном "чустве прекрасного" сочтет шедевром на века? Врядли. Нарисовать картину лучше, чем 99% творчется на девианарте и сопоставимую с топовыми цифровыми пейзажами с Artstation (либо конкрутоспособную 80% NSFW-художников с патреона например) - запросто.
Написать стих, который западет в душу всем и каждому? Нет, но с этим и кожанные писатели не справляются. Написать гимн школы, речевку, шутливые вирши в юмаристический журнал, стих по заданию в школу, рифмованный текст на нужную тематику для загадки/лора в игре? Как нефиг.
Нейронка может это делать. Она не может это делать лучше чем 99% профессионально занимающихся этим людей, но уже вполне может (при должном подходе и навыке работы с ней), как ниже указали, делать сопоставимо с 80% тех, кто делает это в рамках своей рабочей/творческой деятельности (а не просто лучше 80% случайных обывателей).
Вообще так-то, чисто технически, GPT-4, отвечающая на ваши вопросы по API за шекели - зарабатывает деньги для Сэма своей деятельностью. В абсолютно автономном режиме, не требуя постоянного контроля и вмешательства в свою деятельность. Дополните её скриптом, который по приходу на почту счета от энергокомпании будет переводит на баланс энергокомпании указанную сумму (которую GPT прочтет из счета) с баланса, на который приходят шекели за API - и вот у вас уже ИИ сам трудится и сам оплачивает =)
Для того чтобы ИИ всё это делал - ему не обязательно быть субъектом и обладать волей. Он вполне может делать это, выполняя чью-то чужую волю, как любой нормальный раб.
Ну так и человек тоже не далеко ушел. Больше и сложнее + общего назначения. И всё.
1) А почему нам нужна цифровая нейронка, являющаяся именно полной и точной копией биологической (весьма, надо скаазать, не оптимальной и не сильно эффективной)? Сделать сеть с поведением кошки (питание, размножение, охота, свободные прогулки) можно и не дублируя стуруктуру мозга кошки.
2) Нейросеть может профессионально играть в Quake 3 и Dota 2, используя множетсво различного вооружения, перемещаясь по карте, собирая бонусы/предметы/артефакты и уничтожая себе подобных эффективными (и не типичными для кожаных игроков) способами. Чего, наприме, кошка не может. И делает сеть это не перебором всех возможных ходов (как любят вспоминать в контексте шахмат). Наглядный пример сети, делающей набор сложных активностей (перемещение, "охота", "питание" и улучшение своих параметров) для достижения конкретной цели случайным зависящим от текущей ситуации и окружения путем. Не сказал бы, что высокоуровневая активность кошки (т.е не управление внутренними органами, а +/- сознательная деятельность) прям таки катастрофически более сложная, чтобы нейросеть схожей с описанными архитектуры в синтетической среде, при задании нужный целей, стимулов и системы вознагрождений, не смогла её эмулировать".
А кто заставит? Если ИИ, допустим, будут делать не корпорации, а крупные государства? Например, правительства США и Китая. Кто именно сможет заставить эти страны и их правителтсва что-то там регулировать?
Развитый ИИ без ограничений - эффективнее и опаснее такого же, но ограниченного. Боюсь, скорее уж отказавшиеся в этом участвовать государства бомбами и санкциями загонят в неолит тех, кто повелся и сам себя ограничил, превратив их просто вы источник ресурсов для себя.
А может быть как раз именно к созданию комфортной и гуманистической среды и ведет? Просто люди боятся задумываться об ответе на вопрос "а что делать, когда это будет достигнуто и дальше не надо будет развиваться, двигать прогресс и что-либо вообще делать?"
Проводя аналогии с ММОRPG - когда в игре заканчивается контент, люди обычно из неё уходят, а не ищут чем себя в ней развлекать дальше =)
А в чем выражается ценность например котиков? Они просто живут. Едят, спят, размножаются, и занимаются тем, что интересно исключительно им самим. Как и 99% прочих живых существ на земле независимо от степени разумности (от неё лишь зависит вариантивность и широта спектра занятий). Человек тоже будет просто жить. Есть, спасть, плодиться, гулять по улице, взаимодействовать с другими особями своего вида...
Все сложные конструкции типа работы и прочего существуют лишь потому, что для описанного нужны материальные блага, которые ограничены и которые надо как-то делить не по системе "я богатый господин и всё моё, а вы - рабы". Если ИИ решит эту проблему - можно будет просто жить. Так, как хочется, а не как вынуждены. Потому что когда делаешь вещи, которые хочется сделать - не стоит вопрос "а зачем?" (точнее ответ на него "потому что хочется"). Независимо от того, делает ли кто-то (включая ИИ) то же самое лучше.
Мы тоже не можем. Вспомните сны. Там почти все двери и лифты это порталы в лучшем случае в другую локацию (зачастую весьма деформированную), а в худшем чуть ли не в иной мир и преисподнюю.
Человек не представляет, что за дверью. Человек или помнит +/- точно, что именно там находится, или комбинирует что-то +/- подходящее из своей обучающей выборки (памяти) + какая-то часть мозга отвечает за проверку корректности такой комбинации (с оценкой вероятностей и вот это вот всё).
Для генеративных видео достаточно чуть лучше обучит модель, чуть более полно представить пограничные кейсы в обучающей выборке (убрав перекосы, ибо видосики из интернета - это нифига не универсальный набор охватывающий всё равномерно), чуть увеличить размер сети, и т.д. И будет она вам красиво и правдополобно рисовать что именно находится за дверью/в отражении зеркала/и т.д. Особенно если ей тоже прикрутить дополнительную модель проверки корректности новых токенов (т.е рефлексию, подобную той что в рассматриваемой в этом посте GPT-o1).
Может и сейчас. Даже не совсем ИИ - робот пылесос достаточно успешно строит карты локаций и более-менее приемлемо перемещается по ним. ИИ в синетический средах может куда больше и куда лучше.
И никаких препятствий к тому, чтобы нейронка зарабатывала и оплачивала электричество тоже нет. Подключение к биржам, пара скрипитов проверки счетчика и переводов денег в определенные даты - и спокойно обойдется без кожаных.
Вы старательно игнорируете тот факт, что всему, что человек умеет, его изначально учат. И что кошки существовали не с момента сотвореня мира, а долгое (чудовищно долгое) время прогрессировали при помощи генетического алгоритма из одноклеточного объекта без какой либо свободы воли и интелекта, вся жизнедеятельность которого состояла из одной зацикленной программы.
Наличие интеллекта (неважно искуственного или естественного) не требует обязательного наличия свободы воли (и вообще самой воли как таковой).
Да, сети не самостоятельны - они делают что-то только если им, грубо говоря, приказать. Но делают это именно они (пишут, рисуют), не человек.