Это словно сказать "не люблю эти китайские Redmi, остают от последнего iPhone". Вы сравнивайте продукты близких ценовых категорий. А это (в случае Xeon) в лучшем случая Ryzen 5-7 3x00 (и то они скорее всего почти в 2 раза дороже),
И вопрос тут стаивться иначе - а есть ли иные варианты сборки ПК схожей производительности на продаваемых в магазинах комплектующих за те же деньги + допустим 30% сверху? И внезапно окажется, что старенький (не такой уже к слову и старенький) зеон спокойно уделывает конкурентов из своей ценовой категории, с легкостью конкурирует с ценовой категорие чуть выше в игровых задачах, и может потягаться с еще более высокой категорией в рабочих. А еще на копеечных двухголовых материнках может за дешево дать 8 каналов ddr4 для CPU-инференса LLM =)
И тут уже задумываешься, а точно ли для десктопа бюджетная условно-актуальная рязань или Core лучше китайского зеона? Слабое место тут не проц. Тут слабое место китайская мать (в меньшей степени, если от неё странного не хотеть) и китайская ECC-память (в большей степени ибо вот это реально электронный мусор)
Охотно верю статье, вот прям охотно. Т.е ряженка 3600 на частотах 3.6-3.8 по всем ядрам чудесно тянет современные игры (например alan wake 2) упираясь в GPU, а Xeon на 4ггц +/- тех же годов уже не потянет. Ну-ну. Скорее уж идущая в комплекте "Память" от atermiter что-то не потянет.
И что это у вас за игры, которые в 2024 долбятся в одно ядро вместо нормального мультипотока? Ну, кроме Geekbench, он очевидно так себе игра, только для любителей меряться цифрами =)
Вы действительно не видите разницы между "в контроллируемую среду просочилось пару представителей малвари" и "установка рандомного трэша непонятного происхождения с рандомных источников из интернета по ссылке, которую пользователь кликнул в вайбере/ поп-ап-рекламе/ по требованию мошенника"? 90% вирусов даже на пк пользоватлей возникают по причине скачивания сомнительных вещей по сомнительным ссылкам из выдачи гугла вместо скачивания хотя бы с проверяемых торррентов... (при том что там тоже иногда есть малварь, но на порядок реже)
Если оно просто станет в N раз быстрее - в принципе не сильно скажется. Упирается всё в основном в объем VRAM (из которого вытекает скорее размер модели, а не скорость её обучения). Т.е модельки не станут жирнее, просто 7-35b можно будет учить 2 дня, а не 2 недели.
Тут бы для потребительского сегмента не столько мощные по чипу железки начать выпускать, сколько чистые ML-ускорители, т.е чипы состоящие из одних лишь CUDA-ядер (или более эффективных аналогов) вообще без видео-ядер, не мощный (чтобы ел и грелся не сильно), но с большим объемом быстрой многоканальной памяти. Современные модельки эффективно прожевывать может даже CPU, проблема лишь в скорости доступа к памяти, Apple M2/M3 и AMD Epyc с 8-channel DDR5 тому пример - они уже на уровне условной P40, только с машстабированием аж до 512 гб.
1) Откуда статистика? Если из стим - это не 0.55% пользователей, это 0,55% геймеров, что не тождественно. Для игр такая карта оверкил даже сейчас.
Смотрите целевую адиторию - пользователи генеративных нейронных сетей/ML энтузиасты. Если смотреть по всем людям в мире, а не целевым группам - можно вообще много до чего интересного досмотреться и прийти к мысли, что iPhone не нужны т.к наиболее популярны звонилки до 150$.
2) 3090 стоит 500-700$. Это дешевле айфона, с которым нынче каждый второй бегает. Проблема не в том, что её тяжело купить и это спец.девайс. Проблема в том, что (пока что) она мало кому была нужна сама по себе (не было задач + релизнулась в бум майнинга по чудовищному оверпрайсу). Бум генеративных ИИ пришелся на последние 3 года. LLM (юзабельных) - на последние полтора. Карточки просто еще не успели оказаться у своих потребителей. При этом ту же древнюю p40 на 24гб с ростом популярности LLM смели с ebay и Ali настолько быстро, что за пол года её цена выросла с 150 до 400$ и её (в отличии от p100) теперь хрен найдешь.
На Vast.ai в аренду 3090 на пользовательских машинах упали до цены аренды 3060, вытеснив их, что тоже вполне показатель.
Люди вкатываются в локальные нейронки. Причем не только бородаты IT-дяди, но и школьники/студенты. Ибо когда условная Replica/Character ai задалбывает цензурой за твои же деньги, а потом выясняется что всё то же можно поднять дома на своей 3060 и заставить говорить буквально что угодно по цене тарифа на электроэнегию - многие это пробуют и остаются.
Через пять лет эти сотки и двухсотки будут также на алике по 200баксов продаваться
Что-то я А100 до сих пор не вижу по разумным ценам. И даже древней Т4, которую даже на коллабе никто особо не использует. p40/p100 настолько дешевые т.к иначе их даже на вторичке не сбыть ибо одна 3090 по цене 2х p40 с раз этак в 8 большей производительностью.
Зайдите на HuggingFace. Большиснтво локальных RP-файнтюнов это 4b-7b-14b-20b. Это учится локально и пользуется локально (порой даже на CPU). Это самый ходовой размер (до 35b т.к больше не влазит в 3090). Как и все модельки SD/Flux семейства с 1000 и 1 Lora.
На серьезные LLM никто и не замахивается. Но если все новые LLM и Image Gen модельки вдруг будут архитектурно под спец.железо, которое будет только по предзаказу у корпораций за 100500 шекелей - это убъет опен сорс/open weight на корню.
3090 стоит 700$ (б/у еще дешевле). Это не напряжно, это цена нормального смартфона. Современенные LLM приемлемого качества (и все модели для генерации изображений) запросто крутятся на это вполне себе потребительской карте 4-летней давности.
И на ней же учат 100500 лор для Stable Diffusion, и не меньшее колличество для 4-20b LLM-ок. Именно что пользотватели, не компании в датацентрах.
Опять же, как раз таки Quadro (в отличии от Tesla) у пользователей стояли, да и сейчас если в тематические сабреддиты залететь - у многих есть A5000/A6000.
Но вот если выпустят условный ASIC для нейронок, который будет отдельной приблудой со своей архитектурой, на который перенесут все новые более совершеннные модели (сделав непригодными для запуска/обучения на GPU или ином пользовательском домашнем оборудовании) и будут (кроме космических цен) отгружать этот самый ASIC только компаниям по предзаказам как сейчас с H100/B200 - это будет очень-очень грустно.
И, как обычно, речь практически 100% об ускорителях за over9999$ для корпораций (как и майнмнг девайсы), а не о потребительских дешевых устройствах в PCI-E слот, готовых прийти на смену дорогим видеокартам. А значит еще один способ отобрать у пользователя возможность запуска всяких там локальных расцензуренных Ллам, и загнать его в загончик с платным API от 2-3 корпораций...
Написать песню уровня лучших баллад столетия? Nein. Написать песню лучше современной российской поп-эстрады, в которой один куплет поется один раз и дальше зацикливается припев из двух фраз? Вообще на изи, еще и музыку подберет, и вокал, и исполнит.
Нарисовать художественную картинку, которую узкий круг эстетов, базируясь исключительно на своем субъективном "чустве прекрасного" сочтет шедевром на века? Врядли. Нарисовать картину лучше, чем 99% творчется на девианарте и сопоставимую с топовыми цифровыми пейзажами с Artstation (либо конкрутоспособную 80% NSFW-художников с патреона например) - запросто.
Написать стих, который западет в душу всем и каждому? Нет, но с этим и кожанные писатели не справляются. Написать гимн школы, речевку, шутливые вирши в юмаристический журнал, стих по заданию в школу, рифмованный текст на нужную тематику для загадки/лора в игре? Как нефиг.
Нейронка может это делать. Она не может это делать лучше чем 99% профессионально занимающихся этим людей, но уже вполне может (при должном подходе и навыке работы с ней), как ниже указали, делать сопоставимо с 80% тех, кто делает это в рамках своей рабочей/творческой деятельности (а не просто лучше 80% случайных обывателей).
Если нет препятствий, чтобы нейронка сама (сама, именно сама) чего-то зарабатывала, то чего этого нет до сих пор. Все еще Сэм ходит, деньги просит у инвесторов. (в том числе на разработку видеокарт отличных от Кожанки)
Вообще так-то, чисто технически, GPT-4, отвечающая на ваши вопросы по API за шекели - зарабатывает деньги для Сэма своей деятельностью. В абсолютно автономном режиме, не требуя постоянного контроля и вмешательства в свою деятельность. Дополните её скриптом, который по приходу на почту счета от энергокомпании будет переводит на баланс энергокомпании указанную сумму (которую GPT прочтет из счета) с баланса, на который приходят шекели за API - и вот у вас уже ИИ сам трудится и сам оплачивает =)
Для того чтобы ИИ всё это делал - ему не обязательно быть субъектом и обладать волей. Он вполне может делать это, выполняя чью-то чужую волю, как любой нормальный раб.
ну и нейронки учат и что. Собсно нейронки это продвинутый калькулятор.
Ну так и человек тоже не далеко ушел. Больше и сложнее + общего назначения. И всё.
Вы опять про некое будущее рассуждаете. Кошки уже тысячи лет существуют. Нейронки, аналога кошки, нет вообще. И не предвидится в ближайшие годы.
1) А почему нам нужна цифровая нейронка, являющаяся именно полной и точной копией биологической (весьма, надо скаазать, не оптимальной и не сильно эффективной)? Сделать сеть с поведением кошки (питание, размножение, охота, свободные прогулки) можно и не дублируя стуруктуру мозга кошки. 2) Нейросеть может профессионально играть в Quake 3 и Dota 2, используя множетсво различного вооружения, перемещаясь по карте, собирая бонусы/предметы/артефакты и уничтожая себе подобных эффективными (и не типичными для кожаных игроков) способами. Чего, наприме, кошка не может. И делает сеть это не перебором всех возможных ходов (как любят вспоминать в контексте шахмат). Наглядный пример сети, делающей набор сложных активностей (перемещение, "охота", "питание" и улучшение своих параметров) для достижения конкретной цели случайным зависящим от текущей ситуации и окружения путем. Не сказал бы, что высокоуровневая активность кошки (т.е не управление внутренними органами, а +/- сознательная деятельность) прям таки катастрофически более сложная, чтобы нейросеть схожей с описанными архитектуры в синтетической среде, при задании нужный целей, стимулов и системы вознагрождений, не смогла её эмулировать".
А кто заставит? Если ИИ, допустим, будут делать не корпорации, а крупные государства? Например, правительства США и Китая. Кто именно сможет заставить эти страны и их правителтсва что-то там регулировать?
Государства, которые откажутся в этом учавствовать либо санкциями загонят в ХХвек либо ядерными бомбами в неолит.
Развитый ИИ без ограничений - эффективнее и опаснее такого же, но ограниченного. Боюсь, скорее уж отказавшиеся в этом участвовать государства бомбами и санкциями загонят в неолит тех, кто повелся и сам себя ограничил, превратив их просто вы источник ресурсов для себя.
А ведь технический прогресс может быть путём в сторону от создания комфортной и гуманистической среды обитания для человека.
А может быть как раз именно к созданию комфортной и гуманистической среды и ведет? Просто люди боятся задумываться об ответе на вопрос "а что делать, когда это будет достигнуто и дальше не надо будет развиваться, двигать прогресс и что-либо вообще делать?"
Проводя аналогии с ММОRPG - когда в игре заканчивается контент, люди обычно из неё уходят, а не ищут чем себя в ней развлекать дальше =)
А в чем выражается ценность например котиков? Они просто живут. Едят, спят, размножаются, и занимаются тем, что интересно исключительно им самим. Как и 99% прочих живых существ на земле независимо от степени разумности (от неё лишь зависит вариантивность и широта спектра занятий). Человек тоже будет просто жить. Есть, спасть, плодиться, гулять по улице, взаимодействовать с другими особями своего вида...
Все сложные конструкции типа работы и прочего существуют лишь потому, что для описанного нужны материальные блага, которые ограничены и которые надо как-то делить не по системе "я богатый господин и всё моё, а вы - рабы". Если ИИ решит эту проблему - можно будет просто жить. Так, как хочется, а не как вынуждены. Потому что когда делаешь вещи, которые хочется сделать - не стоит вопрос "а зачем?" (точнее ответ на него "потому что хочется"). Независимо от того, делает ли кто-то (включая ИИ) то же самое лучше.
Мы тоже не можем. Вспомните сны. Там почти все двери и лифты это порталы в лучшем случае в другую локацию (зачастую весьма деформированную), а в худшем чуть ли не в иной мир и преисподнюю.
Человек не представляет, что за дверью. Человек или помнит +/- точно, что именно там находится, или комбинирует что-то +/- подходящее из своей обучающей выборки (памяти) + какая-то часть мозга отвечает за проверку корректности такой комбинации (с оценкой вероятностей и вот это вот всё).
Для генеративных видео достаточно чуть лучше обучит модель, чуть более полно представить пограничные кейсы в обучающей выборке (убрав перекосы, ибо видосики из интернета - это нифига не универсальный набор охватывающий всё равномерно), чуть увеличить размер сети, и т.д. И будет она вам красиво и правдополобно рисовать что именно находится за дверью/в отражении зеркала/и т.д. Особенно если ей тоже прикрутить дополнительную модель проверки корректности новых токенов (т.е рефлексию, подобную той что в рассматриваемой в этом посте GPT-o1).
"может" где-то там в будущем. А кошки уже живут тысячи лет
Может и сейчас. Даже не совсем ИИ - робот пылесос достаточно успешно строит карты локаций и более-менее приемлемо перемещается по ним. ИИ в синетический средах может куда больше и куда лучше.
И никаких препятствий к тому, чтобы нейронка зарабатывала и оплачивала электричество тоже нет. Подключение к биржам, пара скрипитов проверки счетчика и переводов денег в определенные даты - и спокойно обойдется без кожаных.
Вы старательно игнорируете тот факт, что всему, что человек умеет, его изначально учат. И что кошки существовали не с момента сотвореня мира, а долгое (чудовищно долгое) время прогрессировали при помощи генетического алгоритма из одноклеточного объекта без какой либо свободы воли и интелекта, вся жизнедеятельность которого состояла из одной зацикленной программы.
Наличие интеллекта (неважно искуственного или естественного) не требует обязательного наличия свободы воли (и вообще самой воли как таковой). Да, сети не самостоятельны - они делают что-то только если им, грубо говоря, приказать. Но делают это именно они (пишут, рисуют), не человек.
насколько можно доверять вычислениям, котрые нейросеть делает в процессе решения других задач
Вычислениям, если она вызывает код, предназначенный для математический операций, например калькулятор, для вычислений в процессе решения других задач (тем же образом, каким bing вызывает поиск для выбора информации) - можно верить почти на 100%.
А вот домыслам языковой модели в виде подстановки токенов, соотвествующих цифрам (не числам даже) - верить нельзя, ибо это просто игра в угадайку с успехом, зависящим ислючительно от обучающей выборки и настроек семплера, а не от (отсутсвующих у языковой модели) навыков счета.
У нее нет потребностей. Она не хочет жить или умереть, у нее нет инстинктов. У нее ничего живого нет. Это просто калькулятор, решающий наши, человеческие задачи.
Мы тоже лишь решаем природные биологические задачи. Следуя вполне четкой программе - тем самым инстинктам. Которые никто не мешает реализовать и для нейронок. Но зачем?
Человек работает не на магии, эфире, душе и что там еще есть. Мы просто белковая машина, всеми "душевными порывами" которой рулят нейромедиаторы т.е по большей части обычная химия. Эдакий белковый компьютер, у которого по скриптам и триггерам срабатывает производство нужных реактивов, запускающих иные программы и триггеры. Да - большой и сложный компьютер, до которого потребительским еще пилить и пилить. Но при этом далеко не самый эффективных архитектурно, и даже наши примитивные узкоспециализированные нейронки своей узкоспециализированной задаче учатся гораздо проще, дешевле и быстрее и делают её лучше чем большая универсальная белковая.
Ну не может нейронка написать 7-ю симфонию Шостаковича. Потому что она не жила в блокадном Ленинграде и нет у нее таких эмоций.
Вы упрекаете кремниевую нейронку в том, что она не может выдать результат, порожденный обучающей выборкой, которой у неё в датасете не было, но в датасете белковой нейронки была. Не надо так.
Если вы возьмете нулевую пустую белковую нейронку (человека, новорожденного), отрежете все сенсорные источники данных (лишив его всей обширной обучающей выбрки) и просто 10 раз покажете 100к картинок - он вероятнее всего вам вообще ни одну не нарисует (в отличии от нейронки). Про сифмонии и прочее я вообще молчу.
Весь человеческий "креатив" - следствие его обширной обучающей выборки. Все порожденные открытия, идеи и фантазии - взяты из внешних наблюдений, знаний и взаимосвязей и немного приправлены случайными активациями.
Слепо-глухо-немой с рождения человек без нервных окончаний (тактильной связи) ничего из это не породит, не прокормит себя и не оставит потомство. Т.к всему этому надо каким-то образом обучиться, а если никаких входных данных нет - на выходе тоже ничего толкового не будет. Ибо все эти знания человек не из астрала получает и не божественным вмешательством. И не производит исключительно внутри себя лишь своими мысленными усилиями. Если позволить обучиться нейронке подходящей архитектуры - она тоже сможет всё это.
Возрождение и рост рынка ретро-игр сделал его привлекательной целью для традиционных и цифровых преступников
Это так теперь называются энтузиасты, желающие сохранить цифровое наследие в виде старых игр, которые уже не производятся и не продаются? Исключительно благодаря этим "цифровым преступникам" собственно этот рост и возрождение и есть...
технология эмуляции ещё больше усугубила проблему, поскольку теперь практически любой имеет возможность превратить одноплатный компьютер в функциональную ретро-консоль с минимальными затратами.
Первыми должны пасть Sony, ибо их офциальная ретро-консоль - это буквально пиратский эмулятор с пиратскими же ромами.
Это словно сказать "не люблю эти китайские Redmi, остают от последнего iPhone". Вы сравнивайте продукты близких ценовых категорий. А это (в случае Xeon) в лучшем случая Ryzen 5-7 3x00 (и то они скорее всего почти в 2 раза дороже),
И вопрос тут стаивться иначе - а есть ли иные варианты сборки ПК схожей производительности на продаваемых в магазинах комплектующих за те же деньги + допустим 30% сверху? И внезапно окажется, что старенький (не такой уже к слову и старенький) зеон спокойно уделывает конкурентов из своей ценовой категории, с легкостью конкурирует с ценовой категорие чуть выше в игровых задачах, и может потягаться с еще более высокой категорией в рабочих. А еще на копеечных двухголовых материнках может за дешево дать 8 каналов ddr4 для CPU-инференса LLM =)
И тут уже задумываешься, а точно ли для десктопа бюджетная условно-актуальная рязань или Core лучше китайского зеона? Слабое место тут не проц. Тут слабое место китайская мать (в меньшей степени, если от неё странного не хотеть) и китайская ECC-память (в большей степени ибо вот это реально электронный мусор)
Охотно верю статье, вот прям охотно. Т.е ряженка 3600 на частотах 3.6-3.8 по всем ядрам чудесно тянет современные игры (например alan wake 2) упираясь в GPU, а Xeon на 4ггц +/- тех же годов уже не потянет. Ну-ну. Скорее уж идущая в комплекте "Память" от atermiter что-то не потянет.
И что это у вас за игры, которые в 2024 долбятся в одно ядро вместо нормального мультипотока? Ну, кроме Geekbench, он очевидно так себе игра, только для любителей меряться цифрами =)
Вы действительно не видите разницы между "в контроллируемую среду просочилось пару представителей малвари" и "установка рандомного трэша непонятного происхождения с рандомных источников из интернета по ссылке, которую пользователь кликнул в вайбере/ поп-ап-рекламе/ по требованию мошенника"?
90% вирусов даже на пк пользоватлей возникают по причине скачивания сомнительных вещей по сомнительным ссылкам из выдачи гугла вместо скачивания хотя бы с проверяемых торррентов... (при том что там тоже иногда есть малварь, но на порядок реже)
Если оно просто станет в N раз быстрее - в принципе не сильно скажется. Упирается всё в основном в объем VRAM (из которого вытекает скорее размер модели, а не скорость её обучения). Т.е модельки не станут жирнее, просто 7-35b можно будет учить 2 дня, а не 2 недели.
Тут бы для потребительского сегмента не столько мощные по чипу железки начать выпускать, сколько чистые ML-ускорители, т.е чипы состоящие из одних лишь CUDA-ядер (или более эффективных аналогов) вообще без видео-ядер, не мощный (чтобы ел и грелся не сильно), но с большим объемом быстрой многоканальной памяти. Современные модельки эффективно прожевывать может даже CPU, проблема лишь в скорости доступа к памяти, Apple M2/M3 и AMD Epyc с 8-channel DDR5 тому пример - они уже на уровне условной P40, только с машстабированием аж до 512 гб.
1) Откуда статистика? Если из стим - это не 0.55% пользователей, это 0,55% геймеров, что не тождественно. Для игр такая карта оверкил даже сейчас.
Смотрите целевую адиторию - пользователи генеративных нейронных сетей/ML энтузиасты. Если смотреть по всем людям в мире, а не целевым группам - можно вообще много до чего интересного досмотреться и прийти к мысли, что iPhone не нужны т.к наиболее популярны звонилки до 150$.
2) 3090 стоит 500-700$. Это дешевле айфона, с которым нынче каждый второй бегает. Проблема не в том, что её тяжело купить и это спец.девайс. Проблема в том, что (пока что) она мало кому была нужна сама по себе (не было задач + релизнулась в бум майнинга по чудовищному оверпрайсу). Бум генеративных ИИ пришелся на последние 3 года. LLM (юзабельных) - на последние полтора. Карточки просто еще не успели оказаться у своих потребителей. При этом ту же древнюю p40 на 24гб с ростом популярности LLM смели с ebay и Ali настолько быстро, что за пол года её цена выросла с 150 до 400$ и её (в отличии от p100) теперь хрен найдешь.
На Vast.ai в аренду 3090 на пользовательских машинах упали до цены аренды 3060, вытеснив их, что тоже вполне показатель.
Люди вкатываются в локальные нейронки. Причем не только бородаты IT-дяди, но и школьники/студенты. Ибо когда условная Replica/Character ai задалбывает цензурой за твои же деньги, а потом выясняется что всё то же можно поднять дома на своей 3060 и заставить говорить буквально что угодно по цене тарифа на электроэнегию - многие это пробуют и остаются.
Что-то я А100 до сих пор не вижу по разумным ценам. И даже древней Т4, которую даже на коллабе никто особо не использует. p40/p100 настолько дешевые т.к иначе их даже на вторичке не сбыть ибо одна 3090 по цене 2х p40 с раз этак в 8 большей производительностью.
Зайдите на HuggingFace. Большиснтво локальных RP-файнтюнов это 4b-7b-14b-20b. Это учится локально и пользуется локально (порой даже на CPU). Это самый ходовой размер (до 35b т.к больше не влазит в 3090). Как и все модельки SD/Flux семейства с 1000 и 1 Lora.
На серьезные LLM никто и не замахивается. Но если все новые LLM и Image Gen модельки вдруг будут архитектурно под спец.железо, которое будет только по предзаказу у корпораций за 100500 шекелей - это убъет опен сорс/open weight на корню.
3090 стоит 700$ (б/у еще дешевле). Это не напряжно, это цена нормального смартфона. Современенные LLM приемлемого качества (и все модели для генерации изображений) запросто крутятся на это вполне себе потребительской карте 4-летней давности.
И на ней же учат 100500 лор для Stable Diffusion, и не меньшее колличество для 4-20b LLM-ок. Именно что пользотватели, не компании в датацентрах.
Опять же, как раз таки Quadro (в отличии от Tesla) у пользователей стояли, да и сейчас если в тематические сабреддиты залететь - у многих есть A5000/A6000.
Но вот если выпустят условный ASIC для нейронок, который будет отдельной приблудой со своей архитектурой, на который перенесут все новые более совершеннные модели (сделав непригодными для запуска/обучения на GPU или ином пользовательском домашнем оборудовании) и будут (кроме космических цен) отгружать этот самый ASIC только компаниям по предзаказам как сейчас с H100/B200 - это будет очень-очень грустно.
И, как обычно, речь практически 100% об ускорителях за over9999$ для корпораций (как и майнмнг девайсы), а не о потребительских дешевых устройствах в PCI-E слот, готовых прийти на смену дорогим видеокартам. А значит еще один способ отобрать у пользователя возможность запуска всяких там локальных расцензуренных Ллам, и загнать его в загончик с платным API от 2-3 корпораций...
Написать песню уровня лучших баллад столетия? Nein. Написать песню лучше современной российской поп-эстрады, в которой один куплет поется один раз и дальше зацикливается припев из двух фраз? Вообще на изи, еще и музыку подберет, и вокал, и исполнит.
Нарисовать художественную картинку, которую узкий круг эстетов, базируясь исключительно на своем субъективном "чустве прекрасного" сочтет шедевром на века? Врядли. Нарисовать картину лучше, чем 99% творчется на девианарте и сопоставимую с топовыми цифровыми пейзажами с Artstation (либо конкрутоспособную 80% NSFW-художников с патреона например) - запросто.
Написать стих, который западет в душу всем и каждому? Нет, но с этим и кожанные писатели не справляются. Написать гимн школы, речевку, шутливые вирши в юмаристический журнал, стих по заданию в школу, рифмованный текст на нужную тематику для загадки/лора в игре? Как нефиг.
Нейронка может это делать. Она не может это делать лучше чем 99% профессионально занимающихся этим людей, но уже вполне может (при должном подходе и навыке работы с ней), как ниже указали, делать сопоставимо с 80% тех, кто делает это в рамках своей рабочей/творческой деятельности (а не просто лучше 80% случайных обывателей).
Вообще так-то, чисто технически, GPT-4, отвечающая на ваши вопросы по API за шекели - зарабатывает деньги для Сэма своей деятельностью. В абсолютно автономном режиме, не требуя постоянного контроля и вмешательства в свою деятельность. Дополните её скриптом, который по приходу на почту счета от энергокомпании будет переводит на баланс энергокомпании указанную сумму (которую GPT прочтет из счета) с баланса, на который приходят шекели за API - и вот у вас уже ИИ сам трудится и сам оплачивает =)
Для того чтобы ИИ всё это делал - ему не обязательно быть субъектом и обладать волей. Он вполне может делать это, выполняя чью-то чужую волю, как любой нормальный раб.
Ну так и человек тоже не далеко ушел. Больше и сложнее + общего назначения. И всё.
1) А почему нам нужна цифровая нейронка, являющаяся именно полной и точной копией биологической (весьма, надо скаазать, не оптимальной и не сильно эффективной)? Сделать сеть с поведением кошки (питание, размножение, охота, свободные прогулки) можно и не дублируя стуруктуру мозга кошки.
2) Нейросеть может профессионально играть в Quake 3 и Dota 2, используя множетсво различного вооружения, перемещаясь по карте, собирая бонусы/предметы/артефакты и уничтожая себе подобных эффективными (и не типичными для кожаных игроков) способами. Чего, наприме, кошка не может. И делает сеть это не перебором всех возможных ходов (как любят вспоминать в контексте шахмат). Наглядный пример сети, делающей набор сложных активностей (перемещение, "охота", "питание" и улучшение своих параметров) для достижения конкретной цели случайным зависящим от текущей ситуации и окружения путем. Не сказал бы, что высокоуровневая активность кошки (т.е не управление внутренними органами, а +/- сознательная деятельность) прям таки катастрофически более сложная, чтобы нейросеть схожей с описанными архитектуры в синтетической среде, при задании нужный целей, стимулов и системы вознагрождений, не смогла её эмулировать".
А кто заставит? Если ИИ, допустим, будут делать не корпорации, а крупные государства? Например, правительства США и Китая. Кто именно сможет заставить эти страны и их правителтсва что-то там регулировать?
Развитый ИИ без ограничений - эффективнее и опаснее такого же, но ограниченного. Боюсь, скорее уж отказавшиеся в этом участвовать государства бомбами и санкциями загонят в неолит тех, кто повелся и сам себя ограничил, превратив их просто вы источник ресурсов для себя.
А может быть как раз именно к созданию комфортной и гуманистической среды и ведет? Просто люди боятся задумываться об ответе на вопрос "а что делать, когда это будет достигнуто и дальше не надо будет развиваться, двигать прогресс и что-либо вообще делать?"
Проводя аналогии с ММОRPG - когда в игре заканчивается контент, люди обычно из неё уходят, а не ищут чем себя в ней развлекать дальше =)
А в чем выражается ценность например котиков? Они просто живут. Едят, спят, размножаются, и занимаются тем, что интересно исключительно им самим. Как и 99% прочих живых существ на земле независимо от степени разумности (от неё лишь зависит вариантивность и широта спектра занятий). Человек тоже будет просто жить. Есть, спасть, плодиться, гулять по улице, взаимодействовать с другими особями своего вида...
Все сложные конструкции типа работы и прочего существуют лишь потому, что для описанного нужны материальные блага, которые ограничены и которые надо как-то делить не по системе "я богатый господин и всё моё, а вы - рабы". Если ИИ решит эту проблему - можно будет просто жить. Так, как хочется, а не как вынуждены. Потому что когда делаешь вещи, которые хочется сделать - не стоит вопрос "а зачем?" (точнее ответ на него "потому что хочется"). Независимо от того, делает ли кто-то (включая ИИ) то же самое лучше.
Мы тоже не можем. Вспомните сны. Там почти все двери и лифты это порталы в лучшем случае в другую локацию (зачастую весьма деформированную), а в худшем чуть ли не в иной мир и преисподнюю.
Человек не представляет, что за дверью. Человек или помнит +/- точно, что именно там находится, или комбинирует что-то +/- подходящее из своей обучающей выборки (памяти) + какая-то часть мозга отвечает за проверку корректности такой комбинации (с оценкой вероятностей и вот это вот всё).
Для генеративных видео достаточно чуть лучше обучит модель, чуть более полно представить пограничные кейсы в обучающей выборке (убрав перекосы, ибо видосики из интернета - это нифига не универсальный набор охватывающий всё равномерно), чуть увеличить размер сети, и т.д. И будет она вам красиво и правдополобно рисовать что именно находится за дверью/в отражении зеркала/и т.д. Особенно если ей тоже прикрутить дополнительную модель проверки корректности новых токенов (т.е рефлексию, подобную той что в рассматриваемой в этом посте GPT-o1).
Может и сейчас. Даже не совсем ИИ - робот пылесос достаточно успешно строит карты локаций и более-менее приемлемо перемещается по ним. ИИ в синетический средах может куда больше и куда лучше.
И никаких препятствий к тому, чтобы нейронка зарабатывала и оплачивала электричество тоже нет. Подключение к биржам, пара скрипитов проверки счетчика и переводов денег в определенные даты - и спокойно обойдется без кожаных.
Вы старательно игнорируете тот факт, что всему, что человек умеет, его изначально учат. И что кошки существовали не с момента сотвореня мира, а долгое (чудовищно долгое) время прогрессировали при помощи генетического алгоритма из одноклеточного объекта без какой либо свободы воли и интелекта, вся жизнедеятельность которого состояла из одной зацикленной программы.
Наличие интеллекта (неважно искуственного или естественного) не требует обязательного наличия свободы воли (и вообще самой воли как таковой).
Да, сети не самостоятельны - они делают что-то только если им, грубо говоря, приказать. Но делают это именно они (пишут, рисуют), не человек.
Вычислениям, если она вызывает код, предназначенный для математический операций, например калькулятор, для вычислений в процессе решения других задач (тем же образом, каким bing вызывает поиск для выбора информации) - можно верить почти на 100%.
А вот домыслам языковой модели в виде подстановки токенов, соотвествующих цифрам (не числам даже) - верить нельзя, ибо это просто игра в угадайку с успехом, зависящим ислючительно от обучающей выборки и настроек семплера, а не от (отсутсвующих у языковой модели) навыков счета.
Мы тоже лишь решаем природные биологические задачи. Следуя вполне четкой программе - тем самым инстинктам. Которые никто не мешает реализовать и для нейронок. Но зачем?
Человек работает не на магии, эфире, душе и что там еще есть. Мы просто белковая машина, всеми "душевными порывами" которой рулят нейромедиаторы т.е по большей части обычная химия. Эдакий белковый компьютер, у которого по скриптам и триггерам срабатывает производство нужных реактивов, запускающих иные программы и триггеры.
Да - большой и сложный компьютер, до которого потребительским еще пилить и пилить. Но при этом далеко не самый эффективных архитектурно, и даже наши примитивные узкоспециализированные нейронки своей узкоспециализированной задаче учатся гораздо проще, дешевле и быстрее и делают её лучше чем большая универсальная белковая.
Вы упрекаете кремниевую нейронку в том, что она не может выдать результат, порожденный обучающей выборкой, которой у неё в датасете не было, но в датасете белковой нейронки была. Не надо так.
Если вы возьмете нулевую пустую белковую нейронку (человека, новорожденного), отрежете все сенсорные источники данных (лишив его всей обширной обучающей выбрки) и просто 10 раз покажете 100к картинок - он вероятнее всего вам вообще ни одну не нарисует (в отличии от нейронки). Про сифмонии и прочее я вообще молчу.
Весь человеческий "креатив" - следствие его обширной обучающей выборки. Все порожденные открытия, идеи и фантазии - взяты из внешних наблюдений, знаний и взаимосвязей и немного приправлены случайными активациями.
Слепо-глухо-немой с рождения человек без нервных окончаний (тактильной связи) ничего из это не породит, не прокормит себя и не оставит потомство. Т.к всему этому надо каким-то образом обучиться, а если никаких входных данных нет - на выходе тоже ничего толкового не будет. Ибо все эти знания человек не из астрала получает и не божественным вмешательством. И не производит исключительно внутри себя лишь своими мысленными усилиями.
Если позволить обучиться нейронке подходящей архитектуры - она тоже сможет всё это.
Это так теперь называются энтузиасты, желающие сохранить цифровое наследие в виде старых игр, которые уже не производятся и не продаются? Исключительно благодаря этим "цифровым преступникам" собственно этот рост и возрождение и есть...
Первыми должны пасть Sony, ибо их офциальная ретро-консоль - это буквально пиратский эмулятор с пиратскими же ромами.