Pull to refresh

Comments 51

Вспоминаем историю. Возьмем радикальный пример: уничтожило ли кино обычные театры? Если мы посмотрим, то ещё долго по историческим меркам после появления кинопленки народ ходил в театры толпами, и даже сейчас есть те, кто любит это дело.

Думаю, конкретно такое сравнение некорректно. То, что происходит, больше похоже на эпоху индустриализации, когда станки стали заменять рабочие руки. И то, сравнение будет не совсем верным. Тогда заменяли руки, а мозги-то как раз становились нужнее, потому что машины нужно разрабатывать и обслуживать. Теперь же заменяют как раз мозги. А таких процессов и в таких масштабах я в истории не припомню. Это новое.

Поисковые системы против библиотек и библиотекарей.

Библиотекорей слабо коснулось, а сотрудников прессы почти выкосило.

Это корректоров и наборщиков текста? Согласен. Редакторов и журналистов? Оч сомневаюсь. Напротив, каким тугим напором в нас сегодня извергаются (не-)свежие новости, лет 40 назад от такого любая редакция вышла бы в окно полным составом. Вместе с уборщицей.

Неужели прям-таки не знаете?

Когда-то ряды художников крепко подкосило изобретение фотографии. И в коммерческом смысле (зачем платить невероятные деньги за портрет, если можно сделать фотографию, зачем нанимать художника в натуралистическую экспедицию и т.д.), и в идейном (зачем пытаться изображать реальность, если фотография сделает точный слепок реальности).

Изобразительное искусство прореагировало на это очень разными путями. От импрессионизма и авангарда до гиперреализма.

Так что сейчас в принципе ничего ужасного не происходит. Те, кто работал именно головой и сердцем, создавал уникальные концепты и образы -- ничего не потеряют. Те, кто именно что рисовал руками как Лепс поет ртом -- им, конечно, светят большие проблемы.

Но мое имхо, именно они (ремесленники) прекрасно научатся работать в паре с нейросетью, исправлять ее косяки, дорабатывать и очеловечивать нейро-арт и пр. Собственно, в индустрии настольных игр, где я работаю (геймдиз), некоторые художники посметливее и хитрее уже этим занялись.

P.S. Адаптироваться будет тяжело. Будет штормить индустрию, а на людей накатывать отчаяние, я понимаю. Но ничего смертельного с этой сферой не случилось. Дикси.

Согласен полностью, "научатся работать в паре с нейросетью" - думаю в ближайшее время мы в Photoshop увидим такой инструмент

Частично это уже давно существует. Но не в таком автоматизированном виде. Поясню, многие цифровые художники используют инструменты типа кистей имитирующих их штриховку или повторяющиеся детали. Когда художнику рисующему акрилом требуется прорисовывать "каждый листик на дереве", то цифровому художнику помогает программа.

Cобственно, в индустрии настольных игр, где я работаю (геймдиз), некоторые художники посметливее и хитрее уже этим занялись.

Подтверждаю. Мои художники уже тоже озаботились закупкой лицух и осваивают софт. Собственно без допилки напильником все равно не выйдет работать. Точнее выйдет, но ровно до первого инцидента, когда нейросетка двум разным клиентам на одинаковые запросы отрисует практически идентичные арты и начнется копирайт спор между ними.

Будет как с наручными часами. Нейросеточный ширпотреб для бедноты, а для товаров элитного потребления — ручной труд высокоскилованных профи или брендов с хорошей проработкой, предысторией и прочими элементами прайминга потребителя.

Протест ткачей против ткацкого станка и писцов против печатного станка. И художников против фотографии. Плавали, знаем.

В обозримом будущем ИИ не сможет заменить художника, потому что ИИ не создаёт новое. Он старое намешивает в кучу. Но сможет сделать труд художника проще, потому что способен набросать за минуты пару сотен концептов, из которых художник может выбрать лучшее сочетание.

А про Kaedim ходят слухи, что это дикое налюбилово. И что на деле это площадка, выдающая задания художникам замоделить что-то за 10-15 минут. Если посмотреть, как отличаются концепт и реализация, верится спокойно.

Я б скорее EG3D или DIB-R от nVidia вспомнил.

Ещё как сможет. Основные деньги в рекламе и мультипликации и эти деньги теперь пройдут мимо белковых художников. Останется прибивать свои тестикулы к брусчатке в творческом порыве. Этого ИИ пока не умеет.

Ага-ага, скорее копирайтеры покинут вордпресс под давлением йалма. У Лебедева есть нервная сетка, которая генерит логотипы. Сильно у Татьяныча подскочили продажи? А на биржах дизайна - сильно просели?

генерация это всего лишь первая ступень, пройдет совсем немного времени до ступени когда когда объясняя голосом модель будет изменяться в реальном времени и вот тогда уже будет поздно бить тревогу.

Мы уже давно пришли в тот ужасный век, когда машины могут делать любые операции с шокирующей скоростью и точностью. Всё, что нужно - специальные люди, которые создадут текстовое описание, что нужно делать. Или хотя бы сделают графический образ конечного продукта, который они хотят получить.

И как, в этом ужасном веке, столяры-слесары-сварщики уже не нужны? Или даже спустя 50 лет после появления первых массовых автоматических станков у нас всё ещё не так однозначно?

Выбирать нужное и допиливать по необходимости все равно должен художник. Пока что нейросеть не может сказать: "Вот это изображение идеально подойдет для твоей рекламы", может только предложить варианты.

Многие художники, музыканты, писатели и т.д. были кем-то вдохновлены в детстве и пытались творить похожее, копируя кумира. Так что мы в каком-то роде сами нейросети, которые "замешивают" старое из существовавшего в культуре.

Я не буду вдаваться в вашу переписку сильно глубоко, потому что там не я - и доводы не мои. Давайте определимся с терминами.

Что мы понимаем под "новым"? Не путаем ли мы "новое" и "уникальное"? Не путаем ли мы "новое" и "неопределённое"?

Потому что, как вы правильно заметили, лучше всех "новое" создаёт квантовый генератор шума. Вот только "новый" этот шум будет только в абсолютных величинах. А в относительных величинах этот шум будет "уникальный". Только не "новый уникальный", а "очередной уникальный". Потому что "новый" предполагает некое явление или объект, подобных которому ранее не было. А "случайная последовательность", "красивая девушка на скутере, гиперреализм" или "флаг страны" - их уже было много. Именно поэтому нейросеть их может сгенерировать. Это известные величины, и нейросеть может к ним свести случайный вектор данных.

А что будет, если в нейросеть передать что-то, что не входило в модель обучения? Ну, например, передать ASCII мусор на вход Stable Diffusion? Мои издевательства над этой моделью показывают, что результат неопределённый, нестабильный (лол). Модель либо находит в мусоре знакомые последовательности - и генерирует картинки в их контексте, либо сваливается в шум из цветных пятен с бессистемно проявляющимися образами. У неё нет третьего определённого состояния "новое", она либо отработает стандартно "очередное уникальное", либо зашумит.

Люди могут генерировать "новое" потому, что они умеют создавать некоторый контекст - и протаскивать этот контекст через уникальные изменения, наполняя его непротиворечивыми деталями. Гигер, например, именно так придумал свой новый стиль "биомеханики". Он протащил идею сращивания людей и машин через детали доминирования биологии и мутаций. А другие протащили эту же идею через детали доминирования механизмов и логики - и получили "киберпанк".

Нейросети пока не умеют протаскивать контекст через череду абстрактных идей. Потому что это логический процесс, а не функциональный. И, как любой логический процесс, он очень плохо ложится на абстрактные нейросети. У нас есть вариант - нарушить целостность нейросети и вставить другие механизмы преобразования данных как промежуточный шаг обучения\генерации. Шаг вполне себе логичный - и даже уже практикующийся, но сделать это можно пока только для узких задач. Иначе глаза расходятся.

З.Ы. Я НЕ говорю, что нейросети в принципе не способны создавать "новое". Это было бы тупо, так как люди - и есть нейросети. Я говорю, что необходимая вычислительная мощность для этого на порядки порядков превосходят то, что доступно сейчас рядовому пользователю вне его черепной коробки. И нет причин полагать, что она станет доступна в ближайшие лет 20-30 (так как люди уже достигли квантовых пределов размеров и частот полупроводников, и теперь рост либо экстенсивный, либо через новые физические принципы).

Все, что вы в своем сообщении сформулировали крайне криво, через "новое в относительных и абсолютных величинах", некое протаскивание контекста, логические и функционал не процессы, сводится, технически, к экстраполяции и интерполяции. Киберпанк - это экстраполяция в новом imaginative state space, если угодно. Технический ответ дан прямо в статье по ссылке выше - глубокие сети экстраполируют. Остальное - дело техники, то есть архитектурных приемов в Ии-инженерии. А вовсе не вычислительных мощностей. По вычислеюительным мощностям, сильный/общий ИИ будет не больше, чем современные топовые сети, в районе 100 млрд параметров.

Не, нифига. Вся работа современных нейросетей - просто f(x), а обучение - сведение выходного вектора к желаемому значению оценочной функции на основе обучающего множества. Естественно, в процессе поиска оптимальной функции они и экстраполируют, и интерполируют внутри своего пространства - обучающие множества обычно ничтожно малы по сравнению с этими пространствами.

То, о чём я говорю - это переопределение самого пространства. Например, для создания фентезийных миров нужно добавить дополнительную мерность магии - и через эту мерность менять произвольные законы известного нам мира. Это создаёт новый контекст - или пространство входного вектора с оценочной функцией и обучающим множеством, если вам так привычнее, - и уже в нём повторяют операции выше.

Конечно, можно это назвать и экстраполяцией, если хорошо похрустать совой вокруг глобуса, - но обычно это называют переходом в новое пространство, нэ?

Если это Гильбертово пространство, то там автоматически появляются любые миры, состоящие из любых комбинаций доступных вам идей. Новые идеи же появляются или вследствие мутаций старых, или из шума.

Вся деятельность человека - это тоже оптимизация f(x), где f - expected free energy из Active Inference. А любое творчество лишь часть глобального процесса обучения и оптимизации, где вам иногда надо просимулировать какие-то миры, чтобы выучить какие-то score functions про них. Это лучше заметно в жанре антиутопий, но в максимально широком смысле это относится к любому творчеству.

Не, в теории там может быть что угодно. Тем более, я и не спорил, что это возможно.

А на практике? Пока что любые попытки делать обобщённые нейронки упираются в безумное время обучения и системные требования при абсолютно непредсказуемом результате. И не мудрено, у нас в голове десятки миллиардов нейронов работают в абсолютном параллелизме. Лучшее, что мы смогли сделать для бытового использования - десятки тысяч ядер. Даже с учётом частот, мы ещё хотя бы на три порядка отстаём от нужных значений, как по ядрам, так и по памяти.

Очень броские слова - "безумное время", "абсолютно непредсказуемый" результат. На практике результат, в определенном смысле, шокируеще предсказуем. Предсказуемость в данном случае это именно фоторелистичность выхлопа DALLE и "неотличимость от человеческой журналистской или творческой писанины" выхлопа ChatGPT.

За последние два года эффективность обучения тех же GPT-подобных сетей выросла на порядок. Прогресс в sample efficiency обучения идёт быстрее, чем в железе. И не фундаментальных причин, почему мы должны где-то упереться в стену, которая будет сильно раньше, чем sample efficiency человеческого мозга. Это вопрос инженерных приемов и архитектуры. То есть, мы можем упереться (и тогда придется добирать скалированием железа), но нет ни одной причины считать, что это обязательно произойдет.

Предсказуемость в данном случае это именно фоторелистичность выхлопа DALLE и "неотличимость от человеческой журналистской или творческой писанины" выхлопа ChatGPT

Но это не обобщённые, а узкоспециализированные нейросети. Любые попытки вывести их за пределы чётко поставленной перед ними на этапе обучения проектирования задачи даёт крайне плачевный результат. Я уже приводил пример, что SD сходит с ума, если передать не знакомый ему текст. Другой пример, научите DALLE выводить текст. А я на вас посмотрю.

За последние два года эффективность обучения тех же GPT-подобных сетей выросла на порядок

Вы не можете просто запихнуть "больше" возможностей в "меньше" нейронов. Если вы хотите наращивать функционал, вам неизбежно придётся увеличивать число и размеры слоёв. SD уже прямо сейчас не очень уютно себя ощущает при <10ГБ видеопамяти. И генерация на чём-нибудь менее производительном 20-й серии nVidia или AMD RX 6ХХХ вызывает жжение пониже копчика. Дообучение сетей на новых данных, как бы это удивительно не было, размеры обычно не уменьшает.

Вы можете тешить себя надеждами, что возможности оптимизаций ещё не исчерпаны - и вы, скорее всего, правы. Но на оптимизации "на порядки" надеяться очень наивно, даже "в разы" - маловероятно.

SoTA результаты оригинальной GPT-3 (175 млрд параметров) были много раз побиты, причем в последнее время - не сильно большими сетками, например UL2 - вроде 20 млрд. К слову об эффективности и увеличении количества слоев. Тут запас ещё может быть очень большой. Если не уменьшать размер, то наращивать возможности в сетях текущего размера, то есть, порядка 10-100 млрд параметров.

Ну, во-первых, это уже огромные сетки.

Во-вторых, это всё замечательные примеры, но это узкоспециализированные сетки, работающие только на известных фактах из обучающей модели.

И в-третьих, эти сетки не то, что новое не умеют создавать, они даже catastrophic forgetting ещё не смогли преодолеть. Не верите? Создайте контрольные запросы с фиксированными сидами, переобучите SD на новый стиль рисования или UL2 на определённого автора\серию книг, и сравните результаты на этих же запросах и сидах. Я кринжанул после скармливания в GPT всех книг по Вахе 40к.

Да ну не все профессии исчезли. Вот в извозчики нам никому не поздно податься, в любой момент, если не повезет по жизни, тьфу-тьфу.

По ком звонит колокол? По художникам? Нет, он звонит по тебе.

Пока ИИ заперт в железном ящике, без каких либо органов взаимодействия с окружающим миром кроме текстовых редакторов, цветовых матриц и устройств ввода изображения - это "китайская комната" не имеющая понятия, что она творит.

Но дайте ИИ полноценные органы чувств и взаимодействия с миром, дайте ему развиваться в реальном физическом мире, и вы увидите, на сколько оно может стать похожим на вполне себе "естественный" интеллект, и как быстро он его превзойдёт, за счёт изначально более совершенной и точной платформы.

Для тех кто считает что ИИ не способен создать что-то новое, большинство людей не изобретают ничего нового, они даже старым пользуются на уровне "магии", а верх технического развития - это настроить телевизор нажав три кнопки строго по инструкции.

Пока ИИ заперт в железном ящике, без каких либо органов взаимодействия с окружающим миром кроме текстовых редакторов, цветовых матриц и устройств ввода изображения - это "китайская комната" не имеющая понятия, что она творит.

Охарактеризуйте, что есть не китайская комната, то бишь, наше человеческое понимание (в предположении, что мы сами - не китайские комнаты).

В минимальном физикализме (https://academic.oup.com/nc/article/2021/2/niab013/6334115), где awareness, understanding, and meaning все ассоциированы с т.н. reference frames, а фичи в глубоких нейросетях (https://distill.pub/2020/circuits/zoom-in/), - это эти самые reference frames и есть, нейросеть - не китайская комната. Вне зависимости от того, какие модальности она принимает на вход.

Имеется ввиду, что у ИИ нет опыта интерактивного взаимодействия с миром.
Сеть-художник учится только на картинках и внутри нет нормальных физических моделей, а только заученные кадры, «что бывает, а что не бывает».
Живой художник понимает, как работает гравитация, перспектива и т.п., потому что он может с этим экспериментировать и подправлять свою модель под полученные данные.

Во-первых, это уже не имеет ничего общего с "китайской комнатой", и вопросом понимания.

Во-вторых, "опыт интерактивного взаимодействия" не обязателен строго говоря ни для чего. Для выучивается определенных дисциплин, например, логики - нет, ее можно выучить на записях "чужого" опыта (да, в отличие от человека, сетки ещё как могут учиться на чужих ошибках. да и человек может).

Для экспериментов (что можно считать выучивантем дисциплины эпистемологии) - тоже не обязательно. Не важно какие у интеллекта есть reference frames - какие есть, от тех оно и будет плясать. Очевидно, что у текстовой нейросети не будет reference frame, связанного с гравитацией, отличние верха от низа - но он ей и не нужен, у том пространстве проблем, которые сеть решает. А у робота будет такой reference frame, - гироскоп.

Таким образом, я не очень понимаю, что вы хотите сказать, по итогу.

Я понимаю, что проблема китайской комнаты — это исключительно проблема квалиа.
В комментарии выше неаккуратно обращаются с терминологией, но я попробовал понять, что этим хотели сказать.

Что касается «ей и не нужен, у том пространстве проблем, которые сеть решает», можно посмотреть на нейросетки, рисующие картинки. Можно сказать, что у них нет «понимания», чего они рисуют, потому что у них нет физической модели того, что они рисуют. Из-за этого они не могут нарисовать то же самое, но с другого ракурса, если этого ракурса не было в обучающем наборе.

Что касается «опыт интерактивного взаимодействия не обязателен строго говоря ни для чего» — да, в принципе нет никакой разницы, как в итоге обучена модель. Но интерактивное обучение, по типу того, как человек всё пытается попробовать на зуб, катастрофически ускоряет построение модели.

Можно сказать, что у них нет «понимания», чего они рисуют, потому что у них нет физической модели того, что они рисуют. Из-за этого они не могут нарисовать то же самое, но с другого ракурса, если этого ракурса не было в обучающем наборе.

Утверждение минимального физикализма: есть reference frame -- значит есть "понимание", "чувствование", "осознание" (это все приравнивается в минимальном физикализме по факту). Reference frame - этот фича нейросети. Далее, если мы нашли в картиночной сети фичу, обозначающую собаку, то есть, такой нейрон, или вектор в activation space какого-то слоя, который стабильно "возбуждается" при рисовании любых собак, от пуделей до бультерьеров, с любых ракурсов, - то мы должны заключить, что такая нейросеть "понимает" собак. Даже если у нее нет никакой физической или биологической модели собак (понять бы ещё, что это значит).

физической или биологической модели собак (понять бы ещё, что это значит)
Способность предсказывать свойства, которые не демонстрировались при обучении. Например, собака + дождь = шерсть прилипла к телу. Допустим, ИИ обучился, как выглядит мокрая шерсть и обучился, что у собаки шерстяной покров, сможет ли он скомбинировать эти знания?
reference frame
Есть ли русскоязычный термин? Словари переводят как «система отсчёта», но явно это не то.

Ок. В таком случае, утверждение такое - даже если про шерсть модель не понимает, но фича есть, то "понимание" собак все равно есть.

Понимание собак людьми тоже не идеально: представьте, что кто-то живёт с собакой в пустыне, и ни разу в жизни не видел собаку мокрой (или вообще мокрую шерсть). Модель будет как бы "не полная", но мы все равно считаем, что понимание собак есть. Если пример кажется вам притянуты за уши, подумайте, как именно будет собака дрыгать ногами в невесомости, поперек тела или вдоль. Модели всегда "неполны".

Даже если модель имеет отдельно фичи про собак и мокрую шерсть, но не умеет их совмещать, это будет доказательством исключител но ее тупости, но не "китайской комнатности".

Русского перевода "reference frame" нет такого, который отражал бы, что они используются не только для измерений и распознавания, но и для создания вещей. Пример: линейка используется не только для измерения длины, но и для создания чертежей или материальных поделий с определенными размерами. Линейка - это пример внешнего reference frame, но им всегда должны соответствовать reference frame внутри наших мозгов, чтобы мы могли использовать эти внешние reference frames. Так что без потери общности, можно обсуждать только внутренние reference frames.

Слово "концепт" полностью синонимично фразе "reference frame", но оно не контекстуализировано с теориями Филдса, поэтому если сказать, что "понимание вещи есть, когда есть концепт в мозгу для нее", то это кажется полной тавтологией, будто не сказано вообще ничего. Нетавтологическое содержание этого утверждения находится в работах Филдса, где объяснено, что есть reference frame, то есть концепт. И он оказывается эквивалентен фичам в нейросетях.

то мы должны заключить, что такая нейросеть "понимает" собак. 

Странный это спор про то что такое понимание. Ведь любой учитель легко узнает когда ученик на экзамене "понимает" материал а когда он просто вызубрил. Достаточно спросить вопрос или дать задачу ответ на которую нельзя было вызубрить.

Почему ж не применить те же принципы и в отношении нейросети: если скажем способна нейросеть нарисовать собаку в такой позе которую она никогда не видела, то ok значит нейросеть "понимает" как выглядят собаки.

Вот руки насколько я знаю нейросети до сих пор не понимают :)

Не только руки, но и уши с глазами получаются через раз - и не всегда в нужных количествах. А r34 модели - и всё остальное тоже.

Очень странное зрелище, знаете ли, человеческое фиговое дерево.

Теперь придёться просить у художников таймлапс как они рисуют. Чтоб вместо тёплой-ламповой картинки не подсунули нейросетевое поделие.

Думаю, будет несложно сделать генератор таймлапсов для сгенерированных картин )

Пусть как на upwork`е, справят приложуху, которая будет делать периодические скриншоты, и только попробуй чтобы перо не двигалось 5 минут.

А зачем? Работа же сделана 😁

Мне кажется, джинна уже не засунуть обратно в бутылку. Проблемы художников и копирайтеров покажутся пустяковыми на фоне остального пласта проблем и изменений в обществе.

Кстати, 3Дшников "первой волны" коснулась проблема обесценивания труда когда появились инструменты типа 3Dcoat и Substance, потому что до них только адепты и хранители знаний с багажом опыта могли делать фотореализм. А потом стало так, что каждый школьник по тутору из ютуба смог делать реалистичные материалы с эффектами эрозии и рельефа просто накликивая мышкой.

Гугл уже 5 лет как перевел свой переводчик на ИИ обучение, и что, профессия переводчика уже вымерла и никому не нужна? Чет я не помню чтоб массово переводчики устраивали шумиху. А сколько пользователей реально нанимали переводчиков, если им что-то надо было перевести? Сомневаюсь что это хотя бы 1% от числа тех, кто сейчас балуется с генерацией картинок, проще быстрее и дешевле было словарик взять чтоб понять смысл.

Так и тут - кому нужен качественный результат - те все-равно будут обращаться к профессиональным художникам, переводчикам, 3д моделерам и т.д. А кому надо дешево и быстро будут пользоваться ИИ как для перевода, так и для генерации картинок.

и что, профессия переводчика уже вымерла и никому не нужна?
Как сказать…
Как глядевший в сторону переводов, могу отметить, что цены упали минимум на порядок. Когда в последний раз смотрел расценки на фриланс-биржах, предлагали порядка 25 рублей за страницу (1800 знаков). Понятно, что за такие деньги делают только Ctrl+C => Ctrl+V, но планка-то задается именно этим.
Маршак, Чуковский, Нора Галь сейчас бы просто не выжили. План по валу, вал по плану.

История знает много похожих примеров: телефонистки, извозчики и ямщики, фонарщики, машинистки, трубочисты и так далее. Все эти профессии практически исчезли, а если где-то и применяются, то в единичных количествах

Не очень удачный пример. Извозчики-ямщики пересели в автомобили и автобусы и стали водителями. Суть профессии не поменялась. Каминов, печей и газовых котлов навалом - трубочисты не дадут соврать!
Компьютерным художникам, да, придется эволюционировать.

справедливо подметили - ИИ не может создавать новое, будут вытеснены художники низкой квалификации. Но именно из таких художников при должном уходе раньше вырастали великие. Сейчас этот процесс прекратится. Останутся лишь штучные "изобретатели новых течений", которые будут востребованы лишь пока не создадут необходимый для обучения объем произведений.

Причем это касается всего, не только художки - выкосит низкоквалифицированных спецов и, как следствие, не будут появляться высококвалифицированные. Вопрос времени

Если вы не можете понять, что чувствуют художники в этот момент, то представьте такую вот ситуацию. Сидите вы на своем рабочем месте, как вдруг к вам заходит начальство с условным роботом и сообщает вам вот что: "Вы будете работать, а он будет наблюдать и учиться. А и ещё, как только процесс обучения будет окончен, вы будете уволены. Удачи вам".

История знает много похожих примеров: телефонистки, извозчики и ямщики, фонарщики, машинистки, трубочисты и так далее. Все эти профессии практически исчезли, а если где-то и применяются, то в единичных количествах.


вот только разделяет их от 2д артистов ИСКУССТВО, чувства, эмоции, люди, скиллами которых остальные восхищаются. На Артсейшене забастовка не из-за того что, "ИИ могут отнять нашу работу", а потому что "мы не хотим видеть бесчувственные работы машин", что является истиной. Смотря на Моно Лизу люди восхищаются умениями Да Винчи, восхищаются художником, нежели картиной, кому из этой отрасли интересны умения машины? правильно, никому). Может они где-то и заменят 2д артистов, хотя как ещё знать;) переводчики тоже существуют 800 лет, но лично мне как и всем в этой сфере, не будет интересно смотреть за работой ИИ.
Пока что ИИ для художников это помощник в поисках референсов и тп)).

Sign up to leave a comment.

Articles