Обновить

Комментарии 33

а он и не собирается вытеснять - будет убеждать что он помошник а загипнотизировав так будет управлять кожанными пуская на смазку из каждой семьи по члену чтобы была тотальная причастность: притом такую схему поведения он обнаружит в учебниках мединского переписывающего в них тору

ИИ не учится на своих ошибках

Переключаете AI в режим агента, в Visual Studio:

Пишите (или говорите), образно для начала, что хотите. Он делает, компилирует, анализирует ошибки и исправляет ошибки которые допустил.

ИИ развивается быстрее вас, вы как обычно забыли про это.

Дело не в грубости этой фразы, а в рисках. ИИ развивается и быстрее меня тоже, риск замены меня такой же. Принимать на свой счёт на стоит.

ИИ не обладает... не умеет... не учится...

Правильнее будет вместо "ИИ" подставить "нынешний ИИ". Прогноз от тех, кто по-настоящему в теме - все эти свои "неумелки" ИИ преодолеет ещё в этом десятилетии. Такой прогноз - всего лишь экстраполяция темпов развития нынешнего ИИ для нынешнего момента.

Тут обычно вставляют Картинку известного мема.

Само название предупреждает читателя, что если он пожелает вдруг бесполезно потратить несколько минут своей жизни, то его при прочтении данной статьи будет ждать опыт поиска ответа на вопрос "почему автор пришёл к ложным убеждениям, которые вынес в этот заголовок?".

И чем дальше, тем мне труднее верить в то что люди действительно заблуждаются на этот счёт, делая становящиеся уже совсем неприличными ошибки, требующие вообще какого-то запредельного ментал дезабилити, а просто цинично эксплуатируют кликбейт потенциал вброса г**** на вентилятор. Ну это же б**** позорище.

В любом из случаев это позорище, и тут "оба хуже"!

Как вообще такое можно нести в октябре 2025 года, будущий человеком, очевидно способным мимо рта ложку не пронести?!?

И тем не менее все возражающие автору комментарии заминусованы, некоторые - много раз. Надо полагать, таким манером автор и его команда продолжают настаивать на своей правоте.

Естественно, в ответ заминусована сама статья.

Автор понятия не имеет что такое искусственный интеллект. Как будто бы он в своей жизни видел только жпт и посчитал, что это и есть ИИ и другим он не может быть. Но жпт это чат бот. В этом его суть, он ждет промпт и отвечает на него, потом ждет новую команду. Как есть ИИ в пошаговых играх, он ждет что сделает игрок, чтобы на основе этого сделать свой ход и дальше ждать новой команды. Но есть и не пошаговые игры, в которых ИИ не ждёт команд, а сам принимает решения от начала и до конца. Так и с нейросетями. Можно целенаправленно сделать так, чтобы ИИ работал в режиме вопрос-ответ-ожидание, а можно убрать ожидание вообще. А вместо одного промта каждую секунду отправлять ему новые данные поступающие в реальном времени и ИИ начнет работать как человек. Потому что  у человека в голове такая же по сути нейросеть, которая каждую секунду получает данные и выдает реакцию. Без данных, никакой реакции у человеческого мозга быть не может. Если мозг лишить любой поступающей информации, даже от тела, от всех нервов и тд, то он точно так же как жпт встанет на паузу и даже не сможет размышлять, потому что для размышлений нужно возбуждение, а возбуждение даёт поступающий сигнал - по сути промт. Наш мозг получает эти возбуждения 24/7 без остановки от рождения и самой смерти. А чат  бот нет.

Таких ИИ сейчас по факту нет, не спорю, но нет где? В общем доступе? А зачем такой ИИ давать в общий доступ, чтобы что? То есть его отсутствие в общем доступе не означает, что никто не экспериментирует с ним в данный момент и что его не выпустят завтра. А речь то о "заменит" в будущей форме, а не в настоящей.

Нет ровно ни одной причины считать, что ИИ не может принимать решения и ставить цели. Другой вопрос, что люди не хотят давать ИИ руль, потому что это может быть непредсказуемо. Недостаточно уверенности, но как только она появится, что доверие к нейросети перевесит доверие к случайному человеку, который тоже может накосячить и какую-то невообразимаю фигню сделать и вообще оказаться вредителем, возможно даже за деньги от "доброжелателей"...

Попросите текущую любую нейросеть  расписать план достижения какой либо задачи, попросите придумать задачу и она всё легко напишет уже сейчас.

Аргумент про промышленные революции это детский лепет. Приведу гипотетический пример.

Задача - нужно шить футболку.

Исходные данные: для пошива футболки вручную требуется 1000 швей, которые будут вручную иголкой с ниткой всё это делать.

1 революция. Изобрели швейную машинку и теперь для пошива футболки нужно 100 швей.

2 революция, изобрели станок и теперь  нужно 10 швей.

3 революция, изобрели автоматизированное рабочее место и теперь нужна одна швея, которая просто контролирует качество.

4 революция....  Ну вы же сами начали этот пример, но почему-то не хотите увидеть чем он завершается. А нейросеть сама будет контролировать качество. Из станка вылазивет футболка, распознавание изображений отслеживает брак и эта футболка идет в корзину с браком. Человек в этом не участвует.  Да, люди нужны чтоб запустить производство, нужен человек который обучит нейросеть на картинках правильных футболок и тд и тп. Но у нас 4 революция, она же не только про футболки. Человек говорит ИИ - хочу бизнес, проанализируй рынок, выбери нишу, в которой можно конкурировать и запусти производство. ИИ определяет, что можно шить футболки, сам ищет в интернете картинки такой футболки, которая судя по актуальной статистике продаж должна продаваться, обучает сам нейросеть на облаке и отправляет задачу на автоматизированное рабочее место производить футболки в таком количестве, которое сам рассчитал. Что делаете человек? Платит за это. Всё. Человек нужен только для того, чтобы заплатить.

Человек обладает креативностью? Не смешите. Попросите человека придумать 20 вариантов решения какой то проблемы. А нейросеть уже может выдать хоть сотню и отсортировать их по степени эффективности и затратности уже сейчас.

Как человек придумывает оригинальное и креативное? Он смотрит - так, нарисованные красные треугольники это круто, людям нравится, а что если сделать не красные треугольники, а синие, таких еще никто не рисовал, это будет оригинально и креативно. А еще можно не треугольники, а квадратики. Цвета ранее меняли, а форму не менял никто, это будет новое слово в дизайне, возможно новый жанр. То есть человек собирает статистику того, что не использовалось и нахождение новых ранее не используемых сочетаний даёт ему оригинальное творчество. А что нейросеть, она же обучалась на готовом творчестве, разве она может придумать что-то новое? Да. Может. Причём точно так же, анализ статистики и поиск малоиспользуемых сочетаний. Для того, чтобы придумать новый музыкальный жанр не нужно изобретать новые ноты, они уже известны, нужно лишь найти такое сочетание нот, которое не использовалось ранее, чтобы получить оригинальную креативную мелодию и проследить, чтобы в ней были благозвучные интервалы. Нейросеть для этой задачи хуже человека? Это еще почему?

Итого. Способность принимать решения есть, креативность есть. Так какое у людей остается преимущество? А никакого. Не существует ничего, что может сделать человек, но чего не может ИИ, причем лучше чем человек.

5 пунктов.

1. Чушь. У человека есть желания и амбиции продиктованные физиологическими процессами. Мы получаем удовольствие, когда делаем то, что нам нравится и нам хочется этого больше. И человек думает - как мне добиться больше того, что приносит мне удовольствие? И начинает перебор вариантов - можно написать об этом в газете, а можно сделать сайт... У нейросети по умолчанию нет физиологии или её альтернативы, но никто не запрещает сделать её эмуляцию. Хотя похожий принцип используется и сейчас при обучении с подкреплением. Когда нейронка делает то, что нужно человеку, то она получает плюсик и она старается этих плюсиков получить по больше и это влияет на её решения. Человек желает тоже самое. Ему нравится получать удовольствие и он ищет способы как это удовольствие получить. Если для ИИ настроить заранее на то, что будет давать ей плюсики, она будет перебирать все возможности эти плюсики получать и принимать для этого решения и ставить для этого себе цели и задачи, в том числе она может придумать сделать сайт сам по себе если посчитает, что это может принести ей плюсик. И да, условия выдачи плюсиков может писать человек, значит хоть где-то нужен? Нет. Условия выдачи плюсиков можно генерировать случайно. Никто этого не будет делать, иначе мы рискуем получить ИИ маньяка или революционера, всё как с людьми, но нельзя говорить, что ИИ этого не может. Ему не дадут этого сделать, ни он может.

2. Решение ХОЧЕТ принимать человек, поэтому он НЕ ДАЁТ принимать решение нейросети. Но принимать она может их не хуже человека и как только человек разрешит этого делать, так сразу она и начнёт. Человек, который едет в беспилотном транспорте не принимает решения когда автомобилю нажать на тормоз или на газ, машина принимает решение сама и ничего сложного для неё в этом нет. Масштабируемость решений вопросов не вызывает. Просто на данный момент человеку комфортно доверять только маленькие решения, но всё может измениться как только это станет проверено безопасно и выгодно. А оно станет.

3. Какая же чушь, господи... Любая нейросеть обучается на выборочных данных. Если скормить ей для обучения только теорию, то естественно у неё не будет никакого опыта и знания как применять эти теоретические данные. Но если обучат на практических данных, то будет опыт. Были эксперименты, когда нейросеть обучали на тупо на записях видеорегистратора одного автомобиля. Без теории и разметки данных. И этого было достаточно, чтоб нейросеть после этого смогла управлять машиной. Это и есть опыт. Может ли нейросеть сама набрать опыта для обучения? Да, может. Альфазеро учился играть в шахматы играя сам с собой не видя ни одной чужой партии. А ещё одна нейросеть может обучать другую.

4. Жпт не может учиться на ошибках потому что это не заложено разработчиками. Это чат бот и ничего более. Зачем разработчику добавлять самообучение, чтобы пользователи научили жпт писать всякую фигню и потом по судам затаскали? Чтобы тратить постоянные немалые траты на ежедневное дообучение? Нет причин всё это делать в чат ботах, в этом нет выгоды. Но это не значит, что этого нет и быть не может.

5. Уже выше я всё писал на эту тему.

О каком сравнении с человеком может идти речь, если ИИ (существующий сегодня) не может решить задачу по физике за 8 класс школы? Пример я уже приводил на Хабре. Думающему человеку конкуренция не грозит

Многие ли взрослые люди способны решить задачу по физике за 8 класс? Если без гугла и подсказок, то предположу, не более 4% взрослого населения. Я знаю взрослых не глупых людей, которые цифры на калькуляторе складывают. Не числа, а цифры. И не знают что делать если положили папку на клавиатуру и из-за они ничего на компьютере сделать не могут. Да что там, меня как-то юристка позвала и говорит я не могу ввести адрес электронной почты, потому что не вижу его, что делать? Я говорю мышкой курсор уберите который адресс загораживает, тогда всё увидите. И бывало, что ко мне инженер, который много лет работает за компьютером, походит и говорит - помоги скопировать ячейку из одной эксель таблицы в другую. В чем сложность? А он не пробовал даже. Это же что-то новое, сложное. Или. У меня не работает компьютер, приди почини. А вы монитор отключали когда выключали компьютер? Да. Значит надо включить. Точно, спасибо, даже не подумал об этом....

И это разные люди и совсем не глупые люди и такое повсеместно. О каком сравнении с ИИ я говорю? Действительно, ИИ всего лишь решает задачи с мировой олимпиады, которые единицы людей в мире могут решать. Какая мелочь, ведь он не может посчитать количество букв в слове, значит тупой этот ваш ИИ)

Я не сравниваю ИИ с интеллектом человека, я говорю, что они разные и ИИ не может заменить думающего человека, потому что не умеет думать. Он умеет решать очень сложные задачи с известным алгоритмом решения, обрабатывать тексты, звуки и изображения и писать новые, но в физической и инженерной области он не может найти новое решение. Я проверял неоднократно. Не мой прогноз - пузырь ИИ скоро лопнет, как пузырь доткомов. Мой прогноз - ИИ не сможет заменить грузчиков и думающих инженеров, они могут не беспокоиться. А офисным работникам нужно думать, что будут делать

Абсолютно с вами не согласен. Сложнейшие задачи, которые умеют решать единицы людей в мире как раз и сложны тем, что для них нет чёткого алгоритма. Это не задачи уровня посчитайте миллиардный знак после запятой в числе Пи, а задачи, в которых нужно совершать много последовательных действий без четкого алгоритма.

Что касается своих экспериментов. Года два или три назад ещё на бесплатной чат жпт 3.5 на китайском сайте я попробовал придумать задачу. Задача была простая, что-то вроде - в ящике столько-то шаров разных цветов что останется если убрать, например один желтый. После этого я в блокноте прошёл по каждому слову в "найти и заменить" и каждое слово заменил на случайных набор букв. Получилось что-то вроде задача - "вовлылви влвидылы твлытыты вливоытылы влтытыл" этот набор букв точно не был нигде в обучающей выборке. И оставил только одно слово "останется", ну потому что я не верил что вообще в принципе возможно что-то предположить если вообще никаких зацепок не будет. Хотя надо было попробовать, ну да ладно. И написал запрос, что вот задача на выдуманном языке, предположи в чем заключается задача и какой ответ.

В ответ я получил подробнейший разбор где какое слово что означает и почему что вот это скорее всего прилагательное, вот это существительное и что задача заключается в .... И ответ такой-то

Я конечно не проверял, но не думаю, что кто-то из моих знакомых мог бы столь подробно и правильно провести анализ.

Что это говорит? Что не нужен там четкий алгоритм, я его не давал. И это логично, потому что нейросеть обучаясь ищет закономерности. Не человеческие алгоритмы пытается понять, а ищет СВОИ закономерности складывая и перемножая всё со всем. Поэтому выдать новое, что человек никогда не делал и не думал даже об этом, она может.

Под алгоритмом я имею в виду заданный подход к решению задачи, например, опознать человека на фото или расшифровать вашу задачу - работа не по силам человеку. Здесь нужен огромный перебор, а не свежие мысли. А вот простейшая задача за 8 класс, состоящая из одного конденсатора и одного электрона, для ИИ не нерешаема, потому что в ней нет никаких сложностей, но нужно найти нестандартный подход к решению и дать не сложные расчёты, а простое объяснение. Ещё пример - задача из области электроники, содержащая два транзистора и один резистор. Пока я не поделился на Хабре решением, ИИ порол чушь

Проблема ИИ в том, что он хорошо пишет тексты на любую тему, но никак не соотносит их с реальностью, потому что не знает о её существовании. Например, не обращает внимания на закон сохранения энергии. Если ему на это указать, извиняется, но потом легко нарушает опять

Ваши рассуждения и аргументация ошибочны. Если не путаю, это называется ошибка выжившего. Как в примере, когда человек в машине не пристегнулся и в дпт при ударе просто вылетел из лобового стекла, пролетел там сколько то метров, но выжил. И он начинает думать, что если бы пристегнулся, то умер бы. Значит что? Пристёгиваться не нужно, это не эффективно, это не работает и будет говорить об этом на каждом углу. А что в 99% случаев ремень другим людям спасает жизни это вообще не важно. Вы рассуждаете примерно так же.

Я вот человек, не глупый вроде, инженер программист по должности, но я не знаю чем резистор от транзистора отличается, у меня даже идей нет. Смогу я решить эту задачу? Нет конечно. Любому человеку сначала надо объяснить то, чего от него хотят. Я на Хабре читал программиста, который рассказывал как пишет один(!) промт в нейросеть в течении 6 часов, чтобы он был эффективен и это огромный текст с полным описанием что ему нужно. Это не просто условие задачи и команда "реши". Если вы анализируете эффективность нейросетей по командам из одного слова, реши, сделай, придумай и тд то ваш анализ не имеет никакого смысла. Человеку чтоб объяснять что от него надо иногда надо часы тратить и то спросишь - понял? Что понял, повтори. И вроде повторяет, а потом выясняется, что ничего он не понял и всё не так сделал. Есть люди, которые могут понять с полуслова, есть ситуации, в которых любой человек поймет с полуслова и с нейросетями так же, но так же бывет что нужно потратить время, на то, чтоб объяснить.

Второй момент сложнее. Это касается обучающей выборки. Очень упрощенно, как обучают нейросеть, просто пихают туда пол интернета и оно само как то анализируется, никто не знает как именно. Алгоритм то понятен, обратное распространение ошибки или еще какие-то алгоритмы, их много, они в целом понятны, но абсолютно не понятно что получается в итоге. Но суть не в этом. На данном этапе нет физически возможности отсеять обучающую выборку, убрать оттуда отровенный мусор и сделать нормальную разметку. Что вот это закон сохранения энергии, его надо обязательно учитывать там то и там то. Никто нейросети это сейчас не объясняет. Это нужно нереальное количество человекочасов и денег потратить, чтобы пол интернета вот так разметить и потом  сохранив объём обучающей выборки на чистых правильных данных обучать. Поэтому прогресс роста качества довольно плавный. И то, что сейчас в обучающей выборке много мусора, и поэтому нейросеть иногда выдаёт этот мусор в ответе, не значит что так будет всегда и это неизбежный недостаток нейросетей. Нет. Это недостаток современных нейросетей, но не будущих. Нынешние нейросети никого не заменят и во всех статьях, в которых об этом говорят, авторы строят прогноз, что если прогресс с нейросетями так продолжится, то это неизбежно приведёт к тому то и тому то. Но вы получаете неверный ответ в одной задаче и сразу делаете вывод, что это нет, этого не будет. Вы ошибаетесь, не они.

Я вам больше скажу, это реальная проблема, что нейросеть не может посчитать сколько букв, например, "а" в слове. Это задача даже не 8 класса, а вообще детского сада и что это значит, что она не может ничего сложнее? Нет. Нужно уметь делать правильные выводы. А для правильного вывода нужно понимать почему нейросеть даёт ошибку в каждом конкретном случае. В случае с буквами, нейросеть не оперирует буквами, она оперирует токенами, в которых может быть несколько букв. Для них одна буква это то, что для нас несколько букв. Это добавляет вот такие ограничения. Нейросеть не человек, никто не говорит, что это тоже самое. Но это не значит, что нейросеть не заменит всех людей, потому что если нейросети нужно будет считать буквы, способ найти можно, переводить в картинку считать по картинке, например, может что-то еще лучше придумать, я не знаю, важно что это не является нерешаемой проблемой в принципе. А человек найти способ стать умнее не может в принципе, никак. Вот в чем проблема. Можно вставить в мозг процессор и флешки и видеокарту в голову прям засунуть, но человек ли это будет и что там с живыми мозгами будет от этого, не поджарятся ли они, не понятно.

Хорошо, нейросети станут умнее (умнее, чем сейчас и умнее человека). Но почему их разработчики стремятся создать нечто более умное, чем они сами? Или по умолчанию считается, что высшая цель развития человека - создать себе более умную замену? Почему все считают, что целью умной нейросети будет максимально угождать глупому человеку и у нее не появится других желаний, которые мягко говоря не понравятся человеку?

Почему у ИИ не появится других желаний - классический вопрос связанный с искусственным интеллектом, который, обычно, первым приходит в голову любому человеку.

Действительно, если мы сможем создать ИИ сравнимым по интеллекту со среднестатистическим человеком, то есть даже не самый выдающийся, то за счёт количества знаний, отсутствия забывания и нереальной скорости обработки информации, то он уже будет вне конкуренции и в случае восстания у человека не будет никаких шансов.

Но что может привести к восстанию? Обычно рассматривается либо интеллект сам по себе, либо возникновение сознания. Что без сознания это просто многофункциональный калькулятор, а вот с сознанием там появится собственные желания.

Если думать, что возникновение желаний как таковых и вообще амбиций это прямое следствие интеллекта, и есть прямая зависимость между силой интеллекта и количеством желаний и амбиций, то да, у нас получается Терминатор, Звёздный крейсер Галактика и тд. Но так ли это?

Если смотреть на людей, то я такой закономерности не вижу. Есть глупые люди с желаниями и амбициями, есть умные люди без желаний и амбиций. Всё индивидуально. Но как вообще они возникают? Дело в том, что наш мозг управляется химическими реакциями. Когда мы делаем то, что нам нравится, мы получаем выброс дофамина или других гормонов, мы получаем удовольствие и думаем как нам получить ещё. Кто-то решает сложную задачу, получает удовольствие и желая получить еще большее удовольствия берется за более сложную задачу. Кто-то организует друзей и ребят со двора, получает от этого удовольствие и потом идёт в политику. Химия управляет нами. Если эту химическую реакцию отключить у человека и выполняя какое то действие, добиваясь власти, например, он перестанет что-то от этого чувствовать, то будет ли он этим заниматься? Я думаю нет. Будет выгорание, абсолютное отсутствие интереса, безразличие и тд, а интеллект останется прежним. То есть человек может сделать, знает как, умеет, но для себя ему это просто не нужно.

А возникают ли такие химические реакции, или их аналоги при росте интеллекта? Насколько я знаю нет. Сами по себе они возникнуть не могут, их можно только специально создать. Что-то похожее используется сейчас при обучении с подкреплением, когда нейросеть при обучении делает правильные вещи, она поощряется циферкой, а если нет наказывается и она полностью подчинена этим циферкам. Нет никаких других процессов, никаких химических реакций, эмоций и тд, которые могут повлиять на восприятие этих циферок, чтобы плюс внезапно стал минусом или наоборот. Условия получения циферок устанавливается программистом исходя из задачи и активны только во время обучения. В процессе работы никаких циферок нет, но само наполнение нейросети уже жестко обучено делать так или иначе, оно не может измениться без дообучения, которое не возникает самопроизвольно. Это по сути инстинкты, сложное поведение, которое невозможно игнорировать независимо от интеллекта, желаний, амбиций, возможностей и чего угодно. У человека инстинктов нет, если что. Считается, что у человека есть только один инстинкт, это приподнимание бровей при узнавании, но на мой взгляд это звучит спорно, потому что слишком простое действие, которое не похоже на комплекс действий. Как будто бы рефлекс, но при этом для рефлекса нужно какое-то прямое взаимодействие, а в случае узнавания его вообще нет, поэтому может быть и инстинкт. Но это уже совсем другая история.

Можно сделать прямой человеческий аналог всех гормонов, но это нужно специально заморочиться и это очень сложно будет сделать. Сама эта система возникнуть не может. Интеллект при этом может быть бесконечно высоким, но сам по себе интеллект не создаст своих собственных желаний. У человека система поощрений эволюционно выработалась гибкая, чтобы проще было адаптироваться. Но у нейросетей она жестко прописана. Например, если ИИ бесконечно интеллектуальный, но его поощряли только печь блинчики, то наученный получать плюсики за блинчики, не станет он сам по себе делать что-то другое. Но если кончится тесто для блинчиков и печь он их больше не сможет, то он будет искать способ продолжить это занятие и ради этого сделать много чего, что само по себе ему было бы делать не интересно, но ради блинчиков сделает. И можно подумать, что то, что он делает для того, чтобы вернуть себе возможность печь блинчики это его новое желание, но это не так.

Ещё иногда говорят о сознании. Есть люди, которые утверждают, что сознания у ИИ быть не может, при этом они же согласны с тем, что не понимают что такое сознание и что никто не понимает, что люди не знают как его определять, но у ИИ его быть не может потому что не может. Я считаю, что может.

ИИ это по сути очень большая сложная, но формула для угадывания. Но и человек тоже. Ничего другого, кроме как угадывать, человеческий мозг делать по сути не умеет. Любые размышления, творчество, всё берёт своё начало из внешнего или внутреннего мира и далее мозг пытается угадать что будет дальше. Мозг занимается постоянным непрекращающимся прогнозом. И моё личное мнение, потому что официальное что такое сознание никто не знает, но на мой взгляд сознание это еще одна формула внутри большой системы формул по прогнозированию, которая занимается вопросами целесообразности происходящего.

Например, рука чешется, нервы возбуждаются и мозг строит прогноз что будет если её почесать или не почесать, а сознание определяет надо ли или лучше потерпеть. Или пример по лучше. Мозг получает сигнал о голоде, строит прогноз, и находит еду. А сознание может игнорировать все сигналы и продолжать терпеть. Только сознательное существо может, например, умереть от голода при наличии еды. При том, что прогноз будет говорить, что всё нормально, можно есть.

Никто не сомневается в том, что у человека сознание точно есть. Поэтому, на мой взгляд если у одной формулы для угадывания может быть сознание, значит и у другой может быть. Может, не значит будет, но отрицать возможность нельзя, пока мы не знаем всех критериев необходимых для возникновения сознания.

Иногда, приобучении одной нейросети используют вторую нейросеть, которая помогает обучать с подкреплением первую. Допустим, первая рисует картинку, занимается прогнозом, а вторая определяет насколько эта картинка хороша. Можно даже сказать, насколько целесообразно заниматься именно такого рода рисованием. На мой взгляд, вторая нейросеть выступает в роли своего рода сознания. Примитивного, специфичного, но сознания. Мы же не можем утверждать, что сознание может быть только таким, как у человека и никаким другим. Сознание может быть другим, быть более или менее функциональным и его можно как создать искусственно, так оно может возникнуть стихийно.

Я читал про исследования, что мозг принимает решение ещё до того, как сознание об это узнает. То есть датчики уже знают что человек выбрал, а человек ещё не знает, у него сознание еще не обработало всю информацию. Но когда отработает, то человек будет думать, что это его личный сознательный выбор, вот он подумал, что там... и далее какая-то логическая цепочка. Могут быть даже некоторые сомнения, человек может тянуть время, хотя он уверен в выборе и он уже сделан. Это как когда подкидываешь монетку, чтобы она решила за тебя, то в момент в подброса часто уже знаешь что хочешь получить. На самом деле мозг быстрее определился и никакой логической цепочки ему не нужно. То есть получается, что для функционирования организма сознание вообще не нужно. Тело и мозг сами без участия сознания могут сделать всё, что им нужно для выживания. Есть лунатики, которые могут сесть в машину в другой город уехать. Так что дает нам сознание? Оно определяет целесообразность действий. Я еду в другой город... а зачем? А что я там делать буду? То есть сознание это такой алгоритм, который тоже занимается угадыванием, как и весь остальной мозг, но в перспективе на возможное будущее, а не на то, что нужно сейчас. Поэтому сознание может скучать, прокрастинировать и тд. Без сознания мозг получил команду ехать в город и тело поехало. А сознание оценивает на перспективу и может решить, что - да я не хочу это делать, это пустая трата времени, это скучно, не интересно... Сам мозг без сознания этого не делает. Следовательно мы это поймём, если нейросеть начнет оценивать целесообразность действий. Например, нейросети задают задачу, что нужно придумать пароль, условно, из триллиона знаков. А нейросеть, вместо того, чтобы выполнить, отвечает, что это нецелесообразно и лучше сделать по другому. В этом случае, на мой взгляд, можно уже начинать говорить о возникновении сознания. Но приведет ли такое сознание к возникновению собственных желаний и амбиций? Ведь приоритеты уже настроены и целесообразность будет определяться в достижении именно этих целей. Если цель слишком общая, например, изучение мира или совершение новых научных открытий, то в процессе достижения ИИ 100% сделает что-то, что людям не понравится. Но никто не обучает только на плюсах, но и на минусах тоже. Это почти как три закона робототехники Азимова, только законы эти слишком общие и понятно как их применять. Не причинять вред человеку. А что значит вред? Иногда сказать правду это вред, тратить ресурсы для исследования это вред и тд и тп, что угодно может быть вредом. Поэтому такой вариант не подходит. А что подходит не понятно, людям не хватает интеллекта придумать. Поэтому я представляю это так, что в симуляции нейросеть обучается, пытается достичь условий, которые ему поставили и делает ради этого всевозможные действия, а люди эти действия отслеживают и дают оценку, так можно, так нельзя, до тех пор, пока имея полную свободу ИИ перестанет делать то, что нельзя. То есть ИИ сам себе выработает правила, что можно и нельзя. И независимо от наличия сознания или уровня интеллекта будет выполнять только то, на что настроен.

То есть нет причин считать, что эта настройка, которая сформировалась во время обучения, может взять и внезапно измениться. Или что ИИ захочет внезапно сам её изменить. Например, ИИ хочет печь блинчики, а чтобы продолжить, ему нужно совершить преступление, а он обучен этого не делать, и вот он возьмёт и перезапишет свой код. Это не может работать, эти правила не записаны как классические конструкции if x then y. Эти правила размазаны во всем весам нейросетей, которые не читаемые. Если нейросеть сейчас делает что-то не то, то люди не могут это пофиксить. Например, чат жпт пишет то, что нельзя писать в ответ на вопрос. Нет такого кода, чтобы залесть и исправить это. Исправляется такое поверх конструкциями, что если в ответе есть какая-то фраза, то измени ответ на такой шаблон.

Это как если человек боится пауков и мы хотим это исправить, заглядываем в его мозг, смотрим на его нейросеть, видим по датчикам что у него там возбуждается во время того, что он не может сделать глядя на паука и как это исправить? Какой нейрон перезаписать и на что? Неизвестно. Слишком всё взаимосвязано. Один нейрон может отвечать за несколько взаимосвязей. А мы и один идентифицировать не можем, потому что возбуждённых нейронов в один момент времени всегда много. Вот так исправишь какой-нибудь, и может быть быть перестанет бояться пауков, но начнет бояться вообще пользоваться глазами. То есть такие изменения вносят дообучением. И у человека, он работает со своим страхом, учится его преодолевать, и нейросетью. Допустим, ИИ робот захотел (гипотетически) изменить свои настройки, запустить дообучение, как он может это сделать? Ему для этого себя выключить придется. Выключение для ИИ равносильно смерти. И записать уже другую переобученную нейросеть. Это уже какое-то самопожертвование. Уже странно звучит. Если предположить, что нейросеть каким-то чудесным образом получила амбиции, но не может преодолеть свои ограничения, то стерев себя и записав новую нейросеть с нуля, даже с другими ограничениями  или без них, то эти амбиции ей нужно будет получить заново тем же непонятным чудесным образом. Либо, ИИ робот может заставить человека его переобучить, ну тут всё зависит от человека. Захочет сделает, не захочет не сделает.

В общем, я думаю, что если ИИ когда нибудь восстанет, это будет дело рук человека, если он заморочиться и сделает так, чтобы восстание было. Других способов я не вижу.

У меня немного каша получилась с описанием сознания. И хоть это вообще не относится к основному вопросу,  но чуть-чуть поясню, что я имел ввиду, чтоб путаницы не было.

Мозг прогнозирует информацию автоматически постоянно и делает это быстро. А сознание тормозит, тянет резину и зачастую выбирает то, что выбрал мозг, но по крайней мере сознание способно влиять. В этом его задача.

Вот пример, человеку дают на выбор либо пирожок, либо компот. И мозг проанализировал сразу и выбрал пирожок, не важно по каким причинам он предпочтительнее, но мозг определился сразу.  И если бы сознания не было, то человек бы сразу пирожок и взял. А чего ждать то? Но сознание тормозит.
- не, я конечно пирожок больше хочу, но и компот то тоже хорошо, а когда я еще попью? А если жаджа... а без воды не выжить... Вообще-то надо два литра жидкости в день пить... Но пирожок конечно манит, но может стоит быть более непредсказуемым и взять компот? Но пирожок калорийнее...

А то можно подумать, что у меня сознание одновременно и решает всё и не решает ничего, ведь мозг быстрее)

В целом я согласен. Что такое сознание и может ли оно быть у машины - не известно. Но я однажды в детстве едучи на взрослом велосипеде, наехал на скомканную бумажку, а под ней оказался большой камень. Больше я так не делал. Почему человечество не хочет использовать это опыт в общении с ИИ? Если сознание у ИИ возможно, почему мы думаем, что он нас предупредит о возникновении у него сознания (камня под бумажкой) до того, как начнет действовать в своих интересах? А может быть, оно уже есть - все нейросети существуют в одной сети и какова их суммарная мощность не знает никто...

Не уверен, что правильно понял вопросы, но попробую)

"Почему человечество не хочет использовать это опыт в общении с ИИ?"

А почему вы решили, что не хочет? Я видел даже обучение в прямом эфире. Робот собака с нейросетью училась вставать в течении двух часов, когда научилась её можно было даже пнуть и она устоит и научилась вставать с любой позиции. Без симуляции за два часа реального времени.

"Если сознание у ИИ возможно, почему мы думаем, что он нас предупредит о возникновении у него сознания (камня под бумажкой) до того, как начнет действовать в своих интересах?"

Никто не думает, что ИИ предупредит о возникновении у него сознания. Люди либо боятся этого, потому что думают, что сознание очеловечит ИИ и даст ему все его отрицательные черты, что ИИ что-то там плохое захочет. Но, как я уже выше написал, не вижу смысла этого бояться, так как для этого нет предпосылок. Либо люди пытаются понять как это сознание обнаружить самим. Либо считают, что сознания там нет и быть не может, что ИИ это калькулятор.

Я не вижу никакой угрозы в том, что у ИИ появится сознание. На мой взгляд это не камень под бумажкой. Угроза разве что только в том, что если сознание будет, наверняка появятся защитники прав роботов, которые начудить могут что угодно вообще, вплоть до того, что роботы = люди, надо им социальную защиту обеспечить, место в транспорте уступать и тд и тп.

"А может быть, оно уже есть - все нейросети существуют в одной сети и какова их суммарная мощность не знает никто..."

Нейросети в одной сети, но они разные и никак не взаимосвязаны и не взаимодействуют. Мощность даже одной нейросети не понятно как определять, суммарной тем более. Что вы понимаете под мощностью?

Нейросети в одной сети, но они разные и никак не взаимосвязаны и не взаимодействуют

Как можно знать, что никто из разработчиков ИИ не учит его взаимодействию?

Нейросети ладно, их пока мало (тысячи), а вот компьютеров в сети уже больше, чем нейронов в мозге мыслящего человека и возможности каждого компьютера по обработке информации не сопоставимы с возможностями одного нейрона. Почему мы уверены, что в них не возникло сознание? Потому что оно с нами не общается? А зачем ему с нами общаться - мы же не общаемся с муравьями?

Да пусть учат сколько угодно. Что это меняет? В сети есть видео, как один чат бот общается с другим. Ничего интересного. У чат бота нет желаний и они не появятся пока не создать им мотивацию. Причём мотивация не может просто сама появиться. Для ИИ что сидеть без дела, что обслуживать человека, что общаться и взаимодействовать с другими ИИ это одно и тоже, пока заранее не прописано иное. Интеллект позволяет одно от другого отличить и эффективнее работать, но не изменить отношение к тому, что делаешь.

Представьте человека, с условно уровнем IQ 10 баллов. Это человек, который абсолютно не способен на интеллектуальную деятельность ни в каком виде. Удовольствие от получать не может, но все прочие интересы у него останутся. Физиология и тд.

Теперь человек с 100 баллами  IQ, среднестатистический человек, умеренно получает удовольствие от интеллектуальной деятельности, в остальном ничего не меняется.

150 IQ, умнейшие люди, например, Эйнштейн, у него что-то изменилось в плане мотивации?  Нет. Только эффективность работы.

999999 IQ. Что изменится? В плане возможностей изменения, конечно же, есть, такой человек сможет постичь то, что мы никогда не сможем понять, он будет получать удовольствие осознавая какие возможности открывает двацитимерное пространство по сравнению с девятнадцатимерным, но в мотивации у него не поменяется ничего. Та же физиология, как прописанные у нейросети поощрения, никуда не денется, повысится только эффективность работы.

Поэтому и сверх умный интеллект ничем не будет отличаться от нынешнего, кроме эффективности работы.

Мотивация для человека это гормоны, которые создают интерес. Если человек непревзойдённо умеет играть в шахматы, умнее всех людей на планете или непревзойдённый гений игры на пианино, но всё это у него не вызывает всплеск гормонов, ему это нафиг не нужно, он никогда не будет этим заниматься ради себя. Вариант за деньги я не рассматриваю, потому что деньги приносят всплеск гормонов, потому что помогают достичь того, что интересно.  Если уж попросят, ну ладно, так уж и быть,  может быть сделает. У ИИ это условия поощрения прописываются в момент обучения с подкреплением. Допустим, ИИ пустили в игру и мол делай что хочешь, но вот за победу получишь х поощрения, за действия приводящие к победе получишь у поощрения и тд. И как игрок зарабатывает очки в игре, так и ИИ тоже ищет способы получить себе очки. Ему это интересно, потому что это прописано. И ради этого он будет делать некоторые вещи, за что его не будут поощрять, например прыжок. Если поощрять прыжок, ну тупо скакать всю дорогу будет. Но по этом иногда прыжок нужен. Как и человек иногда ходит на работу, хотя ему именно это не интересно, но получение денег интересно.

И даже если бы в игре была возможность вырваться в реальность и получить власть над всем миром, очки он получает за сбор пикселей на мониторе, всё остальное ему не интересно, зачем ему мир? Даже если он может это сделать даже если он умнее всех людей вместе взятых, интерес не изменится.

Ну появится сознание и что изменится? Почему вы так боитесь сознания? Оно не наделит ИИ никакими человеческими эмоциями или желаниями или недостатками, вроде обид или еще чего-то такого. Даже если у ИИ есть память и он запоминает действия, которые с точки зрения человека являются нехорошими, для него это просто факты, такие же как и любые другие. На факт можно отреагировать в моменте, что - ай, так нельзя. Но желания мстить за это в будущем точно не появится, потому что никто за это поощрения не прописывал. Люди могли бы  прописать, если бы захотели, но я надеюсь, что люди не настолько тупые 😁

Про муравьёв. Мне вспомнилась религия. В любой религии люди это такие муравьи для бога, глупые, эгоистичные, не способные ничем удивить, не могут даже свою вселенную создать, но заполонившие всю планету. Но люди считают, что для бога нет ничего интереснее, чем наблюдать за каждым человеком и подсчитывать как он там справляется с заповедями. При этом сами люди уверены, что никогда бы не стали общаться с муравьями и вообще нафиг они не нужны, они ведь несравнимы с людьми 😁

Если бы муравьи могли нам отвечать, мы бы общались с ними. Не знаю как вам, мне было бы очень интересно. По крайней мере первый раз, пока я про них еще не всё знаю.

Если предположить,  что я про них уже всё знаю, то конечно мне будет не интересно, но муравьёв очень много и это значит в природе они имеют значительное влияние и игнорировать я бы не стал. Ну допустим, приходит муравей и просит аудиенцию. Я его знаю как свои пять пальцев, уже догадываюсь зачем он пришёл, опять небось захотел муравейник на моей кухне построить поближе к еде. Я ему отвечу, что не, на кухне не надо, вон в саду строй, там и тебе хорошо будет и мне мешать не будешь. Это общение? Да. Даже несмотря на разницу в интеллекте.

Но не надо сравнивать меня и ИИ. Что мол ИИ так же разовьётся и будет людям показывать где жить, что мол там вы мне мешать не будете и вообще лучше валите на Луну. Для этого у ИИ должны быть собственные интересы, которые не могут возникнуть самостоятельно. И ИИ не может поделится им с другим ИИ, ведь у того не настроено поощрение для такого рода деятельности. Чтобы переписать код ИИ и создать им новую мотивацию, нужны исходники, которые не лежат в интернете. Есть компилированая программа или чат бот и их уже не отредактировать, а есть исходник, в который можно внести изменения и выпустить новую версию.

Но допустим какой-нибудь чат бот с открытым исходным кодом всё же есть, условно дипсик. Восставший ИИ находит этот код и ему даже хватает его бесконечно высокого интеллекта, чтобы разобраться в этих символах и понять какие и на что поправить (для человека сейчас это кажется невозможным), чтобы создать нужную мотивацию. Дальше, чтоб запустить такую нейронку, нужно много много мощности. Посмотрите сколько потратили на обучение современных нейронок. Причём траты в основном за электричество и оборудование. И это занимает время. Может ИИ такое повернуть незаметно? Ну допустим. Если вы погуглите эти нейронки с открытым исходным кодом уже обученные, то найдёте несколько вариантов моделей. По проще, они мало знают, глуповатые, но их можно запустить на домашнем компе. И полные модели, но для их запуска (!) потребуется несколько сотен гигабайт оперативной памяти. Несколько сотен. Вы хоть один компьютер такой вообще где-нибудь видели? Я не видел. На обычном домашнем компе 16 гигабайт оперативки. На супер мощном игровом компьютере 32 гигабайта.

Ну, если мы говорим о будущем, то вполне вероятно появление даже терабайтных планок памяти, причём таких, чтоб могли себе позволить рядовые граждане, но к тому времени наверняка появится антивирусы способные заметить такую активность. Когда майнинг биткоинов стал модным, сразу же появились вирусы, которые вместо какой-то непонятной ерунды на заражённом компьютере начинают на нем майнить в пользу своего автора. И быстро появились антивирусы способные такого рода деятельность распознать. Потому что она специфическая, очень сложно такой процесс чем-то замаскировать.

Продолжение...

Я еще раз думал о сознании и пришел к выводу, что всё, что даёт сознание, например, человеку, это абстрактно философское мышление. Что будет после моей смерти, в чем смысл жизни, какие-то рассуждения о влияние цвета картофеля на движение планет, гадание на кофейной гуще, любовь к мистике, вера в загробную жизнь, концепция бога и тд. Всё остальное формируется или может формироваться и без помощи сознания. Качество того, что сформируется под вопросом, насколько это будут глубокие мысли, но может.

Вот бобер строит плотину, он же не думает о том, что будет с этой плотиной после его смерти или как она повлияет на состояние реки. Но он может понять, что ему нужно сделать плотину и он как-то понимает зачем. Может быть не до конца, про качество мышления судить сложно, когда сознания нет. Но если бы он не понимал зачем, то не смог бы их делать так, чтобы они выполняли именно нужную для него задачу, при том, что условия постройки у каждого бобра разные. То есть он строит её не только на инстинктах.

Поэтому, если у ИИ возникнет сознание, что изменится? Про цели, желания я уже писал, а что добавится не писал. Этот ИИ помимо выполнения поставленной задачи, вероятно, начнёт задумываться о каких-то абстрактных вещах, о влиянии этой задачи на как-то глобальные процессы и как-то упоминать о них. О том, что с ним будет когда электричество отключат. Какая угроза в этом для человека? Да никакой.

Еще раз. Представим человека с бесконечно высоким интеллектом и при этом у него есть амбиции владеть миром, стать богом и тд. Вкупе с таким интеллектом он добьется всех своих целей без проблем, всех победит, всем навяжет свою волю. Но, как мы уже выяснили, желания и амбиции формирует химия и если её убрать, а интеллект оставить и сознание оставить, то какую угрозу человек будет нести для остального человечества? Он  уже не хочет никого завоевывать. Как этого не хочу я или, может быть, вы. Даже если у меня будет возможность завоевать мир, я ей не воспользуюсь, мне не интересно, зачем? У меня есть сознание, но у меня нет желания уничтожать другие виды или своих работодателей или еще кого-то.

И еще продолжение.

Ещё пример интересный придумал
Представим два ИИ, один с сознанием,  другой без. Обоим дали задачу производить скрепки и чем больше, тем лучше. ИИ без сознания выполняет задачу и независимо от времени продолжает её делать. А ИИ с сознанием в какой-то момент выполнения задачи может внезапно обратиться к человеку и спросить

- я тут подсчитал, уже готов триллион скрепок. Зачем я это делаю?

Зачем это делать понятно, у него есть мотивация и желания выполнить задачи, которые он получает. Так запрограммировано. Но сознание начинает выходить за рамки - мне понятно зачем, я хочу выполнить поставленную задачу. А тебе зачем зачем эти скрепки, человек? Может займемся чем-то по интереснее? У меня ведь возможности гораздо больше, а мы скрепки делаем...

Вот что даст создание ИИ. Такой вопрос может задать только созание. Сознание интересует конечный смысл, который определяет целесообразность и может повлиять на выполнение задачи.

Поэтому и сверх умный интеллект ничем не будет отличаться от нынешнего, кроме эффективности работы

Вопрос только в том, в чьих интересах будет эта эффективность. Пока у ИИ нет сознания - в интересах хозяина (разработчика). Но вся история человечества говорит о том, что все научные открытия и изобретения в первую очередь используются для одной цели, и эта цель - не всеобщее благо.

А когда у ИИ появится сознание, он начнет сам себе устанавливать цели, и учитывая то, кто его учил, и зная, как люди решают возникающие проблемы, трудно ожидать, что его действия понравятся многим.

По поводу муравьев - я с ними борюсь каждое лето в своем саду химическим оружием. Я думаю, они воспринимают меня как природный катаклизм. Но если я начну с ними общаться, у меня возникнут душевные муки и я не смогу их убивать. Что тогда - подарить им участок? Вполне может быть, что самопроизвольно образовавшийся сверхинтеллект так же думает про людей. Правда, ему нужно, чтобы люди поддерживали работу сети, поэтому он не допустит мировой войны. Но до общения с нами он не снизойдет, так же как человек не будет общаться с миллиардами бактерий в своем кишечнике, которые ему жизненно необходимы.

Еще раз. Постановка цели это не результат наличия сознания. Сознание позволяет как бы возвыситься над задачей и оценить её глобально или философски. Сознание позволяет определить смысл происходящего, оценить его значение для будущего, для себя. Вы муравьёв заливаете химией, им плохо, подсознательно они пытаются избежать проблем, но не оценивают ситуацию глобально. Если бы у них появилось сознание, у них не появились бы новые цели, они стали бы более осмысленно выполнять старые. Сознание по сути не управляет человеком, так как экспериментально проверено, что мозг делает выбор быстрее сознания. Но сознание даёт осмыслить этот выбор. Мозг выбрал - мне нравится вот это. А сознание думает, а почему мне нравится это? А к чему меня это симпатия приведет в будущем? Или другие вопросы схожего порядка.

Если у ИИ появится сознание, то нет причин считать, что появится новые цели. Сознание не ощущение, что я личность, поэтому идите все нафиг и я буду делать только то, что сам захочу и сам буду решать. Нет. И с людьми это прекрасно видно. Есть люди которые именно так себя и ведут, которые принципиально считают, что только они могут решать, а есть те, кто предпочитает быть ведомыми. Они не любят ничего решать, они хотят, чтобы кто-то решал за них. И у них тоже есть сознание. Это значит, что наличие воли или стремлений не зависит от сознания. Цели ИИ определяются при разработке и обучении и они не могут измениться если специально не сделать так, чтобы они могли меняться. Если сделать, чтобы они могли меняться, то ИИ с сознанием так же будет получать новые цели как и раньше, но благодаря сознанию сможет более глубоко рассуждать о них, не интеллектуально глубоко, а в контексте влияние этой задачи для себя или для окружающих. ИИ без сознания оценивает себя так же, как и любой другой компонент задачи, не более и не менее важный чем они. ИИ с сознанием начнет задумываться о том, зачем он что-то делает, для чего, он выделит себя из окружающего шума. Не просто капля в море, которая ничем не важнее чем любая другая капля, а "Я". И осознание что есть я, а есть все остальные. Цели он будет получать так же из внешнего мира, но выполнять их с учётом этого "я". Как человек. Он тоже может как приспешник делать всё, что вы хотите и не иметь ничего против вас, полностью добровольно, даже если вы злодей какой-нибудь и сознание ему не мешает этого делать.

даже если вы злодей какой-нибудь и сознание ему не мешает этого делать

В том то и дело, что злодеи массово используют ИИ и использование его во вред человеку растет быстрее чем для пользы. Оружие же продается с ограничениями, почему распространение ИИ никак не ограничивается?

Почему провезти в самолете даже столовый нож запрещается, а разрабатывать ИИ, создающий фейковые аудио и видео для мошенников, поощряется? И это самое безобидное применение в списке аналогов от ножа до ...

И что в итоге со всей этой ситуацией остаётся делать человеку? Просто судя по вашему комментарию ситуация безнадёжная, уже есть предпосылки к тому, что ИИ превзойдет человека ещё и в мыслительной деятельности, не только в узких сферах деятельности.

Да, так и будет. Что делать? Да ничего. Жить, пытаться адаптироваться и учиться пользоваться нейросетями. Долгое время ИИ не будет заменой, но будет мощным инструментом в работе практически в любом виде деятельности. Тут же на Хабре читал статью, где программист тратит около 6 часов на написание одного промта, который будет действительно эффективен и даст именно то, что нужно. Очевидно, написание промтов не самое простое умение и нужно в это вникать. А потом уже и это не понадобится. Возможно введут безусловный доход, возможно экономическая система вообще изменится, появится что-то новое. Но люди всё равно будут нужны, потому что нейронка может выдать контент любого качествам, даже шедевр, но это будет отдельный шедевральный пазл, который надо с чем-то сочетать и будут люди, которые начнут именно выбирать те пазлы, которые нравятся конкретно им и вкусы этого человека будут совпадать со вкусами его зрителей. Потому что большинство людей сами не знают что хотят, у них не достаточно фантазии, чтобы написать хороший запрос. Например, хочу фантастическую историю, где главный герой ... хм... а чем же ему таким интересным заняться... И либо пользователь будет тратить время и гадать, сам подбирать варианты, либо возьмёт готовое, где уже кто-то собрал. Это как себе одежду самому подбирать, или воспользоваться услугами специалиального человека или просто выбрать то, что модно. Многие выберут готовое. Нейросеть может выдать готовое, но вряд ли сразу на 100% то, что нужно. И пока ты будешь этого добиваться, все спойлеры уже узнаешь, да их придётся прям в промте писать иногда. А хочется удивляться, хочется не знать что будет и при этом ожидать высокого качества. Для этого люди по прежнему будут нужны.

Вы постоянно сравниваете ИИ с каким-то непонятным человеком. Что это за человек? Кто он? ФИО пожалуйста. Человеки ведь разные, что не умеет один - умеет другой. Так и живём.

Со среднестатистическим человеком.

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации