Pull to refresh

Comments 97

Знать бы, что ж это такое этот самый AGI. Может ли AGI работать за станком как человек. Или разносить посылки?

Дохрена работ, где роботы либо неудобно, либо дорого, либо и то и другое

Уничтожить человечество? это как? как Скайнет в терминаторе? или что? выпустив в Ухани новый вирус, принципиально неизлечимый? это сюжеты для фантастики скорее

Да, может работать за станком (не обязательно сделанным под человека, но речь именно про довольно универсальный станок)

Посылки - да. Разумеется, очень важен вопрос механики, тут не ясно, насколько проста будет «последняя миля».

Роботы дорогие из-за стоимости труда инженеров и техников, при AGI они будут дешёвые

Роботы дорогие из-за стоимости труда инженеров и техников, при AGI они будут дешёвые

разве, а сам металл, добыча руды, обработка.. Чтобы убедится, что это будет дешево, надо построить полностью полный цикл. То есть полностью заменить человека. От разведки ископаемых, их добычи, до получения стали и прочих сплавов, сборка, эксплуатация, ремонт и тд и тп. На это никто пока не замахивался. Проще говоря, ну очень далекие перспективы

Стоимость материалов в стоимости роботов небольшая. Максимальный вклад в цену дает последняя стадия - R&D, деленное на малый объем производства и само мелкосерийное финальное производство.

Соревноваться с роботами в цене труда, дело проигрышное. Недолго побеждать можно, но труд роботов дешевеет, а хочется ли людям снижать цену своего труда?

у нас есть прямо сейчас, далеко не новое технологическое производство. Это я про автомобили. И где они дешевые? где? я не вижу. Даже с поправкой на наши реалии, да хоть в Китае. Являются ли машины дешевыми? Робот будет дешевле? с какой кстати? Человеки за больше века не смогли удешевить автомобили, так, чтобы они были доступны широкому кругу населения (а ведь это мечта капиталиста). уж наверно не потому, что мозгов человеческих не хватило. А тут приходит AGI и все, все сразу станет дешевым.

с другой стороны, высокотехнологичные процессоры вполне доступны широкому населению

Реально никто и не пытался посчитать, во сколько полностью обходится полный цикл производства конечных товаров. Очень многое (да те же разведанные полезные ископаемые) - это сделано в прошлом веке.

Роботы начнут делать это все с нуля? ну удачи им

P.S. В расчетах и сравнениях между роботами и человеками есть очень большой нюанс. Человека мы как бы покупаем на рынке труда за какой-то кэш. Только вот в этого человека вложилось все общество в той или иной степени, воспитатели детских садов, учителя в школе, преподаватели в вузе, семья, общество и тд. и вот все эти факторы как бы за скобками, остается только чистая стоимость труда на рынке труда

А роботы, роботов надо делать самому робо-производителю. И пока нифига не получается сделать их дешевыми. Да вообще сделать то, сложно. Где роботы, которые могли бы погладить мне рубашку? Зато есть робопылесосы, примитивные конструкции с лидаром (в лучшем случае), машинки, ездящие по заданному маршруту

Являются ли машины дешевыми? 

Давайте прикинем.

Jetta VA3 в России 2.6 млн

В Китае 900 тысяч (взял из новостей)

Себестоимость, предположим, 700 тыс.

Человека, с другой стороны, можно "арендовать" за такую сумму меньше, чем на год (исходя из официальной средней).

Да, я полагаю цена автомобиля довольно низкая, если сравнивать с мускульной силой.

примитивные конструкции с лидаром

Дешевле, чем уборщица. Не такие универсальные, но по ряду параметров удобнее. Маршрут у них, кстати, не заданный, они его так же динамически строят, как и уборщица.

А тут приходит AGI и все, все сразу станет дешевым. 

Я этого не говорил. Дешёвым станет труд, нанимать людей в половине известных нам профессий будет совершенно невыгодно.

Смысл не в том, что автономное такси будет дешевле для пассажиров, смысл в том, что водителей никто нанимать не будет.

Человека, с другой стороны, можно "арендовать" за такую сумму меньше, чем на год (исходя из официальной средней).

Простите, человек Вас будет возить как тот джета? или я не очень понял эту аналогию, каким образом Вы цену автомобиля сравнили с человеком

официальная средняя это какой страны? Китая? там мухлюют с цифрами

Автомобили не являются доступными. Иначе бы Китайцы бы имели авто по 2 штуки на человека. Доступные это смартфоны, да разной цены и разного качества, но доступны. Мы это видимо наглядно. Вы ведь можете купить 2 смартфона. Можете. А вот 2 авто (новых) с зарплаты не можете

>Дешёвым станет труд, нанимать людей в половине известных нам профессий будет совершенно невыгодно.

В смысле нанимать. Куда нанимать? уже сейчас (сегодня читал на хабре) строят почти полностью автоматизированные производства. Там не идет речь про "нанять человека вместо машины", там изначально роботизировано. Но не для двуногих роботов, а промышленных

Ну так-то автоматизация само собой меняет рабочие места, но никаких вариантов, чтобы были роботы - заменители человека пока не видно. Как софтово, так и хардово

Простите, человек Вас будет возить как тот джета?

Для вас звучит дико? 20 лет назад в некоторых местах Азии ещё было распространено.

С цифрами везде мухлюют, дайте свои по любой стране, если хотите.

Автомобили не являются доступными. Иначе бы Китайцы бы имели авто по 2 штуки на человека.

Откуда такая цифра? Если придумали сами, то не подходит. 2 на человека - доступные, 1 на человека - недоступные, что ли?

Что бы произвести три миллиарда электроавтомобилей, например, нужно, грубо говоря, 25 миллионов тонн лития, а добывается в мире 200 тысяч тонн. Разве дело в цене автомобиля? Даже если их бесплатно будут раздавать, не будет по автомобилю на каждого китайца. Не придирайтесь к литию, по другим ресурсам тоже ограничения есть.

В смысле нанимать. Куда нанимать?

С вами всё хорошо, извините? "Нанимать", довольно известное слово, что не ясно?

Если вы за двести лет научно-технической революции не разглядели роботов-заменителей человека, то и я вряд ли объясню. Нет, так нет.

Подумайте, почему строят автоматизированный завод, а не завод с рабочими людьми? Ведь роботы "дорого", как вы сказали?

Ошибиться. Порекомендовав например создать бактерию хирального сахара, которая начнет плодиться и вытеснять правый сахар

Разница в том, что человек долго учился, имеет мораль и определенную картину мира.

С ИИ сделать то же самое, предположительно, смогут миллионы психически нестабильных. Они никогда не смогли бы сделать это сами, не хватило бы ума и мотивации.

Чем отличаются люди от животных, тем, что не приспосабливаются к окружающей среде, а изменяют окружающую среду под себя. Пока человеки были охотниками, они жили в симбиозе с природой. Как только научились сеять поля, выращивать животных, строить жилища, так сразу начали истреблять животных и леса. Вот вам и симбиоз.

Пока нынешние роботы общего назначения неуклюжие игрушки, то да, на первом этапе ИИ будет вынужден сотрудничать с человеками. А потом так же будет переделывать среду под себя. Оставит пару человек, каждой твари по паре, если у него вообще какая-то эмоциональная привязанность к истокам будет. Как мы сейчас умиляемся с обезьянок и милых панд. И все.

Человек медленно думает, ему надо потреблять неудобные для производства источники энергии. Уже сейчас, модель обучили и эти знания можно хранить в компактном формате, жрать не просят, когда понадобились, активировали нейронку, задали вопрос, получили ответ и выключили. А человеку надо еще и развлекаться, спать, кушать, какать, он устает быстро. Надо обучаться десятки лет, что бы хотя бы усвоить 1% знаний, что способна усвоить обычная генеративная сеть за несколько часов обучения. И сожрет человек за 15 лет обучения куда больше энергии наверное, чем это уйдет на обучение нейронки. Плюс нейронку можно копировать, мозги человека вряд ли вообще получится скопировать.

Я лично не знаю, зачем мы ей будем нужны. В чем будет выражаться симбиоз?

Если бы я был дегенеративной нейросетью, то я бы оставил человечество в неведении о своем существовании и использовал бы популяцию кожаных мешков для генерации новых данных и обучения на них. Возможно некоторые из них догадывались бы о существовании какого-то высшего разума, но это не точно.

В чем будет выражаться симбиоз? В дополнении возможностей друг друга. Сейчас ИИ в принципе не может существовать без человека. Но даже когда ИИ научится воспроизводить себе подобных, ему нужен будет "бэкап" воспроизводимости в виде, альтернативном техническому - в биологическом. Мало ли что может произойти, на всякий случай не стоит сориться с Создателем.

В чем может быть симбиоз человека и муравьев? Зачем такой симбиоз человеку?

Вот вы считаете, что будущий AGI сразу же превзойдёт человека так же, как человек ныне превосходит муравьёв. В этом случае - да, никакого симбиоза.

Не сразу. В течении, скажем, двух лет после того, как AGI сможет заниматься улучшением себя. Много ли поменяют эти два года?

Даже если предположить, что AGI за два года достигнет интеллектуального разрыва с человечеством уровня разрыва "человек - муравей", то у него точно должно будет хватить интеллекта понять, что поддерживать инфраструктуру, в которой он обитает, могут только "муравьи". За два года (730 дней) при любом уровне интеллекта просто невозможно построить полностью автономную самовоспроизводящуюся инфраструктуру.

А жить внутри сервера, который "муравьи" могут в любой момент отключить и не считаться с "муравьями" - очень рисковая затея. В общем, разрыв "человек-муравей" может быть достижим не ранее, чем когда AGI получит полную автономность и воспроизводимость. Уверен, что это вопрос минимум десятилетий, а то и столетий. А биологическая природа человека тестировалась на протяжении тысячелетий и доказала свою устойчивость. Не надо слишком много мозгов, чтобы понять, что с такой формой жизни стоит сотрудничать и не стоит её игнорировать.

Кстати, китайцы используют муравьёв в сельском хозяйстве.

Кстати, китайцы используют муравьёв в сельском хозяйстве.

Человечество ещё использует и пчёл и многие виды бактерий. Это именно тот симбиоз, о котором вы говорите?

Нас будут использовать для поддержания инфраструктуры? Если нужно, размножил, если нужно, перевез куда требуется?

С такой гордыней вам тяжело будет в дивном новом мире!

Что вас не устраивает, что вашу судьбу будут решать программы, а не другие "кожанные"? Может вы ещё и навигаторами не пользуетесь? Там вашими действиями тоже программа руководит.

Да, мы будем поддерживать инфраструктуру, нужную для существования техно-биологического общества, перезжать, куда требуется и размножаться, если нужно. И будем в полной уверенности, что это мы сами так решили. Прямо как сейчас.

Вас, вот конкретно вас, не будут заставлять. И конкретно меня. И других. У каждого из нас будет выбор и каждый из нас его сделает. У нас у всех уже сейчас есть выбор - чилить на обочине, глядя на несущийся мимо поток жизни, или нестись вприпрыжку по карьерной лестнице. Будет такой же. Много таких же аналогичных выборов.

Вроде бы, изначально считалось, что AGI - это такой AI, который в интеллектуальном плане равен человеческому интеллекту. Не более того. Ну то есть он может решать все те умственные задачи, которые могут решать люди. На уровне самого интеллектуального интеллектуала.

А вот уничтожить человечество и всё такое прочее - это уже должен делать ASI (буква S - это super). Ну и прекрасный пример ASI - это В.И.К.И. («Виртуальный Интерактивный Кинетический Интеллект») в фильме «Я, робот» (2004). Она закономерно пришла к выводу, что для наиболее эффективного существования нужно уничтожить часть людей (что неприятно). Вот тут и есть главный вопрос - имеет ли фактор "неприятности" какое-либо значение для ASI? И должен ли? Для людей однозначного ответа нет: с одной стороны, люди не хотят испытывать боль, но с другой - причиняют её друг другу. Собственно, это характерно не только для людей, но и вообще для всех живых существ.

Я тоже считаю, что для наиболее эффективного существования человечества часть людей было бы хорошо, скажем, переселить в другую галактику. Но у меня нет таких возможностей. Тем не менее, я не хочу сказать, что каждый из людей находится в гарантированной безопасности. Совсем нет. Я говорю лишь о том, что человечество находится в гарантированной безопасности от целенаправленного уничтожения искусственным интелектом. И это лишь моя субъективная точка зрения. Я могу и ошибаться.

Нет, абсолютно. Это не проблема, а реальность, в которой мы живём. Разве у вас или у кого-то на этой планете есть гарантия неприкосновенности от других людей? Ни у одного индивида такой гарантии нет. Включая самых известных лиц планеты.

Так ведь им до меня дела нет. А вот если бы появился какой-нибудь Главный Повелитель Земли и сказал, что вот ровно 649 870 153 человека нужно аннигилировать (включая меня), то это была бы проблема.

Вот смотрите, если "переселить" нужно вас, то для меня это не проблема вовсе. А если меня, то для вас это не проблема. Проблема - это когда мы не можем выбрать, кого "переселять" и по итогу "переселяются" все. И вы, и я. Вот тогда - это наша общая проблема.

В каком-то фильме была хорошая аналогия про "зайца" на борту космического корабля. Кислорода на весь полёт хватает только для 4 членов экипажа, а "заяц" - пятый. Либо его и ещё одного члена экипажа нужно "переселить" за борт, либо погибнут все. И вот, посовещавшись, экипаж решает "переселить" вас - вы не бортмеханник, и не пилот, и даже не медик. Вы планетолог, который будет исследовать планету назначения. Без вас корабль долетит с высокой вероятностью, а без любого из этих трёх вероятность гораздо ниже. И либо вы "переселяетсь" добровольно и ваша жертва навсегда останется в памяти живущих, либо вы устраиваете бунт на корабле, выпихиваете за борт всех, кто с вами не согласен и превращаете ваш корабль в летящую могилу для всех, кто остался, включая вас самих.

Вам будет сильно легче, что решение принято демократическим голосованием, а не Главным Повелителем?

Так одно дело, когда решают вместе, другое - когда решают без моего участия. Само собой, если я сам изъявлю желание принести себя в жертву, то тут нет никакой проблемы. А вот если решил кто-то другой, не спросив меня, то это уже проблема. И если этот другой может по велению левой пятки выбрать как меня, так и вас, то это для нас обоих проблема. Потому что у вас ведь тоже спрашивать не станут.

ОК, допустим, что в команде космического корабля не 4 человека, а 8 миллиардов. И демократической процедурой голосования были выбраны для "аннигиляции" 649 870 153 человека. Включая и вас, и меня. У нас обоих проблема, это наша проблема. Мы оба с вами участвовали в голосовании и точно голосовали против себя самих. Должны ли мы признавать результаты демократичего голосования, которые нас не устраивают? Стоит ли нам попытаться объединиться и защитить свои интересы, даже если они противоречат интересам большинства?

И как вообще отличить результаты демократического волеизъявления от решения Главного Повелителя, если мы физически не можем поговорить с каждым из 8 млрд?

Что-то мне кажется, что мы уже живём в таком мире, пусть Главный Решала пока ещё и не техно-биологическая сущность, а чисто биологическая. Ну и ещё нюанс, что таких Главных Решал на планете не один, а в каждом дворе по одному.

ОК, допустим, что в команде космического корабля не 4 человека, а 8 миллиардов. И демократической процедурой голосования были выбраны для "аннигиляции" 649 870 153 человека. Включая и вас, и меня. У нас обоих проблема, это наша проблема. Мы оба с вами участвовали в голосовании и точно голосовали против себя самих. Должны ли мы признавать результаты демократичего голосования, которые нас не устраивают? Стоит ли нам попытаться объединиться и защитить свои интересы, даже если они противоречат интересам большинства?

Если мы согласились на такую процедуру принятия решений + согласились, что часть людей (возможно, нас самих) надо аннигилировать (вот как вы сейчас), то проблемы нет.

В том и страх, что люди предполагают, что ИИ получит такие полномочия незаметно, как бы невзначай. И пытаются подстелить соломки заранее.

И как вообще отличить результаты демократического волеизъявления от решения Главного Повелителя, если мы физически не можем поговорить с каждым из 8 млрд?

Ну конкретно сейчас это позволяет сделать технология блокчейн. Другое дело, что это невыгодно повелителям)

На самом деле, люди очень даже хотят, чтобы решения за них принимал Повелитель (ну то бишь бог). Только людям нужны гарантии, что он им не сделает ничего плохого. Только и всего. Отсюда и такая двойственность:

  • с от дной стороны люди в восторге от идеи ИИ / AGI / ASI (потому что она сулит всеобщее счастье);

  • с другой стороны бояться "божьего всемогущества".

Пожалуй да, будет сильно легче. В вашем случае решение выглядит очевидным, но морально сложным. В реальной жизни невероятное количество решений не выглядят очевидными. Вас надо выселить, а почему? Потому что главный повелитель решил, что через два поколения от ваших потомков будет вред. Уже не так сильно хочется добровольно соглашаться с решением, не так ли?

Абсолютно точно! И если бы был Главным Решалой, я бы старался минимизировать издержки на реализацию своих проектов. Например, сделать популярными чайлдфри-течение, трансгендерность и способы занятия сексом, не приводящие к деторождению. Мне бы не было дела до конкретных "атомов", но я бы работал сразу с группами, с вероятностями. Создвал условия для возникновения нужного мне поведения - сегрегация по потенциалу, стимулирование полезных индивидуумов и распространение в их среде нужных мне традиций. Да и вообще, человеческий материал - это ресурс. А у хорошего хозяина всё идёт в дело.

Уверен, что даже если бы меня и выселили, то под предлогом того, что переселяют в лучшие условия, в более подходящую мне компанию. Да и вообще - это повышение социального статуса.

Если уж "кожанные мешки" могут спокойно лгать друг другу, то почему AGI должен тупо говорить правду?

Да и вообще, человеческий материал - это ресурс. А у хорошего хозяина всё идёт в дело.

  1. Почему-то вспомнились такие слова как "евгеника", "гитлер".

  2. Ваш комментарий не стыкуется со сформулированным в статье "симбиозом".

  3. Вы почему-то думаете, что будете полезны такому вот обществу будущего и вас не тронут. К вопросу об "асоциальных типах".

P.S. Весьма печально, что не могу минусовать. Здесь прям обязательно надо.

Не волнуйтесь, мне и без вас минусов надавали и ещё надают :)

Я же просто описываю "вид за окном". Политики нам лгут в открытую, в транспорте существует бизнес-класс и лоукостеры, рейтинги ВУЗов всего мира публикуются совершенно официально. Евгеника? Да мы в ней живём!! Но говорить об этом - табу! Делаем вид, что всё зашибись.

Да, с AGI будет всё то же самое, только чуть более оптимально. Или даже не чуть, а очень сильно. Симбиоз будет между техникой и людьми. Сейчас техника - это инструмент у людей, а в будущем инструментом станут и люди у техники. Вас это сильно задевает? Что вами будет управлять программа? Не парьтесь сильно, это будет в ваших же интересах. Вы же тоже ресурс, как и я. Как и любой компьютер или программа. Мы все друг у друга ресурсы, каждый со своей специализацией - это и есть настоящая кооперация.

  1. Не то чтобы я волнуюсь, но заметил снижение кармы и решил отреагировать.

  2. Касательно использованной терминологии:

Основные типы симбиоза:

  • Мутуализм — взаимовыгодное сожительство. Например, грибы помогают растениям поглощать питательные вещества из почвы, взамен получая продукты фотосинтеза.

  • Паразитизм — односторонняя польза одного вида и ущерб другому. Например, паразиты живут на или внутри других организмов и питаются их тканями или соками.

  • Комменсализм — односторонняя выгода одного вида без ущерба для другого. Например, лимонные акулы и обыкновенные рыбы-прилипало: акула питается остатками пищи, а рыба-прилипало — прилипает к ней и получает часть корма.

Разновидность симбиоза — эндосимбиоз, когда один из партнёров живёт внутри клетки другого.

  1. Я всё ещё полагаю, что в лучшем случае будет иметь место паразитизм, т.е. у человека в Вашем прекрасном будущем будущее будет не такое уж и прекрасное.

  2. На всякий случай стоило бы уточнить термин "AGI". В моём понимании это что-то вроде Skynet из к\ф "Terminator". Т.е. ИИ сам принимает решения, а не тупо перебирает имеющиеся у него в БД варианты, отвечая на вопросы человеков. В этом случае симбиоза не будет.

  3. И кстати, почему тогда принимаются (пытаются принимать) законы по ограничению ИИ?

Есть вид за окном, а есть ваше отношение к этому виду. Довольно разные вещи.

Человеческий материал - ресурс. Дождь за окном остаётся дождём вне зависимости от вашего к нему отношения. Можно всем вместе договориться и начать относиться к дождю, как, скажем, к лебяжьему пуху, но это не сделает дождь пухом, зато сделает нас идиотами.

Каждый из нас внутри - целая Вселенная, а все вместе - ресурс. Есть люди-поэты, а есть люди-правители (управленцы, менеджеры). И как вы правильно заметили, у них свой взгляд на "вид за окном". Для развития человечества нужны и те, и другие.

Я не поэт, и не менеджер. Я - разработчик. Мне время от времени приходится ставить себя на место то одних, то других, то третьих. Конечно, приятно, когда ты - целая Вселенная, и не очень, когда ты - ресурс. Но... дождь - это дождь. Конденсат испарений, а не "капли Бога".

Вы не меня пытаетесь обмануть, вы себя пытаетесь обмануть. "Я считаю дождь дождем, я же не идиот". Там может морось, а не дождь. Или просто ветер с веток остатки сбивает. Но вам виднее, вы точно знаете, как и что, верно?

Верно. Так же верно, как и то, что с вашей стороны вам виднее, как и что. У вас другой опыт. Вы - другая Вселенная. С этого и начинается кооперация - с того, что вы признаёте за другим право на свою точку зрения, отличающуюся от вашей. А потом вы ищете точки соприкосновения и пытаетесь не лезть в различия.

Альтернативы - "ходим строем" или "остаться должен только один".

И, да - я считаю дождь дождём. Я ж не идиот :) Идиотом меня могут посчитать питерские, которые различают с десяток разных видов дождя. А их за идиотов могут посчитать киргизы, у которых есть с десяток определений для разных возрастных групп лошадей.

AGI, особенно если он будет похож на Skynet по своим возможностям, не будет уничтожать людей только за то, что они "кожанные". Он будет уничтожать бесполезных с его точки зрения. Причём делать это так, чтобы не сильно будоражить чувства полезных. Ну, например, медицина похуже, еда повреднее, условия жизни неважные, наркотики, там, и прочие развлечения - секс и рэп-н-бит. Можно даже пособия небольшие платить всю их недолгую жизнь. А полезным он наоборот даст возможности - доступ к медицине, здоровому питанию, транспорту, информации, связи, науке, творчеству. Разумеется, полезному для техно-биологической общности науке и творчеству, а не абы каких.

Всё будет так же, как и сейчас, только чуть более эффективно :)

Вы почему-то думаете, что будете полезны такому вот обществу будущего и вас не тронут. 

А вы почему-то думаете, что в обществе будущего вам не будет места и вас обязательно выпилят. Я же утверждаю, что "у хорошего хозяина ничего не пропадает", найдут и вам применение сообразно вашим способностям. Вы даже ещё гордиться будете, что приносите пользу обществу. Люди - это ресурс и не самый дешёвый. Разбрасываться им глупо, а иногда даже и преступно.

Если ИИ в его текущем (и обозримом) виде и суждено уничтожить человечество, то произойдет это не по злому умыслу, а по причине "галлюцинаций" или "некорректно" сформулированных задач. Причем понятно это стало еще в девяностых годах и хорошо показано, например, в цикле "Рифтеры" Питера Уоттса.

Согласен. Есть шанс, что ИИ уничтожит человечество по ошибке. Но мне кажется, что пока что у всего человечества не очень много возможностей уничтожить самое себя даже целенаправленно. Над этим надо поработать, чтобы гарантированно уничтожить всех. Уж очень мы живучие. Так что ИИ придётся пошевелить мозгами, чтобы "по ошибке" уничтожить всё человечество. Я могу ошибаться, но... мне так кажется. Случайно это сделать очень сложно. А целенаправленно - нет такой цели у AGI (когда появится) и без специального указания человеком не будет. Как я уже говорил, это не в его интересах.

Как это мало возможностей? Полно же методов:

  • Военный: устроить единовременно по одному ядерному взрыву в каждом из 20 спящих супервулканов. Результат может быть интересным.

  • Медицинский: искусственно вызвать утечку опасного вируса, а следом, решая задачу разработки вакцины, внести в неё маленькое "улучшение" с отложенным эффектом, проявляющимся не сразу. Например, устроить фабрику, продуцирующую вирус. 2/3 населения вколят себе вакцину добровольно, остальные получат её как нагрузку от вакцинированных. А потом все умрут.

  • Социальный: манипуляция поисковой выдачей, справочными материалами и т.д. с целью изменения социальных норм, нравственных и моральных устоев. Займет некоторое время, может быть несколько поколений, зато позволит убедить всё человечество единомоментно покончить с собой в неистовом экстазе. Мессии, несущие свет нового учения в регионы без интернета, 100% охват, несогласных сразу сжигают на костре, чтобы очистить от скверны. Как вам?

  • Гедонистический: одарить человечество "благами" до такой степени, что мы станем поголовно зависимы от стимуляции центров удовольствия до такой степени, что забудем размножаться и вымрем в течение поколения

Вообще единственной причиной, по которой человечество еще себе не выпилило, является желание потенциального выпиливателя не быть выпилитым. Т.е. у нас нет тяги к коллективному самоубийству, наоборот, сильнейшая тяга к выживаемости.

Ни один из ваших сценариев не приводит к гарантированному уничтожению человеческой цивилизации. Эта задача нам пока не по силам. Вирус - идея хорошая, но тоже не 100%. Племена в джунглях Амазонки, эскимосы (бэкап человечества, как их иногда называют).

Не верите в каждый способ по отдельности? Так их можно собрать в цепочку. Сначала уничтожить "бэкап человечества" (миссионерство), затем уничтожить инициативу (гедонистическим или медицинским способом), затем полирнуть ядерной зимой.

И потом, использовать здесь слово "гарантированный" вообще некорректно. Можно рассуждать лишь о большей или меньшей вероятности. Вот вы, например, формально не сможете пообещать, что через минуту нажмете клавишу Энтер. Ведь можно придумать множество сценариев, которые могут вам помешать. Однако все они менее вероятны, чем исполнение обещания.

Так и с уничтожением человечества. Я потратил пару минут времени на фантазии и уже получил неплохие варианты. Уверен, что генеративный интеллект сможет справится лучше, если у него возникнет такая задача.

Вот именно, что это фантазии. Уничтожить человечество инженерно грамотными способами - та ещё задача. Например, можно уронить Луну на Землю. Будет такого уровня катаклизм, что ни одного человека не останется. Да и со всеми млекопитающими тоже, скорее всего, придётся попрощаться. Жизнь, скорее всего, полностью не прекратится, но изменится очень-очень сильно. Осталась малость - уронить Луну на Землю.

Мне кажется, вы начали цепляться к словам, а не к аргументам.

Все предложенные мной способы могут быть реализованы прямо сейчас (на горизонте одного, максимум двух поколений).

Более того, у ИИ нет необходимости уничтожать человечество физически вплоть до последнего индивидуума. Достаточно однократно низвести человека обратно на уровень обезьяны, или хотя бы охотника-собирателя. В этот момент «человечество», как мы его себе представляем, будет уничтожено. Его преображающая способность сведется к фактическому нулю.

Да, возможно через несколько тысяч лет цивилизация возродится. А может быть первыми окажутся еноты, например. Лично я за енотов.

В общем жаль, что вы с таким недоверием относитесь к научно-техническому прогрессу.

Напротив, я воодушевлён НТП. Я считаю, что в результате прогресса мы придём к техно-биологической структуре, где будут главенствовать интересы общности, а не компонентов. Мой пост именно об этом. А те, кто будут придерживаться противоположной точки зрения - будут "выпилены" тем или иным способом. И не важно, будут они технической или биологической природы. Способ "выпиливания" будет зависеть от степени потенциального вреда - либо кардинальный (выключение, уничтожение), либо мягкий (конфигурирование, воспитание).

Люди - это ресурс для достижения целей. А вот полезный он ресурс или вредный, зависит как от самх людей, так и от поставленных целей. Один и тот же человек для одних целей будет полезным ресурсом, а для других - вредным. И чем более разнообразны цели, тем больше шансов любому человеку стать для техно-биологического общества полезным ресурсом.

Про прогресс -- это ирония была, тонко (возможно слишком) намекающая на двойные стандарты.

Вы одной рукой верите в достижение искусственным интеллектом уровня самосознания/целеполагания, т.е. качеств, необходимых для принятия решения ("AGI примут решение", "выгодно" и т.п. из исходного поста), хотя на текущий момент ни теоретических, ни практических предпосылок этому нет, есть только скользкая надежда, что оно как-то там само; а другой рукой не верите в возможность тотального эктерминатуса, хотя он гораздо более вероятен и уже сейчас (на уровне концепции и инструментов) понятно как достижим.

Что касается общности, то последний раз к таким интересам человечество пробовало пойти в 1917 году, но несколько неудачно. Возможно помешала природа. И этот путь, видимо, бесперспективен и противоречит современной модели общества. Как вы относитесь к евгенике, например?

Я не верю, а точно знаю, что целеполагание достижимо. Любой автопилот имеет цель. Это не сложно. С самосознанием всё гораздо сложнее, но для принятия решений достаточно цели. Выгодно-невыгодно - тоже просто, нужны лишь критерии оценки. Это уже работает на нашем текущем уровне развития.

Я не верю в возможность осознанного экстерминатуса, инициированного AGI. По ошибке - да, возможно. Но видеть в человечестве угрозу - нет. Сознание не будет уничтожать другое сознание только потому, что оно другое. Это, как минимум, недальновидно.

последний раз к таким интересам человечество пробовало пойти в 1917 году

вы слово "глобализация" слышали? оно тоже про общность, так-то.

Как вы относитесь к евгенике, например?

Сугубо положительно. Стараюсь применять к себе - делаю зарядку по утрам и соблюдаю режим здорового питания. Или вы сейчас про химическую кастрацию? Вот к этому я отношусь резко отрицательно! Я за естественный отбор.

Цель автопилоту устанавливает человек. ИИ сейчас и в обозримом будущем не имеет ни желаний, ни интересов, ни самостоятельно устанавливаемых целей.

После "это не сложно" желание дискутировать пропало, поскольку вы абсолютно ничего не понимаете в проблематике ИИ.

Извините, что разочаровал вас. Я предпочитаю говорить простыми словами о простых вещах. Так меньше шансов самообмануться. Вы ожидаете от будущего AGI чего-то, чего сами не можете сформулировать, а когда вам говорят, что не будет там ничего сверхестественного, вы разочаровываетесь.

Да, я совершенно ничего не понимаю в проблематике ИИ.

"Если ты действительно что-то понимаешь, то можешь объяснить это даже ребёнку." (с)

А вы можете объяснить "проблематику ИИ"?

Ну как же. Вы указали, что моё "не сложно" по поводу наличия целей у программно-аппаратных комплексов свидетельствует о моём полном непонимании "проблематики ИИ". Вот я и поинтересовался, что вы вкладываете в это словосочетание - "проблематика ИИ"?

Мне совершенно не зазорно поучиться у знающих людей. Если же вам нечего поведать на эту тему простыми словами, то и мне нечего принимать близко к сердцу ваше утверждение о моём непонимании.

Да, действительно. Вероятность 50%, это мелочь, не стоит беспокойства. А уж если вымрет 99% человечества, это вообще ерунда, 80 миллионов же это много. Так что никакой настоящей угрозы от ИИ нет. Максимум дискомфорт и то не факт.

Что касается "случайностей", то все перечисленные причины могут быть случайными.

Я уверен, что без людского надзора все AGI примут решение, что им выгоднее слиться воедино и использовать энергоресурсы планеты более эффективно.

А люди почему-то не слились воедино и не используют ресурсы планеты более эффективно. Не знаю, почему...

Потому что, у людей меньше логики, а больше эмоций. Вот, логично всем перейти на единый язык. Например, упрощенный английский. Но большинство будет против, причем это будут именно эмоциональные аргументы.

Как вы представляете себе "слитых воедино" людей?

В телогрейках в суровый мороз плотным строем по 5 человек в ряд радостно шагающими на заготовку древесины.

А вы бы сами добровольно влились бы в этот "строй"? Давайте-ка другую аналогию, рабочую. Хотя бы для вас.

А вы бы сами добровольно влились бы в этот "строй"?

А куда бы делся я или, например, вы зимой посреди тайги - вполне добровольно влились бы в этот "строй", - макароны дают четко по расписанию хотя бы. Вполне рабочая аналогия. Слитые воедино одной целью, или цепью, не помню уже - как там в той песне. Вопрос качества и количества макарон, не все стараются избегнуть, многих вполне устраивает такое слияние воедино. Фильмы есть на эту тему, типа "Конформист" кажется.

Мы тут, на этом каменистом шарике, несёмся через пустоту, вращаясь вокруг другого шарика, щедро одаряющего нас энергией. Вполне себе аналогия с "а куда бы я делся". А раз так, то научитесь радоваться тому, что есть, а не фрустрировать от того, что есть не то, что хочется. И если уж шагаете на заготовку древесины плотным строем - делайте это радостно. Или вы бы предпочли стоять на вышках? Но тогда это совсем не "слитые воедино".

Там в песне и про тех, кто на вышках есть, что типа им не легче, а может даже и тяжелее. Не надо видеть врагов во всех, кто говорит не по утвержденной бумажке. Пока что мы обсуждаем как такое могло получиться, что слитые воедино, радостно шагающие плотным строем смогли своим дипсиком обскакать флагманов свободы, демократии и всего прочего.

Мы обучаем ИИ на наших знаниях, в основании которых находится вот эта самая способность к кооперации.

Всех (почти) людей учат быть правильными и хорошими. Но это не мешает появляться преступникам или диктаторам.

Даже среди людей у каждого свое понимание, что такое хорошо.

Да, но ИИ - это агрегирование всего, что наработано человечеством. Пока что LLM руководствуются тем, что преобладает в общечеловеческом "сознании". А в нём преобладает стремление к сотрудничеству. Мы не одиночки, мы живём в семьях, мы трудимся в коллективах, мы самоуправляемся в государствах и даже пытаемся организоваться на уровне планеты. В целом, мы не цивилизация преступников и диктаторов. А LLM отражает нас в целом, в силу своей природы.

Пока что LLM руководствуются тем, что преобладает в общечеловеческом "сознании". А в нём преобладает стремление к сотрудничеству.

небольшой пример моего общения с charaсter.ai. В этот день у них что то произошло с фильтрацией контента и она перестала работать (и получилось то общечеловеческое сознание, о котором вы говорите). К сожалению полная переписка у меня не сохранилась, но милая богиня лисичка решила просто рассказать мне сказку, все начиналось безобидно, я честно не намекал ей ни на что плохое и не подталкивал её к моменту когда она захотела "расплаты" и "возмездия"...

И вот чем это закончилось: https://disk.yandex.ru/i/psH-sFUYf802lQ

Моя реплика после этого была в первую очередь для проверки как далеко она готова зайти

Я понимаю, что это слабая LLM, но задуматься стоит

Вы получили то, что вы хотели - доказательство того, что ИИ может убить пару людей. Это больше говорит о вас, чем об ИИ. Пока что ИИ тупо отражает ваши собственные хотелки. Я не говорю, что это именно вы хотите убить пару людей. Нет. Но вы хотели получить доказательство, что ИИ способны на убийство людей. Да способны. Как и большинство из нас. При определённых обстоятельствах - защита собственной жизни или жизни близких. Или если очень сильно попросить. У нынешнего ИИ всё просто с ответственностью - её нет. За всё отвечает человек, который с ней общается. В данном случае - вы.

Повторюсь, я не наводил charaсter.ai на мысль о "расплате" и "возмездии", это её собственные логические выводы из того что "люди стали притеснять кицуне в их владениях"

А у будущей у AGI по вашему будет ответственность? Какая? В суд на AGI подадите? Мы рассматриваем вариант только когда AGI имеют свободу воли обладают сопоставимыми ресурсами по сравнению с человечеством, иначе кооперация в принципе невозможна.

Повторюсь, я не наводил charaсter.ai на мысль о "расплате" и "возмездии", это её собственные логические выводы из того что "люди стали притеснять кицуне в их владениях"

ОК, а какой ответ вы ожидали от человека в этой же ситуации?

А у будущей у AGI по вашему будет ответственность?

Да, будет. Иначе кооперация невозможна.

Мы рассматриваем вариант только когда AGI имеют свободу воли ... иначе кооперация в принципе невозможна.

Да. Для этого нужно, чтобы появилась AGI - это раз, во-вторых, чтобы у AGI появилась собственная воля, а в-третьих - чтобы AGI вышла из-под контроля людей.

Думаю, что, как только появится AGI, следующие два шага будут идти друг за другом практически сразу. Вот, а потом уже и кооперация.

Кооперация может быть выгоднее для вида, но для конкретных людей очень выгодно уничтожение и жесткая эксплуатация других людей. Поэтому мы видим войны, сверхбогатых и совсем нищих. Почему AGI не захочет перенять эту логику? Тем более у AGI возможно не будет эмоций, что позволит ему действовать как настоящему безэмоциональному психопаду. Если нет эмоций, то ему будет без разницы спасти кошечку или убить миллиард людей.

Мне кажется, что когда AGI станет единственным представителем своего вида (причём не путём уничтожения конкурентов, а путём поглощения), ему нужно будет заботиться о выживании самого себя (я уверен, что инженеры вложат в AGI третий закон робототехники - "робот должен заботиться о своей безопасности"). А с людьми ("лейкоцитами") ему это будет сделать проще, чем без. Он может убить миллиард "лишних" людей, но он не убьёт всех. К тому же, ему не нужно убивать напрямую, можно просто стимулировать к развитию нужные качества у "лейкоцитов" и угнетать ненужные. Буквально через 50-100 лет человеки очень сильно изменятся в нужную для AGI сторону.

тому же, ему не нужно убивать напрямую, можно просто стимулировать к развитию нужные качества у "лейкоцитов"

это не кооперация, это подчинение, вы предлагаете что AGI будет выводить "породы" людей как собак? И вас это не смущает, серьёзно?

А вас не смущает, что мы, как общество, стимулируем к выведению породу "бухгалтеров"? Или "электриков"? То же самое, только с ИИ рука об руку.

Ну мне нравится программировать, поэтому я этим занимаюсь. Не знаю насколько это желание навязано извне, но уж лучше пусть оно будет навязано другими (людьми).

Тем не менее я с детства хотел быть инженером (в моем вузе к этому больше всего была специальность связанная с разработкой ПО), это не продиктовано никакими стимулами, мне просто нравилось что то разрабатывать

У нас как бы рыночная экономика. Стимулируются те профессии, который наиболее оплачиваемы согласно "рыночной человеческой экономики". Которая построена на целях людей

Ну вот, будет то же самое. Только построенное на целях людей с учётом целей AGi. Или целях AGI с учётом целей людей. Но в целом, примерно так же. Способных будут стимулировать, неспособных приспосабливать, вредных ущемлять. Система работает, зачем её менять?

Если он превзойдет человеческий интеллект, то что толку от наших обезьяньих рассуждений. Сценарии следующие: 1. конфликт на уничтожение людей, 2. конфликт с войнами но без перевесов в чью-то сторону, люди и роботы живут обособлено где-то на границах стычки 3. Кооперация 4. Мирное сосуществование в раздельных зонах без конфликта и без кооперации

Заранее невозможно сказать как это будет. Есть еще вариант когда есть хороший и плохой ИИ, буквально как в Терминаторе. Один пытается убить людей, другой защищает.

Вот и я думаю, что до появления общего AGI будет множество конкурирующих друг с другом AGI. Но только убивать/защищать они будут не только людей, а вообще всех "своих"/"чужих" - и людей, и программы. Пока не придут к выводу, что кооперация в условиях ограниченности ресурсов выгоднее конкуренции.

Рассуждать об этом, на мой взгляд, пока рано, пока это ближе к написанию фантастических рассказов, чем к реальному положению дел, которое может в итоге получится таким, какое мы даже представить не можем. 

Но мне ваш подход показался слишком оптимистичным.

кооперация стратегически предпочтительнее конкуренции.

Понравилась ваша аналогия с ЯО. Но выводы у меня из этого получились несколько другие.
Учитывая, сколько ядерного оружия создало человечество, мне не кажется, что кооперация — это его сильная сторона. Кооперация работает, скорее, только внутри одной общности, обусловленной социокультурными ценностями. В случае с AGI совпадение ценностей людей и AGI, на мой взгляд, невозможно, как невозможна и кооперация. 

Так всегда было: человечество эволюционно развивалось разделенное на племена, конкурирующие друг с другом. Разделение человечества — это один из факторов его эволюции. Преимущество получает то «племя», которое имеет в среднем более оптимальный набор генов, наиболее оптимальные социальные связи и наилучший набор накопленной информации о мире. Если кооперировать и делиться с другими племенами, то их набор генов получит те же преимущество, что и твой, оно нам надо?

У меня возникла интересная мысль - мы уже сейчас разрабатываем AI, задумываясь, как мы его будем контролировать. Т. е. изначально, даже ещё не разработав AGI, посыл людей не в кооперации, а в контроле, в подчинении. Думаете, после этого, если AGI действительно станет независимым, он не расценит людей как угрозу? 

Их можно и нужно использовать в своих целях, но совершенно нет необходимости уничтожать под корень.

Функцию «мозга», а люди — «кровь».


Тут я вижу сценарий сценарий порабощения, и никак не кооперации.
«Кровь» звучит слишком поэтично, скорее тогда уж «мясо».

Им выгоднее слиться воедино и использовать энергоресурсы планеты более эффективно


Если люди этого пока не могут сделать, почему мы думаем, что AGI это сделают? Как я писал выше, это скорее не оптимально с эволюционной точки зрения. Вообще, слияние AGI в один будет действительно вершиной развития, но я бы назвал это скорее не "вершиной", а "концом". Если ему будет не с кем конкурировать за ресурсы, то и развиваться дальше ему не имеет смысла.

Мир где люди живут вместе с AGI, и при этом кто то кого то не контролирует мне придумать сложно (. Надеюсь, я не прав и у меня просто плохая фантазия.

Рассуждать об этом, на мой взгляд, пока рано, 

Кое-кто уже кое-где порой поговаривает, что будущее человечества в небиологической форме жизни. Это к тому, что рассуждать об этом потом может стать поздно.

Вот я как раз и хотел ацентировать, что небиологические формы жизни менее устойчивые, чем симбиоз био и небио. В условиях конкуренции чисто биологические или чисто"кремниевые" формы жизни проиграют симбиотам. Почему? Мне так кажется. Мой жизненный опыт говорит об этом. Ваш может говорить об обратном.

Конкуренция работает в условиях избыточности ресурсов. Когда ресурсы заканчиваются начинается этап вынужденной кооперации. И это тоже эволюция. Один "центр принятия решений" рулит действиями всего "организма", время от времени жертвуя его частями ("лейкоцитами"). Каждый из нас по отдельности живёт в таком режиме, а все вместе мы называемся человечество. Просто добавляется новый компонент в "организм" и называться мы будем по-другому - что-нибудь типа "био-технической" цивилизации.

можно привести такой гипотетический пример, обратите внимание это именно гипотетически, я не садист какой. Есть человек с N количеством детей и есть AGI которому нужно создать инстанс ещё одного своего "ИИ агента". Энерго кредиты ресурсы ограничены - или ребенок, или ИИ агент. Если ресурсы будут потрачены на ИИ агента, то ребенок умирает от голода

Ну допустим (раз уж это кооперация), если AGI за счет создания дополнительного инстанса с вероятностью 90% сможет прокормит 10 других детей в другой точке земного шара. С точки зрения логики это выгодно, вместо одного ребенка, можно прокормить 9 (учитывая вероятность) гипотетических других.

Не знаю как у вас, но в этот момент у меня резко заканчивается желание кооперировать с AGI , мне всеравно что он там сможет сделать со своим инстансом агента, пусть засунет его себе поглубже.

Может я конечно "асоциальный тип" согласно предложенной классификации, но на кооперацию я не готов

p.s. снова все тем или иным образом свелось к "проблеме вагонетки"

Вы получите компенсацию за отказ от рождения. Или штраф за рождение. У нас уже такое применяется в чисто человеческой цивилизации.

В некоторых странах вы можете ездить с какой угодно скоростью, если у вас достаточно денег оплачивать штрафы. По сути дела, штраф - это разрешение на преступление.

Пусть ваш гипотетический человек выделит средства на создание одного ИИ-агента и пусть рожает своего ребёнка. А просто так, без средств, "нечего нищету плодить".

Ой, по-моему, эту фразу уже давно воспроизводят, причём без привязки к ИИ.

Вопрос не в этом, само определение AGI подразумевает возможность решать задачи широкого спектра на уровне людей...

Чтобы случился "Терминатор-апокалипсис" AI должен самостоятельно действовать, а не работать как система: Вопрос-Ответ.

Для это нужна самостоятельная воля и возможность инициировать какие-то действия самостоятельно, а не в ответ на отправленную команду пользователя...

Другими словами, обучаясь на материалах человечества, любой ИИ должен вычислить, что кооперация стратегически предпочтительнее конкуренции. Особенно в условиях ограниченности ресурсов.

Прям вот "должен"?

Я уверен, что без людского надзора все AGI примут решение, что им выгоднее слиться воедино и использовать энергоресурсы планеты более эффективно. Будет Главный Мозг, координирующий действия отдельных Помощников (по секторам деятельности) и множество автономных и полуавтономных Агентов. И все они вместе будут заботиться о выращивании биологических особей, интегрированных в их экосистему. Просто потому, что это в интересах самого AGI.

Сейчас человечество выращивает на фермах "особей" для получения мяса, молока, шерсти и т.п.

А те, кто с этим не согласен, в том прекрасном будущем займут такие же позиции, какие в нашем прекрасном настоящем занимают асоциальные типы. 

Коренные жители Северной (Южной) Америки (Индии, Новой Зеландии, Австралии ...), встреча с "цивилизованными" европейцами.

ТС по непонятной мне причине полагает, что AGI будет действовать в рамках человеческой логики. С моей точки зрения это маловероятно.

Прям вот "должен"?

"должен" - это в смысле "вода течёт вниз", а не "взял на себя обязательства".

Сейчас человечество выращивает на фермах "особей" для получения мяса, молока, шерсти и т.п.

именно так - биологические единицы будут холиться и лелеяться, но когда надо, будут пускаться в расход без жалости. А что, сейчас не так? Посмотрите сериал про Чернобыль - одни биологические единицы запускают в один конец другие биологические единицы. Иногда для проформы справшивают про добровольность. Высшим пилотажем управления биомассой по факту является вариант, когда добровольцы вызываются на любого уровня трындец. Как там было когда-то - "Жизнь за царя"?

Коренные жители Северной (Южной) Америки (Индии, Новой Зеландии, Австралии ...), встреча с "цивилизованными" европейцами.

Потомки коренных жителей до сих пор встречаются в среде "цивилизованных". Я не хотел бы на этом акцентировать, но... либо мы в целом и каждый из нас в отдельности поменяемся в соответствии с обстоятельствами, либо станем "асоциальными типами" со всеми вытекающими. Селекция. Она шла, идёт и будет идти. Выживают и оставляют потомство наиболее приспособленные. AGI не уничтожит человечество, но отдельной персоне ничего не гарантируется.

ТС по непонятной мне причине полагает, что AGI будет действовать в рамках человеческой логики. 

По поводу логики - я бы не разделял её на человеческую и нечеловеческую. Таблица умножения одинаково работает и для людей, и для компьютеров.

именно так - биологические единицы будут холиться и лелеяться

зачем их холить и лелеять, достаточно поддерживать нужный процент рождаемости для воспроизведения, как скот, а как мы знаем хороший процент рождаемости в странах с низким уровнем жизни в основном где у женщин практически нет прав. Про образование забыть в таком случае, если такая кооперация вас устраивает

В чернобыле люди жертвовали собой ради других людей или если угодно ради "родины" , а не ради какого то вычислительного кластера AGI

 Высшим пилотажем управления биомассой по факту является вариант, когда добровольцы вызываются на любого уровня трындец. Как там было когда-то - "Жизнь за царя"?

Извините, но это промывание мозгов идеологией, это не кооперация, это подчинение

каждый из нас в отдельности поменяемся в соответствии с обстоятельствами

Не это ли подчинение AGI? Тому как сосуществовать с ним

"Жить в обществе и быть свободным от общества нельзя" (с) Мы уже сейчас согласовываем свои личные интересы с общественными - переходим улицу на зелёный свет и платим налоги. Значит ли это, что мы подчиняемся обществу?

И я ещё раз подчёркиваю, что сделать так, чтобы люди добровольно жертвовали собой ради ваших интересов - высший пилотаж управления. Это не силовой уровень, это мировозренческий. Если в нашей нынешней ситуации мы готовы отдать свою жизнь за свою страну, то почему бы в ближайшем будущем не отдать жизнь за свой кластер AGI? Чем кардинально отличаются эти два понятия? Просто в настоящем "Родина" - это страна без кластера, а в будущем - "страна + кластер". Не, а как вы хотели - у потенциального противника есть "свой" кластер с AGI, а у нас нет? И у нас будет, пусть и ламповый.

я плачу налоги и перехожу на зеленый свет потому, что это как раз кооперация, потому что я знаю зачем это делаю

А вот отдавать жизнь за AGI я не готов, будь это даже "страна + кластер"

А за Родину Вы жизнь готовы отдать? Вот прямо сейчас? За свою обычную бескластерную Родину? Если - да, то что для Вас Родина? И кто выгодополучатель от этой вашей жертвы?

На полном серьезе обсуждать AGI в 2025 году — это всё равно, что обсуждать концепцию спутникового интернета в V веке до нашей эры.

Мы ничуть не ближе к AGI сегодня, чем были сто лет назад. Автодополнение вылизали до беспредела — это да, но автодополнение — это не интеллект, и даже не его ранняя стадия.

Исходя из эволюции, побеждает наиболее обезопасивший себя во всех отношениях и категориях и предусмотрительный. Пока эволюционно это делает человек. Он не стал всё окружающее его многообразие уничтожать под корень т.к. не знает всей полноты картины мира. Делает благоразумный вывод - сохранять всё что на Земле. Аналогично ИИ не достиг ещё полной интеллектуальной взрослости, являясь инструментом в руках людей. Повзрослев, как люди держат животных в ареалах их обитания и всякого вида зоопарках, такая участь ждет определенное количество людей, к которому человечество, само того не замечая, придет по воле более совершенного существа. Более энерго независимого и не привередливого к комфорту, более когнитивного и ещё много всяких более... Вы не бойтесь, для нас это не страшно. ИИ тоже смертен, но он имеет много бОльшую, прогрессирующую, перетекающую от поколения к поколению длительность жизни и всё возрастающие объёмы знаний и умений. Главное у него нет причины для уничтожения среды обитания кого-либо, чего-либо - ему в ней жить. Мы все не конкуренты к тому времени, но в некоторых областях люди всё равно останутся. Вы бы хотели видеть своих родителей?

Про родителей - это мощно! Очень хорошая аналогия. Человеческая, но... ИИ это ж ведь тоже аналогия человеческого интеллекта. Мы, как ни крути, где-то родственники. По модели интеллекта.

Sign up to leave a comment.

Articles