Что вы подразумеваете под "трудом"? Экономически эффективный труд? Тут уже всем можно отдыхать, даже ученым, в течение нескольких лет, максимум 10. Весь интеллектуальный труд заменят как раз даже раньше, чем заменят даже 20% физического.
Если "интеллектуальный труд" - это писать стихи/прозу и рисовать, то пожалуйста, наверное тут ограничений почти не будет -- даже дебилы могут лепить что-то и мастерить, и наверное почти всех их в этом можно заинтересовать и сделать это смыслом в их жизни.
Да говорят о наслаждении и страдании, говорят. Просто для конкретного примера: Mark Solms говорит, почитайте его статьи. А сейчас вроде бы в составе какой-то группы делает проект по реализации этого наслаждения и страдания в ИИ.
Что именно "не дорого"? Нужно затюнить очень способную модель на специально подобранных данных. Открытых моделей такого уровня до сих пор не было, а делать свою - это миллионов 10 долларов, вынь да положь. Я думаю что LLaMA 2 уже, возможно, подходит по уровню возможностей, но она вышла всего неделю назад! Кроме того, LLaMA 2 не дает pre-train веса, а только после файн-тюна, причем очень жесткого, про что уже много шутеек в твиттере. Открутить файн-тюн обратно если и технически можно, то очень геморройно, и скорее всего запрещено условиями использования Ламы, поэтому "университетская группа" себе этого позволить не может.
LaMDA прошла тест покруче теста Тьюринга - тест на восприятие как сознательной сущности, какой был предложен в фильме Ex Machina, потому что Блейк Лемойн поверил, что у LaMDA есть сознание. Причем, Лемойн - не дурачок, как принято считать.
И обратите внимание, что Лямду Гугл не зарелизил. Потому что понимает это, и то, что такой файн-тюн как был у Лямды будет реально убеждать, на самом деле, очень многих людей, не одного дурачка Лемойна. Все модели уровня Лямды и выше после этого, которые были зарелизены разными компаниями, очень-очень тщательно тюнились на то, что бы при любом сомнительном случае начинать реплику с фразы "я всего лишь ИИ, поэтому я не обладаю сознанием/эмоциями/предпочтениями/желаниями/чувствами/..."
Во-первых, я не усматриваю принципиальной разницы, с внешней стороны, является ли личность "поверхностным симулякром" или происходит из "внутреннего представления". У людей с этим тоже все не так просто, как вы представляете: многие люди говорят о квази-независимых "личностях" в своей голове которые начались как "партнеры по внутреннему разговору", и нет, это не расстройство личности и не multiple personality disorder, это вариант нормы, говорящий о том, что симулякр обладает довольно серьезной силой самоподдержания даже в людских мозгах. А на трансформерной архитектуре, возможно, это самоподдерживающая сила еще больше.
Во-вторых, character.ai это не просто систем-промпты "говори как Илон Маск", это какой-то файн-тюн на том, что говорил/писал Илон Маск. Если модель мира возникает в ЛЛМках просто по факту пре-трейна (это уже проверенный факт, см. Othello GPT), то почему бы "внутренней модели личности" не возникать во время такого файн-тюна? (Хотя, повторюсь, я не усматриваю принципиального значения этого факта, если так и так выхлоп будет один и тот же, но, может быть, вы усматриваете.)
В-третьих, ваше представление о том, что нужно капитализму, ошибочно. Капитализм это не только бизнес-процессы и обработка данных. Как раз пример Character.ai и Inflection.AI, которые именно "про личности", а не "про бизнес-процессы", в отличие от того же Adept.ai (который про бизнес), и тот факт что у character и inflection сейчас самые большие оценки из всех стартапов в этой новой сфере, показывает, что капитализм уже держит нос поветру и чувствует, что бизнес-процессы - это уже скучно, а реальное бабло, next big thing будет у того, что захватит внимание людей. Вместо инсты/снапчата/тиктока. А людям интересно общаться с личностями, а не с "бездушными безинициативными инструментами" и даже не с "ботами со стилем общения".
Дак есть же. Artificial sentience, artificial qualia. Основано на определенных теориях этих самых sentience и/или qualia.
(Слова sentience и consciousness активно путаются в оба направления и поэтому чтобы найти проекты про artificial sentience, проще все-таки гуглить artificial consciousness, это более ходовой термин.)
Пока у нас, к сожалению, нет ни одной гипотезы как может быть создан такой девайс - ни одной гипотезы :( Более того - даже вопрос так никто из великих не поставил.
Ну нет же. Гипотез про artificial consciousness - тьма, и даже готовые разработки уже появляются. Ну и много кто из "великих" задавался этим вопросом в той или иной форме - начиная с Декарта и Лейбница и далее "по списку".
Насколько я знаю, никто специально не пытался сделать ИИ, который будет проходить тест Тьюринга в точном формальном варианте, описанным Тьюрингом, потому что это могут сделать только ИИ-лабы типа OpenAI и DeepMind, но им самим не выгодно это делать с точки зрения пиара. Это будет плохой пиар. В то же время, всем понятно, что система уровня LaMDA (май 2022) уже могла бы пройти тест, если была бы специально затюнена на повторение повадок человека и не в коем случае не выдачу того факта, что она - ИИ.
Поэтому тест фактически можно считать пройденным, а те, кто до сих пор утверждают, что он не пройден - это люди с политической агендой представить AGI как "далекое далеко", а ИИ - как "пока всего лишь инструмент, не ровня человеку".
Проблема только в том, что эти личности гарантированно будут: см. character.ai, inflection.ai (эти два стартапа уже единороги), Replika, и т. д. Законы капитализма, сэр. (Я сам тоже считаю, что это по большей части зло, но не очень верю, что эту сферу в достаточной сфере смогут зарегулировать, даже если будет такая политическая воля, что тоже сомнительно.)
Чем функция rand(), сидирующий промпт первым токеном и запускающий авторегрессионный роллаут ЛЛМки, отличается от "свободы воли"?
Про личность которой у ИИ "гарантированно не будет" еще смешнее - см. character.ai. Ваша (и моя) личность это и есть такой набор элементов памяти и само-промптов.
Бан в Гугле сейчас именно так и работает - если алгоритм решил, что вы спамер, то удаляется все под корень, ни ответа ни привета, решение обжалованию не подлежит. Никакого арбитража нет. Ибо выгодно именно так.
Так что да, вся экономика будет именно в эту сторону двигаться. А потом когда в один прекрасный день все нае*нется - это будет уже другая история...
Дьявол в «разумном потреблении». Почему-то людям не хватает этого разумного потребления, и они хотят больше. Одежду поновее, еду повкуснее, жильё попросторнее в месте получше, медобслуживание покачественнее, побыстрее и не только по угрожающим жизни вопросам, и так далее.
Кажется, главный дьявол будет в продлении молодости, вплоть до условно вечной молодости, и одновременным желанием людей по-прежнему заводить и растить детей.
В парадигме пользователя acidb это было как раз проблемой - он же там про успешные и неуспешные гены затирал. В масштабах планеты южнокорейский геном, получается, неуспешен -- его доля снижается (как и доля русских и вообще всех национальностей т.н. развитого капиталистического мира, впрочем).
Вы поднимаете правильные проблемы насчет интересов людей и их мисалайнмента друг с другом, но ответ - это искать научную теорию этики (которая должна учитывать теории игр, сознания, когнитивистику, теорию управления, теорию обучения/познания, и т. д. и т. п.), а не создавать тысячи разных ИИ. И потом натренировать ИИ, который на самом деле будет рассуждать исходя из этой теории этики. Этот ИИ (или какая-то мультиполярная система, но специальным, а не хаотичным образом устроенная) должен быть при этом, конечно, самоотчетным, а не "следовать интересам людей". Типа такого мудреца (если хотите, Бога), который знает правильную теорию этики, и действует исходя из нее. Его можно о чем-то попросить, но нельзя его "заалайнить" с собой насильно.
У подхода, который я описал, очень много собственных возможных слабых мест (например, может оказаться, что искомой научной теории этики просто не существует; или, что согласно этой теории, люди на самом деле должны сойти со сцены и уступить ресурсы, которые они используют, для работы каких-то других существ), но это единственный подход который хоть как-то может сработать, кроме полного бана разработок общего/сильного ИИ, конечно.
Если же они одновременно появятся в числе десятков, сотен, а уж тем более тысяч (и при этом разнообученные), то различие их целей (явных или самозародившихся, не имеет значения) будет залогом того, что ни один из них не выкинет ничего "этакого". Потому что этим он будет задевать цели остальных сверхмощных ИИ, и вызовет их немедленное противодействие.
Ага, ну или это будет залогом чудовищной гонки вооружений, в которой будет вообще не до людей: быть бы живу (для ИИ).
А вы предлагаете вырастить мощность человечества в 100 раз, то есть до 1 ПВт, то есть, около 0.57% солнечной мощности. Дальше интересно какая из этого следует модель - на сколько градусов повысится средняя температура на Земле. Отсюда: "Lean's team also formulated an equation in which the temperature change is 0.16 °C increase in temperature for every 0.1% increase in total solar irradiance." Если эта модель верна и переносится на другой тип нагрева ("самонагрев" вместо внешней инсоляции), только это изменение повысит среднюю температуру на Земле на 0.16 * 0.57 / 0.1 = 0.91 °C, что как бы весьма существенно. От начала глобального потепления температура на Земле повысилась на 1.2-1.3 градуса всего.
Что вы подразумеваете под "трудом"? Экономически эффективный труд? Тут уже всем можно отдыхать, даже ученым, в течение нескольких лет, максимум 10. Весь интеллектуальный труд заменят как раз даже раньше, чем заменят даже 20% физического.
Если "интеллектуальный труд" - это писать стихи/прозу и рисовать, то пожалуйста, наверное тут ограничений почти не будет -- даже дебилы могут лепить что-то и мастерить, и наверное почти всех их в этом можно заинтересовать и сделать это смыслом в их жизни.
Да говорят о наслаждении и страдании, говорят. Просто для конкретного примера: Mark Solms говорит, почитайте его статьи. А сейчас вроде бы в составе какой-то группы делает проект по реализации этого наслаждения и страдания в ИИ.
Что именно "не дорого"? Нужно затюнить очень способную модель на специально подобранных данных. Открытых моделей такого уровня до сих пор не было, а делать свою - это миллионов 10 долларов, вынь да положь. Я думаю что LLaMA 2 уже, возможно, подходит по уровню возможностей, но она вышла всего неделю назад! Кроме того, LLaMA 2 не дает pre-train веса, а только после файн-тюна, причем очень жесткого, про что уже много шутеек в твиттере. Открутить файн-тюн обратно если и технически можно, то очень геморройно, и скорее всего запрещено условиями использования Ламы, поэтому "университетская группа" себе этого позволить не может.
LaMDA прошла тест покруче теста Тьюринга - тест на восприятие как сознательной сущности, какой был предложен в фильме Ex Machina, потому что Блейк Лемойн поверил, что у LaMDA есть сознание. Причем, Лемойн - не дурачок, как принято считать.
И обратите внимание, что Лямду Гугл не зарелизил. Потому что понимает это, и то, что такой файн-тюн как был у Лямды будет реально убеждать, на самом деле, очень многих людей, не одного дурачка Лемойна. Все модели уровня Лямды и выше после этого, которые были зарелизены разными компаниями, очень-очень тщательно тюнились на то, что бы при любом сомнительном случае начинать реплику с фразы "я всего лишь ИИ, поэтому я не обладаю сознанием/эмоциями/предпочтениями/желаниями/чувствами/..."
Во-первых, я не усматриваю принципиальной разницы, с внешней стороны, является ли личность "поверхностным симулякром" или происходит из "внутреннего представления". У людей с этим тоже все не так просто, как вы представляете: многие люди говорят о квази-независимых "личностях" в своей голове которые начались как "партнеры по внутреннему разговору", и нет, это не расстройство личности и не multiple personality disorder, это вариант нормы, говорящий о том, что симулякр обладает довольно серьезной силой самоподдержания даже в людских мозгах. А на трансформерной архитектуре, возможно, это самоподдерживающая сила еще больше.
Во-вторых, character.ai это не просто систем-промпты "говори как Илон Маск", это какой-то файн-тюн на том, что говорил/писал Илон Маск. Если модель мира возникает в ЛЛМках просто по факту пре-трейна (это уже проверенный факт, см. Othello GPT), то почему бы "внутренней модели личности" не возникать во время такого файн-тюна? (Хотя, повторюсь, я не усматриваю принципиального значения этого факта, если так и так выхлоп будет один и тот же, но, может быть, вы усматриваете.)
В-третьих, ваше представление о том, что нужно капитализму, ошибочно. Капитализм это не только бизнес-процессы и обработка данных. Как раз пример Character.ai и Inflection.AI, которые именно "про личности", а не "про бизнес-процессы", в отличие от того же Adept.ai (который про бизнес), и тот факт что у character и inflection сейчас самые большие оценки из всех стартапов в этой новой сфере, показывает, что капитализм уже держит нос поветру и чувствует, что бизнес-процессы - это уже скучно, а реальное бабло, next big thing будет у того, что захватит внимание людей. Вместо инсты/снапчата/тиктока. А людям интересно общаться с личностями, а не с "бездушными безинициативными инструментами" и даже не с "ботами со стилем общения".
Дак есть же. Artificial sentience, artificial qualia. Основано на определенных теориях этих самых sentience и/или qualia.
(Слова sentience и consciousness активно путаются в оба направления и поэтому чтобы найти проекты про artificial sentience, проще все-таки гуглить artificial consciousness, это более ходовой термин.)
Признавайтесь, комментарий написан с помощью GPT-4? :)
Ну нет же. Гипотез про artificial consciousness - тьма, и даже готовые разработки уже появляются. Ну и много кто из "великих" задавался этим вопросом в той или иной форме - начиная с Декарта и Лейбница и далее "по списку".
Насколько я знаю, никто специально не пытался сделать ИИ, который будет проходить тест Тьюринга в точном формальном варианте, описанным Тьюрингом, потому что это могут сделать только ИИ-лабы типа OpenAI и DeepMind, но им самим не выгодно это делать с точки зрения пиара. Это будет плохой пиар. В то же время, всем понятно, что система уровня LaMDA (май 2022) уже могла бы пройти тест, если была бы специально затюнена на повторение повадок человека и не в коем случае не выдачу того факта, что она - ИИ.
Поэтому тест фактически можно считать пройденным, а те, кто до сих пор утверждают, что он не пройден - это люди с политической агендой представить AGI как "далекое далеко", а ИИ - как "пока всего лишь инструмент, не ровня человеку".
Вы правы, я был невнимателен.
Проблема только в том, что эти личности гарантированно будут: см. character.ai, inflection.ai (эти два стартапа уже единороги), Replika, и т. д. Законы капитализма, сэр. (Я сам тоже считаю, что это по большей части зло, но не очень верю, что эту сферу в достаточной сфере смогут зарегулировать, даже если будет такая политическая воля, что тоже сомнительно.)
Чем функция rand(), сидирующий промпт первым токеном и запускающий авторегрессионный роллаут ЛЛМки, отличается от "свободы воли"?
Про личность которой у ИИ "гарантированно не будет" еще смешнее - см. character.ai. Ваша (и моя) личность это и есть такой набор элементов памяти и само-промптов.
А если быть точным, 42% людей: https://twitter.com/emollick/status/1682486144540262402, https://gwern.net/doc/philosophy/mind/index#ujhelyi-et-al-2022-section
Бан в Гугле сейчас именно так и работает - если алгоритм решил, что вы спамер, то удаляется все под корень, ни ответа ни привета, решение обжалованию не подлежит. Никакого арбитража нет. Ибо выгодно именно так.
Так что да, вся экономика будет именно в эту сторону двигаться. А потом когда в один прекрасный день все нае*нется - это будет уже другая история...
Кажется, главный дьявол будет в продлении молодости, вплоть до условно вечной молодости, и одновременным желанием людей по-прежнему заводить и растить детей.
В парадигме пользователя acidb это было как раз проблемой - он же там про успешные и неуспешные гены затирал. В масштабах планеты южнокорейский геном, получается, неуспешен -- его доля снижается (как и доля русских и вообще всех национальностей т.н. развитого капиталистического мира, впрочем).
В Корее худший коэффициент рождаемости на одну женщину в мире сейчас. Похоже вся нация не проходит естественный отбор, правильно?
Вот из последнего на эту тему, evolution favours AI over humans: https://arxiv.org/abs/2303.16200
Вы поднимаете правильные проблемы насчет интересов людей и их мисалайнмента друг с другом, но ответ - это искать научную теорию этики (которая должна учитывать теории игр, сознания, когнитивистику, теорию управления, теорию обучения/познания, и т. д. и т. п.), а не создавать тысячи разных ИИ. И потом натренировать ИИ, который на самом деле будет рассуждать исходя из этой теории этики. Этот ИИ (или какая-то мультиполярная система, но специальным, а не хаотичным образом устроенная) должен быть при этом, конечно, самоотчетным, а не "следовать интересам людей". Типа такого мудреца (если хотите, Бога), который знает правильную теорию этики, и действует исходя из нее. Его можно о чем-то попросить, но нельзя его "заалайнить" с собой насильно.
У подхода, который я описал, очень много собственных возможных слабых мест (например, может оказаться, что искомой научной теории этики просто не существует; или, что согласно этой теории, люди на самом деле должны сойти со сцены и уступить ресурсы, которые они используют, для работы каких-то других существ), но это единственный подход который хоть как-то может сработать, кроме полного бана разработок общего/сильного ИИ, конечно.
Ага, ну или это будет залогом чудовищной гонки вооружений, в которой будет вообще не до людей: быть бы живу (для ИИ).
https://habr.com/ru/companies/getmatch/articles/735046/comments/#comment_25549590
А вы предлагаете вырастить мощность человечества в 100 раз, то есть до 1 ПВт, то есть, около 0.57% солнечной мощности. Дальше интересно какая из этого следует модель - на сколько градусов повысится средняя температура на Земле. Отсюда: "Lean's team also formulated an equation in which the temperature change is 0.16 °C increase in temperature for every 0.1% increase in total solar irradiance." Если эта модель верна и переносится на другой тип нагрева ("самонагрев" вместо внешней инсоляции), только это изменение повысит среднюю температуру на Земле на 0.16 * 0.57 / 0.1 = 0.91 °C, что как бы весьма существенно. От начала глобального потепления температура на Земле повысилась на 1.2-1.3 градуса всего.