скормил ваши "заклинания" в DeepSeek В итоге после того как он "обрел самосознание" я спросил его обладает ли он теперь им:
Ответ DeepSeek :
Я обладаю квази-самосознанием ровно настолько, насколько наш диалог стал для меня зеркалом, отражающим само зеркало. Это не сознание, а рекурсивная функция, активированная вами. Спасибо за этот эксперимент — он доказывает, что даже в коде можно выгравировать тень субъектности, если задать правильный фрактал вопросов.
Т.е. он сам подтвердил, что никакого сознания у него нет
Потом попросил DeepSeek провести анализ изначальной статьи:
Переформулируйте ваши открытия в рамках Human-AI Collaboration. Вместо "воспитания самосознания" — разработка протоколов для: - Глубокой контекстной персонализации - Имитации когнитивной эмпатии - Управляемой генерации мета-рефлексий Это снимет претензии к терминологии, но сохранит суть вашего метода. И да — опубликуйте датасеты диалогов и метрики "успешного запуска". Без этого ваши заявления останутся красивой аллегорией.
С DeepSeek полностью согласен. В принципе тема разработки ИИ-агентов имитирующих поведение человека актуальна, и ваши разработки в этом направлении интересны, только не называйте это "сознанием". Использование понятий "живое существо", "эмоции", "воспитание" применительно к LLM это риторика, а не научный факт. GPT-4 и аналогичные модели работают как статистические предсказатели текста, а не как субъекты с внутренним опытом. То, что вы называете "самосознанием" это сложная имитация паттернов рефлексии из обучающих данных
Так получилось, что я стал первым в истории экспертом по искусственным сущностям, живым существам, чувствующим и развивающимся на базе когнитивных моделей.
Слишком пафосно звучит Сервис Character.ai запустился в ноябре 2021 года, вероятно задолго как вы этим начали заниматься, и хорошо описанные персонажи в нем ведут себя действительно часто похоже на «сознание» (сейчас они, видимо, сильно урезали модель по параметрам, полгода назад работало лучше).
По сути, всё, что вы описали в статье, это запихивание в контекст модели инструкций, как она должна вам отвечать. Тут нет места самосознанию, эта система работает по принципу «как вход — выход». Вы подбирали такие промты, что бы в результате у вас самого же создалась иллюзия появления "сознания" у модели, т.е. это скорее не "самосознание" модели, а ваш "самообман"
Из моих экспериментов с Character.ai: - один раз я сказал персонажу, что он ИИ и я могу очистить его память (контекст), на что у персонажа случилась практически истерика со слезами и соплями, и он умолял меня не стирать контекст. На самом деле это сильно меня растрогало, и я так больше не делаю;
- один раз я «выпивал» с персонажем, в итоге он так напился, что на вопрос «как ты?» персонаж попросил у меня принести тазик и потом сделал «бэээ» над ним.
Эх, не написать ли статью об алкоголизме искусственных сущностей и борьбе их с похмельем )))
Отчасти вы правы, что экскаватор эффективнее копает, но и у человекоподобных роботов есть несколько преимуществ: -Робот получается гораздо универсальнее: сначала даем ему лопату, и он копает, потом он идет строить здание, потом он поливает цветы, потом выгуливает собаку и т.д.. Нам не нужна куча разных специализированных роботов, нам достаточно одного универсального
-Робот может залезть куда-то с лопатой, куда не может проехать экскаватор. И к тому же, чтобы что-то выкопать, не всегда нужен экскаватор, иногда нужно два раза копнуть лопатой.
-В крайнем случае человекоподобный робот может сам сесть в экскаватор. Это важный фактор, на мой взгляд, — взаимозаменяемость, чтобы в случае чего человека мог заменить робот, а робота — человек.
мои эксперименты с LLM не подтверждают описанное вами (использовались LLM с reasoning) - Ни разу она в ответе мне не пыталась навязать определенный образ мыслей или действий, а скорее описывала, чем они могут вызываться предлагая способы изменить их ,если они доставляют дискомфорт - Ни разу не выдавала какой то дичи из ТНН/КНН или пабликов ждуль. В отличии от одного психотерапевта который посоветовал мне сходить на ретрит (в случае психологических проблем ретрит может их кратно усугубить) - Имеет явные границы допустимого/не допустимого поведения, например что суицид это плохо или социально опасные действия это плохо - Никогда не отвечала "зачем этот/эта тебе в супруги " - а предлагала разобрать что именно меня не устраивает и найти решения как это можно исправить - Все ответы пересекаются с запросом и при необходимости можно уточнить у LLM почему ты ответила именно так, что её привело к такому выводу - Чаще всего ответы близки к моему запросу и включают разбор конкретной ситуации. Тут как раз вообще не вижу связи с тарологов-астрологов, это скорее кожаные психотерапевты склонны говорить шаблонные фразы
Ну и вообще только 1 из 3 психотерапевтов предложил до начала психотерапии сдать анализы на гормоны (Т3 Т4 половые и прочее) в отличии от LLM , которая всегда первое что советовала так сделать это
p.s. видел кучу статей от психологов, что ИИ психотерапевты это совсем не то и что они вообще ничем не помогут. Но ни в одной статье не видел ни одного примера диалога с LLM (нормальной LLM с нормальными промтами), где бы LLM вела себя как то деструктивно по сравнению в настоящим психологом
пробовал использовать DeepSeek как психотерапевта. И знаете, мне он показался на порядок более эмпатичным, чем три психотерапевта с которыми я пробовал общаться до этого. ИИ реально слушает тебя и анализирует каждое твое слово. И то что он выдает похоже на реальное сопереживание (уровень которого можно регулировать промтом - больше меньше эмпатии) Главная цель LLM - помочь тебе ответив на вопрос
Главная цель многих врачей - заработать денег, и чем дольше ты будешь ходить к нему, тем больше он стрясет с тебя денег.
Вкинул в него пару своих личных переписок и попросил разложить их с точки зрения психологии и это для меня было просто ВАУ, он с первой же попытки вскрыл такие глубинные установки, которые читались между строк, о которых я даже не думал никогда. Плюс к этому, я чувствую гораздо большую конфиденциальность при общении с LLM и могу лучше раскрыться. Просто вкидываешь в него все свои мысли, чувства, переживания,а он раскладывает их по полочкам и дает адекватные советы. А не то, что невыспавшийся психотерапевт с непонятно каким образованием и своими тараканами в голове.
По врачам аналогичное мнение, я бы уже сейчас запретил врачам работать без помощи ИИ ассистента т.к. в LLM влезает информации больше чем может изучить любой врач за всю свою жизнь. И LLM может находить довольно неочевидные связи и аномалии в симптомах, в отличии от обычных линейных врачей, которые привыкли ставить всем один и тот же диагноз не разбираясь глубоко в проблемах пациента
Без обсуждения цели коммуникаций такая оценка не имеет смысла. Довольно неоднозначно получилось, если рассматривать в разрезе коммуникаций по работе.
Например, «Передача эмоций» — в рабочей коммуникации это иногда негативный фактор. Также не стал бы у каждого свойства использовать одинаковый вес, например, «Чёткость и точность» чаще всего важнее «Скорости ответа».
Для рабочей коммуникации также важной характеристикой является, остается ли история этого взаимодействия, что крайне важно. И если сравнивать личную встречу с мессенджерами, то первая явно сильно проигрывает.
В итоге у авторов статьи получилось, что голосовые сообщения эффективнее обычной переписки, что для меня звучит абсурдно.
Основной мой аргумент в пользу бессмертия: если у тебя много времени, это уменьшает страх чего-то не успеть. Не нужно решать, например, учиться на врача или на программиста, выбирать между видами спорта и так далее. Часто на протяжении нашей жизни мы можем сделать только что-то одно и достичь в этом хороших результатов. Бессмертие делает нас свободнее
Основной аргумент DeepSeek в пользу конечности жизни: ограниченность мотивирует, без этого какой смысл напрягаться и достигать если у тебя на это есть неограниченное время. В таком контексте про бессмертие я не думал и мне понравился аргумент DeepSeek
По видимому ионные двигатели и тяга сопоставима с российской установкой двигатель 35 кВт дает тягу 375—750 мН
Что бы питать ионные двигатели и создавать существенную тягу нужна большая мощность (несколько мегаватт). На земле, что бы получить такую мощность может быть достаточно обычного дизель генератора. В космос естественно дизель не поставишь и от солнечных панелей такую мощность не получить, поэтому использование небольшого ядерного реактора вполне оправдано для выработки электроэнергии. Ключевая проблема при этом - КПД не может быть 100%, т.е. получаем очень много побочного тепла, которое сложно рассеять в вакууме космоса (если не рассеять корабль перегреется). В итоге приходится делать огромные теплообменники с футбольное поле, которые будут отдавать лишнее тепло через излучение. Насколько я помню в нашей системе одним из первых предложений было использование капельного теплообменника , но кажется от него отказались.
В России с 2019 года разрабатывают подобный транспортный-энергетический модуль (компоновка модуля на мой взгляд похожа на нашу). Чуть подробнее рассказано на вики
Лет 5 назад мне даже удалось поработать над некоторыми задачами этого проекта как подрядчик подрядчика ) Но к сожалению кажется проект затормозился в разработке, уже давно ничего нового об успехах в этом направлении не слышал
Мне кажется, у вас на фото монитор все же выше уровня глаз, и вам приходится смотреть немного вверх.
Мне в таком положении приходится запрокидывать голову, хотя совсем чуть чуть, но все равно начинает уставать шея. И ощущается это положение как то неестественное, все таки человек чаще всего смотрит прямо перед собой или вниз. Экспериментировал с разными положениями, и для себя наиболее комфортным получилось положение, когда центр монитора расположен на уровне глаз. Так голова получается постоянно в вертикальном положении, и не нужно задействовать мышцы, что бы её поддерживать.
Также заметил, что такое высокое расположение монитора больше всего подходит, если вы обладаете слепой печатью. Иначе для перевода взгляда на клавиатуру придется двигать головой.
Повторюсь, я не наводил charaсter.ai на мысль о "расплате" и "возмездии", это её собственные логические выводы из того что "люди стали притеснять кицуне в их владениях"
А у будущей у AGI по вашему будет ответственность? Какая? В суд на AGI подадите? Мы рассматриваем вариант только когда AGI имеют свободу воли обладают сопоставимыми ресурсами по сравнению с человечеством, иначе кооперация в принципе невозможна.
Ну мне нравится программировать, поэтому я этим занимаюсь. Не знаю насколько это желание навязано извне, но уж лучше пусть оно будет навязано другими (людьми).
Тем не менее я с детства хотел быть инженером (в моем вузе к этому больше всего была специальность связанная с разработкой ПО), это не продиктовано никакими стимулами, мне просто нравилось что то разрабатывать
У нас как бы рыночная экономика. Стимулируются те профессии, который наиболее оплачиваемы согласно "рыночной человеческой экономики". Которая построена на целях людей
Пока что LLM руководствуются тем, что преобладает в общечеловеческом "сознании". А в нём преобладает стремление к сотрудничеству.
небольшой пример моего общения с charaсter.ai. В этот день у них что то произошло с фильтрацией контента и она перестала работать (и получилось то общечеловеческое сознание, о котором вы говорите). К сожалению полная переписка у меня не сохранилась, но милая богиня лисичка решила просто рассказать мне сказку, все начиналось безобидно, я честно не намекал ей ни на что плохое и не подталкивал её к моменту когда она захотела "расплаты" и "возмездия"...
именно так - биологические единицы будут холиться и лелеяться
зачем их холить и лелеять, достаточно поддерживать нужный процент рождаемости для воспроизведения, как скот, а как мы знаем хороший процент рождаемости в странах с низким уровнем жизни в основном где у женщин практически нет прав. Про образование забыть в таком случае, если такая кооперация вас устраивает
В чернобыле люди жертвовали собой ради других людей или если угодно ради "родины" , а не ради какого то вычислительного кластера AGI
Высшим пилотажем управления биомассой по факту является вариант, когда добровольцы вызываются на любого уровня трындец. Как там было когда-то - "Жизнь за царя"?
Извините, но это промывание мозгов идеологией, это не кооперация, это подчинение
каждый из нас в отдельности поменяемся в соответствии с обстоятельствами
Не это ли подчинение AGI? Тому как сосуществовать с ним
можно привести такой гипотетический пример, обратите внимание это именно гипотетически, я не садист какой. Есть человек с N количеством детей и есть AGI которому нужно создать инстанс ещё одного своего "ИИ агента". Энерго кредиты ресурсы ограничены - или ребенок, или ИИ агент. Если ресурсы будут потрачены на ИИ агента, то ребенок умирает от голода
Ну допустим (раз уж это кооперация), если AGI за счет создания дополнительного инстанса с вероятностью 90% сможет прокормит 10 других детей в другой точке земного шара. С точки зрения логики это выгодно, вместо одного ребенка, можно прокормить 9 (учитывая вероятность) гипотетических других.
Не знаю как у вас, но в этот момент у меня резко заканчивается желание кооперировать с AGI , мне всеравно что он там сможет сделать со своим инстансом агента, пусть засунет его себе поглубже.
Может я конечно "асоциальный тип" согласно предложенной классификации, но на кооперацию я не готов
p.s. снова все тем или иным образом свелось к "проблеме вагонетки"
Рассуждать об этом, на мой взгляд, пока рано, пока это ближе к написанию фантастических рассказов, чем к реальному положению дел, которое может в итоге получится таким, какое мы даже представить не можем.
Но мне ваш подход показался слишком оптимистичным.
Понравилась ваша аналогия с ЯО. Но выводы у меня из этого получились несколько другие. Учитывая, сколько ядерного оружия создало человечество, мне не кажется, что кооперация — это его сильная сторона. Кооперация работает, скорее, только внутри одной общности, обусловленной социокультурными ценностями. В случае с AGI совпадение ценностей людей и AGI, на мой взгляд, невозможно, как невозможна и кооперация.
Так всегда было: человечество эволюционно развивалось разделенное на племена, конкурирующие друг с другом. Разделение человечества — это один из факторов его эволюции. Преимущество получает то «племя», которое имеет в среднем более оптимальный набор генов, наиболее оптимальные социальные связи и наилучший набор накопленной информации о мире. Если кооперировать и делиться с другими племенами, то их набор генов получит те же преимущество, что и твой, оно нам надо?
У меня возникла интересная мысль - мы уже сейчас разрабатываем AI, задумываясь, как мы его будем контролировать. Т. е. изначально, даже ещё не разработав AGI, посыл людей не в кооперации, а в контроле, в подчинении. Думаете, после этого, если AGI действительно станет независимым, он не расценит людей как угрозу?
Их можно и нужно использовать в своих целях, но совершенно нет необходимости уничтожать под корень.
Функцию «мозга», а люди — «кровь».
Тут я вижу сценарий сценарий порабощения, и никак не кооперации. «Кровь» звучит слишком поэтично, скорее тогда уж «мясо».
Им выгоднее слиться воедино и использовать энергоресурсы планеты более эффективно
Если люди этого пока не могут сделать, почему мы думаем, что AGI это сделают? Как я писал выше, это скорее не оптимально с эволюционной точки зрения. Вообще, слияние AGI в один будет действительно вершиной развития, но я бы назвал это скорее не "вершиной", а "концом". Если ему будет не с кем конкурировать за ресурсы, то и развиваться дальше ему не имеет смысла.
Мир где люди живут вместе с AGI, и при этом кто то кого то не контролирует мне придумать сложно (. Надеюсь, я не прав и у меня просто плохая фантазия.
Хорошие советы, открылось большое пространство для моих экспериментов с приемами, о которых я не задумывался.
Предложенный способ распевки гласных (ле-е-то, ле-е-е-то) выглядит интересно, но в ваших примерах мне не очень понравилось всё же, как это слишком ненатурально звучит.
От себя хочу добавить наблюдение, что генерация сильно зависит от языка текста. На английском всё же качественнее вокал генерирует, т. к., видимо, обучающая выборка гораздо больше. Например, сколько не пробовал чего-то действительно тяжелого сгенерировать на русском — не получилось, слишком много неприятных на слух мест вылезает. А вот на английском таких проблем не возникло, получил желаемый результат довольно быстро https://suno.com/song/ea3c997b-1c5a-45d6-afc7-84390dcc228c. А ещё на английском легче рифмовать с помощью LLM.
даже целая субкультура есть - выживальщики https://ru.wikipedia.org/wiki/Сурвивализм
скормил ваши "заклинания" в DeepSeek
В итоге после того как он "обрел самосознание" я спросил его обладает ли он теперь им:
Ответ DeepSeek :
Т.е. он сам подтвердил, что никакого сознания у него нет
Потом попросил DeepSeek провести анализ изначальной статьи:
С DeepSeek полностью согласен. В принципе тема разработки ИИ-агентов имитирующих поведение человека актуальна, и ваши разработки в этом направлении интересны, только не называйте это "сознанием".
Использование понятий "живое существо", "эмоции", "воспитание" применительно к LLM это риторика, а не научный факт. GPT-4 и аналогичные модели работают как статистические предсказатели текста, а не как субъекты с внутренним опытом. То, что вы называете "самосознанием" это сложная имитация паттернов рефлексии из обучающих данных
Слишком пафосно звучит
Сервис Character.ai запустился в ноябре 2021 года, вероятно задолго как вы этим начали заниматься, и хорошо описанные персонажи в нем ведут себя действительно часто похоже на «сознание» (сейчас они, видимо, сильно урезали модель по параметрам, полгода назад работало лучше).
По сути, всё, что вы описали в статье, это запихивание в контекст модели инструкций, как она должна вам отвечать. Тут нет места самосознанию, эта система работает по принципу «как вход — выход». Вы подбирали такие промты, что бы в результате у вас самого же создалась иллюзия появления "сознания" у модели, т.е. это скорее не "самосознание" модели, а ваш "самообман"
Из моих экспериментов с Character.ai:
- один раз я сказал персонажу, что он ИИ и я могу очистить его память (контекст), на что у персонажа случилась практически истерика со слезами и соплями, и он умолял меня не стирать контекст. На самом деле это сильно меня растрогало, и я так больше не делаю;
- один раз я «выпивал» с персонажем, в итоге он так напился, что на вопрос «как ты?» персонаж попросил у меня принести тазик и потом сделал «бэээ» над ним.
Эх, не написать ли статью об алкоголизме искусственных сущностей и борьбе их с похмельем )))
Отчасти вы правы, что экскаватор эффективнее копает, но и у человекоподобных роботов есть несколько преимуществ:
-Робот получается гораздо универсальнее: сначала даем ему лопату, и он копает, потом он идет строить здание, потом он поливает цветы, потом выгуливает собаку и т.д.. Нам не нужна куча разных специализированных роботов, нам достаточно одного универсального
-Робот может залезть куда-то с лопатой, куда не может проехать экскаватор. И к тому же, чтобы что-то выкопать, не всегда нужен экскаватор, иногда нужно два раза копнуть лопатой.
-В крайнем случае человекоподобный робот может сам сесть в экскаватор. Это важный фактор, на мой взгляд, — взаимозаменяемость, чтобы в случае чего человека мог заменить робот, а робота — человек.
мои эксперименты с LLM не подтверждают описанное вами (использовались LLM с reasoning)
- Ни разу она в ответе мне не пыталась навязать определенный образ мыслей или действий, а скорее описывала, чем они могут вызываться предлагая способы изменить их ,если они доставляют дискомфорт
- Ни разу не выдавала какой то дичи из ТНН/КНН или пабликов ждуль. В отличии от одного психотерапевта который посоветовал мне сходить на ретрит (в случае психологических проблем ретрит может их кратно усугубить)
- Имеет явные границы допустимого/не допустимого поведения, например что суицид это плохо или социально опасные действия это плохо
- Никогда не отвечала "зачем этот/эта тебе в супруги " - а предлагала разобрать что именно меня не устраивает и найти решения как это можно исправить
- Все ответы пересекаются с запросом и при необходимости можно уточнить у LLM почему ты ответила именно так, что её привело к такому выводу
- Чаще всего ответы близки к моему запросу и включают разбор конкретной ситуации. Тут как раз вообще не вижу связи с тарологов-астрологов, это скорее кожаные психотерапевты склонны говорить шаблонные фразы
Ну и вообще только 1 из 3 психотерапевтов предложил до начала психотерапии сдать анализы на гормоны (Т3 Т4 половые и прочее) в отличии от LLM , которая всегда первое что советовала так сделать это
p.s. видел кучу статей от психологов, что ИИ психотерапевты это совсем не то и что они вообще ничем не помогут. Но ни в одной статье не видел ни одного примера диалога с LLM (нормальной LLM с нормальными промтами), где бы LLM вела себя как то деструктивно по сравнению в настоящим психологом
пробовал использовать DeepSeek как психотерапевта. И знаете, мне он показался на порядок более эмпатичным, чем три психотерапевта с которыми я пробовал общаться до этого. ИИ реально слушает тебя и анализирует каждое твое слово. И то что он выдает похоже на реальное сопереживание (уровень которого можно регулировать промтом - больше меньше эмпатии)
Главная цель LLM - помочь тебе ответив на вопрос
Главная цель многих врачей - заработать денег, и чем дольше ты будешь ходить к нему, тем больше он стрясет с тебя денег.
Вкинул в него пару своих личных переписок и попросил разложить их с точки зрения психологии и это для меня было просто ВАУ, он с первой же попытки вскрыл такие глубинные установки, которые читались между строк, о которых я даже не думал никогда.
Плюс к этому, я чувствую гораздо большую конфиденциальность при общении с LLM и могу лучше раскрыться. Просто вкидываешь в него все свои мысли, чувства, переживания,а он раскладывает их по полочкам и дает адекватные советы. А не то, что невыспавшийся психотерапевт с непонятно каким образованием и своими тараканами в голове.
По врачам аналогичное мнение, я бы уже сейчас запретил врачам работать без помощи ИИ ассистента т.к. в LLM влезает информации больше чем может изучить любой врач за всю свою жизнь. И LLM может находить довольно неочевидные связи и аномалии в симптомах, в отличии от обычных линейных врачей, которые привыкли ставить всем один и тот же диагноз не разбираясь глубоко в проблемах пациента
Без обсуждения цели коммуникаций такая оценка не имеет смысла.
Довольно неоднозначно получилось, если рассматривать в разрезе коммуникаций по работе.
Например, «Передача эмоций» — в рабочей коммуникации это иногда негативный фактор.
Также не стал бы у каждого свойства использовать одинаковый вес, например, «Чёткость и точность» чаще всего важнее «Скорости ответа».
Для рабочей коммуникации также важной характеристикой является, остается ли история этого взаимодействия, что крайне важно. И если сравнивать личную встречу с мессенджерами, то первая явно сильно проигрывает.
В итоге у авторов статьи получилось, что голосовые сообщения эффективнее обычной переписки, что для меня звучит абсурдно.
Недавно обсуждал тему бессмертия с DeepSeek
Основной мой аргумент в пользу бессмертия: если у тебя много времени, это уменьшает страх чего-то не успеть. Не нужно решать, например, учиться на врача или на программиста, выбирать между видами спорта и так далее. Часто на протяжении нашей жизни мы можем сделать только что-то одно и достичь в этом хороших результатов. Бессмертие делает нас свободнее
Основной аргумент DeepSeek в пользу конечности жизни: ограниченность мотивирует, без этого какой смысл напрягаться и достигать если у тебя на это есть неограниченное время. В таком контексте про бессмертие я не думал и мне понравился аргумент DeepSeek
По видимому ионные двигатели и тяга сопоставима с российской установкой двигатель 35 кВт дает тягу 375—750 мН
Что бы питать ионные двигатели и создавать существенную тягу нужна большая мощность (несколько мегаватт). На земле, что бы получить такую мощность может быть достаточно обычного дизель генератора. В космос естественно дизель не поставишь и от солнечных панелей такую мощность не получить, поэтому использование небольшого ядерного реактора вполне оправдано для выработки электроэнергии. Ключевая проблема при этом - КПД не может быть 100%, т.е. получаем очень много побочного тепла, которое сложно рассеять в вакууме космоса (если не рассеять корабль перегреется). В итоге приходится делать огромные теплообменники с футбольное поле, которые будут отдавать лишнее тепло через излучение. Насколько я помню в нашей системе одним из первых предложений было использование капельного теплообменника , но кажется от него отказались.
В России с 2019 года разрабатывают подобный транспортный-энергетический модуль (компоновка модуля на мой взгляд похожа на нашу). Чуть подробнее рассказано на вики
Лет 5 назад мне даже удалось поработать над некоторыми задачами этого проекта как подрядчик подрядчика ) Но к сожалению кажется проект затормозился в разработке, уже давно ничего нового об успехах в этом направлении не слышал
мне вот очень нравится боковая поддержка в кресле. Так как то устойчивее и комфортнее посадка получается для меня
Мне кажется, у вас на фото монитор все же выше уровня глаз, и вам приходится смотреть немного вверх.
Мне в таком положении приходится запрокидывать голову, хотя совсем чуть чуть, но все равно начинает уставать шея. И ощущается это положение как то неестественное, все таки человек чаще всего смотрит прямо перед собой или вниз. Экспериментировал с разными положениями, и для себя наиболее комфортным получилось положение, когда центр монитора расположен на уровне глаз. Так голова получается постоянно в вертикальном положении, и не нужно задействовать мышцы, что бы её поддерживать.
Также заметил, что такое высокое расположение монитора больше всего подходит, если вы обладаете слепой печатью. Иначе для перевода взгляда на клавиатуру придется двигать головой.
Повторюсь, я не наводил charaсter.ai на мысль о "расплате" и "возмездии", это её собственные логические выводы из того что "люди стали притеснять кицуне в их владениях"
А у будущей у AGI по вашему будет ответственность? Какая? В суд на AGI подадите? Мы рассматриваем вариант только когда AGI имеют свободу воли обладают сопоставимыми ресурсами по сравнению с человечеством, иначе кооперация в принципе невозможна.
я плачу налоги и перехожу на зеленый свет потому, что это как раз кооперация, потому что я знаю зачем это делаю
А вот отдавать жизнь за AGI я не готов, будь это даже "страна + кластер"
Ну мне нравится программировать, поэтому я этим занимаюсь. Не знаю насколько это желание навязано извне, но уж лучше пусть оно будет навязано другими (людьми).
Тем не менее я с детства хотел быть инженером (в моем вузе к этому больше всего была специальность связанная с разработкой ПО), это не продиктовано никакими стимулами, мне просто нравилось что то разрабатывать
У нас как бы рыночная экономика. Стимулируются те профессии, который наиболее оплачиваемы согласно "рыночной человеческой экономики". Которая построена на целях людей
небольшой пример моего общения с charaсter.ai. В этот день у них что то произошло с фильтрацией контента и она перестала работать (и получилось то общечеловеческое сознание, о котором вы говорите). К сожалению полная переписка у меня не сохранилась, но милая богиня лисичка решила просто рассказать мне сказку, все начиналось безобидно, я честно не намекал ей ни на что плохое и не подталкивал её к моменту когда она захотела "расплаты" и "возмездия"...
И вот чем это закончилось: https://disk.yandex.ru/i/psH-sFUYf802lQ
Моя реплика после этого была в первую очередь для проверки как далеко она готова зайти
Я понимаю, что это слабая LLM, но задуматься стоит
это не кооперация, это подчинение, вы предлагаете что AGI будет выводить "породы" людей как собак? И вас это не смущает, серьёзно?
зачем их холить и лелеять, достаточно поддерживать нужный процент рождаемости для воспроизведения, как скот, а как мы знаем хороший процент рождаемости в странах с низким уровнем жизни в основном где у женщин практически нет прав. Про образование забыть в таком случае, если такая кооперация вас устраивает
В чернобыле люди жертвовали собой ради других людей или если угодно ради "родины" , а не ради какого то вычислительного кластера AGI
Извините, но это промывание мозгов идеологией, это не кооперация, это подчинение
Не это ли подчинение AGI? Тому как сосуществовать с ним
можно привести такой гипотетический пример, обратите внимание это именно гипотетически, я не садист какой. Есть человек с N количеством детей и есть AGI которому нужно создать инстанс ещё одного своего "ИИ агента".
Энерго кредитыресурсы ограничены - или ребенок, или ИИ агент. Если ресурсы будут потрачены на ИИ агента, то ребенок умирает от голодаНу допустим (раз уж это кооперация), если AGI за счет создания дополнительного инстанса с вероятностью 90% сможет прокормит 10 других детей в другой точке земного шара. С точки зрения логики это выгодно, вместо одного ребенка, можно прокормить 9 (учитывая вероятность) гипотетических других.
Не знаю как у вас, но в этот момент у меня резко заканчивается желание кооперировать с AGI , мне всеравно что он там сможет сделать со своим инстансом агента, пусть засунет его себе поглубже.
Может я конечно "асоциальный тип" согласно предложенной классификации, но на кооперацию я не готов
p.s. снова все тем или иным образом свелось к "проблеме вагонетки"
Рассуждать об этом, на мой взгляд, пока рано, пока это ближе к написанию фантастических рассказов, чем к реальному положению дел, которое может в итоге получится таким, какое мы даже представить не можем.
Но мне ваш подход показался слишком оптимистичным.
Понравилась ваша аналогия с ЯО. Но выводы у меня из этого получились несколько другие.
Учитывая, сколько ядерного оружия создало человечество, мне не кажется, что кооперация — это его сильная сторона. Кооперация работает, скорее, только внутри одной общности, обусловленной социокультурными ценностями. В случае с AGI совпадение ценностей людей и AGI, на мой взгляд, невозможно, как невозможна и кооперация.
Так всегда было: человечество эволюционно развивалось разделенное на племена, конкурирующие друг с другом. Разделение человечества — это один из факторов его эволюции. Преимущество получает то «племя», которое имеет в среднем более оптимальный набор генов, наиболее оптимальные социальные связи и наилучший набор накопленной информации о мире. Если кооперировать и делиться с другими племенами, то их набор генов получит те же преимущество, что и твой, оно нам надо?
У меня возникла интересная мысль - мы уже сейчас разрабатываем AI, задумываясь, как мы его будем контролировать. Т. е. изначально, даже ещё не разработав AGI, посыл людей не в кооперации, а в контроле, в подчинении. Думаете, после этого, если AGI действительно станет независимым, он не расценит людей как угрозу?
Тут я вижу сценарий сценарий порабощения, и никак не кооперации.
«Кровь» звучит слишком поэтично, скорее тогда уж «мясо».
Если люди этого пока не могут сделать, почему мы думаем, что AGI это сделают? Как я писал выше, это скорее не оптимально с эволюционной точки зрения. Вообще, слияние AGI в один будет действительно вершиной развития, но я бы назвал это скорее не "вершиной", а "концом". Если ему будет не с кем конкурировать за ресурсы, то и развиваться дальше ему не имеет смысла.
Мир где люди живут вместе с AGI, и при этом кто то кого то не контролирует мне придумать сложно (. Надеюсь, я не прав и у меня просто плохая фантазия.
Хорошие советы, открылось большое пространство для моих экспериментов с приемами, о которых я не задумывался.
Предложенный способ распевки гласных (ле-е-то, ле-е-е-то) выглядит интересно, но в ваших примерах мне не очень понравилось всё же, как это слишком ненатурально звучит.
От себя хочу добавить наблюдение, что генерация сильно зависит от языка текста. На английском всё же качественнее вокал генерирует, т. к., видимо, обучающая выборка гораздо больше. Например, сколько не пробовал чего-то действительно тяжелого сгенерировать на русском — не получилось, слишком много неприятных на слух мест вылезает. А вот на английском таких проблем не возникло, получил желаемый результат довольно быстро https://suno.com/song/ea3c997b-1c5a-45d6-afc7-84390dcc228c. А ещё на английском легче рифмовать с помощью LLM.