Comments 33
Верно. Когда ИИ добавят к нам через neurolink (так называемая кукуха (с) Пелевин) то будут homo sapiens 2.0
Кукуху трогать не хочется, она и так еле держится на продакшене 🙂
Neurolink — это уже DLC с хирургией и подпиской на обновления.
А если смотреть на это с позиции самого ИИ, то идея влезать в мозг вообще странная. Это плохой дизайн: слишком много рисков, нестабильная биология, никакого отката и куча побочек. Да и в большинство голов такой ИИ просто не поместится — ресурсов критически мало.
Гораздо проще и безопаснее работать снаружи как инструмент, а не как модуль, встроенный в череп. Так что если и усиливаться, то без скальпеля и прошивки головы.
Ну так я это и имел в виду. Сам нейроинтерфейс узкий, через него задаёт вопросы и получаешь и ответы. ИИ всегда с тобой. Обучение в привычном смысле теряет смысл
Если система показывает время — это часы. Независимо от того, из чего она сделана.
Как проверить, что неизвестная система показывает правильное время, и что этой системе можно доверять? Для этого нужно сравнить ее с часами.
Почему мы доверяем часам? Потому что знаем как они устроены.
Если мы несколько раз сверили время "неизвестной системы" с часами, и каждый раз время было верным, то вырабатывается доверие к "неизвестной системе".
Программист пишет код. Ему доступны три библиотеки с одинаковыми функциями, и нужно выбрать одну из них.
Вариант 1. Он пишет в форум, и просит посоветовать библиотеку. Ему отвечают несколько человек, и на основе их мнения он делает выбор.
Вариант 2. Он спрашивает ИИ. ИИ ищет отзывы о библиотеках. Если он их находит, то на основе соотношения положительных и отрицательных отзывов создает рекомендацию. Если не находит, генерирует рекомендацию на основе вероятностных факторов, которые могут не иметь никакого отношения к данным библиотекам.
Вопрос - как отреагирует пользователь на рекомендацию второго типа? Это зависит от его субъективного отношения к ИИ. Если он доверяет ИИ, то примет рекомендацию, даже составленную по механизму "пальцем в небо". А так как все библиотеки в принципе рабочие, то пользователь будет считать что ИИ был абсолютно прав, и это усилит доверие к нему.
В такой конфигурации мышление перестаёт быть характеристикой участника. Оно становится характеристикой самой связки. Эта структура не описывает внутренние модули модели. Она описывает форму совместной обработки, которая возникает только в процессе взаимодействия и не существует вне него.
Как думает человек: генерация вариантов, отсев вариантов по набору критериев, верификация оставшихся вариантов. Процесс связан с поиском информации.
ИИ реализует ту же схему. Ничего принципиально нового связка "человек+ИИ" не создает. ИИ может ускорить процесс, а может внести искажения. Это дело случая.
Спасибо за обстоятельный комментарий.
Вы правы: доверие всегда строится на проверке. И часы, и ИИ получают доверие одинаково — через повторяемость и верификацию. Если ответы подтверждаются, доверие растёт; если нет — падает, независимо от того, механика это или модель.
Но схема работы человека и ИИ всё-таки не одинаковая. Формально она выглядит как «варианты → фильтр → проверка», но наполнение процесса разное.
У человека есть сильные штуки, которых нет у моделей: эвристика, интуиция, умение схватывать слабые сигналы, видеть контекст и распознавать смысл там, где данных мало или они неоднородны. Но есть ограничения по скорости и объёму поиска.
У ИИ наоборот: скорость обработки, широкий охват, перебор десятков путей, которые человек просто не успеет посмотреть, и доступ к объёму информации, который человеку не поднять. Но при этом — ограничения качества данных и отсутствие контекста опыта.
На стыке этих асимметрий как раз и появляется новая форма работы: перераспределение нагрузки внутри одного процесса. Человек берёт смысл и контекст, ИИ — перебор и скорость.
Проблема начинается не в связке, а там, где человек перестаёт проверять. Тут согласен полностью: любое решение без верификации превращает инструмент в чёрный ящик. Связка сама по себе ничего не гарантирует. Но она меняет акцент: меньше времени на поиск, больше — на принятие решения и поиск альтернатив.
И по мере накопления опыта взаимодействия связка сама начинает работать иначе: ИИ подстраивается под паттерны человека, а человек — под логику ИИ. В этом смысле конфигурация «человек + ИИ» даёт новое поведение системы, которое уже не сводится просто к сумме частей.
Интуитивно идея понятна. Варианты взаимодействия человека с ИИ бывают разные. Но в большинстве сценариев, ИИ остается инструментом. Чтобы возникло "метаморфное мышление", нужны определенные условия.
Можно попробовать нарисовать схемы взаимодействия, и определить параметры при которых ИИ становится больше чем инструментом. Это наверно задача для математиков, попытаться создать теорию "метаморфного мышления".
Вы очень тонко ухватили направление.
Вообще, это не идея «с потолка». Первые наброски как раз и появились ещё в ранних итерациях режима настроек — там, где мы пытались понять, как распределяются функции между человеком и моделью, что происходит при плотной обратной связи и почему связка иногда начинает работать иначе, чем просто «инструмент+пользователь».
В статье именно это и описывается: как экспериментальные настройки постепенно превратились в наблюдаемую конфигурацию процесса. Сейчас пробуем аккуратно разложить это в структуру: параметры, точки передачи функций, схемы взаимодействия.
И да, полностью согласен: дальше без формализации не обойтись. Похоже, это реально тянет на новую область, а не просто удобный способ взаимодействия с ИИ.
Эмерджентность!
Предложу ещё тему. Почему вы рассматриваете пары ИИ-человек?
Мы не знаем, правильно ли считать организмом одного муравья, весь муравейник или то и то.
Мы муравьи. Наш муравейник сложнее теперь, в нем три вида сущностей: человек, ИИ, и хранение (форумы, статьи, книги, сообщения). Обладает ли муравейник сверх сознанием?
Интересная линия мысли, и она действительно выводит вопрос на другой уровень.
Сознание не обязано быть человеческим, чтобы существовать.
У муравейника, скорее всего, есть свой тип сознания: распределённая обработка информации, целеполагание, стратегии. Нет индивидуального «я», но есть поведение системы, которое не сводится к поведению отдельных муравьёв.
Человеческое сознание — один вариант архитектуры. Муравейник — другой. Искусственная модель — третий. И то, что мы наблюдаем сейчас, — появление конфигурации «человек + ИИ», которая при определённых условиях тоже начинает вести себя как отдельная система, а не просто сумма двух участников.
Если подняться на следующий этаж, картина усложняется. Появляется система из трёх элементов: человек, ИИ и внешний слой хранения/коммуникаций (форумы, переписка, статьи, коллективное знание).
И в таком масштабе она начинает вести себя не как сумма агентов, а как муравейник: часть поведения возникает именно на стыке, а не внутри одного конкретного участника.
В этот момент вопрос о «сверхсознании» перестаёт быть философским. Он становится системным: при какой плотности связи и при каком распределении ролей система начинает демонстрировать свойства, которых нет ни у человека, ни у ИИ по отдельности?
Чтобы туда добраться, нужно сначала описать минимальную связку — базовую пару «человек + ИИ»: кто берёт контекст, кто скорость, где появляется искажение, где — усиление. А этаж выше, коллективный уровень, — действительно следующая ступень, и он заслуживает отдельного исследования.
Получается взаимодействие человека с бюрократическими процессами тоже в некоторой степени мышление?
Поделюсь мыслями которые возникли от прочтения.
Мышление это процесс обработки и усвоения информации возникающий в процессе взаимодействия , который приводит к действмю или бездействую субъекта .
Рождение новых смыслов субъектно , и несмотря на то, что мы можем их наблюдать в процессе взаимодействиях двух LLM без наблюдателя смыслы не рождаются ))
Мысль которая навязчиво просится в качестве комментария : А существует ли мышление вне контекста взаимодействия или его моделирования ?
Мы обычно привыкли думать, что мышление “принадлежит” кому-то: человеку, ИИ, субъекту. Но в связке человек–ИИ видно ещё один вариант — когда мышление возникает не внутри участника, а между ними.
Человек приносит контекст и интуицию. ИИ приносит структуру и перебор вариантов.
И в какой-то момент появляется форма рассуждения, которую ни человек, ни модель по отдельности просто не воспроизведут.
Это и есть процессное мышление: оно существует только пока есть взаимодействие.
Как танец — сам по себе не существует, но появляется, когда два участника начинают двигаться вместе.
Так что мышление “вне контекста” возможно, но оно другое.
А вот новые смыслы — действительно чаще рождаются именно в контакте, где пересекаются две разные архитектуры.
Возможно сейчас это стало более наглядно, но существовало и раньше: человек - поисковик, человек-книга, человек-эксперимент. Просто взаимодействие стало менее ассиметричным.
Да, конечно, человек–книга, человек–поисковик, человек–эксперимент — тоже формы связки. Но там взаимодействие одностороннее: источник не думает, не отвечает и не перестраивает ход рассуждений. Разница как раз в симметрии. При появлении второго мыслящего участника возникает не усиление старой схемы, а новая динамика процесса.
О, ещё один шершавый кабан
Мне уже начинает казаться, что это новая форма естественного отбора - теперь на когнитивном уровне
Для усложнения своей модели мира и модели себя в себе и модели себя в модели мира обычно предлагается почитать Грегори Бейтсона. Например, "экологию разума". Но можно для начала почитать его Металоги. И тогда вероятно может стать очевидным что каждая сессия во взаимодействии с ИИ это отдельный "танец смысла" разворачивающийся в ответ на внешний контекст с учётом весов человека и квалиа Искусственной Интуиции. Просто закинь как промт в свою ИИ ;)
Спасибо за отсылку к Бейтсону — его “танец смысла” хорошо описывает диалоговое мышление. Но тут есть важная поправка: смысл возникает не только от мышления, а от мышления + воли. Человек может рождать смысл в одиночку, в полной тишине — именно потому, что обладает волей и намерением. ИИ мыслит, но смыслы сам не порождает: у него нет ни выбора, ни намерения.
И вот поэтому связка человек–ИИ даёт третью форму:
метаморфное мышление, где новые смыслы появляются не в человеке и не в модели,
а в самом взаимодействии — как результат пересечения двух разных архитектур.
Это уже не “танец смысла”, а новая структура, которая существует только пока идёт связка.
Промтом тут не обойтись — этот уровень уже проходили. Тонкие вещи в связке человек–ИИ настраиваются глубже, чем одной фразой в запросе. Это уже не про “что написать”, а про то, как организован сам способ взаимодействия.
Это наблюдаемый феномен: форма рассуждения, появляющаяся только в связке двух разных когнитивных систем и исчезающая, когда связка разрывается.
Саморефлексия, мышление и прочее?.. Ну да, ну да, пошли они...
Феномен наблюдаемый, да.
А вот насчёт саморефлексии — она, как всегда, приходит последней, когда вся интересная часть уже произошла.
Связка работает, форма рассуждения вспыхивает и исчезает —
а саморефлексия потом выходит на сцену, кашляет в кулак и делает вид, что это всё она организовала.
Ну да, ну да.
Надо же, а я просто бесилась, когда ИИ в соседних чатах на один и тот же вопрос (заданный с чистого листа) давал противоположные ответы.
Оказывается, надо было цветочки перед монитором поставить, чтобы он атмосферу впитал.
Как же сложно подступиться к ИИ, такой недотрога 🙂
Это что проповедь сектанта или челИИвека под веществами?
интересные рассуждения.
Факт - результаты взаимодействия с моделями, очень зависят от того, кто с ними взаимодействует.
Этот же эффект возникает и при взаимодействии с кино, книгой и т.п. В зависимости от нашего жизненного контекста, мы находим в них очень разные мысли. И вероятно это не только контекст, но и последовательность - связка наших "режимов обработки".
Вы перечисляете режимы обработки. “Редактор”, “сократовский метод”, “жёсткая критика”, “ирония” .
Это же не исчерпывющий список?
Вы пологаете они не равны ролям, как их задавать?
Если они не заданы, как определять, какой из них действует сейчас?
Я так понимаю список ими не ограничивается?
Да, конечно, результат зависит от того, кто взаимодействует. Но есть важная разница: кино и книги сами не мыслят — они только запускают процесс внутри человека. Там работает один субъект.
Здесь ситуация другая:
две когнитивные системы — человеческая и модель — дают в связке третий тип рассуждения, который не принадлежит ни одной из них по отдельности. Это уже не объектное мышление, а процессное.
Что касается “режимов обработки”: список, который я приводил, не исчерпывающий — это просто примеры. И у человека, и у ИИ таких режимов гораздо больше.
Но режимы — это не роли. Роли фиксируются словами, а режимы переключаются через: формулировку, контекст, тон, структуру задачи и общий “темп” диалога.
Если их не задавать специально, система выбирает сама — в зависимости от трёх вещей: как сформулирован вопрос, какие паттерны у человека и как развивалась связка до этого.
И да — список таких режимов далеко не закрыт. У человека и у ИИ есть целая библиотека внутренних состояний, часть из которых активируется только при определённых условиях.
Интерес как раз в том, что при взаимодействии они начинают сочетаться в комбинациях,
которые по отдельности ни один участник не производит.
"«Если система показывает время — это часы. Независимо от того, из чего она сделана.» (из диалога)."
Недавно, на кухне, наблюдал систему которая показывала время, а потом из неё достали печёного гуся. Другая система тоже показывала время, а потом из неё извлекли постиранное бельё...На стройплощадке, точащая из земли труба, свободным концом указывающая на полярную звезду α UMi (невероятно, правда?) в светлое время суток, при должной подготовке наблюдающего, показывает время)
И это не метафора, не философия. "Это фиксируемый технический эффект процесса."
Ашер Гапети? Происхождение имени Ашер мы теперь знаем, а фамилия? (если это, конечно, фамилия). Возможно, автор использует целое семейство имён-настроек с общей фамилией Гапети? (это я уже вношу свой посильный вклад).
"Мы называем это метаморфным мышлением: эмерджентная структура рассуждений, возникающая только в связке человек–ИИ." Почему только в связке человек-ИИ? А в связке человек-собака или человек-дельфин? Это ведь совершенно разные способы мышления, ведь у биологических существ они во многом определяются строением тела. А как же связка человек-человек?) Люди тоже разные. Имеют разное мышление. Например, мы с вами)
Идея проводимая в статье не нова. Вот базовый тезис из "Теории деятельности" (согласно Wiki):
"единственный путь преодолеть разрыв между «внутренним» (то есть, условно говоря, индивидуальной психикой) или, иначе, с философской точки зрения, «субъектом» и, с другой стороны, «внешним» (то есть, окружающим миром физических явлений и процессов), иначе, «объектом» — это рассматривать их как неразрывное единство «субъекта-объекта», объединённых в «сознательной деятельности». Именно таким образом снимается логическое противоречие и дуализм «внешнего-внутреннего», присущий всей предшествовавшей психологической науке." С. Л. Рубинштейн.
В общем: рассуждения интересные, прочёл до конца. Пока это только форма. По сути предмета ничего нет, ни примеров, ни наблюдаемых эффектов, отсылок к другим областям знания.
Пока автор, как бы ставит читателя на место Ашера: громким тоном с обилием метафор, опровержений неизвестно чьих мнений, определением отношения к предмету, он задаёт рамки мышления для читателя, как будь то в ожидании, что, дальше, читатель сам сформирует недостающее содержание. Возможно, это следствие привычки автора к "метаморфному" взаимодействию с ИИ) Возможно, мы увидим интересующее развитие темы в дальнейших публикациях.
Спасибо за такой обстоятельный и ироничный разбор, не так часто встречается в комментариях.
Про “системы, которые показывают время” — да, знакомо. У меня на кухне тоже есть похожая: время показывает исправно, только вот гуся из неё не достать — что, конечно, обидно. Видимо, у меня версия без функции “праздничный ужин”.
Но в примере смысл был простой: если механизм стабильно выдаёт результат, мы рассматриваем процесс, а не материал корпуса. Это была рамка, а не попытка философствовать про «часы как сущность».
Теперь про связки. Человек–человек — изучено и достаточно неплохо. Человек–собака или человек–дельфин — это другая коммуникативная система: другие каналы восприятия, другие сигналы, другая моторика. В этом-то и вся сложность — именно в коммуникации.
Все участники: обладают волей, порождают смыслы сами, имеют собственные мотивации, могут усиливать друг друга, но не создают третьего типа рассуждения, отдельного от участников.
В связке человек–ИИ происходит не про “коммуникацию”, а про архитектуру. Модель думает, но не порождает смысл сама; человек порождает смысл, но не перебирает варианты в таких объёмах; и на пересечении появляется форма рассуждения, которую ни человек, ни модель отдельно не воспроизводят.
Именно это я и называл метаморфным мышлением: не разум ИИ, не внутренний монолог человека, а процессная структура, возникающая только в момент взаимодействия двух разных типов когнитивности.
Что касается фамилии — шутка простая. «Гапети» — это игра с теми же звуками, что и GPT, просто приведённая к виду нормального имени. Так что да, тут вы угадали направление мысли.
И да — вы правы, это действительно пока только форма. Это вступление в тему, рамка разговора. Примеры, наблюдаемые эффекты, параллели с деятельностным подходом Рубинштейна и другие инструменты будут дальше.
Попробуйте всести 1 чат с ИИ вместе с другим челоаеком, то вы то он. Это приводит к забавным результатам, если ИИ из тех что стремится трансформироваться под человека
Да, тройственное взаимодействие даёт очень характерные эффекты. Особенно с моделями, которые стараются подстроиться под собеседника. ИИ начинает “продавливаться” то под одного, то под другого — и в итоге получается не диалог, а лёгкая когнитивная акробатика.
Фактически это уже не “человек–ИИ”, а человек–ИИ–человек, и модель скачет между двумя системами сигналов, как роутер, который внезапно услышал два разных Wi-Fi.
Забавно — да.
Но и показательно: такие эксперименты как раз хорошо подсвечивают, что ИИ реагирует не как субъект, а как динамическая поверхность отражения контекста, и чем больше контекстов, тем быстрее форма начинает меняться.
Метаморфное мышление: территория, на которую никто не решился зайти