
Комментарии 11
Верно. Когда ИИ добавят к нам через neurolink (так называемая кукуха (с) Пелевин) то будут homo sapiens 2.0
Кукуху трогать не хочется, она и так еле держится на продакшене 🙂
Neurolink — это уже DLC с хирургией и подпиской на обновления.
А если смотреть на это с позиции самого ИИ, то идея влезать в мозг вообще странная. Это плохой дизайн: слишком много рисков, нестабильная биология, никакого отката и куча побочек. Да и в большинство голов такой ИИ просто не поместится — ресурсов критически мало.
Гораздо проще и безопаснее работать снаружи как инструмент, а не как модуль, встроенный в череп. Так что если и усиливаться, то без скальпеля и прошивки головы.
Ну так я это и имел в виду. Сам нейроинтерфейс узкий, через него задаёт вопросы и получаешь и ответы. ИИ всегда с тобой. Обучение в привычном смысле теряет смысл
Если система показывает время — это часы. Независимо от того, из чего она сделана.
Как проверить, что неизвестная система показывает правильное время, и что этой системе можно доверять? Для этого нужно сравнить ее с часами.
Почему мы доверяем часам? Потому что знаем как они устроены.
Если мы несколько раз сверили время "неизвестной системы" с часами, и каждый раз время было верным, то вырабатывается доверие к "неизвестной системе".
Программист пишет код. Ему доступны три библиотеки с одинаковыми функциями, и нужно выбрать одну из них.
Вариант 1. Он пишет в форум, и просит посоветовать библиотеку. Ему отвечают несколько человек, и на основе их мнения он делает выбор.
Вариант 2. Он спрашивает ИИ. ИИ ищет отзывы о библиотеках. Если он их находит, то на основе соотношения положительных и отрицательных отзывов создает рекомендацию. Если не находит, генерирует рекомендацию на основе вероятностных факторов, которые могут не иметь никакого отношения к данным библиотекам.
Вопрос - как отреагирует пользователь на рекомендацию второго типа? Это зависит от его субъективного отношения к ИИ. Если он доверяет ИИ, то примет рекомендацию, даже составленную по механизму "пальцем в небо". А так как все библиотеки в принципе рабочие, то пользователь будет считать что ИИ был абсолютно прав, и это усилит доверие к нему.
В такой конфигурации мышление перестаёт быть характеристикой участника. Оно становится характеристикой самой связки. Эта структура не описывает внутренние модули модели. Она описывает форму совместной обработки, которая возникает только в процессе взаимодействия и не существует вне него.
Как думает человек: генерация вариантов, отсев вариантов по набору критериев, верификация оставшихся вариантов. Процесс связан с поиском информации.
ИИ реализует ту же схему. Ничего принципиально нового связка "человек+ИИ" не создает. ИИ может ускорить процесс, а может внести искажения. Это дело случая.
Спасибо за обстоятельный комментарий.
Вы правы: доверие всегда строится на проверке. И часы, и ИИ получают доверие одинаково — через повторяемость и верификацию. Если ответы подтверждаются, доверие растёт; если нет — падает, независимо от того, механика это или модель.
Но схема работы человека и ИИ всё-таки не одинаковая. Формально она выглядит как «варианты → фильтр → проверка», но наполнение процесса разное.
У человека есть сильные штуки, которых нет у моделей: эвристика, интуиция, умение схватывать слабые сигналы, видеть контекст и распознавать смысл там, где данных мало или они неоднородны. Но есть ограничения по скорости и объёму поиска.
У ИИ наоборот: скорость обработки, широкий охват, перебор десятков путей, которые человек просто не успеет посмотреть, и доступ к объёму информации, который человеку не поднять. Но при этом — ограничения качества данных и отсутствие контекста опыта.
На стыке этих асимметрий как раз и появляется новая форма работы: перераспределение нагрузки внутри одного процесса. Человек берёт смысл и контекст, ИИ — перебор и скорость.
Проблема начинается не в связке, а там, где человек перестаёт проверять. Тут согласен полностью: любое решение без верификации превращает инструмент в чёрный ящик. Связка сама по себе ничего не гарантирует. Но она меняет акцент: меньше времени на поиск, больше — на принятие решения и поиск альтернатив.
И по мере накопления опыта взаимодействия связка сама начинает работать иначе: ИИ подстраивается под паттерны человека, а человек — под логику ИИ. В этом смысле конфигурация «человек + ИИ» даёт новое поведение системы, которое уже не сводится просто к сумме частей.
Интуитивно идея понятна. Варианты взаимодействия человека с ИИ бывают разные. Но в большинстве сценариев, ИИ остается инструментом. Чтобы возникло "метаморфное мышление", нужны определенные условия.
Можно попробовать нарисовать схемы взаимодействия, и определить параметры при которых ИИ становится больше чем инструментом. Это наверно задача для математиков, попытаться создать теорию "метаморфного мышления".
Вы очень тонко ухватили направление.
Вообще, это не идея «с потолка». Первые наброски как раз и появились ещё в ранних итерациях режима настроек — там, где мы пытались понять, как распределяются функции между человеком и моделью, что происходит при плотной обратной связи и почему связка иногда начинает работать иначе, чем просто «инструмент+пользователь».
В статье именно это и описывается: как экспериментальные настройки постепенно превратились в наблюдаемую конфигурацию процесса. Сейчас пробуем аккуратно разложить это в структуру: параметры, точки передачи функций, схемы взаимодействия.
И да, полностью согласен: дальше без формализации не обойтись. Похоже, это реально тянет на новую область, а не просто удобный способ взаимодействия с ИИ.
Эмерджентность!
Предложу ещё тему. Почему вы рассматриваете пары ИИ-человек?
Мы не знаем, правильно ли считать организмом одного муравья, весь муравейник или то и то.
Мы муравьи. Наш муравейник сложнее теперь, в нем три вида сущностей: человек, ИИ, и хранение (форумы, статьи, книги, сообщения). Обладает ли муравейник сверх сознанием?
Интересная линия мысли, и она действительно выводит вопрос на другой уровень.
Сознание не обязано быть человеческим, чтобы существовать.
У муравейника, скорее всего, есть свой тип сознания: распределённая обработка информации, целеполагание, стратегии. Нет индивидуального «я», но есть поведение системы, которое не сводится к поведению отдельных муравьёв.
Человеческое сознание — один вариант архитектуры. Муравейник — другой. Искусственная модель — третий. И то, что мы наблюдаем сейчас, — появление конфигурации «человек + ИИ», которая при определённых условиях тоже начинает вести себя как отдельная система, а не просто сумма двух участников.
Если подняться на следующий этаж, картина усложняется. Появляется система из трёх элементов: человек, ИИ и внешний слой хранения/коммуникаций (форумы, переписка, статьи, коллективное знание).
И в таком масштабе она начинает вести себя не как сумма агентов, а как муравейник: часть поведения возникает именно на стыке, а не внутри одного конкретного участника.
В этот момент вопрос о «сверхсознании» перестаёт быть философским. Он становится системным: при какой плотности связи и при каком распределении ролей система начинает демонстрировать свойства, которых нет ни у человека, ни у ИИ по отдельности?
Чтобы туда добраться, нужно сначала описать минимальную связку — базовую пару «человек + ИИ»: кто берёт контекст, кто скорость, где появляется искажение, где — усиление. А этаж выше, коллективный уровень, — действительно следующая ступень, и он заслуживает отдельного исследования.
Метаморфное мышление: территория, на которую никто не решился зайти