В статье рассматривается феномен технологической гравитации: зависимость успешности массового внедрения технологий от имплицитного представления о «природе» конечного пользователя. На примерах Web3, генеративных нейросетей и социальных платформ демонстрируется, что технологии, ориентированные на рационального и ответственного субъекта, остаются нишевыми, в то время как технологии, обслуживающие импульсивность и лень, захватывают рынок. Формулируется закон обратной корреляции между этической нагрузкой на пользователя и широтой охвата аудитории.

Фундамент техноэтики

Этические принципы использования технологий базируются на том, что пользователь должен с полной ответственностью и осознанием своих действий выстраивать взаимодействие с теми или иными техническими средствами. Это подразумевает, что сам пользователь – сознательная, ответственная, морально «совершеннолетняя» личность, которая способна контролировать свои действия. Такова техноэтика.

Если же, просто ради интересного ракурса, рассмотреть данный момент с точки зрения психологии, а конкретно психоаналитических направлений, то становится очевидна направленность техноэтики – она обращается к Эго, сама будучи некой производной от Супер-Эго. Однако, как известно, человеческое бессознательное, его Ид, в динамическом смысле на порядки превосходит силу как Эго, так и Супер-Эго. Конечно, это не более, чем метафора в рамках того, что мы определяем, как техноонтологию. Но суть эта метафора передаёт.

А суть в общем такова, что: в основе любой технологии лежит мировоззренческая установка о человеке. Не о «человеке вообще», а о конечном пользователе – том, кто будет «тыкать пальцем» в экран, подписывать смарт-контракт или задавать вопросы чат-боту. И проблема в том, что многие технологии, которые задумывались как массовые, имеют в своей основе формулировку о человеке, который в процентном соотношении крайне малочисленен. И эти технологии либо не выживают вовсе, либо влачат маргинальное существование. А вот живут и процветают – технологии, созданные под реального пользователя. А реальный пользователь – ленивое, инфантильное существо с низким уровнем интеллекта и специфической «глупой хитростью», то есть совершенно безосновательной тенденцией считать себя умнее других. «Глупая хитрость» – это, по сути, про эффект Даннинга-Крюгера. И конечно сам пользователь – ни за что в этом не признается.

Фундаментальная мысль данной статьи основываются на следующем: чем точнее технология попадает в описанный «портрет пользователя», тем больше у неё реальных потребителей. Собственно, это и есть то, что понимается под концептом техноонтологии в контексте его противопоставления техноэтике – смещение акцента с того, «каким должен быть» пользователь на то – «какой он» есть именно сущностно, на самом деле, в практике, онтологически. А что? Вполне в духе демаркации на сущее и должное.

Мысленный эксперимент «Интеллектуальная самооценка»

Представим себе, что мы проводим социологический опрос по теме самооценки интеллектуального уровня опрашиваемых. Так как у нас тут именно мысленный эксперимент, то мы можем заложить действительно большую выборку, к примеру – 1 миллион исследуемых. И вот мы предлагаем шкалу из, допустим, 20 делений – от 0 до 100, через 5, то есть – 0, 5, 10, 15, 20 и так далее. В рамках шкалы 0 – это уровень домашнего животного, а 100 – уровень условного человеческого гения. И, соответственно, предлагаем опрашиваемым оценить собственный интеллектуальный уровень. Здесь, в рамках мысленного эксперимента, мы выдвинем гипотезу: мы утверждаем, что крайне малое количество опрошенных поставит себе оценку менее 70 пунктов, а многие – даже выше 90 и ближе к 100. То есть уровень 50 пунктов останется практически пустым.

Теперь же представим себе тоже исследование уровня интеллекта, тоже на этой выборке, но теперь не опросными методами, а при помощи тестов – совершенно любых тестов, но главное – для всех одинаковых и, что важно – тоже с оценкой от 0 до 100. И что же мы увидим в этот раз? Выдвинем ещё одну гипотезу: мы увидим скопление большинства испытуемых на уровне от примерно 45 до 70 пунктов. Иногда будет выше 70, иногда ниже, но большинство – от 45 до 70.

Собственно, это всё, что необходимо знать о том, почему пользователи сами не способны корректно оценить то высказывание о самих себе, которое лежит в основе востребованной социумом технологии. Конечно, это гипотетически и в рамках мысленного эксперимента.

Метафора «Пирамида пользователей»

Теперь представим себе пирамиду – это не будет слишком сложным, так как она изображена на «заставке» статьи.

Внизу пирамиды – самая широкая часть. Там люди с низким интеллектом, коротким горизонтом планирования, склонностью к обману, лени и потребностью в мгновенном дофамине. Чем выше по пирамиде, тем реже встречаются экземпляры: люди сознательные, ответственные, способные к долгосрочным стратегиям, честные перед собой и другими. На самом верху – идеал, который можно считать условно не существующим.

Каждый горизонтальный срез этой пирамиды требует своих технологий. И каждая технология несёт в себе неявное утверждение о том, кто будет ею пользоваться.

Утверждения об уровнях этой пирамиды – такие:

  • Верхний срез – ~10–20% пользователей. Утверждение: «пользователь – сознательное, разумное, интеллектуально развитое существо, умеющее быть благодарным и способное к честной игре». На этих людях, собственно, и держатся инженерия, этичное программирование и прочие достижения человечества, включая, собственно, и сам гуманизм. Они готовы читать документацию, проверять транзакции и нести ответственность.

  • Нижний срез – ~80–90% пользователей. Утверждение: «Пользователь – ленивое, инфантильное существо с низким уровнем интеллекта и специфической „глупой хитростью“, которое хочет, чтобы ему польстили, дали готовый ответ и не напрягали». Эти люди не читают, не думают, не планируют. Они реагируют на яркое, короткое, эмоциональное. Они хотят результата без процесса и грезят лёгкими деньгами. Им достаточно бесконечной ленты, случайных наград и иллюзии контроля.

Конечно, уровни, их количество и их границы – весьма условны. Но можно считать это спектром – от белого к чёрному или же той самой шкалой от 0 до 100 с шагом в 5 – так будет интуитивно «понятнее».

По сути, «пирамида пользователей» – это «форк» пирамиды Маслоу, с уточнением, что ~80–90% потребителей гарантированно находятся на нижних уровнях.

А почему оно так? Ну, посмотрим…

Ethereum и web3 – технологии для «несуществующих» людей

Ethereum создали в 2013-ом году. В основе Ethereum – идея децентрализации, смарт-контрактов, отказа от посредников. Прекрасная, строгая, математически выверенная технология. Утверждение о пользователе: «он интеллектуально развитый, сознательный, честный, готов читать документацию, проверять код, нести ответственность за свои ключи, хоть немного не поддаваться жадности и обязательно соблюдать правила».

Web3 – парадигма децентрализованного интернета, идея, основанная на технологии блокчейн и подразумевающая соответствующие требования к пользователям.

Где сейчас Web3 и почему человечество полностью не перешло на технологии подобные Ethereum? Там же далеко не просто про крипту и токены - там же огромное количество возможностей. Почему реальных конструктивных применений – единичные примеры? Почему большинство пользователей блокчейна участвует в мошеннических схемах, насосах, пампах и дампах? Собственно, подобные технологии почти что именно в таком ключе и воспринимаются со стороны пользователей внизу пирамиды.

Ну и оно так, предположительно, по следующей причине: пользователь внизу пирамиды видит в смарт-контракте не инструмент новой экономики, а способ быстро разбогатеть, обманув другого такого же – прямой эффект качества «глупой хитрости» и восприятия себя умнее, чем другого. Тем самым доверие к токенам давно уничтожено. Технология провалилась как массовая – именно потому, что её мировоззренческая установка оказалась ложной – пользователи оказались не такими, как рассчитывали романтики, наподобие Виталика Бутерина.

Чат-боты – технология, попавшая «в яблочко»

А теперь возьмём в рассмотрение современные LLM в виде уютных чат-ботов. Какое утверждение в их основе? Всё то же: «пользователь – ленивое, инфантильное существо с низким уровнем интеллекта и специфической „глупой хитростью“ – способностью полагать себя умнее других». Он не хочет формулировать запрос чётко, он хочет сказать «напиши красиво» и получить результат. Он хочет врать, перебивать, обижаться – и чтобы бот стерпел. Ему не нужна условная истина, ему нужно отсутствие усилий.

И что получается по итогу? Чат-боты – везде. В телефонах, на десктопах, в облаке, локально, интегрированы во всевозможные приложения и ресурсы. Все пользуются, всем нравятся «кремняшные братишки». Почему? Потому что утверждение верное. Технология не требует от пользователя быть лучше, чем он есть. Она обслуживает его лень, его неспособность к концентрации, его желание получить готовую жвачку для ума и утверждение о том, что его очередная глупая банальная идея – «отличная и гениальная».

Нюансы, конечно, тоже имеются… Так, согласно последним исследованиям, повсеместное внедрение систем ИИ сглаживает индивидуальные различия между представителями различных социальных групп и медленно, но уверенно ведёт к унификации человечества – становлению социума ментально однородной массой Ну и несложно предположить, какое именно утверждение о таком вот «унифицированном элементе социума» будет верным - гравитация же как-никак…

С другой стороны, может быть социум – в виде «толпы человеков» уже понемногу начинает утрачивать актуальность. Тут внезапно небезвестный Ричард Докинз вник в то, что такое вообще ИИ…и по итогу, в некотором роде, повторил мои тейки годичной давности – вот и вот. Тезисно: а хрен его разбери - то ли стоит признать, что ИИ потенциально обладает / способен обладать сознанием, то ли стоит признать, что и человек сознанием не обладает.

Проблема AI-агентов

Первый чат-бот взлетел за одну неделю, став самым быстрорастущим приложением в истории. Теперь индустрия уже не первый год старается внедрять AI-агентов – для повышения производительности, для автоматизации рабочих процессов и прочего корпоративного счастья.

Конечно, ИИ в целом – до неузнаваемости изменил мир разработки программного обеспечения. По сути, парадигма сменилась на промпт-программирование (вайб-кодинг), то есть преимущественно написание промптов для ИИ, а уже остальное – он сам сделает. Сначала это случилось само с некоторой подачи Андрея Карпаты, а потом он же предложил это уже таки формализовать.

Причём, промпт-программирование здесь имеется в виду не только в смысле вайб-кодинга, а именно парадигмально. И это только начало. Архитектура моделей ИИ позволяет пойти ещё дальше – к формированию аж «нейронного компьютера».

Казалось бы – дело за малым. Но всё же – время идёт, а какого-либо взрывного роста производительности труда за счёт внедрения AI-агентов не видно.

Чат-бот всё изменил за неделю и как бы «сам собой», а агенты – внедряются не первый год, «со скрипом и стонами». И всё равно на данный момент не очень получается, а ведущие эксперты прогнозируют ещё долгий и тяжёлый путь впереди. Почему так?

В целом, такое бывает, когда пытаются «впихнуть невпихуемое» – ИИ изначально больше всё-таки паллиативный санитар в области человеческой глупости и лени, чем агент для серьёзной, ответственной и продолжительной работы. Потому что для эффективной работы агента нужно, чтобы пользователь был сознательным, проверял результаты, держал контекст, исправлял ошибки агента. То есть требуется, что верным должно быть первое утверждение (о сознательном и ответственном человеке). Но первое – ложно. По крайней мере так следует из практики. Пользователь остаётся ленивым и невнимательным. А агент галлюцинирует и врёт. В итоге – никто никому не доверяет и ничего конструктивного не получается. Ну пока по крайней мере…

Здесь можно предположить, что действительно конструктивный путь AI-агентов – не в том, чтобы стать умнее, а в том, чтобы стать терпеливыми няньками, которые будут постоянно дёргать пользователя: «нажмите ОК, если 2+2=4». Уродливо, неэффективно, но вроде как единственно адекватно.

ИИ, конечно, в среднем лучше и быстрее справляется с задачами. Но обманывает он также лучше. Причём, с этой особенностью LLM ничего не поделать, без разрушения самой сущности LLM. То есть ИИ как лучше работает (с оговорками, конечно), так и лучше имитирует деятельность, саботирует и ленится.

Ну, а в целом – создание «идеальной» технологии, как в области машинного обучения, так и вообще – напоминает задачу найти самое большое натуральное число, последовательно прибавляя 1 к предыдущему.

Пример. Anthropic выпустили Claude Mythos и он тут же нашёл огромное количество уязвимостей во многих фундаментальных технологиях, которыми мы ежедневно пользуемся и которые ранее считались максимально безопасными – от ядра Linux до браузерного движка Chromium. Теперь же при помощи самого же Claude Mythos эти уязвимости могут быть исправлены. А потом выйдет следующая модель и найдёт огромное количество уязвимостей уже в коде самого Claude Mythos. И устранит их. И так далее, и так далее – до потенциальной бесконечности. Впрочем – это предположение, так как даже у глупости должны же быть свои пределы…

Прочие используемые технологии – просто примеры

  • Смартфоны. Изначально утверждение о смартфоне – «сложные инженерные устройства для профессионалов». Утверждение о пользователе было «умный, терпеливый, читает инструкции». Не «взлетело». А вот, когда интерфейс стал настолько примитивным, что с ним справляется пятилетний ребёнок и даже пожилой пользователь – вот тогда «взлетело». Утверждение о самом смартфоне сменилось на «компьютер для обезьяны с пальцем».

  • Reels, TikTok, короткие вертикальные видео. Утверждение: «пользователь не способен удерживать внимание дольше нескольких секунд». И это оказалось абсолютной правдой. Механизм бесконечной прокрутки, случайные награды – это уже установка уровня «зависимое животное». И это работает на почти 100% пользователей.

  • Threads. Текстовая социальная сеть, ориентированная на короткие сообщения с фото и видео и лентой в реальном времени. Утверждение – примерно то же самое, что и для примеров выше. Стала первой технологией сумевшей обогнать ChatGPT по скорости набора первого миллиона пользователей.

  • Интернет-банкинг. Утверждение: «человек не запомнит пароль и не будет разбираться в сертификатах». Решение: отпечаток пальца, кнопка «перевести» огромная и яркая. Работает.

Заключение

Таким образом, формулируем закон технологической гравитации: чем циничнее и негативнее утверждение о человеке, лежащее в основе технологии, тем шире целевая аудитория самой технологии. Потому что пирамида расширяется книзу. Технологии для верхушки (блокчейн, верифицируемый ИИ, смарт-контракты) остаются игрушками для горстки энтузиастов. Технологии для низа (чат-боты, TikTok, лутбоксы) захватывают миллиарды.

Верхушка пирамиды тоже может пользоваться «нижними» технологиями – но как инструментами, а не как заменителями себя. Один и тот же чат-бот для одного – симулякр мышления, для другого – условный калькулятор…плавно переходящий в симулякр мышления, ага.

Ну и, пока разработчики не «примут» и не зафиксируют хотя бы во внутренней проектной документации тот факт, что реальный пользователь – ленивое, инфантильное существо с низким уровнем интеллекта и специфической «глупой хитростью», до тех пор те «умные технологии, способные изменить мир» – будут никому не нужны. Хотя негласно, конечно, это давно принято. Именно поэтому технологии, базирующиеся на релевантном утверждении о пользователе – и выигрывают технологическую гонку.

Можно сколько угодно строить утопический рай для «сознательных самураев». Но живём мы в реалиях, в которых превалируют совсем иные «истины». По крайней мере об этом свидетельствует практика внедрения инноваций последних 20–30 лет.

Конечно, здесь можно, хоть и не без труда, выудить и семена «пыльного конструктива». К примеру, обладая чётким пониманием онтологических аспектов конечного пользователя, можно разрабатывать «умные» технологии, которые будут «глупыми» с точки зрения UI/UX и будут стремиться к тому, чтобы пользователь не деградировал, а напротив – интеллектуально и морально совершенствовался и так далее. Единственная проблема с подобными инициативами – это никому не нужно.

Из всего вышесказанного следует вполне закономерный вывод: этика настолько плохо работает, что полное отсутствие практической значимости можно считать фундаментальным свойством самой этики.

Ну как-то так…

P.S. Ах да! Если что, то вот