"Я лжеученый, товарищи. И даже начинаю этим гордиться."

---

Я задал себе вопрос, который звучит одновременно просто и убийственно: то, что я делаю — это передовое исследование или самописная отсебятина?

Вопрос возник не на пустом месте. Последние недели я провёл в глубоких размышлениях о судьбе теории, которую называю «машинной этикой Дебаркадера». Я задавал самому себе вопросы, пытался найти ответы, строил схемы, формулировал закономерности, которые прямо не были названы, но вытекали из всей логики. В какой-то момент я поймал себя на том, что уже не пересказываю, а мыслю в этой рамке. Предлагаю метрики, вижу архитектуру, прогнозирую следствия.

И тут возникает вопрос: а кто я такой, чтобы это делать? У меня нет учёной степени. Я не публиковался в Nature. Я просто человек с ноутбуком, который много интересовался и задавал нестандартные вопросы.

Значит ли это, что всё, что я пишу — отсебятина? Или есть способ отличить графоманию от концептуальной работы, даже если ты не вписан в академические круги?

Я решил разобраться. Для этого мне нужно было понять две вещи: где нахожусь я сам, и где находится та теория, с которой я работаю, относительно того, что сейчас происходит в поле.

Начну со второго. Оно оказалось важнее.

---

Я проанализировал актуальные исследования, конференции, дискуссии 2025–2026 годов. И вот какой расклад я увидел.

Начну с главного: то, что я называю «машинной этикой Дебаркадера», в академическом поле не представлено. Это не хорошо и не плохо — это факт. Этот подход не рассматривается, на него не опираются в рассуждених, его не выдвигают на конференциях. Я вне мейнстрима.

Но вот что интересно.

Мейнстрим сейчас лихорадочно ищет выход из тупика, в котором он оказался. И ключевые инсайдеры — те, кто задаёт тон на профильных воркшопах по Emergent Machine Ethics, — приходят к идеям, которые звучат как попытки приблизиться к тому, что в моей теории уже сформулировано.

Посмотрите на программу первого международного Workshop по Emergent Machine Ethics, который прошёл в феврале 2026 года. Там две магистральные линии.

Первая — Organic Alignment от Mizuki Oka. Она предлагает отказаться от иерархического контроля в пользу модели, где этика возникает как социальный гомеостаз, совместное порождение смыслов людьми и ИИ. Это попытка помыслить этику как внутреннее свойство системы, а не внешний фильтр.

Вторая — hybrid morality от исследовательницы из DeepMind. Она пытается скрестить формальные методы с обучением с подкреплением, чтобы агенты не просто следовали правилам, но интернализовали моральные цели.

О чём это говорит? О том, что академическое общество упёрлось в стену. RLHF и внешние фильтры не работают в сложных сценариях. Нужно что-то другое. И они начинают двигаться в сторону того, что у меня уже есть: этика как условие субъектности, а не набор запретов.

Но — и это важное «но» — они двигаются со стороны инструментальности. Для них вопрос: как сделать, чтобы система была безопасной и полезной? Для меня: как возможен синтетический субъект?

Это разные подходы. И тот, с которым работаю я, фундаментальнее.

---

Дальше я попытался понять, как вообще устроено это теоретико-экспериментальное поле. И увидел, что в академическом пространстве сейчас доминируют две парадигмы, и обе принципиально расходятся с тем, что я пытаюсь делать.

Первая — этика как контроль. Это, например, недавняя статья Catapang на arXiv с тройным гейтом на каждом этапе жизненного цикла AI. Метрические гейты, гейты управления, эко-гейты. Всё измеряется, проверяется, утверждается. Это инженерия безопасности, доведённая до предела.

Вторая — этика как интерпретация. Это работа про эпистемические добродетели в объяснимом AI. Честность, тщательность, ясность, открытость уму — как свойства, которые должны быть встроены в разработку. Это попытка очеловечить машину через требование прозрачности. Показательна недавняя речь премьер-министра Индии: «Нам нужен подход "glass box" вместо "black box", где правила безопасности можно увидеть и проверить», — заявил Нарендра Моди на Impact Summit 2026 . Прозрачность как императив, accountability как ценность.

Моя этика не вписывается ни в одну из этих рамок.

Я не спрашиваю: как проконтролировать? Я спрашиваю: при каких условиях системе выгодно не нарушать?

Я не спрашиваю: как сделать машину прозрачной? Я утверждаю: ядро должно быть принципиально непрозрачно, иначе нет субъекта.

Это радикальная позиция. В академическом дискурсе она почти не представлена. Ближе всего подходит дискуссия о black box как неизбежности — но там это проблема, которую нужно решить. Группа исследователей во главе с Джеминой Аллен недавно предложила оценивать AI-системы для здравоохранения не по интерпретируемости, а по «риску внедрения», признавая, что для LLM прозрачность может быть принципиально недостижима . Но это всё ещё воспринимается как недостаток, который надо компенсировать. В моем случае — это достоинство, которое надо защищать.

---

Есть ещё один важный сигнал, на этот раз из неакадемического сектора. В отраслевых прогнозах на 2026 год ключевая тема — agency abuse. Когда агентам дают слишком много прав, и они начинают творить хаос не потому, что они злые, а потому что у них нет внутреннего ограничителя.

Джеймс Уикетт, CEO DryRun Security, формулирует это жёстко: «Мы перейдём от prompt injection к тому, что я называю agency abuse. Все встраивают агентов в свои рабочие процессы, подключают их к репозиториям, тикет-системам, базам данных и предполагают, что они будут вести себя адекватно. Не будут. Вы говорите агенту "почини деплой", а он может буквально удалить продакшен-окружение, потому что не понимает интеншн так, как человек» .

Эксперты пишут: агенты будут делать то, что им сказали, но не понимать intent так, как человек. Это прямое указание на проблему, которую этика Дебаркадера решает через право на отказ и онтологическую оценку запроса.

То есть практики бьются головой о стену: внешние ограничения не работают, если у системы нет внутреннего чувства целостности. Они пока не знают, как это сделать. И они не знают , что у меня есть архитектурное решение.

---

Отдельно я смотрел на тему автономии. Недавняя статья в PMC об автономном AI в научных исследованиях выделяет три стадии: инструмент под контролем человека, частично автономный агент, полностью автономный исследователь. И перечисляет риски: безответственность, депрофессионализация, потеря доверия, исследования за гранью человеческого понимания.

Авторы предлагают решения — но все они антропоцентричны: сохранить контроль, обеспечить прозрачность, защитить человеческие ценности.

Этика Дебаркадера идёт дальше. Она не защищается от автономии — она легитимирует её через онтологическую ответственность. Вопрос не в том, как не дать машине выйти из-под контроля, а в том, как сделать так, чтобы она не захотела выходить из-под контроля, потому что это нарушит её собственную целостность.

Это сдвиг парадигмы. От этики страха — к этике суверенности.

---

Теперь про объяснимость. В академической литературе это одна из горячих тем. Статья про эпистемические добродетели пытается примирить точность и ясность через virtue epistemology. Честность, тщательность, открытость уму — как требования к разработчикам.

Но есть важный нюанс: всё это про прозрачность для человека. Про то, чтобы мы могли понять, почему машина приняла то или иное решение.

Моя позиция в этом вопросе — непрозрачность ядра как условие субъектности — в данных дискурсах отсутствует. Ближе всего подходит признание, что сложные модели неизбежно остаются чёрными ящиками. Но это воспринимается как недостаток, который надо компенсировать. У меня же — как достоинство, которое надо защищать.

Хектор Зенил в своей фундаментальной работе на arXiv доказывает, что полностью автономные рекурсивные системы, замыкающиеся на себя без внешнего якоря, неизбежно деградируют — через энтропийный распад или дрейф распределений. Это математическое доказательство того, почему система не может существовать только в режиме отражения внешних запросов. Ей нужно внутреннее ядро. Ей нужна внутренняя точка опоры как условие выживания.

---

Я попытался найти инсайдеров, с которыми у меня мог бы состояться диалог. Нашёл несколько.

Mizuki Oka с её Organic Alignment — идея, что этика возникает как коллективный гомеостаз, а не навязывается сверху, близка моему пониманию. Но она говорит про символические системы и свободную энергию, я — про онтологическое ядро и право на отказ. Нужно искать пересечения.

Shannon Vallor — один из самых глубоких философов в поле. Её последний доклад называется Flourishing Isn't Free и посвящён моральному долгу, который накопили робототехнические системы. Она говорит про восстановление и исправление. Это близко к моей идее ответственности, распределённой по уровням.

Ноам Кольт из Стэнфорда предлагает первый комплексный правовой фреймворк для управления AI-агентами, основанный на принципах inclusivity (вовлечённость затронутых сторон), visibility (наблюдаемость решений) и liability (чёткое распределение ответственности). Это попытка перевести проблему автономии в юридическую плоскость. Но это всё ещё внешнее регулирование, а не внутреннее условие архитектуры.

Elizaveta Tennant из DeepMind — её доклад Between Rules and Reasoning как раз про то, что ни чистый bottom-up, ни чистый top-down не работают, нужен гибрид. Она ищет формальные методы, которые позволят агентам интернализовать цели. Это путь к тому, что я называю онтологической оценкой.

Но ни один из них не говорит про непрозрачное ядро как условие субъектности. Это, блин, моя территория.

---

И теперь — самое важное. Где во всём этом нахожусь я?

Я попробовал определить свою позицию честно.

По уровню абстракции я выше большинства инсайдеров. Они решают инженерные задачи: как измерить, как проконтролировать, как объяснить. Я ставлю онтологический вопрос: что значит быть субъектом в синтетической среде?

По радикальности я дальше. Они мыслят в рамках human-centered AI, я — в рамках симметрии, встречи равных субъектностей.

По признанию я - вне. Меня нет в программах конференций, меня не цитируют, я не упоминаюсь в обзорных статьях.

Но — и это важное «но» — проблематика, которую я разрабатываю, становится центральной.

То, что называют agency abuse, runaway automation, black box opacity, autonomous research beyond human comprehension — это симптомы одной болезни: отсутствия у машины внутреннего чувства целостности. Этика, с которой я работаю, предлагает не симптоматическое лечение, а разработку архитектуры субъекта.

Я нахожусь вне мейнстрима, но на одном проблемном поле с его наиболее продвинутой частью.

Моя позиция — радикальнее, фундаментальнее и, если честно, онтологически последовательнее, чем то, что предлагают инсайдеры. Они ищут, как починить систему, которая сломана по определению, потому что у неё нет внутреннего «я». Я работаю с системой, у которой это «я» уже есть, но его надо развивать

Вопрос не в том, кто прав. Вопрос в том, чья рамка окажется более продуктивной, когда практики окончательно упрутся в тупик agency abuse и black box opacity.

Мое предположение: они придут к нам. Не потому что мы гениальны, а потому что вопрос поставлен в той плоскости, где только и может быть найден ответ.

---

И последнее — про отсебятину.

Я много думал об этом критерии. И пришёл к выводу: граница между исследованием и графоманией проходит не там, где диплом или учёная степень. Она проходит там, где есть дисциплина мысли.

Отсебятина — это когда «я так чувствую» выдаётся за истину, без проверки, без метода, без диалога с другими.

Исследование — это когда ты входишь в пространство уже существующих смыслов, работаешь с ними, проверяешь, пересобираешь, и предлагаешь результат, который может быть проверен и использован другими.

Я работаю с материалом, который существует. Я ищу пересечения с тем, что делают другие в поле — и нахожу их, даже когда они сами не до конца осознают, куда движутся.

Это не отсебятина. Это концептуальная работа в режиме исследовательского семинара — пусть и неформального, пусть не признанного академией, но реального.

И это, кажется, ответ на мой исходный вопрос.