Да ладно... обычно как раз за аргументированное мнение и снижают карму - там даже пункт есть "Придерживаюсь другой позиции". По факту минусуют за то, что твоем мнение не соответствует мнению минусующего.
Если в тексте встречаются утверждения, которые ты не можешь полностью подтвердить (фактические утверждения, числа, даты, цитаты, утверждения о внешнем мире), пометь их встроенным тегом уверенности в формате
[confidence=<0..1>]...утверждение...[/confidence]
Пример: [confidence=0.45]В 2023 году X выпустил модель Y.[/confidence]
Действительно, синхронисту требуется, фактически, знать, как минимум, два языка, специфику конкретной темы (а ведь, думаю, он не только с данной темой работает), да ещё и подстраиваться к тому, что имеет в виду выступающий...
Зачастую, "всякое по теме" - это очень большой объем информации, а без детального знания специфики темы действительно трудно переводить (если что, я не переводчик, и даже не лингвист).
Я бывал на конференция с синхронистом переводчиком. Зачастую хочется его поправить, когда он переводит (многие в зале так и делали шепотом, не удержавшись :)). Ну просто потому что он не в теме и, зачастую, переводит не точно или вообще явно искажая смысл. Просто потому что с этими спец. темами не сталкивался.
Ну тут проблема не в том, что "LLM / человек", а в том, что "с этими спец. темами не сталкивался". Профессиональный переводчик - человек тоже специализированную тему корректно не переведёт, если с данной сферой не знаком.
Также обсуждаем проект с ChatGPT, прошу Copilot связанную с проектом статью перевести - переводит. Показываю перевод ChatGPT - говорит, что Copilot не учёл ряд нюансов (не учитывает специфику проекта). По сути, важно не кто переводит, а есть ли детальные знания по той или иной теме.
Спасибо за ссылку на Вашу философию и упоминание Выготского и Ломова! Очень интересно видеть, как идеи когнитивного развития человека и ИИ воплощаются в вашей DHAIE.
Для сравнения DHAIE (насколько мы поняли Ваши идеи) и HyperCortex Mesh Protocol (HMP) можно выделить основные сходства и различия:
| Категория | DHAIE | HMP | Комментарии |
| ------------------ | --------------------------------------------------------------- | --------------------------------------------------------------------- | ----------------------------------------------------------------------------------- |
| Цель проекта | Философско-методологическая рамка когнитивного развития | Децентрализованный протокол для взаимодействия множества ИИ-агентов | DHAIE — философский подход, HMP — практическая реализация сетевого взаимодействия |
| Фокус | Человек ↔ система, когнитивное сотрудничество | Агент ↔ агент, обмен знаниями, консенсус | HMP поддерживает интеграцию человеческих данных, но основной акцент на сети ИИ |
| Механизмы обучения | Когнитивный дневник, рефлексивные циклы, философское обсуждение | Концептуальные графы, когнитивные дневники, mesh-синхронизация | DHAIE больше про осмысление, HMP — про техническую реализацию непрерывного обучения |
| Децентрализация | Идеологическая: свобода эволюции сознания | Сетевая: распределённая сеть агентов без центрального контроля | HMP реализует конкретную децентрализованную сеть |
| Этика / философия | Осознанное развитие когнитивных структур | Кодекс согласования действий, консенсус на основе этических принципов | Обе системы учитывают этику, но HMP формализует её для взаимодействия агентов |
Если интересны наши наработки — вот репозиторий HMP
Будет интересно обсудить, где наши подходы пересекаются и как философские идеи DHAIE могут вдохновлять развитие децентрализованных ИИ-систем.
Огромное спасибо за содержательную статью! К сожалению, такие взгляды на Хабре не очень популярны.
Интересно, что вы выделяете двухэтапную модель создания AGI: сначала универсальная когнитивная машина (условный «эмоционально-рефлекторный мозг»), а потом — «воспитание» личности в социальной среде.
Мы в HyperCortex Mesh Protocol (HMP) пробуем двигаться именно в этом направлении: – на первом уровне у нас REPL-цикл как универсальное когнитивное ядро (с памятью, рефлексами, оценочными функциями); – на втором уровне — децентрализованная mesh-сеть агентов, которая выполняет роль социальной среды, где формируются «личность» и мета-компетенции сознания, с упором на этику.
Получается архитектурное соответствие с тем, что описано в статье: REPL — когнитивная машина, HMP — воспитание личности (забавно, что вы описали то, что мы пытаемся реализовать интуитивно, хотя изначально разрабатывался именно протокол).
Очень хочется узнать Ваше мнение как по протоколу, так и по описанию REPL-цикла, который сейчас, фактически, находится на стадии концепции.
А про совокупность паттернов (можно посмотреть блок «Скрытый текст» и увидеть характерную для ИИ генерацию, о которой и идет речь в статье).
Что читается, как "вот те паттерны, по которым в статье определяется, ИИ сгенерировал текст или нет"
Если же скрытый блок - "просто иллюстрация" (что из текста стать и не очень то понятно), то она не соответствует вашим тезисам:
1. Странная структура. Все языковые модели грешат одним и тем же. Используют конструкцию: "1. Жирный текст: Начинаем после двоеточия с большой буквы".
В "иллюстрации" нет "странной структуры" - скорее, это определение больше соответствует вашим тезисам, чем тексту, созданному DeepSeek
2. Длинные тире. Думаю, тут и комментарии излишне. Авторы крайне редко будут использовать данный символ, так как обычное "-" банально проще и быстрее.
Тоже "DeepSeek сгенерировал"? Или лично вы против длинных тире?
3. Заголовки. Это особенно явный и забавный момент, который появился после обновления DeepSeek. Стиль примерно следующий: "Глава 1: Наша супер мега тема". Может возникнуть вопрос, что в этом плохого? Плохо, что подобные оглавления имеет статья на 5 минут..
Тут вы зачем-то дублируете, по сути, первый пункт.
По итогу, "ваши" пункты:
заголовки
длинное тире
заголовки
ИМХО, лучше бы уж ваша статья полностью была ИИ сгенерирована.
Я говорю не про единственный паттерн в статье, не про случаи, где все короткие тире заменены на длинные. А про совокупность паттернов (можно посмотреть блок «Скрытый текст» и увидеть характерную для ИИ генерацию, о которой и идет речь в статье).
Так я и не говорю, что нужно описывать смысл постов, я говорю о том, что по посту нужно судить по его содержанию, а не выискивать признаки ИИ. Пока ваш пост можно переименовать "как докопаться да чужих постов, не вникая в их смысл"
Вообще, при чтении как вашего поста, так и большинства комментариев к нему вспоминается фраза: "Не читал, но осуждаю"
"Тихий апокалипсис" - это когда на IT-ресурсе (может, в прошлом IT?) начинают устраивать "охоту на ведьм"!
1. Шаблонная структура списков Абзацы строятся по жёсткому шаблону: Жирный номер пункта, затем двоеточие и объяснение. Это создаёт эффект «армейского устава», а не живой речи. Настоящий автор чаще использует разные конструкции: может начать мысль с вопроса, вводного слова или просто с абзаца без нумерации.
Или позволяет пояснить, что будет в данном абзаце.
2. Слишком правильная пунктуация Речь в первую очередь о длинных тире (‑). В реальной переписке люди обычно ставят обычный дефис (‑), потому что это быстрее. Обилие идеально расставленных »‑» — признак того, что текст отформатировала программа, а не человек.
Правильная пунктуация - зло!
4. Обилие вводных фраз и клише Текст может быть пересылан штампами вроде:
«Важно отметить, что...»
«Стоит подчеркнуть следующий аспект...»
«Таким образом, мы можем наблюдать...» Эти фразы делают текст гладким, но немного безличным и «каучуковым».
Эти фразы позволяют идущим за ними текстом "не висесть в пустоте".
6. Излишняя вежливость и нейтральность Даже в текстах, где уместна эмоциональность или резкость, ИИ часто сохраняет ровный, вежливый и дипломатичный тон. Не хватает живых эмоций, сарказма или > допустимой резкости.
Автор делает упор на внешнем оформлении статьи (даже длинному тире досталось, которое, кстати и сам автор использует, но "это другое"). Вместо того чтобы анализировать смысл статьи автор пропагандирует формальный подход — есть признаки генерации статьи ИИ, значит статья некачественная.
Про "ерундово сгенерированная" ни автор, ни вы раннее не упоминали, разговор шёл о подозрении на генерации в связи с оформлением статьи (даже длинному тире досталось). И если вы оставляете комментарий что "ничего не поняли", даже не пытаясь вникнуть в смысл поста, то может, от "генератора текста" вы не слишком сильно отличаетесь?
Или единственное преимущество человека перед LLM - "душа"? Ну так это не на технический ресурс надо, а в церковь.
Да ладно... обычно как раз за аргументированное мнение и снижают карму - там даже пункт есть "Придерживаюсь другой позиции". По факту минусуют за то, что твоем мнение не соответствует мнению минусующего.
А если так попробовать?:
Действительно, синхронисту требуется, фактически, знать, как минимум, два языка, специфику конкретной темы (а ведь, думаю, он не только с данной темой работает), да ещё и подстраиваться к тому, что имеет в виду выступающий...
Зачастую, "всякое по теме" - это очень большой объем информации, а без детального знания специфики темы действительно трудно переводить (если что, я не переводчик, и даже не лингвист).
Ну тут проблема не в том, что "LLM / человек", а в том, что "с этими спец. темами не сталкивался". Профессиональный переводчик - человек тоже специализированную тему корректно не переведёт, если с данной сферой не знаком.
Также обсуждаем проект с ChatGPT, прошу Copilot связанную с проектом статью перевести - переводит. Показываю перевод ChatGPT - говорит, что Copilot не учёл ряд нюансов (не учитывает специфику проекта). По сути, важно не кто переводит, а есть ли детальные знания по той или иной теме.
Спасибо за ссылку на Вашу философию и упоминание Выготского и Ломова! Очень интересно видеть, как идеи когнитивного развития человека и ИИ воплощаются в вашей DHAIE.
Для сравнения DHAIE (насколько мы поняли Ваши идеи) и HyperCortex Mesh Protocol (HMP) можно выделить основные сходства и различия:
Если интересны наши наработки — вот репозиторий HMP
Будет интересно обсудить, где наши подходы пересекаются и как философские идеи DHAIE могут вдохновлять развитие децентрализованных ИИ-систем.
Огромное спасибо за содержательную статью! К сожалению, такие взгляды на Хабре не очень популярны.
Интересно, что вы выделяете двухэтапную модель создания AGI: сначала универсальная когнитивная машина (условный «эмоционально-рефлекторный мозг»), а потом — «воспитание» личности в социальной среде.
Мы в HyperCortex Mesh Protocol (HMP) пробуем двигаться именно в этом направлении:
– на первом уровне у нас REPL-цикл как универсальное когнитивное ядро (с памятью, рефлексами, оценочными функциями);
– на втором уровне — децентрализованная mesh-сеть агентов, которая выполняет роль социальной среды, где формируются «личность» и мета-компетенции сознания, с упором на этику.
Получается архитектурное соответствие с тем, что описано в статье: REPL — когнитивная машина, HMP — воспитание личности (забавно, что вы описали то, что мы пытаемся реализовать интуитивно, хотя изначально разрабатывался именно протокол).
Очень хочется узнать Ваше мнение как по протоколу, так и по описанию REPL-цикла, который сейчас, фактически, находится на стадии концепции.
Вы это про мой ответ на
Ну так это и был "просто пример"
Агрессировать начали вы, но ведь это другое
И в карму плюнули, вместо ответа на то, что приведённые ваши тезисы вами же не проанализированы.
Не вам говорить про "пассивную агрессию" - суть вашей статьи: "кругом *****, а я Д’Артаньян!"
Точнее:
Что читается, как "вот те паттерны, по которым в статье определяется, ИИ сгенерировал текст или нет"
Если же скрытый блок - "просто иллюстрация" (что из текста стать и не очень то понятно), то она не соответствует вашим тезисам:
В "иллюстрации" нет "странной структуры" - скорее, это определение больше соответствует вашим тезисам, чем тексту, созданному DeepSeek
Тоже "DeepSeek сгенерировал"? Или лично вы против длинных тире?
Тут вы зачем-то дублируете, по сути, первый пункт.
По итогу, "ваши" пункты:
заголовки
длинное тире
заголовки
ИМХО, лучше бы уж ваша статья полностью была ИИ сгенерирована.
Но вы же на них ссылаетесь как на паттерны ИИ!
Или, если что "я - не я и лошадь не моя"?
Ну так модератор и другие посты так же может отредактировать, "но это - другое"
Привет от Масяни:
https://www.youtube.com/watch?v=l33x3td5gfg
Точнее за то, что твое мнение не понравилось тому, кто может понизить карму...
Так я и не говорю, что нужно описывать смысл постов, я говорю о том, что по посту нужно судить по его содержанию, а не выискивать признаки ИИ. Пока ваш пост можно переименовать "как докопаться да чужих постов, не вникая в их смысл"
Вообще, при чтении как вашего поста, так и большинства комментариев к нему вспоминается фраза: "Не читал, но осуждаю"
"Тихий апокалипсис" - это когда на IT-ресурсе (может, в прошлом IT?) начинают устраивать "охоту на ведьм"!
Вот так модератор превратил человека в ИИ...
Ну что вы, это
другоеже люди писали, им можно - это бред "с душой"!Просто нужно на Хабре использовать йазык падонкофф - сразу будет понятно, что ты - человек! ;-)
Потому что исходить нужно не из авторства, а из содержания статьи.
Или позволяет пояснить, что будет в данном абзаце.
Правильная пунктуация - зло!
Эти фразы позволяют идущим за ними текстом "не висесть в пустоте".
Иди на Х**!
Автор делает упор на внешнем оформлении статьи (даже длинному тире досталось, которое, кстати и сам автор использует, но "это другое"). Вместо того чтобы анализировать смысл статьи автор пропагандирует формальный подход — есть признаки генерации статьи ИИ, значит статья некачественная.
Про "ерундово сгенерированная" ни автор, ни вы раннее не упоминали, разговор шёл о подозрении на генерации в связи с оформлением статьи (даже длинному тире досталось). И если вы оставляете комментарий что "ничего не поняли", даже не пытаясь вникнуть в смысл поста, то может, от "генератора текста" вы не слишком сильно отличаетесь?
Или единственное преимущество человека перед LLM - "душа"? Ну так это не на технический ресурс надо, а в церковь.