Pull to refresh

Comments 7

Групповой ИИ используется здесь не для поиска новых фактов, а для формализации существующих логических цепочек. Почему бы экспериментально на трудном примере не проверить, как нейросети помогают структурировать аргументацию в любых сложных текстах — будь то юридические документы, исторические хроники или Священное Писание?

ИИ как инструмент верификации (logic‑checking) — это пример использования нейросетей не для генерации контента, а для семантического и логического анализа. Важно понимать: AI здесь не «судья», а «внешний рецензент», который помогает сделать человеческие предубеждения (bias) явными и проверяемыми. Мы используем ансамбль моделей как «механических анализаторов» в споре интерпретаций, применяя методы Data Science к гуманитарному знанию.

Если у кого-то есть опыт именно вдумчивого использования AI, поделитесь своими результатами и размышлениями. Буду признателен за обратную связь.

Ну так а где результаты? По ним и понятно будет, рабочий метод или нет. «Обо всем вы узнаете по плодам по своим» :))

Спасибо за реакцию. Результаты как раз приведены в статье, где они сведены в таблицу. «Плод» работы линтера конкретный и он показал, что одна гипотеза (мессианская) имеет меньше логических противоречий внутри системы, чем вторая (социальная).

Здесь мы все как первопроходцы, ведь и технология, и методы её применения для нас новые. Задача ИИ в данном эксперименте была не в том, чтобы найти «истину», а чтобы подсветить «баги» в аргументации. Боты не могут решить за человека, как интерпретировать текст, но они справляются (группой) с ролью относительно беспристрастного ревьюера. А вот какой вывод сделать из этого анализа, то каждый решает сам.

Ваш метод хорошо стыкуется с алгоритмом, описанным в этой статье https://habr.com/ru/articles/874440

Комбинация множества агентов искусственного интеллекта с независимым объективным краудсорсинговым алгоритмом способна создать синергию для претензии на достоверность и поиска пробелов в понимании смыслов.

Спасибо за отклик и ссылку.

Вы правы, проблема генерации мусора и ложных выводов стоит остро. Методика группового анализа (LLM + человек) как раз призвана с этим бороться, выявляя не только ошибки данных, но и логические натяжки.

В приведенной вами ссылке (статье) есть ошибочное утверждение assertion про «плоскую Землю» — классический пример того, как интерпретация (комментарий) противоречит исходному коду (тексту). Вот оно:

“Мнение о плоской Земле имеет право на существование, но оно подтверждается только одной строкой из Библии, которая в свою очередь не подтверждается ничем”…

Разберем кейс, используя метод из статьи:

Текст Ис. 40:22 описывает Землю как «круг» (евр. chug), над которым восседает Творец. “Он есть Тот, Который восседает над кругом земли, и живущие на ней — как саранча пред Ним; Он распростер небеса, как тонкую ткань, и раскинул их, как шатер для жилья”.

  1. Логический анализ: Вывод о «плоской земле» требует интерпретации слова «круг» исключительно как двумерного диска. Однако контекст («восседает над», «раскинул небеса») описывает перспективу сверху, а не геометрическое сечение. Это описание горизонта (визуального круга), видимого с высоты.

  2. Ошибка интерпретатора: Утверждение, что «Библия говорит о плоской земле», строится на допущении, которого в тексте нет. Это пример «бага в документации». Ансамбль LLM в подобных задачах полезен тем, что он не привязан к традиции (как человек) и может подсветить: «В тексте нет маркеров плоскости, это внешняя надстройка интерпретатора».

Люди сами и очень часто держатся за ошибочные интерпретации не потому, что они верны, а по инерции мышления. Как говорится в статье: система надежнее, когда над ней работают разные ревьюверы.

Хочу поделиться одним наблюдением из обсуждения метода на другом ресурсе. По правилам Хабр не место для религиозных дискуссий, поэтому для обратной связи был выбран соответствующий форум и тема.

Когда я попытался представить этот подход (формальный анализ с помощью ансамбля ИИ) аудитории, для которой религиозные тексты — вопрос авторитета, возникла интересная реакция. Тема была закрыта и удалена администратором практически сразу. Сам метод был им воспринят не как вспомогательный инструмент (по аналогии со словарями или комментариями), а как прямую угрозу духовному руководству. Модератор форума в своём сообщении прямо заявил, что обращение к ИИ в вопросах Библейского текста недопустимо.

Этот пример, на мой взгляд, хорошо иллюстрирует один из тезисов статьи: любая формальная проверка, которая выводит аргументацию за рамки личных авторитетов, может восприниматься как вызов. При этом я нигде не предлагал заменять Святого Духа "калькулятором" — ровно как словари греческого языка не заменяют, а помогают. Но сам факт, что инструмент, помогающий проверять логику, был отвергнут именно из-за опасения подмены, показывает, насколько сильно в некоторых сообществах укоренена неготовность принимать новые инструменты в традиционных сферах.

Возможно, это не технический вопрос, но он связан с тем, как новые технологии взаимодействуют с устоявшимися авторитетами. Думаю, для кого-то это наблюдение может быть полезным.

Комментарий администратора удаленной им темы.
Комментарий администратора удаленной им темы.
Sign up to leave a comment.

Articles