Pull to refresh

Comments 24

В задачах на инсайт нет особого мыслительного процесса. В них есть привлечение информации из других источников. Никакой мистики.

Да вполне конкретных — модели мира. Быстро проходим по причинам и следствиям логически и всё, вот вам результат, который мы помним либо сейчас вывели. Мозг постоянно этим балуется просто в данном случае (инсайта) для осознанной деятельности понадобилось.

P.s. В меру моего понимания ;)

Мистики нет, но и полного понимания механизмов пока тоже нет - обзор.

Когда я отправляю на ревью что навайбкодил (редко, но бывает) у меня эффект китайской комнаты: я не понимаю что там, а ревьювер понимает и даже обычно доволен

Бггг

Лучше так не делать: когда сломается будешь волосы рвать на всех местах

Не знаю интересно ли кому-то моё мнение, но нынешние LLM чисто архитектурно не подходят для мышления, как процесса. Циклами активации ещё ладно (запрос -> ответ -> всё заново), но постоянным вычислением — однозначно и очевидно нет. Это банальное ограничение организованной работы с матрицами, ведь нам нужны все/большинство для вычисления. И тут вопрос живое оно или не живое (разумное или нет) вторичен, хотя ответ на него также подобен — зависит от того, попадает ли такая архитектура под ваше определение. Если вам достаточно внешне осмысленного ответа, то да. Если вам нужен процесс мышления, то нет, но это уже пытаются решить через циклы, скрытые контексты и прочие пути. Если вам нужна непрерывность мышления, то не ждите такого от LLM, вероятно, или, хотя бы, в ближайшее время. Можно попытаться намутить со взятием весов предыдущего вычисления в следующем, но... Вычислительные ресурсы не бесконечные. А если же вам нужно переживание (не путать с ощущением, всякими «квалиа» и эмоциями), то аналогично, но уже более однозначно — нет и никогда не будет, ибо у LLM другая архитектура и она не под это заточена (все мы помним, что она нужна для предсказания следующего токена ;). Остальное же является делом обучения в рамках архитектуры, а иначе говоря — реализации. Если чего-то не так, значит либо вы чего-то не так сделали, либо, в крайнем случае, упёрлись в границу архитектуры. Вопросы? :)

Chain of Thought у LLM, это как раз непрерывное мышление, о котором вы говорите. Модель "думает" вслух, как бы сама себе генерирует промпт, и уже дальше размышляет, включив предыдущие мысли в контекст.

Они НЕ понимают смысл того что выдают, а от этого надо смотреть и на все остальное.

Дайте определение, что значит "понимать смысл".

Понимать смысл - значит осознавать суть, содержание и назначение воспроизводимой информации, осознавать и использовать причинно-следственные связи для её формирования.

Еще больше вопросов появилось, например, что такое "осознавать".
Хорошо, определение не нужно, лучше подскажите, как это можно проверить, каким тестом.

Забалтывание. Смотри толковый словарь русского языка.

Словарь это слова, я спрашиваю, как проверить.

Добро, на словах ставим тчк. Проверить алгоритм формирования LLM-моделью выходного контента можно только через log-журнал внутренней трассировки его выполнения для заданного на входе запроса (промта).

То есть как начинается анализ текста запроса, как формируется план его обработки и пошаговый цикл формирования выходной информации. Чем оперирует LLM-модель? Извлекает ли смысл из текста, то есть какие понятия (объекты материального мира) в нем присутствуют, по их связям и отношениям в базе знаний строит логические заключения и по ним формирует выходной контент. Если ДА, то это интеллект. Если идёт просто механическая обработка текста как данных, поиск (подбор) в базе подходящего ответа или по обученному "за этим должно следовать это", то это настроенный автомат формирования ответа.

О, это интересная тема. Внутри LLM оперирует своим внутренним представлением, совершенно непонятным нам. Логировать обработку можем, но это мало что дает, там лишь матрицы чисел.
Попытки расшифровать (интерпретировать) этот внутренний язык непрерывно ведутся. Вот староватая статья, объясняющая подробно, вот новость посвежее. Думаю, на сегодняшний день исследователи еще дальше продвинулись. Есть все основания считать, что внутри модели формируются и понятия, и связи с отношениями.
По моей оценке, понимание сейчас на уровне исследований мозга человека, где ученые находят нейрон, который активируется, если человеку показать арбуз. Так и в LLM можно найти "нейрон" (токен), который активен, если модель думает про арбуз. Но весь процесс мышления это не объясняет.
И это точно не поиск по базе, потому что модели уже отвечают на вопросы, которых точно не было в обучающей выборке, и для правильного ответа нужно применять логику.

Короче, нужна внутренняя трассировка обработки конкретного запроса, а потом и поговорим.Лучше такого, ответ на который (как вы говорите) нет в базе.

нужна внутренняя трассировка обработки конкретного запроса

Но для человека её тоже нет. А то что называется "размышления", так это и LLM генерирует.

Как это нет ? То есть вы не понимаете как сами строите свои рассуждения, даёте обьяснения и делаете выводы ? Вот это интересная новость !

А LLM, правильно говорите, генерирует свои "размышления", только НЕ так, как это делает человек.

Так как не сойдёмся, то на этом можно поставить в нашей дискуссии точку.

По 1-ой ссылке - "Результаты Anthropic и Google подчёркивают прогресс в понимании работы ИИ, но также напоминают о сложности прямых аналогий с человеческим мышлением. В то время как Claude демонстрирует элементы планирования и абстрактных концептов, её «рассуждения» остаются продуктом многослойных математических операций, а НЕ сознательного анализа. Эти работы открывают путь к более прозрачным и контролируемым системам, но также ставят новые вопросы о природе «интеллекта» в машинном обучении".

Поэтому пока корректнее оперировать терминами "человеческий интеллект" и "машинный интеллект" и не пытаться их обобщать.

Опять невнятный конструкт "сознательный анализ". Что это такое? Как его пощупать, измерить? Как вообще проверить, что он есть? Это эксклюзивное свойство мясного разума? Мне нужны доказательства. Так-то деятельность нейронов тоже описывается многослойными математическими операциями. Не вижу разницы.

К слову, оно лишь формально непрерывное (фактически, швы заметны ;), но я и не говорил о чём-то особом — просто указал, что LLM под другое заточена архитектурно и, в любом случае, это вам самим определять, как к ней относится.

Фундаментальный вопрос: понимают ли модели LLM смысл того, что сами выдают ? Ответ - нет. Соответственно очевиден и ответ на другой вопрос: могут ли они вести осмысленные понятийные и логические рассуждения. А от этого уже потом рассматривать и все остальное.

Вопрос не правильный. Правильный вопрос: какая нам разница, понимают модели LLM смысл того, что сами выдают, или нет?

Большая. Если не понимают, то нет и интеллекта, а только настроенный на предсказания автомат. Гадалок тоже многие любят слушать.

 Если не понимают, то нет и интеллекта, а только настроенный на предсказания автомат.

А разница-то какая? В любом случае он работает и им можно пользоваться.

Sign up to leave a comment.

Articles