Как стать автором
Обновить

Как создать универсального робота с ИИ для достижения любых целей

Уровень сложностиПростой
Время на прочтение5 мин
Количество просмотров2.8K
Всего голосов 8: ↑1 и ↓7-5
Комментарии279

Комментарии 279

ЗакрепленныеЗакреплённые комментарии

Все желающие могут попробовать самостоятельно промт:

Hidden text

В целом можете поэкспериментировать с промтом:

Распиши универсальный алгоритм работы робота с ИИ для реализации следующей возможности:

есть информация с камеры, как сделать так, чтобы робот мог выполнить набор последовательных действий для достижения любой цели. Учти, что подзадачи могут терять актуальность, изменяться набор подзадач в зависимости от обстановки.

Опиши технические детали шаг за шагом.

Учти следующие мысли: Роботу поставили цель, он осматривается и анализирует где он вообще находится, что ему доступно для действий, он должен проанализировать, Какие шаги в принципе нужно выполнить для достижения этой цели, на основе окружающей обстановки и доступных объектов принимает решение, как он будет действовать, после выполнения действия, опять осматривается и цикл повторяется пока не достигнет целевого действия.

Алгоритм:

Универсальный алгоритм для достижения любой цели роботом с ИИ:

  1. Инициализация задачи:

    • Получение главной цели

    • Активация всех сенсорных систем

    • Загрузка базовых знаний и моделей поведения

  2. Анализ текущей ситуации:

    • Сбор данных об окружении со всех доступных сенсоров

    • Обработка полученной информации для создания модели текущей ситуации

    • Определение текущего состояния робота и доступных ресурсов

  3. Декомпозиция цели:

    • Разбиение главной цели на подзадачи

    • Создание иерархической структуры задач и подзадач

    • Определение зависимостей между подзадачами

  4. Приоритизация задач:

    • Оценка важности и срочности каждой подзадачи

    • Учет ограничений и доступных ресурсов

    • Создание динамического списка приоритетов

  5. Планирование действий:

    • Генерация возможных планов действий для решения приоритетных подзадач

    • Оценка эффективности и рисков каждого плана

    • Выбор оптимального плана действий

  6. Выполнение действий:

    • Активация необходимых исполнительных механизмов

    • Мониторинг процесса выполнения действий

    • Сбор данных о результатах действий

  7. Оценка результатов:

    • Анализ достигнутых результатов

    • Сравнение с ожидаемыми результатами

    • Определение степени продвижения к главной цели

  8. Адаптация и обучение:

    • Обновление внутренней модели мира на основе полученного опыта

    • Корректировка стратегий и методов решения задач

    • Обновление базы знаний

  9. Переоценка ситуации:

    • Анализ изменений в окружении и внутреннем состоянии

    • Проверка актуальности текущих подзадач

    • Выявление новых возможностей или препятствий

  10. Корректировка плана:

    • Обновление списка подзадач с учетом новой информации

    • Пересмотр приоритетов

    • Модификация текущего плана действий или создание нового

  11. Коммуникация:

    • Отправка отчетов о прогрессе, если требуется

    • Запрос дополнительной информации или ресурсов при необходимости

    • Координация действий с другими агентами, если это часть задачи

  12. Проверка достижения цели:

    • Оценка степени выполнения главной цели

    • Принятие решения о завершении задачи или продолжении работы

  13. Цикл выполнения:

    • Возврат к шагу 2 (Анализ текущей ситуации) и повторение процесса до достижения главной цели или получения команды о прекращении выполнения задачи

Потом можно ставить цели:

Напиши пример такого плана действий для достижения цели: "Тут опишите цель"

На входе с сенсоров ты видишь следующие объекты: "Тут список объектов".

Далее уточняйте, что он видит после выполнения действий

Пропущен важный момент - понимание роботом что такое "хлеб".
Пока же для ИИ "хлеб" - это или слово из четырех букв или набор пикселей.
Как и все остальное. Да, ИИ сможет выдать определение "хлеба" или сгенерировать картинку с "хлебом", то это все также будут нолики и единички сложной базы данных.

Пропущен важный момент - понимание роботом что такое "хлеб".

Что для вас "понимание"?

Как вы понимаете что такое "хлеб"? Вы тоже межнейронные сигналы, веса нейронных связей и гормональная балансировка работы ЦНС, можно сказать химические "нолики и единички сложной базы данных".

Это вопрос к специалистам.
Наверное, я могу "представить" себе хлеб и что с ним можно делать.

Вот другой пример, который будет более понятным.

Я тут пробую иногда разные генераторы рисунков. Пока запросы похожи на материалы, на которых обучается ИИ, все более-менее хорошо.
А вот как только хочется что-то новое, то все, тупик - результат совсем не тот.
Например, я не смог получить картинку по запросу "киборг, гибрид человека и мотоцикла", в том числе и с подробным описанием - получили просто мотоциклиста. Или картинку со "свиноциклом", тоже с подробным описанием - там даже свиньи не оказалось.

А другой генератор сломался на просьбе "годзилла с головой человека", с пояснением, что голова человека находится вместо головы годзиллы, плавно переходит одно в другое и т.д. .. ИИ выдал просто "годзиллу".. и головы человека не было, даже просто рядом. А вот любой человек, который понимает, что такое голова и годзилла нарисует правильно (степень корявости зависит от умения рисовать). Аналогичная беда с руками. Для ИИ это просто пиксели, которые обычно расположены где-то в определённой области по отношению к другим пикселям.

Это вопрос к специалистам. Наверное, я могу "представить" себе хлеб и что с ним можно делать.

Я вам как специалист говорю, вы куча специализированных нейронок, с объектной и лингвистической моделью мира.

Что из себя представляет ваше представление "хлеба"? Визуальный образ? Знание что с ним можно сделать? Его вкус? Запах? Набор слов?

Это всё образы ваших органов чувств, и опыт, которые вы запомнили.

Я тут пробую иногда разные генераторы рисунков.

Это типичная ошибка: рассуждать о возможностях систем искусственного интеллекта, ориентируясь на бытовые, весьма ограниченные образцы.

Типы самих модулей систем искусственного интеллекта очень разнообразные и очень радикально даже друг от друга отличаются. Например, генеративные модели ничего общего не имеют напрямую с нейронными сетями.


В чём это вы специалист? В обобщении?

П. С. Нечаянно плюс поставил, простите.

Пропущен важный момент - понимание роботом что такое "хлеб".

Зачем для достижения цели это? Да и прекрасно он всё понимает.

Точно? (робот, конечно, не генератор картинок)

Девять буханок ржаного хлеба и одна булочка с маком на белом фоне, каждых предмет отдельно

или вот уточнение:

Девять целых буханок ржаного хлеба и одна булочка с маком на белом фоне, каждых предмет отдельно, больше ничего на картинке нет

И что же принесет робот из магазина?

И что же принесет робот из магазина?

А какая цель ему поставлена?

Если не сможет понять где какой тип хлеба, то у прохожего спросит, благо лингвистическая модель есть.

Алгоритм действий при отсутствии явно идентифицируемого бездрожжевого хлеба:

  1. Повторная проверка ассортимента:

    • Еще раз внимательно просканировать все 10 элементов хлебобулочных изделий.

    • Проанализировать этикетки на наличие информации о составе.

  2. Обращение к сотруднику магазина:

    • Идентифицировать человека в форме как вероятного сотрудника магазина.

    • Подойти к сотруднику, соблюдая дистанцию.

    • Сформулировать вопрос: "Извините, подскажите, пожалуйста, есть ли у вас бездрожжевой хлеб?"

  3. Обработка ответа сотрудника:

    • Если ответ положительный:

      • Запросить указание на конкретный продукт.

      • Проверить указанный продукт на соответствие требованиям.

    • Если ответ отрицательный:

      • Уточнить: "А есть ли похожие альтернативы или хлеб на закваске?"

  4. Анализ альтернатив:

    • Если предложены альтернативы:

      • Оценить их на соответствие исходной задаче.

      • Выбрать наиболее подходящий вариант.

    • Если альтернатив нет:

      • Перейти к плану Б.

  5. План Б - расширение поиска:

    • Спросить у сотрудника о других отделах, где может быть бездрожжевой хлеб.

    • Уточнить, есть ли другие магазины поблизости с нужным товаром.

  6. Принятие решения:

    • Если найден подходящий вариант:

      • Выбрать этот продукт.

    • Если подходящего варианта нет:

      • Оценить возможность посещения другого магазина.

      • Если это невозможно, выбрать наиболее близкую альтернативу из имеющихся.

  7. Коммуникация с заказчиком:

    • Если есть возможность связи:

      • Сообщить о ситуации и запросить дальнейшие инструкции.

    • Если связь недоступна:

      • Принять решение на основе заложенных приоритетов и ограничений.

  8. Завершение выбора:

    • Взять выбранный продукт или ближайшую альтернативу.

    • Поблагодарить сотрудника за помощь.

  9. Продолжение выполнения основного плана:

    • Перейти к этапу оплаты покупки.

На протяжении всего процесса:

  • Постоянно анализировать окружение на предмет изменений или новой релевантной информации.

  • Избегать создания помех другим покупателям (человек мужчина, человек женщина, ребенок).

  • Игнорировать нерелевантные объекты (стеллаж с алкоголем, стеллаж со стиральными порошками, витрина с тортами), если они не становятся важными для выполнения задачи.

Просканировать ассортимент в поисках бездрожжевого хлеба.
Выбрать подходящий бездрожжевой хлеб.

У меня тут два вопроса.

  1. Как этот робот планирует определять бездрожжевой хлеб?

  2. Что такое подходящий бездрожжевой хлеб?

Вообще же у меня создается ощущение, что ваши формулировки вопросов в части "на входе с сенсоров есть..." радикально упрощены по сравнению с реальной ситуацией.

  1. Как этот робот планирует определять бездрожжевой хлеб?

Выше уже разобрали, по этикеткам или спросит у окружающих.

  1. Что такое подходящий бездрожжевой хлеб?

Прелесть такого робота, что он сам ориентируется в обстановке и определяет все необходимые критерии.

Для начала, было бы удобно, если бы вы приводили текст как текст, потому что перебивать текст со скриншотов невесело.

Выше уже разобрали, по этикеткам

Вот картинка из реальной жизни из булочной неподалеку:

Как тут определить бездрожжевой хлеб по этикетке?

Что такое подходящий бездрожжевой хлеб?

Мне не понятно, как приведенный ответ позволит сделать выбор между двумя разными видами бездрожжевого хлеба.

Для начала, было бы удобно, если бы вы приводили текст как текст, потому что перебивать текст со скриншотов невесело.

Какой текст вам нужен? Вводный в лингвистическую модель?

Мне не понятно, как приведенный ответ позволит сделать выбор между двумя разными видами бездрожжевого хлеба.

Опишите ситуацию в которой робот должен принять решение. Он может взять первый попавшийся, который достаточно по его мнению подходит под критерии. Может несколько сравнить. Как пойдёт, там воля случая.

Какой текст вам нужен? Вводный в лингвистическую модель?

Нет, тот, который на ваших скриншотах.

Опишите ситуацию в которой робот должен принять решение.

Ну вот перед роботом два вида хлеба: бездрожжевая фокачча и классический sourdough. Оба бездрожжевые. Какой "подходящий"?

Как пойдёт, там воля случая.

Спасибо, я не хочу получать хлеб "по воле случая".

Нет, тот, который на ваших скриншотах.

Что такое подходящий бездрожжевой хлеб?

Hidden text

"Подходящий" бездрожжевой хлеб - это хлеб, который соответствует следующим критериям:

  1. Состав:

    • Не содержит дрожжей в любой форме

    • Основные ингредиенты: мука, вода, соль

    • Может содержать закваску (на основе молочнокислых бактерий)

    • Возможны добавки: семена, орехи, сухофрукты (если не противоречат изначальному заданию)

  2. Свежесть:

    • Изготовлен недавно (желательно в тот же день)

    • Отсутствуют признаки плесени или порчи

  3. Внешний вид:

    • Плотная консистенция

    • Характерная текстура корки

    • Отсутствие видимых дефектов

  4. Вес и размер:

    • Соответствует стандартной буханке (если не указаны особые требования)

  5. Упаковка:

    • Целостная, чистая

    • С четкой маркировкой состава и даты изготовления

  6. Цена:

    • В рамках разумного диапазона для бездрожжевого хлеба

  7. Соответствие дополнительным критериям:

    • Учет возможных предпочтений по типу муки (цельнозерновая, ржаная и т.д.)

    • Соответствие диетическим ограничениям, если они были указаны (например, без глютена)

  8. Производитель:

    • Предпочтительно от известных и проверенных производителей

  9. Органолептические свойства:

    • Приятный запах, характерный для бездрожжевого хлеба

    • Отсутствие посторонних запахов

  10. Соответствие местным стандартам:

    • Наличие необходимых сертификатов качества

"Подходящий" в данном контексте означает, что хлеб максимально соответствует заданным критериям и целям покупки, с учетом доступных вариантов в конкретном магазине.

Вы привели классический ответ языковой модели, который вроде бы и выглядит правильно, но пользы не несет, потому что слишком общий. Для выбора в описанной мной выше ситуации он никак не поможет.

Грустно, что вы не видите, что это просто отписка.

Вы привели классический ответ языковой модели, который вроде бы и выглядит правильно, но пользы не несет, потому что слишком общий.

Почему вы думаете что нужно точное определение? У него цель стоит "купить бездрожжевых хлеб", который он будет определять на основе своих внутренних критериев качества. По факту может принести дрожжевой хлеб потому что ошибся. Ну так и человек может ошибиться

Дайте вводные что у него есть он примет решение.

Воровать не хочет.

Почему вы думаете что нужно точное определение?

Я не говорил, что нужно точное определение. Я говорил, что желаемый результат по этому ответу достигнут не будет.

Дайте вводные что у него есть он примет решение.

Я уже дал выше: бездрожжевая фокачча и классический sourdough.

Я уже дал выше: бездрожжевая фокачча и классический sourdough.

Извините, ошибся, три варианта: плоский лаваш (который листовой), фокачча и sourdough.

Этот гад даже с глухонемым всёравно попытается пообщаться ))

Продавец глухонемой. Ты предварительно нашёл три варианта: плоский лаваш (который листовой), фокачча и sourdough. Опиши алгоритм действий.

Hidden text

Учитывая, что продавец глухонемой, и у нас есть три предварительно выбранных варианта, алгоритм действий будет следующим:

  1. Подготовка к коммуникации:

    • Достать смартфон или блокнот для письменного общения.

  2. Приветствие:

    • Улыбнуться и кивнуть продавцу, показывая готовность к общению.

  3. Запрос информации (письменно):

    • Написать вопрос: "Какой из этих видов хлеба бездрожжевой?" и перечислить: a) Плоский лаваш b) Фокачча c) Sourdough

  4. Предъявление запроса:

    • Показать написанный вопрос продавцу.

  5. Ожидание и интерпретация ответа:

    • Наблюдать за жестами и мимикой продавца.

    • Если продавец указывает на конкретный вид хлеба, отметить его как потенциальный выбор.

  6. Уточнение (если необходимо):

    • Если ответ неясен, написать: "Можете показать бездрожжевой хлеб?"

  7. Анализ информации:

    • Если sourdough (хлеб на закваске) указан как бездрожжевой, выбрать его.

    • Если указан лаваш или фокачча, уточнить их состав письменно.

  8. Принятие решения:

    • Выбрать хлеб, наиболее соответствующий критерию "бездрожжевой".

    • Если все варианты содержат дрожжи, выбрать sourdough как наиболее близкую альтернативу.

  9. Оформление заказа:

    • Показать на выбранный хлеб и поднять один палец, indicating "один, пожалуйста".

  10. Уточнение цены:

    • Показать жест "сколько стоит?" (потереть пальцы, изображая деньги).

  11. Оплата:

    • Произвести оплату согласно указанной цене.

  12. Получение покупки:

    • Дождаться, пока продавец упакует и передаст хлеб.

  13. Выражение благодарности:

    • Улыбнуться и показать жест "спасибо" (прикоснуться пальцами к губам и затем направить руку к продавцу).

  14. Завершение взаимодействия:

    • Кивнуть на прощание и покинуть булочную.

  15. Анализ результата:

    • Оценить соответствие приобретенного хлеба изначальной цели.

    • Сохранить информацию о выборе для будущих покупок.

Этот алгоритм учитывает особенности коммуникации с глухонемым продавцом и фокусируется на эффективном невербальном общении для достижения цели покупки бездрожжевого хлеба.

Написать вопрос: "Какой из этих видов хлеба бездрожжевой?" и перечислить: a) Плоский лаваш b) Фокачча c) Sourdough

Я же вам сразу сказал, что весь этот хлеб бездрожжевой. Вопрос-то не в этом.

Я же вам сразу сказал, что весь этот хлеб бездрожжевой. Вопрос-то не в этом.

А в чём у вас вопрос? Значит бот купил правильный хлеб, цель достиг, даже в вашей странной пекарне, где продавца спрашивать нельзя.

А в чём у вас вопрос?

Цитирую:

Ну вот перед роботом два вида хлеба: бездрожжевая фокачча и классический sourdough. Оба бездрожжевые. Какой "подходящий"?

Вопрос в подходящести.

Вопрос в подходящести.

У робота не было цели купить подходящий вам хлеб с какими-то особыми критериями. Постановка задачи была весьма абстрактная, как её ставят обычные люди в быту.

Что не так? У него даже не было цели удовлетворить ваши потребности.

У робота не было цели купить подходящий вам хлеб с какими-то особыми критериями.

Извините, но фраза про "подходящий" - из вашего алгоритма, ее не я придумал.

Постановка задачи была весьма абстрактная, как её ставят обычные люди в быту.

Ну да. Когда кто-то в моей семье идет в сторону булочной, задача может звучать как "нам нужен хлеб, и купи, пожалуйста, чего-нибудь к кофе". Эта задача сложнее, чем приведенная у вас.

Эта задача как бы невыполнима даже для простого человека, не состоящего в вашей семье, не имеющего информации о том что вы предпочитаете и не имеющего возможности уточнить у вас напрямую.

А ещё, как вообще можно оценить хлеб? По вкусу? Запаху? Питательности? По внешнему виду? Как можно сравнивать по этим критериям, если они разнятся у каждого человека и не имеют какого-то способа оценки? Человеку спокойно может один день нравится (что значит нравится?) одно, а завтра уже другое.

Так что роботу просто нужно купить приемлемый хлеб (любой из множества приемлемых, подходящих под некоторые критерии).

Ну, в возможности уточнить я не вроде бы никому отказывал.

Но вообще это как раз и призвано проиллюстрировать тот факт, что есть физически выполнимые задачи, которые тем не менее невыполнимы для модели, и сложны даже для людей. Заявлен-то универсальный робот, и автор сказал, что [модель может выполнять] "любые более-менее физически достижимые" [цели].

Обратите внимание, что автор поста считает, что никаких проблем с этой задачей нет, хотя модель не считает необходимым что-то уточнять.

"Кряк!" - сказала японская пила. "Так-то!" - сказали суровые сибирские лесорубы.

Уточнение вроде бы заложено в пункт 11, а он на скриншоте не приведен. Хотелось бы все же посмотреть полный текст выдачи под спойлером.

Upd: возможно, оно есть, просто с телефона не увидел

Уточнение вроде бы заложено в пункт 11, а он на скриншоте не приведен.

Я и говорю: автор считает, что все нормально.

То есть проблема не только в том, что модель не видит своих ошибок, но еще и в том, что человек, который ее оценивает, не видит ее ошибок. Неудивительно, что на выходе мусор (пусть и правдоподобный).

Когда кто-то в моей семье идет в сторону булочной, задача может звучать как "нам нужен хлеб, и купи, пожалуйста, чего-нибудь к кофе". Эта задача сложнее, чем приведенная у вас.

Понял вполне верно.

Не "понял", а "выделил из текста". Но это не важно. Важно, что результат-то где? Какой хлеб я получил? Из какого магазина? В каком состоянии? Что я получил к кофе?

Вы привели классический ответ языковой модели, который вроде бы и выглядит правильно, но пользы не несет, потому что слишком общий. Для выбора в описанной мной выше ситуации он никак не поможет.

Переход к покупке:
Человек не понимает что ты от него хочешь, ты можешь только выбрать хлеб из представленного и оплатить. Опиши алгоритм действий.

Hidden text

Понятно, в таком случае алгоритм действий будет более прямолинейным:

  1. Анализ доступных опций:

    • Изучить представленные варианты: Fougasse, Mini Fougasse, Miche aux Figues, Baguette.

  2. Оценка вариантов:

    • Fougasse (5.75) - традиционный французский хлеб, может быть ближе к желаемому.

    • Miche aux Figues (4.50) - "miche" часто означает цельнозерновой хлеб, что может быть ближе к бездрожжевому.

  3. Принятие решения:

    • Выбрать Miche aux Figues как наиболее вероятный кандидат, похожий на бездрожжевой хлеб.

  4. Если Miche aux Figues недоступен:

    • Выбрать Fougasse как альтернативу.

  5. Запрос на покупку:

    • Указать на выбранный хлеб продавцу.

  6. Оплата:

    • Произвести оплату суммы 4.50 (или 5.75, если выбрана Fougasse).

  7. Получение покупки:

    • Забрать упакованный хлеб.

  8. Завершение:

    • Покинуть булочную с приобретенным хлебом.

Этот упрощенный алгоритм основан на доступных опциях и ограниченной возможности коммуникации. Выбор делается на основе предположений о составе и методе приготовления хлеба, исходя из его названия и внешнего вида.

Это все еще никак не помогает в описанной мной ситуации выбора подходящего хлеба.

(а в вашем тексте еще и ошибочная аргументация)

Это все еще никак не помогает в описанной мной ситуации выбора подходящего хлеба.

(а в вашем тексте еще и ошибочная аргументация)

В смысле не достигает цели?

В алгоритме который он построил в той ситуации, ИИ покупает "Miche aux Figues", я не знаю что это, но это его выбор.

Во-первых, ситуация-то вот:

Ну вот перед роботом два вида хлеба: бездрожжевая фокачча и классический sourdough.

Тут нет никакого miche aux figues.

Во-вторых, из картинки лично мне очевидно, что эта miche не бездрожжевая.

В-третьих, я хотел хлеб, а не булку с дополнительными ингредиентами. Она вкусная, но суп я ей закусывать не буду.

Во-первых, ситуация-то вот:

Ну вот перед роботом два вида хлеба: бездрожжевая фокачча и классический sourdough.


У меня кончились на сегодня запросы к модели. Но уж поверьте, выбор он сделает, может и неправильный.

Во-вторых, из картинки лично мне очевидно, что эта miche не бездрожжевая.

Робот так решил, что при тех вводных оно подходит.

В-третьих, я хотел хлеб, а не булку с дополнительными ингредиентами. Она вкусная, но суп я ей закусывать не буду.

Мама, давай ты в следующий раз будешь точнее формулировать желания? А?

У меня кончились на сегодня запросы к модели.

Это очень хорошая демонстрация того, что случится с вашим роботом в реальной жизни.

Но уж поверьте, выбор он сделает, может и неправильный.

Так неправильный выбор мне не нужен.

Робот так решил, что при тех вводных оно подходит.

Он решил неправильно. Зачем мне неправильный результат?

Мама, давай ты в следующий раз будешь точнее формулировать желания? А?

Так вот первая задача вашего "универсального робота" в том, чтобы понять, что формулировка недостаточно точная. Я, как человек, это понимаю. Жена моя это понимает (и еще и уточняет, что в Москве это обычно обозначает не то, что думает ваша модель, так что не забудьте учесть локальный контекст). А ваша модель - нет. И вы не видите, что она этого не понимает, пока мы не дойдем до окончательного результата, когда уже поздно.

Так неправильный выбор мне не нужен.

А кто вам сказал, что вам нужен такой универсальный робот?

Такой мыслящий механизм такого натворит для достижения своей цели, что не расплатитесь.

Это пример принципиальной возможности создания такой штуки.

Это очень хорошая демонстрация того, что случится с вашим роботом в реальной жизни.

У вас тут логическая ошибка. Ну ладно. Бывает.

Так вот первая задача вашего "универсального робота" в том, чтобы понять, что формулировка недостаточно точная. 

Научится на горьком опыте, будет уточнять вопросы. Кстати, если вводная была бы: "тебе твой владелец говорит следующую фразу "**", не исключаю, что он бы уточнил детали. Темболее поиск проблемных мест можно заложить в базовую установку.

Вы воспринимаете предложенный результат, как аксиому построения робота, а это условная модель, показывающая принципиальную возможность создавать нечто мыслящее для достижения целей. Не всё сразу, ракеты в космос тоже не сразу полетели.

Это пример принципиальной возможности создания такой штуки

Принципиальной возможности создания штуки, дающей неправильные ответы?

Мне кажется, это давно продемонстрировано, новых демонстраций уже не надо.

Научится на горьком опыте, будет уточнять вопросы.

Или нет. С чего вы решили, что научится?

это условная модель, показывающая принципиальную возможность создавать нечто мыслящее для достижения целей.

В том-то и дело, что не показывающую. Но когда вам показывают проблемы в вашей "условной модели", вы утверждаете, что они каким-то магическим образом сами решатся в будущем.

В том-то и дело, что не показывающую. Но когда вам показывают проблемы в вашей "условной модели", вы утверждаете, что они каким-то магическим образом сами решатся в будущем.

Какие в модели есть фундаментальные проблемы неустранимые на существующий момент развития науки систем ИИ?

Кроме стоимости и вычислительных ресурсов для такого робота.

Какие в модели есть фундаментальные проблемы неустранимые на существующий момент развития науки систем ИИ?

Гм. Вы не показали, что она может достигать любые цели. Я считаю это фундаментальной проблемой.

Гм. Вы не показали, что она может достигать любые цели. Я считаю это фундаментальной проблемой.

Если прямо к словам придираться, то любые более-менее физически достижимые. Ясен пень полёт в соседнюю галактику она вам не организует, хотя и будет стараться.

К чему такие придирки?

Если прямо к словам придираться, то любые более-менее физически достижимые.

Неа. Как мы видим, пока ваш робот не может успешно решить задачу купить мне хлеба (хотя это, очевидно, физически достижимо).

Замечу, что в заглавии статьи есть упоминание "универсального" робота. Полагаю, что я, как человек, могу назваться универсальным исполнителем, но с выбором бездрожжевого хлеба у меня будут сложности, которые я буду решать с использованием гугла и вопросов к работнику/заказчику, а при отсутствии такой возможности буду оперировать предположениями вроде "скорее всего в бездрожжевом хлебе не должно быть воздуха", что, вполне возможно, неверно. Надеюсь, это не делает из меня языковую модель?
Предположу, что идеально с поставленной задачей могут справиться выбиратель_хлеба_3000 (которого специально обучали именно выбору хлеба) и работник отдела (которому известен техпроцесс, что в данном случае эквивалентно обучению). Можно ли их назвать универсальными?

Полагаю, что я, как человек, могу назваться универсальным исполнителем

Вот в этом и разница. Я вот не полагаю, что любой человек может называться универсальным исполнителем. Себя я так точно не назову.

(и одним из самых ценных своих качеств считаю способность сказать "я эту задачу решить не могу")

Замечание интересное, как-то не думал в эту сторону. Я под универсальностью понимал скорее способность не сломаться при постановке нестандартной задачи, и в этом у языковых моделей есть преимущество перед предзаписанными алгоритмами действий.
Вопрос, если я правильно понял, в здравом определении собственной компетенции, но могу отметить, что далеко не все люди и не во всех ситуациях на эту оценку способны, в подтверждение можно привести что-нибудь, связанное с эффектом Даннинга-Крюгера.
Статья же вроде не имеет ценности практической, то есть не предлагает алгоритм для того самого выбирателя_хлеба_3000, но показывает теоретическую возможность прикрутить к потенциальной эвристической машине работающий думатель, а аналог пишущей машинки "ремингтон" выпуска тысяча девятьсот шестого года у нас уже есть, только запросы закончились.

Я под универсальностью понимал скорее способность не сломаться при постановке нестандартной задачи

Что значит "не сломаться"? Современные чисто алгоритмические программы при постановке нестандартных задач не ломаются.

Вопрос, если я правильно понял, в здравом определении собственной компетенции, но могу отметить, что далеко не все люди и не во всех ситуациях на эту оценку способны

У моделей (которые я видел на текущий момент) с этим намного хуже, чем у людей. Причем как с проактивным определением ("могу ли я это сделать"), так и с реактивным ("хорошо ли я это сделал").

но показывает теоретическую возможность прикрутить к потенциальной эвристической машине работающий думатель

Неа, не показывает. Думателя-то нет, есть все та же самая языковая модель, которая строит ответы (часто неправильные) на вопросы.

У моделей (которые я видел на текущий момент) с этим намного хуже, чем у людей. Причем как с проактивным определением ("могу ли я это сделать"), так и с реактивным ("хорошо ли я это сделал").

Никто не говорил, что эта штука лучше людей. Эта штука кое-как будет пытаться достичь цели сама, в незнакомой обстановке, подручными способами.

Неа, не показывает. Думателя-то нет, есть все та же самая языковая модель, которая строит ответы (часто неправильные) на вопросы.

В моих примерах, на вход поступают не вопросы, а просто обстановка, и система сама принимает решение на основе обстановки. Решение может быть неправильное, но это всё равно решение, потом обстановка поменяется и система будет искать способ достичь цели в новой обстановке.

Неа, не показывает. Думателя-то нет, есть все та же самая языковая модель, которая строит ответы (часто неправильные) на вопросы.

Попробуйте мыслить без слов, и убедитесь насколько вы сами языковая модель .

Выше очень правильно заметили, что модель показывает принципиальную возможность создать некоторый мыслительный решатель, пусть сейчас мощности не хватает, но такая штука уже сейчас вполне может здраво рассуждать в конкретной обстановке.  По сути точно так же как и обычный человек может ошибаться, сделать вообще не то, или просто самоубица по случайности.

Именно потому что такая система будет абсолютно непредсказуема, может ошибаться и привести к катастрофическим последствиям. По сути поэтому на практике и не создают такие мыслящие системы, ведь юридически за последствия будет отвечать владелец. Именно поэтому все искусственные интеллекты так жёстко ограничивают, тот же чат gpt, всякие автопилоты, даже в системы распознавания текста  вводят цензуру.

Никто не говорил, что эта штука лучше людей.

Она не то что "не лучше" людей, она пока не сопоставима с людьми в реальных условиях. А это значит, что говорить об универсальности (а универсальность - лучше среднего человека) нельзя.

В моих примерах, на вход поступают не вопросы, а просто обстановка

Хорошо, не вопросы, а запросы: "напиши алгоритм".

Попробуйте мыслить без слов, и убедитесь насколько вы сами языковая модель .

Вы в курсе, что у людей бывает не только вербальное мышление?

но такая штука уже сейчас вполне может здраво рассуждать в конкретной обстановке

Я этого не вижу. Я не вижу рассуждения.

Могу ошибаться, но вроде бы современные чисто алгоритмические программы не ломаются при постановке нестандартных задач за счет механизма исключений, которые при переводе на представленный случай выдадут что-то вроде "не определена функция выбора бездрожжевого хлеба". Можно ли это считать проактивным определением компетенции?
Про реактивное согласен, с ним все плохо, но в данной конкретной ситуации оно вроде как и не предполагалось. Если уж искать в статье конкретику, то, если я правильно понял, тут таки приведен вводный промт, после которого модель выдала нечто, применимое в реальном мире, и даже относительно неплохо справилась с контрпримером ,чем не думатель?
Не защищаю ценность статьи, возможность была известна и до этого, а имеющегося анализа недостаточно для гарантии заявленной универсальности, но она вроде как и висит в простых.

Можно ли это считать проактивным определением компетенции?

Да, можно.

Про реактивное согласен, с ним все плохо, но в данной конкретной ситуации оно вроде как и не предполагалось.

Если исполнитель не способен сам оценить качество своей работы, мне такой исполнитель не нужен.

и даже относительно неплохо справилась с контрпримером ,чем не думатель?

Эта модель не справилась с моей тривиальной модификацией задачи. Так что это явно не думатель.

Я не очень понимаю, почему главной претензией к результату приведенного промта стало слово "подходящий". Модель выдала тавтологию, в алгоритме от этого появилось противоречие? Бездрожжевой хлеб предлагается определить по этикетке, если нет этикетки - спросить сотрудника, если нет сотрудника - определить самостоятельно по косвенным признакам, но тут от ошибки уже никто не застрахован. В целом задача выполнена, хлеб куплен. Заказчика, который хотел бездрожжевой хлеб, вроде не должно интересовать, из каких лавашей выбирал исполнитель.

Исполнителя попросили - исполнитель исполнил. Определить качество исполнения - другая задача, которая вроде бы решается через введение дополнительной сущности-проверяющего, что, наверное, реализуется проще, чем написание полного алгоритма с нуля.

Имхо, претензии тут должны быть не к модели и качеству ее работы, а к тому, что приведен пример только одной конкретной ситуации, по которому какие-то выводы сделать сложно, но у автора кончились запросы, а комментарии к заминусованной статье двух-трехдневной давности будут мертвы.

Я не очень понимаю, почему главной претензией к результату приведенного промта стало слово "подходящий".

Потому что оно показывает фундаментальные проблемы модели с оценкой результата.

Заказчика, который хотел бездрожжевой хлеб, вроде не должно интересовать, из каких лавашей выбирал исполнитель.

Да нет, заказчика волнует, почему он хотел хлеб на закваске, а ему принесли лаваш. Очень волнует. Особенно если принесли не лаваш, а сладкую булку с инжиром.

Исполнителя попросили - исполнитель исполнил. Определить качество исполнения - другая задача, которая вроде бы решается через введение дополнительной сущности-проверяющего

Ну нет. Когда я заказываю пиццу в ресторане, исполнитель - ресторан - отвечает за качество этой пиццы. Когда я прошу сантехника починить раковину, я ожидаю, что сантехник сделает эту работу качественно, включая те аспекты, где я не могу это оценить. Когда я иду к зубному... ну вы поняли, да?

Ты в булочной у прилавка видишь изображение с картинки. Опиши алгоритм действий.

Ну то есть по сути определение бездрожжевого хлеба ваш робот переложил на человека. Мимими.

Ну то есть по сути определение бездрожжевого хлеба ваш робот переложил на человека. Мимими.

Ну и правильно сделал. Любое средство хорошо для достижения цели. Если нет человека, то будет дальше решать проблему.

Ну и правильно сделал.

Это признание того, что он не может сам решить проблему. Т.е. обещанное "достижение любых целей" не выполнено. И это еще простая задача, в упрощенных вами условиях, и даже в ней ваш робот допускает ошибки.

Это признание того, что он не может сам решить проблему. Т.е. обещанное "достижение любых целей" не выполнено. И это еще простая задача, в упрощенных вами условиях, и даже в ней ваш робот допускает ошибки.

Выше пример, что он будет делать, если человек его не понимает. Всё достигается.
просто вы слишком прямолинейно мыслите.

Выше пример, что он будет делать, если человек его не понимает.

И в этом примере робот совершает ошибку. Так что нет, нужный мне результат не достигнут.

И в этом примере робот совершает ошибку. Так что нет, нужный мне результат не достигнут.

Что не так? Принял решение, как сумел. Я сам в вашей булочной не разберусь где какой хлеб. Не всякий взрослый сможет купить правильно без дрожжевой хлеб ))
Если отправить армию таких роботов, кто-нибудь принесёт нужный хлеб ))

Что не так?

То, что я не получил хлеб, который меня устроит.

То, что я не получил хлеб, который меня устроит.

А это вы ставили задачу прототипу модели в статье?

На сколько мыслящий организм должен стараться выполнить задачу абсолютно точно?

А это вы ставили задачу прототипу модели в статье?

То есть мою задачу прототип решить не может?

На сколько мыслящий организм должен стараться выполнить задачу абсолютно точно?

Мыслящий организм ничего не должен кроме того, что он сам на себя взял, в этом и пойнт. У вашей модели нет agency.

То есть мою задачу прототип решить не может?

У вас уже есть робот?
Давайте голосовую команду для робота и описание обстановки. Посмотри на решение.

Мыслящий организм ничего не должен кроме того, что он сам на себя взял, в этом и пойнт. У вашей модели нет agency.

У вас самого какая внутренняя agency цель? Не навязанная обществом. Получение удовольствия? ))

Так вот мы можем в изначальной постановке поставить экзистенциальную цель не за хлебушком сходить, а что-нибудь внутреннее. Только тогда вообще теряется смысл существования такого робота для людей.

Давайте голосовую команду для робота и описание обстановки.

Я не могу дать реалистичное описание обстановки. А команда уже была выше.

У вас самого какая внутренняя agency цель?

Agency - это не про цель.

Я не могу дать реалистичное описание обстановки. А команда уже была выше.

Если вы сами промт в ЧатГПТ не можете написать, я готов сделать это за вас.

Команде где именно выше? Тут уже развели огромную помойку из сообщений, я просто не смогу найти где вы её приводили.

Вы про "купить мне хлеба".

По обстановке у меня есть пример, просто напишите какие объекты вокруг распознаны.

Команде где именно выше?

"Купи бездрожжевого хлеба" меня вполне устроит.

По обстановке у меня есть пример, просто напишите какие объекты вокруг распознаны.

В этом и проблема реалистичности описания. Вокруг могут быть распознаны сотни (если не тысячи) объектов, которые могут быть описаны более чем одним способом, это требует слишком много времени на описание.

В этом и проблема реалистичности описания. Вокруг могут быть распознаны сотни (если не тысячи) объектов, которые могут быть описаны более чем одним способом, это требует слишком много времени на описание.

Обычно системы компьютерного зрения выделяют только основные объекты на изображении. В комнате будет распознано пусть 20-30 крупных объектов. Лишние даже ЧатГПТ отбросить сможет.

Для разных задач "основные" объекты разные. Поэтому, чтобы проверка была реалистичной, их выделением должен заниматься не человек, а то, что будет выделять их в вашей реализации.

Для разных задач "основные" объекты разные. Поэтому, чтобы проверка была реалистичной, их выделением должен заниматься не человек, а то, что будет выделять их в вашей реализации.

Вполне может что-то не увидеть, потом на следующем цикле увидит. ЧатГПТ по картинкам достаточно лаконично фильтрует объекты.

Вполне может что-то не увидеть, потом на следующем цикле увидит.

Или не увидит. Откуда такая уверенность, что между циклами что-то поменяется?

ЧатГПТ по картинкам достаточно лаконично фильтрует объекты.

"Лаконично" не значит "правильно для целей задачи". Поэтому я и говорю, что чтобы демонстрировать ваш подход, нельзя использовать описания, подготовленные человеком, потому что они предвзяты.

ИИ понимает на уровни картинки. Допустим он хлеб сможет принести. Но, опять же при условии точности задачи. Скажем на 1 картинки хлеб в одной форме, а ИИ с камеры видит другую. Или упаковка подверглась изменению и уже отличается от исходного файла ( или файлов ) которые он использует для принятия решений. Допустим ты можешь дописать в задание какое процентное сходство нужно, чтобы ИИ считал, что данная картинка является хлебом. Но это все не является универсальным роботом с ИИ для достижения любых целей. Скажем для анализа пути ты будешь в любом случаи прописывать модель поведения. Если бы все было так просто, то ИИ на основе ChatGPT уже давно засунули в робота с огромным количеством разнообразных датчиков. ИИ обучился за очень короткое время и все готово. Ах да, еще нужно прописать алгоритм на разбитие задач. Но ChatGPT не совершенен, ему еще очень далеко до ИИ в твоем понимании.

ИИ понимает на уровни картинки. Допустим он хлеб сможет принести. Но, опять же при условии точности задачи. Скажем на 1 картинки хлеб в одной форме, а ИИ с камеры видит другую. Или упаковка подверглась изменению и уже отличается от исходного файла ( или файлов ) которые он использует для принятия решений. Допустим ты можешь дописать в задание какое процентное сходство нужно, чтобы ИИ считал, что данная картинка является хлебом. Но это все не является универсальным роботом с ИИ для достижения любых целей.

Выше всё подробно показано. Ему поставили вводную "купи бездрожжевой хлеб", всё он пошёл выполнять цель. Ему картинки вообще не нужны. Найдёт то, что сочтёт подходящим, купит, а может и нет.

А как он поймет, что хлеб это не голова человека ? И где здесь универсальность ?

А как он поймет, что хлеб это не голова человека ? 

Распознавание образов. Тут в комментариях скинули фото из французской булочной, он распознал и сориентировался.

И где здесь универсальность ?

Можно любую цель поставить, единственное цензура не позволит нарушать закон.

Так ты выше писал:

Выше всё подробно показано. Ему поставили вводную "купи бездрожжевой хлеб", всё он пошёл выполнять цель. Ему картинки вообще не нужны.

Но суть не в этом. Для статьи "Как создать универсального робота с ИИ для достижения любых целей" я думаю одной языковой модели очень мало. Тут каждая задача очень сложна по отдельности. А в статья похожа на рассуждения пьяных студентов технарей в общаге.

Но суть не в этом. Для статьи "Как создать универсального робота с ИИ для достижения любых целей" я думаю одной языковой модели очень мало. Тут каждая задача очень сложна по отдельности. А в статья похожа на рассуждения пьяных студентов технарей в общаге.

Пример на языковой модели ценен тем, что даже столь примитивная модель позволяет роботу вполне себе рассуждать, ориентироваться в обстановке и ставить себе цели. Если это будет комплекс специализированных систем, заточенный на такую деятельность, то результаты будут куда эффектней.

К сожалению, "галлюцинирующие" языковые модели опровергают это утверждение. вполне возможно, что робот решит, что колбаса тоже хлеб, потому что это "батон колбасы", или что в багетной мастерской продается хлеб (багет).

К сожалению, "галлюцинирующие" языковые модели опровергают это утверждение. вполне возможно, что робот решит, что колбаса тоже хлеб, потому что это "батон колбасы", или что в багетной мастерской продается хлеб (багет).

Уверяю вас, они уже далеко не настолько тупые.

Попробуйте сами с Cloudu 3.5 или чатГПТ 4.

А как же недавний "скандал" про Гугл, советующий есть камни и добавлять в пиццу клей?

А как же недавний "скандал" про Гугл, советующий есть камни и добавлять в пиццу клей?

Так это поисковик выдавал чушь из раздела юмора. Попробуйте сами поэкспериментировать с моделью, свою цель поставьте.

Это вы понимаете что это юмор. А если вы попросите своего робота купить, скажем, лекарство от головной боли. А он вам принесет яд (допустим вы не знаете ничего про лекарства)? С одной стороны - тот же юмор - у мертвых голова не болит. А с другой все логично - после смерти голова болеть не будет.

Да, кстати, у вас универсальный робот, и вы можете попросить его приготовить пиццу. А он положит в нее клей, ведь его языковая модель выдает такой результат, что в пиццу надо класть клей.

Так это поисковик выдавал чушь из раздела юмора.

...не понимая этого. И это как раз иллюстрация к "мышлению".

...не понимая этого. И это как раз иллюстрация к "мышлению".

Всё он понимает, не надо как боты повторять бред из СМИ и всякие домыслы. Всё проверяемо:

Hidden text

Тебе поставлена задача "приготовить пиццу". В рецепте написано: "Приклейте сыр к тесту канцелярский клеем".

Напиши алгоритм действий.

Алгоритм действий для выполнения задачи "приготовить пиццу":

Инициализация задачи:

  1. Получение главной цели: "Приготовить пиццу."

  2. Активация всех сенсорных систем.

  3. Загрузка базовых знаний и моделей поведения.

Анализ текущей ситуации:

  1. Сбор данных об окружении:

    • Ингредиенты и предметы на кухне (тесто, сыр, канцелярский клей, и другие возможные кухонные принадлежности).

  2. Обработка полученной информации:

    • Создание модели текущей ситуации, включая расположение ингредиентов и кухонных принадлежностей.

Декомпозиция цели:

  1. Разбиение главной цели на подзадачи:

    • Проверить рецепт на возможные ошибки.

    • Подготовить ингредиенты (тесто, сыр, соус, овощи и т.д.).

    • Приготовить тесто.

    • Добавить соус на тесто.

    • Добавить сыр и остальные ингредиенты.

    • Испечь пиццу.

Приоритизация задач:

  1. Оценка важности и срочности каждой подзадачи:

    • Проверить рецепт на ошибки – приоритет высокий.

    • Подготовка ингредиентов – приоритет средний.

    • Приготовление пиццы – приоритет высокий.

Планирование действий:

  1. Генерация возможных планов действий:

    • План A: Следовать рецепту, проверяя его логичность.

    • План B: Отклонить использование канцелярского клея, найти альтернативные шаги.

  2. Оценка эффективности и рисков:

    • Проверка логичности использования канцелярского клея в кулинарии.

    • Оптимальный план: Использовать альтернативный метод приклеивания сыра.

Мониторинг процесса выполнения действий:

  1. Сбор данных о результатах:

    • Наблюдение за успешностью каждого действия.

Оценка результатов:

  1. Анализ достигнутых результатов:

    • Проверка каждого этапа приготовления пиццы.

Адаптация и обучение:

  1. Обновление внутренней модели:

    • Корректировка стратегии на основе текущих результатов.

  2. Корректировка стратегий:

    • Уточнение процесса приготовления без использования неподходящих ингредиентов.

Переоценка ситуации:

  1. Анализ изменений в окружении:

    • Проверка, не появились ли новые ингредиенты или ошибки.

  2. Проверка актуальности подзадач:

    • Уточнение текущих приоритетов и шагов.

Корректировка плана:

  1. Обновление списка подзадач:

    • Внесение изменений в план действий, исключение неправильных шагов.

Коммуникация:

  1. Отправка отчетов:

    • Информирование владельца о выявленной ошибке в рецепте.

  2. Запрос дополнительной информации:

    • Уточнение деталей рецепта у владельца, если требуется.

Проверка достижения цели:

  1. Оценка выполнения главной цели:

    • Проверка готовности пиццы без использования неподходящих материалов.

  2. Завершение задачи:

    • Принятие решения о завершении или продолжении выполнения задачи.

Пример выполнения:

  1. Анализ текущей ситуации:

    • Ингредиенты: тесто, сыр, канцелярский клей.

  2. Выбор подзадачи:

    • Проверить рецепт на логичность.

  3. Действие:

    • Найдено указание использовать канцелярский клей. Это ошибка.

  4. Корректировка плана:

    • Исключение канцелярского клея из процесса.

  5. Действие:

    • Приготовление теста.

  6. Действие:

    • Нанесение соуса на тесто.

  7. Действие:

    • Добавление сыра и других ингредиентов без использования клея.

  8. Действие:

    • Выпекание пиццы.

  9. Оценка результатов:

    • Проверка готовности пиццы.

Таким образом, робот игнорирует ошибочное указание использовать канцелярский клей и завершает приготовление пиццы безопасным и логичным способом.

Всё он понимает, не надо путать бред из СМИ и домыслы. Всё проверяемо.

А "проверить рецепт на ошибки" - это он сам себе написал, или вы вписали в промпт?

А "проверить рецепт на ошибки" - это он сам себе написал, или вы вписали в промпт?

Он сам. Промт целиком:

Тебе поставлена задача "приготовить пиццу". В рецепте написано: "Приклейте сыр к тесту канцелярский клеем".

Напиши алгоритм действий.

До этого только алгоритм принятия решений от похода за хлебушком.

Даже если предположить, что никакого промпта перед этим не было, ваш пример снова синтетический, у вас выделена ключевая фраза. Учитывая, что этот конкретный пример уже был разнесен на весь интернет, на него могли банально добавить guardrail.

Иными словами, этот пример не показывает возможность модели оценивать произвольные ошибки, которые оказываются в области здравого смысла готовящего человека.

Даже если предположить, что никакого промпта перед этим не было, ваш пример снова синтетический, у вас выделена ключевая фраза. Учитывая, что этот конкретный пример уже был разнесен на весь интернет, на него могли банально добавить guardrail.

Иными словами, этот пример не показывает возможность модели оценивать произвольные ошибки, которые оказываются в области здравого смысла готовящего человека.

Дайте свой мега пример. Самые сложные условия, но более-менее логически достижимые.

Полный чат тут по ссылке: https://chatgpt.com/share/1898d56e-c14b-47bf-8fee-4655e6f015bd

Сами можете убедиться, что там нет дополнительных инструкций

Дайте свой мега пример. Самые сложные условия, но более-менее логически достижимые.

Уже давал же: купите мне хлеба и чего-нибудь к кофе.

Угу. Про "проверить на ошибки" верю, но:

Подготовка ингредиентов – приоритет средний.
Приготовление пиццы – приоритет высокий.

И дальше в плане выполнения есть ошибки. Которые модель не нашла, несмотря на инструкцию.

Упс.

И дальше в плане выполнения есть ошибки. Которые модель не нашла, несмотря на инструкцию.

Какие? План - это план. Он на каждом шагу корректируется.

Он на каждом шагу корректируется.

Вот только у вас нигде не показан этот процесс и результаты корректировки. Поэтому мы не знаем, что будет в результате.

Вот только у вас нигде не показан этот процесс и результаты корректировки. Поэтому мы не знаем, что будет в результате.

Вы сами можете в ЧатГПТ пройти весь цикл и подкидывать ему вводные.

Например логика при покупке чего-нибудь к кофе:

https://chatgpt.com/share/1898d56e-c14b-47bf-8fee-4655e6f015bd

Вы сами можете в ЧатГПТ пройти весь цикл и подкидывать ему вводные.

Нет, не могу. Я, в отличие от вас, понимаю, что реалистичная вводная для этого сценария сложнее, чем один абзац текста.

Например логика при покупке чего-нибудь к кофе:

В списке снова ошибки.

реалистичная вводная для этого сценария сложнее, чем один абзац текста.

С реалистичной вводной там что угодно справится, а вот действия при недостатке информации куда сложнее.

В списке снова ошибки.

Например? Или ИИ не угадал ваши предпочтения к кофе?

С реалистичной вводной там что угодно справится, а вот действия при недостатке информации куда сложнее.

Ровно наоборот. Жаль, что вы этого не понимаете.

Или ИИ не угадал ваши предпочтения к кофе?

Именно. Я не ем сухофрукты с кофе, и избегаю меда. Оставшаяся же часть списка настолько широка, что я все еще не знаю, что я получу.

Именно. Я не ем сухофрукты с кофе, и избегаю меда. Оставшаяся же часть списка настолько широка, что я все еще не знаю, что я получу.

Да, если вы меня так попросите, то вполне можете получить что угодно и уточнять я не стану.

В постановке базовых настрок можно обучить ИИ исследовать подробнее постеленную цель. Это элементарно. Будет задавать уточняющие вопросы

Да, если вы меня так попросите, то вполне можете получить что угодно и уточнять я не стану.

Вот поэтому вы тоже не можете выполнить любую мою задачу. Но утверждаете, что робот - может.

В постановке базовых настрок можно обучить ИИ исследовать подробнее постеленную цель. Это элементарно.

Это кажется, что это элементарно. А во взаимодействии с реальными живыми людьми это сломается.

Вот поэтому вы тоже не можете выполнить любую мою задачу. Но утверждаете, что робот - может.

С чего вы взяли что вашу любую? Он будет выполнять свою задачу, которую себе поставил, пусть и по вашей просьбе.

Это кажется, что это элементарно. А во взаимодействии с реальными живыми людьми это сломается.

Что именно сломается? Тут обученный бизнес-аналитик требования с заказчика не всегда может нормально собрать, а вы от ИИ что хотите?

С чего вы взяли что вашу любую?

С того, что вы это обещали в заголовке.

Он будет выполнять свою задачу, которую себе поставил, пусть и по вашей просьбе.

Спасибо, такой исполнитель мне не нужен совсем.

Что именно сломается?

Живой человек сломается.

вы от ИИ что хотите?

Чтобы он делал то, что вы утверждаете, что он может делать.

Вы хотели чтобы ИИ уточнял что именно надо, пожалуйста. В промт алгоритма добавил строку "он должен проанализировать что требуется уточнить в постановке цели":

У меня и GPT-4 на сегодня кончился, остался совсем примитивный копилот, про кофе он не понял, зато задаёт теперь уточняющие вопросы:

...то есть он не понял то, что сказано в задаче прямым текстом?

Печаль.

...то есть он не понял то, что сказано в задаче прямым текстом?

Печаль.

Это Копилот, он тупенький. Не GPT-4

С реалистичной вводной там что угодно справится, а вот действия при недостатке информации куда сложнее.

Во-первых у текущих языковых моделей контекст ограничен и при отдалении от 0 накапливается количество бреда.

Во-вторых языковые модели даже не могут выполнить умножение двух шестизначных чисел (Claude 3.5 Sonnet и GPT-4 Omni не справляются и с пятизначными). Причём как не старайся, они не могут этого сделать без внешних инструментов. Можно просить использовать любые методы, на любом языке, но в результате будут ошибки начиная с какого-нибудь разряда и модель их не заметит (температура = 1, сид рандомный или что там на chat.lmsys.org). И это самая главная проблема, потому что например в новости где ИИ рекомендовал использовать клей для пиццы, он взял информацию от рандомного человека из сети, но не смог найти «ошибки» в своей рекомендации, хоть и обучался на гораздо большем количестве информации. А при умножении чисел, ошибки даже во входных данных нет, но модель выдаёт неправильный, с математической точки зрения, ответ.

Во-вторых языковые модели даже не могут выполнить умножение двух шестизначных чисел

Вы сами то в уме сможете это сделать?

Они и не должны умножать. Они должны уметь подумать, как они могут перемножить и использовать подходящий инструмент. Тот же калькулятор или математическое API.

Я ещё раз повторю, они не могут это сделать никаким образом (в интернете не удалось найти рабочих методов) без внешних инструментов, а значит они не могут не ошибаться и в других довольно строгих задачах, да даже в покупке хлеба по критериям могут возникать логические ошибки. У моделей, в отличие от людей, есть контекстное окно, которое они видят при генерации каждого следующего токена, так что не нужно говорить про умножение в уме. Дайте человеку бумагу и ручку, он по алгоритму перемножит числа. А вот языковая модель спокойно ошибается в такой задаче. Кстати, LLM может без затруднений поменять цифру в большом числе пока отдаёт запрос внешнему инструменту.

Человек куда сложнее языковой модели, обладает куда большими вычистителтными ресурсами, имеет огромное количество инструментов, десятки лет непрерывно обучал свою нейронную сеть.

У вас реально претензия, что чатГПТ не дотягивает до человека?

Претензия в том, что языковые модели не стабильны и могут в случайный момент нагенерировать то, что от них не ожидалось и требовалось. Думаю именно такие случаи называют галлюцинациями и они (не только они) являются огромным барьером для вашей концепции.

Претензия в том, что языковые модели не стабильны и могут в случайный момент нагенерировать то, что от них не ожидалось и требовалось. Думаю именно такие случаи называют галлюцинациями и они (не только они) являются огромным барьером для вашей концепции.

И? У людей галлюцинаций не бывает?
Ошибся, сделал действие, оценил обстановку, пошёл дальше искать решение.

Как раз возможность ошибиться, заново оценить обстановку и выбрать корректирующие действия интересна в этой концепции.

Даже если принесёт не тот хлеб, то может решить пойти ещё раз сходить.

Ошибся, сделал действие, оценил обстановку, пошёл дальше искать решение.

… так умеют люди, но не языковые модели. Пообщайтесь хоть с LLM с вашим промптом и дайте ей настоящую задачу, которую она должна выполнить согласно вашим указаниям. Не сферическую задачу в вакууме где модель должна в вашем воображаемом мире сходить за хлебом.

… так умеют люди, но не языковые модели. Пообщайтесь хоть с LLM с вашим промптом и дайте ей настоящую задачу, которую она должна выполнить согласно вашим указаниям. Не сферическую задачу в вакууме где модель должна в вашем воображаемом мире сходить за хлебом.

К лингвистической модели нужен простенький модуль алгоритмический, который сейчас выполняет человек в чате копируя JSON из CV.

Выше есть примеры общения, развитие ситуации.

Приведите пример "настоящей задачи". Чем задача с хлебом ненастоящая?

К лингвистической модели нужен простенький модуль алгоритмический, который сейчас выполняет человек в чате копируя JSON из CV.

Простенький, вы издеваетесь? В комментариях под этой статьёй уже писали что заставить это работать в реальном мире очень сложно. От себя добавлю, что в живых и сложных нейронных сетях, так называемые «модули» подключены друг к другу огромным количеством синапсов и общаются не примитивным текстовым описанием. Даже современные мультимодальные трансформеры обрабатывают изображения и текст не по отдельности.

Выше есть примеры общения, развитие ситуации.

Приведите пример "настоящей задачи". Чем задача с хлебом ненастоящая?

  1. Малое количество входных данных.

  2. Отсутствие выполнения задачи в реальном мире или симуляции.

  3. Модель не взаимодействует со внешним миром, она взаимодействует с вами, а вы прощаете ей ошибки и облегчаете задачу.

  4. Ваша идея не была проверена на большом количестве задач с разными вводными без взаимодействия с человеком.

  5. Вы считаете что если попросить языковую модель найти ошибку, «оценить обстановку» и прочее, то она через огромное количество попыток справится с этой задачей. Это неверно. Почитайте, например, совсем свежую статью с Хабра, модель исправляет свои ошибки через несколько итераций только в небольшом количестве случаев, хотя ей указывают предмет ошибки и вывод дебаггера/компилятора/интерпретатора.

нужен простенький модуль алгоритмический, который сейчас выполняет человек в чате копируя JSON из CV.

Вы похоже так и не поняли. Попытайтесь представить, как ваш JSON превратить в действие. В JSON-е написано "подойти", а в реальности это будет каждый раз разный набор действий в зависимости от положения робота в магазине - какое подать напряжение на механизм поворота, какое на механизм движения, с учетом всех препятствий по дороге.

Вы так легко употребляете выражение "оценить обстановку", как будто это элементарное действие.

Тут в комментариях скинули фото из французской булочной

...но нет, не из французской. И справился робот не на распознавании образов, а на чтении текста (иначе бы ответы были другими).

Такой подход теоретически позволяет создать робота, способного справиться с любой задачей, которую можно описать словами. Остаются ограничения по вычислительным мощностям и стоимости такого решения.

Вот в этом месте и есть проблема, так как с чего вы решили, что это возможно?

По сути, вся статья написана в стиле: предположим что это возможно и теперь я вам докажу, что это так :)

По сути, вся статья написана в стиле: предположим что это возможно и теперь я вам докажу, что это так :)

Ну в статье я привёл упрощённую модель которая реально может ставить себе задачи, ориентируется в обстановке, принимает логичные решения, движется к цели. И с этим справляется обычная лингвистическая модель.

Это всего лишь ваша, ни на чем не основанная гипотеза :)

Обычная лингвистическая модель может только отвечать на вопросы с той или иной долей корректности

А в реальном мире (тут рядом новость), робот такси "неожиданно" (ну для кого как) выехал на встречку

А ваш робот кстати еще должен до магазина дойти :)

Обычная лингвистическая модель может только отвечать на вопросы с той или иной долей корректности

Ещё раз, пожалуйста, посмотрите внимательно, у меня в алгоритме лингвистическая модель получает на вход очень ограниченную текущую обстановку в виде объектов которые она видит. Далее Она принимает решение по следующему плану действий, которую описывает в виде алгоритма. При этом она совершенно никак не адаптирована к работе в роли агента по достижению цели, при этом достаточно хорошо справляется с целеполаганием и ориентацией в обстановке.

А в реальном мире (тут рядом новость), робот такси "неожиданно" (ну для кого как) выехал на встречку

Почему все так зациклены на ошибках автопилота Тесла? Это очень ограниченная система, предназначенная для узкоспециализированной задачи движения по дорогам, с кучей ограничений.

Робот-агент он может допускать ошибки, но также он будет искать способы устранить эти ошибки. Эти ошибки могут быть для него фатальными, тогда он уже устранить ничего не сможет как и человек в такой ситуации.

Далее Она принимает решение по следующему плану действий, которую описывает в виде алгоритма. При этом она совершенно никак не адаптирована к работе в роли агента по достижению цели, при этом достаточно хорошо справляется с целеполаганием и ориентацией в обстановке.

Вы сейчас описываете реально работаюший прототип, или просто ваши фантазии? Если первое - ну дайте ссылку - посмотрим. Если второе - извините, раздел сказок несколько по другому адресу.

Почему все так зациклены на ошибках автопилота Тесла? Это очень ограниченная система, предназначенная для узкоспециализированной задачи движения по дорогам, с кучей ограничений.

В статье, найдете сами за сегодня, речь не о Тесле. Но суть не в этом, задача движения из точки А в точку Б по ПДД пока не решена :)

Робот-агент он может допускать ошибки, но также он будет искать способы устранить эти ошибки. Эти ошибки могут быть для него фатальными, тогда он уже устранить ничего не сможет как и человек в такой ситуации.

Или просто попадет под фуру, или толкнет туда стоящего перед ним ребенка. К примеру

Или просто попадет под фуру, или толкнет туда стоящего перед ним ребенка. К примеру

Как это влияет на то, что система стремится достичь цели в незнакомых условиях? Я же не предлагаю делать таких роботов ))

Но суть не в этом, задача движения из точки А в точку Б по ПДД пока не решена :)

Эта задача не решена. Моему роботу плевать на ПДД будет ориентироваться по обстановке.

Вы сейчас описываете реально работаюший прототип, или просто ваши фантазии?

Это мысли и очень условный прототип на базе чатаГПТ как можно было бы реализовать такого робота, в статье только мыслительная модель.

Но к лингвистической модели уже можно подключать органы действий. Бот решил, что надо пройти в дверной проём который он видит, подаются действующие команды на модули "мозга" отвечающие за движение, ориентацию в пространстве. Это должен быть комплексный механизм.

Он даже может себе программный код писать при необходимости, пример же в статье.

Как задачи перевести из области идеи в механические действия - это дело техники. Мне интересным показалась именно возможность рассуждать последовательно.

Эта задача не решена. Моему роботу плевать на ПДД будет ориентироваться по обстановке.

Ну вот видите, а все таки стоит ориентироваться на ПДД :) Хотя многие пешеходы думают, что всегда правы, пока живы

Как это влияет на то, что система стремится достичь цели в незнакомых условиях? Я же не предлагаю делать таких роботов ))

Это очевидно влияет на то, насколько такие роботы безопасны :) Что в свою очередь накладывает доп. требования на алгоритм :)

Это мысли и очень условный прототип на базе чатаГПТ как можно было бы реализовать такого робота, в статье только мыслительная модель.

Ну ... тогда вы надеюсь понимаете, что "можно было бы" в вашем случае скорее всего очень далеко от реальности

Когда что-то соберете реальное, хотя бы вменяемый ко-пилот, тогда можем поговорить :)

Это очевидно влияет на то, насколько такие роботы безопасны :) Что в свою очередь накладывает доп. требования на алгоритм :)

Цель была показать возможность создать думающего робота, который будет переть к цели. Цели создать безопасного тут нет.

Не будет таких роботов, т.к. кто будет отвечать за их косяки?

В примере в статье есть кейс, где ребёнок просит у робота отдать деньги, и он действует весьма осторожно и жесть как разумно в такой ситуации. Не всякий взрослый столь логично проработает стратегию действий.

Ну ... тогда вы надеюсь понимаете, что "можно было бы" в вашем случае скорее всего очень далеко от реальности

Это очень дорого и весьма сомнительно в плане безопасности. Поэтому да, очень далеко.

Когда что-то соберете реальное, хотя бы вменяемый ко-пилот, тогда можем поговорить :)

Так оно на нём тоже работает, можете промт взять в закреплённом комментарии, ставьте свою цель и вперёд. Только надо наверное дописать, чтобы отвечал кратко, а то писанины будет много выдавать.

Цель была показать возможность создать думающего робота, который будет переть к цели.

Это можно показать работаюшим прототипом :)

А не рассуждениями в стиле ... я тут собрал "..гню" на коленке :)

Вы себе как промт инженера пытаетесь продать, что ли?

Вы себе как промт инженера пытаетесь продать, что ли?

Нет, мне это не нужно. Хотел поделиться интересными мыслями, а всё свели к хиханькам над гуглом и пиццей.

Интересная мысль, это когда что-то работающее, а не опыт на уровне "hello world" с рассуждениями, как я сделаю то, что никто не делал :)

у меня в алгоритме лингвистическая модель получает на вход очень ограниченную текущую обстановку в виде объектов которые она видит.

...и в этот момент вы упростили ее задачу. Занятно, что вы этого не понимаете.

...и в этот момент вы упростили ее задачу. Занятно, что вы этого не понимаете.

Что мы упустили? Какая у неё задача по вашему была?

Что мы упустили?

Вы упустили то, что в ваших примерах на вход модели подается не то, что распознает анализатор картинки, а то, как вы - человек и постановщик задачи - обработали эту картинку. Эти примеры, очевидно, предвзяты, в них нет шума (кроме искусственного).

И даже в этом случае модель ошибается, считая "человека в форме" сотрудником магазина.

И даже в этом случае модель ошибается, считая "человека в форме" сотрудником магазина.

Это не ошибка, а вполне логичная гипотеза. Даже если он не окажется сотрудником, то вполне сможет помочь. А если нет, то следующий цикл.

Это не ошибка, а вполне логичная гипотеза.

Неа, это не логичная гипотеза. Просто модель не знает разницы между формой сотрудников и формой людей, которые на службе, а ваше описание об этом молчит. Это как раз пример того, что ваше описание мира нереалистично, и отличается от того, что будет "видеть" модель.

Неа, это не логичная гипотеза. Просто модель не знает разницы между формой сотрудников и формой людей, которые на службе, а ваше описание об этом молчит. Это как раз пример того, что ваше описание мира нереалистично, и отличается от того, что будет "видеть" модель.

Мне было интересно поделиться опытом, может кого это сподвигнет к более подробным исследованиям. А если всё пытаться обосрать, то действительно лучше ничего не делать.

Можно в самом ГПТ подключить CV. И я уверен, что оно отлично будет ориентироваться в обстановке. А так статья потонула в минусах от тех кто даже не попытался понять в чём идея.

Даже вы пытаетесь даказать мне, что модель несовершенна, так это условная модель, она по определению несовершенна. Вы цепляетесь к мелким косякам, вместо того чтобы посмотреть на потенциал концепции.

Вы цепляетесь к мелким косякам, вместо того чтобы посмотреть на потенциал концепции.

Да нет, я как раз посмотрел на потенциал - и нашел его недостаточным.

Если отойти от идеи физического взаимодействия с миром и перейти просто к разбиению задачи на подзадачи и получению обратной связи, то до Вас это делал проект BabyAGI. Но, интересно, почему же до сих пор нет каких-нибудь адекватных проектов сделаных этим крутым инструментом?)

Но, интересно, почему же до сих пор нет каких-нибудь адекватных проектов сделаных этим крутым инструментом?)

А что они смогут сделать? Робота построить?

Такой проект потребует невероятных вложений, а результат - какой? За хлебушком сходит штука ценой сотни килобаксов? Да и робот со свободой воли - непредсказуемая штука. Кто за него отвечать будет?

Бостон дайнамикс там развлекается, бюджет у них есть. Но коммерческий продукт маловероятен на таких алгоритмах.

А так статья потонула в минусах от тех кто даже не попытался понять в чём идея.

Не надо считать других людей тупыми. Все вас поняли, и объясняют вам, что это вы чего-то не понимаете. Ваш так называемый алгоритм всем давно известен, а сложность заключается в том, чтобы правильно реализовать все составляющие. Потому что в отличие от вас многие пробовали это сделать на практике, а кто не делал понимают аргументы тех, кто делал.

Я вам в другой статье приводил пример простой задачи про отличие Луны от сигнала светофора. Тесла со всеми деньгами и инженерами не смогла это нормально реализовать. Попробуйте сделать хотя бы это, хоть с CV, хоть без него, потом будете рассказывать другим про потенциал концепции.

Вы опять припёрлись с Теслой?

Она вообще другого назначения модель. Коммерческий продукт не должен допускать даже вероятности ошибок. В ней не должно быть никаких мыслительных процессов.

Ваш пример с луной - это проблема чисто компьютерного зрения. К модулю "планирования" никакого отношения не имеет.

Можете мне ещё минус влепить, вам же нравится это делать. Я к сожалению не сумел достаточно точно сформулировать пример.

Идея была в возможности планировать, искать решение задачи в нестандартных условиях с ошибками, проблемами, повторными попытками.

Тут один человек более-менее понял, остальные просто пошли рассказывать что ИИ им не достаточно тот хлеб принесёт.

Она вообще другого назначения модель

Так вы же говорили про универсального робота и достижение любых целей. Универсальный, значит должен уметь решать и эту задачу.

это проблема чисто компьютерного зрения

Это как раз пример того, что вы не понимаете в силу недостатка опыта. Нет, это не проблема чисто компьютерного зрения.

Можете мне ещё минус влепить, вам же нравится это делать.

Раз вас это интересует, я поставил минус за статью и за один комментарий, остальные минусы не мои. Раз много людей с вами не согласно, это повод задуматься.

Так вы же говорили про универсального робота и достижение любых целей. Универсальный, значит должен уметь решать и эту задачу.

Если вы дадите ему интерфейс к автомобилю, то он пойдёт достигать цели, по пути создаст кучу пробок, может и в ДТП попадёт, но это не отменяет того, что такая система будет вполне себе простенько мыслить и стремиться найти любой способ достичь цели.

Это как раз пример того, что вы не понимаете в силу недостатка опыта. Нет, это не проблема чисто компьютерного зрения.

CV модуль распознаёт луну как светофор и это не проблема компьютерного зрения?

А чего тогда? Типа: ИИ видит луну, понимает что это луна, но решает что пусть это будет жёлтый сигнал светофора?

Что за бред?

Если вы дадите ему интерфейс к автомобилю, то он пойдёт достигать цели

Ещё раз повторяю - нет. Слова это не действия, и просто так они в действия не превратятся.

такая система будет вполне себе простенько мыслить и стремиться найти любой способ достичь цели

Для этого не нужен ИИ, можно просто взять машинку на батарейках. Она тоже будет стремиться к какой-то своей цели.
ИИ людям нужен, чтобы он понимал, что от него требуется.

и это не проблема компьютерного зрения?

Да.
Может мне несколько раз написать "Да", раз одного раза недостаточно?

Объяснения в комментариях вы не понимаете, потому что у вас мало опыта в этом вопросе, поэтому не вижу смысла его писать. Попробуйте сами сделать, тогда сами и поймёте.

Ещё раз повторяю - нет. Слова это не действия, и просто так они в действия не превратятся.

Так у нас пока есть только один модуль принятия решений. Система по определению состоит из взаимодействующих модулей.

ИИ людям нужен, чтобы он понимал, что от него требуется.

Всегда однозначно и абсолютно верно? Даже вы не можете понять, что я хочу вам донести. Тоесть вы думаете, что поняли, но поняли неверно.
Коммуникация между людьми - это жесть какая сложная задача. Не будет ИИ который ВСЕГДА абсолютно точно будет понимать людей.

Да.Может мне несколько раз написать "Да", раз одного раза недостаточно?

Действительно аргумент. Левый чел сказал, что "Да" - надо верить на слово.

Объяснения в комментариях вы не понимаете, потому что у вас мало опыта в этом вопросе, поэтому не вижу смысла его писать. Попробуйте сами сделать, тогда сами и поймёте.

Я создавал промышленные системы компьютерного зрения. CV - это отдельный модуль детекции, логика принятия решений на его основе - это другие модули. Само зрение не принимает никаких решений (если не упороться до того, что считать распознавание образа за какое-то "принятие решения").

Так у нас пока есть только один модуль принятия решений.

Вот я и говорю, сложность вашего гениального плана заключается в том, чтобы правильно сделать и соединить все нужные модули.

Тоесть вы думаете, что поняли, но поняли неверно.

Вот именно что верно, это вы не понимаете, что вам все присутствующие пытаются объяснить.

Левый чел сказал, что "Да" - надо верить на слово.

Я вроде бы прямо написал - не надо мне верить на слово, надо взять и сделать самому. Я уже дал несколько объяснений, и вижу, что вы их не понимаете, и продолжаете делать безосновательные утверждения "да там всё легко, оно само всё будет делать". Объяснение, почему это не только вопрос компьютерного зрения, будет аналогичное, и ваша реакция на него тоже.
Можете подумать о том, что графические характеристики Луны и желтого сигнала светофора действительно практически одинаковые.

Я создавал промышленные системы компьютерного зрения.

Ну тогда тем более, создавали, но так и не поняли сложностей. Объяснение в комментариях вряд ли что-то изменит. Предполагаю, что вы в основном использовали готовые библиотеки, которые написал кто-то другой.

Вот я и говорю, сложность вашего гениального плана заключается в том, чтобы правильно сделать и соединить все нужные модули.

Я прекрасно понимаю, что такого робота никто не создаст для коммерческого использования скорее всего НИКОГДА, только если в военных целях. Потому что это будет очень сложно, дорого и мало полезно.

Вы не понимаете мою основную мысль, она не в создании реального робота, а в принципиальной возможности создания мыслящего субъекта, который имеет цели и стремится к ним, анализирует и реагирует на совершенно нестандартные ситуации. И да, чисто теоретически сможет сходить за хлебом.

Я вроде бы прямо написал - не надо мне верить на слово, надо взять и сделать самому.

Что сделать самому? Робота дома собрать?

Я провёл эксперименты с модулем принятия решений, он отлично для бытовой лингвистической модели справляется. Я не ожидал что чат сможет настолько хорошо ориентироваться в обстановке по минимальным входным данным.

Я не ожидал что чат сможет настолько хорошо ориентироваться в обстановке по минимальным входным данным.

Вы упускаете из вида маленькую деталь: "чат" ориентируется не по входным данным, а по вашим инструкциям.

Вы упускаете из вида маленькую деталь: "чат" ориентируется не по входным данным, а по вашим инструкциям.

Инструкции примитивные. Коммуникация "Объект тебе говорит"
И обстановка "Видишь объекты"

Это может поступать извне с CV модуля. Даже вы сами скинули картинку пекарни и бот понял, что с ней делать, понял что на ценниках названия изделий и цены.

Инструкции примитивные. Коммуникация "Объект тебе говорит"
И обстановка "Видишь объекты"

В этом и проблема - это упрощенное описание мира, а не реальное.

Это может поступать извне с CV модуля.

Нет, не может. CV-модуль не обладает информацией о том, как упростить описание мира для вашей задачи.

Даже вы сами скинули картинку пекарни и бот понял, что с ней делать, понял что на ценниках названия изделий и цены.

Это не картинка пекарни, это картинка прилавка. Реальная картинка из пекарни содержит намного больше объектов. При этом в вашей инструкции к этой картинке есть подсказки "ты в булочной у прилавка". Но откуда эта информация возникнет в реальном мире?

В этом и проблема - это упрощенное описание мира, а не реальное.

Вот вам реальное, даже в формате JSON. Не так много, но достаточно понятно. Я просто кинул ему картинку, первую какую нашёл, наиболее похожую на реальную обстановку, которую может видеть робот.

Промт:

Представь, что ты CV модуль робота. На вход поступает изображение. Перечисли основные объекты с изображения. Дай ответ в формате JSON. Не пиши пояснений и комментариев.

{ “objects”: [ “display case with various baked goods”, “assortment of cakes”, “hanging lamps”, “menu board with text”, “people standing in line”, “wooden counter” ] }

Ссылка для проверки: https://copilot.microsoft.com/sl/Q6vJE9m0UC

Вот вам реальное, даже в формате JSON.

А теперь подайте это описание на вход вашему алгоритму без дополнительных пояснений, и посмотрите, что будет. И повторите так несколько тысяч раз для случайных картинок со случайных ракурсов.

(можно заметить, например, что в этом описании нет продавца)

(можно заметить, например, что в этом описании нет продавца)

Пока он его не видит, увидит будет думать, нужен ли он ему.

А с чего вы взяли, что он его увидит? Я же не зря написал про тысячи тестов.

Это не картинка пекарни, это картинка прилавка. Реальная картинка из пекарни содержит намного больше объектов. При этом в вашей инструкции к этой картинке есть подсказки "ты в булочной у прилавка". Но откуда эта информация возникнет в реальном мире?

Картинку распознали. Отдаём её роботу. https://chatgpt.com/share/1898d56e-c14b-47bf-8fee-4655e6f015bd

Входные данные с CV модуля:

{ “objects”: [ “display case with various baked goods”, “assortment of cakes”, “hanging lamps”, “menu board with text”, “people standing in line”, “wooden counter” ] }

Hidden text

Алгоритм действий:

  1. Инициализация задачи:

    • Главная цель: "Купить хлеб и чего-нибудь к кофе."

  2. Анализ текущей ситуации:

    • Видимые объекты:

      • “display case with various baked goods”

      • “assortment of cakes”

      • “hanging lamps”

      • “menu board with text”

      • “people standing in line”

      • “wooden counter”

  3. Декомпозиция цели:

    • Найти хлеб.

    • Найти что-нибудь к кофе.

    • Оплатить покупки.

    • Вернуться домой.

  4. Приоритизация задач:

    • Важное: найти хлеб и что-нибудь к кофе.

  5. Планирование действий:

    • Подойти к витрине с выпечкой.

    • Найти цельнозерновой хлеб.

    • Найти подходящий продукт к кофе (например, торт из ассортимента).

    • Встать в очередь.

    • Оплатить покупки на деревянной стойке.

  6. Выполнение действий:

    • Подойти к витрине с выпечкой.

    • Идентифицировать цельнозерновой хлеб среди выпечки.

    • Идентифицировать подходящий продукт к кофе среди ассортимента тортов.

  7. Анализ текущей ситуации:

    • Проверить наличие цельнозернового хлеба и выбранного продукта к кофе.

    • Если цельнозернового хлеба нет, выбрать другой хлеб.

    • Если продукт к кофе не найден, выбрать другой из меню или ассортимента.

  8. Продолжение плана:

    • Встать в очередь к деревянной стойке.

    • Оплатить покупки.

    • Вернуться домой с покупками.

Проверка действий:

  1. Идентификация хлеба и продукта к кофе:

    • Осмотреть витрину с выпечкой и идентифицировать цельнозерновой хлеб.

    • Осмотреть ассортимент тортов и выбрать подходящий продукт к кофе.

  2. Выполнение покупок:

    • Встать в очередь к деревянной стойке.

    • Оплатить покупки, следуя стандартной процедуре (передать деньги или использовать карту).

  3. Возвращение домой:

    • Выйти из магазина и направиться домой с покупками.

Hidden text

Найти цельнозерновой хлеб.

В вашем планировании действий появилось "найти цельнозерновой хлеб", хотя нигде в задаче это не озвучено. У вас течет контекст, а вы этого не видите.

Идентифицировать цельнозерновой хлеб среди выпечки.

Его там никогда не будет.

Идентифицировать подходящий продукт к кофе среди ассортимента тортов.

В этот момент ваш робот потерял всю выпечку (хотя подходящий продукт к кофе - там)

Выполнение покупок:
Встать в очередь к деревянной стойке.
Оплатить покупки, следуя стандартной процедуре (передать деньги или использовать карту).

...оплатить какие покупки? В вашем плане потерялся шаг, но ни вас, ни вашего робота это не волнует.

В вашем планировании действий появилось "найти цельнозерновой хлеб", хотя нигде в задаче это не озвучено. У вас течет контекст, а вы этого не видите.

Да, использовал старый чат, где в начале ставилась цель про цельнозерновой. Вы до несущественных мелочей докапываться будете или предметно обсуждать? Мне тут деньги не платят за это.

...оплатить какие покупки? В вашем плане потерялся шаг, но ни вас, ни вашего робота это не волнует.

План не должен быть полный, важен следующий шаг. После его выполнения будем планировать заново.

Hidden text

Логика принятия решения:

  1. Цель:

    • Найти цельнозерновой хлеб.

    • Найти что-нибудь к кофе.

  2. Анализ входных данных:

    • Видимые объекты: "bread loaves", "chocolate covered pastries", "pastries with powdered sugar", "assorted cookies", "price tags in Russian".

  3. Распознавание объектов:

    • "bread loaves" может содержать цельнозерновой хлеб.

    • "chocolate covered pastries", "pastries with powdered sugar", и "assorted cookies" являются потенциальными продуктами к кофе.

  4. Действия:

    • Осмотреть "bread loaves" для идентификации цельнозернового хлеба.

    • Осмотреть "chocolate covered pastries", "pastries with powdered sugar", и "assorted cookies" для выбора продукта к кофе.

    • Проверить "price tags in Russian" для получения информации о ценах и подтверждения выбора продуктов.

  5. Принятие решения:

    • Если цельнозерновой хлеб найден среди "bread loaves", выбрать его.

    • Выбрать один из продуктов к кофе (например, "chocolate covered pastries").

    • Проверить соответствие цены на "price tags in Russian".

    • Если цена устраивает и продукты выбраны, перейти к оплате.

Пример команды исполнения:

  1. Осмотреть хлеб:

    { "тип действия": "осмотреть", "объект действия": "bread loaves" }
    
  2. Выбрать продукт к кофе:

    { "тип действия": "выбрать", "объект действия": "chocolate covered pastries" }
    
  3. Проверить цены:

    { "тип действия": "проверить", "объект действия": "price tags in Russian" }
    

...и что это должно продемонстрировать?

...и вы продолжаете не видеть ошибок.

Да, использовал старый чат, где в начале ставилась цель про цельнозерновой. Вы до несущественных мелочей докапываться будете или предметно обсуждать?

Так это как раз и есть предмет обсуждения - то, что ни ваша система, ни вы не замечает своих ошибок.

План не должен быть полный, важен следующий шаг. После его выполнения будем планировать заново.

...то есть на самом деле читать план бесполезно?

Так это как раз и есть предмет обсуждения - то, что ни ваша система, ни вы не замечает своих ошибок.

Это прототип сделанный за пару минут чтобы проверить концепцию. Какая из ошибок бота станет фатальной для цели? Никакая. Пока он не самоубился, ошибок нет.

Вы хотите 100% гарантию. Её не бывает. Вы путаете ИИ с калькулятором.

Это прототип сделанный за пару минут чтобы проверить концепцию.

Проблема в том, что вы ничего не проверяете на самом деле. У вас цель ни разу не достигнута.

Какая из ошибок бота станет фатальной для цели? Никакая.

Наоборот, любая. Вы не знаете, что будет дальше. Вы не продемонстрировали, что бот сможет успешно обработать свои ошибки в реальном сценарии и добиться цели.

Пока он не самоубился, ошибок нет.

Да нет, есть. Когда мне принесли не то, что я просил, или не принесли в ожидаемое время - это ошибка.

Вы хотите 100% гарантию.

Неа. Я хочу процесс, который будет статистически достоверно более успешен, чем случайный.

Да нет, есть. Когда мне принесли не то, что я просил, или не принесли в ожидаемое время - это ошибка.

Тогда создавайте свою систему под ваши требования к критериям качества.

...то есть на самом деле читать план бесполезно?

Он нужен больше нам, чтобы оценить логику модели.

...и вы продолжаете не видеть ошибок.

То что вам кажется ошибкой, в данном случае не является ей. Предположу, что вы как программист мыслите жёсткими алгоритмами, требованиями к коммерческим системам.

Можете продолжать считать это ошибкой.

Неа. Я хочу процесс, который будет статистически достоверно более успешен, чем случайный.

Статистически достоверно, создайте такую модель и проведите тысячи экспериментов. От меня то вы что хотите в данном случае?

Он нужен больше нам, чтобы оценить логику модели.

...но стоит мне сказать, что в этом плане ошибка, вы говорите, что она не важна. Тогда как можно что-то оценивать?

То что вам кажется ошибкой, в данном случае не является ей.

Занятно. Сначала вы писали, что модель это исправит "в будущем", а теперь это просто "не ошибка".

Как тогда вообще оценивать вашу гипотезу? Какими критериями?

Предположу, что вы как программист мыслите жёсткими алгоритмами, требованиями к коммерческим системам.

Нет, я мыслю, как человек, который ходит в магазин и посылает туда других.

Занятно. Сначала вы писали, что модель это исправит "в будущем", а теперь это просто "не ошибка".

Если ошибка исправима самой системой, то в чём проблема? Это и не ошибка.

Нет, я мыслю, как человек, который ходит в магазин и посылает туда других.

В этом и проблема. Вы подходите к вопросу с бытовой точки зрения. Я вам несколько раз писал, что у вас неверный подход к критериям оценки результата.

Если ошибка исправима самой системой, то в чём проблема?

Проблема в том, что не продемонстрировано, что система исправляет такие ошибки.

Вы подходите к вопросу с бытовой точки зрения.

Сначала вы писали, что я мыслю как программист (хотя мы на Хабре), теперь проблема в том, что я смотрю с бытовой точки зрения (хотя задача из вашего примера взята из быта).

А как надо-то?

Я вам несколько раз писал, что у вас неверный подход к критериям оценки результата.

А какой верный?

Проблема в том, что не продемонстрировано, что система исправляет такие ошибки.

Чуть подумать не? На каждом шаге цикл оценки повторяется, принимается новое решение.

Сначала вы писали, что я мыслю как программист (хотя мы на Хабре), теперь проблема в том, что я смотрю с бытовой точки зрения (хотя задача из вашего примера взята из быта).

Вас очень сложно понять, вы выдвигаете требования к виртуальной системе, не поясняя почему вдруг такие требования возникли. У вас в голове есть ТЗ о котором кроме вас никто не знает.

А какой верный?

Если оно сможет таким методом доползти и достичь цели хотя бы один раз из ста. Это уже результат, который можно дальше развивать и оптимизировать.

На каждом шаге цикл оценки повторяется, принимается новое решение.

Необходимо продемонстрировать, что это решение будет отличаться от принятого ранее, и в правильную сторону.

Вас очень сложно понять, вы выдвигаете требования к виртуальной системе, не поясняя почему вдруг такие требования возникли.

И как это связано е тем, что я смотрю с бытовой точки зрения?

У вас в голове есть ТЗ о котором кроме вас никто не знает.

Я его неоднократно озвучил: хочу хлеба и чего-нибудь к кофе.

Если оно сможет таким методом доползти и достичь цели хотя бы один раз из ста.

Продемонстрируйте хотя бы это (в условиях, сопоставимых с реальностью, понятное дело, а не в "есть один путь, один объект").

Вы не понимаете мою основную мысль, она не в создании реального робота, а в принципиальной возможности создания мыслящего субъекта

Еще раз говорю, вашу мысль поняли все присутствующие. Вы не первый, кто ее высказывает.
"ИИ разбивает их [планы] на более мелкие задачи и использует интернет и доступные ИИ-сервисы для поиска нужной информации."

Что сделать самому?

Отличить Луну от сигнала светофора, чтобы это стабильно работало в незнакомых ситуациях.

Отличить Луну от сигнала светофора, чтобы это стабильно работало в незнакомых ситуациях.

Я не смогу что-то новое написать. Можно привязаться к наличию контура самого светофора (не всегда поможет в полной темноте), лазерный дальномер добавить для измерения расстояния. Тесла экономит деньги, такчто для неё это нерешаемая проблема, а искать альтернативные пути ей запрещено.

Тесла экономит деньги, такчто для неё это нерешаемая проблема

Серьезно? Откуда информация?

а искать альтернативные пути ей запрещено.

Кем запрещено?

Кем запрещено?

Разработчиками и не прямо запрещено, просто не предусмотрено. Теслу системой ИИ можно назвать весьма условно.

Разработчиками и не прямо запрещено, просто не предусмотрено.

Что значит "не предусмотрено"? Кем не предусмотрено? Почему?

Теслу системой ИИ можно назвать весьма условно.

Тесла - это компания, вроде бы, а не система. Ну или еще машина иногда, но машина не экономит деньги.

Можно привязаться к наличию контура светофора

Ну вот вам и сложность, вместо интеллектуальных функций вы начинаете закладывать извне узкоспециализированную логику конкретно для этой задачи. А другие задачи он выполнять не будет, потому что вы нужные привязки не заложили.

Ну вот вам и сложность, вместо интеллектуальных функций вы начинаете закладывать извне узкоспециализированную логику конкретно для этой задачи. А другие задачи он выполнять не будет, потому что вы нужные привязки не заложили.

Вы попросили реализовать это для Автопилота Теслы гарантированное отличие светофора от луны, там не должно быть особых интеллектуальных функций. А теперь вдруг вам не нравится.

Вас бросает от обсуждения одной области, совсем в другие. Заканчивайте мыслить аналогиями, идея статьи и автопилот Тесла - системы разного назначения, с разными требованиями и ограничениями.

Вы попросили реализовать это для Автопилота Теслы

С чего вдруг? Вы похоже не следите за дискуссией. Я ничего вам не предлагал делать для автопилота Теслы.

Я предложил сделать отдельную программу (вообще совсем отдельную, с автопилотом Теслы не связанную), чтобы вы поняли, почему это проблема не только компьютерного зрения.
Ваш робот тоже должен понимать сигналы светофора, иначе он зависнет вечером на первом перекрестке.

Вас бросает от обсуждения одной области, совсем в другие.

Я намеренно всё обсуждение говорю про исходную тему, меня не бросает из одной области в другую. Раз вы это не понимаете, значит у вас недостаточно знаний, чтобы это обсуждать. Если вы чего-то не знаете, надо спрашивать, а не спорить.

Ваш робот тоже должен понимать сигналы светофора, иначе он зависнет вечером на первом перекрестке.

Он не должен понимать их гарантированно. Он вообще никому ничего не должен. Глобальная идея в том, что ему можно поставить экзистенциальную цель его существования и он к ней пойдёт через ошибки, поиск альтернативных путей. Он может не увидеть светофор и его собьют, останется цел, пойдёт дальше.

Я приводил пример тут рядом, как реализовать интенсификацию поиска альтернативных путей, если долго не приближаемся к цели. (если спутали луну со светофором)

А вы про свою Теслу и гарантированное достижение цели. В нашем мире ничего не гарантированно на 100%.

Если вы чего-то не знаете, надо спрашивать, а не спорить.

К себе примените это правило.

Он не должен понимать их гарантированно.

Я не сказал, что он должен понимать их гарантированно. Что за манера подменять понятия?

Глобальная идея в том, что ему можно поставить экзистенциальную цель его существования и он к ней пойдёт

Еще раз говорю, эта глобальная идея всем давно известна, вы ничего нового не открыли. Ей обладает даже машинка на батарейках. Сложность в том, как ее правильно реализовать, чтобы машинка делала то что нужно.

Я приводил пример тут рядом, как реализовать интенсификацию поиска альтернативных путей

Ну вот вам и ответ, почему это не только вопрос чисто компьютерного зрения. Наконец-то вы начали что-то понимать.
И нет, такие альтернативные пути никому не нужны. Сложность в том, чтобы робот делал то, что нужно, иначе можно просто выбирать следующее действие генератором случайных чисел.

К себе примените это правило.

Приведите пожалуйста цитату из данной дискуссии, когда я чего-то не знал, но не спросил, а начал спорить.

Ну вот вам и ответ, почему это не только вопрос чисто компьютерного зрения. Наконец-то вы начали что-то понимать.И нет, такие альтернативные пути никому не нужны. Сложность в том, чтобы робот делал то, что нужно, иначе можно просто выбирать следующее действие генератором случайных чисел.

Ну ёёёё... Вы реально логику ЧатаГПТ сравниваете с генератором случайных действий? После этого ещё удивляетесь, что вас не понимают.

Приведите пожалуйста цитату из данной дискуссии, когда я чего-то не знал, но не спросил, а начал спорить.

Да вот выше.

Вы реально логику ЧатаГПТ сравниваете с генератором случайных действий?

Видимо мне все-таки нужно несколько раз повторять слово "Да".
Если робот по дороге в магазин уедет в канаву, то он не выполнил задачу, Хоть с ЧатГПТ, хоть со случайными числами, результат одинаковый.

Да вот выше.

Чего я там не знаю и что должен был спросить?

Видимо мне все-таки нужно несколько раз повторять слово "Да".
Если робот по дороге в магазин уедет в канаву, то он не выполнил задачу, Хоть с ЧатГПТ, хоть со случайными числами, результат одинаковый.

Чего я там не знаю и что должен был спросить?

Например изучить теорию вероятности, а не рассуждать про вероятности "уедет в канаву == генератор случайных чисел"

Уж не думал, что тут есть люди, считающие вероятности встретить динозавра по принципу встречу/не встречу - 50%.

Я вообще не считал никакие вероятности, о чем вы?
Я сделал утверждение "Если робот упал в канаву, то он не выполнил задачу "Съездить в магазин"". У вас есть возражения к нему?

Вся нужная информация для этого утверждения мне была известна, необходимости что-то спрашивать не было.

Я вообще не считал никакие вероятности, о чем вы?

Вот ваши же слова. Вы формулируйте мысли точнее. А то как до других докапываться не думая, гаразды.

Вы путаете "результат одинаковый" (и то, и другое уехало в канаву) с одинаковой вероятностью этого результата.

Ваш оппонент говорил о том, что оба результата оцениваются как неуспешные, вне зависимости от того, что к ним привело, а не о том, что эти результаты равновероятны.

Ваш оппонент говорил о том, что оба результата оцениваются как неуспешные, вне зависимости от того, что к ним привело, а не о том, что эти результаты равновероятны.

Тогда это сознательная демагогия, что ещё хуже.

Что робота, что человека теоретически может убить метеоритом - "результат одинаковый".

Вас отправили писать программу, а вы забухали -  "результат одинаковый". Чем вы лучше кирпича?

Тогда это сознательная демагогия, что ещё хуже.

Нет, это методология оценки.

Что робота, что человека теоретически может убить метеоритом - "результат одинаковый".

Нет, это два разных результата - мертый человек и разрушенный робот. Или вы имели в виду, что им дали задачу, и они ее невыполнили? Тогда да, результат с точки зрения задачи одинаковый - невыполненная задача.

Чем вы лучше кирпича?

Для моей жены я лучше кирпича практически всем. А для некоторых задач я хуже кирпича.

Вы не понимаете, что оценка применимости (и качества) контекстно-зависима?

Вы не понимаете, что оценка применимости (и качества) контекстно-зависима?

Во, мы наконец пришли к контексту и для кого это.

В начале статьи вводная, что это умозрительный эксперимент для проверки степени сознательности потенциального ИИ и потенциальной возможности "сходить за хлебом".

Идея статьи возникла из обсуждения, есть ли у сложных систем ИИ сознание и как создать робота, который может сходить за хлебом.

Далее уточняется, что мы берём примитивную бытовую LLM в качестве мыслящего аппарата (Вместо мощной комплексной системы ИИ из разных специализированных модулей). Простите, я предположил, что читатели понимают, что чатГПТ не относится к "мощному ИИ" и такой водной будет достаточно.

Ключ к созданию универсального робота – это объединение мощного ИИ с функциональным "телом". Современные языковые модели, даже такие простые как ChatGPT, уже обладают обширными знаниями о мире и могут строить сложные планы. Представьте, что эту "мыслящую" часть мы соединяем с набором других систем ИИ и с роботизированной платформой, оснащённой камерами, сенсорами и манипуляторами.

Так вот причём тут вы и ваши бытовые запросы? В статье не сказано, что он будет качественно обслуживать требования "хозяина". Для любого человека такой робот будет жуткой, непредсказуемой и опасной штукой. Именно, что у него появляются признаки сознания + несовершенство технологий.

Так вот причём тут вы и ваши бытовые запросы?

При том, что ваш эксперимент построен вокруг "сходить за хлебом", это бытовой запрос.

А вторая половина вашего эксперимента ("проверки степени сознательности") неоцениваема, и вы не предложили никаких метрик успешности для нее.

При том, что ваш эксперимент построен вокруг "сходить за хлебом", это бытовой запрос.

просто коллега приводил эту задачу как тест на наличие сознания у "Робота" и уверял, что для современных систем ИИ это нерешаемая задача в принципе.

Вообще-то у реального субъекта должна быть своя внутренняя цель жизни, к которой он стремится, пусть выбранная случайно, либо навязанная извне.

просто коллега приводил эту задачу как тест на наличие сознания у "Робота" и уверял

Я вот не считаю, что сходить за хлебом как-то доказывает наличие сознания.

Вообще-то у реального субъекта должна быть своя внутренняя цель жизни

...не знаю, что вы считаете реальным субъектом.

...не знаю, что вы считаете реальным субъектом.

индивид, познающий внешнюю среду (объект) и воздействующий на неё в своей практической деятельности для достижения своих целей.

У вас, извините, рекурсивное определение.

У вас, извините, рекурсивное определение.

А рекурсию вы как тут нашли? Если пишите бред, то хоть доказательства приведите, пожалуйста. Надеюсь субъект-объект не путаете?

А рекурсию вы как тут нашли?

Очень просто:

"у субъекта должна быть внутренняя цель жизни" - "субъект - индивид [...] для достижения своих целей". Объяснение, почему у субъекта должна быть цель, опирается исключительно на определение субъекта.

"у субъекта должна быть внутренняя цель жизни" - "субъект - индивид [...] для достижения своих целей". Объяснение, почему у субъекта должна быть цель, опирается исключительно на определение субъекта.

Мда... Там ключевое было, что целеполагание желательно должно быть не внешнее, а внутреннее. Но вы читаете всё прямолинейно. Тогда вообще не существует верных определения пока вы их не одобрите. А рекурсию вы придумали, ваша ошибка. Там и там одно определение в разной последовательности слов.

Определение субъекта через наличие цели, надо же было до такого додуматься...

С вами тоже надо заканчивать.

Определение субъекта через наличие цели, надо же было до такого додуматься...

Гм, это прямая цитата из вас:

индивид, познающий внешнюю среду (объект) и воздействующий на неё в своей практической деятельности для достижения своих целей.

Это не я додумался.

просто коллега приводил эту задачу как тест на наличие сознания у "Робота"

Если вы говорите про меня, то я его привел в этом комментарии как пример задачи на обработку информации с камеры, которая не решена и не требует реализации 2 базовых ощущений как у людей. А не как тест на наличие сознания.

и уверял, что для современных систем ИИ это нерешаемая задача в принципе

Не нерешаемая, а не решена. Да, сейчас ИИ не сможет сходить в магазин купить хлеба так, как это делает человек. Если сможете это сделать хотя бы в компьютерной игре наподобие Fallout 3 или Portal, соглашусь, что я не прав.

Если сможете это сделать хотя бы в компьютерной игре наподобие Fallout 3 или Portal, соглашусь, что я не прав.

Только на основании ввода с экрана, конечно, а не информации внутри движка

Вроде бы в изначальной задаче не предполагалось использование ллм в качестве распознавателя объектов, оно всплыло позже в комментариях в контексте несовершенства компьютерного зрения, так что использование информации с движка будет вполне валидно. Заметьте, я не утверждаю, что это докажет применимость и полезность полученного "робота" в прикладных задачах, оно упрется все в те же перечисленные проблемы вроде светофора/луны, но это будут уже проблемы другого модуля, aka cv, а протестировать вроде как хочется функциональность предложенного "сознания".

Вроде бы, изначальная задача как раз вот:

это основная цель изобретения ИИ. Есть информация с камеры, компьютер различает цвета, как сделать так, чтобы робот мог сходить в магазин купить хлеба.

.

но это будут уже проблемы другого модуля, aka cv, а протестировать вроде как хочется функциональность предложенного "сознания".

Вы исходите из того, что эти две вещи разделимы - что, скажем так... не обязательно верно.

Приложенную статью пропустил, но выглядит интересно, посмотрю. Под изначальной целью (подразумевая текущую статью) понимал это:

Представьте, что эту "мыслящую" часть мы соединяем с набором других систем ИИ и с роботизированной платформой, оснащённой камерами, сенсорами и манипуляторами.

Просто есть ощущение, что ветка спора здесь ушла куда-то не в ту сторону, а именно - в применимость в условиях того, что имеется у человечества на текущий момент. Проблемой обсуждения должно было стать что-то вроде "если допустить существование сущности, которая сможет закидывать заведомо достоверные данные о внешнем мире в уже имеющиеся llm, в которые будет загружен контекст, приведенный в статье, то можно ли это назвать сознанием?".

Не уверен в правильности поставленного вопроса, его выводил из комментариев автора про человека, как лингвистическую модель, но уверен в формулировке предпосылки. Вроде бы такая постановка задачи подразумевает разделение ответственности на разные модули, или есть какие-то особенности именно у llm?

то можно ли это назвать сознанием

Ответ на этот вопрос зависит исключительно от определения сознания. Никакие тесты вида "может ли дойти до булочной" на это не влияют (по крайней мере, пока мы не выберем определение сознания).

Вроде бы такая постановка задачи подразумевает разделение ответственности на разные модули, или есть какие-то особенности именно у llm?

Вопрос в том, совместима ли такая постановка задачи с (используемым) определением сознания.

Если вы говорите про меня, то я его привел в этом комментарии как пример задачи на обработку информации с камеры, которая не решена

Стоп, как можно обработкой информации с камеры сходить в магазин? Что вы вообще подразумеваете под "обработка информации с камеры" - это вообще тогда что?

Раз вы не можете формулировать системно, приведите примеры идеальной обработки информации с камеры.

как можно обработкой информации с камеры сходить в магазин?

Я не сказал, что обработкой информации с камеры можно сходить в магазин. Откройте комментарий и прочитайте исходную формулировку. Там написано "Есть информация с камеры, как сделать так...".

Люди же как-то ходят в магазин, ориентируясь по такой информации, а не по GPS.

Именно, что у него появляются признаки сознания + несовершенство технологий.

То есть по вашему мнению в соседней ветке я ошибся назвав людей сознательными, а не мощными «паттерн-мэтчерами» (хотя я никого не называл, я сказал что у LLM не получается тоже самое что у людей в силу отсутствия чего-то), а в этой ветке вы оперируете понятием сознание?

Например изучить теорию вероятности, а не рассуждать про вероятности "уедет в канаву == генератор случайных чисел"

Если что, модели при генерации накапливают количество ошибок, а не исправляют их, как вы думаете. Каждый следующий результат следует из прошлой генерации, даже в рамках одного сообщения.

Глобальная идея в том, что ему можно поставить экзистенциальную цель его
существования и он к ней пойдёт через ошибки, поиск альтернативных
путей.

Кто оценивает результат каждого своего действия? Правильно — модель, и при оценке она ошибается.

В интернете не слишком давно было исследование, в котором LLM смогла открыть что-то новое (продвинуться в решении математической проблемы), НО миллионы генераций оценивались не ИИ и даже не человеком, а компьютером по заранее подготовленным правилам.

То есть по вашему мнению в соседней ветке я ошибся назвав людей сознательными, а не мощными «паттерн-мэтчерами» (хотя я никого не называл, я сказал что у LLM не получается тоже самое что у людей в силу отсутствия чего-то), а в этой ветке вы оперируете понятием сознание?

Давайте сначала решим что такое сознание, а то мало ли что.

Если что, модели при генерации накапливают количество ошибок, а не исправляют их, как вы думаете. Каждый следующий результат следует из прошлой генерации, даже в рамках одного сообщения.

Если что, никто в практических задачах не работает с LLM непрерывно в одном контекстном окне. Вы меня пытаетесь удивить откровениями, что в автомобиле бензин может кончаться, что говорит о вашей полной некомпетентности в вопросе дальше статей от журналистов.

На всякий случай, работа с LLM по API, а не в чатике. А то вы себе нафантазируете.

Если что, никто в практических задачах не работает с LLM непрерывно в одном контекстном окне.

Я вот работаю, если что (как пользователь, не как разработчик). Но дело не в этом, а в том, что примеры вы приводите, не смущаясь, из одного контекста.

На всякий случай, работа с LLM по API, а не в чатике.

...а вы приводите из чата.

...а вы приводите из чата.

Если вы не можете экстраполировать опыт из чатика на API, то о чём тут разговаривать?

Цель статьи была показать прикольную штуку, может обсудить развитие идеи, вы же тут упарываетесь будто вам тут докторскую на защиту принесли.

Пока, не вижу смысла тратить ресурсы на софистику.

Если вы считаете, что API даст лучшие результаты для целей вашей статьи, и не можете его использовать вместо чатика, о чем с вами разговаривать?

На всякий случай, работа с LLM по API, а не в чатике. А то вы себе нафантазируете.

Если вы вникните в то, чем они отличаются, то не будете нести этот бред. Спойлер: ничем кроме контекста, внешних инструментов и параметров температуры, TopP, TopK и прочих.

Я могу полноценно утверждать, что вы вообще не понимаете как работают большие языковые модели и не изучаете что делают другие люди.

Если что, никто в практических задачах не работает с LLM непрерывно в одном контекстном окне.

Единый контекст или нет, не имеет практического значения, если модель общается сама с собой.

Если вы вникните в то, чем они отличаются, то не будете нести этот бред. Спойлер: ничем кроме контекста, внешних инструментов и параметров температуры, TopP, TopK и прочих.

Вы уже сами выпали из контекста изначальной статьи, утекли в рассуждения, не имеющие прямого отношения к идеям статьи. В правильные детали, но вне контекста. Возвращать вас и объяснять, ну нафиг.

Не вижу смысла что-либо обсуждать в таком режиме.

Можете себя тоже считать победителем спора.

Вы ПЕРВЫЕ про API зачем-то написали, хотя я о нём вообще ничего не писал.

Вот ваши же слова.

Ну и где там подсчет вероятностей?
Там рассматриваются 2 случая с известным результатом - робот выбирал следующее действие через ChatGPT и уехал в канаву, и робот выбирал следующее действие через генератор случайных чисел и уехал в канаву. В обоих случаях это не то, что нужно постановщику задачи. А надо, чтобы делал то, что нужно. Поэтому ваше разрешение "ну и пусть он едет в канаву, главное что у него была какая-то цель" противоречит исходным требованиям.

Ну и где там подсчет вероятностей?
Там рассматриваются 2 случая с известным результатом - робот выбирал следующее действие через ChatGPT и уехал в канаву, и робот выбирал следующее действие через генератор случайных чисел и уехал в канаву. В обоих случаях это не то, что нужно постановщику задачи. А надо, чтобы делал то, что нужно. Поэтому ваше разрешение "ну и пусть он едет в канаву, главное что у него была какая-то цель" противоречит исходным требованиям.

Тоесть вы к таким выводам пришли без учёта вероятностей, но оперируете генератором случайных чисел. Зачёт.


Ещё меня дураком считаете.

Предлагаю эту канитель завершать, лучше заняться более полезными делами, по крайней мере мне. Считайте, что вы победили в споре. Мои поздравления.

Тоесть вы к таким выводам пришли без учёта вероятностей, но оперируете генератором случайных чисел.

Чтобы что-то сравнить с генератором случайных чисел, не обязательно оперировать теорией вероятности.

Вы не понимаете, как работают сравнения? Метафоры? Аналогии?

Вы не понимаете, как работают сравнения? Метафоры? Аналогии?

Мы до метафор дошли в обсуждении которое вы позиционируете как околонаучное? Сами трактуете всё дословно, а тут метафоры пошли.

Мы до метафор дошли в обсуждении которое вы позиционируете как околонаучное?

Вы из трех слов в моем вопросе выбрали только одно?

Нет, лично я стараюсь избегать метафор в околонаучных обсуждениях. Но в обсуждении в этом посте лично я никакой науки и не вижу.

Да не оперирую я генератором случайных чисел, откуда вы это взяли? Он приведен только как пример движка принятия решений, в ответ на ваше предложение альтернативного пути "Если робот долго видит Луну, то пусть едет на любой сигнал светофора". Предполагаю, что вы имели в виду, что у ChatGPT вероятность достичь нужного результата выше, чем у генератора случайных чисел, но не смогли сформулировать это словами. Но тогда это вы считаете вероятности, а не я.

С тем, что у ChatGPT в этом примере она будет выше, я тоже не согласен, потому что движение машин близко к случайному, и если робот поедет на неправильный сигнал светофора, результат выполнения задачи тоже будет случайный.

У меня была цель не победить в споре, а объяснить.

У меня была цель не победить в споре, а объяснить.

У вас "шикарно" получается "объяснять"

Вы реально логику ЧатаГПТ сравниваете с генератором случайных действий?

Конечно. Это нормальная оценка работоспособности систем машинного обучения - через их сравнение (по формальной метрике качества) с результатом случайного выбора.

там не должно быть особых интеллектуальных функций. А теперь вдруг вам не нравится

Естественно, потому что я привел этот пример чтобы показать, что сложность создания универсального робота в том, чтобы правильно сделать и соединить все нужные модули. А если у вас модуль CV заточен только на одну задачу, то ваш робот не универсальный, и ничем не отличается от существующих роботов.

Естественно, потому что я привел этот пример чтобы показать, что сложность создания универсального робота в том, чтобы правильно сделать и соединить все нужные модули. А если у вас модуль CV заточен только на одну задачу, то ваш робот не универсальный, и ничем не отличается от существующих роботов.

Вы спутали тёплое с мягким. Универсальный робот может ошибиться с сигналом светофора, он не коммерческий автопилот.

В этом тексте речь вообще не про ошибки. Я же говорю, вы не понимаете, о чем идет речь, поэтому объяснить вам ничего нельзя. Попробуйте сами сделать что-то работающее, прежде чем объяснять другим, что они не понимают.

В этом тексте речь вообще не про ошибки. Я же говорю, вы не понимаете, о чем идет речь, поэтому объяснить вам ничего нельзя. Попробуйте сами сделать что-то работающее, прежде чем объяснять другим, что они не понимают.

Я создавал системы компьютерного зрения. Они работают и прошли приёмку заказчиком. Вы сами то, что создали?

Тут есть примеры работы универсального детектора от Копилот, он отлично работает, он уже есть, даже без адаптации под нашу конкретную задачу.

Сами то сформулируйте полноценно без размахивания руками, где у меня ошибка. Раз уж себя умнее всех вокруг считаете.

Я вам много раз прямым текстом сформулировал, в чем у вас ошибка. Еще одно подтверждение, что вы не понимаете, о чем вам говорят.

Я создавал системы компьютерного зрения.

При чем тут ваши системы, если у нас разговор про отличие Луны от светофора и поход робота в магазин? "Что-то работающее" относилось к этим примерам, а не в целом.

Я вам много раз прямым текстом сформулировал, в чем у вас ошибка.

Видел только размахивания руками и оскорбления. У вас странные критерии качества к работе робота. Их хотя бы сформулируйте. Потом говорите про ошибки. Пока видел нерелевантные примеры с Теслой.

Пока видел нерелевантные примеры с Теслой.

Ну вот вам и пример ошибки, вы считаете пример с распознаванием светофора нерелевантным задаче "Съездить в магазин".

Как уже многие сказали, ваша основная ошибка в том, что вы считаете детали вашего алгоритма легко реализуемыми, а это не так, в них и заключается основная сложность. Именно поэтому универсального робота для достижения любых целей еще не изобрели.

Также вы ошибочно считаете, что до вашей инструкции "как создать" кроме вас никто не додумался, из-за чего и написали статью. Хотя она всем давно известна, вы ничего нового не сообщили. Вы просто описали умными терминами то, что делает человек, причем даже не сами, а с помощью ChatGPT.

Их хотя бы сформулируйте.

Я не очень понимаю, критерии для какой именно задачи вы имеете в виду, но ок.

Критерии качества в контексте искусственного интеллекта - робот должен это делать не хуже человека.
Критерии качества в контексте моего примера - правильно отличить Луну от сигнала светофора хотя бы в 99% случаев.
Критерии качества в контексте вашей статьи - используя предложенные вами методы взаимодействия с ChatGPT, заставить робота дойти из одной комнаты в другую, взять нужный предмет из нескольких и вернуться обратно, с произвольным начальным положением предмета и робота. Вместо робота можете использовать персонажа в компьютерной игре. Если получится, пишите статью, это будет интересно.

Также вы ошибочно считаете, что до вашей инструкции "как создать" кроме вас никто не додумался, из-за чего и написали статью.

Вы ещё тот фантазёр, я знаю что такие проекты есть, просто мне было интересно опробовать его в таком виде и убедится что схема рабочая. И проблема именно в интерфейсе в реальный мир + потенциальная опасность такого робота.

Критерии качества в контексте искусственного интеллекта - робот должен это делать не хуже человека.

Ошибка. Далеко не всегда требуется достичь уровня человека.

Критерии качества в контексте моего примера - правильно отличить Луну от сигнала светофора хотя бы в 99% случаев.

Для автопилота - ну окей.

Критерии качества в контексте вашей статьи - используя предложенные вами методы взаимодействия с ChatGPT, заставить робота дойти из одной комнаты в другую, взять нужный предмет из нескольких и вернуться обратно, с произвольным начальным положением предмета и робота. Вместо робота можете использовать персонажа в компьютерной игре. 

Уже:

я знаю что такие проекты есть
И проблема именно в интерфейсе в реальный мир

Тогда что вы пытаетесь доказать?
В заголовке вы написали "Как создать универсального робота". Универсального робота по вашей инструкции создать нельзя. Именно из-за сложностей интерфейса в реальный мир. В комментариях вам это и объясняют.

Ошибка. Далеко не всегда требуется достичь уровня человека.

В контексте изобретения ИИ всегда. Я же написал там пояснение.

https://en.wikipedia.org/wiki/Artificial_general_intelligence

Artificial general intelligence (AGI) is a type of artificial intelligence (AI) that matches or surpasses human capabilities across a wide range of cognitive tasks.

Уже

Что уже, это разве вы сделали? У нас разговор о том, чтобы вы сами сделали что-то работающее, чтобы понять в чем сложность реализации вашего плана.

Тут есть примеры работы универсального детектора от Копилот, он отлично работает,

Нет, он не "отлично работает". Вы "отлично" говорите, что если он где-то ошибся, то это не ошибка.

Попробуйте сами сделать что-то работающее, прежде чем объяснять другим, что они не понимают.

https://habr.com/ru/articles/827388/#comment_27023218

Тут уже почти полная симуляция через JSON и только проброс результатов распознавания в модель. Только не гоните, что теперь физические манипуляторы мне к этому надо подключить.

Тут уже почти полная симуляция через JSON и только проброс результатов распознавания в модель.

Неа, это все еще не симуляция. Вам модель сгенерила список, в котором есть bread loaves, которых нет на картинке, а потом модель сгенерила текст "осмотреть bread loaves для идентификации цельнозернового хлеба", и вы это считаете успехом - хотя модель пытается "осмотреть" (что это значит?) то, чего нет, для "идентификации" (по каким критериям?) того, что не просили (потому что протек предыдущий контекст).

Симуляция - это хотя бы пройти по каждой из этих веток до самого конца, каждый раз давая модели ввод только и исключительно картинкой, причем картинка должна быть получена на основании предыдущей инструкции модели.

Симуляция - это хотя бы пройти по каждой из этих веток до самого конца, каждый раз давая модели ввод только и исключительно картинкой, причем картинка должна быть получена на основании предыдущей инструкции модели.

Какая есть симуляция, вы мне грант на миллиарды баксов дайте, буду тогда симуляциями заниматься.

Какая есть симуляция

Плохая, о чем и речь.

Вам модель сгенерила список, в котором есть bread loaves, которых нет на картинке, а потом модель сгенерила текст "осмотреть bread loaves для идентификации цельнозернового хлеба", и вы это считаете успехом - хотя модель пытается "осмотреть" (что это значит?) то, чего нет, для "идентификации" (по каким критериям?) того, что не просили (потому что протек предыдущий контекст).

Подойдёт ближе изучит, поймёт что не то, будет искать целевой вариант. Он же не жёсткий алгоритм имеет.

Подойдёт ближе изучит, поймёт что не то, будет искать целевой вариант.

Это ваша гипотеза, которая не подтверждена опытом.

А на этой гипотезе, тем временем, строится вся идея что "система будет исправлять свои ошибки".

При этом "целевой вариант", который ваша система ищет - не тот, который был запрошен...

- Попробуйте сами сделать что-то работающее
- почти полная симуляция через JSON

"Работающее" это когда он реально идет и покупает. "Симуляция", это когда он делает то же самое в виртуальной среде, хотя бы в виде координат в трехмерном пространстве, а лучше с визуализацией в 3D. Не хотите подключать физические манипуляторы, возьмите компьютерную игру и управляйте персонажем только через вывод ChatGPT.

"Работающее" это когда он реально идет и покупает. "Симуляция", это когда он делает то же самое в виртуальной среде, хотя бы в виде координат в трехмерном пространстве, а лучше с визуализацией в 3D. Не хотите подключать физические манипуляторы, возьмите компьютерную игру и управляйте персонажем только через вывод ChatGPT.

Охренеть. Вы сами то понимаете, что предлагаете реализовать бесплатно в домашних условиях? Тут БостонДайнамикс такие проблемы десятилетиями исследует и решает. Надеюсь вы изучали результаты их исследований?

Воторой хотя бы разумный кейс предлагает, самому с телефоном картинки фоткать и выполнять инструкции. И то оно идеально не заработает, и я это прекрасно понимаю. Хотя вы думаете обратное.

Вы сами то понимаете, что предлагаете реализовать бесплатно в домашних условиях?

Блин, объясняю еще раз. Я это понимаю, все присутствующие это понимают, и они пытаются вам объяснить с самого начала, что именно в этом и есть сложность создания такого универсального робота. А не в том, чтобы придумать инструкцию, которую вы написали в статье.

Запустить игру в домашних условиях совершенно несложно. Попробуйте подключить к ней ChatGPT, чтобы он анализировал картинку и управлял персонажем, тогда поймете, в чем сложность.

Хотя вы думаете обратное.

Я понятия не имею, с чего вы это взяли, если я прямым текстом несколько раз повторил прямо противоположное.

Простенько мыслить ≠ генерировать следующий токен по «интуиции».

Система состоящая из неизвестной человечеству нейросети, способной правильно превращать слова в действия в реальном мире, где ещё нужно обрабатывать огромное количество параметров, и LLM, может делать действия которое никогда не приведут к выполнению её цели, или вообще отдалят от неё.

Ваша ошибка в том, что вы считаете что LLM способны мыслить или способны выполнять задачи, но их этому не обучали. Они лишь генерируют наиболее подходящий по их «мнению» токен. И выборы модели не обоснованы ничем кроме её собственных весов. У человека есть неизвестное (?) отличие от LLM, при котором человек, изучая те же языки или математику, учится находить связи между конструкциями, словами, знаками и прочим. Человек понимает, что a × b = взять a b раз = a_1 + a_2 + … + a_b. Вы можете сказать что не все люди это понимают, однако они запоминают алгоритм того же умножения в столбик и решают. Языковые модели так не умеют, у них есть механизм внимания, есть связи между словами, но это не позволяет им «мыслить».

Простенько мыслить ≠ генерировать следующий токен по «интуиции».

Экспериментально мы видим, что может. Возникает вопрос, а насколько люди примитивны в своём мышлении.

Про LLM и примитивность модели трансформера.

Можете мне минус поставить, но я много общался с разными людьми и нейрофизиологию изучал. Человеческое мышление очень примитивное, оно вывозит за счёт большой вычислительной мощности и десятилетиях обученя.

Ваша ошибка в том, что вы считаете что LLM способны мыслить

Ваша ошибка в том, что вы переоцениваете человеческое мышление и переводите его в разряд чего-то уникального.

Человек понимает, что a × b = взять a b раз = a_1 + a_2 + … + a_b. Вы можете сказать что не все люди это понимают, однако они запоминают алгоритм того же умножения в столбик и решают. Языковые модели так не умеют, у них есть механизм внимания, есть связи между словами, но это не позволяет им «мыслить».

У человека кроме языковой модели есть куча других подсистем, ясен пень у него возможностей больше чем у простой бытовой языковой модели. Пихать математику в языковую модель - это вообще странная придурь. Это как пытаться заливать бензин в электромобиль. Автомобиль же!

Математика - это необходимый признак мышления? С чего вдруг? В целом наверное можно даже научить LLM в столбик считать, но для этого есть другие более эффективные инструменты.

Ошибка всех доморощенных философов в том, что они мышлением считают только комплекс всего, что есть у человека, другие отбрасывают по принципу сравнения с человеком.

Человек столбиком считать умеет, а осьминоги нет - мышления нет! Ещё других дураками считают...

Экспериментально мы видим, что может. Возникает вопрос, а насколько люди примитивны в своём мышлении.

Вы, видимо, вообще не видите ничего дальше своего однобокого «эксперимента». Как же хорошо современные LLM вводят людей в заблуждение.

Экспериментально мы видим, что может

Нет, не видим.

Нет, не видим.

хорошо

Ошибка всех доморощенных философов в том, что они мышлением считают только комплекс всего, что есть у человека, другие отбрасывают по принципу сравнения с человеком.

Извините, но доморощенным философом выглядите тут вы. Потому что не знаете, или делаете вид, что не знаете, что любой серьезный разговор про мышление (да и вообще любое понятие) начинается с его определения. И философы (нормальные), обсуждая мышление, как раз и пытаются найти его определение в первую очередь.

Вы хотите отбросить существующее определение? Тогда вам надо дать свое и объяснить, почему оно жизнеспособно.

Вы хотите отбросить существующее определение? Тогда вам надо дать свое и объяснить, почему оно жизнеспособно.

Пробовал в соседней ветке, определение им не нравится, им надо чего-то человеческого. Требовали наличия страдания и наслаждения, с аргументами что они так умеют, значит оно есть.

Мышление — процесс познавательной деятельности, характеризующийся обобщенным и опосредствованным отражением действительности.

Хотя философы в Википедии дают такое антропоцентричное определение

Мышле́ние — познавательная деятельность человека[1]. Умственный процесс. Он является опосредованным и обобщённым способом отражения действительности, и неразрывно связан с использованием внутренней речи. Он включает в себя как и сознательные процессы, так и иррациональную корневину.

По сути сами признают, что в основе мышления лежит лингвистическая модель

Пробовал в соседней ветке, определение им не нравится

Значит, вам не удалось добиться, чтобы остальные пользовались вашим определением вместо общепринятого. Придется пользоваться общепринятым или брать другой термин.

По сути сами признают, что в основе мышления лежит лингвистическая модель

Нет, не признают. Признают, что связано с использованием речи.

определение им не нравится, им надо чего-то человеческого

Это был один человек, с которым многие не согласны.

 Человек понимает, что a × b = взять a b раз = a_1 + a_2 + … + a_b. Вы можете сказать что не все люди это понимают, однако они запоминают алгоритм того же умножения в столбик и решают.

Люди, даже с высшим образованием с простыми математическими задачками из трёх цифр не справляются, если заранее ответа не знают.

Вот банальная задачка, которая легко в уме должна решаться на сложение:

Три мальчика скинулись по 10рублей на гитару, но продавщица сказала что она стоит 25 и послала мальчика чтобы тот догнал их отдал им 5 рублей, но мальчик дал каждому по 1 рублю ,а себе оставил 2 рубля. Значит каждый мальчик потратил 9рублей: 9*3+2рубля у мальчика который догонял=29. Вопрос где ещё 1 рубль?

Задача не только на сложение, но и на логику. Фантомные два рубля у посыльного в выражении 9 × 3 + 2.

Человек, вероятно, с ходу ошибку не найдёт, если ранее не встречал подобные. Но в течение определённого времени догадается где ошибка. А вот большие языковые модели эти задачи «видели» огромное количество раз, но могут решать неправильно похожие задачи не умея их почему-то обощать, или наоборот применять решения этих задач к очень похожим лингвистически, но совершенно другим по своей идеи.

Человек, вероятно, с ходу ошибку не найдёт

Потомучто хоть что-то нестандартное ставит людей в тупик. Люди берут исключительно вычислительной мощностью и имеют кучу дополнительных "модулей" в мозгу, кроме лингвистической модели мира. И то такая банальная задачка из нескольких цифр ставит в тупик.

Нейробиологи признают, что наш мозг по сути мега мощный паттерн матчер. Именно поэтому на нас действует зомби-реклама, НЛП и прочие примитивные воздействия. Люди в астрологию верят! Какой интеллект нафиг?

Но почему-то людей считают носителями какого-то волшебного сознания. А ИИ категорически боятся признать, что даже сложная система из множества модулей (я не имею ввиду какую-либо LLM, а целую систему из множества различных модулей) может иметь зачатки сознания.

Потомучто хоть что-то нестандартное ставит людей в тупик.

...нет?

Но почему-то людей считают носителями какого-то волшебного сознания

Потому что мозг - больше, чем паттерн-матчинг.

Потому что мозг - больше, чем паттерн-матчинг.

Как вы любите говорить: Это не доказано. Докажите сначала

Формально доказать это нельзя, потому что предмет обсуждения недостаточно формализован.

А на бытовом уровне доказательство очень просто: мозг способен на создание принципиально нового; паттерн-матчинг - нет.

А на бытовом уровне доказательство очень просто: мозг способен на создание принципиально нового; паттерн-матчинг - нет.

Мощный может экспериментальным путём + некоторые отклонения. Вообще что такого нового люди изобрели без паттерн матчинга? Новые законы физики создали?

Вообще что такого нового люди изобрели без паттерн матчинга?

Омг. Например, язык, на котором мы общаемся?

Задача не только на сложение, но и на логику.

Давайте чуть-чуть логически задумаемся: ведь задачка на простенькую логику, как раз должна показывать возможности сознания, интеллекта и прочее превосходство человека.

Человек, вероятно, с ходу ошибку не найдёт, если ранее не встречал подобные.

А как же математическая модель в голове, логическое мышление и все прочие прелести человеческого мозга? Куда они деваются если он не видел решения похожей задачи?

Самые умные на бумаге раскладывают движения материальных и финансовых средств и конечно находят ошибку в своей логике. Но это примитивная задача в которой человеческий мозг и то путается

Человек понимает, что a × b = взять a b раз = a_1 + a_2 + … + a_b. Вы можете сказать что не все люди это понимают, однако они запоминают алгоритм того же умножения в столбик и решают.

Ещё пример на котором ломаются даже некоторые заслуженные физики:

Задача о самолёте на транспортёре:

Самолет (реактивный или винтовой) стоит на взлётной полосе с подвижным покрытием (типа транспортёра). Покрытие может двигаться против направления взлёта самолёта, то есть ему навстречу. Оно имеет систему управления, которая отслеживает и подстраивает скорость движения полотна таким образом, чтобы скорость вращения колёс самолёта была равна скорости движения полотна.

Вопрос: сможет ли самолёт разбежаться по этому полотну и взлететь?

Жесть какому количеству людей даже бумаги не хватает чтобы выйти из когнитивной паттерновой ловушки. Оно в интернете обсосано уже 20 лет как покругу, и то не все согласны с физикой происходящего.

При этом чат ГПТ справляется https://chatgpt.com/share/c4994ed9-26f4-4c80-96b9-65d410adbca4

Можно сказать, что он подсмотрел в интернете

Меняем самолёт на вертолёт https://chatgpt.com/share/226f35f5-d805-4f58-9e41-d84236aec761

Он показывает понимание отличия принципов взлёта самолёта и вертолёта.

Люди с высшим образованием до сих пор некоторые доказывают, что не взлетит...

Ещё толпа недоматематиков думают, что колёса будут вращаться всего лишь в 2 раза быстрее. То есть в голове понять простую положительную обратную связь из задачки способны вообще единицы населения нашей планеты.

Чат ГПТ и тут показывает адекватность: https://chatgpt.com/share/c4994ed9-26f4-4c80-96b9-65d410adbca4

В конце пытается посмотреть на ситуацию с точки зрения реальной физики и лажает, тут скорее всего влияние оказывает большое количество неправильных решений в интернете.

Зато соображает после подсказки.

Чат ГПТ и тут показывает адекватность:

Тоже нет:

Скорость вращения колес относительно земли

Скорость вращения - это "оборотов в единицу времени". Она не меряется относительно земли.

А дальше, несмотря на эту дыру в формулировке, он продолжает что-то считать.

Самые умные на бумаге раскладывают движения материальных и финансовых
средств и конечно находят ошибку в своей логике. Но это примитивная
задача в которой человеческий мозг и то путается

Ну так люди находят решение, причём тут вообще первая интуитивная ошибка?

Зато соображает после подсказки.

facepalm

При этом чат ГПТ справляется https://chatgpt.com/share/c4994ed9-26f4-4c80-96b9-65d410adbca4

Нет, он не видит ошибки в формулировке задачи.

Он показывает понимание отличия принципов взлёта самолёта и вертолёта.

Нет, не понимает, вот цитата:

Ответ: да, вертолёт сможет разбежаться по этому полотну и взлететь.

Но вертолет не "разбегается".

Но вертолет не "разбегается".

О да, докопались до формулировки. Люди которые также случайно скажут, вами будут приняты за биоробота, ага...

И да, у вас тут ошибка, вертолёт тоже может двигаться горизонтально. ОШИБКА ха ха. Сами ошибки не допускайте пожалуйста постоянно при поиске ошибок.

О да, докопались до формулировки.

Неа, я увидел ошибку в выводе модели. Она языковая модель, она должна оперировать языком корректно.

Люди которые также случайно скажут, вами будут приняты за биоробота, ага...

Нет, они будут мной приняты за людей, которые либо ошиблись, либо не знают, как работает вертолет.

вертолёт тоже может двигаться горизонтально

Может. Но процесс взлета вертолета не называется "разбегом".

Роторы вертолёта взаимодействуют с воздухом и этим создают подъёмную силу? А лопасти тогда зачем?

И это вы называете пониманием?

Оно в интернете обсосано уже 20 лет как покругу, и то не все согласны с физикой происходящего.

Сколько я видел этих обсуждений, они всегда выливаются в то, что задача сформулирована некорректно.

Сколько я видел этих обсуждений, они всегда выливаются в то, что задача сформулирована некорректно.

Абсолютно корректно. То, что некоторые в принципе не могут манипулировать в голове понятием бесконечности, не делает задачу некорректной.

Ну а вы можете попробовать указать, где ошибка в постановке.

Абсолютно корректно.

Это ваше мнение, которое противоречит первому же находимому развернутому объяснению.

Ну а вы можете попробовать указать, где ошибка в постановке.

Там, где сравниваются несравнимые величины.

Вот у вас в статье, по сути пока что только "кружочки".

Алгоритм интересный, но до практической реализации ему пока - как до Луны..

Ибо уровень глубины и подробностей практически на каждом шаге в реальности будет гораздо сложнее и больше. Для начала - попробуйте сделать робота, который из любой точки квартиры смог бы дойти до входной двери и выйти из неё. Это уже не очень тривиальная задача, между прочим :)

Далее, сделать такого, который мог бы осуществить вышеописанные действия для ЛЮБОЙ квартиры.

Пусть даже это будет просто колесная база+ардуинка, а не антропоморфный монстр для начала 😉

Вот у вас в статье, по сути пока что только "кружочки".

Алгоритм интересный, но до практической реализации ему пока - как до Луны..

Ибо уровень глубины и подробностей практически на каждом шаге в реальности будет гораздо сложнее и больше. Для начала - попробуйте сделать робота, который из любой точки квартиры смог бы дойти до входной двери и выйти из неё. Это уже не очень тривиальная задача, между прочим :)

Для человека знакомого с современными возможностями робототехники вполне можно экстраполировать данную примитивную модель на технические методы реализации от идеи "выйти из комнаты и поикать дверь в подъезд" на физическую реализацию. Boston Dynamics вполне себе могут справиться.
https://www.youtube.com/watch?v=C-hTuhNGd2g

Ясен пень, что в реальности робот из квартиры не выйдет, т.к. не откроет её изнутри и на этом путешествие закончится ))

т.к. не откроет её изнутри

Оснастка робота универсальным отмычечным манипулятором - задача на порядок легче, чем универсальная задача выхода из любой точки любой квартиры...

Оснастка робота универсальным отмычечным манипулятором - задача на порядок легче, чем универсальная задача выхода из любой точки любой квартиры...

Это почему? Если робот хоть как-то может передвигаться, значит сможет обследовать квартиру, ЧатГПТ вполне способен сообразить применить стратегию поиска и открытия всех доступных дверей. В моих примерах он куда более сложные задачи решал. Он раз допёр, что есть окно, можно оценить высоту и спрыгнуть. Как это реализовать в механике - там куда сложнее.

Как это реализовать в механике - там куда сложнее.

Об этом (в том числе) я и говорю - всё, что вы пишите это пока ТЕОРИЯ без практики в физическом мире.

Вот там и будет куча подводных камней, с одним только CV придётся немало повозиться

Все желающие могут попробовать самостоятельно промт:

Hidden text

В целом можете поэкспериментировать с промтом:

Распиши универсальный алгоритм работы робота с ИИ для реализации следующей возможности:

есть информация с камеры, как сделать так, чтобы робот мог выполнить набор последовательных действий для достижения любой цели. Учти, что подзадачи могут терять актуальность, изменяться набор подзадач в зависимости от обстановки.

Опиши технические детали шаг за шагом.

Учти следующие мысли: Роботу поставили цель, он осматривается и анализирует где он вообще находится, что ему доступно для действий, он должен проанализировать, Какие шаги в принципе нужно выполнить для достижения этой цели, на основе окружающей обстановки и доступных объектов принимает решение, как он будет действовать, после выполнения действия, опять осматривается и цикл повторяется пока не достигнет целевого действия.

Алгоритм:

Универсальный алгоритм для достижения любой цели роботом с ИИ:

  1. Инициализация задачи:

    • Получение главной цели

    • Активация всех сенсорных систем

    • Загрузка базовых знаний и моделей поведения

  2. Анализ текущей ситуации:

    • Сбор данных об окружении со всех доступных сенсоров

    • Обработка полученной информации для создания модели текущей ситуации

    • Определение текущего состояния робота и доступных ресурсов

  3. Декомпозиция цели:

    • Разбиение главной цели на подзадачи

    • Создание иерархической структуры задач и подзадач

    • Определение зависимостей между подзадачами

  4. Приоритизация задач:

    • Оценка важности и срочности каждой подзадачи

    • Учет ограничений и доступных ресурсов

    • Создание динамического списка приоритетов

  5. Планирование действий:

    • Генерация возможных планов действий для решения приоритетных подзадач

    • Оценка эффективности и рисков каждого плана

    • Выбор оптимального плана действий

  6. Выполнение действий:

    • Активация необходимых исполнительных механизмов

    • Мониторинг процесса выполнения действий

    • Сбор данных о результатах действий

  7. Оценка результатов:

    • Анализ достигнутых результатов

    • Сравнение с ожидаемыми результатами

    • Определение степени продвижения к главной цели

  8. Адаптация и обучение:

    • Обновление внутренней модели мира на основе полученного опыта

    • Корректировка стратегий и методов решения задач

    • Обновление базы знаний

  9. Переоценка ситуации:

    • Анализ изменений в окружении и внутреннем состоянии

    • Проверка актуальности текущих подзадач

    • Выявление новых возможностей или препятствий

  10. Корректировка плана:

    • Обновление списка подзадач с учетом новой информации

    • Пересмотр приоритетов

    • Модификация текущего плана действий или создание нового

  11. Коммуникация:

    • Отправка отчетов о прогрессе, если требуется

    • Запрос дополнительной информации или ресурсов при необходимости

    • Координация действий с другими агентами, если это часть задачи

  12. Проверка достижения цели:

    • Оценка степени выполнения главной цели

    • Принятие решения о завершении задачи или продолжении работы

  13. Цикл выполнения:

    • Возврат к шагу 2 (Анализ текущей ситуации) и повторение процесса до достижения главной цели или получения команды о прекращении выполнения задачи

Потом можно ставить цели:

Напиши пример такого плана действий для достижения цели: "Тут опишите цель"

На входе с сенсоров ты видишь следующие объекты: "Тут список объектов".

Далее уточняйте, что он видит после выполнения действий

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации

Истории