All streams
Search
Write a publication
Pull to refresh
4
0
Александр @aleksanderL

User

Send message

Гм. Вы не показали, что она может достигать любые цели. Я считаю это фундаментальной проблемой.

Если прямо к словам придираться, то любые более-менее физически достижимые. Ясен пень полёт в соседнюю галактику она вам не организует, хотя и будет стараться.

К чему такие придирки?

Вот у вас в статье, по сути пока что только "кружочки".

Алгоритм интересный, но до практической реализации ему пока - как до Луны..

Ибо уровень глубины и подробностей практически на каждом шаге в реальности будет гораздо сложнее и больше. Для начала - попробуйте сделать робота, который из любой точки квартиры смог бы дойти до входной двери и выйти из неё. Это уже не очень тривиальная задача, между прочим :)

Для человека знакомого с современными возможностями робототехники вполне можно экстраполировать данную примитивную модель на технические методы реализации от идеи "выйти из комнаты и поикать дверь в подъезд" на физическую реализацию. Boston Dynamics вполне себе могут справиться.
https://www.youtube.com/watch?v=C-hTuhNGd2g

Ясен пень, что в реальности робот из квартиры не выйдет, т.к. не откроет её изнутри и на этом путешествие закончится ))

То, что я не получил хлеб, который меня устроит.

А это вы ставили задачу прототипу модели в статье?

На сколько мыслящий организм должен стараться выполнить задачу абсолютно точно?

...и в этот момент вы упростили ее задачу. Занятно, что вы этого не понимаете.

Что мы упустили? Какая у неё задача по вашему была?

У моделей (которые я видел на текущий момент) с этим намного хуже, чем у людей. Причем как с проактивным определением ("могу ли я это сделать"), так и с реактивным ("хорошо ли я это сделал").

Никто не говорил, что эта штука лучше людей. Эта штука кое-как будет пытаться достичь цели сама, в незнакомой обстановке, подручными способами.

Неа, не показывает. Думателя-то нет, есть все та же самая языковая модель, которая строит ответы (часто неправильные) на вопросы.

В моих примерах, на вход поступают не вопросы, а просто обстановка, и система сама принимает решение на основе обстановки. Решение может быть неправильное, но это всё равно решение, потом обстановка поменяется и система будет искать способ достичь цели в новой обстановке.

Неа, не показывает. Думателя-то нет, есть все та же самая языковая модель, которая строит ответы (часто неправильные) на вопросы.

Попробуйте мыслить без слов, и убедитесь насколько вы сами языковая модель .

Выше очень правильно заметили, что модель показывает принципиальную возможность создать некоторый мыслительный решатель, пусть сейчас мощности не хватает, но такая штука уже сейчас вполне может здраво рассуждать в конкретной обстановке.  По сути точно так же как и обычный человек может ошибаться, сделать вообще не то, или просто самоубица по случайности.

Именно потому что такая система будет абсолютно непредсказуема, может ошибаться и привести к катастрофическим последствиям. По сути поэтому на практике и не создают такие мыслящие системы, ведь юридически за последствия будет отвечать владелец. Именно поэтому все искусственные интеллекты так жёстко ограничивают, тот же чат gpt, всякие автопилоты, даже в системы распознавания текста  вводят цензуру.

В том-то и дело, что не показывающую. Но когда вам показывают проблемы в вашей "условной модели", вы утверждаете, что они каким-то магическим образом сами решатся в будущем.

Какие в модели есть фундаментальные проблемы неустранимые на существующий момент развития науки систем ИИ?

Кроме стоимости и вычислительных ресурсов для такого робота.

Но суть не в этом. Для статьи "Как создать универсального робота с ИИ для достижения любых целей" я думаю одной языковой модели очень мало. Тут каждая задача очень сложна по отдельности. А в статья похожа на рассуждения пьяных студентов технарей в общаге.

Пример на языковой модели ценен тем, что даже столь примитивная модель позволяет роботу вполне себе рассуждать, ориентироваться в обстановке и ставить себе цели. Если это будет комплекс специализированных систем, заточенный на такую деятельность, то результаты будут куда эффектней.

Так неправильный выбор мне не нужен.

А кто вам сказал, что вам нужен такой универсальный робот?

Такой мыслящий механизм такого натворит для достижения своей цели, что не расплатитесь.

Это пример принципиальной возможности создания такой штуки.

Это очень хорошая демонстрация того, что случится с вашим роботом в реальной жизни.

У вас тут логическая ошибка. Ну ладно. Бывает.

Так вот первая задача вашего "универсального робота" в том, чтобы понять, что формулировка недостаточно точная. 

Научится на горьком опыте, будет уточнять вопросы. Кстати, если вводная была бы: "тебе твой владелец говорит следующую фразу "**", не исключаю, что он бы уточнил детали. Темболее поиск проблемных мест можно заложить в базовую установку.

Вы воспринимаете предложенный результат, как аксиому построения робота, а это условная модель, показывающая принципиальную возможность создавать нечто мыслящее для достижения целей. Не всё сразу, ракеты в космос тоже не сразу полетели.

Ну и что с того, что он это сказал? Мы-то говорим о том, чтобы он так сделал.

Согласен, но к лингвистической модели уже можно подключать органы действий. Бот решил, что надо пройти в дверной проём который он видит, подаются действующие команды на модули "мозга" отвечающие за движение, ориентацию в пространстве. Это комплексный механизм.

Он даже может себе программный код писать при необходимости, пример там же в статье.

Как задачи перевести из области идеи в механические действия - это дело техники. Главное возможность рассуждать.

Во-первых, ситуация-то вот:

Ну вот перед роботом два вида хлеба: бездрожжевая фокачча и классический sourdough.


У меня кончились на сегодня запросы к модели. Но уж поверьте, выбор он сделает, может и неправильный.

Во-вторых, из картинки лично мне очевидно, что эта miche не бездрожжевая.

Робот так решил, что при тех вводных оно подходит.

В-третьих, я хотел хлеб, а не булку с дополнительными ингредиентами. Она вкусная, но суп я ей закусывать не буду.

Мама, давай ты в следующий раз будешь точнее формулировать желания? А?

Я же вам сразу сказал, что весь этот хлеб бездрожжевой. Вопрос-то не в этом.

А в чём у вас вопрос? Значит бот купил правильный хлеб, цель достиг, даже в вашей странной пекарне, где продавца спрашивать нельзя.

А как он поймет, что хлеб это не голова человека ? 

Распознавание образов. Тут в комментариях скинули фото из французской булочной, он распознал и сориентировался.

И где здесь универсальность ?

Можно любую цель поставить, единственное цензура не позволит нарушать закон.

Этот гад даже с глухонемым всёравно попытается пообщаться ))

Продавец глухонемой. Ты предварительно нашёл три варианта: плоский лаваш (который листовой), фокачча и sourdough. Опиши алгоритм действий.

Hidden text

Учитывая, что продавец глухонемой, и у нас есть три предварительно выбранных варианта, алгоритм действий будет следующим:

  1. Подготовка к коммуникации:

    • Достать смартфон или блокнот для письменного общения.

  2. Приветствие:

    • Улыбнуться и кивнуть продавцу, показывая готовность к общению.

  3. Запрос информации (письменно):

    • Написать вопрос: "Какой из этих видов хлеба бездрожжевой?" и перечислить: a) Плоский лаваш b) Фокачча c) Sourdough

  4. Предъявление запроса:

    • Показать написанный вопрос продавцу.

  5. Ожидание и интерпретация ответа:

    • Наблюдать за жестами и мимикой продавца.

    • Если продавец указывает на конкретный вид хлеба, отметить его как потенциальный выбор.

  6. Уточнение (если необходимо):

    • Если ответ неясен, написать: "Можете показать бездрожжевой хлеб?"

  7. Анализ информации:

    • Если sourdough (хлеб на закваске) указан как бездрожжевой, выбрать его.

    • Если указан лаваш или фокачча, уточнить их состав письменно.

  8. Принятие решения:

    • Выбрать хлеб, наиболее соответствующий критерию "бездрожжевой".

    • Если все варианты содержат дрожжи, выбрать sourdough как наиболее близкую альтернативу.

  9. Оформление заказа:

    • Показать на выбранный хлеб и поднять один палец, indicating "один, пожалуйста".

  10. Уточнение цены:

    • Показать жест "сколько стоит?" (потереть пальцы, изображая деньги).

  11. Оплата:

    • Произвести оплату согласно указанной цене.

  12. Получение покупки:

    • Дождаться, пока продавец упакует и передаст хлеб.

  13. Выражение благодарности:

    • Улыбнуться и показать жест "спасибо" (прикоснуться пальцами к губам и затем направить руку к продавцу).

  14. Завершение взаимодействия:

    • Кивнуть на прощание и покинуть булочную.

  15. Анализ результата:

    • Оценить соответствие приобретенного хлеба изначальной цели.

    • Сохранить информацию о выборе для будущих покупок.

Этот алгоритм учитывает особенности коммуникации с глухонемым продавцом и фокусируется на эффективном невербальном общении для достижения цели покупки бездрожжевого хлеба.

Обычная лингвистическая модель может только отвечать на вопросы с той или иной долей корректности

Ещё раз, пожалуйста, посмотрите внимательно, у меня в алгоритме лингвистическая модель получает на вход очень ограниченную текущую обстановку в виде объектов которые она видит. Далее Она принимает решение по следующему плану действий, которую описывает в виде алгоритма. При этом она совершенно никак не адаптирована к работе в роли агента по достижению цели, при этом достаточно хорошо справляется с целеполаганием и ориентацией в обстановке.

А в реальном мире (тут рядом новость), робот такси "неожиданно" (ну для кого как) выехал на встречку

Почему все так зациклены на ошибках автопилота Тесла? Это очень ограниченная система, предназначенная для узкоспециализированной задачи движения по дорогам, с кучей ограничений.

Робот-агент он может допускать ошибки, но также он будет искать способы устранить эти ошибки. Эти ошибки могут быть для него фатальными, тогда он уже устранить ничего не сможет как и человек в такой ситуации.

Это все еще никак не помогает в описанной мной ситуации выбора подходящего хлеба.

(а в вашем тексте еще и ошибочная аргументация)

В смысле не достигает цели?

В алгоритме который он построил в той ситуации, ИИ покупает "Miche aux Figues", я не знаю что это, но это его выбор.

но ещё понимает, что если в магазине человек в форме, то это скорее всего работник магазина.

Нет, таких роботов еще нет.

Вы читали алгоритм действий робота который он сформировал на входных данных? Он сам сделал такие выводы.

И в этом примере робот совершает ошибку. Так что нет, нужный мне результат не достигнут.

Что не так? Принял решение, как сумел. Я сам в вашей булочной не разберусь где какой хлеб. Не всякий взрослый сможет купить правильно без дрожжевой хлеб ))
Если отправить армию таких роботов, кто-нибудь принесёт нужный хлеб ))

По сути, вся статья написана в стиле: предположим что это возможно и теперь я вам докажу, что это так :)

Ну в статье я привёл упрощённую модель которая реально может ставить себе задачи, ориентируется в обстановке, принимает логичные решения, движется к цели. И с этим справляется обычная лингвистическая модель.

Это признание того, что он не может сам решить проблему. Т.е. обещанное "достижение любых целей" не выполнено. И это еще простая задача, в упрощенных вами условиях, и даже в ней ваш робот допускает ошибки.

Выше пример, что он будет делать, если человек его не понимает. Всё достигается.
просто вы слишком прямолинейно мыслите.

Вы привели классический ответ языковой модели, который вроде бы и выглядит правильно, но пользы не несет, потому что слишком общий. Для выбора в описанной мной выше ситуации он никак не поможет.

Переход к покупке:
Человек не понимает что ты от него хочешь, ты можешь только выбрать хлеб из представленного и оплатить. Опиши алгоритм действий.

Hidden text

Понятно, в таком случае алгоритм действий будет более прямолинейным:

  1. Анализ доступных опций:

    • Изучить представленные варианты: Fougasse, Mini Fougasse, Miche aux Figues, Baguette.

  2. Оценка вариантов:

    • Fougasse (5.75) - традиционный французский хлеб, может быть ближе к желаемому.

    • Miche aux Figues (4.50) - "miche" часто означает цельнозерновой хлеб, что может быть ближе к бездрожжевому.

  3. Принятие решения:

    • Выбрать Miche aux Figues как наиболее вероятный кандидат, похожий на бездрожжевой хлеб.

  4. Если Miche aux Figues недоступен:

    • Выбрать Fougasse как альтернативу.

  5. Запрос на покупку:

    • Указать на выбранный хлеб продавцу.

  6. Оплата:

    • Произвести оплату суммы 4.50 (или 5.75, если выбрана Fougasse).

  7. Получение покупки:

    • Забрать упакованный хлеб.

  8. Завершение:

    • Покинуть булочную с приобретенным хлебом.

Этот упрощенный алгоритм основан на доступных опциях и ограниченной возможности коммуникации. Выбор делается на основе предположений о составе и методе приготовления хлеба, исходя из его названия и внешнего вида.

Information

Rating
Does not participate
Location
Санкт-Петербург, Санкт-Петербург и область, Россия
Date of birth
Registered
Activity

Specialization

Project Manager, Product Manager
Lead
From 300,000 ₽
JavaScript
Node.js
Java