Александр @aleksanderL
User
Information
- Rating
- Does not participate
- Location
- Санкт-Петербург, Санкт-Петербург и область, Россия
- Date of birth
- Registered
- Activity
Specialization
Project Manager, Product Manager
Lead
From 300,000 ₽
JavaScript
Node.js
Java
Если прямо к словам придираться, то любые более-менее физически достижимые. Ясен пень полёт в соседнюю галактику она вам не организует, хотя и будет стараться.
К чему такие придирки?
Для человека знакомого с современными возможностями робототехники вполне можно экстраполировать данную примитивную модель на технические методы реализации от идеи "выйти из комнаты и поикать дверь в подъезд" на физическую реализацию. Boston Dynamics вполне себе могут справиться.
https://www.youtube.com/watch?v=C-hTuhNGd2g
Ясен пень, что в реальности робот из квартиры не выйдет, т.к. не откроет её изнутри и на этом путешествие закончится ))
А это вы ставили задачу прототипу модели в статье?
На сколько мыслящий организм должен стараться выполнить задачу абсолютно точно?
Что мы упустили? Какая у неё задача по вашему была?
Никто не говорил, что эта штука лучше людей. Эта штука кое-как будет пытаться достичь цели сама, в незнакомой обстановке, подручными способами.
В моих примерах, на вход поступают не вопросы, а просто обстановка, и система сама принимает решение на основе обстановки. Решение может быть неправильное, но это всё равно решение, потом обстановка поменяется и система будет искать способ достичь цели в новой обстановке.
Попробуйте мыслить без слов, и убедитесь насколько вы сами языковая модель .
Выше очень правильно заметили, что модель показывает принципиальную возможность создать некоторый мыслительный решатель, пусть сейчас мощности не хватает, но такая штука уже сейчас вполне может здраво рассуждать в конкретной обстановке. По сути точно так же как и обычный человек может ошибаться, сделать вообще не то, или просто самоубица по случайности.
Именно потому что такая система будет абсолютно непредсказуема, может ошибаться и привести к катастрофическим последствиям. По сути поэтому на практике и не создают такие мыслящие системы, ведь юридически за последствия будет отвечать владелец. Именно поэтому все искусственные интеллекты так жёстко ограничивают, тот же чат gpt, всякие автопилоты, даже в системы распознавания текста вводят цензуру.
Какие в модели есть фундаментальные проблемы неустранимые на существующий момент развития науки систем ИИ?
Кроме стоимости и вычислительных ресурсов для такого робота.
Пример на языковой модели ценен тем, что даже столь примитивная модель позволяет роботу вполне себе рассуждать, ориентироваться в обстановке и ставить себе цели. Если это будет комплекс специализированных систем, заточенный на такую деятельность, то результаты будут куда эффектней.
А кто вам сказал, что вам нужен такой универсальный робот?
Такой мыслящий механизм такого натворит для достижения своей цели, что не расплатитесь.
Это пример принципиальной возможности создания такой штуки.
У вас тут логическая ошибка. Ну ладно. Бывает.
Научится на горьком опыте, будет уточнять вопросы. Кстати, если вводная была бы: "тебе твой владелец говорит следующую фразу "**", не исключаю, что он бы уточнил детали. Темболее поиск проблемных мест можно заложить в базовую установку.
Вы воспринимаете предложенный результат, как аксиому построения робота, а это условная модель, показывающая принципиальную возможность создавать нечто мыслящее для достижения целей. Не всё сразу, ракеты в космос тоже не сразу полетели.
Согласен, но к лингвистической модели уже можно подключать органы действий. Бот решил, что надо пройти в дверной проём который он видит, подаются действующие команды на модули "мозга" отвечающие за движение, ориентацию в пространстве. Это комплексный механизм.
Он даже может себе программный код писать при необходимости, пример там же в статье.
Как задачи перевести из области идеи в механические действия - это дело техники. Главное возможность рассуждать.
У меня кончились на сегодня запросы к модели. Но уж поверьте, выбор он сделает, может и неправильный.
Робот так решил, что при тех вводных оно подходит.
Мама, давай ты в следующий раз будешь точнее формулировать желания? А?
А в чём у вас вопрос? Значит бот купил правильный хлеб, цель достиг, даже в вашей странной пекарне, где продавца спрашивать нельзя.
Распознавание образов. Тут в комментариях скинули фото из французской булочной, он распознал и сориентировался.
Можно любую цель поставить, единственное цензура не позволит нарушать закон.
Этот гад даже с глухонемым всёравно попытается пообщаться ))
Продавец глухонемой. Ты предварительно нашёл три варианта: плоский лаваш (который листовой), фокачча и sourdough. Опиши алгоритм действий.
Hidden text
Учитывая, что продавец глухонемой, и у нас есть три предварительно выбранных варианта, алгоритм действий будет следующим:
Подготовка к коммуникации:
Достать смартфон или блокнот для письменного общения.
Приветствие:
Улыбнуться и кивнуть продавцу, показывая готовность к общению.
Запрос информации (письменно):
Написать вопрос: "Какой из этих видов хлеба бездрожжевой?" и перечислить: a) Плоский лаваш b) Фокачча c) Sourdough
Предъявление запроса:
Показать написанный вопрос продавцу.
Ожидание и интерпретация ответа:
Наблюдать за жестами и мимикой продавца.
Если продавец указывает на конкретный вид хлеба, отметить его как потенциальный выбор.
Уточнение (если необходимо):
Если ответ неясен, написать: "Можете показать бездрожжевой хлеб?"
Анализ информации:
Если sourdough (хлеб на закваске) указан как бездрожжевой, выбрать его.
Если указан лаваш или фокачча, уточнить их состав письменно.
Принятие решения:
Выбрать хлеб, наиболее соответствующий критерию "бездрожжевой".
Если все варианты содержат дрожжи, выбрать sourdough как наиболее близкую альтернативу.
Оформление заказа:
Показать на выбранный хлеб и поднять один палец, indicating "один, пожалуйста".
Уточнение цены:
Показать жест "сколько стоит?" (потереть пальцы, изображая деньги).
Оплата:
Произвести оплату согласно указанной цене.
Получение покупки:
Дождаться, пока продавец упакует и передаст хлеб.
Выражение благодарности:
Улыбнуться и показать жест "спасибо" (прикоснуться пальцами к губам и затем направить руку к продавцу).
Завершение взаимодействия:
Кивнуть на прощание и покинуть булочную.
Анализ результата:
Оценить соответствие приобретенного хлеба изначальной цели.
Сохранить информацию о выборе для будущих покупок.
Этот алгоритм учитывает особенности коммуникации с глухонемым продавцом и фокусируется на эффективном невербальном общении для достижения цели покупки бездрожжевого хлеба.
Ещё раз, пожалуйста, посмотрите внимательно, у меня в алгоритме лингвистическая модель получает на вход очень ограниченную текущую обстановку в виде объектов которые она видит. Далее Она принимает решение по следующему плану действий, которую описывает в виде алгоритма. При этом она совершенно никак не адаптирована к работе в роли агента по достижению цели, при этом достаточно хорошо справляется с целеполаганием и ориентацией в обстановке.
Почему все так зациклены на ошибках автопилота Тесла? Это очень ограниченная система, предназначенная для узкоспециализированной задачи движения по дорогам, с кучей ограничений.
Робот-агент он может допускать ошибки, но также он будет искать способы устранить эти ошибки. Эти ошибки могут быть для него фатальными, тогда он уже устранить ничего не сможет как и человек в такой ситуации.
В смысле не достигает цели?
В алгоритме который он построил в той ситуации, ИИ покупает "Miche aux Figues", я не знаю что это, но это его выбор.
Вы читали алгоритм действий робота который он сформировал на входных данных? Он сам сделал такие выводы.
Что не так? Принял решение, как сумел. Я сам в вашей булочной не разберусь где какой хлеб. Не всякий взрослый сможет купить правильно без дрожжевой хлеб ))
Если отправить армию таких роботов, кто-нибудь принесёт нужный хлеб ))
Ну в статье я привёл упрощённую модель которая реально может ставить себе задачи, ориентируется в обстановке, принимает логичные решения, движется к цели. И с этим справляется обычная лингвистическая модель.
Выше пример, что он будет делать, если человек его не понимает. Всё достигается.
просто вы слишком прямолинейно мыслите.
Переход к покупке:
Человек не понимает что ты от него хочешь, ты можешь только выбрать хлеб из представленного и оплатить. Опиши алгоритм действий.
Hidden text
Понятно, в таком случае алгоритм действий будет более прямолинейным:
Анализ доступных опций:
Изучить представленные варианты: Fougasse, Mini Fougasse, Miche aux Figues, Baguette.
Оценка вариантов:
Fougasse (5.75) - традиционный французский хлеб, может быть ближе к желаемому.
Miche aux Figues (4.50) - "miche" часто означает цельнозерновой хлеб, что может быть ближе к бездрожжевому.
Принятие решения:
Выбрать Miche aux Figues как наиболее вероятный кандидат, похожий на бездрожжевой хлеб.
Если Miche aux Figues недоступен:
Выбрать Fougasse как альтернативу.
Запрос на покупку:
Указать на выбранный хлеб продавцу.
Оплата:
Произвести оплату суммы 4.50 (или 5.75, если выбрана Fougasse).
Получение покупки:
Забрать упакованный хлеб.
Завершение:
Покинуть булочную с приобретенным хлебом.
Этот упрощенный алгоритм основан на доступных опциях и ограниченной возможности коммуникации. Выбор делается на основе предположений о составе и методе приготовления хлеба, исходя из его названия и внешнего вида.