Обновить
4
0

Пользователь

Отправить сообщение

Приложенную статью пропустил, но выглядит интересно, посмотрю. Под изначальной целью (подразумевая текущую статью) понимал это:

Представьте, что эту "мыслящую" часть мы соединяем с набором других систем ИИ и с роботизированной платформой, оснащённой камерами, сенсорами и манипуляторами.

Просто есть ощущение, что ветка спора здесь ушла куда-то не в ту сторону, а именно - в применимость в условиях того, что имеется у человечества на текущий момент. Проблемой обсуждения должно было стать что-то вроде "если допустить существование сущности, которая сможет закидывать заведомо достоверные данные о внешнем мире в уже имеющиеся llm, в которые будет загружен контекст, приведенный в статье, то можно ли это назвать сознанием?".

Не уверен в правильности поставленного вопроса, его выводил из комментариев автора про человека, как лингвистическую модель, но уверен в формулировке предпосылки. Вроде бы такая постановка задачи подразумевает разделение ответственности на разные модули, или есть какие-то особенности именно у llm?

Вроде бы в изначальной задаче не предполагалось использование ллм в качестве распознавателя объектов, оно всплыло позже в комментариях в контексте несовершенства компьютерного зрения, так что использование информации с движка будет вполне валидно. Заметьте, я не утверждаю, что это докажет применимость и полезность полученного "робота" в прикладных задачах, оно упрется все в те же перечисленные проблемы вроде светофора/луны, но это будут уже проблемы другого модуля, aka cv, а протестировать вроде как хочется функциональность предложенного "сознания".

"Кряк!" - сказала японская пила. "Так-то!" - сказали суровые сибирские лесорубы.

Уточнение вроде бы заложено в пункт 11, а он на скриншоте не приведен. Хотелось бы все же посмотреть полный текст выдачи под спойлером.

Upd: возможно, оно есть, просто с телефона не увидел

Я не очень понимаю, почему главной претензией к результату приведенного промта стало слово "подходящий". Модель выдала тавтологию, в алгоритме от этого появилось противоречие? Бездрожжевой хлеб предлагается определить по этикетке, если нет этикетки - спросить сотрудника, если нет сотрудника - определить самостоятельно по косвенным признакам, но тут от ошибки уже никто не застрахован. В целом задача выполнена, хлеб куплен. Заказчика, который хотел бездрожжевой хлеб, вроде не должно интересовать, из каких лавашей выбирал исполнитель.

Исполнителя попросили - исполнитель исполнил. Определить качество исполнения - другая задача, которая вроде бы решается через введение дополнительной сущности-проверяющего, что, наверное, реализуется проще, чем написание полного алгоритма с нуля.

Имхо, претензии тут должны быть не к модели и качеству ее работы, а к тому, что приведен пример только одной конкретной ситуации, по которому какие-то выводы сделать сложно, но у автора кончились запросы, а комментарии к заминусованной статье двух-трехдневной давности будут мертвы.

Могу ошибаться, но вроде бы современные чисто алгоритмические программы не ломаются при постановке нестандартных задач за счет механизма исключений, которые при переводе на представленный случай выдадут что-то вроде "не определена функция выбора бездрожжевого хлеба". Можно ли это считать проактивным определением компетенции?
Про реактивное согласен, с ним все плохо, но в данной конкретной ситуации оно вроде как и не предполагалось. Если уж искать в статье конкретику, то, если я правильно понял, тут таки приведен вводный промт, после которого модель выдала нечто, применимое в реальном мире, и даже относительно неплохо справилась с контрпримером ,чем не думатель?
Не защищаю ценность статьи, возможность была известна и до этого, а имеющегося анализа недостаточно для гарантии заявленной универсальности, но она вроде как и висит в простых.

Замечание интересное, как-то не думал в эту сторону. Я под универсальностью понимал скорее способность не сломаться при постановке нестандартной задачи, и в этом у языковых моделей есть преимущество перед предзаписанными алгоритмами действий.
Вопрос, если я правильно понял, в здравом определении собственной компетенции, но могу отметить, что далеко не все люди и не во всех ситуациях на эту оценку способны, в подтверждение можно привести что-нибудь, связанное с эффектом Даннинга-Крюгера.
Статья же вроде не имеет ценности практической, то есть не предлагает алгоритм для того самого выбирателя_хлеба_3000, но показывает теоретическую возможность прикрутить к потенциальной эвристической машине работающий думатель, а аналог пишущей машинки "ремингтон" выпуска тысяча девятьсот шестого года у нас уже есть, только запросы закончились.

Замечу, что в заглавии статьи есть упоминание "универсального" робота. Полагаю, что я, как человек, могу назваться универсальным исполнителем, но с выбором бездрожжевого хлеба у меня будут сложности, которые я буду решать с использованием гугла и вопросов к работнику/заказчику, а при отсутствии такой возможности буду оперировать предположениями вроде "скорее всего в бездрожжевом хлебе не должно быть воздуха", что, вполне возможно, неверно. Надеюсь, это не делает из меня языковую модель?
Предположу, что идеально с поставленной задачей могут справиться выбиратель_хлеба_3000 (которого специально обучали именно выбору хлеба) и работник отдела (которому известен техпроцесс, что в данном случае эквивалентно обучению). Можно ли их назвать универсальными?

2

Информация

В рейтинге
Не участвует
Зарегистрирован
Активность