Проблема в том, что не продемонстрировано, что система исправляет такие ошибки.
Чуть подумать не? На каждом шаге цикл оценки повторяется, принимается новое решение.
Сначала вы писали, что я мыслю как программист (хотя мы на Хабре), теперь проблема в том, что я смотрю с бытовой точки зрения (хотя задача из вашего примера взята из быта).
Вас очень сложно понять, вы выдвигаете требования к виртуальной системе, не поясняя почему вдруг такие требования возникли. У вас в голове есть ТЗ о котором кроме вас никто не знает.
А какой верный?
Если оно сможет таким методом доползти и достичь цели хотя бы один раз из ста. Это уже результат, который можно дальше развивать и оптимизировать.
Вам модель сгенерила список, в котором есть bread loaves, которых нет на картинке, а потом модель сгенерила текст "осмотреть bread loaves для идентификации цельнозернового хлеба", и вы это считаете успехом - хотя модель пытается "осмотреть" (что это значит?) то, чего нет, для "идентификации" (по каким критериям?) того, что не просили (потому что протек предыдущий контекст).
Подойдёт ближе изучит, поймёт что не то, будет искать целевой вариант. Он же не жёсткий алгоритм имеет.
Также вы ошибочно считаете, что до вашей инструкции "как создать" кроме вас никто не додумался, из-за чего и написали статью.
Вы ещё тот фантазёр, я знаю что такие проекты есть, просто мне было интересно опробовать его в таком виде и убедится что схема рабочая. И проблема именно в интерфейсе в реальный мир + потенциальная опасность такого робота.
Критерии качества в контексте искусственного интеллекта - робот должен это делать не хуже человека.
Ошибка. Далеко не всегда требуется достичь уровня человека.
Критерии качества в контексте моего примера - правильно отличить Луну от сигнала светофора хотя бы в 99% случаев.
Для автопилота - ну окей.
Критерии качества в контексте вашей статьи - используя предложенные вами методы взаимодействия с ChatGPT, заставить робота дойти из одной комнаты в другую, взять нужный предмет из нескольких и вернуться обратно, с произвольным начальным положением предмета и робота. Вместо робота можете использовать персонажа в компьютерной игре.
Симуляция - это хотя бы пройти по каждой из этих веток до самого конца, каждый раз давая модели ввод только и исключительно картинкой, причем картинка должна быть получена на основании предыдущей инструкции модели.
Какая есть симуляция, вы мне грант на миллиарды баксов дайте, буду тогда симуляциями заниматься.
"Работающее" это когда он реально идет и покупает. "Симуляция", это когда он делает то же самое в виртуальной среде, хотя бы в виде координат в трехмерном пространстве, а лучше с визуализацией в 3D. Не хотите подключать физические манипуляторы, возьмите компьютерную игру и управляйте персонажем только через вывод ChatGPT.
Охренеть. Вы сами то понимаете, что предлагаете реализовать бесплатно в домашних условиях? Тут БостонДайнамикс такие проблемы десятилетиями исследует и решает. Надеюсь вы изучали результаты их исследований?
Воторой хотя бы разумный кейс предлагает, самому с телефоном картинки фоткать и выполнять инструкции. И то оно идеально не заработает, и я это прекрасно понимаю. Хотя вы думаете обратное.
Тут уже почти полная симуляция через JSON и только проброс результатов распознавания в модель. Только не гоните, что теперь физические манипуляторы мне к этому надо подключить.
Я вам много раз прямым текстом сформулировал, в чем у вас ошибка.
Видел только размахивания руками и оскорбления. У вас странные критерии качества к работе робота. Их хотя бы сформулируйте. Потом говорите про ошибки. Пока видел нерелевантные примеры с Теслой.
Видимо мне все-таки нужно несколько раз повторять слово "Да". Если робот по дороге в магазин уедет в канаву, то он не выполнил задачу, Хоть с ЧатГПТ, хоть со случайными числами, результат одинаковый.
Чего я там не знаю и что должен был спросить?
Например изучить теорию вероятности, а не рассуждать про вероятности "уедет в канаву == генератор случайных чисел"
Уж не думал, что тут есть люди, считающие вероятности встретить динозавра по принципу встречу/не встречу - 50%.
В этом тексте речь вообще не про ошибки. Я же говорю, вы не понимаете, о чем идет речь, поэтому объяснить вам ничего нельзя. Попробуйте сами сделать что-то работающее, прежде чем объяснять другим, что они не понимают.
Я создавал системы компьютерного зрения. Они работают и прошли приёмку заказчиком. Вы сами то, что создали?
Тут есть примеры работы универсального детектора от Копилот, он отлично работает, он уже есть, даже без адаптации под нашу конкретную задачу.
Сами то сформулируйте полноценно без размахивания руками, где у меня ошибка. Раз уж себя умнее всех вокруг считаете.
Ну вот вам и ответ, почему это не только вопрос чисто компьютерного зрения. Наконец-то вы начали что-то понимать.И нет, такие альтернативные пути никому не нужны. Сложность в том, чтобы робот делал то, что нужно, иначе можно просто выбирать следующее действие генератором случайных чисел.
Ну ёёёё... Вы реально логику ЧатаГПТ сравниваете с генератором случайных действий? После этого ещё удивляетесь, что вас не понимают.
Приведите пожалуйста цитату из данной дискуссии, когда я чего-то не знал, но не спросил, а начал спорить.
Естественно, потому что я привел этот пример чтобы показать, что сложность создания универсального робота в том, чтобы правильно сделать и соединить все нужные модули. А если у вас модуль CV заточен только на одну задачу, то ваш робот не универсальный, и ничем не отличается от существующих роботов.
Вы спутали тёплое с мягким. Универсальный робот может ошибиться с сигналом светофора, он не коммерческий автопилот.
Ваш робот тоже должен понимать сигналы светофора, иначе он зависнет вечером на первом перекрестке.
Он не должен понимать их гарантированно. Он вообще никому ничего не должен. Глобальная идея в том, что ему можно поставить экзистенциальную цель его существования и он к ней пойдёт через ошибки, поиск альтернативных путей. Он может не увидеть светофор и его собьют, останется цел, пойдёт дальше.
Я приводил пример тут рядом, как реализовать интенсификацию поиска альтернативных путей, если долго не приближаемся к цели. (если спутали луну со светофором)
А вы про свою Теслу и гарантированное достижение цели. В нашем мире ничего не гарантированно на 100%.
Если вы чего-то не знаете, надо спрашивать, а не спорить.
То что вам кажется ошибкой, в данном случае не является ей. Предположу, что вы как программист мыслите жёсткими алгоритмами, требованиями к коммерческим системам.
Можете продолжать считать это ошибкой.
Неа. Я хочу процесс, который будет статистически достоверно более успешен, чем случайный.
Статистически достоверно, создайте такую модель и проведите тысячи экспериментов. От меня то вы что хотите в данном случае?
Ну вот вам и сложность, вместо интеллектуальных функций вы начинаете закладывать извне узкоспециализированную логику конкретно для этой задачи. А другие задачи он выполнять не будет, потому что вы нужные привязки не заложили.
Вы попросили реализовать это для Автопилота Теслы гарантированное отличие светофора от луны, там не должно быть особых интеллектуальных функций. А теперь вдруг вам не нравится.
Вас бросает от обсуждения одной области, совсем в другие. Заканчивайте мыслить аналогиями, идея статьи и автопилот Тесла - системы разного назначения, с разными требованиями и ограничениями.
В конце пытается посмотреть на ситуацию с точки зрения реальной физики и лажает, тут скорее всего влияние оказывает большое количество неправильных решений в интернете.
Чуть подумать не? На каждом шаге цикл оценки повторяется, принимается новое решение.
Вас очень сложно понять, вы выдвигаете требования к виртуальной системе, не поясняя почему вдруг такие требования возникли. У вас в голове есть ТЗ о котором кроме вас никто не знает.
Если оно сможет таким методом доползти и достичь цели хотя бы один раз из ста. Это уже результат, который можно дальше развивать и оптимизировать.
О да, докопались до формулировки. Люди которые также случайно скажут, вами будут приняты за биоробота, ага...
И да, у вас тут ошибка, вертолёт тоже может двигаться горизонтально. ОШИБКА ха ха. Сами ошибки не допускайте пожалуйста постоянно при поиске ошибок.
Абсолютно корректно. То, что некоторые в принципе не могут манипулировать в голове понятием бесконечности, не делает задачу некорректной.
Ну а вы можете попробовать указать, где ошибка в постановке.
Мощный может экспериментальным путём + некоторые отклонения. Вообще что такого нового люди изобрели без паттерн матчинга? Новые законы физики создали?
Подойдёт ближе изучит, поймёт что не то, будет искать целевой вариант. Он же не жёсткий алгоритм имеет.
Вы ещё тот фантазёр, я знаю что такие проекты есть, просто мне было интересно опробовать его в таком виде и убедится что схема рабочая. И проблема именно в интерфейсе в реальный мир + потенциальная опасность такого робота.
Ошибка. Далеко не всегда требуется достичь уровня человека.
Для автопилота - ну окей.
Уже:
Если ошибка исправима самой системой, то в чём проблема? Это и не ошибка.
В этом и проблема. Вы подходите к вопросу с бытовой точки зрения. Я вам несколько раз писал, что у вас неверный подход к критериям оценки результата.
Какая есть симуляция, вы мне грант на миллиарды баксов дайте, буду тогда симуляциями заниматься.
Охренеть. Вы сами то понимаете, что предлагаете реализовать бесплатно в домашних условиях? Тут БостонДайнамикс такие проблемы десятилетиями исследует и решает. Надеюсь вы изучали результаты их исследований?
Воторой хотя бы разумный кейс предлагает, самому с телефоном картинки фоткать и выполнять инструкции. И то оно идеально не заработает, и я это прекрасно понимаю. Хотя вы думаете обратное.
https://habr.com/ru/articles/827388/#comment_27023218
Тут уже почти полная симуляция через JSON и только проброс результатов распознавания в модель. Только не гоните, что теперь физические манипуляторы мне к этому надо подключить.
Видел только размахивания руками и оскорбления. У вас странные критерии качества к работе робота. Их хотя бы сформулируйте. Потом говорите про ошибки. Пока видел нерелевантные примеры с Теслой.
Например изучить теорию вероятности, а не рассуждать про вероятности "уедет в канаву == генератор случайных чисел"
Уж не думал, что тут есть люди, считающие вероятности встретить динозавра по принципу встречу/не встречу - 50%.
Я создавал системы компьютерного зрения. Они работают и прошли приёмку заказчиком. Вы сами то, что создали?
Тут есть примеры работы универсального детектора от Копилот, он отлично работает, он уже есть, даже без адаптации под нашу конкретную задачу.
Сами то сформулируйте полноценно без размахивания руками, где у меня ошибка. Раз уж себя умнее всех вокруг считаете.
Ну ёёёё... Вы реально логику ЧатаГПТ сравниваете с генератором случайных действий? После этого ещё удивляетесь, что вас не понимают.
Да вот выше.
Вы спутали тёплое с мягким. Универсальный робот может ошибиться с сигналом светофора, он не коммерческий автопилот.
Он не должен понимать их гарантированно. Он вообще никому ничего не должен. Глобальная идея в том, что ему можно поставить экзистенциальную цель его существования и он к ней пойдёт через ошибки, поиск альтернативных путей. Он может не увидеть светофор и его собьют, останется цел, пойдёт дальше.
Я приводил пример тут рядом, как реализовать интенсификацию поиска альтернативных путей, если долго не приближаемся к цели. (если спутали луну со светофором)
А вы про свою Теслу и гарантированное достижение цели. В нашем мире ничего не гарантированно на 100%.
К себе примените это правило.
Он нужен больше нам, чтобы оценить логику модели.
То что вам кажется ошибкой, в данном случае не является ей. Предположу, что вы как программист мыслите жёсткими алгоритмами, требованиями к коммерческим системам.
Можете продолжать считать это ошибкой.
Статистически достоверно, создайте такую модель и проведите тысячи экспериментов. От меня то вы что хотите в данном случае?
Тогда создавайте свою систему под ваши требования к критериям качества.
Вы попросили реализовать это для Автопилота Теслы гарантированное отличие светофора от луны, там не должно быть особых интеллектуальных функций. А теперь вдруг вам не нравится.
Вас бросает от обсуждения одной области, совсем в другие. Заканчивайте мыслить аналогиями, идея статьи и автопилот Тесла - системы разного назначения, с разными требованиями и ограничениями.
Чат ГПТ и тут показывает адекватность: https://chatgpt.com/share/c4994ed9-26f4-4c80-96b9-65d410adbca4
В конце пытается посмотреть на ситуацию с точки зрения реальной физики и лажает, тут скорее всего влияние оказывает большое количество неправильных решений в интернете.
Зато соображает после подсказки.