Александр @aleksanderL
User
Information
- Rating
- Does not participate
- Location
- Санкт-Петербург, Санкт-Петербург и область, Россия
- Date of birth
- Registered
- Activity
Specialization
Project Manager, Product Manager
Lead
From 300,000 ₽
JavaScript
Node.js
Java
Чуть подумать не? На каждом шаге цикл оценки повторяется, принимается новое решение.
Вас очень сложно понять, вы выдвигаете требования к виртуальной системе, не поясняя почему вдруг такие требования возникли. У вас в голове есть ТЗ о котором кроме вас никто не знает.
Если оно сможет таким методом доползти и достичь цели хотя бы один раз из ста. Это уже результат, который можно дальше развивать и оптимизировать.
О да, докопались до формулировки. Люди которые также случайно скажут, вами будут приняты за биоробота, ага...
И да, у вас тут ошибка, вертолёт тоже может двигаться горизонтально. ОШИБКА ха ха. Сами ошибки не допускайте пожалуйста постоянно при поиске ошибок.
Абсолютно корректно. То, что некоторые в принципе не могут манипулировать в голове понятием бесконечности, не делает задачу некорректной.
Ну а вы можете попробовать указать, где ошибка в постановке.
Мощный может экспериментальным путём + некоторые отклонения. Вообще что такого нового люди изобрели без паттерн матчинга? Новые законы физики создали?
Подойдёт ближе изучит, поймёт что не то, будет искать целевой вариант. Он же не жёсткий алгоритм имеет.
Вы ещё тот фантазёр, я знаю что такие проекты есть, просто мне было интересно опробовать его в таком виде и убедится что схема рабочая. И проблема именно в интерфейсе в реальный мир + потенциальная опасность такого робота.
Ошибка. Далеко не всегда требуется достичь уровня человека.
Для автопилота - ну окей.
Уже:
Если ошибка исправима самой системой, то в чём проблема? Это и не ошибка.
В этом и проблема. Вы подходите к вопросу с бытовой точки зрения. Я вам несколько раз писал, что у вас неверный подход к критериям оценки результата.
Какая есть симуляция, вы мне грант на миллиарды баксов дайте, буду тогда симуляциями заниматься.
Охренеть. Вы сами то понимаете, что предлагаете реализовать бесплатно в домашних условиях? Тут БостонДайнамикс такие проблемы десятилетиями исследует и решает. Надеюсь вы изучали результаты их исследований?
Воторой хотя бы разумный кейс предлагает, самому с телефоном картинки фоткать и выполнять инструкции. И то оно идеально не заработает, и я это прекрасно понимаю. Хотя вы думаете обратное.
https://habr.com/ru/articles/827388/#comment_27023218
Тут уже почти полная симуляция через JSON и только проброс результатов распознавания в модель. Только не гоните, что теперь физические манипуляторы мне к этому надо подключить.
Видел только размахивания руками и оскорбления. У вас странные критерии качества к работе робота. Их хотя бы сформулируйте. Потом говорите про ошибки. Пока видел нерелевантные примеры с Теслой.
Например изучить теорию вероятности, а не рассуждать про вероятности "уедет в канаву == генератор случайных чисел"
Уж не думал, что тут есть люди, считающие вероятности встретить динозавра по принципу встречу/не встречу - 50%.
Я создавал системы компьютерного зрения. Они работают и прошли приёмку заказчиком. Вы сами то, что создали?
Тут есть примеры работы универсального детектора от Копилот, он отлично работает, он уже есть, даже без адаптации под нашу конкретную задачу.
Сами то сформулируйте полноценно без размахивания руками, где у меня ошибка. Раз уж себя умнее всех вокруг считаете.
Ну ёёёё... Вы реально логику ЧатаГПТ сравниваете с генератором случайных действий? После этого ещё удивляетесь, что вас не понимают.
Да вот выше.
Вы спутали тёплое с мягким. Универсальный робот может ошибиться с сигналом светофора, он не коммерческий автопилот.
Он не должен понимать их гарантированно. Он вообще никому ничего не должен. Глобальная идея в том, что ему можно поставить экзистенциальную цель его существования и он к ней пойдёт через ошибки, поиск альтернативных путей. Он может не увидеть светофор и его собьют, останется цел, пойдёт дальше.
Я приводил пример тут рядом, как реализовать интенсификацию поиска альтернативных путей, если долго не приближаемся к цели. (если спутали луну со светофором)
А вы про свою Теслу и гарантированное достижение цели. В нашем мире ничего не гарантированно на 100%.
К себе примените это правило.
Он нужен больше нам, чтобы оценить логику модели.
То что вам кажется ошибкой, в данном случае не является ей. Предположу, что вы как программист мыслите жёсткими алгоритмами, требованиями к коммерческим системам.
Можете продолжать считать это ошибкой.
Статистически достоверно, создайте такую модель и проведите тысячи экспериментов. От меня то вы что хотите в данном случае?
Тогда создавайте свою систему под ваши требования к критериям качества.
Вы попросили реализовать это для Автопилота Теслы гарантированное отличие светофора от луны, там не должно быть особых интеллектуальных функций. А теперь вдруг вам не нравится.
Вас бросает от обсуждения одной области, совсем в другие. Заканчивайте мыслить аналогиями, идея статьи и автопилот Тесла - системы разного назначения, с разными требованиями и ограничениями.
Чат ГПТ и тут показывает адекватность: https://chatgpt.com/share/c4994ed9-26f4-4c80-96b9-65d410adbca4
В конце пытается посмотреть на ситуацию с точки зрения реальной физики и лажает, тут скорее всего влияние оказывает большое количество неправильных решений в интернете.
Зато соображает после подсказки.