Хабр Курсы для всех
РЕКЛАМА
Практикум, Хекслет, SkyPro, авторские курсы — собрали всех и попросили скидки. Осталось выбрать!
При большинстве вариантов нормальных условий робомобиль распознает знак «стоп». Но не все условия нормальны. Некоторые недавние опыты показали, что несколько чёрных наклеек, закрывающих знак «стоп», могут обмануть алгоритм, который решит, что это, на самом деле – знак ограничения скорости до 60 миль в час.Думаю, что для развития автопилотов, знаки будут дорабатываться, путем добавления QR кодов или что-то на подобии + постоянный обмен данными между ТС с геолокацией знаков на картах. Просто полагаться на сам знак — это крайне сложно для текущего ИИ, при постоянном движении ТС. Так что, думаю, те города, которые готовы к автопилоту, на законодательном уровне будут менять знаки. Но это мое виденье решения проблемы.
Проблема-то не в знаках. На отбойники или грузовики вы тоже QR-код предложите навестить? Вряд ли.
Классификационная нейронная сеть оперирует числами («весами» связей), сформированными в процессе обучения, которые во многом являются «вещью в себе» — попытки их толковать крайне сложны, еще более сложна любого рода их отладка. И никакого сходства с человеческим распознаванием объектов тут нет и еще даже в теории не предвидится (потому что мы не распознаём объекты исключительно на основе двухмерных изображений).Машине как раз не хватает вычислительных мощностей для того, чтоб воспринимать человека как человек, поэтому создаются модели людей, модели поведения, эти модели — очень упрощенные. И для текущих мощностей и органов восприятия нужно много алгоритмов, очень много. Ибо связь органов чувств и обработки данных в мозгу компьютера — очень слабая. Да, ИИ улучшаются, но еще нужно время.
При этом я вполне допускаю, что «баги» классификации вполне возможно умять до такого состояния, когда они будут статистически малозаметны (и в ход пойдут аргументы «люди-водители убивают куда больше», «вероятность быть убитым робомобилем не выше вероятности умереть от внезапного кирпича на голову» и тому подобное).ИМХО, самое сложное что есть для автопилотов — это как раз поведение человека, как пешеходов так и за рулем. Самое простое — ехать в полосе, даже с точки А в точку Б. А вот резкие маневры людей — это сложно, особенно, когда нарушаются ПДД. Но в итоге, через определенное время, если не закроют эти автопилоты — то количество ДТП упадет кратно, да и скорость передвижения значительно вырастет, без прямого участия человека в этом процессе.
Машине как раз не хватает вычислительных мощностей для того
и машины считывая этот код, уже «знает», что это велосипедист, а не непонятный «квадрат», как у многих если не всех «автопилотов»
Данных в первую очередь не хватает, данных. И главное, новых способов их представления.Я бы сказал не данных, а методов их получения и обработки.
Это будет практично на этапе полного господства робомобилей, но едва ли раньше. А до этого этапа еще жить да жить, очень много времени пройдет, даже если индустрия будет развиваться нормально.Это будет очень практично уже «сейчас», когда роботы не совершенны и идет этап их адаптаций. А то, что китайцы позволили эту технологию развивать, то решения по воду внедрения подобного в Поднебесной в ближайшее время — очень даже реально. Партия сказала одеть накидки — значит наденут, ибо штрафы и запреты на поездки по дорогам на велике. А в других странах, граждане, которые будут против того, чтоб их сбивали автомобили — будут сами покупать, без обязаловки. Лично я, уже б давно ездил на работу, в летнее время на велике. По скорости, было бы на втором месте после автомобиля. Но, много проблем с инфраструктурой, но это ладно, но большее всего меня напрягают моменты, когда тебя могут сбить. Коллега по работе ездит почти каждый день, так может каждый раз рассказать 2-3 истории как его чуть не задавили. В этом случае, накидки с Кью Ар кодами на спине — чуть ли не маст хэв в районах с робомобилями. Можно очень быстро стандартизировать и внедрить. Это костыль, но данный момент — чем не вариант. Это даже лучше, чем коды на знаках.
Некоторые недавние опыты показали, что несколько чёрных наклеек, закрывающих знак «стоп», могут обмануть алгоритмЭтим опытам больше лет, чем AlphaGo, некорректно распространять все ошибки старых алгоритмов на новые.
Они неправильно воспринимают такие проблемы, как иммиграция и права меньшинств. Ещё немного, и алгоритмы начнут относиться к людям так же нечестно, как люди относятся друг к другу. Но алгоритмы по сути своей слишком уверены в своей непогрешимости.По-моему, в своей непогрешмости уверены люди, которые игнорируя мнение большинства навязывают всем «правильную» позицию. Возможно современные нейросети пока не не умеют в двоемыслие, но для решения прикладных задач вроде навигации это и не нужно.
все эти проблемы может решить программист, имеющий доступ к исходному коду программы, при помощи которого был написан алгоритм.
Такие алгоритмы, как AlphaGo, работают совершенно по-другому. Их проблемы очень сложно увидеть, просто разглядывая программный код. Они связаны с внутренним представлением информации.
Применительно к программным продуктам это называется "баги".
А между тем сам автор исходной статьи абсолютно уверен в своей правоте насчёт того, что психика людей АБСОЛЮТНО не зависит от их генетики, места рождения, пола и т. д. Конечно, 90% стереотипов это стереотипы, но...
У большинства психологических расстройств не существует биомаркеров, точно так же, как в коде AlphaGo отсутствуют баги. Проблемы в нашем «оборудовании» не видно. Она в нашем «программном обеспечении»
Нет ли у моего алгоритма проблем с психикой?