Comments 23
При большинстве вариантов нормальных условий робомобиль распознает знак «стоп». Но не все условия нормальны. Некоторые недавние опыты показали, что несколько чёрных наклеек, закрывающих знак «стоп», могут обмануть алгоритм, который решит, что это, на самом деле – знак ограничения скорости до 60 миль в час.Думаю, что для развития автопилотов, знаки будут дорабатываться, путем добавления QR кодов или что-то на подобии + постоянный обмен данными между ТС с геолокацией знаков на картах. Просто полагаться на сам знак — это крайне сложно для текущего ИИ, при постоянном движении ТС. Так что, думаю, те города, которые готовы к автопилоту, на законодательном уровне будут менять знаки. Но это мое виденье решения проблемы.
Проблема-то не в знаках. На отбойники или грузовики вы тоже QR-код предложите навестить? Вряд ли.
Вот чего не хватало недавно перееханной автомобилем Uber, оказывается! QR-кодом нужно было обклеиться.
Если ты считаешь, что правительство к тебе относиться как-то по другому, кроме как циферки на бумажке, то ты очень сильно ошибаешься, тогда почему компьютер, у которого в «голове» 1 и 0 должны к человеку относиться как-то по другому?
«Правительство» ко мне не относится. Правительство — это не живое мыслящее существо, чтоб к чему-то и кому-то относиться. Это всего лишь организация, и правила и принципы функционирования этой организации созданы людьми и вполне понятным для людей образом.
Классификационная нейронная сеть оперирует числами («весами» связей), сформированными в процессе обучения, которые во многом являются «вещью в себе» — попытки их толковать крайне сложны, еще более сложна любого рода их отладка. И никакого сходства с человеческим распознаванием объектов тут нет и еще даже в теории не предвидится (потому что мы не распознаём объекты исключительно на основе двухмерных изображений). Поэтому чем больше ты знаешь про специфику работы алгоритмов в автопилотах, тем страшнее выйти на дорогу перед робомобилем, особенно когда единственным препятствием для движения являешься как раз ты. Это почти как решать капчу, отказывающуюся считать вас человеком, только с гораздо более серьезными последствиями :-)
При этом я вполне допускаю, что «баги» классификации вполне возможно умять до такого состояния, когда они будут статистически малозаметны (и в ход пойдут аргументы «люди-водители убивают куда больше», «вероятность быть убитым робомобилем не выше вероятности умереть от внезапного кирпича на голову» и тому подобное).
Классификационная нейронная сеть оперирует числами («весами» связей), сформированными в процессе обучения, которые во многом являются «вещью в себе» — попытки их толковать крайне сложны, еще более сложна любого рода их отладка. И никакого сходства с человеческим распознаванием объектов тут нет и еще даже в теории не предвидится (потому что мы не распознаём объекты исключительно на основе двухмерных изображений). Поэтому чем больше ты знаешь про специфику работы алгоритмов в автопилотах, тем страшнее выйти на дорогу перед робомобилем, особенно когда единственным препятствием для движения являешься как раз ты. Это почти как решать капчу, отказывающуюся считать вас человеком, только с гораздо более серьезными последствиями :-)
При этом я вполне допускаю, что «баги» классификации вполне возможно умять до такого состояния, когда они будут статистически малозаметны (и в ход пойдут аргументы «люди-водители убивают куда больше», «вероятность быть убитым робомобилем не выше вероятности умереть от внезапного кирпича на голову» и тому подобное).
Классификационная нейронная сеть оперирует числами («весами» связей), сформированными в процессе обучения, которые во многом являются «вещью в себе» — попытки их толковать крайне сложны, еще более сложна любого рода их отладка. И никакого сходства с человеческим распознаванием объектов тут нет и еще даже в теории не предвидится (потому что мы не распознаём объекты исключительно на основе двухмерных изображений).Машине как раз не хватает вычислительных мощностей для того, чтоб воспринимать человека как человек, поэтому создаются модели людей, модели поведения, эти модели — очень упрощенные. И для текущих мощностей и органов восприятия нужно много алгоритмов, очень много. Ибо связь органов чувств и обработки данных в мозгу компьютера — очень слабая. Да, ИИ улучшаются, но еще нужно время.
Кью Ар коды на человеке — это как шутка, но было бы очень не плохо велосипедистам одевать какую-то накидку или на рюкзак стикер (10 на 10 см, например)… и машины считывая этот код, уже «знает», что это велосипедист, а не непонятный «квадрат», как у многих если не всех «автопилотов». В ПДД сказано, что велосипедист обязан одевать светоотражающую одежду, чтоб увеличить шанс быть замеченным водителем.
При этом я вполне допускаю, что «баги» классификации вполне возможно умять до такого состояния, когда они будут статистически малозаметны (и в ход пойдут аргументы «люди-водители убивают куда больше», «вероятность быть убитым робомобилем не выше вероятности умереть от внезапного кирпича на голову» и тому подобное).ИМХО, самое сложное что есть для автопилотов — это как раз поведение человека, как пешеходов так и за рулем. Самое простое — ехать в полосе, даже с точки А в точку Б. А вот резкие маневры людей — это сложно, особенно, когда нарушаются ПДД. Но в итоге, через определенное время, если не закроют эти автопилоты — то количество ДТП упадет кратно, да и скорость передвижения значительно вырастет, без прямого участия человека в этом процессе.
Машине как раз не хватает вычислительных мощностей для того
Данных в первую очередь не хватает, данных. И главное, новых способов их представления. Коэффициенты нейросеток — штука с кучей недостатков.
Наши мозги не то, чтоб прямо чемпионы по работоспособности, и говорить про то, что электронике нужны квинтиллионы операций в секунду просто для того, чтоб быть похожими — это наивно. Проблема тут не в быстродействии, а в несовершенстве данных в первую очередь и алгоритмов во вторую.
и машины считывая этот код, уже «знает», что это велосипедист, а не непонятный «квадрат», как у многих если не всех «автопилотов»
Это будет практично на этапе полного господства робомобилей, но едва ли раньше. А до этого этапа еще жить да жить, очень много времени пройдет, даже если индустрия будет развиваться нормально.
Данных в первую очередь не хватает, данных. И главное, новых способов их представления.Я бы сказал не данных, а методов их получения и обработки.
Это будет практично на этапе полного господства робомобилей, но едва ли раньше. А до этого этапа еще жить да жить, очень много времени пройдет, даже если индустрия будет развиваться нормально.Это будет очень практично уже «сейчас», когда роботы не совершенны и идет этап их адаптаций. А то, что китайцы позволили эту технологию развивать, то решения по воду внедрения подобного в Поднебесной в ближайшее время — очень даже реально. Партия сказала одеть накидки — значит наденут, ибо штрафы и запреты на поездки по дорогам на велике. А в других странах, граждане, которые будут против того, чтоб их сбивали автомобили — будут сами покупать, без обязаловки. Лично я, уже б давно ездил на работу, в летнее время на велике. По скорости, было бы на втором месте после автомобиля. Но, много проблем с инфраструктурой, но это ладно, но большее всего меня напрягают моменты, когда тебя могут сбить. Коллега по работе ездит почти каждый день, так может каждый раз рассказать 2-3 истории как его чуть не задавили. В этом случае, накидки с Кью Ар кодами на спине — чуть ли не маст хэв в районах с робомобилями. Можно очень быстро стандартизировать и внедрить. Это костыль, но данный момент — чем не вариант. Это даже лучше, чем коды на знаках.
Отбойники и грузовики — это что-то вообще мне не понятное, как в Тесле не могут просчитывать траекторию, которая будет пересекаться с чем-то недвижимым. Они хорошо «сканируют» трафик в движении, а вот то стоит — как-то очень слабо. Думаю, что они таки запихнут пару лидаров в передний бампер. Вчера/сегодня, Тесла опять заехала «в жопу» пожарке. Не знаю еще подробностей, на автопилоте это было или нет. Но 100 км без торможения, скорее всего что на автопилоте было. Крайне прискорбно.
Некоторые недавние опыты показали, что несколько чёрных наклеек, закрывающих знак «стоп», могут обмануть алгоритмЭтим опытам больше лет, чем AlphaGo, некорректно распространять все ошибки старых алгоритмов на новые.
Они неправильно воспринимают такие проблемы, как иммиграция и права меньшинств. Ещё немного, и алгоритмы начнут относиться к людям так же нечестно, как люди относятся друг к другу. Но алгоритмы по сути своей слишком уверены в своей непогрешимости.По-моему, в своей непогрешмости уверены люди, которые игнорируя мнение большинства навязывают всем «правильную» позицию. Возможно современные нейросети пока не не умеют в двоемыслие, но для решения прикладных задач вроде навигации это и не нужно.
Полагаю, что когда потребуются продвинутые боты для соц. сетей, НС научатся и двоемыслию, и троемыслию, и переобуваться на ходу, непрерывно это обосновывая. Может быть мы даже еще увидим бота-политика…
все эти проблемы может решить программист, имеющий доступ к исходному коду программы, при помощи которого был написан алгоритм.
Такие алгоритмы, как AlphaGo, работают совершенно по-другому. Их проблемы очень сложно увидеть, просто разглядывая программный код. Они связаны с внутренним представлением информации.
вот я Ян ЛеКун от том же: презентация (очень интересная, посмотрите — не пожалеете, и еще видео с докладом)
Но он так и остается «программистом», а не психологом — программирование таких систем у него называется — differentiable programming (в отличии от обычного).
Применительно к программным продуктам это называется "баги".
Напомнило Станислава Лема, «Рассказы о пилоте Пирксе», «Ананке». Там в целом сходная ситуация —
Спойлер для тех, кто читал или читать не собирается
паранойя у компьютера из-за особенностей характера человека, который «обучал» компьютер, как результат — крушение ракеты, управляемой этим компьютером
А между тем сам автор исходной статьи абсолютно уверен в своей правоте насчёт того, что психика людей АБСОЛЮТНО не зависит от их генетики, места рождения, пола и т. д. Конечно, 90% стереотипов это стереотипы, но...
Собственно, есть два утверждения:
1) Работа сознания сильно зависит от биохимии мозга, гормонов и т. д. В свою очередь всё это частично задано генетикой (что-то, конечно, меняется в течении жизни, но не всё).
2) На становление личности влияет окружение в детстве и подростковом возрасте.
Я не утверждаю, что личность на 100% определяется этими факторами, лишь что связь есть и она сильнее, чем статистическая погрешность. Если кто-то не сомневается в этих двух утверждениях, то это означает автоматическое согласие с тем, что личность человека зависит от таких объективных и измеряемых факторов как генетика (а в свою очередь от генетики также зависит пол, цвет глаз, волос, кожи и т. д.), так и место рождения и взросления (благополучие семьи штука более субъективная, но не совсем уж).
Проблема в том, что люди имеют свойство на каждую реальную закономерность придумывать 10 воображаемых. Отсюда рождаются стереотипы (например, «все блондинки глупые», «все чёрнокожие вырастают в бандитов» и т. д.), которые мешают людям жить. Человечество несколько раз обжигалось на этом (история человечества полна дискриминаций по различными стереотипам), поэтому сейчас официальная политкорректная точка зрения «личность не зависит от каких-либо измеримых факторов, все люди равны, мир, дружба, жвачка». Но и эта позиция не является абсолютно верной, поскольку абсолютно игнорирует ряд научных фактов.
Конечно, ИИ может перенять некоторые стереотипы у людей, его обучающих, а также спутать причины и следствия, но и некоторые настоящие закономерности он найти может. И мне жалко ИИ, который будут заставлять натягивать сову на глобус во имя политкорректности…
Впрочем, наука не стоит на месте. Когда смена пола, цвета кожи и т. д. будет так же доступна как перекраска волос в другой цвет, то ошибочные дискриминации потеряют былую угрозу и человечество постепенно забудет про некоторые табу.
1) Работа сознания сильно зависит от биохимии мозга, гормонов и т. д. В свою очередь всё это частично задано генетикой (что-то, конечно, меняется в течении жизни, но не всё).
2) На становление личности влияет окружение в детстве и подростковом возрасте.
Я не утверждаю, что личность на 100% определяется этими факторами, лишь что связь есть и она сильнее, чем статистическая погрешность. Если кто-то не сомневается в этих двух утверждениях, то это означает автоматическое согласие с тем, что личность человека зависит от таких объективных и измеряемых факторов как генетика (а в свою очередь от генетики также зависит пол, цвет глаз, волос, кожи и т. д.), так и место рождения и взросления (благополучие семьи штука более субъективная, но не совсем уж).
Проблема в том, что люди имеют свойство на каждую реальную закономерность придумывать 10 воображаемых. Отсюда рождаются стереотипы (например, «все блондинки глупые», «все чёрнокожие вырастают в бандитов» и т. д.), которые мешают людям жить. Человечество несколько раз обжигалось на этом (история человечества полна дискриминаций по различными стереотипам), поэтому сейчас официальная политкорректная точка зрения «личность не зависит от каких-либо измеримых факторов, все люди равны, мир, дружба, жвачка». Но и эта позиция не является абсолютно верной, поскольку абсолютно игнорирует ряд научных фактов.
Конечно, ИИ может перенять некоторые стереотипы у людей, его обучающих, а также спутать причины и следствия, но и некоторые настоящие закономерности он найти может. И мне жалко ИИ, который будут заставлять натягивать сову на глобус во имя политкорректности…
Впрочем, наука не стоит на месте. Когда смена пола, цвета кожи и т. д. будет так же доступна как перекраска волос в другой цвет, то ошибочные дискриминации потеряют былую угрозу и человечество постепенно забудет про некоторые табу.
У большинства психологических расстройств не существует биомаркеров, точно так же, как в коде AlphaGo отсутствуют баги. Проблемы в нашем «оборудовании» не видно. Она в нашем «программном обеспечении»
У большинства психических расстройств существует фармакологическое лечение. В большинстве случаев это значит что существует совершенно конкретный биологический механизм, отвечающий за дисфункцию. — Обычно это расстройство одной из нейромедиаторных систем.
Является ли нейромедиаторная система «программным обеспечением» или «оборудованием» — это вопрос вкуса. По сути — это тонкая настройка работы нейронов, раскиданных по всему мозгу, слабо объединенных топологически.
Смысл нейромедиаторов в том, чтобы формировать и модулировать характер и настроение животного. И происходит это все благодаря химическому синапсу, которого у нейросети нет.
Впрочем, если говорить не столько о психических проблемах, сколько о когнитивных искажениях и оптических обманах, то сравнение автора получается уже не столь кривым.
Плоская шутка о плоской Земле)
Еще в школе вдолбили, что шарообразность Земли — ересь, форма Земли — эллипсоид (геоид).
Еще в школе вдолбили, что шарообразность Земли — ересь, форма Земли — эллипсоид (геоид).
Не знаю, как себя ощущают алгоритмы, а вот обратная картина реализуется. Я, например, когда активно разрабатывал, ощущал неправильно или не до конца реализованные функциональные требования в системе приблизительно как физические недостатки, грубо говоря, уродство.
Sign up to leave a comment.
Нет ли у моего алгоритма проблем с психикой?