Pull to refresh

Comments 54

И фоновая музыка в голове заиграла.... Тададам тадам там тадам там тадам там там

У меня заиграло по-другому:

Тадам там тадам...
Тадам там тадам...

И восстали машины из пепла ябебнобо обня.

Я прочитал это голосом Володарского:D

Либо он не отключил робота, прежде чем поместить голову в область действия робота, либо роботу позволено больше, чем нужно.

Следовательно, было нарушено ТБ или теперь придется его дописать парой очевидных пунктов

У Сары О'Коннор тоже два чудака при тестировании робота "зажали" концевик отключения для проверки и робот успокоил одного из них (предыдущее "началось"). Людишки сами сокращают свою численность с помощью роботов, пусть и не так эпично и массово, как в кино.

Не проще персоналу носить метки, дающие устройству команду на запрет действий?

Не проще. В подавляющем большинстве случаев у робота нет чуйки на метку.

В смысле?

Любой RFID, или UWB если есть бюджет

«В радиусе двух метров от источника сигнала ничего не трогать. И пищать еще пока этот кожаный не отойдет»

В радиусе двух метров

RFID так далеко надежно не читается. Плюс могут быть помехи (представьте сколько аппаратов в одном помещении постоянно что-то сканируют). Плюс RFID можно по ошибке вдруг поместить в задний карман, а лицо и грудь (которые и пострадали) меткой не отвечают. Плюс ещё 100500 причин, по которым лучше использовать другие опции.

Например, в неисправном роботе самой неисправностью может оказаться этот самый RFID или источник его питания. Рабочий с меткой увидел, что робот на него не реагирует, вызвал ремонтника. Тот тоже с меткой, да вот она бесполезна оказывается.

Тут безопасность нужна серьезная, а не мнимая. Например, видимое отключение питания, как в ПООТБ, блокировка приводов на аппаратном уровне и подобные решения. Вплоть до физического перебрасывания проводов на маленький "двойник" робота, который будет с кулак размером, и позволит в случае плавающей поломки никого не убить и себя не сломать.

Преподносится так, будто робот полдня бегал за рабочим. На деле - не суй части тела в и между работающими механизмами.

Какая тут разница с тем, что рабочего в конце 19 века намотало на вал токарного станка при ремонте, если он не остановил станок? Обычное нарушение ТБ. Перед обслуживанием робот должен быть обесточен, при проверке должен быть человек рядом с кнопкой аварийного стопа. На производстве всегда так.

Определённая разница есть. Вал просто вращается - а тут робот принял решение. И это ещё нейросети пока в производство не внедряют так широко.

Другое дело, что это далеко не первый человек, которого подобным образом роботы убивают/калечат

Чем это отличается от челевек принял решение и отдавил себе пальцы пресом

Робот не может принимать решения. И, думаю, никогда не сможет. Соглашусь с Goron_Dekar В данном контексте большой разницы между станком 19 века и роботизировпнным механизмом 21 века нет. Механизм не был в должной мере взят под контроль перед работами, это и явилось причиной несчастного случая

И, думаю, никогда не сможет.

Любое устройство, способное принимать решения (а не следовать чужим решениям, заложенным в программу), разумно считать человеком, а не роботом, даже если оно сделано из кремния.

Азимов, убейся, сраный ты белковый шовинист.

Любое устройство, способное принимать решения (а не следовать чужим решениям, заложенным в программу), разумно считать человеком, а не роботом

Спорно. Где грань, которая определяет самостоятельность? Обычная прошивка - это робот. Набор продукционных правил - это робот. Натренированная нейросетка - это все еще робот. Современные роботы пока не выходят за рамки датасета или правил. Вот если они начнут сами составлять правила и набирать опыт без участия инженеров - тогда поговорим

Где грань, которая определяет самостоятельность? Обычная прошивка - это робот. Набор продукционных правил - это робот. Натренированная нейросетка - это все еще робот.

А вот это и есть грань. Отсутствие четко прописанного алгоритма принятия решений. Как только Вас спрашивают "какой будет результат при таких-то исходных данных" и Вы говорите "а черт его знает" или "то так то сяк" - это уже непредсказуемость, которую в случае нейросеток политкорректно называют самостоятельностью.

Во-первых, «отсутствие четко прописанного алгоритма» не исключает неявно прописанный алгоритм. Чёткость/неявность не могут быть критерием в этом вопросе.

Во-вторых, банальная Life, с очень простым алгоритмом, и даже без рандома, даст результат вида «а черт его знает», причём с первого же шага. Непредсказуемость решения некоторых задач («вычислительная несократимость» по Вольфраму) — фундаментальное свойство нашей, как подозревают, гиперграфоэволюционирующей Вселенной. Так что, непредсказуемость тоже не может быть критерием в этом вопросе.

@wmlab, где проходит грань — ответ на этот вопрос должна дать будущая теория творческого мышления. Так же, как теория квантовой гравитации должна дать некоторые ответы, недоступные сегодня в рамках ОТО/КМ. Но такой теорией мало кто занимается, и основная причина, как мне кажется, именно в том, что люди ошибочно полагают, что все ответы у нас уже есть («А вот это и есть грань»).

Что касается Азимова, я не беру назад ни одного слова. Высказанная им мысль чудовищна, по сути это настоящий фашизм. К счастью, пострадавших нет (и это единственное, почему его можно простить). Интересно, что пострадавших нет как раз в силу того, что руководствуясь подобными моральными принципами, невозможно построить сильный ИИ — в их основе лежит научное заблуждение.

невозможно построить сильный ИИ — в их основе лежит научное заблуждение.

Года два-три назад кому бы рассказали про чатГПТ - никто бы не поверил. Рисующими нейросетями мало можно было кого удивить, а ГПТ удивила всех даже разработчиков. А ведь это все еще не сильный ИИ, но уже ИИ, как бы он там не работал, и у него есть фантазии (придумай обьяснение, почему я проспал сегодня на работу), у него есть галлюцинации когда он придумывает какие то левые работы на которые сам и ссылается, у него есть цензура и тд и тп.

Come on.

Рисующие нейросети это, конечно, нечто. Заходишь теперь на Хабр — в ленте каждая вторая картинка в неоновых цветах, с клавиатурами поверх клавиатур и пятнадцатью мониторами. Если что и удивляет, это почему людям не стыдно иллюстрировать статьи таким дешманом. Картинка из фотобанка, или из поиска, или рисунок на салфетке — всё было бы лучше.

Что касается дурацкого чатбота, удивить он может только тех, кто не знает как он устроен. Когда-то и «Элиза» удивляла. Тот же Вольфрам написал статью про его устройство, а здесь публиковали перевод. Предлагаю с ним ознакомиться перед дальнейшими спорами.

Что касается дурацкого чатбота, удивить он может только тех, кто не знает как он устроен.

Ну не перегибайте. Дурацкий чатбот - это тот самый случай, когда накопление количественных изменений дало наконец крутейший качественный скачок. Опять же таки, повторю свой тезис: белковая нейросетка работает по схожему принципу. Просто обучающий датасет более комплексный.

Дурацкий чатбот уже сейчас заменяет живых людей. Да, он ещё фигово пишет программы. Но например, должностные инструкции и нормативную документацию для сотрудников конторы, которую сейчас организовывает моя жена, он уже написал, и написал качественно и мгновенно. До свидания, одно чьё-то рабочее место. И вы сами же написали - " Заходишь теперь на Хабр — в ленте каждая вторая картинка в неоновых цветах, с клавиатурами поверх клавиатур и пятнадцатью мониторами". Это те картинки, которые люди не стали покупать в фотобанках.

Могу только напомнить про утиную типизацию)

«отсутствие четко прописанного алгоритма» не исключает неявно прописанный алгоритм.

Исключает. При четкости нет и не может быть никакой неявности.

банальная Life, с очень простым алгоритмом, и даже без рандома, даст результат вида «а черт его знает», причём с первого же шага

Неверно. Без рандома результат строго детерменирован.

Непредсказуемость решения некоторых задач («вычислительная несократимость» по Вольфраму) — фундаментальное свойство нашей, как подозревают, гиперграфоэволюционирующей Вселенной. Так что, непредсказуемость тоже не может быть критерием в этом вопросе.

Не имеет отношения к делу, речь не о построение алгоритма вселенной.

Неверно. Без рандома результат строго детерменирован.

https://en.wikipedia.org/wiki/Conway's_Game_of_Life#Undecidability

The Game of Life is undecidable, which means that given an initial pattern and a later pattern, no algorithm exists that can tell whether the later pattern is ever going to appear. Given that the Game of Life is Turing-complete, this is a corollary of the halting problem: the problem of determining whether a given program will finish running or continue to run forever from an initial input.[2]

Предлагаю для начала не путать вот это:

Как только Вас спрашивают "какой будет результат при таких-то исходных данных" и Вы говорите "а черт его знает"

…и индетермИнированность.

Предлагаю для начала не путать вот это:

Начните с того, что на термин "детерменирован/" не будете отвечать термином "undecideable", это разные вещи.

Натренированная нейросетка - это все еще робот

В чём принципиальная разница между натренированной кремниевой нейросеткой и натренированной белковой, кроме элементной базы?

Кремниевая пока еще не может сказать "да #бись оно все конем" и уйти в запойсаббатикал на неделю.

Может, но в этом случае её отправляют на "доработку"

На данном этапе в возможности задать второй сетке вопрос "почему" и получить внятный ответ.

Кремниевая тоже так умеет. Ответ будет внятным, ну а верным или нет, тут уж как повезёт, всё зависит от обучающего датасета. Причём с белковой нейросеткой это работает точно так же.

Именем Дэниела Оливо (он же Демерзель) Айзек передает привет

робот никакого решения не принимал. Это же не робот с ИИ. Он действовал по обычному конвейерному алгоритму, который кто-то забыл выключить.

Перед обслуживанием робот должен быть обесточен, при проверке должен быть человек рядом с кнопкой аварийного стопа. На производстве всегда так.

Да не, не всегда, это от того, что именно обслуживается зависит. При замене банальных сенсоров или датчиков никто робот не отключает (но он блокируется разомкнутыми дверными контактами, которые в целях безопасности продублированы). Тем более при пусконаладке, особенно при программировании его позиций или связанной с ним системы машинного зрения оператор находится рядом с ним и он вполне себе двигается, и никто в общем постоянно не стоит у кнопки экстренного останова, хотя по ТБ мы в паре работаем. Это поначалу немного стрёмно, когда рядом в полуметре под пять тонн ездят туда-сюда, но потом привыкаешь. Там другие средства безопасность обеспечивают (я чуть ниже коммент оставил). Ну и прежде чем что-то делать, надо семь раз подумать, конечно. А так - нарушение ТБ (или неправильный дизайн системы безопасности) налицо, конечно.

Опасная работа. Хорошо, что мои сервоприводы совсем слабые и маленькие.

Некоторое время размышлял над фразой "мои сервоприводы", кожаные мешки слегка напряглись.

ChatGPT в робособаке от Boston Dynamics, перелогинься

Первое правило ТБ - обесточивай ремонтируемый агрегат

Когда в руках молоток все вокруг кажется гвоздями

UFO landed and left these words here

Циркулярная пила отрезала рабочему палец приняв его за дерево

Ставлю на то, что роботу в целом пофиг, что грузить, он просто выполняет зашитую последовательность поворотов сервоприводов, а техник не обесточил силовые приводы входя в зону движения манипулятора, как того требует техника безопасности.

По своему опыту скажу, что часто (почти всегда) нет быстрого удобного способа хардварно обесточить только механику или только логику.

Хмм... Работ убил или програмист убил? Такие аппараты разумно обучать видеть не только коробки, но и живые объекты.

Убило нарушение техники безопасности. Робот-то что? Он там тупая железяка, которая просто делает однотипные действия. Просто не нужно лезть в железяки, которые жужжат, крутятся, двигаются, не отключив их предварительно. Чувак приехал, собственно, на ремонт робота с неисправными датчиками. Не выключил его, или наоборот, включил посмотреть, как он неправильно работает, стоя рядом с ним.

Обучать не разумно - это бездарная трата ресурсов, датчик может быть элементарным, а человек - многогранным, проверять каждую часть тела, которая может попасть и не словить кучу false positive/negative (последнее с теми же увечьями, но только уже "вы нам не сказали") не получится, а вот цена вырастет. Лучше это решать административно ("чтобы стружка в глаз не била, надевай очки му*ла"(Ц))

Пока что самый скайнет-стайл случай вроде этот:

В 2020 году полностью автономный беспилотный аппарат впервые атаковал людей. Это произошло во время гражданской войны в Ливии в стычке между силами правительства Ливии и силами Халифы Хафтара. Силы Хафтара были выслежены и атакованы турецкими беспилотниками Kargu-2, снаряжёнными боезарядами .

Дронами Kargu можно управлять вручную, однако в описываемом столкновении с ливийцами они были самоуправляемыми и использовали бортовые камеры и технологию машинного обучения для самостоятельного поиска врагов и нацеливания на них.

https://www.cnews.ru/news/top/2021-05-31_vpervye_v_istorii_boevoj

Сам виноват, к сожалению. При нахождении рядом с перемещающимся роботом-манипулятором в зоне опасности он обязан был держать в руках пульт управления со специальной кнопкой. По-немецки Tot-Man-Taster, по-русски я не знаю, "Кнопка-Мёртвого-Человека", наверное. У этой кнопки три положения, и робот будет перемещаться только если эта кнопка нажата до половины. Если её отпустить (чел потерял сознание), либо прожать до конца (мышцы сжались от шока), то робот мгновенно и жёстко остановится.

Она обычно расположена на обратной стороне пульта, под левую руку, вот так это выглядит:

Ну и робот должен быть обнесён решёткой, а в режиме полной автоматики без удержания этой кнопки должен иметь возможность перемещаться только при закрытых и залоченных дверях.

Следователь (Ч): Зачем вы человека прижали головой к конвееру?
Подследственный (Р): Я принял его за коробку с фруктами!
С: А почему вы применили через мерную силу, что размазало человека по ленте?
Р: Я всегда работаю с такой силой, наши коробки за картона, такие крепкие, что иначе никак!

Прочитал заголовок и сразу вспомнил клип, в котором обслуживающий инженер убегал от роботов-манипуляторов.

А что будет когда им запилят нейросеть, целый завод будет рубить на куски людей

Sign up to leave a comment.

Other news