Comments 113
Но, сам факт того что человек смог противостоять данной системе говорит о многом. Плюс датчики не дешевые, а вычислительная мощь не бесплатна, и чем сложнее система, тем выше вероятность отказа, больше задержки, ниже эффективность. Поэтому не все так однозначно
Экономия на датчиках? Ну так себе аргумент. Может тогда вернём штурмана с дешёвой деревянной НЛ-10? Заодно человеческий контроль как раз.
Доведение до абсурда — вот это так себе аргумент. А при разработке сложного продукта необходимо оптимизировать много противоречащих друг другу параметров, достигая компромисса между безопасностью, надёжностью, удобством, стоимостью, качеством и др. Поэтому да, не всё так однозначно. Правильных или неправильных решений тут нет, есть лишь решения которые летают и которые не летают.
То что сделала Boeing из своего старого 737 напоминает попытку поставить современный корабельный дизельный двигатель с гребными винтами на парусник начала XIX века. С закономерным результатом.
И еще момент. Создали вы систему, испытали её со стопроцентной пложительной надежностью, и… начали сертифицировать для каждого типа и класса. Вообщем очень дорого. Пусть пока вояки погоняют, им это экономически выгоднее )
Но, если данными объективного контроля не будет подтверждена угроза посадке, то уровень доверия к пилоту упадёт — с соответствующими последствиями.
Гражданская авиация существует для получения прибыли, и, как это ни грубо звучит, пилота, забесплатно накручивающего круги, долго держать не будут.
То есть — да, наказывают.
ГА зарегулирована в край именно по причине катастроф, когда коммерческие или иные цели ставили выше безопасности.
И как данные объективного контроля покажут, что пилоту показалось невозможным совершить успешную посадку?Метеоусловия, техническое состояние.
Один раз — нормально, два терпимо, а потом всё же будут разборы, не означает ли это банально низкой квалификации или психологических проблем.
Метеоусловия, техническое состояние.
И кто будет оценивать ситуацию по этим данным?
Подразумевая, что последствий, требующих внешних расследований не было — оценивать будут соответствующие подразделения компании.
Чтобы не затевать занудливое перебрасывание комментариями — напоминаю и предлагаю придерживаться исходной постановки: пилот ушёл на второй круг, потому что ему что-то показалось, без отсылок на приборные данные.
За попытку вести самолёт по жопомеру — при обучении жестоко наказывают.
При каком обучении? Для VFR нужно минимум приборов. И там именно пятая точка помогает «ловить» смещения при заходе.
Но да — не быстро, гражданская авиация достигла такого уровня безопасности, что менять что-либо крайне сложно. К примеру, доказано, что для эффективного обучения системы подвижности в тренажерах бесполезны — но никто же не поставит подпись под договором на тренажер без системы подвижности.
При всём при том у меня нет ни малейшего желания топтаться по мозолям — потому давайте останемся каждый при своём, и закроем эту ветку.
К примеру, доказано, что для эффективного обучения системы подвижности в тренажерах бесполезны
Вот этот момент меня всегда смущал. Если пилот при обучении сидит как «вкопанный» и его вестибюлярный аппарат не реагирует на манипуляции с самолетом. Но когда в реальном полете его вестибюлярный аппарат начинает выдавать алярмы и пилот не знает как на это среагировать — нормальное это поведение или нет. Разве это не ухудшает обучение?
Помешать пилоту работать можно самыми разными способами, куда более дешёвыми, чем система подвижности (тренажер становится дороже в разы) — а влияние на обучение то же.
А зачем разбирать конкретную посадку? Взять за год % посадок, выполненных с повторным заходом и тех, кто выделяется из выборки уже отправлять на доп. тренировки или наказывать.
Чуйка жопой — это по сути акселерометр, тут нет особой сложности. А сложность в надёжности. Техника часто выходит из строя, а вот пилоты гражданской авиации ещё никогда в истории не умирали в полёте, до разрушения самолёта. И в сертификации. Авиационное ПО рассматривается как конечный автомат и тестируется в каждом воможном состоянии. А т.к. разнообразные системы компьютерного зрения и прочие псевдо — ИИ представляют собой "чёрный ящик" — то сертифицировать его будут чуть дольше, чем вечность.
PS. И субьективное — я свою жизнь программе не доверю в наше время аутсорса. Привет разрабам MCAS, ага.
Проблема не только в пинге, а в том как доставить пилоту весь спектр ощущений и информации. Да и когда дело доходит до критической (смена автопилота на пилота) последнему нужно будет время на восприятие информации по ситуации, вхождение в стрессовый режим.
Не думаю, что это нормальный путь.
В начале дроны амазона начнут летать — люди к ним привыкнут. Потом грузовые самолёты, причём достаточно долго — с участием, а потом под присмотром человека. Подготовят необходимую инфраструктуру для диспетчеров. По взаимодействиям самолёт-самолёт, самолёт-диспетчерская тоже много вопросов. Как будет работать когда в самолёте ИИ, а на земле — человек? Как будет работать когда и на земле и в воздухе — ИИ. Нужна ли автономия и могут ли в каких-то ситуациях самолёты и диспетчер не договориться и у кого приказ приоритетнее? Лет на десять это всё затянется, наверное.
А военным хочется прямо здесь и сейчас, т.к перспективы просто невероятные. Слишком очевидно преимущество.
Такой ИИ не будет игнорировать системы предупреждения, не будет пропускать пункты предполетной подготовки, не перепутает фунты и литры.
Еще эта система не сможет принимать решения, с чем успешно справляется человек. Взлет, посадка, полет по маршруту — все это легко автоматизировать. Создать систему, способную принимать правильные решения, особенно в нестандартных ситуациях, намного сложнее.
Помимо этого вся инфраструктура управления воздушным движением должна быть усовершенствована для того чтобы безопасно сочетать все виды трафика, что отнюдь нетривиальная задача.
Всё, что мешает автоматизировать полеты — луддизм.
У вас есть достаточный опыт и знания для подобных заявлений?
Доработать автопилот боинга до такого же уровня — и пилоты будут не нужны
ИМХО лично я не сел бы в самолет с пилотом ИИ, пока не будет разработан настоящий ИИ, а не натренированные нейронки. Особенно когда компании типа боинг отдают разработку софта в Индию по дешевке.
Боинги могут садиться на автопилоте, взлетать на автопилоте и лететь на автопилоте. Всё это вместе образует весь цикл полета.
Ничего личного, но по этой фразе можно сделать вывод, что в теме вы не разбираетесь.
Начнем с того что режима автоматического взлета у самолетов Boeing нет. Данная система в настоящее время тестируется Airbus, первый тест состоялся в начале этого года.
В цикл полета помимо этого входит еще много чего, основным все равно остается принятие решений.
Доработать автопилот боинга до такого же уровня — и пилоты будут не нужны.
Количество различных систем в автомобиле значительно меньше чем в самолете, в случае их отказа автомобиль может просто остановиться на обочине. В самолете все немного сложнее.
Поинтересуйтесь объемом и содержанием QRH любого самолета транспортной категории и попытайтесь ответить на вопрос какие требования будут предъявляться к автономной системе, способной к принятию решений в нестандартных ситуациях и в случае отказов.
Электронный диспетчер не пошлет самолеты лоб-в-лоб.
Еще электронный диспетчер не увидит легкий самолет без транспондера, не увидит реальную погоду, а только картинку на радаре, о чем его бы предупредил живой пилот, и еще много чего. Создание автономной системы управления воздушным движением ничуть не проще создания автономных пассажирских самолетов.
Электронный пилот не впустит в кабину пьяного пассажира.
Живые пилоты впускали пьяных пассажиров в кабину? Трезвых тоже впускали? Можно подробнее об этом?
В статистике, методы получения цифр могут быть важнее самих цифр. Я бы не был так уверен насчёт безопасности автопилота Теслы. Вспомним недавнюю статью: https://habr.com/ru/company/itelma/blog/515276/
электромобили Tesla с установленной системой автономного управления были задействованы в 0,8 аварии на миллион миль по сравнению с 1,3 аварии на миллион автомобилей, у которых не было автопилота
Снижение количества аварий не означает уменьшение жертв, они могут и вырасти. И совсем не обязательно, что для такого снижения нужен автопилот, возможно, будет достаточно и обычного превентивного торможения. Наконец, «автомобиль без автопилота» слишком абстрактное понятие. Что под этим подразумевается? Тесла доавтопилотных времен или просто «средний» автомобиль, среди которых есть и 50-летние ископаемые?
Электронный диспетчер не пошлет самолеты лоб-в-лоб
А электронный водитель не попытается проехать сквозь грузовик или перестроиться в бетонный разделитель. Oh, wait…
Боинги могут садиться на автопилоте, взлетать на автопилоте и лететь на автопилоте. Всё это вместе образует весь цикл полета.
А ещё их ПО умеет разбивать абсолютно исправные лайнеры из-за замёрзшего датчика. Отбросим все спекуляции про жадный боинг, сделавший резервирующую трубку Пито платной опцией — пилот на ручном управлении ни за что бы не стал тупо перекладывать стабилизатор просто из-за того, что прибор завис.
Автопилот теслы уже спасает жизни на дорогах
И бывает, что на полном ходу въезжает в грузовик, стоящий поперёк дороги.
А зачем их дальше усложнять? Что самолёт будущего должен делать такого (в плане степеней свободы в управлении), чего не может современный?
Выход известен, нужно автоматизировать промежуточные состояния, и выдавать человеку ограниченное число параметров с ограничением по скорости реакции.
Но в этом случае область, где человек может проявлять чудо-возможности предвидения, резко сужается. И чем дальше — тем больше.
А ведь двигатель — далеко не самая сложная техническая система.
Из этого происходит проблема уже «гуманитарного» плана. Вероятность ошибок оператора становится гораздо выше, чем вероятность технического отказа. В той же авиации в подавляющем большинстве случае именно вина пилота служит причиной аварий и катастроф. Повышение оплаты как компенсация ответственности работает довольно плохо, любой человек считает себя достойным самой высокой оплаты за факт того, что он такой умный и хороший. Результат — ответственность растёт, а мотивация оператора падает.
С другой стороны — не увеличиваем уровень автоматизации с ростом сложности — оператор захлёбывается, устаёт, ошибается, не успевает. Автоматизируем — падает уровень понимания процессов, расслабленный оператор не успевает сконцентрироваться на быстром решении проблемы.
Я на эти темы много могу писать :-) Мы, к примеру, планируем ввести в тренировочный процесс звонки от начальства. Бессодержательные, но и не ответить нельзя. И в это время — ба-бах!
Эффективность тренировок растёт
И уж во всяком случае безопасность (как и прочие параметры) выросла не за счёт того, что операторы (в данном случае пилоты) стали умнее или подготовленнее. Отбор по психофизиологическим параметрам был строже (пилотов было меньше, отбор шёл в том числе отпугиванием — опасно), разрыв между степенью понимания пилотом и сложностью управляемой техники был меньше.
Никто же не учитывает, сколько катастроф, в результате отказа автопилота и техники вообще, благодаря человеку в кабине НЕ ПРОИЗОШЛО. (ведь такие случаи не принято афишировать)
И да, сейчас 9 случаев из 10 происходят по вине человека.
Ну так замена человека автопилотом ситуацию изменит: 10 случаев из 10 будет происходить по вине техники (включая и ИИ)
Каждый раз, когда будет происходить что-то новое, неучтенное в программе ИИ, а так же недосимулированное — будет происходить катастрофа (Это ещё не рассматриваются разнообразные отказы техники). Да, потом разберутся, выяснят, дополнят, досимулируют, и когда-нибудь допилят. Но Вам, как пассажиру того разбившегося самолёта, будет от этого ничуть не легче.
Первые полностью автономные полёты именно на таких системах уже выполнены. Но, безусловно, нужны долгие годы сертификации, проверок и так далее. То есть в эксплуатации нет, и в ближайший десяток лет не будет. Но технически такие системы уже есть, это очевидно.
Плюс ко всему, на это всё накладывается отпечаток победы эффективного менеджера над разумом (см. пример боинг 737 МАКС).
Конечно, ИИ научится работать и с поломанным датчиком. Но только после катастрофы.
Конечно, ИИ научится работать и с поломанным датчиком. Но только после катастрофы.
Пилоты разбившихся 737 MAX вообще-то тоже не смогли справиться с поломанным датчиком. Неразбившиеся пилоты вовремя выполнили пункты инструкции из quick reference handbook для ситуации "Airspeed unreliable".
Система управления предназначенная для замены пилота, естественно, будет обкатана на ситуациях из quick reference handbook.
И фишка в том, что другие катастрофы НЕ СЛУЧИЛИСЬ как раз по причине действий пилотов. и таких случаев было много.
Проблема в том, что так как это архитектурный просчет, то для его исправления требуется много-много денег. и только катастрофа заставит эффективных манагеров сделать это.
Анализ ситуации от пилота 737MAX: https://youtu.be/hYTm_d4pbHQ. Видео длинное, но посмотреть стоит.
другие катастрофы НЕ СЛУЧИЛИСЬ как раз по причине действий пилотов. и таких случаев было много.
Да, потому что пилот рассматривается как часть системы управления самолётом, и должен распознавать ситуации и выполнять процедуры, описанные в QRH и других документах. Неописанными в инструкциях ситуациями занимаются в основном лётчики испытатели, требования к которым намного выше, чем к гражданским пилотам.
Конечно, ИИ научится работать и с поломанным датчиком. Но только после катастрофы.
Вот только беда, что для текущего «классического» ИИ нужно очень много данных для обучения.
Собирать датасеты по катастрофом для обучения — слишком хлопотно :)
Роботы для военной авиации, это, конечно, ново, но почему бы не создать ИИ, который будет «водить» гражданские лайнеры?Соотношение выгода/риск другое.
Военный автопилот за счет скорости реакции и более высоких перегрузок получает значительное преимущество над человеком. В гражданской авиации нет тех скоростей ни тех перегрузок, что бы получить значительное преимущество от автопилота.
Военный автопилот даже если сделает что-то не так, то нет риска что кому-то за это придется отвечать, в отличии от гражданского автопилота. Сша вон сбили гражданский самолет в 88 году — так даже не извинились, официальная позиция «да, ошибочка вышла»
Однако посадка и полет на полном автомате даже на гражданке уже есть, так что потихоньку оно туда идет. Но военные это как порно — если бы не они, прогресса бы не было:) Поэтому понятно, что начинается все с них.
Не извенились, но деньги выплатили и все вопросы с Ираном полностью урегулировали и тот снял все притензии
То что Вы говорите что они урегулировали всё с Ираном — звучит как будто Иран согласился с позицией сша о их невиновности и о своей виновности.
Но на самом деле было просто подписано мировое соглашение, стороны отказались от разбирательства в официаьлных органаз, но мнение сторон не изменилось. Иран так и считает что сша сбили самолет преднамеренно, сша так и считает что ни в чем не виновато.
Так что разница между гражданским и военных подходом очень даже есть. Военные могут себе позволить ошибки, их крышует государство; гражданские ошибок себе позволить не могут, государство за них может и само прижать.
Так США так же считает что намерено сбили самолёт.
Отличие только что США считают что самолёт не отвечал на запросы корабля, а по мнению Ирана запросов не было.
Так США так же считает что намерено сбили самолёт.Они утверждают что это был «военный инциндент» по стечению обстоятельств, а не намеренное сбитие.
Отличие только что США считают что самолёт не отвечал на запросы корабля, а по мнению Ирана запросов не было.США не посылали соответствующих запросов. Они не использовали ИД самолета, указали неверную скорость, не слушали гражданский радиоэфир — это все должно было быть сделано при запросе.
Аналогия — Вы в шортах неспешно идете по улице, полицейские по рации на своей частоте сидя в машине говорят «бегущий человек в штанах остановитесь», а потом стреляют на поражение. И такие — «мы 3 раза в рацию сказали что бы он остановился»
Это даже если забыть что корабль находился в нейтральной зоне и в принципе не имел прав стрелять не убедившись в том, что на него идет а) атака б) военным самолетом (а не просто засомневаться в том что это летит гражданский).
Поэтому сошло это с рук только потому, что это военные. Все что могло иметь значение при разбирательстве — засекречено, рассекречивание — уголовка. Плюс государство страхует от претензий дополнительно.
Вчера читал, как высокотехнологичный Bluetooth замок взломали при помощи кувалды из строительного магазина
Многие хитрости работают только при партизанской войне, когда у противника цель — не уничтожить, а захватить. А так бывает только когда он уверен в своей безопасности (т.е., имеет преимущество). Если Израиль окажется в ситуации, когда наземные войска не справляются и уже чуть-чуть и ворвутся радикалы чтобы всех резать, грабить и насиловать — то Палестину просто зальют напалмом с воздуха и тут уже смекалочка не спасёт.
Я бы не был так уверен в цифре…
ЭМИ — это крайне дорогая и сложная штука. И ограничений применения у неё куча.
Десантнику доверят ту же лопату. Максимум фугас.
Это и надёжнее ЭМИ будет, и дешевле. Если десантник успеет добежать с фугасом до дрона — честь ему будет и хвала! Не добежит — значит не десантник.
Гораздо проще ИИ и гораздо дешевле. А если массовое производство то и еще дешевле и адаптация под десантника ждать себя не заставит. Цифра переоценивается как ответ на все и вся.
Но, если говорить о этапе уже клонирования выбранного решения ИИ, за границами разработки — это дешево. Схемотехника только дешевеет.
Чего не скажешь о ЭМИ-оружии.
Переоценивать цифру не стоит, но ЭМИ — тем более.
ЭМИ — это в основном оружие против гражданской инфраструктуры… которая не защищена от слова «совершенно».
Военная схемотехника, которая регламентируется и проверяется на воздействие последствий применения ЯО, смотрит на ЭМИ, которое сможет поднять и перенести десантник, как на… недоразумение.
Массового производства ЭМИ-боезапасов не существует (сейчас), и не планируется ни в одной стране мира именно потому, что это именно так.
И не проглядывается никакой адаптации ЭМИ под десантника. Если не считать, конечно, тех же игрушек против бытовых дронов.
И не проглядывается никакой адаптации ЭМИ под десантника. Если не считать, конечно, тех же игрушек против бытовых дронов.»
Это ИИ боевого не существует пока, а вот ЭМИ существует, но не развивается потому что… боевого ИИ не существует.
А вот помимо прочего другие виды РЭБ и существуют и развиваются.
Ну, ок. Пусть ждёт абстрактного ИИ (что бы под ним ни понимали… и где бы ни ставили признак готовности).
РЭБ развивается, но максимум, что он может — нарушать связь. В некоторых условиях применения. Причём именно то, что сложность военной схемотехники постоянно только растёт, демонстрирует то, что противодействия ему (именно «интеллектуализации» оружия)… не особо выходит. Ничего лучше физического уничтожения боевой единицы — нет по-прежнему.
Так что фугас, именно так!
Ну или сапёрная лопатка в руках десантника.
ЭМИ бомба полезна только если это — ядерная бомба, подорванная в космосе. Остальные варианты имеют крайне ограниченную зону поражения (любое ЭМ излучение угасает пропорционально кубу расстояния) против экранированой военной техники. Но, конечно, никакая авиация не поможет если пехота небоеспособна.
Россия увеличила инвестиции в развитие технологий ИИЭто так смешно читать, находясь внутри этой страшной и опасной России, откуда даже толковые студенты сваливают сразу после диплома.
Не хочу расписывать то, что современный недоИИ никак не сможет в ближайшие лет 30 при управлении боевым самолетом в реальной боевой обстановке и что является обязательным для любого пилота. Займет многие страницы текста.
Первые три пункта хотя бы распишите
Зато в будущем он может решить задачу уничтожения самолёта с живым пилотом, взломом системы пуска баллистических ракет и уничтожением среды существования противника, ведь н кто же не ограничивал набор способов :)
И даже искусственное ограничение способностей ИИ не всегда компенсирует данное преимущество (см. историю про сражение живых и неживых игроков в старкрафт)
Ну, как бы, в этом и смысл.
Если для того, чтобы уничтожить пилотируемый самолёт противника, достаточно уровня интеллекта насекомого, максимум птицы, помноженного на скорость реакции современной электроники, с меньшими габаритами истребителя и возможностью переносить большие нагрузки — прекрасно!
А с fair play, искусственными ограничениями ИИ в части реакции, загрубления точности исполнения, или возможностями одновременно принимать параллельные решения, пусть балуются в играх.
На поле реального боя есть только победитель и проигравший.
Военные США планируют провести реальный воздушный бой человека против ИИ уже в 2024 году