Но есть и более важное соображение: ряд исследователей не отделяют микросаккады от саккад (макросаккад) в виду их общей природы. Наиболее интересная в этом отношении концепция автоматии саккад В.А.Филина www.videoecology.com/book2.html
Проблема в тексте сообщения:
1. Почему оно озаглавлено ОШИБКА? Пользователь же ни в чем не ошибся.
2. Что это за язык такой — цепочки… в корзине… отправленных...? Это для программистов, или людей?
Прекрасно! Тогда пилоты вообще не нужны, а надо делать беспилотники, как и считает Демин (см. мой большой отклик выше). Но если пилот на борту - тогда не надо делать его заложником автоматики и плюс взваливать всю отвественность за управление.
Повторяю, я не призываю изъять компьютеры из контура управления (см. отклик выше). Более того, я признаю, что какие-то функции управления должны быть автоматизированы, как, например, упомянутые Вами функции динамической стабилизации. Я против того, чтобы человек исключался из управления, а приоритет его решений был ниже, чем компьютера. Кстати, а Вы в курсе, что одним из достоинств МИГ-29 и СУ-27 являются различного вида полуавтоматические режимы?
А я и не предлагал бороться с автоматизацией. Вы как раз правильно написали, что "автоматику создает человек", поэтому вместо ошибок оператора будут ошибки (а точнее, ограничения) разработчиков, которые никогда не смогут учесть все возможные ситуации в сложных системах
Да, такие ситуации существуют, но все-таки это частность. Что делать в остальных ситуациях? Ну а на счет неизбежности всеобщей автоматизации, то это почти как "неизбежность коммунизма":)
Если серьезно, то позиции о всеобщности автоматизации придерживаются ОЧЕНЬ многие авторитетные специалисты, и я это знаю. Но даже среди них есть разногласия. Вот фрагмент одного интервью в "Известиях" по поводу создания самолета 5-го поколения.
И. Демин, главный конструктор «ОКБ Сухого»: в самолете 5-го поколения «роль пилота станет менее заметной. То есть компьютер будет решать, с какой скоростью и на каких режимах машина будет выходить на цель и в какой момент разрешить летчику применить оружие. Человек не сможет принять ни одного неправильного решения: компьютер попросту отключит его от управления и подскажет ему, в чем ошибка». Последовал закономерный вопрос, зачем же тогда пилот, если машина и без него все выполнит? Произнесенный с улыбкой ответ состоял в том, что это подход к 5-му поколению, а на самолетах 6-го поколения пилота точно не будет.
Интересно, что И. Демину возразил его коллега, разработчик бортового оборудования президент «Технокомплекса» Г. Джанджгава, который привел пример «когда во время одного из первых испытаний истребителя с высокоинтеллектуальным бортом компьютер посчитал, что самолет допустил слишком большой крен, способный привести к аварии, и самостоятельно... катапультировал пилота. Через секунду маневр был завершен, самолет выровнялся и, полетев еще некоторое время, упал... "При высокой интеллектуализации бортового оборудования мы все-таки должны оставить за человеком возможность действовать в бою на пределе технических возможностей самолета, оружия. Выполнить поставленную задачу иногда даже ценой собственной жизни. Решение на применение оружия и ответственность за последствия лежит только на человеке".
Очень важно, что последнее мнение как раз и принадлежит разработчику автоматики, который лучше, чем конструктор понимает ее ограничения.
Коллеги!
На правах автора статьи хотел бы сделать несколько общих замечаний.
1. Прежде всего, удивлен большим количеством откликов, мне казалось, что в данном блоге эта проблема мало кого заинтересует.
2. Нужно понимать ограничения жанра (популярная статья для экономистов) и ее малый объем, определенный редакцией HBR. Поэтому целью статьи было только обозначить проблему, а не изложить все ее особенности. Очень многие высказанные замечания явно выходят за рамки этих ограничений.
3. Безусловно, я не являюсь противником автоматизации, как некоторые ошибочно считают. Дело в том, что в статье речь идет не об автоматизации как таковой, а о тех коллизиях, которые возникают при столкновении с ней человека. Источник этих коллизий в том, что во всех системах управления на человека возлагается функция резервирования автоматики при ее отказах. И об этом почему то никто не упоминает. Так вот уже более 30 лет назад и не мной, а классиками инженерными психологами доказано, что для обеспечения надежного выполнение этой функции и нужен полуавтоматический режим, который обеспечивает активное включение человека в управление. Без этого он превращается в заложника автоматики.
Апологетам автоматизации могу предложить простое решение проблемы: убрать человека из контура управления вместе с пультами, кабиной и т.д. Только тогда ответственность за управление должны полностью взять на себя разработчики автоматики, а вот этого они как раз и не хотят.
4. Предлагаю перевести обсуждение проблемы на более высокий уровень. Для этого в качестве основы предлагаю свою старую статью в «Компьютерре» http://offline.computerra.ru/2001/389/80…
В ней более полно изложена моя позиция и приводится больше примеров.
Анатолий Костин
Человеческий фактор многомерен. Непредсказуемость автоматики как раз и определяется человеческим фактором, но не оператором, а разработчиками автоматики. Именно их стремление формализовать все возможные ситуации и обречена на провал
На самом-то деле вопрос другой: как самолет расположен относительно земли. И для того, чтобы ответить на него, летчику в первом случае (когда подвижен самолет) достаточно взглянуть на прибор, а во втором (когда подвижна земля, кстати, как и картинка за стеклом кабины, ему нужно выполнить дополнительную мысленную операцию по преобразованию систем координат, а на это нужно тратить дополнительное время, которого может и не быть
Но есть и более важное соображение: ряд исследователей не отделяют микросаккады от саккад (макросаккад) в виду их общей природы. Наиболее интересная в этом отношении концепция автоматии саккад В.А.Филина
www.videoecology.com/book2.html
На это основе им разрабатывается новое направление, называемое видеоэкологией
ru.wikipedia.org/wiki/%D0%92%D0%B8%D0%B4%D0%B5%D0%BE%D1%8D%D0%BA%D0%BE%D0%BB%D0%BE%D0%B3%D0%B8%D1%8F
Думаю, Вам будет интересно познакомиться с этой позицией.
1. Почему оно озаглавлено ОШИБКА? Пользователь же ни в чем не ошибся.
2. Что это за язык такой — цепочки… в корзине… отправленных...? Это для программистов, или людей?
выше.
Если серьезно, то позиции о всеобщности автоматизации придерживаются ОЧЕНЬ многие авторитетные специалисты, и я это знаю. Но даже среди них есть разногласия. Вот фрагмент одного интервью в "Известиях" по поводу создания самолета 5-го поколения.
И. Демин, главный конструктор «ОКБ Сухого»: в самолете 5-го поколения «роль пилота станет менее заметной. То есть компьютер будет решать, с какой скоростью и на каких режимах машина будет выходить на цель и в какой момент разрешить летчику применить оружие. Человек не сможет принять ни одного неправильного решения: компьютер попросту отключит его от управления и подскажет ему, в чем ошибка». Последовал закономерный вопрос, зачем же тогда пилот, если машина и без него все выполнит? Произнесенный с улыбкой ответ состоял в том, что это подход к 5-му поколению, а на самолетах 6-го поколения пилота точно не будет.
Интересно, что И. Демину возразил его коллега, разработчик бортового оборудования президент «Технокомплекса» Г. Джанджгава, который привел пример «когда во время одного из первых испытаний истребителя с высокоинтеллектуальным бортом компьютер посчитал, что самолет допустил слишком большой крен, способный привести к аварии, и самостоятельно... катапультировал пилота. Через секунду маневр был завершен, самолет выровнялся и, полетев еще некоторое время, упал... "При высокой интеллектуализации бортового оборудования мы все-таки должны оставить за человеком возможность действовать в бою на пределе технических возможностей самолета, оружия. Выполнить поставленную задачу иногда даже ценой собственной жизни. Решение на применение оружия и ответственность за последствия лежит только на человеке".
Очень важно, что последнее мнение как раз и принадлежит разработчику автоматики, который лучше, чем конструктор понимает ее ограничения.
На правах автора статьи хотел бы сделать несколько общих замечаний.
1. Прежде всего, удивлен большим количеством откликов, мне казалось, что в данном блоге эта проблема мало кого заинтересует.
2. Нужно понимать ограничения жанра (популярная статья для экономистов) и ее малый объем, определенный редакцией HBR. Поэтому целью статьи было только обозначить проблему, а не изложить все ее особенности. Очень многие высказанные замечания явно выходят за рамки этих ограничений.
3. Безусловно, я не являюсь противником автоматизации, как некоторые ошибочно считают. Дело в том, что в статье речь идет не об автоматизации как таковой, а о тех коллизиях, которые возникают при столкновении с ней человека. Источник этих коллизий в том, что во всех системах управления на человека возлагается функция резервирования автоматики при ее отказах. И об этом почему то никто не упоминает. Так вот уже более 30 лет назад и не мной, а классиками инженерными психологами доказано, что для обеспечения надежного выполнение этой функции и нужен полуавтоматический режим, который обеспечивает активное включение человека в управление. Без этого он превращается в заложника автоматики.
Апологетам автоматизации могу предложить простое решение проблемы: убрать человека из контура управления вместе с пультами, кабиной и т.д. Только тогда ответственность за управление должны полностью взять на себя разработчики автоматики, а вот этого они как раз и не хотят.
4. Предлагаю перевести обсуждение проблемы на более высокий уровень. Для этого в качестве основы предлагаю свою старую статью в «Компьютерре»
http://offline.computerra.ru/2001/389/80…
В ней более полно изложена моя позиция и приводится больше примеров.
Анатолий Костин