Эта непредсказуемая автоматика | Большие Идеи

・ Операционное управление

Эта
непредсказуемая автоматика

Автор: Костин Анатолий

Эта непредсказуемая автоматика

читайте также

Маленькие шаги к большой карьере

Дори Кларк

Дайте волю эмоциям

Макговерн Гейл

Что делать, если сотрудник плохо работает, но не догадывается об этом

Лиз Кислик

Переговоры на эмоциях

Джулианна Пиллемер,  Лири Кимберлин,  Уилер Майкл

читается, что автоматизация благо. Директора заводов хвастают: «Производство у нас роботизировано, только на пульте человек сидит». Любая техническая новинка, от станка до самолета, умнее предыдущей и требует от человека меньше усилий. Мир взял курс на автоматизацию и не видит ее опасности.

Главная беда автоматики — непредсказуемость. Создавая техническое устройство или компьютерную программу, разработчики руководствуются соб­ственными представлениями о том, кто, как и в каких условиях будет ими пользоваться. Но в жизни не все укладывается в норму. И потому автоматика порой преподносит неприятные сюрпризы. Возьмем современный цифровой фотоаппарат. Человеку не надо ничего устанавливать вручную, но иногда сделать снимок не удается — жмешь «пуск», а аппарат не срабатывает. Автоматика посчитала: для съемки не обеспечены оптимальные условия. Но ведь бывает так, что нужно просто не упустить нужный ракурс! Это типичный пример непредсказуемости «умной техники».

А если речь об управлении самолетом? Мало кто знает: во время полета космического корабля «Буран» (проходившего в автоматическом режиме) случилось непредвиденное. Специалисты рассчитывали, что «Буран» при приземлении сделает правый разворот, но корабль неожиданно повернул налево и полетел поперек полосы. Растерялись и наземные службы, и испытатель Магомет Толбоев, сопровождавший «Буран» на МИГ-25. К счастью, самолет благополучно приземлился. Причиной странного маневра стал сильный боковой ветер, а позже разработчики заявили: вероятность такого случая не больше 3%. Но ведь она есть! А теперь допустим, что «Буран» пилотировал Толбоев. У него было бы два пути: взять управление на себя и отключить исправную автоматику или не вмешиваться и стать заложником автоматики. Но кто гарантирует, что самолет не улетит в степь и не разобьется? Как летчик ни поступи, он кругом «виноват».

У проблемы есть еще один аспект. В ситуациях, не предусмотренных разработчиками, автоматика может отключать исправную аппаратуру, корректировать или блокировать действия оператора, считая их ошибочными. Уже сейчас это нередко приводит к серьезным катастрофам.

Считается, что в случае отказа или поломки оператор должен взять управление на себя. Но перейти из автоматического режима в ручной психологически сложно: надо понять причину аварии и быстро перейти к активным действиям.

В автоматическом режиме оператор — пассивный наблюдатель, сохранять бдительность ему трудно. Так возникают фатальные ошибки. И чем сложнее техника, тем тяжелее последствия. Мало того что оператор — заложник автоматики, он еще и отвечает за то, чего не делает!

Автоматизация грозит не только катастрофами. Вот неприятности помельче:

• автоматика требует специальных знаний, поэтому требования к квалификации персонала вырастут;

• операторы будут медленно терять навыки ручного управления, в случае аварий они не смогут выполнять нужные действия;

• отлучение специалистов от активного управления может вызывать у них неуверенность и снижать социальный статус.

Автоматика уже стала причиной многих авиаката­строф. И риски растут: создаются беспилотные самолеты, автопилоты для автомобилей, боевые роботы. Наши психологи еще в 1970-х годах предупреждали об опасности бездумной автоматизации. Они предложили решение: оптимальный режим управления техникой — полуавтоматический. Оператор играет ведущую роль, поддерживает уровень квалификации, а в случае отказа или аварии ему легче взять управление на себя. От разработчиков бытовой техники требуется немного: пользователь должен получить легкий доступ к «полуавтомату» (сейчас до него непросто добраться). С промышленными установками сложнее: полуавтомат здесь — первый этап решения.

В нетипичной ситуации ошибаются даже профессионалы высокого класса. Cнизить вероятность катастроф можно, опираясь на разработки инженерных психологов, к примеру на средства активной помощи.

Но для начала создатели и пользователи «умных машин» должны увидеть проблему.