Что делают пилоты, хирурги и инженеры для минимизации ошибок?

В то время, когда Рейс 4U9525 Germanwings врезался во французские Альпы в марте 2015, следователи достаточно скоро выяснили возможную обстоятельство трагедии: второй пилот Андреас Любиц (Andreas Lubitz) страдал от депрессии и решил совершить суицид, прихватив с собой более 100 пассажиров. Из-за чего ему дали пилотировать самолет с множеством пассажиров на борту, не обращая внимания на психологическое заболевание? Как ему удалось закрыться одному в кабине пилота?

По каким показателям был сделан вывод, что все случилось как раз так?

Этот список вопросов стал стандартным во всех следующих авариях — они позволяют понять, что в любой сложной технической совокупности человек хоть и ответственная, но только составная часть огромного механизма. Значительно чаще, в случае если эксперты не смогут распознать механическую обстоятельство аварии, они именуют антропогенный фактор как решающий элемент трагедии, но всем как мы знаем, что неточности редко происходят в вакууме.

Кто же виноват?

Ранее понятие «антропогенный фактор» не существовало, но с возникновением сложных разработок оно начало играть все более большую роль. Само собой разумеется, предки допускали неточности, но те не оказывали для того чтобы огромного влияния на жизни вторых людей. Все изменилось с промышленной революцией: с приходом новых разработок рабочий стал собственного рода «винтиком» на фабрике.Что делают пилоты, хирурги и инженеры для минимизации ошибок?

Под давлением повторяющихся задач несчастные случаи стали так распространены, что иногда приходилось закрывать поточное производство. Вместо поиска недостатков в собственном оборудовании обладатели фабрик обвиняли во всем «антропогенный фактор». К началу 20-го века психологи изучали так называемых «невезучих» сотрудников и задавались вопросом, из-за чего они сделали как раз так, а не в противном случае.

Представление о «антропогенном факторе» значительно изменилось на протяжении Второй мировой, в то время, когда новые разработки оказались так быстро, что имел возможность совершить ошибку кроме того самый умелый человек. В 1943 американские ВВС, во главе с психологом Альфонсе Чапэнисе (Alphonse Chapanis), были призваны изучить обстоятельство повторного допущения неточностей на одном и том же самолете: по окончании, казалось бы, успешного приземления, пилоты забывали включить шасси, что неминуемо приводило к воспламенению и искрам летательного аппарата.

Чапэнис увидел, что на B-17 два рычага, управляющие шасси и закрылками, аналогичны и помещены рядом между собой. В большинстве случаев пилот производит шасси и после этого поднимает закрылки, действующие как пневматические тормоза и ставящие самолет на колеса. Но в хаосе армейского времени пилот имел возможность легко перепутать рычаги-близнецы и вместо шасси задействовать закрылки.

Чапэнис внес предложение присоединить резиновое колечко к рычагу шасси и сделать клинообразным рычаг, несущий ответственность за закрылки — так пилоты имели возможность сходу ощутить, какой рычаг они применяют, что и решило проблему. Так стало ясно, что проблемой был не пилот, а неудачно спроектированная панель управления.

B-17 по окончании неудачной посадки с убранным шасси

По окончании войны эксперты обратили внимание на изучение «антропогенных факторов» — сейчас главная задача состояла не «свалить» всю вину на людей, а определить причину в самой совокупности. В 1967 был создан Национальный совет по безопасности для обнаружения для того чтобы рода неточностей методом проведения технического и процедурного анализа, благодаря чему коммерческие перелеты стали одним из самых надёжных видов транспорта.

Проблемой, приводившей к авариям B-17, был не пилот, а неудачно спроектированная панель управления

Твитнуть цитату

  • 16 «смертельных» неточностей веб-дизайна посадочных страниц

«Обычный несчастный случай»

Специалисты узнали, что всецело от всех несчастных случаев избавиться нереально: неприятность содержится не только в технологии, приводящей к «людской неточности», но и в культуре, в которой разработка трудится. В связи с частичным провалом ядерного реактора Three Mile Island, социолог Чарльз Перроу (Charles Perrow) создал теорию «обычного несчастного случая», мысль которой в том, что кое-какие технологии так сложны, что несчастные случаи неизбежно будут происходить.

По окончании трагедии шаттла Challenger социолог Дайан Вон (Diane Vaughan) опубликовала теорию «нормализованного отклонения» (normalized deviance) — NASA так привыкли к недостатку в кольцевых уплотнителях, мешавших выходу огнеопасного газа, что бедствие, вызванное теми же недостатками, стало для них неожиданностью.

Необходимо помнить, что простое нахождение «козла отпущения» никак не окажет помощь исправить недостатки в совокупности. По данной причине подход, названный анализом причины (root-cause analysis), начал использоваться и в индустрии, и в пожаротушении, и медицине. Пара десятилетий назад обезболивание была одной из самых страшных медицинских процедур.

На протяжении изучения неприятности специалисты выяснили, что они имели возможность спасти жизни при верно настроенном оборудовании. По окончании настройки число несчастных случаев быстро снизилось в 50 раз если сравнивать с прошлым опытом. Кое-какие врачи перед операцией должны пройти чек-лист, подобно пилотам.

Часть хирургического контрольного перечня World Health Organization:

До ввода амнезии: Подтвердил ли больной собственную личность и дал ли согласие? Готово ли место? Была ли произведена проверка анестезирующего оборудования и лекарств?

Верно ли настроен оксиметр?

До разрезания кожи: Убедиться, что все члены команды представились по фамилии и назвали собственную роль. Проверить имя больного, его согласие на операцию и на место разреза. Была ли совершена профилактика антибиотиком за последние 60 мин.? Обрисовать вероятные нестандартные обстановки.

Как продолжительно продлится операция? Какова ожидаемая утрата крови?

Перед тем, как больной покинет операционную: Убедиться, что выполнена требуемая операция. Убедиться в наличии всех иголок и губок. Звучно и четко назвать всех участников операции, а также имя больного. Убедиться, что оборудование функционирует правильно.

Сказать, что лучше делать клиенту для скорейшей поправки.

  • Оптимизация сайта собственными руками: полный чек-лист по SEO задачам

Совокупность правосудия

Сложнее всего дела обстоят с анализом совокупности правосудия. судебные эксперты и Психологи заключили, что обстоятельства юридических неприятностей лежат глубже фанатичного обвинителя либо дезинформированного полицейского — тут кроме этого имеет место череда событий. Разглядим безрадосно известную стрельбу Майкла Брауна (Michael Brown) в Фергюсоне, Миссури. Никто не думал, что государственный служащий Даррен Уилсон (Darren Wilson) по окончании утреннего пробуждения примет решение убить невооруженного ребёнка.

Стоит задаться вопросами: был ли он вооружен не летальным оружием? Был ли его партнер в полицейской машине? В какой степени имел место расизм?

Джеймс Дойл (James Doyle), выдающийся юрист, поддерживающийсистемный анализ в полицейского и судебного управления, говорит: «Запрещено прощать людей, наподобие Уилсона либо Любица, но необходимо постоянно искать обстоятельство, беря во внимание тот факт, что мы все живем в соцсетях и в мире сложных технологических совокупностей».

Высоких вам конверсий!

По данным: nautil.usimage source shamshel

Случайные статьи:

Галилео. Пилоты


Подборка похожих статей:

riasevastopol