Научная статья на тему 'ЧЕЛОВЕЧЕСКИЙ ФАКТОР КАК СОСТАВЛЯЮЩАЯ НАДЕЖНОСТИ ИНФОРМАЦИОННЫХ СИСТЕМ'

ЧЕЛОВЕЧЕСКИЙ ФАКТОР КАК СОСТАВЛЯЮЩАЯ НАДЕЖНОСТИ ИНФОРМАЦИОННЫХ СИСТЕМ Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
86
12
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
INFORMATION SYSTEM / RELIABILITY / HUMAN FACTOR

Аннотация научной статьи по компьютерным и информационным наукам, автор научной работы — Варлатая Светлана Клементьевна, Файзенгер Алексей Аркадьевич, Тимофеева Анна Игоревна

Жизнь в современном обществе невозможно представить без использования различных информационных технологий. В большинстве случаев информационные системы (ИС) независимо от степени их автоматизации требуют в той или иной мере участие человека. Информационные системы становятся взаимосвязанными только благодаря наличию такого основного компонента, как человек

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

THE HUMAN FACTOR AS A COMPONENT OF THE RELIABILITY OF INFORMATION SYSTEMS

Life in today’s society can’t be imagined without the use of various information technology. In most cases the information system regardless of the degree of automation required in one way or another human involvement. Information systems are being linked only by the presence of the main component, as a person.

Текст научной работы на тему «ЧЕЛОВЕЧЕСКИЙ ФАКТОР КАК СОСТАВЛЯЮЩАЯ НАДЕЖНОСТИ ИНФОРМАЦИОННЫХ СИСТЕМ»

2. Буденков Г.А., Неузвецкая О.В. Технические возможности бесконтактного акустического метода те-чеискания // Дефектоскопия. - 1996. - №12. С. 8-53.

3. Бушмелева К.И., Плюснин И.И., Увайсов С.У. Анализ методов и средств диагностирования магистральных газопроводов // Контроль. Диагностика. - 2010. -№7. С. 29-37.

4. Власов В.Т., Дубов A.A. Физические основы метода магнитной памяти металла. - М.: ЗАО «ТИССО», 2004. - 424 с.

5. Гурвич А. К., Ермолов И.Н. Ультразвуковой контроль сварных соединений. - Киев: Техника, 1972. -

460 с.

6. Куклин A.A., Бушмелева К.И. Экспертная система комплексного диагностирования технического состояния объектов газотранспортной сети // Надежность и качество: Труды межд. симпозиума. - 2011. - Т. 2. С. 46-49.

7. Минин С.И. Автоматизированная ультразвуковая система контроля напряженного состояния основного металла и сварных соединений циркуляционных трубопроводов ЯЭУ на основе эффекта акустоупругости: Дис. канд. техн наук. Обнинск, 2005. - 248 с.

ЧЕЛОВЕЧЕСКИЙ ФАКТОР КАК СОСТАВЛЯЮЩАЯ НАДЕЖНОСТИ _ИНФОРМАЦИОННЫХ СИСТЕМ

Варлатая Светлана Клементьевна

кандидат тех. наук,доцент Дальневосточный Федеральный университет

г.Владивосток

Файзенгер Алексей Аркадьевич

аспирант

Дальневосточный Федеральный университет

г.Владивосток

Тимофеева Анна Игоревна

студент

Дальневосточный Федеральный университет

г.Владивосток

THE HUMAN FACTOR AS A COMPONENT OF THE RELIABILITY OF INFORMATION SYSTEMS Varlataya Svetlana, candidate of technics, senior lecturer Far Eastern Federal University, Vladivostok Fayzenger Aleksey, post-graduateFar Eastern Federal UniversityVladivostok Timofeeva Anna, Student Far Eastern Federal University Vladivostok АННОТАЦИЯ

Жизнь в современном обществе невозможно представить без использования различных информационных технологий. В большинстве случаев информационные системы (ИС) независимо от степени их автоматизации требуют в той или иной мере участие человека. Информационные системы становятся взаимосвязанными только благодаря наличию такого основного компонента, как человек. ABSTRACT

Life in today's society can't be imagined without the use of various information technology. In most cases the information system regardless of the degree of automation required in one way or another human involvement. Information systems are being linked only by the presence of the main component, as a person. Ключевые слова: информационная система, надёжность, человеческий фактор. Keywords: information system, reliability, human factor.

Можно утверждать, что в тех системах, где присутствует человек, возникают ошибки. Они возникают независимо от уровня подготовки, квалификации или опыта. Примерно 20-30 % отказов в данных системах прямо или косвенно связаны с ошибками человека; 1015 % всех отказов непосредственно связаны с ними.

Как следствие, анализ надежности реальных систем должен обязательно включать и человеческий фактор. Надежность работы человека можно определить, как вероятность успешного выполнения им поставленной задачи на определенном этапе функционирования ИС в течение заданного интервала времени при определенных требованиях к продолжительности выполнения работы.

На развитие рискового события оказывает процесс субъективного восприятия обслуживающего персо-

нала ИС. Субъективное восприятие - довольно интересный и сложный вопрос. Мотивы любого поступка определяются индивидуальными особенностями человека. Как пример, эксперимент, поставленный сотрудниками Всесоюзного научно-исследовательского института системных исследований, был направлен на выявление особенностей субъективного представления людей о степени рискового события, связанного с различными видами деятельности. Он предполагал ранжирование испытуемыми тринадцати видов риска. Первое место по степени риска для общества в обобщенной ранжировке заняли стихийные бедствия, второе - АЭС, а последнее - поездки на железнодорожном транспорте и активный отдых. Полученная ранжировка неадекватна реальному положению вещей. Несомненно, что ущерб от стихийных бедствий велик и еже-

годное число жертв стихийных бедствий оценивается 250-300 тыс. человек. Однако число жертв курения составляет до 2,5 млн. чел. Каждый год, что в восемь раз превышает число жертв, связанных с использованием автотранспорта [1].

Согласно многим исследованиям, на субъективное восприятие рискового события влияет множество факторов.

1. Оценка вероятности наступления каких-либо рисковых событий является наиболее часто используемой операцией как в формальных методах принятия решений, так и в методах, основанных на профессиональных суждениях. Возможности работника правильно анализировать вероятности неопределенных событий существенно влияют на его способности оценивать степень риска в целом. Известно также, что работник достаточно неохотно меняет уже сложившиеся мнение о вероятностях тех или иных событий под влиянием вновь поступившей информации. Если информация не согласуется с его представлениями, он склонен считать ее случайной и ненадежной. Кроме того, происходит недооценка вероятности очень вероятных событий и переоценка вероятности маловероятных событий. Одновременно существует мнение, что человек не воспринимает вероятность неблагоприятного исхода, когда он составляет один шанс из миллиона.

2. Связь между возможными последствиями и их вероятностями. Люди на практике стараются абстрагироваться от маловероятных событий, несущих огромный ущерб, зато концентрируются на более вероятных событиях с незначительным уроном.

3. Контролируемость ситуации. Возможность контроля за развитием рисковых событий, использования своих навыков для избегания негативных последствий оказывает большое влияние на оценку приемлемости всей ситуации. Замечено, что работники предпочитают принимать участие именно в таких событиях, где многое зависит от их личного мастерства.

4. Возможность свободного выбора. Использование большинства современных информационных технологий носит «обязательный» характер. Замечено, что чем больше степень добровольности в использовании той или иной технологии, тем больше уровень риска, на который согласны идти как работники, так и руководство.

5. Степень новизны технологии. Организации более склоны к использованию старых, проверенных технологий, чересчур неохотно внедряют новые, насчет которых опыт только предстоит наработать.

6. Личностные характеристики работника, принимающего решения. Этот фактор оказывает влияние как на субъективную оценку вероятностей событий, так и на оценку серьезности возможных последствий. Он же играет существенную роль и при оценке ситуации в информационной системе целом. Пол, возраст, образование, образ жизни, эмоциональный настрой и другие факторы влияют на поведение человека при оценке уровня риска [2].

Обслуживающий персонал в условиях поломки, сбоя технических средств проявляют лишь те качества, которые в них были заложены, развиты и укреплены тренировками и обучением. Поэтому культура безопасности, гуманизация технического образования, должны стоять в одном ряду с развитием информационных

технологий, и занимать тем более ответственную позицию, чем более критически важной является та или иная технология.

Немаловажную роль играет то, какие потребности человека могут быть удовлетворены в результате осуществления благоприятного исхода и какую угрозу ему может представлять неблагоприятный исход. Негативные последствия могут быть ранжированы с точки зрения их значимости для человека. Наиболее значимы последствия, ставящие под угрозу жизнь и здоровье человека, далее идут разнообразные последствия, связанные с семейным благополучием, карьерой и т.д. Распределение угрозы во времени и пространстве. На восприятие риска оказывает большой влияние характер распределения негативных последствий во времени и пространстве. Так, чем ближе местожительство людей к рисковому предприятию, тем больше беспокойства они проявляют. Замечено также, что люди относятся терпимее к частым, распределенным во времени, мелким авариям, чем к более редким катастрофам с большим числом жертв, даже если суммарные потери в первом случае гораздо больше, чем во втором [1].

Ошибка человека определяется как невыполнение поставленной задачи (или выполнение запрещенного действия), которое может явиться причиной сбоя ИС или потери/разглашения информации.

Ошибки по вине человека могут возникнуть в тех случаях, когда:

• оператор или какое-либо лицо стремится к достижению ошибочной цели;

• поставленная цель не может быть достигнута из-за неправильных действий оператора;

• оператор бездействует в тот момент, когда его участие необходимо.

Виды ошибок, допускаемых человеком на различных стадиях взаимодействия в системе «человек - машина» можно классифицировать следующим образом.

1. Ошибки проектирования: обусловлены неудовлетворительным качеством проектирования.

2. Операторские ошибки: возникают при неправильном выполнении обслуживающим персоналом процедур, прописанных в регламентирующих документах и технической документации.

3. Ошибки изготовления: проявляются на этапе производства оборудования из-за некачественного изготовления, неверного выбора материала.

4. Ошибки технического обслуживания: возникают в процессе эксплуатации или некачественного ремонта оборудования и могут быть вызваны недостаточной квалификацией обслуживающего персонала.

5. Ошибки контроля: связаны с приемкой устройства, характеристики которого выходят за допустимые пределы , либо с ошибочной отбраковкой устройства состандартными характеристиками.

6. Ошибки эксплуатации: результат неудовлетворительного хранения или транспортировки технических средств.

7. Ошибки организации рабочего места работника организации: теснота рабочего помещения, повышенная температура, шум, недостаточная освещенность.

8. Ошибки руководства коллективом: недостаточное стимулирование специалистов, их психологическая несовместимость [3].

Свойство человека ошибаться является функцией его психофизиологического состояния. Интенсивность ошибок во многом определяется параметрами внешней среды, в которой человек работает.

Подходы к проблемам безопасности, например, у руководящего звена, операторов и технического персонала будут разные, разными будут и результаты. Поведение отдельных лиц и их влияние на безопасность информационной системы будет отличаться друг от друга на разных стадиях технологического процесса создания ИС (выбор помещения, разработка экономического обоснования, технические проекты, изготовление технических средств, строительство объекта, монтаж, эксплуатация, контроль). Психологи выделяют две основные группы качеств профессиональной подготовки:

1. Психологические, психофизиологические знания и навыки.

2. Социально-психологические качества, такие, как стрессоустойчивость, эмоциональная выдержка, добросовестность, ответственность, умение работать в группе.

В большинстве случаев основная часть обслуживающего персонала информационных систем этим качествам соответствует. Однако необходимо проводить регулярные тренировки и обучения для того, чтобы все работники отвечали данным требованиям, так как неизвестно, на чью долю придется критическая ситуация, из которой придется выходить в сжатые сроки. В экстремальных ситуациях человек продолжает именно ту линию поведения, которая была отработана на тренировках. При этом важны движущие мотивы различных работников организации. Это могут быть: интерес и уважение к профессии, осознание ответственности, исключение конфликтов с руководством/коллегами, карьерный рост, денежный подход (зарплата, премия, жилье).

Ошибки, совершаемые обслуживающим персона-

лом, так же разнообразны, как и конкретные производственные функции. Наиболее часто встречающиеся ошибки следующие:

• ошибки обнаружения;

• ошибки в оценке ситуации и принятии решения;

• ошибки выполнения действия (последовательности, пропуск, включение лишнего действа, нарушение правил);

• ошибки в ориентации (недостаток информации, избыток информации);

• ошибки связи [2].

Ошибки происходят вследствие того, что работающий персонал не имеет достаточной информации об опасностях, не обладает достаточной квалификацией для выполнения данного вида работ, человек может находиться в состоянии психического расстройства, болезни или переутомления, не соблюдаются эргономические принципы обеспечения безопасности и т. Д.

Несмотря на то, что в современных реалиях руководство подавляющего большинства организаций не осознает важность и критичность человеческого фактора и не принимает его во внимание, работники, отвечающие за безопасность информационных систем, обязаны принимать меры по снижению ущерба от данного фактора. И хотя полностью исключить влияние человеческого фактора невозможно, также необходимо мероприятия по его снижению.

Список литературы

1. Матвеевский В.Р. Надежность технических систем. Учебное пособие - Московский государственный институт электроники и математики. М., 2002 г. - 113 с.

2. Надёжность технических систем и техногенный риск. Учебное пособие / Р.А. Шубин. - Тамбов : Изд-во ФГБОУ ВПО «ТГТУ», 2012. - 80 с.

3. http://allendy.ru/

i Надоели баннеры? Вы всегда можете отключить рекламу.