Научная статья на тему 'Системная модель снижения рисков случайных событий и процессов в инновационной сфере'

Системная модель снижения рисков случайных событий и процессов в инновационной сфере Текст научной статьи по специальности «Экономика и бизнес»

CC BY
206
81
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
СЛОЖНЫЕ СИСТЕМЫ / ИННОВАЦИОННАЯ СФЕРА / СЛУЧАЙНЫЕ СОБЫТИЯ И ПРОЦЕССЫ / РИСКИ / СИСТЕМНАЯ МОДЕЛЬ / COMPLEX SYSTEMS / RANDOM EVENTS AND PROCESSES / RISKS / SYSTEM MODEL / INNOVATION AREA

Аннотация научной статьи по экономике и бизнесу, автор научной работы — Снитко Н.О.

Данная статья утверждает преимущества системной модели предотвращения рисков, обусловленных случайными событиями и процессами, что связано также с тем, что внешняя среда, в которой протекает инновационный процесс, является сложной социо - технической системой. Таким образом, обоснованной выглядит аналогия между моделями управления рисками в сложных социо - технических системах и моделями управления рисками в инновационной сфере.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

THE SYSTEM MODEL OF REDUCTION OF RISKS OF RANDOM EVENTS AND PROCESSES IN INNOVATION AREA

The paper states the advantages of the system model of prevention of risks caused by random events and processes. This statement is also based on the assumption of that nature of innovation processes is a complex social technical system. Thus the analogy between the models of risk -management in complex technical systems and the models of of risk management in innovation systems seems cogent.

Текст научной работы на тему «Системная модель снижения рисков случайных событий и процессов в инновационной сфере»

СИСТЕМНАЯ МОДЕЛЬ СНИЖЕНИЯ РИСКОВ СЛУЧАЙНЫХ СОБЫТИЙ И ПРОЦЕССОВ В ИННОВАЦИОННОЙ СФЕРЕ

Снитко Н.О., аспирант Института мировой экономики и информатизации

Данная статья утверждает преимущества системной модели предотвращения рисков, обусловленных случайными событиями и процессами, что связано также с тем, что внешняя среда, в которой протекает инновационный процесс, является сложной социо - технической системой. Таким образом, обоснованной выглядит аналогия между моделями управления рисками в сложных социо - технических системах и моделями управления рисками в инновационной сфере.

Ключевые слова: сложные системы, инновационная сфера, случайные события и процессы, риски, системная модель.

THE SYSTEM MODEL OF REDUCTION OF RISKS OF RANDOM EVENTS AND

PROCESSES IN INNOVATION AREA

Snitko N., post-graduate student of the Institute world economy and Informatization

The paper states the advantages of the system model ofprevention of risks caused by random events and processes. This statement is also based on the assumption of that nature of innovation processes is a complex social - technical system. Thus the analogy between the models of risk -management in complex technical systems and the models of of risk - management in innovation systems seems cogent.

Keywords: complex systems, innovation area, random events and processes, risks, system model.

Риск в сложных технических системах принимает множество форм. Так, финансовый риск связан с изменчивостью доходов, получаемых по ценным бумагам и от управления финансовыми потоками. Инвестиционный риск связан с изменениями в оценке стоимости и будущих результатов деятельности отдельных фирм, секторов и экономики в целом. Проектный риск связан с вероятностью и последствием недостижения целей и параметров, таких как производственный график, уровень цен и качество исполнения работ. Угроза безопасности оценивается путем расчета рисков потерь, связанных с внешним неблагоприятным воздействием. Профессиональный риск связан с возможностями нанесения вреда здоровью и угрозами безопасности на рабочем месте. Таким образом, в большинстве случаев, вопросы безопасности не могут рассматриваться отдельно в отрыве от других проблем, таких как финансовое обеспечение, производственный график, операционные риски и другие.

Как пример сбоев комплексной системы можно рассматривать случай аварии на Саяно-Шушенской ГРЭС, в котором видно наложение нескольких проблем: конфликт интересов, проблемы с программным управлением и политические проблемы [1].

Риск традиционно определен как комбинация вероятности (или вероятность) и последствия наступления потери. Объединение этих компонентов приводит к определению математическому ожиданию риска (МОР).

Е (Потеря) = Вероятность (Потеря) х Последствие (Потеря)

Формулировка математического ожидания помогает оценить степень риска количественно, однако она полезна только для самых простых случаев, когда предполагается, что вероятность потери хорошо известна и что последствие может быть оценено. В финансовом анализе степени риска последствия случайного события обычно хорошо определяются в денежных единицах, но вероятности известны не точно. В критических по отношению к безопасности системах оба результат (например, потеря человеческих жизней, повреждения окружающей среды) и вероятность обычно невозможно оценить достаточно точно.

Цель количественной оценки степени риска (КОСР) состоит в том, чтобы вероятность и последствия идентифицированного риска могли служить основанием для расчетов. Автор полагает, что КОСР - наиболее оптимальный метод риск-менеджмента в современных сложных социо технических системах. Общие методы КОСР, встречающиеся в литературе по данной проблеме, включают Моделирование случаев отказа оборудования и Анализ эффектов (МСОАЭ) и Моделирование случаев отказа оборудования и Анализ критичности (МСОАК), Страховые подходы и Вероятностную

оценку степени риска (ВОСР).

Для критических в плане безопасности систем результат часто зависит от условий окружающей среды. Например, в случае Бхопала, где ядовитые химикаты были выпущены в атмосферу, потери были усилены из-за сильных ветров, которые несли химическое облако к населенным районам1.

В то время как не всегда возможно точно определить возможный объем потерь, существует множество различных стратегий, которые могут помочь уменьшить последствия наступления событий, приводящих к потерям. Некоторыми условиями окружающей среды можно частично управлять, например, определяя расположение атомных электростанций как можно дальше от плотно населенных областей.

Вторую часть уравнения МОР, вероятность событий потерь, оценить обычно бывает намного труднее. В то время как в некоторых случаях объем возможных потерь известен, часто существует очень высокая неопределенность, связанная с определением вероятности события. Например, если космическая ракета выходит из под контроля во время запуска, результат понятен: это общая сумма убытков от потери транспортного средства и команды. С другой стороны оценка вероятности потери контроля за поведением ракеты является намного менее определенной.

Традиционные подходы к оценке риска в основном базируются на условии, что лица, принимающие решения совершенно рациональны. Г. Саймон [3] предложил альтернативу парадигме «совершенной рациональности». Его идея состояла в том, что лица, принимающие решения, «ограниченно рациональны», что совместимо с понятиями «рациональности, привязанной к месту» и «естественного принятия решения», используемых в новейших экономико - психолоических исследованиях факторов человеческого поведения в инновационных системах [2].

Данное исследование основано на парадигме ограниченной (привязной к месту) рациональности, прежде всего потому что, случайные события в сложных социо - технических системах (и паттерны человеческого поведения, которые способствуют их возникновению) не могут быть объяснены или проанализированы в изоляции от контекста, в котором они происходят.

В системной терминологии безопасности определение риска расширено, что позволило выделить общей величине вероятности отрицательного результата вероятность появления опасности вообще и вероятность появления опасности, приводящей к аварии или катастрофе. Определение риска основано, таким образом, на расчете уровня опасности (серьезности опасности и вероятности) объеди-

1 «Бхопальская катастрофа — крупнейшая по числу жертв техногенная катастрофа, произошедшая в результате аварии на химическом заводе Union Carbide в индийском городе Бхопал (столица штата Мадхья-Прадеш) ранним утром 3 декабря 1984 года, повлёкшая смерть, по крайней мере, 18 тысяч человек, из них 3 тысячи погибли непосредственно в день трагедии, и 15 тысяч — в последующие годы. Причина катастрофы до сих пор официально не установлена. Среди версий преобладают грубое нарушение техники безопасности и намеренное саботирование работы предприятия». http://m.wikipedia.org/wiki/%D0%91%D1%85%D0%BE%D0%BF%D0%B0%D0%BB%D1% 8C%D1%81%D0%BA%D0%B0%D1%8F %D0%BA%D0%B0%D1%82%D0%B0%D1%81%D1%82%D1%80%D0%BE%D1%84%D0%B0

Риск

Уровень опасности

Серьезность опасности

Вероятность опасности

Подвергание опасности

Вероятность опасности, приводящей к неблагоприятному случаю

Рис. 1. Компоненты риска в сложных системах (составлено по [6])

ненным с вероятностью опасности, приводящей к неблагоприятному случайному событию и подверганию опасности (рис. 1).

Факторы опасности или продолжительность неблагоприятных воздействий являются компонентами риска, которые представляют собой совпадение условий, приводящих к неблагоприятному случайному событию. Чем дольше существует состояние опасности, тем больше шанс появления этих условий. Даже если вероятность проявления отдельных условий для возникновения опасности мало, но сохраняются эти условия достаточно долго, вероятность неблагоприятного случайного события может быть резко увеличена.

Это описание соотносится с понятием «социо - технических систем, мигрирующих к состояниям высокого риска». Если вся социо техническая система мигрировала к состоянию высокого риска, как в случае с химическим заводом в Бхопале2, т.е., чем дольше система работает в этом опасном режиме, тем выше вероятность возникновения условий, в которых происходит неблагоприятное случайное событие (авария, несчастный случай). Системы могут работать в режиме опасного состояния длительное время без потерь, но непрерывное функционирование в этом режиме, в конечном счете, приведет к потере.

Восприятие риска основано на неуверенности в результатах. Со случайным событием, которое должно произойти, нет возможности соотнести ни определенную величину риска, ни определенного результата. Если бы было возможно предсказать точно будущее поведение системы, то риск исчез бы.

Источников неуверенности в сложных системах достаточно много. Каждая дисциплинарная область использует свое собственное определение неуверенности, но для изучения данного феномена в сложных технических системах, по мнению Гастингса, достаточно выделить четыре различных аспекта неуверенности [5]:

Двусмысленность; связана с неточностями сообщений, связанной с терминами и выражениями, используемыми для общения специалистов

Случайность; неотъемлемо связана с физическими параметрами системы.

Эпистемический аспект; связан с нехваткой информации о некоторых особенностях системы.

Взаимодействие; Неуверенность взаимодействия возникает в наложениях функций различных компонентов системы или дисциплин, когда хорошо понято поведение отдельных компонентов или дисциплин, но пока еще не ясны особенности взаимодействия между ними.

Вероятностные методы оценки степени риска, по существу, основаны на том, что эксперты разбирают систему на подсистемы и компоненты до тех пор, пока уровень разложения не позволит получить данные количественной оценки надежности для подсистемы или компонента. Данные о надежности затем соединяются в рамках системной модели, такой, например, как дерево ошибок или дерево событий для того, чтобы можно было оценить полную вероятность случайных событий для всей системы. Главное преимущество ВОСР состоит в том, что этот метод не требует обширного опыта работы на уровне системы, который важен для самых новых технических систем. Предположение, лежащее в основе исследований ВОСР, состоит в том, что, если данные о надежности доступны для каждого компонента в данной подсистеме, то можно получить точные значения надежности для системы в целом. ВОСР не только обеспечивает оценки системной интенсивности отказов, но может также помочь изменить проекты в нужном направлении и передать ресурсы более оптимально определенным компонентам для того, чтобы улучшить надежность на уровне системы.

Преимущества ВОСР бесспорны, но есть также много трудностей, связанных с законностью и точностью получающихся оценок вероятности. Неуверенность в значениях надежности на уровне подсистем и компонентов является важным ограничением.

Даже малые ошибки в оценке составляющих вероятностей отказа могут оказать большое влияние когда на оценку надежности на уровне системы [4]. Даже если достаточные исторические данные доступны для определенного компонента в определенной системе, нет никакой уверенности в том, что значения надежности сохранятся к новой системе, где компонент используется по-другому. Точно так же небольшие изменения компонента или его внешних условий могут привести к непропорциональному изменению в значениях надежности.

Эта неспособность получить точные числа надежности является очень важным ограничением в использовании ВОСР для сложных систем, построенных при помощи вновь развитых технологий и компонентов и для систем со сложным программным обеспечением.

На практике, программное обеспечение представляет собой типичный случай, когда использование формальных показателей надежности может подвести. Мало того, что программное обеспечение неотъемлемо детерминировано (в большинстве случаев), и не поддается вероятностному анализу, но и небольшие изменения в программном обеспечении или его приложениях полностью лишают законной силы любой вид шатких оценок "надежности", которые, возможно, были ранее получены. Например, программные модули, которые были созданы и успешно использовались для пусковых установок Ариан 4, были снова использованы в Ариян 5, стали прямой причиной аварий Ариан 5 в 1996 г.3 Эксперты нашли причину аварии в том, что не было сделано необходимых изменений в программном обеспечении, которое хорошо работало в проекте Ариан 4, а изменения, по всей видимости, было очень дорогостоящим.

Другие трудности обусловлены ограничениями моделей, используемых в качестве основания для сбора данных о надежности. Другие ограничения обусловлены сложностью учета человеческого или организационных факторов, где оценки вероятности могут быть не доступны. Кроме того, исследования ВОСР, как правило, не рассматривают системные случайные события, происходящие из-за дисфункций взаимодействий между компонентами, а не из-за случайного отказа.

Наконец, чтобы получить совокупную оценку вероятности, необходимо детальное проектирование процессов. Но, эти проектные расчеты могут быть сделаны только в процессе работы системы, когда менять что-либо с целью оказать значительное влияние на безопасность системы, слишком поздно.

Как результат роста сложности социо - технических систем, начали появляться новые типы случайных событий, которые следуют из дисфункий взаимодействий между системными компонентами [7]. Неблагоприятные случайные события происходят из-за из незапланированных или неожиданных взаимодействий между различными компонентами системы, а не из-за конкретного единичного (или многократного) отказа. Например, потеря спускаемого аппарат на Марсе (Mars Polar Lander4) произошла, потому что проектировщики не принимали во внимание особое взаимодействие между диспетчером программного обеспечения аппарата и механическим развертыванием опорной ноги. Когда ноги развертывались, ложный сигнал интерпретировался диспетчером как знак того, что спускаемый аппарат достиг Марсианской поверхности. Диспетчер остановил двигатели, в то время как высаживающийся на берег был все еще 50 футов над землей, что привело к тому, что космический корабль врезаться в поверхность [7].

В то время как некоторый уровень автоматизации обязательно присутствует в большинстве сложных систем, проблема часто заложена в интерфейсе между людьми - операторами и автоматизированными системами, когда происходят наложения и/или конфликты в функциях, и когда операторы не полностью понимают то, что делает автоматика. Ответственность за аварии, следующие из дисфункциональных взаимодействий между людьми и системной автоматикой, часто возлагают на человеческую ошибку. Однако ав-

томатизированные системы часто плохо разрабатываются, и системы столь сложны и непрозрачны, что глупо ожидать, что операторы будут в состоянии держать ситуацию под контролем, когда она будет быстро меняться к худшему.

Тенденция, выражающаяся в том, что аварии в сложных системах объясняют человеческими ошибками, продолжается. Корпорациям выгоднее обвинить людей, чтобы избежать или отклонить возможные судебные иски и общественное недовольство. На практике получается, что, чем меньше известно об определенных обстоятельствах аварии, тем больше вероятность того, что она будет объяснена человеческой ошибкой. Получается, что "человеческая ошибка" - удобное объяснение для тех аварий, несчастных случаев, реальная причина которых является сомнительной, сложной или наносящей урон репутации организации [8].

В действительности, известные крупные аварии и катастрофы почти никогда не вызваны чисто человеческой ошибкой, т.к. вся деятельность человека имеет место в пределах физического и социального контекста, который формирует поведение, и почти всегда можно обнаружить отклонения от предписанного поведения. На самом деле, практически для любых сложных ситуаций может быть разработана более или менее оптимальная последовательность решений, которая позволила бы избежать несчастного случая.

Очевидно, что большинство решений находятся под влиянием локальных критериев суждения (они «в локальном масштабе» рациональны), и краткосрочные контекстные стимулы определяют поведенческие формы. При этом, каждое отдельное решение может казаться безопасным и рациональным в пределах контекста окружающей среды отдельного рабочего места и местных условий, но когда оно попадает в контекст всей системной операции, эти решения и действия могут взаимодействовать неожиданными способами и привести к аварии, несчастному случаю. Случайные события в сложных социо-технических системах часто вызваны не неизвестными переменными или типом сбоя оборудования, а некорректным принятием решения, которое может быть результатом чрезмерного административного давления или слабой культуры безопасности. Таким образом, чтобы реализовать эффективное управление рисками в сложных системах, необходимо использовать более содержательный подход, который охватывает технические аспекты системы, таким

же образом, как организаторские, организационные, социальные и политические аспекты системы и ее среды.

Осуществление инновационных процессов требует создания сложных социо - технических систем. Следовательно, анализ и управление рисками в инновационной сфере максимально эффективно может быть осуществлен с использованием методов, разработанных для этих систем.

Литература:

1. Итоговый доклад парламентской комиссии по расследованию обстоятельств, связанных с возникновением чрезвычайной ситуации техногенного характера на Саяно-Шушенской ГЭС 17 августа 2009 года. URL: http://www.plotina.net/documents/sshges-doklad/

2. Пястолов С.М., Пястолова П.С. Развитие моделей менеджмента знаний // Институты и организации «экономики знаний»: Сб. науч. тр. / РАН. ИНИОН. Центр науч.-информ. исслед. по науке, образованию и технологиям; Отв. ред. Пястолов С.М. - М., 2013, с. 120-138.

3. Саймон Г.А. Рациональность как процесс и продукт мышления / Лекция в память Ричарда Т. Эли, прочитанная на ежегодной конференции Американской экономической ассоциации в 1977 г. // THESIS, 1993, вып.3., с. 16-38.

4. Freudenburg W. R. Perceived Risk, Real Risk: Social Science and the Art of Probabilistic Risk Assessment// Science. 1988. № 242(4875). РР. 44-49.

5. Hastings D., McManus H. A Framework for Understanding Uncertainty and its Mitigation and Exploitation in Complex Systems/ Engineering Systems Symposium, Cambridge, MA. 2004.

6. Leveson N. G. Safeware: System Safety and Computers. Reading, MA, Addison-Wesley. 1995.

7. Leveson N. G. A New Accident Model for Engineering Safety Systems//Safety Science. 2004. № 42(4). РР. 237-270.

8. Perrow C. Normal Accidents: Living with High-Risk Technologies. Princeton, NJ, Princeton University Press. 1999.

2 Пример химического завода в Бхопале следовало бы сопроводить и российскими примерами (напр., авариями при запусках ракет -носителей и др.), но, к сожалению, информация о причинах аварий доступна в недостаточных объемах, и мнения экспертов расходятся.

3 «4 июня 1996 г. запуск ракеты «Ариан 5» закончился аварией. Через 40 сек. после запуска на высоте 3700 м ракета отклонилась от траектории и взорвалась».: http://www.di.unito.it/~damiani/ariane5rep.html

4 Mars Polar Lander — космический аппарат, действовавший в рамках программы NASA Mars Surveyor 98 по исследованию климата и поверхности Марса.. Среди вероятных причин аварии называют преждевременное выключение тормозных двигателей (MPL использовал старый метод посадки—торможение ракетными двигателями, как у «Викингов», а не парашюты и надувные мешки, как у Mars Pathfinder'a или марсоходов). Общий вывод комиссии гласил, что в программу Mars Surveyor 98 изначально были заложены технические решения с высоким уровнем риска, что и привело к аварии сразу двух станций (MCO и MPL). Основной причиной провала миссии по заключению независимой комиссии является недостаточное финансирование и давление сроков. По оценке независимой комиссии проект был недофинансирован минимум на 30 % от реальной потребности.// http://ru.wikipedia.org/wiki/Mars_Polar_Lander.

i Надоели баннеры? Вы всегда можете отключить рекламу.