Научная статья на тему 'СИСТЕМНАЯ МОДЕЛЬ СНИЖЕНИЯ РИСКОВ СЛУЧАЙНЫХ СОБЫТИЙ И ПРОЦЕССОВ В ИННОВАЦИОННОЙ СФЕРЕ'

СИСТЕМНАЯ МОДЕЛЬ СНИЖЕНИЯ РИСКОВ СЛУЧАЙНЫХ СОБЫТИЙ И ПРОЦЕССОВ В ИННОВАЦИОННОЙ СФЕРЕ Текст научной статьи по специальности «Экономика и бизнес»

CC BY
14
5
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
СЛОЖНЫЕ СИСТЕМЫ / СЛУЧАЙНЫЕ СОБЫТИЯ И ПРОЦЕССЫ / РИСКИ / СИСТЕМНАЯ МОДЕЛЬ

Аннотация научной статьи по экономике и бизнесу, автор научной работы — Снитко Н.О.

Данная статья утверждает преимущества системной модели предотвращения рисков, обусловленных случайными событиями и процессами, что связано также с тем, что внешняя среда, в которой протекает инновационный процесс, является сложной социо -технической системой. Таким образом, обоснованной выглядит аналогия между моделями управления рисками в сложных социо-технических системах и моделями управления рисками в инновационной сфере.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

THE SYSTEM MODEL OF REDUCTION OF RISKS OF RANDOM EVENTS AND PROCESSES IN INNOVATION AREA

The paper states the advantages of the system model of prevention of risks caused by ran-dom events and processes. This statement is also based on the assumption of that nature of innovation processes is a complex social - technical system. Thus the analogy between the models of risk -management in complex technical systems and the models of risk - management in innovation systems seems cogent.

Текст научной работы на тему «СИСТЕМНАЯ МОДЕЛЬ СНИЖЕНИЯ РИСКОВ СЛУЧАЙНЫХ СОБЫТИЙ И ПРОЦЕССОВ В ИННОВАЦИОННОЙ СФЕРЕ»

СИСТЕМНАЯ МОДЕЛЬ СНИЖЕНИЯ РИСКОВ СЛУЧАЙНЫХ СОБЫТИЙ И ПРОЦЕССОВ В ИННОВАЦИОННОЙ СФЕРЕ

Спи i ко И.О.. аспирант Института мировой экономики и информатизации

Данная статьи утверждает преимущества системной модели предотвращения рисков, обусловленных случайными событиями и процессами, что связано также с тел. что внешняя среда, в которой протекает инновационный процесс, является сложной социо -технической системой. Таким обрати, обоснованной выглядит аналогия между моделями управления рисками в слож ных социо - технических системах и мо<)еля\ш управления рисками в инновационной сфере.

Ключевые слова: сложные системы, инновационная сфсра. случайные события и процессы, риски, системная модель.

THE SYSTEM MODEL OF REDUCTION OF RISKS OF RANDOM EVENTS AND

PROCESSES IN INNOVATION AREA

Snilko N.. ihe post-graduate student of the Institute world economy and informatization

The paper states the advantages of the system model of prevention of risks caused hy run-dom events and processes. This statement is also based on the assumption oj that nature of innovation pmcesses is a complex social - technical system. Thus the analogy between the models of risk management in complex technical systems and the models of risk - management in innovation systems seems cogent.

Keywords: complex systems, innovation area, ran-dom events and processes, risks, system model.

Риск в сложных технических системах принимает множество форм. Так. финансовый риск связан с изменчивостью доходов, получаемых но ценным бумагам и от управления финансовыми потоками. Инвестиционный риск связан с изменениями в оценке стоимости и будущих результатов деятельности отдельных фирм, секторов и экономики в целом. Проектный риск связан с вероятностью и последствием недостижения целен и параметров, таких как производственный график, уровень цен и качество исполнения работ. Угроза безопасности оценивается путем расчета рисков потерь, связанных с внешним неблагоприятным воздействием. Профессиональный риск-связан с возможностями нанесения вреда здоровью и у фотами безопасности на рабочем месте. Таким образом, в большинстве случаев, вопросы безопасности не могут рассматриваться отдельно в отрыве от других проблем, таких как финансовое обеспечение, производственный трафик, операционные риски и другие.

Как пример сбоев комплексной системы можно рассматривать случай аварии на Саяно-Шушенскон ГРЭС, в котором видно наложение нескольких проблем: конфликт интересов, проблемы с программным управлением и политические проблемы [ I ].

Риск традиционно определен как комбинация вероятности (или вероятность) и последствия наступления потери. Объединение этих компонентов приводит к определению математическому ожиданию риска (МОР).

Е (Потеря) Вероятность (Потеря) х Последствие (Потеря)

Формулировка математического ожидания помогает оценить степень риска количественно, однако она полезна только для самых простых случаев, когда предполагается, что вероятность потери хорошо известна и что последствие может быть оценено. В финансовом анализе степени риска последствия случайного события обычно хорошо определяются в денежных единицах, но вероятности известны неточно. В критических по отношению к безопасности системах оба результат (например, потеря человеческих жизней, повреждения окружающей среды) и вероятность обычно невозможно оценить достаточно точно.

Цель количественной оценки степени риска (КОСР) состоит в том. чтобы вероятность и последствия идентифицированного риска могли служить основанием для расчетов. Автор полагает, что КОСР наиболее оптимальный метод риск-менеджмента в современных сложных социо технических системах. Общие методы КОСР. встречающиеся в литературе по данной проблеме, включают Моделирование случаев отказа оборудования и Анализ эффектов (МС'ОАЭ) и Моделирование случаев отказа оборудования и Анализ критичности (МСОАК). Страховые подходы и Вероятностную оценку степени риска (ВОСР).

Для критических в плане безопасности систем результат часто зависит от условий окружающей среды. I (апример, в случае Бхопала, где ядовитые химикаты были выпущены в атмосферу, потерн были усилены из-за сильных ветров, которые несли химическое облако к населенным районам1.

В то время как не всегда возможно точно определить возможный объем потерь, существует множество различных стратегий, ко-

торые могут помочь уменьшить последствия наступления событий, приводящих к потерям. Некоторыми условиями окружающей среды можно частично управлять, например, определяя расположение атомных электростанций как можно дальше от плотно населенных областей.

Вторую часть уравнения МОР. вероятност ь событий потерь, оценить обычно бывает намного труднее. В то время как в некоторых случаях объем возможных потерь известен, часто существует очень высокая неопределенность, связанная с определением вероятности события. Например, если космическая ракета выходит из под контроля во время запуска, результат понятен: это общая сумма убытков от потерн транспортного средства и команды. С другой стороны оценка вероятности потерн контроля за поведением ракеты является намного менее определенной.

Традиционные подходы к оценке риска в основном башруются на условии, что лица, принимающие решения совершенно рациональны. Г. Саймон [3] предложил альтернативу парадигме «совершенной рациональности». Его идея состояла в том. что лица, принимающие решения, «ограниченно рациональны», что совместимо с понятиями «рациональности, привязанной к месту» и «естественного принятия решения», используемых в новейших экономике - пси-холоическнх исследованиях факторов человеческого поведения в инновационных системах [2].

Данное исследование основано на парадигме ограниченной (привязной к месту) рациональности, прежде всего потому что, случайные события в сложных социо - технических системах (и паттерны человеческого поведения, которые способствуют пх возникновению) не могут быть объяснены или проанализированы в изоляции от контекста. в котором они происходят.

В системной терминологии безопасности определение риска расширено. что позволило выделить обшей величине вероятности отрицательного результата вероятность появления опасности вообще и вероятность появления опасности, приводящей к аварии или катастрофе. Определение риска основано, таким образом, на расчете уровня опасности (серьезности опасности и вероятности) объединенным с вероятностью опасности, приводящей к неблагоприятному случайному событию и подвергайте опасности (рис. I).

Факторы опасности или продолжительность неблагоприятных воздействий являются компонентами риска, которые представлякп собой совпадение условий, приводящих к неблагоприятному случайному событию. Чем дольше существует состояние опасности, тем больше шанс появления этих условий. Даже если вероятность проявления отдельных условий для возникновения опасности мало, но сохраняются эти условия достаточно долго, вероятность неблагоприятного случайного события может быть резко увеличена.

Это описание соотносится с понятием «социо - технических систем. мигрирующих к состояниям высокого риска». Если вся социо техническая система мигрировала к состоянию высокого риска, как в случае с химическим заводом в Бхопале2, т.е.. чем дольше система работает в этом опасном режиме, тем выше вероятность возникновения условий, в которых происходит неблагоприятное случайное

иде

паевым оных «юг пн-гсм

ч>0-

. но Аленою

сак

La

■о-юе

Риск

Уронеиь опасности

Серьезность опасности

Веройi нос гь опасности

Погнсрганис опасности

Вероятность опасности, принесшей к нсблшоприяпмму случаю

Рис. I. Компоненты риска в сложных системах (составлено по [6))

событие (авария, несчастный случай). Системы могут работать в режиме опасного состояния длительное время бе? потерь, но непрерывное функционирование в пом режиме, в конечном счете, приведет к потере.

Восприятие риска основано на неуверенности в результатах. Со случайным событием, которое должно произойти, нет возможности соотнести ни определенную величину риска, ни определенного результата. Если бы было возможно предсказать точно будущее поведение системы, то риск исчез бы.

Источников неуверенности в сложных системах достаточно много. Каждая дисциплинарная область использует свое собственное определение неуверенности, но дня изучения данного феномена в сложных технических системах, по мнению Гастингса, достаточно выделить четыре различных аспекта неуверенности [5]:

Двусмысленность; связана с неточностями сообщений, связанной с терминами и выражениями, используемыми для общения специалистов

Случайность: неотъемлемо связана с физическими параметрами системы.

Эпистемичеаат аспект: связан с нехваткой информации о некоторых особенностях системы.

Взаимодействие; Неуверенность взаимодействия возникает в наложениях функций различных компонентов системы или дисциплин, когда хорошо понято поведение отдельных компонентов или дисциплин. но пока еще не ясны особенности взаимодействия между ними.

Вероятностные методы оценки степени риска, но существу, основаны на том, что эксперты разбирают систему па подсистемы и компоненты до тех пор. пока уровень разложения не позволит получить данные количественной опенки надежности для подсистемы или компонента. Данные о надежности затем соединяются в рамках системной модели, такой, например, как дерево ошибок или дерево событий для того, чтобы можно было оценить полную вероятность случайных событий для всей системы. Главное преимущество ВОСР состоит в том, что пот метод не требует обширного опыта работы на уровне системы, которым важен для самых новых технических систем. Предположение, лежащее в основе исследований ВОСР, состоит в том, что, если данные о надежности доступны для каждого компонента в данной подсистеме, то можно получить точные значения надежности дня системы в целом. ВОСР не только обеспечивает оценки системной интенсивности отказов, но может также помочь изменить проекты в нужном направлении и передал, ресурсы более оптимально определенным компонентам для того, чтобы улучшить надежность па уровне системы.

Преимущества ВОСР бесспорны, но есть также много трудностей, связанных с законностью и точностью получающихся оценок вероятност и. Неуверенность в значениях надежности на уровне подсистем и компонентов является важным ограничением. Даже малые

ошибки в оценке составляющих вероятностей отказа могут оказать большое влияние когда па оценку надежности па уровне системы 14]. Даже если достаточные исторические данные доступны для определенного компонента в определенной системе, нет никакой уверенности в том, что значения надежности сохранятся к новой системе, где компонент используется по-другому. Точно так же небольшие изменения компонента или его внешних условий могут привести к непропорциональному изменению в значениях надежности.

>та неспособность получить точные числа надежности является очень важным ограничением в использовании ВОСР для сложных систем, построенных при помощи вновь развитых технологий и компонентов и для систем со сложным программным обеспечением.

На практике, программное обеспечение представляет собой типичный случай, когда использование формальных показателей надежности может подвести. Мало того, что программное обеспечение неотъемлемо детерминировано (в большинстве случаев), п не поддается вероятностному анализу, но и небольшие изменения в программном обеспечении или его приложениях полностью лишают законной силы любой вид шатких оценок "надежности", которые, возможно, были ранее получены. Например, программные модули, которые были созданы и успешно использовались для пусковых установок Ариан 4. были снова использованы в Лрияп 5, стали прямой причиной аварий Ариан 5 в 1996 г.-1 'Эксперты нашли причину аварии в том. что не было сделано необходимых изменений в программном обеспечении, которое хорошо работало в проекте Ариан 4. а изменения, по всей видимости, было очень дорогостоящим.

Другие трудности обусловлены ограничениями моделей, используемых в качестве основания для сбора данных о надежности. Дру-I не ограничения обусловлены сложностью учета человеческого или организационных факторов, где оценки вероятное™ могут быть не доступны. Кроме того, исследования ВОСР, как правило, не рассматривают системные случайные собьпия. происходящие из-за дисфункций взаимодействий между компонентами, а не из-за случайного отказа.

Наконец, чтобы получть совокупную оценку вероятности, необходимо детальное проектирование процессов. Но. тти проектные расчеты могут быть сделаны только в процессе работы системы, когда менять что-либо с целью оказать значительное влияние на безопасность системы, слишком поздно.

Как результат роста сложности социо технических систем, начали появляться новые типы случайных событий, которые следуют из дисфункий взаимодействий между системными компонентами [7]. 11еблагопрнятные случайные события происходят из-за из незапланированных или неожиданных взаимодействии между различными компонентами системы, а не из-за конкретного единичного (или многократного) отказа. I Например, потеря спускаемого аппарат на Марсе ( Маге Polar Lander1) произошла, потому что проектировщики не при-

' «Ьхопальская катастрофа - крупнейшая гго числу жертв техногенная катастрофа, произошедшая в результате аварии па химическом 1лводе Union Carbide в индийском городе Бхопал (столица штата Мадхья-Праденг) ранним утром 3 декабря 19X4 года, повлекшая смерть, по крайней мере, 18 тысяч человек, из них 3 тысячи погибли непосредственно в день трагедии, и 15 тысяч в последующие годы. Причина катастрофы до сих нор официально не установлена. Среди версий преобладают грубое нарушение техники безопасности и намеренное саботирование работы предприятия». http://ru.wikiped¡a.org/wiki/%D0%91 %D I %85%D()%BE%DO%BF%DO%BO%DO%BB% D1 %8C%D I %81 %D0%BA%D0%B0%D I %8F_%D0%BA%D0%B<)"/ 4D1 %82%DO%BO%D 1 %81 %D 1 %82%D 1 %80%D0%BE%D I %84%DO%BO

: Пример химического завода в Бхопале следовало бы сопроводить и российскими примерами (папр.. авариями при запусках ракет носителей и др.), но. к сожалению, информация о причинах аварий доступна в недостаточных объемах, и мнения экспертов расходятся.

1 «4 июня 1996 т. запуск ракеты «Ариан 5» закончился авариен. Через 40 сек. после запуска на высоте 3700 м ракета отклонилась от траектории и взорвалась».: http://www.di.unito.it/~damiani/ariane5rep.html

: Mars Polar Lander космический аппарат, действовавший в рамках программы NASA Mars Surveyor 98 по исследованию климата ir поверхности Марса.. Среди вероятных причин аварии называют преждевременное выключение тормозных двигателей (MPL использовал старый метод посадки — торможение ракетными двигателями, как у «Викингов», а не парашюты н надувные мешки, как у Mars Pathfinder'a или марсоходов). Общий вывод комиссии гласил, что в программу Mars Surveyor 98 изначально были заложены технические решения с высоким уровнем риска, что и привело к аварии сразу двух станций (МСО и MPL). Основной причиной провала миссии по заключению независимой комиссии является недостаточное финансирование и давление сроков. По оценке независимой комиссии проект был недофинансирован минимум ira 30 % от реальной потребности./ http://ra.wikipedia.org/vviki/Mars_Polar_Lander.

нимапи во внимание особое взаимодействие между диспетчером программного обеспечения аппарата и механическим развертыванием опорной ноги. Когда нот развертывались, ложный сигнал интерпретировался диспетчером как знак того, что спускаемый аппарат достиг Марсианской поверхности. Диспетчер остановил двигатели, в то время как высаживающийся на берег был все еще 50 футов над землей, что привело к тому, что космический корабль врезаться в поверхность [7].

В то время как некоторый уровень автоматизации обязательно присутствует в большинстве сложных систем, проблема часто заложена в интерфейсе между людьми - операторами и автоматизированными системами, когда происходят наложения и/или конфликты в функциях, и когда операторы не полностью понимают то, что делает автоматика. Ответственность за аварии, следующие из дисфункциональных взаимодействий между людьми и системной автоматикой, часто возлагают на человеческую ошибку. Однако автоматизированные системы часто плохо разрабатываются, и системы столь сложны и непрозрачны, что глупо ожидать, что опера-горы будут в состоянии держать ситуацию под контролем, когда она будет быстро меняться к худшему.

Тенденция, выражающаяся в том, что аварии в сложных системах объясняют человеческими ошибками, продолжается. Корпорациям выгоднее обвинить людей, чтобы избежать или отклонить возможные судебные иски и общественное недовольство. На практике получается, что, чем меньше известно об определенных обстоятельствах аварии, тем больше вероятность того, что она будет объяснена человеческой ошибкой. Получается, что "человеческая ошибка" - удобное объяснение для тех аварий, несчастных случаев. реальная причина которых является сомнительной, сложной или наносящей урон репутации организации [8].

В действительности, известные крупные аварии и катастрофы почти никогда не вызваны чисто человеческой ошибкой, т.к. вся деятельность человека имеет место в пределах физического и социального контекста, который формирует поведение, и почти всегда можно обнаружить отклонения от предписанного поведения. 11а самом деле, практически для любых сложных ситуаций может быть разработана более или менее оптимальная последовательность решений, которая позволила бы избежать несчастного случая.

Очевидно, что большинство решений находятся под влиянием локальных критериев суждения (они «в локальном масштабе» рациональны). и краткосрочные контекстные стимулы определяют поведенческие формы. При этом, каждое отдельное решение может казаться безопасным и рациональным в пределах контекста окружающей среды отдельного рабочего места и местных условий, но когда оно попадает в контекст всей системной операции, эти

решения и действия могут взаимодействовать неожиданными способами и привести к аварии, несчастному случаю. Случайные события в сложных социо-техническнх системах часто вызваны не неизвестными переменными или типом сбоя оборудования, а некорректным принятием решения, которое может быть результатом чрезмерного административного давления или слабой культуры безопасности. Таким образом, чтобы реализовать тффективиое управление рисками в сложных системах, необходимо использовать более содержательный подход, который охватывает технические аспекты системы, таким же образом, как организаторские, организационные, социальные и политические аспекты системы н ее среды.

Осуществление инновационных процессов требует создания сложных социо - технических систем. Следовательно, анализ и управление рисками в инновационной сфере максимально эффективно может быть осуществлен с использованием методов, разработанных для этих систем.

Литература:

1. Итоговый доклад парламентской комиссии по расследованию обстоятельств, связанных с возникновением чрезвычайной ситуации техногенного характера на Саяно-Шушенской ГЭС 17 августа 2004 гола. URL: http://www.plotina.net/documents/sshges-doklad/

2. Пястолов С.М.. Пястолова П.С. Развитие моделей менеджмента знании Институты и организации «экономики знаний»: Сб науч. ip. / РАН. 1IMII01I. Центр науч.-ннформ. нсслед. по науке, образованию и технологиям: Отв. ред. Пястолов С.М. М.. 2013, с 120-138.

3. Саймон Г.А. Рациональность как процесс и продукт мышления / Лекция в память Ричарда Т.Элн, прочитанная на ежегодной конференции Американской экономической ассоциации в 1977 г. THESIS, 1993, вып.З., с. 16-38.

4. Frcudenburg W. R. Perceived Risk. Real Risk: Social Science and the Art of Probabilistic Risk Assessment// Science. 1988. .v. 242(4875). PP. 44-49.

5. Hastings D., McManus II. A Framework for Understanding Uncertainty and its Mitigation and Exploitation in Complex Systems Engineering Systems Symposium, Cambridge, MA. 2004.

6. Lcveson N. O. Safewarc: System Safety and Computers. Reading. MA. Addison-Wesley. 1995.

7. Leveson N. (J. A New Accident Model for Engineering Safety Systems//Safety Science. 2004. № 42(4). PP. 237-270.

8. Perrow C. Normal Accidents: Living with High-Risk Technologies. Princeton. NJ. Princeton University Press. 1999.

i Надоели баннеры? Вы всегда можете отключить рекламу.