Научная статья на тему 'Асинхронные процессы взаимодействия как основа понятия информации'

Асинхронные процессы взаимодействия как основа понятия информации Текст научной статьи по специальности «Математика»

CC BY
216
23
i Надоели баннеры? Вы всегда можете отключить рекламу.
Область наук
Ключевые слова
ИНФОРМАЦИЯ / СООБЩЕНИЕ / УПРАВЛЕНИЕ / ВОЗДЕЙСТВИЕ / ВЗАИМОДЕЙСТВИЕ / АСИНХРОННЫЕ ПРОЦЕССЫ

Аннотация научной статьи по математике, автор научной работы — Флоренсов Александр Николаевич

Формализованное понятие информации оказывается недостаточным для охвата фактически используемого содержания в технических науках с учетом не дискретных процессов управления. Предметом исследования является выработка определения, обобщающего дискретный и аналоговый подход и основанного на а синхронных воздействиях на управляемую систему, связывая локальные свойства информации и энтропийные оценки множественных взаимодействий. Вместо сообщения как конечной последовательности знаков, предложено рассматривать более широкое понятие прообраза кусочного отображение динамики воздействия. В качестве модели нестационарного потока сообщений используется асинхронные по характеру взаимодействия, изучавшиеся в теории последовательных взаимодействующих процессов.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Текст научной работы на тему «Асинхронные процессы взаимодействия как основа понятия информации»

УДК 519.7

Л. Н. ФЛОРЕНСОВ

Омский государственный технический университет, г. Омск

ЛСИНХРОННЫЕ ПРОЦЕССЫ ВЗЛИМОДЕЙСТВИЯ КЛК ОСНОВЛ ПОНЯТИЯ ИНФОРМЛЦИИ_

Формализованное понятие информации оказывается недостаточным для охвата фактически используемого содержания в технических науках с учетом не дискретных процессов управления. Предметом исследования я в ляется выработка определения, обобщающего дискретный и аналоговый подход и основанного на а синхронных воздействиях на управляемую систему, с в язывая локальные свойства информации и энтропийные оценки множественных взаимодействий. Вместо сообщения как конечной последовательности знаков, предложено рассматривать более широкое понятие прообраза кусочного отображение динамики воздействия. В качестве модели нестационарного потока сообщений используется асинхронные по х арактеру взаимодействия, изучавшиеся в теории последовательных взаимодействующих процессов.

Ключевые слова: информация, сообщение, управление, воздействие, взаимодействие, асинхронные процессы.

1. Введение. Несмотря на очень широкое использование термина информация, определение стоящего за ним понятия до сих пор вызывает серьезные проблемы. Существует гуманитарное представление об информации как о сведениях, сообщениях, знаниях, но все использованные для этого разъясняющие слова имеют очень широкое и, в общем случае, нечеткое толкование. К современному моменту определения информации включены в ряд мировых стандартов и законов. Правовое значение термина дает Российский закон № 149-ФЗ «Информация (от лат. ШогшаИо — «разъяснение, изложение, осведомлённость») — это сведения (сообщения, данные), независимо от формы их представления». Международный стандарт ¡БО/ШС 10746-2 от 1996 года определяет информацию как знания о предметах, фактах, идеях и т.п., которыми могут обмениваться люди в рамках конкретного контекста.

Интерес к систематическому использованию понятия информации в естественных науках с опорой на математические представления возник после работы К. Шеннона по математической теории связи [1]. Предложенное им определение количества информации как научной и технической меры возможности коммуникационных каналов по передаче сообщений стало опорной точкой этого направления.

Терминологическое связывание информации с данными, обрабатываемым компьютерами, и с любыми данными, передаваемыми, хранимыми и представляемыми для человеческого использования в современных устройствах практически смешало границы указанных понятий.

2. Обзор различных подходов к информации. Уточнения потребовались для сложившейся как науки информатики. В начале 70-х годов польский ученый М. Мазур сделал попытку систематического построения теории информации, названную им «качественная теория информации» [2]. Он исходил из своего понимания термина сообщения, определяя его как «физическое состояние, определенным образом отличающееся от других физических состояний в цепи управления» [3, с. 33]. При этом указывалось,

что «воздействие в цепи управления состоит из определенного числа сообщений». Далее он вводил промежуточные понятия информационной ассоциации и поперечного множества сообщений. Информационная ассоциация по Мазуру — это «пара сообщений из поперечного множества сообщений». Поперечное множество сообщений — множество сообщений в произвольном месте цепи управления. В качестве завершения определения он утверждал, что «информация — преобразование одного сообщения информационной ассоциации в другое сообщение той же ассоциации». Все это позволяло провести последовательный логический анализ информационных процессов как процессов преобразования сигналов в контурах управления с обратной связью и вести логическую классификацию различных видов информирования с учетом семантических аспектов передаваемой информации. К сожалению, за формальными границами построенной таким образом теории не были найдены приложения использованных подходов и их приложения для смежных областей применения. Более того, из предложенного М. Мазуром подхода логически следовало, что любое физическое состояние, сколько-нибудь отличное от другого соседнего во времени или пространству состояния, порождает некоторую информацию как формальное преобразование между ними. Этот подход вел к утверждению, что все физического пространство заполнено информацией, вне зависимости от конкретных специализированных систем хранения и преобразования информации. Условие наличия цепи управления в исходных определениях нисколько не мешало подобным неестественным заключениям, поскольку рассмотрение именно «физических состояний» приводит к тому, что действие того же закона всемирного тяготения ведет к неизбежным «управляющим» воздействиям любой материальной точки на соседние, и даже на более удаленные материальные точки.

Несколько позже Ф. Бауэр предложил определение информации, опираясь на более простое понятие сообщения, которое представляет собой цепочку

символов из некоторого алфавита [3]. Его подход состоит в указании связи между сообщениями и информацией, которая записывается в виде отображения N®J, где N — сообщение, а J — информация, причем правило соответствия называют интерпретацией сообщения. Последнее определение международного стандарта использует именно эту точку зрения, декларируя, что хотя информация должна использовать некоторую форму представления, превращаясь при этом в данные, чтобы ею можно было технически обмениваться, но все же информация есть в первую очередь интерпретация такого представления (стандарт ISO/IEC/IEEE 24765: 2010 Systems and software engineering). Поэтому в строгом смысле информация отличается от данных, хотя в неформальном контексте эти два понятия чаще всего используются как синонимы.

Техническое понимание информации оказалось тесно связанным с основными определениями кибернетики. Это междисциплинарное направление науки было описано Н. Винером, как «наука об управлении и связи в машинах и живых организмах» (Cybernetics: or, Control and Communication in the Animal and the Machine) [4]. Внутри же текста книги было дано определение кибернетики через информацию, а именно она описывалась как наука «об общих закономерностях получения, хранения, передачи и преобразования информации в сложных управляющих системах, будь то машины, живые организмы или общество». В другом месте Винер также писал «Информация — это обозначение содержания, полученное нами из внешнего мира в процессе приспосабливания к нему нас и наших чувств».

Последнее замечание, несмотря на отсутствие в первоисточнике развертывания из него последующих выводов, особенно интересно тем, что привлекает внимание к существенной стороне информации, а именно ее глубинной генетической связи с окружающим миром.

3. Анализ проблем в общетехническом понятии информации. Чтобы показать недостаточность сложившегося к настоящему времени понятия «информационных сообщений», как некоторых последовательностей или комбинаций знаков или физических состояний, рассмотрим исторически первую управляющую систему, называемую центробежным регулятором. Это устройство было приспособлено Дж. Уаттом для регулирования устойчивой скорости вращения паровой машины. Он представлял собой достаточно примитивную механическую конструкцию с массивными шариками на раздвигаемом параллелограмме из реек, закрепленную и вращающуюся от вала паровой машины. К раздвижной части этой конструкции было приделан механический стержень, одним концом закрепленный в выемке муфты, а другим соединенный с тягой привода дроссельной заслонки в трубе, подающей пар к рабочему цилиндру машины.

Это устройство оказалось действительно эффективным регулятором, широко использовавшимся с тех пор. Его теория исчерпывающе была описана значительно позже русским механиком и математиком И. А. Вышеградским в связи с необходимостью его усовершенствования, связанной с выявленной неустойчивостью регулирования в более мощных паровых машинах второй половины XIX века [5].

С учетом современных возможностей механический стержень, передающий обратное управляющее воздействие на вход, может быть заменен информационным каналом, использующим электрическую

или оптическую реализацию (электрический или оптический кабель), по которому передаются кодированные данные о текущей скорости вращения вала. При этом в систему нужно встраивать механико-электронный преобразователь линейного смещения в цифровой код, обратный преобразователь цифрового кода в линейное смещение, использовать усилители для передачи сигналов и реализацию исполнительного механизма, который под воздействием поступающего на его вход цифрового кода выполняет перемещение заслонки.

Использование такой конструкции центробежного регулятора «со встроенной электроникой и цифровым кодированием» в составе паровой машины превращает рассматриваемую машину в кибернетическую систему в строгом определении «по Винеру». Но, с прагматической точки зрения и функциональности, замена сложным и менее надежным оборудованием простейшего механического стержня не дает ничего, точнее, обеспечивает ту же функциональность, но путем огромного усложнения конструкции.

Описание же поведения указанного механического стержня, как реального механизма обратной связи, не позволяет сколько-нибудь явно вводить дискретные сообщения, «передаваемые им». Таким образом, теоретическая привязка определения информации к явно выделяемым и дискретным по строению сообщениям оказывается не всегда применимой.

В работе [6] предлагалось расширенное понимание информации как системы специфических топологических инвариантов отображаемого мира, что позволяло охватить и существенные особенности аналоговых технических систем управления, но указанное расширение было направлено в первую очередь на информацию в естественных системах и ориентировано в большей степени на сенсорные образы внешних воздействий.

Перефразируя в качестве полумеры определение Винера, можно сказать, что информация — это что-то получаемое из внешнего мира в процессе приспособления к нему. Тогда можно предложить следующее определение. «Информация — это кусочное отображение динамики окружающего мира во внутренние состояния управляющей системы». Понятие внешнего мира достаточно общее и несколько расплывчато для технических применений, поэтому желательно его несколько сузить, оттеняя самое главное для нашей темы. Термин мир в этом определении целесообразно сузить до совокупности асинхронно взаимодействующих процессов [7]. Причем отображение не просто во что-нибудь, а именно внутрь управляющей системы. Просто «система», не являющаяся управляющей, не может быть сколько-нибудь автономной частью динамического мира. Такая система либо формальная (продукт отображения или даже воображения некоторой управляющей системы — человека, социума, но не является отображением динамики, а только представляет собой формальную статическую систему), либо она подчиненная собственная часть управляющей системы и не является взаимодействующей с окружающим миром, непосредственным окружением для такой части служит согласованный — синхронный — мир внутреннего времени управляющей системы.

Окончательно уточненное определение будет гласить: «Информация — это кусочное отображение динамики воздействий асинхронно взаимодействующих процессов во внутренние состояния управляющей системы в совокупности с динамикой обратных воздействий от системы».

Чтобы яснее осознать это определение, нужно принимать во внимание, что кибернетическая управляющая система управляет объектом управления с учетом посторонних воздействий на этот объект. Жесткая функциональность воздействия внутренних механизмов для задания детерминированного поведения теоретически возможна, но тогда имеет место чисто функциональный автомат, поведение которого никак не изменяется под влиянием каких-то внешних воздействий, а определяется только внутренними закономерностями. Установление зависимости, что внешние воздействия на кибернетическую систему необходимо соотносятся с ее внутренним состоянием, были сделаны У. Р. Эшби [8].

4. Существенность асинхронного характера взаимодействий. Новая часть переопределения общего понятия информации заключается в учете именно динамики внешних воздействий и внимании к асинхронному характеру этих воздействий. Дело в том, что реальное поведение управляемой системы вынуждено хотя бы косвенно отражать временные последовательности воздействий, а не просто их формализованную статику, причем никаких оснований для безусловного оценивания интервалов между такими воздействиями и момента их появления в общем случае быть не может. Это не значит, что в частных случаях подобные проявления не могут иметь место. С общих позиций вполне допустимо синхронные взаимодействия рассматривать как частный случай асинхронных, нельзя только постулировать обратное утверждение, пытаясь рассматривать асинхронные взаимодействия с помощью средств и методов, предназначенных для учета и использования синхронных. Методологически ситуация здесь подобна изучавшейся Э. Дейкстрой в связи с проблемой мультипрограммирования. Им указано, что «многие проблемы мультипрограммирования, ставившие нас прежде в тупик, являются всего лишь следствием априорной тенденции придавать детерминированности слишком большое значение; в конце концов, я пришел к тому, что стал считать недерминирован-ность естественной ситуацией, при этом детерминированность свелась к довольно банальному частному случаю» [9, с. 11].

Асинхронность внешних воздействий относительно управляющей системы приводит к тому, что отображение динамики этих воздействий получается только кусочным и отражающим взаимодействия этого одного или нескольких одновременных внешних воздействий, которые в таком случае оказываются синхронными в этом рассматриваемом взаимодействии друг с другом, но все же асинхронными относительно управляемой системы. Эти кусочные отображения динамики принципиально не могут быть расширены до всего общего процесса взаимодействия управляющей системы с внешними источниками воздействий, так как в противном случае существование такого предельно расширенного отображения дает теоретическую возможность синхронизации всех этих воздействий на основе внешней динамики данной управляющей системы.

Вынужденная кусочность отмеченных отображений влечет дискретизацию формализации этих отдельных отображений, их принципиальную отделимость друг от друга и возможность использования конечных систем для представления образов таких отображений внутри управляющей системы. Вместо упрощенного понятия сообщения как конечной последовательности знаков из некоторого алфавита, следует рассматривать более широкое понятие «про-

образа кусочного отображения динамики воздействия».

Указанный в определении информации фрагмент «в совокупности с динамикой обратных воздействий от системы» представляет в нем то, что, иными словами, называют интерпретацией информации. Действительно, даже в обычном смысле интерпретация относится к явлениям и в общем случае процессам внешнего для управляющей системы мира, а не только к внутреннему миру самой системы. Интерпретация команд вычислительного устройств компьютера заключается в реальных действиях, реализуемых в динамике, над текущими данными, а не просто формальные коды этих команд, значимые только по своей статической сущности. Интерпретация формализмов всегда оказывается представлением этих формализмов в частной совокупности более конкретной системы, которая формально оказывается уже внешним миром для исходного формализма.

Вместо упрощенного понятия сообщения следует рассматривать более широкое понятие прообраза кусочного отображения динамики воздействия. Для систем и устройств с аналоговыми сигналами воздействия приходится применять более широкое представление о множестве, описывающем асинхронные воздействия на управляющую систему, чем дискретные сообщения. В общем случае нужно рассматривать указанный прообраз как конечную последовательность элементов, которые принадлежат многомерным сегментам непрерывных значений. В частном случае сегмента с совпадающими границами получаем дискретное значение.

Например, программы компьютера при воздействии на электронную кнопку в графической системе управления получают от аппаратуры мыши сигналы о перемещении, нажатии на кнопку. Далее обработчики прерываний формируют коды координат мыши и сравнивают получаемые при этом значения с действующими на текущий момент границами изображения электронной клавиши, изображение на клавише при этом имеет чисто декоративное значение.

5. Связь информации с энтропией. Построенное уточненное определение понятия информации дает возможность по-новому понять меру количества информации, введенную К. Шенноном. Для этого достаточно обратить внимание на аналогию в термодинамике. Термодинамическое определение энтропии оценивает степень хаотичности движений в системе механических частиц, но, по существу, анализируемых элементарных составляющих движений глубоко связано с суммарной оценкой динамического множества ударных взаимодействий между этими частицами. Оценивает она, в конечном счете, степень разнообразия этих взаимодействий во всей рассматриваемой системе, для которой вычисляется энтропия [10].

Информация, согласно выведенному определению, для отдельного элементарного взаимодействия между управляющей системой и окружающей ее средой, представляет и фиксирует в некоторых внутренних состояниях управляющей системы отдельный акт этого взаимодействия и реакции во внешнюю среду для него. Переход от этого кусочного представления и отображения к множеству всех взаимодействий для рассматриваемой системы должен учитывать разбиение этого множества на одинаковые элементы (одинаковые по элементарной информации взаимодействия), количество таких одинаковых взаимодействий и их вероятность, абст-

рактно представляющую частоту их проявлений в реальной картине взаимодействий. В результате глубокой аналогии между случайными отдельными взаимодействиями как в термодинамической системе, так в абстрактной совокупности управляющей системы и ее окружения, получаются одинаковые аналитические оценки суммарной численной характеристики, описывающей всю совокупность.

Получается, что энтропийный подход для количества информации от Шеннона изучает и оценивает не информацию, а исключительно некоторые последовательности аргументов обращения к информации. Энтропия устанавливает связь между макро- и микросостояниями термодинамической системы. Аналогичным образом, количество информации устанавливает связь между отдельными взаимодействиями управляющей системы с ее средой и совокупностью всех таких взаимодействий. Существо же и особенности конкретной информации как в отдельных элементах, так и всей совокупности, это количество никак не затрагивает, поскольку описывает только свойства последовательностей во времени поступающих воздействий, но не их результаты и действия отдельных компонентов управляющей системы.

6. Заключение. Предложено уточнение понятия информации, охватывающее не только дискретные по элементному составу сообщения, но и воздействия более сложного математического строения. Предложено рассматривать асинхронные воздействия произвольной природы, которые в общем случае могут описываться многомерными сегментами действующих континуальных значений. Показана внутренняя связь рассмотренных конструкций с энтропией в термодинамике. Из исследования вытекает, что информация в глобальных сетях и средствах массовой информации не является пассивным передаваемым средством, в любом использовании информация оказывается либо фиксацией во внутренних состояниях управляющей системы самого

факта внешнего воздействия вместе с его возможными атрибутами для последующего использования в обратных воздействиях, либо последовательностью директив для последующих воздействий.

Библиографический список

1. Шеннон К. Математическая теория связи // Работы по теории информации и кибернетике. М.: Иностранная литература, 1963. С. 243-322.

2. Мазур М. Качественная теория информации. М.: Мир, 1974. С. 240.

3. Бауэр Ф., Гооз Г. Информатика / пер. с нем. В. К. Са-бальфельд. М.: Мир, 1976. 484 с.

4. Винер Н. Кибернетика, или Управление и связь в животном и машине. М.: Советское радио, 1968. 326 с.

5. Максвелл Д. К., Вышнеградский И. А., Стодола А. Теория автоматического регулирования (линеаризованные задачи). М.: Изд-во АН СССР, 1949. 430 с.

6. Флоренсов А. Н. Динамические аспекты информационной компоненты сложных систем: моногр. Омск: изд-во ОмГТУ, 2007. 344 с.

7. Хоар Ч. Взаимодействующие последовательные процессы / пер. с англ. А. А. Бульонковой; под ред. А. П. Ершова. М.: Мир, 1989. 264 с.

8. Эшби У. Р. Введение в кибернетику / под ред. В. А. Успенского. М.: Изд-во иностранной литературы, 1959. 432 с.

9. Дейкстра Э. Дисциплина программирования: пер. с англ. / под ред. Э. 3. Любимского. М.: Мир, 1978. 275 с.

10. Стратонович Р. Л. Теория информации. М.: Советское радио, 1975. 424 с.

ФЛОРЕНСОВ Александр Николаевич, кандидат технических наук, доцент (Россия), доцент кафедры информатики и вычислительной техники. Адрес для переписки: lorensov@yandex.ru

Статья поступила в редакцию 09.12.2016 г. © А. Н. Флоренсов

i Надоели баннеры? Вы всегда можете отключить рекламу.