Научная статья на тему 'О понятии "информация"'

О понятии "информация" Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
7123
1080
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
ИНФОРМАЦИЯ / КАТЕГОРИЯ / ОБЪЕКТИВНОСТЬ / ВЗАИМОДЕЙСТВИЕ / ОТРАЖЕНИЕ / ВЕРОЯТНОСТЬ / НЕОПРЕДЕЛЕННОСТЬ / УПОРЯДОЧЕНИЕ / МНОГООБРАЗИЕ / INFORMATION / CATEGORY / OBJECTIVITY / INTERACTION / REFLEXION / PROBABILITY / UNCERTAINTY / STREAMLINING / VARIETY

Аннотация научной статьи по компьютерным и информационным наукам, автор научной работы — Рыжов Владимир Петрович

Представлен краткий обзор литературных источников, связанных с рассмотрением основных определений информации на основе понятий взаимодействия и отражения, выбора и вероятности, неопределенности и случайности, упорядочения и управления, многообразия и сложности. Подчеркивается объективность понятия информации, ее категориальный характер. Показано, что информация характеризует объекты любой природы и любого уровня организации и воплощает отраженное разнообразие.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Concept of information

The basic definitions of information on the basis of concepts of interaction, reflexion, choice, probability, uncertainty, accident, streamlining, management, variety and complexity are considered. Objectivity of concept of information, its categorical character is underlined. It is shown that information characterizes objects of any nature and any level of the organization and embodies the reflected variety.

Текст научной работы на тему «О понятии "информация"»

Теория сигналов

| О понятии "информация"

к

Представлен краткий обзор литературных источников, связанных с рассмотрением основных определений информации на основе понятий взаимодействия и отражения, выбора и вероятности, неопределенности и случайности, упорядочения и управления, многообразия и сложности. Подчеркивается объективность понятия информации, ее категориальный характер. Показано, что информация характеризует объекты любой природы, любого уровня организации и воплощает отраженное разнообразие.

Информация, категория, объективность, взаимодействие, отражение, вероятность, неопределенность, упорядочение, многообразие

Развитие информационных технологий и их все более широкое использование, увеличение роли "информационной составляющей" в жизни каждого человека и общества в целом, продвижение к информационному обществу - все это делает необходимым общее понимание и термина "информация", и основных аспектов информационной деятельности. При этом трудно согласиться с мнением Н. Н. Моисеева, что "Строгого и достаточно универсального определения информации не только нет, но и быть не может. Это понятие чересчур сложно" [1]. Однако наука не может существовать без определения тех понятий, которыми она оперирует. При любой сложности того или иного явления и объекта, а тем более общенаучного понятия, при его использовании необходимо вкладывать один и тот же смысл в слова, выражающие суть данного понятия, или же, при своем понимании термина, расшифровывать это понимание.

Несмотря на то, что во многих работах указанному вопросу уделялось значительное внимание, создается впечатление определенной односторонности рассмотрения понятия "информация", поэтому появилась потребность более широкого анализа и систематизации определений информации. Кроме того, в практической деятельности в сферах науки, образования, производства все шире используется понятие информации и его производные, поскольку практика во многих отношениях обгоняет теорию. Так, расширение функций традиционных библиотек и внедрение в библиотечное дело информационных технологий, появление электронных библиотек, все более широкое развитие открытого образования, новые области применения коммуникативных средств - это, как и многое другое, требуют более глубокого понимания всего арсенала терминов, связанных с информацией с информационными технологиями. Особое значение понимание смысла термина "информация" имеет в радиоэлектронике, поскольку сущность этой науки и отрасли техники определяется задачами передачи, хранения и преобразования информации.

Хотя слово и понятие "информация" используются очень давно как в бытовой, так и в научной речи, тем не менее, продолжаются споры о сути этого фундаментального понятия, о его смысле и значении. При этом зачастую не определяется контекст использования данного понятия, от которого существенно зависит его смысл. Дело в том, что в зависимости от того, © Рыжов В. П., 2011 3

Известия вузов России. Радиоэлектроника. 2011. Вып. 1======================================

используется ли понятие информации в философской, математической или технической литературе, его содержание неизбежно трансформируется. Часто в прикладных исследованиях вообще можно обойтись без определения понятия "информация", а использовать количество информации и свойства этой аксиоматически определяемой характеристики.

Поскольку понятие "информация" используется во всех сферах научной и интеллектуальной деятельности, в технике, в искусстве, в быту, то можно считать его важнейшей общей категорией бытия и мышления, и, следовательно, философской категорией [2]. Естественно, что для плодотворного и эффективного использования информационного подхода необходима содержательная интерпретация термина "информация".

Существуют различные мнения об области определения информации. Одни исследователи утверждают, что информация - свойство всей материи, и поэтому информация является полноправной философской категорией. Другие понимают информацию как свойство только человека и общества. Третьи понимают информацию как свойство всей живой материи. Так, по мнению В. И. Корогодина и В. Л. Корогодиной, генетическая информация, свойственная уже растениям и грибам, содержащаяся в молекулах ДНК, полностью определила эволюцию всех организмов, ведущих преимущественно прикрепленный образ жизни. Информацию названные авторы рассматривают как основу жизни [3].

В философском энциклопедическом словаре [4] приведено следующее определение: "Информация (от лат. тАэгтайо - ознакомление, разъяснение, представление, понятие):

1) сообщение, осведомление о положении дел, сведения о чем-либо, передаваемом людьми;

2) уменьшаемая, снимаемая неопределенность в результате получения сообщений;

3) сообщение, неразрывно связанное с управлением, сигналы в единстве синтаксических, семантических и прагматических характеристик;

4) передача, отражение разнообразия в любых объектах и процессах (неживой и живой природы)".

Обращает на себя внимание то, что почти все приведенные определения приложимы к высокоорганизованным объектам, чаще - к человеку в его общественных отношениях. В то же время, еще в 1963 г. В. М. Глушков дал такое определение информации, применимое к объектам любого уровня организации: "Информация есть мера неоднородности материи и энергии в пространстве, мера изменений, которыми сопровождаются все протекающие в мире процессы" [5]. Эта концепция рассматривает информацию как свойство (атрибут) всей материи. В. М. Глушков также писал, что информацию несут не только письменные тексты или человеческая речь, но и природные явления - солнечный свет, шелест травы или шум водопада. Согласно этой точке зрения, информация как всеобщее свойство материи несет сведения о природных явлениях, их развитии и структуре, разнообразии и упорядоченности.

Подчеркнем, что любые изменения и новые неоднородности в пространстве появляются в результате взаимодействия объектов (в том числе и полей). Поэтому в ряде философских работ появились определения информации как меры отражения и отраженного многообразия [6] (последнее в значительной степени появилось под влиянием работ У. Р. Эшби [7]).

Понятие информации является одним из наиболее фундаментальных естественнонаучных понятий и по существу - философской категорией, столь же емкой, как материя или энергия. Именно эти три понятия лежат в основе любой естественнонаучной картины мира,

М

И

Рис. 1

любой познавательной модели действительности. Через них определяются все остальные физические понятия. Ввиду неразделимости в любом объекте материальной основы (М), энергии (Э) и информации (И) можно представить связь этих категорий в виде, изображенном на рис. 1.

Открытие в ХХ в. связи информации и энергии [8] является столь же революционным, как и определение Эйнштейном связи массы и энергии, хотя известность этих двух положений несоизмерима.

Связь массы и энергии описывается известной формулой Эйнштейна: Е = тс , где т -масса объекта, с - скорость света. А связь информации (I) и энергии определяется тем, что для получения одного бита информации необходимо затратить энергию, равную Ш

(k = 1.38-10" Дж/К; Т- абсолютная температура), поэтому I = -1.44ДН^, где АН -приращение энтропии.

Из формулы эквивалентности массы и энергии Эйнштейна следует, что 1 г вещества 13

содержит энергию 10 Дж. Показано, что для получения одного бита информации требуется

—23

затратить энергию не менее 10 Дж [8], [9]. Таким образом, 1 г вещества эквивалентен 36

10 бит информации. Этот подход к пониманию информации как снятой неопределенности, аналогичной энтропии физической системы, дал основание к появлению термина "негэнтро-пия" (вместо термина "информация" [8]). Все это, конечно, не приводит к отрицанию известного выражения Винера: "Информация - это информация, а не материя и не энергия" [10].

Можно обобщить существующее множество определений информации, основанных на выделении ее свойств, связанных с неопределенностью, отражением, сложностью, случайностью, упорядоченностью, многообразием [2], [11]. Графически соотношение этих свойств и соответствующих частных определений информации представлено на рис. 2. Определения, связанные с отражением, взаимодействием, многообразием используются в основном в философской литературе; с неопределенностью, выбором - в задачах связи; с вероятностью, случайностью - в статистической физике; с упорядочением - в теории управления. Любое из частных определений, осно-

ванное на том или ином определенном свойстве информации, ограничено. Для многих естественнонаучных и гуманитарных областей и задач достаточно широким и емким является определение информации как меры отраженного многообразия [2]. Для количественного описания информационных процессов вводят меры количества информации - меру Хартли, основанную на выборе из совокупности равновероятных (равновозможных) состояний, меру Шеннона, учитывающую различие вероятностей в реальных системах, меру Котельникова,

Взаимодействие, отражение

Выбор, вероятность

Неопределенность, случайность

Упорядочение, управление

Многообразие, сложность

Рис. 2

Известия вузов России. Радиоэлектроника. 2011. Вып. 1======================================

связанную с различием априорных и апостериорных вероятностей, и др. [11], [12].

В большинстве работ по теории информации ее количественные характеристики определяются на основе вероятностей тех или иных событий, т. е. количество информации является понятием, производным от вероятности. Основным соотношением для количест-

п

ва информации в прикладной теории является формула Шеннона [12]: I = pi ^Рг,

г=1

где Рг - вероятность г-го значения некоторой случайной величины. Эта концепция определяет информацию как меру неопределенности (энтропию) событий, т. е. количество информации зависит от вероятности ее получения, при этом не учитывается смысловая сторона информации. Такое ее понимание оказалось полезным для измерения количества информации и оптимального кодирования в связи. Отсюда следует понимание информации как отрицания энтропии, устраненной неопределенности, оригинальности, новизны, функции вероятности выбора.

В то же время существуют работы, в которых исходным является понятие количества информации, определяемое на основании комбинаторных или алгоритмических соображений, а уже через него определяется понятие вероятности [13].

Получение информации о каком-либо объекте или событии всегда уменьшает неопределенность знаний о данном объекте (событии). Это уменьшение неопределенности количественно описывается известной в теории вероятностей и математической статистике теоремой Байеса, которая выражает связь между априорными и апостериорными вероятностями. На использовании теоремы Байеса, несмотря на ее простоту, построены многие алгоритмы оптимальной обработки сигналов на фоне помех (в радио- и гидролокации, в дальней связи, в радиоастрономии и вообще во всех случаях, когда уровень помех велик). Она же лежит в основе построенной В. В. Налимовым [6] вероятностной модели естественного языка, которая объясняет многие факты лингвистики и позволяет дать конструктивное объяснение перехода от дискретной совокупности символов (букв, фонем, слов и т. д.) к континууму смыслов (дуализм вербальной дискретности и смыслового континуума).

Другой важный для практики подход к оценке количества информации в экспериментальных данных состоит в ее определении через диапазон измерения некоторой величины А (любой модальности) и разрешающую способность АА используемого прибора (рецептора) [11]: I = А1 АА. Из этого соотношения видно, что чем точнее прибор, тем большее количество информации можно получить в эксперименте с его помощью. Очевидно, что данная характеристика прибора предопределяет возможности его использования.

Качественно различны подходы к определению таких видов информации, как статистическая, семантическая, прагматическая. Статистическая информация отражает количественную сторону разнообразия объекта, его новизны, его неопределенность и случайность, характеризуемые распределением вероятностей состояний или энтропией. Семантическая информация связана со смыслом сообщения, и поэтому может относиться только к взаимодействию высокоорганизованных объектов (живых существ, людей, компьютеров). Смысл является субъективным понятием, его восприятие зависит от тезауруса потребителя информации. Прагматическая информация определяется целью субъекта или

сообщества. И семантическая информация, и прагматическая информация зависят от ценности сообщения для конкретного получателя информации. Ценность же определяется приращением вероятности достижения цели [14], хотя есть и иные определения этого понятия [15]. Согласно концепции А. А. Харкевича, ценность информации £ (I) определяется как £(1) = = ^2 Р(1)-п^2 Р, где I - количество информации, Р(1), Р - вероятности достижения цели после получении информации и до ее получения соответственно.

Различают также структурную информацию и динамическую информацию. Структурная информация определяется пространственной структурой некоторого материального объекта, которая сохраняется во времени. Динамическая информация переносится сигналами, т. е. развивается во времени. Возможен и широко используется переход структурной информации в динамическую и обратно - это письменность и звукозапись, телевидение и осциллография, восприятие любых сигналов человеком и животными и многое другое. Такой переход может быть изоморфным, т. е. взаимообратимым, и неизоморфным, при котором полное восстановление исходной информации невозможно. Практически осуществимы только неизоморфные преобразования, но в ряде случаев различия исходного объекта и его отображения столь малы, что преобразования считаются изоморфными.

Использование всех этих понятий позволяет учесть специфику исследуемых явлений и объектов и расширить сферу применения информационного подхода, который широко используется не только в математических и естественнонаучных исследованиях, но и в гуманитарной сфере (например, [16]). Важным фактором является то, что сама информация инвариантна по отношению к физическим свойствами носителя. Это переносит акцент в общественной деятельности с вещественно-энергетического потребления на информационное, поскольку общество ориентируется на развитие таких технологий, которые используют вещество и энергию в минимальной степени, замещая вещественно-энергетическое потребление информационным. Д. И. Дубровский пишет, что информатизация общества "перемещает основные приоритеты с потребления вещества и энергии на потребление информации" [17].

В ряде исследований, связанных с конкретными областями науки, используется понятие информации более узкое, чем ранее приведенные. Так, в книге Г. Кастлера [18] используется следующее определение информации: "Информация есть случайный и запомненный выбор одного варианта из нескольких возможных и равноправных". Данное определение в значительной степени пересекается с определением информации в теории связи, но сопровождается дополнительными условиями ("запомненный выбор", "равноправные варианты"), которые существенно сужают сферу применения рассматриваемого понятия. Эта концепция не позволяет относить к информации огромное множество сигналов естественных и искусственных объектов, множество (большинство) структур во Вселенной, которые, безусловно, информативны и без осуществления выбора и его запоминания. Тем не менее, это определение достаточно конструктивно, а также может быть использовано при определении ценности информации и ее связи с целеполаганием.

Существенное развитие идей Бриллюэна и Сцилларда о связи информации и энергии, о физической природе информации содержится в работах А. М. Хазена [19]. В них, в частности, объясняется связь информационных процессов и второго начала термодинамики.

В связи с развитием синергетики появилось много работ, связанных с информационным анализом процессов самоорганизации в сложных системах. В этих работах информация связывается с такими понятиями, как сложность, многообразие, упорядочение, выбор, порядок и хаос, нелинейность [14], [16], [20].

В настоящей статье не ставилась задача обзора всех работ, связанных с понятием информации и его содержательной интерпретацией. Многогранность этого понятия, так же, как и неизмеримое многообразие мира, не позволяют определить информацию однозначно. Но можно указать ее существенные свойства, связать их с типами наблюдаемых процессов, явлений и объектов и договориться о понимании этого термина в конкретных прикладных областях. Что касается наиболее широкого определения информации как философской категории, то можно утверждать, что информация - это категория, характеризующая объекты любой природы и любого уровня организации, являющаяся мерой неоднородности и воплощающая отраженное разнообразие.

Список литературы

1. Моисеев Н. Н. Расставание с простотой. М.: Аграф, 1998. 473 с.

2. Урсул А. Д. Информация. М.: Наука, 1971. 295 с.

3. Корогодин В. И., Корогодина В. Л. Информация как основа жизни. Дубна: Феникс, 2000. 205 с.

4. Философский энциклопедический словарь. М.: Сов. энцикл., 1983. 839 с.

5. Глушков В. М. Мышление и кибернетика // Вопр. философии. 1963. № 1. С. 36-48.

6. Налимов В. В. Вероятностная модель языка. М.: Наука, 1979. 303 с.

7. Эшби У. Р. Введение в кибернетику. М.: Иностр. лит., 1958. 432 с.

8. Бриллюэн Л. Наука и теория информации. М.: Гос. изд. физ.-мат. лит-ры, 1960. 392 с.

9. Седов Е. А. Взаимосвязь энергии, информации и энтропии в процессах управления и самоорганизации // Информация и управление. Философско-методологические аспекты / под ред. Л. Г. Антипенко, В. И. Кре-мянского. М.: Наука, 1985. С. 169-193.

10. Винер Н. Кибернетика или управление и связь в животном и машине / пер. с англ. М.: Сов. радио, 1958. 215 с.

11. Коган И. М. Прикладная теория информации. М. : Радио и связь. 1981. 216 с.

12. Шеннон К. Э. Работы по теории информации и кибернетике / пер. с англ.; под ред. Р. Л. Добрушина и О. Б. Лупанова. М.: Иностр. лит., 1964. 829 с.

13. Колмогоров А. Н. Теория информации и теория алгоритмов. М.: Наука, 1987. 303 с.

14. Харкевич А. А. О ценности информации // Проблемы кибернетики. М.: 1960. С. 53-57.

15. Шанкин Г. П. Ценность информации. Вопросы теории и приложений. М.: Филоматис, 2004. 128 с.

16. Рыжов В. П. Информационные аспекты самоорганизации в искусстве // Синергетическая парадигма. Нелинейное мышление в науке и искусстве. М.: Прогресс-Традиция, 2002. С. 156-182.

17. Дубровский Д. И. Проблема идеального: Субъективная реальность. М.: Канон+, 2002. 366 с.

18. Кастлер Г. Возникновение биологической организации / пер. с англ.; под ред. Л. А. Блюменфельда. М.: Мир, 1967. 90 с.

19. Хазен А. М. Разум природы и разум человека. М.: Мособлупрполиграфиздат, 1998. 606 с.

20. Николис Г., Пригожин И. Познание сложного / пер. с англ. М.: УРСС, 2003. 342 с.

V. P. Ryzhov

Taganrog institute of technology, Southern federal university

Concept of information

The basic definitions of information on the basis of concepts of interaction, reflexion, choice, probability, uncertainty, accident, streamlining, management, variety and complexity are considered. Objectivity of concept of information, its categorical character is underlined. It is shown that information characterizes objects of any nature and any level of the organization and embodies the reflected variety.

Information, category, objectivity, interaction, reflexion, probability, uncertainty, streamlining, variety Статья поступила в редакцию 8 апреля 2010 г. 8

i Надоели баннеры? Вы всегда можете отключить рекламу.