Научная статья на тему 'Понятие информации и ее роль в физических и биологических системах'

Понятие информации и ее роль в физических и биологических системах Текст научной статьи по специальности «СМИ (медиа) и массовые коммуникации»

CC BY
1987
92
i Надоели баннеры? Вы всегда можете отключить рекламу.

Аннотация научной статьи по СМИ (медиа) и массовым коммуникациям, автор научной работы — С А. Позднеев

Предпринята попытка дать определение понятию смысла информации и показана важность этого определения для естественных наук физики, химии, биологии, информатики и т.д. Представлен анализ понятия информации для физических и биологических систем, а также рассмотрена связь с такими понятиями как упорядоченность, энтропия, самоорганизация.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Текст научной работы на тему «Понятие информации и ее роль в физических и биологических системах»

УДК 001.891, 577.3, 575.852, 576.1, 681.3, 681.142

ПОНЯТИЕ ИНФОРМАЦИИ И ЕЕ РОЛЬ В ФИЗИЧЕСКИХ И БИОЛОГИЧЕСКИХ СИСТЕМАХ

С. А. Позднеев

Предпринята попытка дать определение понятию смысла информации и показана важность этого определения для естественных наук - физики, химии, биологии, информатики и т.д. Представлен анализ понятия информации для физических и биологических систем, а также рассмотрена связь с такими понятиями как упорядоченность, энтропия, самоорганизация.

В настоящее время необходимость определения понятия информации и ее смысла осознана как в естественных (физика, химия, биология, медицина, информатика и т.д.), так и в гуманитарных (социология, политология, философия, языкознание и т.д.) науках. Однако четкое определение понятия информации, как, например, понятия энергии, силы, давления в физике, отсутствует, причем следует отметить особо, что наличие этого понятия позволит установить ясное и конструктивное соответствие между многими дисциплинами - физикой и философией, биологией и химией и т.д.

Обычно под информацией понимается любая совокупность сигналов, воздействий или сведений, которую некоторая система воспринимает из окружающей среды, передает в окружающую среду и хранит в себе [1]. Достаточно большая коллекция определений этого термина представлена в [1, 2], причем все представленные определения термина "информация" и подробное описание ее свойств не совсем корректны [1 - 3]. Непосредственный перевод английского слова information - сообщения, сведения также не проясняет картины. О чем сведения, что за сообщения? Осмысленная английская фраза и случайный набор букв также не приближает нас к определению. Информация как код, как материальный носитель смысла - одно, смысл ее - совершенно другое.

Можно сказать, что смысл всему дает человек и отсюда возникает другая крайность - информация связана с человеком и вне его просто не существует (см. определения понятий ценности и осмысленности информации в [2]), что также противоречит многим

опытным данным (например, бегство стада животных при определенном сигнале опасности и т.д.).

В естественных науках [2 - 5] давно стало понятным, что информация неразрывно связана с физическими объектами и процессами, причем в физике достаточно обоснован ным является утверждение, что перенос информации между системами всегда связан с переносом энергии и энтропии. Помимо этого признано, что информация может существовать только в системах с несколькими возможными состояниями [3, 4] ив этом случае количество передаваемой информации АI связано с уменьшением неопределенности АН состояния системы Д/ = — АН, а в соответствии с теорией Больцмана-Гибса [2 - 4] Д5" = к АН, где к - постоянная Больцмана.

Таким образом, получение информации о системе осуществляется посредством передачи энтропии, причем следует отметить, что не каждая передача энтропии связана с передачей информации, и поэтому в общем случае справедливо неравенство А1 < |Д5|//;. Это соотношение можно сравнить с соотношением между массой и энергией Е = тс2, причем оба эти соотношения эквивалентности означают не тождественность величин и не превращение одной величины в другую. Подобно тому как масса не может переходить в энергию, физическая энтропия не может переходить в неопределенность состояния [3]. Однако одна форма массы (энтропии) может превращатьс и в другую, и параллельно с этим превращением соотношение эквивалетности вызывает соответствующее превращение одной формы энергии (неопределенности состояния) ?, другую. Причем именно в этом смысле мы можем говорить об информационной энтро пии, непосредственно связанной с информационным процессом.

Таким образом, с данной точки зрения следует, что не каждая передача энтропин связана с передачей информации, а только та, которая связана с информационным и свойствами, т.е. с информационной энтропией [3, 4].

Определим смысл любой информации как отношение [4], ибо всякая математическая теория изучает определенную алгебраическую систему [6], как множество с выделенными в нем отношениями [6, 7]. Рассматривая различные уровни организации объектов материального мира от ядерной физики до космологии, можно заметить, что всем им соответствует некая обобщенная модель - все уровни организуются на основе специфпч ных для каждого из них взаимодействий составляющих их элементов. Данная модел. допускает обобщение, если рассматривать в качестве элементов не только материальные, но и нематериальные объекты, а понятие взаимодействия заменить понятием отношения [4 - 7]. Эта модель в некоторой степени соответствует понятию множества

[6, 7], которое является абстрактным понятием, однако в рамках поставленной задачи (определения смысла информации) будем использовать понятие множества не как формализованный математический аппарат, а как понятийную структуру, имеющую реальное содержание.

Например, на конвейере лампового завода за какой-то отрезок времени произведено 100 электрических лампочек. Рассмотрим различные варианты реализации различных отношений.

1. Все сто лампочек находятся в одном отношении друг к другу - это лампы по 60 Вт.

2. Это множество лампочек распадается на два подмножества - лампочек с малым патроном (миньон) 50 шт. и лампочек с обычным патроном - 50 шт.

3. Все лампочки имеют вольфрамовые нити накала.

4. Множество из ста лампочек распадается на два подмножества: подмножество -50 шт. сошло с линии 1, а другое подмножество из 50 шт. сошло с линии 2.

Видно, что из тех же элементов можно построить различное число отношений, причем эти отношения не чистая абстракция, а основа для построения информации о работе всего производства, причем понятие "отношение" - родовое понятие, не сводимое к другим, более элементарным.

Отношения можно разделить на следующие группы:

- отношения типа непосредственного взаимодействия между элементами (гравита ционное, электромагнитное и т.д.);

- отношения типа непосредственного информационного взаимодействия, причем в отношениях этого типа имеют место и непосредственные взаимодействия, т.к. информация не может существовать без вещественного носителя (информационная энтропия, причем примеры этого типа отношений широко представлены в [4, 7]);

- отношения абстрактные, опосредственные, в которых нет непосредственной связи между элементами, нет их взаимодействия, но отношение тем не менее существует. Например - отношение равенства - можно говорить о равенстве: масс (камней и воздуха), равенстве объемов, давлений, равенстве членов уравнений и т.д.

Отметим важные свойства отношений. Отношение может претендовать на роль единого концептуального понятия, позволяющего на основе единого методологического подхода рассматривать самые разнообразные проявления мира материальных и нематериальных явлений.

Отношение по своей природе не материально, исключая случай отношения типа

взаимодействия, и не идеально, т.е. принадлежит не только человеческому сознанию. Например, отношение масс Луны и Земли - объективная характеристика и существует реально.

Основная особенность категории отношение - это инвариантность, т.е. оно не свя зано с элементами, между которыми это отношение имеет место. Подобная инвариант ность отношения аналогична принципу инвариантности информации по отношению к ее носителю. Это позволяет определить смысл информации как не зависящей от ма териальной основы адекватной модели отношения (отчужденное отношение). Далее можно построить пространство отношений и, применяя традиционную математику, построить последовательную теорию [6, 7]. Подобный подход был, например, успешно применен для построения теории относительности, исходя из отношения порядка [7]. Необходимо отметить, что "пространство" с философской точки зрения, есть результат осмысленного перехода от возможности к актуализации этой возможности в виде чего-то подобного реальности [4]. Возможность превращения в некий понятийный инструмент, обладающий атрибутами реальности, вот что такое пространство -простор для мышления. Например, для физического пространства-времени подобная процедура традиционна, пока речь не заходит о сложно искривленных пространствах. Понятие экономического и информационного пространства распространено достаточно широко, хотя и не стало еще вполне привычным и определенным. Для биологии, палеонтологии, лингвистики - все эти понятия пока еще проблематичны. Так, например, можно подумать, используя представленные выше рассуждения, что наряду с реально существующими языками существуют с такой же степенью вероятности и мириады не существующих, но в каком-то смысле возможных языков. Здесь присутствуют большие трудности как технические, так и психологические, хотя полностью отрицать это также достаточно сложно, можно вспомнить хотя бы людей, побывавших в состоянии клинической смерти и разговаривающих на несуществующих (неизвестных) языках.

Работа выполнена при поддержке Научного Фонда Китайской Народной Респуб.;;' ки (грант NSF N 19734030), Академии Наук Тайваня (грант NSC N 85-212-М-007-009), Совместного научного фонда Израиля и США и Российского фонда фундаментальн их исследований (грант N 98-02-17266, N 01-02-16075).

ЛИТЕРАТУРА [1] Д о р о д н и ц ы н А. А. Информатика предмет и задачи, Вестник АН СССР,

1984, с. 85; С а м а р с к и й А. А. Проблемы применения вычислительной техники, Вестник АН СССР, 1985, с. 17; Советский энциклопедический словарь, М., Сов. энциклопедия, 1989; Петров Ю. П. О видах и формах информации, Информационные проблемы изучения биосферы, М., Наука, 1988; Бугровский и др. Об общих свойствах информационных систем в живой природе и технике (там же); Корогодин В. И. Информация и феномен жизни, Пущино, 1991, 202 с; Корогодин В. И., Корогодина В. JI. Информация как основа жизни, Дубна, Феникс, 2000, 208 с; К о ш т о е в В. В. Информационные системы и феномен жизни, Дубна, 2000; Серавин JI. Н. Теория информации с точки зрения биологов, JL, Изд-во ЛГУ, 1973, 160 с; Янковский С.Я. Концепции общей теории информации, М., Феникс, 1999, [email protected].

[2] Ч е р н а в с к и й Д. С. Проблема происхождения жизни и мышления с точки зрения современной физики, УФН, 170, 157 (2000); Кастлер Г. Возникновение биологической организации. М., Мир, 1967; Росс У., Э ш б и К. Введение в кибернетику. М., ИИЛ, 1959; Шредингер Э. Что такое жизнь с точки зрения физики. М., ИИЛ, 1947; Кастлер Г. Возникновение биологической организации. М., Мир, 1967; Блюменфельд Л. А. Проблемы биологической физики. М., Наука, 1974.

[3] Э в е л и н г В., Э н г е л ь А., Файстель. Физика процессов эволюции. М., Эдитроиал, УРСС, 2001, 328 е.; В г о о k s D. R., W i 1 е у Е. D. Evolution as Entropy. Towards a United Theory of Biology, Chicago, 1986, 335 p.

[4] Д e к a p т P. Рассуждение о методе, чтобы лучше направлять свой ум и отыскивать истины в науках. М., Изд-во АН СССР, 1953; Поль Ю. С. О научности материалистического мировоззрения и аксиоматический подход к философии. Препринт ФИАН N 30, М., 1992; Жак Марите. Знание и мудрость. М., Научный мир, 1999, 244 е.; Ю м Д. Исследование о человеческом познании. Соч. в 2-х томах, М,, Мысль, 1966; Кант И. Критика чистого разума, Соч. в 6-ти томах. М., Мысль, 1966; Полосухин Б. И. Феномен вечного бытия. М., Наука, 1993, 176 е.; П о з д н е е в С. А. Определение смысла информации. Международная конференция CASC'2001, "Когнитивный анализ и управление развитием ситуации", М., 2001; Pozdneev S. Concept of the Information, Int. conf., "What is information?", Ben-Gurion University, SDE-Boker, Israël, 2001.

[5] Б p и л л ю э н Л. Наука и теория информации. М., Физматгиз, 1960, 392 с.

[6] Ф р и д Э. Элементарное введение в абстрактную алгебру. М., Мир, 1972, 260 е.; Френкель А., Бар-Хиллел И. Основания теории множеств. М., Мир, 1966, 556 с.

[7] П и м е н о в Р. И. Основы темпорального универсума. Сыктывкар, 1991, 400 с.

[8] Горшков В. Г., М а к а р ь е в а А. М. К вопросу о возможности физической самоорганизации биологических и экологических систем, Доклады АН, 378, 570 (2001).

Поступила в редакцию 14 февраля 2002 г.

i Надоели баннеры? Вы всегда можете отключить рекламу.