5. Ершов А. П. Информатика: предмет и понятие // Кибернетика. Становление информатики. - М.: Наука, 1986. С. 28-31.
6. Политика в сфере образования и новые информационные технологии: Национальный доклад России // Образование и информатика: Материалы 2-го Международного конгресса ЮНЕСКО (Москва, 1996). - М.: ИИТО ЮНЕСКО, 1997.
7. Колин К. К. Информатика в системе опережающего образования: Доклад на 2-м Международном конгрессе ЮНЕСКО «Образование и информатика» // Вестник Российского общества информатики и вычислительной техники, 1996. № 3. С. 19-39.
8. Колин К. К. Социальная информатика: Учебное пособие для вузов. - М.: Академический Проект, 2003. 432 с.
9. Колин К. К. Феномен информации и философские основы информатики // Alma mater (Вестник высшей школы) , 2004. № 11. С. 33-38.
10.Колин К. К. Эволюция информатики // Информационные технологии, 2005. № 1. С. 2-16.
11. Колин К. К. О структуре научных исследований по комплексной проблеме «Информатика» // Социальная информатика: Сб. трудов. - М.: ВКШ при ЦК ВЛКСМ, 1990. С. 19-33.
12. Колин К. К. Фундаментальные проблемы информатики // Системы и средства информатики. Вып. 7. - М.: Наука, 1995. С. 5-20.
13.Колин К. К. О структуре и содержании образовательной области «Информатика» // Информатика и образование, 2000. № 10. С. 5-10.
14.Колин К. К. Философские проблемы информатики. - М.: БИНОМ. Лаборатория знаний, 2010.
264 с.
15.Колин К. К., Урсул А. Д. Информационная культурология: предмет и задачи нового научного направления. - Saarbrucken, Germany: Lambert Academic Publishing, 2011. 249 p.
16.Гуревич И. М. Законы информатики - основа строения и познания сложных систем. - М.: Антиква, 2003. 176 с.
17.Гуревич И. М. Информационные характеристики физических систем. - М, 2010. 260 с.
18.Колин К. К. Информационная антропология - наука для будущего: предмет и задачи нового научного направления // Цивилизация знаний: Материалы международной научной конференции (Москва, 24 апреля 2011). - М.: РосНОУ, 2011.
19. Колин К. К. Человек и гармония: информационная концепция теории искусства и творчества // Вестник Челябинской государственной академии культуры и искусств, 2011. № 4.
20. Урсул А. Д. Природа информации: Философский очерк. - М.: Политиздат, 1968. 288 с.
21. Международный форум информатизации МФИ-93. Конгресс № 2 Информационные процессы и технологии: Тезисы пленарных докладов. - М.: 1993. 47 с.
22. Колин К. К. Информационный подход как фундаментальный метод научного познания // Межотраслевая информационная служба, 1998. № 1. С. 3-17.
23. Колин К. К. Культура как объект информационной безопасности // Синергетика, философия, культура. - М.: РАГС, 2001. С. 146-167.
24.Колин К. К. Информационная антропология: предмет и задачи нового направления в науке и образовании // Вестник Кемеровского государственного университета культуры и искусств, 2011. № 17.
УДК 553.98+004.43
ИНФОРМАТИКА КАК ДИСЦИПЛИНА И ЕЕ ТЕОРЕТИЧЕСКИЕ ОСНОВЫ
Р. Б. Сейфуль-Мулюков, д. г.-м. н., профессор Тел.: (499) 135-86-92 (раб.), (985) 152-96-27 (моб.), e-mail: rust@ipiran.ru Институт проблем информатики РАН www.ipiran.ru
Mathematical, physical and biological basis of the informatics theory is considered as well as the relation of informatics with the information science as understood by Russian and Western information community. A bit as the unit of information content is introduced, the possibilities of information content of complex natural systems evaluation using bit are proved.
Рассматриваются математические, физические и биологические основы теории информатики и соотношение информатики как научно-прикладной дисциплины в понимании информационного сообщества России с Information Science, Computer Science и Computational Science в представлении информационных специалистов США и западных стран. Представляется единица измерения количества информации - бит - и доказывается возможность оценки объема информации сложных природных систем.
Ключевые слова: теории информации, наука об информации, сложные природные системы, генезис нефти.
Keywords: information theory, informatics science, complex natural systems, petroleum genesis
Многозначность трактовки информатики наглядно проявляется в учебниках и учебных пособиях, рекомендованных и используемых при преподавании этой дисциплины в школах, колледжах, вузах и университетах. В настоящей статье рассматривается история появления информатики, ее соотношение с феноменом «информация» в трактовке российского и западного информационного сообщества. Цель подобного рассмотрения - показать теоретические основы информатики и возможности практического приложения ее законов и положений.
В настоящее время информатика используется не столько для обозначения научного направления или дисциплины о физических и математических основах информатики, сколько для выражения прикладных информационных технологий, применение которых стремительно расширяется во всех областях жизни общества. В этих условиях важно осознание базовых основ теории информатики и, соответственно, основ ее аналога или аналогов, используемых западными специалистами, таких как теория информации (Information theory) в науке об информации (Information Science).
В конце 50-х годов ХХ столетия после публикации математической теории связи К. Шеннона и внедрения ЭВМ в различные сферы деятельности общества, стало ясно, что информация, наряду с повседневным, исторически сложившимся представлением как informatio (лат.) - сообщение, данные, сведения, имеет более широкий смысл. Изучение информации как фундаментального феномена и особенностей практического применения информации стало обособляться в самостоятельную научную дисциплину. В последующие годы в англоязычных странах
для ее названия стал применяться термин Information Science. В СССР с 1968 г., а затем в России утвердился термин «информатика».
Основой теоретической информатики или теории информатики является феномен «информация», природа которого впервые всесторонне рассмотрена А. Урсулом [1]. В 80-х годах Б. Наумов [2] ввел «теоретические основы информатики» как раздел этой дисциплины. В основе теоретической информатики лежат математические, физические, кибернетические и философские законы, доказывающие, что информация отражает одно из фундаментальных свойств материи. Поэтому, знание законов и средств информатики имеет большое значение при изучении сложных материальных природных систем.
Информатика как термин для обозначения новой самостоятельной научной дисциплины впервые появился в Европе. В Германии его ввел К. Штейнбух [3]. Во Франции Ф. Дрейфус [4] предложил термин Informatique как название Общества прикладной информатики (Societe d'Informatique Applique - SIA). В том же году Ф. Байер [5] в США создал Американскую ассоциацию информатики (Informatics, Inc.), которая существовала до 1985 года. На термин Informatics претендовала ACM (Association for Computing Machinery), крупнейшая в мире профессиональная ассоциация компьютерных специалистов, с целью заменить им слова Computing Machinery в названии ассоциации, но получила отказ от Informatics, Inc. В 1962 г. в США был создан первый факультет информатики в Университете Пердю.
В англоязычной информационной литературе термин Informatics, несмотря на его введение еще в 1962 г., практически не используется. В популярной в Европе и США книге М. Нортона, второе издание которой вышло в 2010 г. [6], он не упоминается ни разу. О значении термина Informatics в информационном сообществе США в настоящее время можно судить по его положению в тезаурусе терминов Information Science с их
дефинициями, содержащему алфавитную и иерархическую части [7]. В алфавитном разделе термин Informatics определяется как область деятельности, объединяющая Information Science и Information Technologies. В иерархическом разделе Informatics - это термин третьего уровня, относящийся к термину второго уровня Information Science, который, в свою очередь, подчинен термину высшего уровня (top term) Fields или Disciplines.
В США широко применяются термины Computer Science и Computational Science. Они обозначают дисциплины, изучающие широкий спектр математических инструментов, технических средств и сетевых технологий, позволяющих оптимизировать сбор, хранение, поиск, обработку, преобразование, использование информации и другие операции с ней. Соотношение Computer Science и Computational Science с дисциплиной «информатика» в шутливой форме определил выдающийся нидерландский ученый Э. Дейкстра: «Информатика не более наука о компьютерах, чем астрономия - наука о телескопах».
В СССР, как отмечает Р. Гиляревский [8], один из авторов монографии, которая многие десятилетия служила учебником по информационной теории и практике [9], этот термин был предложен А. Харкевичем и Я. Дорфманом. С того времени термин информатика стал использоваться в учебниках, научных изданиях и официальных документах СССР, а затем в России.
Легенда об образовании самого термина гласит, что в основе четырех лингвистических и смысловых его аналогов -Informatik (нем.), Informatique (франц.), Informatics (англ.) и информатика (рус.) - лежит сочетание на соответствующем языке первой части слова информация и второй части слова автоматика. Создатели лингвистического гибрида соединили в один термин названия дисциплин, обозначающих сбор, накопление, обработку, хранение, классификацию, распространение, поиск, использование и другие процедуры и действия с данными, информацией и знаниями средствами автоматизации, компьютеров и информационных технологий. Фундаментальные качества информации как свойства материи остались вне пределов этой дисциплины.
В современных русскоязычных энциклопедических словарях, включая большой энциклопедический, физический, философ-
ский, толковый и другие, термин информатика разъясняется одинаково, лишь с несущественными различиями в дефинициях. Информатика представляется как дисциплина о структуре информации, ее накоплении, обработке, передаче, поиске, распространении, использовании и других операциях. Таким образом, в русскоязычной научно-технической литературе информатика теоретически и в прикладном плане имеет дело с феноменом «информация» (лат. informatio) в значительной степени в его первоначальном, историческом значении: как данные, сведения, знания, с которыми совершают перечисленные и многие другие операции.
Поскольку термин Information Science широко применяется пользователями англоязычных стран и тематика этой дисциплины частично пересекается с тематическими спектрами информатики, рассмотрим его содержание. Дословный перевод Information Science на русский язык звучит как «наука об информации». H. Борко [10, с. 3], одним из первых предложивший название Information Science, дал следующее ее определение: «Наука об информации изучает свойства и поведение информации, механизмы управления ее потоками, средства обработки для оптимизации доступа к информации и ее использования. Она имеет дело с частью знаний, связанной с созданием, сбором, организацией, хранением, интерпретацией, передачей, трансформацией и использованием информации» (выделено нами - Р. С.-М). Свойства и особенности информации послужили К. Оттену и А. Дебонсу [11] основанием возвести Information Science в ранг «метанауки», по их мнению, тесно связанной с библиотековедением, философией, математикой, кибернетикой, психологией, лингвистикой и Computer Science. Характерно, что среди наук, связанных с этой «метанаукой», авторы не указывают физику. Это свидетельствует об отсутствии у некоторой части западного информационного сообщества признания информации как одного из фундаментальных свойств материального мира. Подтверждением тому служит и упоминавшаяся популярная в США монография [6].
Утвердившееся содержание дисциплины Information Science отражает историю развития представлений о том, что есть информация. В течение тысячелетий до появления письменности устная информация о природных явлениях, исторических и религиозных событиях хранилась в памяти и передавалась из поколения в поколение, явля-
ясь частью исторической памяти живого
[12]. С появлением носителя информации (камень, папирус, кожа, береста, бумага и др.) возникла необходимость хранения носителя и классификации информации. Рождение письменности положило начало библиотековедению как первой науки, связанной с Information Science.
С начала ХХ века разнообразие и количество хранимой и передаваемой информации и ее носителей увеличилось настолько, что потребовало вмешательства математиков, которым смысл передаваемой информации не важен. Это позволило ввести в науку об информации такие объективные абстрактные категории кибернетики и математики, как множество, неопределенность и вероятность. Появилась статистическая теория информации, и количество информации впервые математически выразил Р. Хартли
[13], а затем К. Шеннон [14] своей знаменитой формулой. Было доказано, что количество информации можно выразить логарифмической функцией как множество, число элементов в котором есть степень неопределенности с вероятностью выбора одного, нужного элемента. Математическое выражение информации - это количество информации, выражающее степень снятой неопределенности. Поскольку формула Шеннона повторила формулу Больцмана для энтропии в термодинамике (мера хаоса, беспорядка), то мера энтропии в теории информации отождествилась со степенью неопределенности и была названа информационной энтропией Шеннона.
Основание логарифма два в формуле Шеннона позволило использовать элементарную единицу - «бит», аналогичную бинарной единице кодирования текстов, уже применявшуюся в системах связи (плюс -минус, да - нет, точка - тире). Это было не только математическое, безотносительное к содержанию, исчисление информации, но и введение единицы ее измерения, которой можно выразить количество и содержание информации. По существу, это и есть математическая основа информатики.
Методы математической статистики, лежащие в основе статистической информации, применимы к любому статистическому множеству объектов, явлений, предметов, вещей и информации, которые можно выразить кодами - битами (байтами, мегабайтами, гигабайтами и т. д.). В таком формализованном виде их можно передавать, принимать и хранить. При необходимости их мож-
но декодировать и преобразовать в первоначальную форму синтаксической или цветовой информации и совершать другие операции. Первоначальное, историческое понятие «информация» (informatio) по мере развития методов информационных, компьютерных технологий передачи, хранения, поиска, извлечения информации и знаний утвердилось в таких общепринятых понятиях, как data base, data mining, information retrieval, knowledge management и многие другие.
Information Science, Computer Science и Computational Science со всеми практическими приложениями развиваются быстрыми темпами, и научные достижения, особенно в компьютерных технологиях обработки информации, внедряются в практику производственной, общественной и иной деятельности и персональной жизни людей. За более чем 6g лет, прошедших со времени создания Шенноном математической теории информации, были разработаны ее многочисленные приложения для самых различных областей науки и техники.
Однако, и это очень важно для теории информатики, интерпретация информации только как снятой неопределенности не раскрывает ее полностью как одно из фундаментальных свойств материального мира, поскольку нет ясного описания ее физической основы. Современное представление информации как феномена в англоязычных странах отражено в двух изданиях, упоминавшихся выше: монографии [б] и тезаурусе [7]. В монографии [6] информация в теории информации (Information Theory) представляется как «вероятное количество измерения ожидаемой ценности или вероятность события раньше его наблюдения» [6, с. 31]. Теория информации имеет дело со специфическим аспектом и типом информации, количество которой может быть измерено и передано через канал связи, и не отожествляется с понятием информация в каждодневной жизни. Все 12 разделов монографии и структура тезауруса понимают информацию как феномен, имеющий стоимость, т. е. товар, продукт или предмет потребления, использование которого необходимо в повседневной жизни, а в производстве дает возможность повышать его эффективность и создавать новые продукты и предметы.
Вместе с тем изучение основ феномена «информация» с точек зрения физики и философии и познания роли информации в организации природных, в частности биологических, структур началось задолго до введе-
ния термина информатика и признания науки об информации (Information Science). Представление об информации как фундаментальной категории постигалось по мере исследования материи на атомном и субатомном уровне, а также строения сложных природных биологических систем.
Понятие об атоме и молекуле было принято в 1860 г. на Международном съезде химиков. В 1897 г. введено понятие электрон, а в 1924 г. установлены его волновые свойства. В 1932 г. был определен нейтрон, а в 1960 г. - протон вместе с их корпускулярными характеристиками и волновыми свойствами [15]. Создалась основа знаний о строении атома, его ядра и электронных ор-биталей, а также об и их информационных характеристиках.
Представление о субатомном строении вещества складывалось позднее, однако также до того, как появились дисциплины информатика и Information Science. В его основе было изучение элементарных частиц, которые считались возбужденным состоянием вакуума. Предсказанные теоретически и частично позднее установленные частицы Бозе (фотоны, гравитоны, глюоны и мюоны) переносят свет, гравитацию и цвет, обладая только волновой функцией. Для обоснования теоретической информатики более значимо открытие частиц Ферми - фермионов (кварков и лептонов), из которых состоят протоны и нейтроны, информационные характеристики которых вычисляются точно.
Основополагающей идеей физических основ информатики является гипотеза, высказанная в 1900 г. М. Планком о квантовом характере поведения элементарных частиц, однако непосредственное отношение к информатике имеет открытие В. Гейзенбергом [16] фундаментального закона микромира: кинематики и динамики элементарных частиц, то есть - квантовой теории поля. Л. Бриллюэн [17], введя понятие «связанной информации» (bound information) как некоторого состояния физической системы, сопоставил его с термодинамическим состоянием или энтропией, оцениваемой конкретной физической величиной, что позволило оценивать информацию определенными физическими величинами.
Значение волновой функции элементарных частиц для понимания их информационной характеристики было определено А. Цейлингером [18]. Учтя свойства и особенности поведения элементарных частиц в квантовом поле и применив, по существу,
информационный подход, он объяснил физическую природу квантовой механики и предложил бит как наименьшее количество информации, которое несет элементарная система, представляющая только одно правильное утверждение. При этом под утверждением он понимал нечто установленное и подтвержденное результатами эксперимента и непосредственного наблюдения [18, с. 635]. Поскольку поведение электрона и протона в квантовом поле определено наблюдениями и расчетами, их, подобно истинному утверждению Цейлингера, можно считать элементарной системой и по спинам их волновой функции рассчитать объем информации атома любого элемента, а следовательно, и информационное содержание вещества ими составленного и его изменения на различных этапах химического, термического, каталитического и иного преобразования.
Результаты изучения субатомного и атомного строения материи физическими методами и математическими вычислениями и установленные ее информационные характеристики позволяют определить информацию как фундаментальное свойство материального мира и обосновывают информационную единицу - бит, применимую для измерения объема информации физических систем.
Вышеизложенное показывает, что неопределенность, вероятность и множество как понятия математики, физики, кибернетики и квантовой механики явились основой для математического и физического обоснования информации как феномена, существующего вне нашего сознания, и бита в качестве универсальной единицы ее измерения. Однако в познание феномена информации и обоснования теории информатики большой вклад внесли исследования связи между информацией и такими понятиями, как разнообразие, сложность и организация, имеющие более широкий смысл и раскрывающие свойства и особенности строения объектов в биологии, геологии, философии, в топологии и других фундаментальных науках.
Неотделимость понятий разнообразие и информация впервые показал У. Эшби [19] и в более широком философском плане А. Урсул [1]. Эшби количество информации приравнивал количеству разнообразия. Разнообразие можно представить как число различных элементов (аналогично с числом истинных утверждений Цейлингера) и как ло-
гарифм этого числа элементов (например, по основанию два, как в формуле Шеннона). В данном случае логарифм по основанию два -это средство преобразования множества, состоящего из разнообразных элементов, в количество информации этого множества, выраженное в битах. На основании своих представлений об информации как разнообразии Эшби вывел закон необходимого разнообразия, названный его именем и играющий ключевую роль в познании строения и развития сложных систем.
Работа А. Урсула [1] - это уникальное в научно-технической литературе по информатике и в науке об информации обобщение знаний о феномене «информация» с философской, математической, физической и биологической точек зрения. Этому всестороннему обобщению почти полвека, но оно воспринимается как современная сводка по теории информатики.
В биологии возможность определения информационного содержания молекул биологических структур появилась при отождествлении совокупности молекул с неким множеством, имеющим топологическую структуру. Первым исследователем связи понятий «множество» и «топология структур» был Н. Рашевский [20]. Биологические функции простейших организмов или отдельных структурных единиц организма он представил в виде топологического пространства - графа и исследовал его информационное содержание. Э. Тракко [21] определил информационное содержание графа, состоящего из вершин и соединяющих их ребер. Число ребер, исходящих из вершины, определяет степень вершины, а количество информации в топологии - это отношение общего числа вершин графа к числу вершин с различной степенью (топологически не тождественных). Это отношение выражает логарифмическая функция. Взяв за основание логарифма число два, Тракко пришел к формуле количества топологической информации, практически аналогичной формуле информационной энтропии Шеннона.
Использование графа для оценки объема информации оказалось особенно плодотворным при изучении структуры молекул веществ, валентные связи химических элементов которых могут отождествляться со степенью вершин графа, а сами вершины - с атомами элементов. Исследования в этом направлении ведутся в фармакологии, об их уровне можно судить по работе М. Дехмера с соавторами [22]. Положения топологиче-
ской информации - еще одно обоснование теоретической информатики и доказательство ее фундаментального характера.
Роль информации в организации биологических структур впервые исследовал Г. Кастлер [23]. Он исходил из того, что клетка - это высокоорганизованная система, состоящая из 2-1011 атомов и содержащая 5-1012 бит информации. В многоклеточном организме каждая клетка абсолютно функциональна, и если она перестает быть частью целого, то целостность информации организма нарушается и сохраняется только информация отдельных атомов. Кастлер считал ген уникальной комбинацией молекул биополимеров, в виде кода определенной конфигурации ДНК и РНК. Информация - это код, передаваемый из поколения в поколение. Заслуга Кастлера не только в установлении роли информации в организации множества высокоорганизованных, функциональных, биологических структур, но и в доказательстве существования в этих множествах не вероятностных методов снятия неопределенности или создания информации. Это дополнило идеи Рашевского и Тракко о природе и видах информации.
Математические, физические законы и положения биологи, квантовой механики и философии, обосновывающие фундаментальный характер информации, расширяют понимание этого феномена за границы традиционно сложившихся представлений об информации как товаре, имеющем стоимость. Из признания существования теоретического раздела информатики следует два положения, важных для изучения природных систем, в частности проблемы генезиса нефти.
1. Бит - это не только единица статистической информации. Она имеет физический смысл и математическое выражение. В битах можно подсчитать не только объем информации в традиционном смысле, но и объем информации атома любого химического элемента, а следовательно, и любого сложного химического вещества, составленного совокупностью атомов различных элементов.
2. Объем информации в битах отражает степень сложности, организации, разнообразия системы. Регрессивное убывание объема информации или прогрессивное его нарастание отражают эволюцию развития системы соответствующим изменением объема информации (информационной энтропии).
Возможности, которые открывает тео-
ретическая информатика и использование бита как единицы измерения объема информации физических систем, можно показать на примере образования и эволюции сложной природной системы - нефти, состоящей из более 500 углеводородных веществ, названных углеводородными последовательностями. В монографии автора [24] показано, что состав и структура нефти определяют ее статус как сложную систему. Приведен критический анализ гипотезы ее происхождения из жировых (липидных) останков животных, микробов, наземных и морских растений. В [24] показано, что объем информации как одно из фундаментальных понятий информатики позволяет обосновать принципиально новую гипотезу образования нефти из атомов углерода и водорода, возникших в недрах мантии Земли.
Оценка объема информации нефти и газов основана на том, что молекула газа, химический состав которого выражен брутто-формулой, и условная молекула нефти, выраженная эмпирической формулой, состоят из атомов. Информация любого атома, а следовательно, и информация молекулы может быть измерена в битах [25]. Следуя представлениям Н. Амосова [26] о классификации количества информации определенного качества как показателя уровня развития материи, процесс образования нефти можно рассматривать как иерархическую пирамиду, на каждом более высоком уровне которой формируются более сложные углеводород-
ные последовательности, с большим разнообразием и большим объемом информации.
Методика подсчета объема информации в углеводородах, составляющих нефть, и в структуре ее условной молекулы, представлена в монографии [24, с. 131-142]. При этом учтены как объемы информации атомов отдельных углеводородов (статистическая информация), так и объемы информации структуры их молекул (топологическая информация). В таблице приведены объемы информации углеводородов, последовательно образующихся на этапах генезиса углеводородных последовательностей от атомов углерода и водорода до нефти. Нижние строчки таблицы показывают объем информации атомов углерода и водорода, атомы которых приобретают нормальную ядерно-орбитальную атомную конфигурацию в верхней астеносфере [27].
Таким образом, динамика изменения объема информации в единице условной массы вещества (атома или молекулы) от начальных стадий образования простейших углеводородов до конечной стадии в виде полной совокупности углеводородных последовательностей - нефти и, наконец, в битуме битуминозной породы четко отражается в последовательном увеличении объема информации во вновь образующихся более сложных углеводородах. Изменение объема информации позволяет считать, что процесс образования нефти начинается на глубинах верхней астеносферы, на которых возникают
Таблица
Изменение объема информации по модели неорганического синтеза нефти (каталитическое
преобразование простейших углеводородов).
Химический элемент, углеводород Формула (химическая, брутто или эмпирическая) Объем информации, бит
Битум С45НЗ1028М 6219
Нефть (тяжелая) СИН«^ 5228
Нефть (легкая) Сз2НббОЯМ 4862
Бутан С4Н10 547
Бутилен С4Н8 539
Пропан С3Н8 424
Пропилен СзНб 403
Этан С2Н6 289
Этилен С2Н4 269
Метан СН4 154
Углерод С 109*
Водород Н 10*
* по данным И. Гуревича [28, с. 46].
исходные атомы углерода и водорода. В осадочной оболочке земной коры простейшие углеводороды с объемом информации, не превышающим 550 бит, в результате каталитических преобразований трансформируют-
ся в более сложные углеводородные соединения нефти, что четко показал Жармен [29]. Они и формируют залежи жидких углеводородов.
Основной этап формирования нефти с
объемом информации условной молекулы 4862 бита происходит в земной коре, в термодинамических условиях, обеспечивающих их каталитические преобразования, взаимные переходы и сохранение. Формирование нефти заканчивается в залежи, в микросостоянии минимальной энтропии, соответствующем наивысшей степени сложности, разнообразия и максимального объема информации. С этого состояния система нефти начинает увеличивать энтропию, т. е. разрушаться, и ее жизненный цикл заканчивается в приповерхностных слоях земной коры, в которых нефть превращается в битум битуминозных пород. Подобный процесс полностью исключает мнение о возможности нефти сохраняться в недрах неизменной в течение сотен миллионов лет и соответствует закономерности развития материи во Вселенной, установленный В. Амбарцумяном [30]: «Материя развивается от простого к сложному, от более плотного к менее плотному состоянию».
Заключение
Уровень современных знаний об информатике позволяет расширить ее традиционное восприятие только как данных, сведений, информации, концентрируясь на ин-
Литература
формационных технологиях их обработки, хранения, передачи и эффективного использования. Нужно иметь в виду: информация -это одно их фундаментальных свойств материи. Каждая материальная частица обладает энергией, массой, волновой функцией и информацией. Природная совокупность материальных частиц - атомов элементов - в виде сложной природной системы есть диалектическое единство понятий: множество, неопределенность, вероятность, разнообразие, сложность и организация.
Подобное расширенное понимание информации и информатики открывает дополнительные возможности для изучения природы и эволюции сложных природных систем. При этом, начав их анализ с атомного уровня, можно проследить эволюцию системы по термодинамическим и информационным характеристикам от элементарного атома до сложной системы. Пришло время для того, чтобы на всех уровнях образования не ограничиваться представлением информатики как научно-прикладной дисциплины, имеющей дело с информацией как данными, сведениями и знаниями. Не менее прикладным является учет информации как фундаментального свойства материи.
1. Урсул А. Д. Природа информации. - М.: Политиздат, 1968. 288 с. (2-е изд. - Челябинск: ЧГАКИ, 2010. 230 с.).
2. Наумов Б. Н. Информатика и компьютерная грамотность. - М.: Наука, 1988.
3. Steinbuch K. Informatik: Automatische Informationsverarbeitung II SEG-Nachrichten (Technische Mitteilungen der Standard Elektrik Gruppe). - Berlin, 1957. Nr. 4. S. 171.
4. Dreyfus Ph. L'informatique II Gestion, 1962. Vol. 5. June. P. 240-241.
5. Bauer W. F. Informatics: An Early Software Company II IEEE Annuals of the history of company, 1966. Vol. 18. No. 2. P. 70-76.
6. Norton M. J. Introductory Concepts in Information Science. 2nd ed. - Medford, N. J.: Information Today, 2010. 210 p.
7. Thesaurus of Information Science, Technology, and Librarianship. 3rd ed. - Medford, N. J.: Information Today, 2010. 225 p.
8. Гиляревский Р. С. Информационный менеджмент. - М.: Профессия, 2009. 303 с.
9. Михайлов А. И., Гиляревский Р. С., Черный А. И. Основы информатики. - М.: Наука, 1968. 756 с.
10. Borko H. Information Science: What is it? IIAmerican documentation, 1968. Vol. 19. No. 1. P. 3-5.
11. Otten K., Debons A. Towards a Metascience of Information: Informatology II Journal of the American Society for Information Science, 1970. No. 1-2. P. 89-94.
12. Гринченко С. Н. Системная память живого. - М.: Мир; ИПИРАН, 2004. 480 с.
13. Hartley R. V. L. Transmission of Information II Bell System Technical journal, 1928. No. 7. P. 535-563.
14. Shannon C. E. A mathematical Theory of Communication II Bell System Technical Journal, 1948. Vol. 27. P. 379-423, 623-656.
15. Ишханов Б. С., Кэбин Э. И. Физика ядра и частиц. ХХ век. - М.: МГУ, 2000. 210 с.
16. Heisenberg W. Quantum Theory of Fields and Elementary Particles II Reviews of Modern Physics, 1957. Vol. 29. No. 3. P. 269-278.
17. Brilluen L. Science and Information Theory. - New York: Academic Press, 1956.
18. Zeilinger A. A foundation principal for Quantum Mechanics II Foundation of Physics, 1999. Vol. 29. No. 4. P. 631-643.
19. Ashby W. R. An introduction to Cybernetics. - London: Chapman & Hall, 1956.
20. Rashevsky N. Live, information theory and topology II The Bulletin of Mathematical Biophysics, 1955. Vol. 17. No. 3. P. 229-235.
21. Trucco E. A note on the Information Content of Graphs // The Bulletin of Mathematical Biophysics, 1956. Vol. 18. No. 2. P. 129-135.
22. Dehmer M., Barbarini N., Varmusa K., Graber A. A large scale analysis of information-theoretic network complexity measures using chemical structure // PMC, 2010. http://www.ncbi.nlm.nih.gov/pmc/articles/ (23.12.2010).
23. Кастлер Г. Возникновение биологической организации. - М.: Мир, 1967. 180 с.
24. Сейфуль-Мулюков Р. Б. Нефть - углеводородные последовательности, анализ моделей генезиса и эволюции. - М.: 11 формат, 2010. 175 с.
25. Гуревич И. М. Законы информатики - основа строения и познания сложных систем. - М.: Торус пресс, 2007. 399 с.
26. Амосов Н. М. Мышление и информация // Проблемы информации в современном мире. - М.: Мысль, 1964. С. 389.
27. Фомин Ю. М. Верхняя астеносфера - переходная зона между веществом мантии и литосферы // Проблемы эволюции. http://macroevolution.narod.ru (декабрь 2009).
28. Гуревич И. М. Информационные характеристики физических систем. - М.: 11-й формат, 2009. 162 с.
29. Germain J. E. Catalytic conversion of hydrocarbons. - London: Academic Press, 1969. 312 p.
30.Амбарцумян В. А. Научные труды. Т. 2. - Ереван: АН АрмССР, 1960.
НОВАЯ КНИГА О ПРИРОДЕ ИНФОРМАЦИИ
И. М. Гуревич, А. Д. Урсул. Информация - всеобщее свойство материи: Характеристики. Оценки. Ограничения. Следствия. - М.: URSS, 2011. - 310 с.
В книге развивается философский подход к исследованию феномена информации, предложенный одним из авторов еще в 60-е годы XX века и исходящий из признания информации атрибутом материи. Понятие информации определяется в самом общем случае как отраженное разнообразие (неоднородность), тем самым представляя информацию в качестве всеобщего свойства материи. Универсальной мерой физического разнообразия (неоднородностей) является шенноновская информационная энтропия. Используемый философско-методологический подход, обобщая рассматриваемые проблемы, позволяет рекомендовать методы исследований и поставить конкретные задачи для прикладных наук, что особенно важно для областей научного поиска, охватывающих междисциплинарные предметные сферы и находящиеся в стадии интенсивного развития.
Источник. Издательство URSS.RU (http://edurss.ru/cgi-bin/db.pl?lang=Ru&blang=ru&page=Book&id=158392)
УДК 007
КИБЕРНЕТИКА: ВСЕОБЩНОСТЬ ЕДИНСТВА ИНФОРМАЦИИ И УПРАВЛЕНИЯ
И. А. Варданян
Тел.: (+374-10) 27-29-33, e-mail: ivvard@mail.ru
The paper considers the problem of philosophy of information and informatics and makes revision of heritage of ideas of cybernetics, which allows to confirm the validity of the principle of generality of information and to formulate the principle of generality of unity of information and control, and underline its importance for the solution of the problems of «Information Society» or «Society of Knowledge».
В статье рассматриваются проблемы так называемой философии информации и информатики и осуществляется пересмотр наследия идей кибернетики, который позволяет утвердить справедливость принципа всеобщности информации и сформулировать принцип всеобщего единства информации и управления, а также отметить его важность для решения все возрастающего значения проблем «информационного общества» или «общества знаний».