Научная статья на тему 'О термине «Информация» и месте теоретической информатики в структуре современной науки'

О термине «Информация» и месте теоретической информатики в структуре современной науки Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
1046
137
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
ИНФОРМАЦИЯ / ДАННЫЕ / ЗНАНИЕ / ТЕОРЕТИЧЕСКАЯ ИНФОРМАТИКА / INFORMATION / DATA / KNOWLEDGE / THEORETICAL INFORMATICS

Аннотация научной статьи по компьютерным и информационным наукам, автор научной работы — Зверев Г. Н.

Рассматриваются объективные и субъективные определения категорий информатики. Анализируется структура информатики и ее отличия от логики, математики, философии.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

About term information and place of theoretical informatics in modern science structure

The objective and subjective definitions of informatics categories are considered. The structure of informatics, its distinctions from logics, mathematics and philosophy are analyzed.

Текст научной работы на тему «О термине «Информация» и месте теоретической информатики в структуре современной науки»

УДК 004; 007; 510; 519 ББК 22.18

О ТЕРМИНЕ «ИНФОРМАЦИЯ» И МЕСТЕ ТЕОРЕТИЧЕСКОЙ ИНФОРМАТИКИ В СТРУКТУРЕ СОВРЕМЕННОЙ НАУКИ

Г.Н. Зверев, д.т.н., проф. каф. Компьютерной математики Тел.: (347) 228-66-20; E-mail: gnzv@mail.ru Уфимский государственный авиационный технический университет

http://www.ugatu.ac.ru

The objective and subjective definitions of informatics categories are considered. The structure of informatics, its distinctions from logics, mathematics and philosophy are analyzed.

Рассматриваются объективные и субъективные определения категорий информатики. Анализируется структура информатики и ее отличия от логики, математики, философии.

Keywords: information, data, knowledge, theoretical informatics.

Ключевые слова: информация, данные, знание, теоретическая информатика.

1. Введение

В современную эпоху информатизации практически всех сфер человеческой деятельности, серьезных изменений повседневного жизненного уклада не прекращаются дискуссии о роли информации в природе и обществе, о смысловом содержании этого понятия, о месте информатики в едином здании науки [1]. Жаркие споры в Интернете, на страницах журналов, в среде преподавателей свидетельствуют об актуальности объективного научного подхода к определению основных терминов информатики, их строгой формализации. Масло в огонь дискуссий подливают последние работы по квантовой информатике, заявления астрофизиков и других ученых о том, что черные дыры поглощают и излучают информацию, что в каждый структурно-организованный физический объект вложена информация, что Вселенная есть гигантский

компьютер, функционирующий в соответствии с фундаментальными законами природы [2].

В настоящей работе, следуя принципам информационного подхода [3], дается обоснование определений категорий информатики, лежащих в основаниях языка науки. Приводится сравнительный анализ других известных дефиниций понятий информации, знания, данных и др. Анализируются структура информатики и классификации информационных теорий,

j сформулированы характерные признаки, отличающие теоретическую

^^Л ч ^^ информатику и ее методологию от математики, логики, научной

философии.

Е^чк Л

1

(

2. Объективация определений категорий информатики

Термин «информация» вошел в научный оборот в XX веке, когда были созданы технические средства получения, преобразования, использования всевозможных данных в жизненных ситуациях и стало ясно, что не только человек, его органы чувств, мышление и речь являются источниками, носителями знаний о внешнем и внутреннем мире людей, что существуют общие информационные закономерности в живой и неживой природе, независимые от их материального воплощения.

Среди специалистов в области информатики бытует мнение о том что «информация представляет собой один из наиболее значимых и в то же время загадочных феноменов окружающего нас мира» [4], что «точное и исчерпывающее ... определение [понятия информации] остается одной из труднейших научных задач» [5]. В самом деле, математики, физики, биологи, инженеры, социологи, философы и т.д. вкладывают в это понятие разные смыслы, отражающие специфику своей предметной области. Вместе с тем, строгая и однозначная дефиниция данного термина позволяет уточнить смыслы близких к нему понятий весьма длинного синонимического ряда: сообщение, знание, данные, знак, символьная модель, сигнал, сведения, факты, изображения, документы и т.п. Эти понятия с определенной долей

адекватности описывают мышление и чувства людей. Наиболее близким синонимом информации является понятие знака - предельно общее представление информационных объектов в теоретической семиотике [3], которое за три тысячелетия породило в естественных языках десятки вариантов родственных значений слов с корнем «зна-».

Древнегреческие ученые (стоики) создали основы логики, грамматики и семиотики -теории знаков (гр. semeion - знак, признак), полагая, что источником и приемником (потребителем) знаков может быть только человек. В этой теории, опираясь на различия живой и неживой природы, стоики определили внутреннюю структуру знака, выделив в нем обозначение - это слово, имя предмета, явления и значение - смысл, семантика слова, словосочетания, любого понятия. Далее семантику знака - имени понятия они разделили на прямое значение имени - сам предмет, прообраз понятия и косвенное значение - образ, отражение свойств предмета в мыслях и чувствах сознания и подсознания человека - источника слов, сообщений либо приемника речи, устной или письменной. Имя, образ и прообраз в представлениях стоиков образуют семантический треугольник, стороны которого выражают связи между тремя компонентами знака.

Слова «информация» не было в древнегреческом и других языках, оно появилось гораздо позднее как производное от лат. informare - порождать форму, помещать в форму, информировать - это функции знаков и знаковых систем. Почти два тысячелетия после стоиков Дж. Локк в «Опыте о человеческом разуме» (1690) разделил науку того времени на физику, этику и семиотику - прародительницу информатики. Однако датой рождения семиотики как самостоятельной науки ученые считают 1938 г., когда вышла книга Чарлза Морриса «Основы теории знаков», а чуть позже и другие его работы: «Шесть теорий разума», «Обозначение и смысл», «Знаки, язык и поведение», «Знаки и действия», «Изучение отношения знаков и ценностей».

Понятия информатики, как и многие слова естественного языка, имеют несколько исторически изменчивых смысловых значений и, чтобы превратить слова вольного употребления в научные термины, нужно устранить их полисемию, однозначно описать их семантику - формализовать и объективировать смыслы терминов. Объективация предполагает исключение из определений антропоморфных следов и ссылок на ясность, интуитивную очевидность, явное определение источников исходных данных и их свойств в базисах предметных областей.

Формализованные научные понятия определяются в среде естественного языка и реализуются в искусственном языке предметной области путем замены определяемого понятия конструкцией из определяющих понятий, которые входят в терминосистему языка и предметики и строятся из базисных (далее не определяемых) терминов, укорененных в естественном интеллекте и конструктивно воспроизводимых в программно-аппаратных средствах искусственного интеллекта. Тем самым устраняются «порочные круги» дефиниций, когда в определяющие понятия включают близкие синонимы определяемых понятий либо используют недоопределенные языковые конструкции с размытой семантикой.

Чтобы более полно и точно воплотить эти требования, необходимо, прежде всего, дать формализованное определение понятия произвольного языка и договориться о типовой конструкции любого понятия - результата понимания субъектом изучаемой действительности. Для этого мы используем базисы системологии, теоретической семиотики, сенсформики [3]. Итак, произвольный язык есть знаковая (лингвистическая) система, которая независимо от материального воплощения определяется в базисах теоретической информатики тремя в общем случае независимыми компонентами: 1) языковая среда, 2) парадигма языка, 3) прагма языка. Языковая среда есть конечное множество субъектов - носителей языка и конечное множество каналов связей между субъектами, по которым могут передаваться имена знаков - это информация, точнее, ее материальные носители: сигналы, тексты, изображения на бумаге и т.д. Языковые субъекты состоят из знаковых процессоров, необходимых для порождения, восприятия, преобразования, сохранения в неизменном виде в памяти субъекта знаковых структур. Основные типы процессоров субъектов языковой среды

- сенсор, рефор, эффор (мотор, эффектор), мемор, (память, накопитель), генор, материальный процессор:

- сенсор A : Rm ^ Ms выполняет избирательное восприятие материальной реальности Rm -физического мира и преобразование (отражение) его свойств в знаки виртуальной реальности - это мир знаков Ms , информационных моделей физической реальности - либо осуществляет идентификацию

материальных носителей знаков-сообщений;

- рефор B : Ms ^ Ms выполняет реформирование, преобразование информационного мира знаков, это предельно общая функциональная модель процессов мышления, вычисления, рассуждения, обработки информации, данных, знаний, моделей, процедур принятия решений;

- эффектор E : Ms ^ Rm - это произвольный преобразователь знаков в материальные предметы и действия;

- накопитель знаков - память субъекта G: Ms^Ms сохраняет знания, информацию в неизменном

виде;

- генор Г ^ M - внутренний источник знаков определенного класса, модель генерации знаков при моделировании виртуального мира субъекта;

- материальный процессор Fm : Rm ^ Rm - преобразователь физической реальности, в которой нет знаков, знаний, информации и знаковых процессоров A, B, E, G, Г.

Сенсоры (датчики, органы чувств, рецепторы, измерительные системы) и эффекторы (исполнительные устройства, идеомоторика организма) выполняют прямые и обратные связи объективированного субъекта с материальной реальностью. Все известные языковые среды от внутриклеточного генетического языка живой материи до социальных сред и Интернета — это специальным образом организованные материально-информационные структуры живой и неживой природы. И чем дальше развивается наука и техника, тем яснее становится идея независимости общих функций языковых сред от материального носителя этих функций — мозга, белков и нуклеиновых кислот, электромагнитных сигналов, аппаратных средств информатики.

Парадигма языка (гр. paradeigma - образец) есть система формализованных правил функционирования языковой системы, в ней выделяют четыре раздела: алфавит — конечное множество элементарных знаков (букв, точек, линий ...), из которых строятся составные знаки; лексика — конечное множество знаков (слов, понятий, терминов), обладающих предметной и абстрактной семантикой; синтаксис — множество согласованных правил конструирования и разбора знаковых структур, абстрагированных от их конкретного смысла; семантика языка — множество формализованных и неформализованных правил анализа и синтеза смысла знаковых структур.

Прагма языка — это совокупность управляемых знаковых процессов в языковой среде, соответствующих целям субъектов и правилам парадигмы, а также результаты этих процессоров — множество текстов, знаковых структур, представляющих новые знания, решения поставленных проблем. При переносе знаков из парадигмы в прагму и обратно выполняются уточнения семантики знаков в контексте проблемной ситуации, операции конкретизации и абстрагирования, специализации и обобщения, идеализации понятий. Модели языковой среды и парадигмы описывают статику языковой системы в определенном интервале времени, а прагма — ее динамику в этом временном интервале.

Итак, языковая система порождает, преобразует, хранит в памяти субъектов знаки, понятия, описывающие материальную и информационную реальность. В семиотическом базисе уточняются смысл слова «понятие» и его отличие от знака определением метапонятия — понятия о произвольном понятии посредством различения семантики знака в узком и широком смысле и более глубокой формализации и объективизации представлений древнегреческих стоиков. Знак в узком смысле, или просто знак, есть обозначение, имя прообраза понятия и его семантики, это материальный носитель знака, выполняющий информационные функции, заменитель образа и прообраза понятия в языковых (знаковых, информационных) процессах и их результатах. Попытки ввести различия между материальным воплощением обозначения и его информационными функциями оказались непродуктивными, поэтому далее мы отождествляем имя знака и его материальный носитель.

Знак в широком смысле - метазнак есть понятие субъекта о прообразе понятия, его свойствах и связях с другими образами и прообразами, объединение обозначающей овеществленной формы и обозначаемого смыслового содержания. Типовую структуру любого понятия определяет семиотическая пирамида (см. рис.1).

Ее вершина представляет метазнак-понятие П как единый информационный объект, связанный с составляющими его компонентами, расположенными в основании пирамиды:

И - имя понятия, знак в узком смысле, И-знак;

Д - прямое семантическое значение имени — дент (от лат. denotatus - обозначенный) — это прообраз понятия;

К - косвенное семантическое значение — конт (от логического concept и лингвистического

соппо(а - дополнительный смысл имени) — это образ понятия, отраженный сенсором, рефором, знаковая модель прообраза в памяти субъекта;

А - ссылочное семантическое значение имени — семиотический адрес А всех компонентов понятия-метазнака.

Семантический треугольник стоиков ИКД составляет часть основания пирамиды, его недостаточно для объективации и описания знаковых процессов и структуры машинных или человеческих понятий. Дент может быть материальным объектом -редент, либо знаком, информационным (идеальным, виртуальным, абстрактным) объектом - идент. Конт и семиотический адрес - это тоже знаковые структуры, наделенные собственной семантикой, именами и их материальными носителями - реконт

Рис.1. Семиотическая пирамида и Р^адрес, скажем, нанофайлы белков и нуклеиновых

кислот нейросетей естественного интеллекта.

Семиотическая адресация информационных и материальных компонентов понятий обеспечивает их объединение в целостную структуру П, пространственно-временную ориентацию субъектов языковой среды в физическом и виртуальных мирах. Используя адресацию, можно явно определить механизмы переходов знаковых процессов от одних компонентов к другим, описать внешние связи понятий. Семиотический адрес А понятия П указывает место, область, а для динамических ситуаций и время пребывания соответствующего компонента понятия в семиотическом вместилище метазнаков , которое определяется тремя пространственно-временными моделями:

- Физическое четырехмерное пространство-время , в котором определяются физические адреса АФ = (т^) компонентов понятий, г =(гьг2,г3) - пространственные координаты, ^ - физическое время;

- информационное (знаковое) пространство-время произвольной размерности, внутренняя и внешняя память субъектов и их процессоров, в нем задаются динамические информационные адреса АИ = (аИ, ТИ) - адрес хранения компонента понятия и соответствующее ему информационное время;

- модельное (виртуальное) пространство-время 8М моделируемой проблемной ситуации контами понятия, в котором заданы модельные динамические адреса АМ = (аМ, тМ ) компонентов понятий, тм - модельное время.

Итак, семиотический ядре.с А = (АФ АИ АМ) позволяет описать внутренние связи компонентов метазнака А(П) = {А(И), А(К), А (А), А(Д)}, включая косвенную адресацию А , и внешние связи понятия П, а также пространственно-временное согласование моделей знаковых процессов в пространствах 8Ф ,8И,8М . Внутренние двусторонние связи, представленные ребрами и диагоналями основания семиотической пирамиды, описывают основные абстрактные типы информационных процессов: Д ^ К - процесс формализации, отражения, построения конта понятия - модели прообраза; К ^ Д - процесс интерпретации знаний, построение или выбор прообраза, соответствующего исходной знаковой модели К; И ^ К, И ^ Д - переход от синтаксической структуры, от И-знака к прямому или косвенному смыслу имени понятия; А ^ Д, А ^ К - адресные ссылки на прообраз и образ понятия и т. д.

В вершинах семиотической пирамиды добавляют петли для описания иерархий абстрагирования - конкретизации К^К, обобщения - специализации Д ^ Д , переименования, косвенного именования, кодирования-декодирования информации, копирования (смена носителя) без изменения семантики метазнака И ^ И , косвенной адресации А ^ А , изменения состава и структуры понятия П^П и его внешних связей.

Используя описанные выше понятия теоретической семиотики-лингвистики, уточним семантику основных категорий информатики: информация, данные, знания, умения, источник и преобразователь информации, информационная связь и др. Слово «информация», подобно словам «документация, коммуникация, революция, классификация», в повседневной речи означает действие и его результат. Информация, во-первых, есть И-знак, сообщение, порожденное кем-то или чем-то и полученное адресатом и, во-вторых, это информационный процесс синтеза сообщения, его доставки, усвоения, т.е. информирования адресата. Аналогично в математике, функция есть преобразование аргумента функции в результат и сам этот результат.

Чтобы достичь однозначной определенности семантики понятий информатики, введем помимо общепринятого понятия «информация» с исходным смыслом «сообщение» его

нейтральный синоним - информационный объект, семантика которого подлежит последующему уточнению и строгой формализации, а второе семантическое значение -информационный процесс получения, передачи и восприятия сообщений - выразим введением трех функциональных объектов: источник информации, преобразователь информации, приемник, потребитель информации. Объективация этих понятий преследует цель устранения антропоморфизмов, субъективных ассоциаций в семантике терминов информатики.

Источник информации - это человек, измерительный прибор, компьютер, книга и т.д. На входе источника информации как функционального объекта находится изучаемое явление, проблемный объект, прообраз информации либо предшествующий ему другой источник, а на выходе - информация о проблемном объекте, это синтаксическая структура, И-знак, наделенный в определенном языке КАД-семантикой о входном прообразе. Человек видит предмет, называет его имя и описывает его свойства в естественной языковой среде. Измерительный прибор, включенный в электросеть, показывает амплитуду переменного напряжения, скажем, 225 Вольт и его частоту - 51 Герц. Это примеры источников - сенсоров, на входе которых - материальные объекты, а на выходе - информационные объекты.

Если же на входе источника не сам проблемный объект, а информация о нем, то такие знаковые процессоры есть рефоры: компьютер, книга, телевизор, выдающие потребителю предварительно вложенную или переработанную информацию. Неживая материя сенсоров и рефоров - измерительный прибор, компьютер, книга - приобретают информационные функции и внутреннюю семантику, которой они наделяют выходную информацию, вложенную в них разработчиками искусственных объектов средств информатики и авторами исходных знаний. В общем случае информационные объекты и процессы есть абстракции от свойств материи, из которой они сложены. Каждый источник информации характеризуется допустимым множеством входных объектов - областью применимости данного функционального объекта и множеством выходных информационных объектов, которые он в принципе способен породить. Это множество есть шкала сенсора или рефора - мыслимое пространство информационных объектов, которое в реальных информационных процессах «заполняется» лишь частично. Предназначение источника информации - различать входные объекты по их выходным И-знакам, результатам взаимодействия сенсора с входным объектом либо преобразования рефором входной информации. Свойство различать явления действительности определяет информативность источника [3].

При более полном описании информационного процесса получения, преобразования и использования информации сам проблемный объект на входе сенсора - ргооЪ] есть тоже источник информации о себе самом, воздействующий на сенсор и порождающий на выходе сенсорную информацию. Этот источник - прообраз информации является первичным источником, тогда сенсоры и рефоры есть вторичные и третичные источники образов проблемного объекта, а механизм генерации проблемной информационной ситуации - генор Г, в которой функционируют сенсоры и рефоры субъектов, называются праисточниками информационного процесса и его результата [3].

Следует отметить, что в ориентированной цепочке функциональных моделей информационного процесса: {генор Г ^ ргооЪ] в информационной ситуации ^ сенсор ^ информация} праисточник и первичный источник (генор и проблемный объект) являются лишь потенциальными источниками информации. Актуальными источниками они становятся только при наличии сенсоров и рефоров, порождающих знаки, а при их отсутствии информации не возникает, в этом случае цепочка Г ^ ргооЪ] представляет модель материального явления. Например, атмосферный грозовой разряд есть чисто физическое явление, но если есть наблюдатель, вооруженный сенсорами (зрением и слухом) и рефорами (мышлением), то для него вспышка молнии есть информация о грозе и о скором приближении раскатов грома.

Следующим фундаментальным понятием информатики является информационная связь между объектами и субъектами. Связи между двумя объектами могут быть материальными, изучаемыми физикой и другими естественными и техническими науками, или информационными, которые являются предметом исследований абстрактных наук. Информационная (виртуальная, идеальная) связь материальных или информационных явлений есть опосредованная зависимость между контами (образами, моделями явлений), представляющими знания субъекта об этих явлениях, а не между дентами (прообразами), т. е. самими явлениями, которые физически могут быть никак не связанными между собой и относиться к разным реальным и виртуальным мирам. Скажем, два материальных тела,

находящиеся в разных изолированных системах, не имеют физических связей между собой, но их свойства могут иметь информационные связи сходства или различия, устанавливаемые сенсором, а сами прообразы принадлежат одному либо разным классам физических объектов. Другой пример: все предметы из заданного класса характеризуются двумя свойствами, которые оценивают два сенсора. Между этими свойствами может существовать информационная связь, которую устанавливает соответствующий рефор либо он выясняет, что эти свойства независимы в данном классе объектов и ситуаций. Понятие информационной связи между свойствами позволяет ввести количественные меры зависимости и информации.

Связи между информационными объектами возникают в модельном мире знаков Ms и

призваны описать свойства материальной реальности Rm, поэтому информационную связь иногда называют идеальной, нематериальной. Однако эта связь, конечно, не идеальна, все знания субъектов имеют ограниченную адекватность, они идеализируются в логико-математическом языке и в теориях предметных областей. Информационная связь имеет материальный носитель - реконт, реадрес и возникает в информационной среде на материальной основе сенсорных, рефорных, эффекторных процессоров субъектов.

Информационная связь между субъектами осуществляется передачей сообщений -знаковых структур по каналам связи: звуковым, визуальным, электрическим и т.д. Простейшая информационная модель диалога двух людей, обменивающихся сообщениями, включает два внутренних языка понимания, мышления (langua mentalis) L1 , L2 и два внешних языка

общения L12 , L21 , соответственно, в языковых средах мыслительных и лингвистических

процессоров первого (L1 ,L ) и второго (L ,L ) субъекта диалога, а также включает в

описание диалога модель двустороннего канала связи.

Пусть первый субъект синтезировал КАД-семантику сообщения на языке L1 собственного

понимания, закодировал ее знаковой структурой И на своем языке общения L12 , которым он

владеет, и переслал ее по каналу связи. Второй субъект получил информацию, точную И либо

приближенную И, искаженную помехами, плохой дикцией, неразборчивым почерком источника, пытается исправить синтаксические ошибки, распознать элементарные знаки

полученного сообщения и декодирует смысл сообщения И с языка общения L на свой язык

понимания L2 , встраивает смысловые структуры КАД в свою понятийную сеть. Тогда последовательность языковых сред, в которых протекают знаковые процессы передачи смысла, будет такая: L1 ^ L12 ^ L21 ^ L2 . Идеальная передача семантики сообщения КАД = КАД

произойдет при отсутствии ошибок кодирования КАД ^ И и декодирования И ^ КАД смыслов в языковых средах первого и второго субъекта, отсутствии синтаксических помех в канале связи: И = И, взаимнооднозначном соответствии или равенстве фрагментов языков понимания и общения, относящихся к теме диалога: L1 = L2 , L12 = L21 .

Введенные выше понятия позволяют объективировать определения основных категорий информатики. Из всех возможных семантических значений слова «информация» выделим два: информация в широком и узком смысле, как это было выполнено в семиотике для знака - ее ближайшего синонима. Информация в узком смысле - это синтаксическая знаковая структура И безотносительно присваиваемой ей семантики источником, преобразователем или приемником информации, заданная в статической дискретной (цифровой) или непрерывной (аналоговой) форме: текст, чертеж, диаграмма, график, рисунок, формула, либо в виде динамической структуры: устной речи, аудиовидеоинформации, сигналов физических приборов - последовательности во времени статических или динамических знаков, порождаемых источником и воспринимаемых приемником. Синтаксическая форма информации допускает копирование, шифрование, смену носителя (бумажного, электрического, оптического, акустического и т. д.), взаимнооднозначного преобразования формы без изменения семантического содержания сообщения.

Информация в широком смысле - это информационный объект ИКА, содержащий синтаксическую и семантическую формы: И -знак, конт К и семиотические адреса

компонентов, в частности адрес дента А(Д), а сам дент - прообраз Д информации, очевидно,

в информацию о нем не входит. Знаки косвенного и адресного смысла КА хранятся в источнике и восстанавливаются с тем или иным успехом в приемнике информации. Субъекты языковой среды - источники и приемники - в процессе жизнедеятельности накапливают информацию и формируют в своей памяти знания в виде сети понятий. В отличие от информации «о чем-то», знание, во-первых, индивидуализировано - это знание «кого-то о чем-то» - конкретного субъекта (человека, автомата, животного, растения, бактерии) о проблемном объекте, а во-вторых, это результат преобразования в языковой среде понимания Ь2 или Ь1

поступившей информации И о прообразе в сетевую структуру ИКА знаний субъекта материально-информационной реальности ЯМ*. Новое знание в исходной форме субъективно и в последующем подвергается объективации построением оценок ценности и адекватности, доказательством соответствия знания действительности и превращается в межсубъектное научное знание.

Слово «знание» также имеет, по крайней мере, два смысла. В узком смысле - это описание реальности, дескриптивная форма знания, скажем, в форме конкретных значений свойств, структуры, состояний проблемного объекта. В широком смысле знание включает дескриптивную и конструктивную форму, последняя называется умением решать проблему: «знаю как». Исходная дескриптивная форма знаний преобразуется в конструктивную форму, скажем, из системы уравнений, описывающей связи свойств проблемного объекта, получают алгоритм и технологию решения проблемы. В педагогике и психологии умения, которые в результате упражнений, практического опыта переводятся из сознания в подсознание и становятся автоматизмами деятельности человека, называют навыками. Итак, в теоретической информатике знание определяется как знаковая структура, доступная для понимания, образовавшаяся в информационной среде и памяти субъекта, которая имеет оценки истинности и полезности для субъекта, используется им для построения новых знаний, для целесообразных действий в динамической материально-информационной реальности.

Широко распространенный термин «данные» также является ближайшим синонимом информации. В Большом энциклопедическом словаре (2000 г.) в соответствии с традиционным словоупотреблением данные определяются как «информация, представленная в формализованном виде, что обеспечивает возможность ее хранения, обработки и передачи». Семиотическое уточнение этого определения состоит в задании форматов синтаксического представления И -знаков, не касаясь форм представления их КАД -семантики.

Более детальная характеризация семантики категорий информатики осуществляется сравнением с их антиподами - это неопределенности, их виды, модели и меры, незнание, отсутствие данных (информационный ноль), искажения, дезинформация, противоречия [3].

3. Свойства информации

Различают три основных свойства информации: 1) объем информации, количество элементарных знаков данного типа в информационном объекте, 2) информативность сообщения, мера качества информации, мера повышения определенности и точности новых знаний, 3) ценность, материальная или обобщенная полезность информационного объекта. В практической деятельности эти свойства иногда совмещают, что приводит к семантическим шумам и потерям эффективности анализа и синтеза информационных процессов.

Объем информации определяется в подходящих единицах материального носителя: числом страниц, объемом памяти, временем звучания, воспроизведения и т. п. Эта мера имеет симметричное отношение к источнику и приемнику информации. Информативность сообщения или качество информации асимметрична, ее оценивает потребитель при решении своих проблем, она определяется новизной поступившей информации для субъекта и ее адекватностью, достоверностью, характеризующей свойства источника информации, который косвенно оценивает информационные потребности в виде ожидаемых показателей информативности: полнота, объективность, своевременность полученных данных и т. п. Обычно информативность объекта у оценивается приемником уменьшением меры

неопределенности свойств неизвестного объекта х или повышением точности оценки х за счет использования объекта у в решении одной или многих задач. В теории информации вариативная мера информационной полезности называется количеством информации,

содержащейся в известном у относительно неизвестного х и оценивается в логарифмической

шкале уменьшением среднего числа возможных значений х. В индефинитике - теории неопределенностей - вводятся вариативные и адеквативные (точностные) меры информативности в линейных, логарифмических и других шкалах. Так, если использование информационного объекта у повышает точность оценки х на 5%, то эта величина есть

адеквативная мера информативности у в проблеме оценки х [3].

Обобщенная ценность информации также асимметрична и определяется приёмником, потребителем показателями экономии затрат материалов, энергии, времени и других ресурсов. Часто в свойства информационного объекта у включают характеристики решаемых проблем, свойства решающих систем и процессов в них, зависящих от наличия фактических данных, теоретических моделей, априорных знаний, что не совсем правомерно. Так, свойство полноты исходной информации есть характеристика постановки решаемой проблемы, оперативность есть свойство источника информации и процесса решения, релевантность есть характеристика предваряющего процесса сбора, поиска необходимой информации, защищенность информации характеризует свойства надежности информационной системы, удобство формы представления данных выражает эргономические показатели человеческого восприятия сообщений.

Неотъемлемым семантическим атрибутом всякой информации является то, что в логике называется предикативностью высказывания, т. е. информация имеет отношение к реальности и утверждает нечто о ее свойствах. Основное предназначение информации - обеспечить достижение целей живых систем - сохранение, продление жизни, улучшение ее характеристик целесообразными действиями. Информация как синтаксическая структура есть знаковый носитель ее КАД -семантики в процессах решения проблем, это предельно гибкий ресурс, интегрируемый с любыми другими ресурсами. Если субъект передает информацию другому субъекту, то он сам ее не теряет (за исключением материального носителя). Информация не существует без материального носителя, неживая материя существует без информации. К этому следует добавить, что составляющие информацию метазнаки-понятия есть весьма гибкие открытые системы, легко допускающие изменения и пополнение новыми смыслами в языковой системе, т. е. они способны быть заменителями заменителей при кодировании-декодировании, абстрагировании-конкретизации, обобщении-ограничении, идеализации проблемных ситуаций.

4. Другие определения категорий информатики

Трудности, с которыми столкнулись ученые при анализе смысловых значений понятия «информация» и их объективации, в значительной степени обусловлены участием в информационных процессах порождения, восприятия, переработки сообщений недостаточно изученными механизмами мышления и речи, сенсорики организма человека. В первых определениях, выполненных в неформализованной среде естественного языка, информация выступает как неуловимая субстанция, заменяющая образ или прообраз изучаемого явления, которую можно попытаться как-то характеризовать наблюдаемыми свойствами и аналогиями с изученными физическими явлениями.

В 1925 г. Р. А. Фишер, основатель значительной части математической статистики, ввел квадратическую меру количества информации и уточнил ее смысл на основании понятия достаточной статистики, т. е. такого преобразования статистической выборки, результат которого - достаточная статистика - содержит всю полезную информацию, содержащуюся в выборке об искомых, подлежащих оценке параметров, см. [6]. Например, среднее значение, полученное по случайной выборке нормально распределенного параметра, есть достаточная статистика для оценки неизвестного матожидания этого распределения. В определении Фишера имеются два информационных объекта: исходная выборка, порожденная сенсором, и достаточная статистика, порожденная рефором, две информационные связи этих объектов, которые позволяют с одинаковой степенью уменьшить неопределенность оценки искомого, повысить ее точность, в чем и состоит смысл выражения «содержит всю полезную информацию».

В 1928 г. вышла статья инженера Р.В.Л. Хартли, в которой «На основе физических (а не физиологических) соображений установлена количественная мера «информации»..., обсуждается, насколько ограничена скорость передачи информации помехами... В обычном понимании термин «информация» слишком эластичен» [7]. В этой работе вводится

логарифмическая мера информации, «не зависящая от психологических факторов», а слово «информация» в данной статье имеет смысл сообщения, передаваемого телеграфом, радио, телевидением.

В 1929 г. физик Л. Сциллард опубликовал работу, посвященную анализу проблемы демона Максвелла и связи между понятиями информации и термодинамической энтропии физической системы - статистического ансамбля атомов и, опираясь на эту связь, предложил меру информации, равную отрицательной энтропии термодинамической системы, см. [8]. Демон Максвелла - мысленная абстрактная модель информационно-управляющей системы - измеряет сенсором скорость и направления движения атома газа, обрабатывает рефором измерительную информацию и принимает решение открыть или закрыть эффектором заслонку в сосуде с газом, тем самым демон перерабатывает информацию в физическую энтропию, повышая или понижая её. В последнем случае информация является «горючим» для вечного двигателя второго рода [9].

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

В 1948 г. и далее были опубликованы работы К. Шеннона, которые развивали идеи Хартли и получили название «теория информации», хотя Шеннон ограничился названием «теория коммуникации», введя понятие информационной энтропии как меры исходной и остаточной неопределенности сообщений, из которых построил меру информации [10]. В том же году Н. Винер в широко известной «Кибернетике» ввел по сути такую же меру неопределенности, но со знаком минус и дал «негативное» определение информации - перечислил то, что не является информацией: «Механический мозг не выделяет мысль, «как печень выделяет желчь»... и не выделяет ее в виде энергии, подобно мышцам, информация есть информация, а не материя и не энергия». Позднее во второй книге «Кибернетика и общество» Винер сформулировал «позитивное» определение: «Информация - это обозначение содержания, черпаемого нами из внешнего мира в процессе нашего приспособления к нему и приведения в соответствие с ним нашего мышления», вполне в духе семиотической дефиниции. Для критиков данное определение Винера означало недопустимую замену одного слова (информация) другими словами (обозначение и содержание) той же степени смысловой неопределенности, поэтому оно осталось невостребованным.

Вместе с тем подобно Сцилларду Винер придерживался взглядов на информационные явления с позиций статистической физики, абстрагируясь от существенных различий понятий физической и информационной энтропии, определяя информацию как меру организованности, а энтропию как меру дезорганизованности материальной системы - дента, прообраза физических моделей, а не конта, образа, т. е. физической информации о системе, полученной наблюдателем. Очевидно, степень организованности материи определяется не информацией о системе, доступной наблюдателю, а законами материального мира: минимума энергии равновесного состояния, максимума физической энтропии и др.

Идеи Сцилларда и Винера активно развивали Л. Бриллюэн [8], Р.Л. Стратонович [9], создатели и приверженцы синергетики, см., например, [11]. Триада Винера «материя-энергия-информация» стала популярной в научном мире, однако в теоретической информатике более обоснована дихотомия «материя-информация», а энергия есть свойство материи, ее движений и напряженных состояний, подобно таким понятиям, как масса, сила, заряд и другие измеряемые и вычисляемые физические свойства материальных систем, при этом энергия разделяется на свободную и связанную, последнюю характеризует физическая энтропия, которая описывает свойства необратимости и случайности физических состояний и преобразований.

Энергия является неотъемлемым свойством материи, информация не является свойством, это автономный объект с информационными свойствами и функциями, непременно присутствующий в живой материи и той части неживой материи, которую «оживил» целеориентированный субъект, придав ей функции сенсоров, рефоров, эффекторов и носителей информации, знаний. Материальное взаимодействие тел осуществляется обменом вещества и энергии, информационное взаимодействие субъектов состоит в обмене материальными носителями сообщений в единой языковой среде. Взаимодействие субъекта языковой среды с материальным миром выполняют сенсорные и эффекторные процессоры субъекта.

Бриллюэн, вслед за Сциллардом и Винером, определяет информацию «как отрицательное слагаемое энтропии системы... Энтропия физической системы часто описывалась как мера случайности строения системы... Термодинамическая энтропия есть мера недостатка информации о некоторой физической системе» [8]. Эти взгляды на физическую энтропию и информацию призваны были обосновать незыблемость второго начала термодинамики и нашли

свое продолжение в трудах Стратоновича [9], а также в работах по синергетике - теории самоорганизации неравновесных термодинамических, механических и других систем. Однако в этих трудах не выделяются формально и по существу источники, преобразователи и потребители информации, проблемные (материальные) и решающие (информационные) системы. Скажем, физика - это информационная система, которая решает проблемы адекватного описания свойств материальной реальности, поиска фундаментальных законов существования неживой материи, вооруженная информационными средствами наблюдений, измерений физических параметров - сенсорами, обработки фактической и теоретической информации физических экспериментов - рефорами, средствами материального (но не информационного) воздействия на проблемные физические объекты - эффекторами. Материальные системы и процессы причинно ориентированы, не имеют целевой ориентации, для чего необходима информация, и все многовековые попытки найти цели и целесообразное поведение неживой природы оказались безуспешными.

Увеличение или уменьшение физической энтропии в открытых системах и их самоорганизация в общем случае не зависят от информации и знаний наблюдателя и подчиняются физическим законам, поэтому информацию и ее меру нельзя определять фактом и величиной уменьшения физической энтропии. Автор известных книг по термодинамике И.П. Базаров подчеркивает: «информационная энтропия не является термодинамическим параметром... В публикациях сначала отмечали различия физической и информационной энтропии, а потом пошли вслед за Л. Бриллюэном» [12]. Физическая энтропия описывает свойства энергии статистического ансамбля молекул, информационная энтропия характеризует свойства источника информации в заданном классе - статистическом ансамбле -информационных ситуаций различать проблемные объекты. Связь между двумя видами энтропии есть связь между образами - контами, а не прообразами - дентами, подобно тому, как одно дифференциальное уравнение может с одинаковым успехом описывать поведение механических, тепловых систем и военные действия между государствами. Аналогично, образование кристалла с регулярной внутренней структурой из хаотического раствора или сложных фигур снежинок в морозном воздухе соответствует равновесному состоянию вещества и экстремальному значению термодинамического параметра системы, а не максимуму бриллюэновской или синергетической информации. Наличие или отсутствие в проблемной системе целей и соответствующей им информации определяет границу между существом и веществом, которую давным давно в других терминах ввели родоначальники науки. Отвлечение от различий информационных и материальных процессов, живой и неживой материи ведет к бесплодным поискам, к противоречиям и парадоксам.

Источник информации о материальной реальности Кт - сенсор субъекта - на входе имеет

материю, на выходе - знаковую структуру, описывающую свойства материи. Приемник информации - сенсор и рефор субъекта — в нормальных ситуациях на входе имеет материальный носитель информации, И -знак модельного мира М3 , который после

синтаксического и семантического декодирования преобразуется в новую информацию, новые знания субъекта, а в общем случае приемник должен различать знаки и незнаки -информационные и материальные объекты, последние не являются носителями информации, у них нет источника, который наделяет материю смыслом о свойствах проблемной системы.

Бриллюэн вслед за Винером дополняет семантику информационной и физической энтропии связью с беспорядком, т. к., по его мнению, энтропия оценивает меру «случайности строения системы» [8]. Эта идея в иной форме задолго была развита основателями статистической физики Л. Больцманом и Дж. Гиббсом, однако, чтобы применить ее к понятию информации, к информационным процессам, необходимо дать конструктивное определение случайности, беспорядка, различать прообраз, информацию о нем и ее свойства, т. е. отличать знаковую структуру от ее объема и информативности. Эта программа в известной степени была выполнена А.Н.Колмогоровым в его алгоритмической теории информации [13-16, 3], в которой центральным понятием является сложность информационного объекта - энтропия индивида по Колмогорову (а не класса индивидов при статистическом подходе), заменяющая термодинамическую энтропию.

В теории Колмогорова не учитываются искажения и неполнота информационного описания системы, предполагается, что модель системы точно описывает свойства, структуру, функции системы и результаты ее функционирования, служит адекватным заменителем

прообраза и можно считать, что при такой идеализации сложность системы совпадает со сложностью ее модели и чем сложнее устроена система, тем больше требуется предельно качественной информации для описания ее свойств. Однако в реальных проблемах анализа и синтеза систем важно различать проблемную систему и ее модель. Более того, понятие сложности относится, прежде всего, к образу-конту, а не к физическому прообразу-денту, т. к. в действительности простых систем не бывает, есть только простые и сложные описания -информационные объекты, точные или приближенные, полные - в аспекте поставленных целей - или неполные, приемлемой адекватности либо сильно искаженные, содержащие дезинформативные модели, оценки свойств, понятия, теории. Сложность в этом подходе выступает как мера детерминированной и случайной неопределенности проблемной ситуации.

В математической теории сложности [15, 17] описание ситуации характеризуется объемом информации - количеством знаков или количеством шагов вычислительного процесса. В информационной теории сложности [18, 3] мера обобщенной сложности решаемой информационной проблемы слагается из мер адеквативной (точность), временной (скорость, оперативность), емкостной сложности (объем требуемой информации), которые составляют фундаментальные меры и критерии информационной деятельности. В теории Колмогорова, который ограничился простейшей моделью различимости объектов или состояний и описанием системы в виде последовательности нулей и единиц, сложность (энтропия) системы определяется минимальной длиной кода, который после декодирования однозначно описывает исходную систему, а мера информации определяется разностью между исходной и условной сложностью, полученной при условном кодировании, использующим данный информационный объект. В алгоритмической теории информации и алгоритмической теории вероятностей случайность определяется как предельная сложность системы с неустранимой неопределенностью ее состояний, структуры, функций, когда оптимальное кодирование не уменьшает исходную сложность описания системы [14, 15].

Продолжим анализ определений понятий информации и ее мер, используемых в современных публикациях. У. Росс Эшби в основу кладет множество объектов и ситуаций и определяет информацию как меру разнообразия, различимости явлений действительности: «Самым фундаментальным понятием является понятие «различия», означающее, что, либо две вещи ощутимо различны, либо одна вещь изменилась с течением времени». Не соглашаясь с достаточно вольными, зыбкими аналогиями, отождествлением смыслов информационной и физической энтропии и, сравнивая подходы Шеннона и Винера, он пишет: «Оба автора рассматривают информацию как «то, что устраняет неопределенность», и оба измеряют ее количеством неопределенности, которую она устраняет... при получении сообщения...» [19]. Подобных взглядов придерживался В.М. Глушков: «Понятие информации принадлежит к числу важнейших понятий современной науки. Важность этого понятия обуславливается его всеобщностью: с понятием информации мы сталкиваемся при изучении любого явления, происходящего в природе или обществе. С наиболее общей точки зрения процесс получения информации есть не что иное, как процесс снятия неопределенности... » [20]. Вместо снятия или устранения (у Эшби) лучше было бы сказать об уменьшении неопределенности.

Позднее, без должного обоснования, Глушков расширил смысл термина: «Информация, в самом общем ее понимании, представляет собой меру неоднородности распределения материи и энергии в пространстве и времени, меру изменений, которыми сопровождаются все проистекающие в мире процессы» [21]. В данном определении совмещены, во-первых, информационный объект и его свойство (мера информативности) и, во-вторых, совмещены входной и выходной объекты источника информации - сенсора, т. е. свойства материи -прообраза (дента), и свойства информации - образа (конта). Подобное слияние смыслов разных понятий не приводит к серьезным ошибкам, если только сенсор идеальный, а в реальных информационных ситуациях сенсорные преобразования вырождены, искажены помехами и разнообразие информации на выходе сенсора далеко не всегда отражает разнообразия свойств множества входных материальных объектов. Обычно разнообразие действительности больше разнообразия наших знаний о ней.

Определение Глушкова и близкие к нему по смыслу представления нашли много сторонников среди физиков и других специалистов. К.К. Колин, привлекая идею связи между информацией и асимметрией, предложил уточнение и новую интерпретацию определения Глушкова [4, 22, 23], однако в этих формулировках и модельных представлениях также отсутствуют источники и приемники информации, различительные признаки образа -

информации и прообраза - материи. Термин «физическая информация» имеет в публикациях неоднозначную семантику: если он обозначает данные о свойствах физического явления, поставляемые наблюдателем и его измерительными приборами, взаимодействующими с неживой материей в соответствии с законами природы, которые устанавливает физика, то здесь всё в порядке, а если информацию считать активным агентом или участником физических процессов, то эта гипотеза не имеет никаких реальных подтверждений. Совсем иная ситуация возникает при конструировании человеком искусственных технических средств из объектов неживой природы для выполнения своих целевых функций, тогда его эффекторы наделяют неживую материю какими-то свойствами живых существ.

М. Мазур определил информацию как «преобразование одного сообщения... в другое сообщение» [24]. В этом определении отсутствует исходный источник сообщения и его семантики, а само сообщение (в наших терминах - информация) в общем случае есть результат преобразования источником информации - сенсором или рефором свойств входного проблемного объекта - первичного источника в выходную знаковую структуру, но не само преобразование, которое составляет этап информационного процесса.

Р.С. Гиляревский, соавтор, пожалуй, первого обобщающего труда по информатике и информации [25], в одной из последних публикаций [5] сформулировал свое видение рассматриваемой проблемы: «Данные суть факты, идеи, сведения, представленные в знаковой (символьной) форме, позволяющей производить их передачу, обработку, интерпретацию... , а информация - это смысл, который человек приписывает данным... Таким образом, информация - это потенциальное свойство данных, которое может быть реализовано одним воспринявшим их человеком и не реализовано другим Объектом машинной обработки являются данные, а не информация..., машина... не может мыслить». Последнее высказывание противоречит генеральным тенденциям развития информатики, а ограничить понятие информации только семантикой сообщения, которую присваивает приемник информации безотносительно к источнику, материальному носителю и конкретной языковой среде, выглядит не убедительно, впрочем, терминологические споры обычно разрешает прагма естественной языковой среды.

Подобные замечания имеют отношение и к определению В.Д.Ильина, И.А. Соколова: информация - это символьная «модель результата интерпретации сообщения» на символьной «модели выбранной системы понятий» [26]. В данном определении присутствуют приемники, процессы и результаты интерпретации, но отсутствуют другие важнейшие смысловые компоненты этого понятия: источники информации, процессы и результаты формализации, а также носитель информации, который определяет функциональные свойства информационных процессов. Информация источника в общем случае не равна информации приемника. Более того, результат формализации, кодирования семантики сообщения и превращение ее в синтаксическую форму И -знака в большинстве информационных ситуаций является, по всей видимости, более значимым, чем результат интерпретации сообщения потребителем информации. Так, разработчики измерительных, вычислительных, управляющих и коммуникационных систем вкладывают весьма ценную информацию в структуру и функции программно-аппаратных средств информатики, которые затем порождают новую информацию для приемников в различных проблемных ситуациях.

5. Структура информатики и ее связи со смежными областями

Термину «информатика» и его многочисленным синонимам (кибернетика, теория информации, computer science и т. д.) за последние полвека посвящено сотни работ, в которых информатику относят к техническим, естественным, общественным, гуманитарным, прикладным, фундаментальным наукам. Предложены различные схемы структуризации предметной области информатики и уточнения ее границ, см. например [1, 5, 23]. Приведем одно из «официальных» (энциклопедических) определений этого термина, в котором предпринята попытка обобщить и согласовать многообразие точек зрения: информатика — отрасль науки, изучающая типовые структуры и общие свойства информационных объектов (данных, знаний), информационных систем, процессов, источников, преобразователей, потребителей информации, средств ее сбора, хранения, переработки, распространения в различных сферах человеческой деятельности.

По мере развития информатики расширялся и смысл этого понятия включением в область исследований всех видов естественных и искусственных информационных (знаковых) процессов и процессоров, поиска фундаментальных законов, принципов, критериев, моделей

информационного мира, независимых от материального воплощения носителей и преобразователей информации. Следуя сложившимся в кибернетике схемам структуризации предметной области, представим научное здание информатики тремя взаимосвязанными направлениями исследований и разработок:

- теоретическая информатика,

- техническая (инженерная) информатика,

- прикладная информатика.

Такое деление впервые было предложено Б.Н. Наумовым [27, 23]. Прикладная информатика в значительной мере пересекается с прикладной математикой и занимается постановкой и решением информационно-логических задач в предметных областях, созданием эффективных методов, алгоритмов, технологий, автоматизацией различных видов человеческой деятельности. Прикладная информатика развивается под влиянием насущных и специфических потребностей предметик и включает биоинформатику, медицинскую, экономическую, социальную, финансовую, историческую, гуманитарную информатику и т. д. Прикладная информатика совместно с конкретной предметикой, ее теоретическим и практическим арсеналом средств выполняет исследования и разработки насущных проблем и с не меньшим, а может и большим [5] основанием называется информационной биологией, медициной, социологией и т. д.

Техническая информатика создает теории, алгоритмы, программно-аппаратные средства измерительных, вычислительных, управляющих, телекоммуникационных систем и технологий, языков программирования, управления базами данных, распределенных сетей и технологических процессов. В этот раздел информатики следует также отнести теорию программирования, робототехнику, теорию автоматов, традиционные разделы кибернетики: системотехнику и схемотехнику, теории автоматического регулирования и управления и др.

Теоретическая информатика служит научной основой прикладной и технической информатики, но не только. Предельная общность информационного подхода к системам и процессам превращает теоретическую информатику в фундаментальную науку уровня логики, математики, лингвистики, научной философии, которая исследует и строит межпредметные унифицированные понятия и модели, формулирует фундаментальные законы и критерии информационной деятельности, применимые к любой предметной области, к строгой формализации накопленных знаний о материально-информационных природных и искусственных образований, существующих в реальном и виртуальных мирах.

Исходные понятия теоретической информатики - система, объект, процесс, свойство, связь, язык, знание, неопределенность, человеческие и машинные понятия и т. д. -формализуются в среде естественного языка и переносятся в искусственную информационную среду. Фундаментальный характер категорий информатики обусловлен их всеобщностью, имеющей отношение к любым явлениям в природе и обществе, в мыслях и эмоциях людей, которые изучают, преобразуют материальную и духовную реальность в соответствии со своими целями и возможностями.

В отличие от классической логики и математики, опирающихся на интуитивную ясность и очевидность предельных идеализаций и абстракций понятий предметик, в теоретической информатике строятся полные информационные модели конкретных и абстрактных понятий и их моделей, от источников информации и влияющих факторов до оценки последствий принимаемых решений с учетом априорных и апостериорных неопределенностей, неполноты и противоречивости знаний решающего объекта. В отличие от философии с ее в значительной мере субъективными неформализуемыми естественно-языковыми словесными конструкциями, имеющими многозначную размытую семантику, модели, результаты и предельные обобщения теоретической информатики считаются обоснованными и научно корректными, если они объективируемы и материализуемы в искусственной языковой и программно-аппаратной среде, имеют оценки точности, границ применимости и функциональной эффективности. Философия, математика, логика, физика - это тоже информационные и технические системы, которые подчиняются законам информатики и должны строиться на информационном фундаменте.

Главное предназначение информатики в современном мире - облегчить умственный труд людей, повысить его эффективность, стимулировать творческий подход к делу, поэтому центральная проблема теоретической информатики - создать информационную теорию интеллекта, не зависящую от его материального воплощения, разработать методы и алгоритмы решения интеллектуальных задач, научить машину мыслить лучше (быстрее, точнее,

ценнее), чем мыслит человек. Другая важная проблема - создание языка теоретической информатики как межпредметного языка науки, который обеспечивает переход от предметных и абстрактных моделей к информационным моделям, моделирование мыслительных функций, обмен достижениями между предметиками. Центральным пунктом в этой проблеме является выбор оснований - набора необходимых и достаточных базисов, в которых строится информационная семантика и ее модели. Следующий комплекс проблем относится к поиску фундаментальных законов информационного мира, на основе которых определяются фундаментальные критерии информационной деятельности. Решение этих и других проблем теоретической информатики во многом зависит от успешности исследований и формализации типов, моделей и мер неопределенностей состояний компонентов проблемных и решающих систем.

Структуризация теоретической информатики, принятая в работе [3], построена с учетом традиционно сложившихся разграничений информационных теорий по перспективным аспектам исследований и решаемым проблемам. С позиций информационного подхода к описанию реальности Мир состоит из систем взаимосвязанных объектов, поэтому в основаниях теоретической информатики лежат предельно общие дисциплины: системология -общая теория систем и теоретическая семиотика-лингвистика - общая теория знаковых систем, объектов, процессов. Предельно абстрактное их представление выполняется в логико-математическом языке, который пополняет и обогащает информационная семантика логики и математики. В ней неопределяемые абстрактные математические понятия множества, числа, функции, отношения определяются в базисах системологии, семиотики и дополняются моделями неопределенностей типовых информационных ситуаций.

Структурная семантика систем и процессов представлена в разделе: морфология и алгоритмика. Теория неопределенностей и мер информации - индефинитика содержит описание естественных обобщений теории информации и теории вероятностей на случай детерминированных и случайных формализованных неопределенностей - статических и динамический индефиниций. Типовые информационные модели исследования, проектирования, управления, целеполагания, изучаются в сенсформике, включаюшей сенсорику, рефорику, моторику (эффекторные процессы) объективированного субъекта, структура и функции которого изучаются в теории иерархических материально-информационных систем. Вершиной обобщений моделей теоретической информатики являются метаинформатика и информационная теория интеллекта. Первая, подобно метаматематике, исследует, строит, оптимизирует базисы информатики, вторая строит семантические базисы, модели машинного и естественного интеллекта, проблемологии и теории критериев, семиотические модели творчества, обучения и других интеллектуальных функций.

К.К. Колин в работе [23] предложил матричную структуру предметной области информатики. Строкам матричного разбиения соответствуют уровни сложности изучаемых проблем: фундаментальные основы | информационные системы | информационные процессы и технологии | базисные информационные элементы, а столбцам - основные направления исследований и разработок, которые разбиваются в соответствии с информационными (языковыми) средами: техническая | социальная | биологическая | физическая информатика. В этом делении предметной области информатики остается неясным содержание физической информатики, куда включают также квантовую информатику. В языке физики действительно существуют информационные проблемы адекватности наглядных моделей микромира и мысленных экспериментов, квантовых измерений, квантовой логики, искривления абстрактов пространства-времени и т. п. [28, 3]. Квантовые вычислители, очевидно, относятся к технической информатике, наделяющей неживую материю информационными свойствами и функциями. Однако слишком опрометчиво считать космос, микромир и другие слабоизученные физические объекты источниками знаков, внесенсорной информации, полагать их способными на порождение и обработку информации и целесообразное поведение.

6. Выводы

Информация есть неотъемлемый компонент живой материи, это знаковая структура, имеющая материальный носитель и прямой (дент), косвенный (конт), ссылочный (адрес) смыслы, которыми ее наделяют в языковой среде источник или приемник информации. Данные есть синтаксическая знаковая структура в заданных формах. Знания - это

дескриптивные и конструктивные знаки, образующиеся в памяти субъекта в результате декодирования и преобразования семантики информационных объектов.

Разделение информатики на теоретическую, техническую и прикладную позволяет выделить фундаментальную составляющую этой науки, в которую входят системология, теоретическая семиотика-лингвистика и метаинформатика, изучающая информационные базисы и основания языка науки.

Литература

1. Системы и средства информатики: Спец. вып. // Научно-методологические проблемы информатики / Под ред. К.К. Колина. - М.: ИПИ РАН, 2006. - 496 с.

2. WWW. Википедия. Обсуждение: Информация - 2009.

3. Зверев Г.Н. Теоретическая информатика и ее основания: В 2 т. - Т.1. - М.: Физматлит, 2007. - 592 с.; Т.2. - М.: Физматлит, 2009. - 576 с.

4. Колин К.К. Структура реальности и феномен информации // Открытое образование. - 2008. - № 5. - С. 56-61.

5. Гиляревский Р.С. Информатика как наука об информации // Системы и средства информатики: Спец. вып. - М.: ИПИ РАН, 2006. - С. 59-87.

6. Кульбак С. Теория информации и статистика. - М.: Наука, 1967. - 408 с.

7. Хартли Р.В.Л. Передача информации // Теория информации и ее приложения. - М.: Физматлит, 1959. - С. 5-35.

8. Бриллюэн Л. Наука и теория информации. - М.: Физматлит, 1960. - 392 с.

9. Стратонович Р.Л. Теория информации. - М.: Сов. радио, 1975. - 424 с.

10. Shannon C.E. A mathematical theory of communication. Bell System Tech. J. - Vol. 27, 1948. - P. 379-423; 623-656.

11. Чернавский Д.С. Синергетика и информация (динамическая теория информации). - М.: Едиториал УРСС, 2004. - 288 с.

12. Базаров И.П. Заблуждения и ошибки в термодинамике. - М.: МГУ, 2003. - 120 с.

13. Колмогоров А.Н. Три подхода к определению понятия «количества информации» // Проблемы передачи информации. - 1965. - № 1. - С. 3-11.

14. Звонкин А.К., Левин Л.А. Сложность конечных объектов и обоснование понятий информации и случайности с помощью теории алгоритмов // УМН. -Т. 25. - Вып. 6, 1970. - С. 85-127.

15. Успенский В. А., Семенов А. Л. Теория алгоритмов: основные открытия и приложения. - М.: Наука, 1987. - 288 с.

16. Зверев Г.Н. Индефинитика - теория неопределенностей и мер информации / Основания теоретической информатики. Разд. - 7. - Уфа: УГАТУ, 1997. - 121 с.

17. Яблонский С.В. Введение в дискретную математику. - М.: Наука, 1986. - 384 с.

18. Зверев Г.Н. Морфология и алгоритмика - структуры систем и процессов / Основания теоретической информатики. - Разд. 6. - Уфа: УГАТУ, 1997. - 121 с.

19. Эшби УР. Введение в кибернетику. - М.: ИЛ, 1959. - 432 с.

20. Глушков В.М. Синтез цифровых автоматов. - М.: Физматлит, 1962. - 476 с.

21. Глушков В.М. О кибернетике как науке // Кибернетика, мышление, жизнь. - М., 1964.

22. Колин К.К. Природа информации и философские основы информатики // Открытое образование. - 2005. - № 2. - С. 43-51.

23. Колин К.К. Становление информатики как фундаментальной науки и комплексной научной проблемы // Системы и средства информатики. Спец. выпуск. - М.: ИПИ РАН, 2006. - С. 7-58.

24. Мазур М. Качественная теория информации. - М.: Мир, 1974. - 239 с.

25. Михайлов А.И., Черный А.И., Гиляревский Р.С. Основы информатики. - М.: Наука, 1968. - 756 с.

26. Ильин В.Д., Соколов И.А. Символьная модель системы знаний информатики в человеко-автоматной среде // Информатика и ее применения. - Т.1. - Вып.1, 2007. - С. 62-78.

27. Информатика и компьютерная грамотность // Сб. тр. ИПИ АН СССР / Отв. ред. акад. Б.Н. Наумов. - М.: Наука, 1988.

28. Зверев Г.Н. Иерархические материально-информационные системы / Основания теоретической информатики. Разд. 10 - Уфа: УГАТУ, 2001. - 170 с.

*

*

*

i Надоели баннеры? Вы всегда можете отключить рекламу.