Научная статья на тему 'Энтропийный подход как неотъемлемый атрибут получения информации и знаний'

Энтропийный подход как неотъемлемый атрибут получения информации и знаний Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
540
79
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
ЭНТРОПИЙНЫЙ ПОДХОД / ИНФОРМАЦИОННЫЕ ПРОЦЕССЫ / СЛОЖНЫЕ СИСТЕМЫ / СВОБОДНАЯ ИНФОРМАЦИЯ / СВЯЗАННАЯ ИНФОРМАЦИЯ / ЗАКОН СОХРАНЕНИЯ ИНФОРМАЦИИ / INNOVATIVE ENTROPJ THE APPROACH / INFORMATION PROCESSES / COMPLEX SYSTEMS / FREE INFORMATION CONNECTED INFORMATION / LAW OF PRESERVATION OF THE INFORMATION

Аннотация научной статьи по компьютерным и информационным наукам, автор научной работы — Новичихина Т. И.

В работе обоснованы основные положения энтропийного подхода, рассмотрены примеры его применения для различных систем, в том числе и педагогических, впервые сформулирован и доказан закон сохранения информации.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

ENTROPJ THE APPROACH AS THE INTEGRAL ATTRIBUTE OF RECEPTION OF THE INFORMATION AND KNOWLEDGE

In work the basic rules entropj of the approach are proved, the examples of his application for various systems are considered, including pedagogical, for the first time is formulated and the law of preservation of the information is proved.

Текст научной работы на тему «Энтропийный подход как неотъемлемый атрибут получения информации и знаний»

Обозначим: Z=Pt, Х=РЮ, У=РСО, Л=02, В=СО,

АВ=С02.

Тогда уравнения реакций будут иметь вид:

1)Л+2Z&2Х, 2) Z + В *У, 3)Х+У &2Z +ЛВ.

Соответствующая математическая модель имеет вид:

Их

— = 2к1 г2 - 2к_1 х2 - к3 ху + к-3 г2 = Р(х, г), ИХ

dy

dt

= k 2 z - k3 xy + k-3 z2 = Q( x, z),

y = 1 - x - z.

Областью определения решений данной системы является треугольник:

S = {x, z : x, z > 0, x + z < 1}.

Для определения стационарных состояний необходимо решить систему уравнений:

ГР( x, z) = 0, 1б( x z) = 0.

Далее студенты исследуют систему на наличие решений и при необходимости решают ее одним из известных им способов (формулы Крамера, метод Гаусса или готовые программные продукты).

При решении задачи учащиеся разрабатывают проект, выполняемый в несколько этапов:

1. Сбор и анализ информации по поставленной задаче, выбор метода ее решения. Здесь используются книги, статьи, учебники по химии и математике, Internet.

2. Нахождение решения с помощью готовых программных продуктов таких, как Microsoft Excel, Mathcad, Mathlab и т.п. или аналитического анализа в зависимости от количества уравнений в системе.

3. Оформление результатов исследований и решения в виде программного продукта: презентации, статьи или вебсайта.

Введение раздела «Математические методы в химии» дает объяснение применению математических методов при решении химических задач, обуславливая полное понимание сложного материала. С другой стороны, использование компьютерных технологий повышает познавательную активность студентов, развивает умение сформулировать и решить проблему.

Библиографический список

Особую трудность во время выполнения проектов студенты испытывали при применении вычислительных методов к математическим моделям химических реакций. Сказался низкий уровень знания математических разделов, полученного в школе и на первом курсе при формально-логическом стиле преподавания математики.

Таким образом, к решению проблемы разрыва между содержанием курса математики и потребностями учебного процесса при подготовке специалистов- учителей нематематических дисциплин следует подходить системно, охватывая основные стороны решаемой проблемы, а именно:

• подготовить кадры, владеющие не только математическими знаниями, но и математическим моделированием объектов и явлений, соответствующих выбранным профилям;

• создать учебно-методическое обеспечение дисциплины математика с учетом профилизации;

• использовать современные методы обучения математике и информационно-коммуникационные технологии (ИКТ);

• учитывать психофизиологические особенности учащихся при построении учебного процесса.

Такая трудоемкая и ответственная работа, безусловно, должна быть осуществлена междисциплинарным и высококвалифицированным коллективом.

Выводы

Общая математическая подготовка будущих учителей предметников должна строиться на основе непрерывной (вертикальной, в течение всего периода обучения в педвузе) математической деятельности, включающей: инвариантный модуль фундаментальной высшей математики; разделов математических методов и моделирования в предметной области, встраиваемых в дисциплины ЕН (математика, физика, методика решения расчетных задач по химии, биология с основами экологии), ОПД (основы исследовательской деятельности в области естественнонаучного образования, ИКТ в естественнонаучном образовании, современные методы химического синтеза, химия комплексных соединений), ДПП (аналитическая химия, физическая химия, неорганическая химия, химическая технология); учебно-научные проекты, требующие использование математического аппарата и ИКТ. При этом отбор содержания и видов практической деятельности студентов в процессе математической подготовки должен осуществляться на основе принципов межпредметных связей и использования инструмента математического моделирования как основного метода познания в любой предметной области.

1. Афанасьев, В.В. Современные проблемы и концепции математического образования учителя физики/ В.В. Афанасьев, Е.И. Смирнов // Ярославский Педагогический вестник. - 2002. - № 1.

2. Пак, Н.И. Проективный подход в обучении как информационный процесс: монография. - Красноярск: РИО КГПУ, 2008.

3. Пушкарева, Т.П. Использование компьютерных технологий при интеграции предметных областей (математика-химия) // Современные технологии образования и их использование в Вузе и профильной школе: Материалы Всероссийской научно-практической конференции. -Томск, 2005.

4. Федорец, Г.Ф. Проблема интеграции и практика обучения / Г.Ф. Федорец. - Л.: ЛГПИ, 1990.

5. Скатецкий, В.Г. Научные основы профессиональной направленности преподавания математики студентам нематематических специальностей: автореф. дисс.... д-ра. пед. наук. - Минск, 1995.

6. Пушкарева, Т.П. К программному обеспечению учебного процесса по математическому моделированию / Т.П. Пушкарева, В.И. Быков // На пути к реформам: Тезисы докладов научно-практической конференции. - Красноярск, 1998.

7. Пушкарева, Т.П. Внедрение проектно-исследовательской методики в преподавание математики студентам химического факультета // Формирование профессиональной компетентности специалистов как цель модернизации образования: Материалы Всероссийской научно-практической конференции: Бузулук-Оренбург, 2005.

Статья поступила в редакцию 9.10.09

УДК 378.02:53

Т.И. Новичихина, канд. физ.-мат. наук, доц. АлтГПА, г. Барнаул, Т: (8-3852) 37-69-33 ЭНТРОПИЙНЫЙ ПОДХОД КАК НЕОТЪЕМЛЕМЫЙ АТРИБУТ ПОЛУЧЕНИЯ ИНФОРМАЦИИ И ЗНАНИЙ

В работе обоснованы основные положения энтропийного подхода, рассмотрены примеры его применения для различных систем, в том числе и педагогических, впервые сформулирован и доказан закон сохранения информации.

Ключевые слова: энтропийный подход, информационные процессы, сложные системы, свободная информация, связанная информация, закон сохранения информации.

На основе проведенных исследований нами развит энтропийный подход к изучению информационных процессов. Энтропийный подход, построенный на основе второго начала термодинамики, может быть сформулирован следующим образом: направление процессов в замкнутой системе таково, что изменение энтропии в ней может быть только положительным или равным нулю, но никогда не может быть отрицательным. Применение предложенного подхода позволило впервые сформулировать закон сохранения информации для различных систем, указать направление развития сложных систем различной природы.

Все предметы и процессы окружающего нас мира, так или иначе, взаимосвязаны, между ними происходит обмен не только веществом, энергией и энтропией, но и информацией. Самым существенным фактором в организации целостности системы любой природы, по мнению академика П.К. Анохина и с этим невозможно не согласиться, является циркуляция в ней информации. Только благодаря непрерывному обмену информацией между отдельными частями системы может осуществляться их организованное взаимодействие, заканчивающееся полезным эффектом.

Термин «информация» происходит от латинского «information» - «осведомление», «представление», «разъяснение» [1]. Этот термин первоначально употреблялся исключительно в журналистике. Затем он получил широкое распространение в различных областях знаний -в теории связи, в социологии, в биологии, в педагогике и др. Толковый словарь русского языка дает следующее определение: информация -это сведения об окружающем мире и протекающих в нем процессах, воспринимаемые человеком или специальным устройством [2, с. 250].

Обращаясь к истории развития любого направления научного познания, будь то физика, биология, социология, философия, педагогика можно отметить, что практически всегда наблюдения, а, следовательно, и описание сложной системы начинается с более заметной стороны. Плоды дерева всегда заметнее его корней. Процесс познания Вселенной начинался от настоящего этапа развития и продолжается вглубь -в прошлое и будущее. Физика -с изучения законов и явлений макромира, а затем вглубь -в микро- и мегамир. Энтропия, введенная для описания простых термодинамических систем, проявляется в системах макро- и мегамира. Информация, первоначально воспринятая как инструмент человеческой деятельности, была обнаружена в более простых системах материального мира.

Различают «связанную» и «свободную» информацию. Наиболее наглядно связанная информация может быть представлена в виде многоцветного напластования горных пород, которое наблюдается в местах их раскола. Свободная информация присутствует в любой книге. Педагогическую деятельность невозможно представить без обмена информацией. Любая сложная система, будь она, например, биологическая или социальная, может содержать связанную информацию. Универсальной количественной мерой такой информации является энтропия рассматриваемой системы [3, с. 70]. Информация в этой естественной форме является несколько скрытой и не отвечает определению информации, которое закладывается в этот термин в классической теории информации. Связанная информация не служит какой-либо цели, не имеет назначения, она представляет только саму себя и является непосредственным материальным свойством рассматриваемой системы. Различия между свободной и связанной информацией носят качественный характер. Свободная информация -это всегда элемент взаимосвязи между двумя системами -передающей и получающей, она представляет собой бинарное отношение между системами. А отношение -это не свойство системы, следовательно, свободная информация существует относи-

тельно самостоятельно и качественно отличается от «нормальных» физических объектов. Свободная информация имеет цель и назначение, она связана с существованием, по крайней мере, двух систем, которые извлекают ее из массивов связанной информации, сохраняют ее, обмениваются ею, обрабатывают ее для того, чтобы она преобразовалась в связанную информацию в виде схемы построения или программы поведения. Свободная информация обладает независимостью и от носителя. Так сообщение может быть передано на бумажном, электронном носителе или в устной форме. Коммуникационный способ не влияет на содержание сообщения. Таким образом, связанную информацию можно обозначить как материальную, или физическую, а свободную -как нематериальную. Безусловно, что роль информации схожа с ролью энтропии в материальных объектах, причем аналогии, проводимые между ними, нельзя считать формальными. Качество энергии, которой обладает система, оценивается с помощью энтропии. Улучшение качества энергии системы -это цель саморазвивающейся системы. «Цель» -это термин, имеющий значение только применительно к живым существам. В этом смысле свободная информация не способна существовать вне мира живых существ. Свободная информация всегда носит символический характер, следовательно, предполагается, что и источник и приемник способны создавать и получать символы, причем смысл передаваемого сообщения, не будет зависеть ни от природы, ни от способа кодирования. Связанная информация неразрывно связана с природой состояния, которое она представляет.

Инвариантность свободной информации относительно физической природы носителя является одним из фундаментальных ее физических свойств. Любой носитель информации имеет физическую природу и подчинен физическим законам, в частности, второму закону термодинамики. Информация, связанная с физическим состоянием системы, «стирается» при приближении системы к термодинамическому равновесию. Из состояния, характеризующегося максимальной энтропией трудно извлечь какую-либо информацию, так как оно представляет собой наиболее хаотичное, из возможных состояние. Однако всегда существует некоторая разница между максимальным значением энтропии и ее действительным значением.

Для переноса свободной информации возможно использование любого носителя, как правило, выбирают стабильный в данных физических условиях, носитель. Следовательно, свободная информация оказывается свободной от законов, которым подчиняются порождающие ее структуры.

Частным случаем существования свободной информации является информация в аналоговом и цифровом виде. В качестве примеров могут выступать письменность, компьютерные данные, генетические коды ДНК. Гормональная же система регуляции у млекопитающих не является ни аналоговой, ни цифровой. В случае аналоговой или последовательной информации возможно построение всех символов в одномерную цепочку. Символы здесь упорядочены, можно указать положение каждого из них.

Исследования в области естественных наук часто имеют своей целью извлечение свободной информации из связанной, например путем измерений. В этом случае свободная информация оказывается более скудной, нежели связанная, так как она описывает только отдельные аспекты объекта, являющегося предметом изучения. Но в отличие от связанной информации, свободная может быть сохранена, размножена и преобразована, а при использовании определенных правил и закономерностей ее можно сравнить со свободной информацией, полученной из других источников. Таким образом, свободная информация может быть накоплена, а накопление информации является принципом биологической и социальной эволюции. Уровень сложности процессов космической и земной эволюции отражен в связанной информации непрерывных

состояний. Главной отличительной чертой биологической и социальной эволюции является появление свободной информации.

Понятие «энтропия» занимает центральное положение не только в физике, но и в теории информации. Энтропийная основа информации достаточно отчетливо прослеживается с момента возникновения теории информации, историю возникновения которой принято отсчитывать с момента выхода в свет в 1949 г. труда американского математика и инженера К. Шеннона «Математическая теория связи» [4]. Количество информации К. Шеннон определял как I = log(1/pi), где р; -вероятность осуществления некоторого события. Информацию относят к исследуемой системе, считая ее функцией последней, причем увеличение данных о системе означает уменьшение ее неопределенности. Очевидно, что существует связь информации с вероятностью состояния системы и как следствие с энтропией. Необходимо отметить, что на самом деле, первым шагом в исследовании информации и ее связи с энтропией были предприняты еще Р. Хартли в 1928г., который предложил измерять степень неопределенности опыта с А различными результатами величиной ^А. Эта мера была удобной для решения некоторых практических задач передачи сообщений по линиям связи, но в других случаях оказывалась мало показательной, так как не учитывала различие между характером результатов -практически невероятному результату придавалось близкое значение, как и вполне вероятному. По мнению Хартли, различие между результатами должны определяться в первую очередь факторами психологического характера, следовательно, и учитываться должны психологами, а не инженерами и математиками.

Следующий шаг в определении зависимости между энтропией и информацией был сделан в 1929 году Л. Сциллар-дом, но его работа была не понята. Поэтому К. Шеннон в 1949 году практически заново установил эту зависимость, хотя и подразумевал под энтропией соответствующую величину со знаком «-».

Согласно Шеннону [3, с. 265], средняя неопределенность нормированного распределения вероятностей

н = м [1п(1/р(х))] = - | ёхр(х)1ир(х)

называется информационной энтропией этого распределения. При этом Хі, ..., хл определяют состояние системы относительно наблюдаемых степеней свободы. Если величина х представлена полным набором координат и импульсов частиц макроскопической системы, то есть х = ^, ..., р1, ..., р:Г), то справедливо равенство:

Б =квИ,

где кв -постоянная Больцмана. Иными словами, статистическая энтропия макроскопического состояния соответствует информации, которая необходима для описания микроскопического состояния исследуемой системы. Информационная энтропия не является ковариантной величиной, так как она изменяется при нелинейной трансформации переменных состояний. Необходимо отметить, что прирост информации является ковариантной величиной

К [р, р’ ] = | йхр( х, ?)1и( р / р').

Теория марковских стахостических процессов отводит важную роль, как изменению энтропии, так и приросту информации.

Нельзя говорить о прямой связи информационной энтропии со статистической энтропией. Особенно значимое отличие наблюдается в случае, если фазовые переменные х не образуют полный набор микроскопических переменных. Фазовые переменные часто вводятся в уравнения как параметры порядка (редуцированное описание), причем с сокращением некоторых микроскопических степеней свободы. Информационная энтропия распределения вероятностей параметров порядка является только частью совокупной статистической энтропии. Но той частью, которая отвечает за структурообра-зование систем.

Существует тесная взаимосвязь между энтропией и недостатком информации. Согласно Джейнсу, взаимосвязь между энтропией и информацией может быть использована для определения неизвестных распределений вероятностей [3, с. 266]. Допустим, мы измерили все А(х), что позволило определить средние значения А(х). Требуется найти распределение Р. Так как для однозначного определения Р недостаточно просто задать конечное множество ожидаемых значений, Джейнс предложил определять Р из вариационной задачи и максимизировать информационную энтропию, соблюдая дополнительные условия, а также нормирующее условие для распределения вероятностей. Из всех распределений с требуемыми ожидаемыми средними значениями А(х) отбираются распределения с наибольшей неопределенностью. Джейнс доказывал, что этот метод соответствует описанной ситуации: каждая отличная от оптимальной функция распределения с заданными ожидаемыми значениями должна быть основана на дополнительной информации, которая, согласно начальным условиям, отсутствует.

Применимость принципа максимальной энтропии в закрытой системе основана на втором законе термодинамики. Фиксация энергии, которая становится в системе дополнительным условием, теряет свою исключительную роль. Для того, чтобы ограничить произвольность при выборе дополнительных условий, Хакен [3, с. 268] объединил принцип максимальной информационной энтропии с концепцией параметра порядка и теорией бифуркаций.

Л. Бриллюэн ввел «негэнтропийный принцип информации», который накладывает новые ограничения на физические эксперименты и не зависит от известного соотношения неопределенности квантовой механики. Сущность этого принципа состоит в следующем: с ростом информации о системе увеличивается негэнтропия, энтропия же есть мера недостатка информации. Любое наблюдение или эксперимент над системой автоматически ведет к увеличению энтропии лаборатории. Следовательно, эффективность эксперимента можно определять как отношение полученной информации к связанному с ней увеличению энтропии. Полученная величина всегда меньше единицы. С другой стороны, в соответствии с энтропийным подходом, основанным на втором начале термодинамики, можно утверждать, что в изолированной системе негэн-тропия и информация стремятся к минимуму, а энтропия и «негинформация» (информация со знаком минус) к максимуму. Процесс идет в том же направлении, что и во всех неорганических системах. Более того, можно утверждать, что если некоторая макросистема находится при температуре близкой к абсолютному нулю, то 1пА = 0, а вероятность этого состояния А = 1. То есть в этом случае данное макроскопическое состояние системы может быть реализовано только одним микроскопическим способом. Это предельное состояние в неживой природе соответствует кристаллическому состоянию химически однородного тела, при котором количество информации о теле максимально. Информации о макросостоянии тем меньше, чем больше А, а значит, и энтропия Б, имеющая, как известно, в состоянии равновесия максимальное значение. Поэтому можно записать выражение, связывающее информацию с энтропией и негэнтропией Бн:

I = - К 1п А = - Б = Бн,

где К -постоянная, в общем случае не равная постоянной Больцмана в аналогичной формуле энтропии. Если в качестве единиц измерения информации выбрать единицы измерения негэнтропии, а К = к = 1, 380 . 10 -23 Дж/град, то I и Бн станут тождественными. Шеннон ввел меру количества информации -бит. Характерно, что бит -это безразмерная величина, не связанная с наличием или отсутствием какого-либо конкретного материального объекта. В его работах ставилась специфическая задача передачи неискаженного сигнала по каналу связи, при этом смысл сигнала для него не представлял интерес. Смысл этой функции можно проиллюстрировать следующим примером. На вход некоторого передающего устройства многократно передается сигнал, сигнал проходит через устройство и регистрируется на выходе. Внутри устройства проис-

ходят некоторые процессы, которые изменяют сигнал. Наблюдатель на выходе принимает сигналы, определяет величину вероятности того или иного искажения и пытается рассчитать истинную величину сигнала, который был подан на вход. Мера достоверности передачи сигнала и является информацией о нем. Очевидно, что информация в данной теории сводится к понятию «сведения об объекте, процессе», но сведения воспринимаемые человеком или устройствами, созданными человеком. С точки зрения теории информации, созданной для прагматических человеческих целей, полезность, новизна -это обязательный атрибут информации. Если сообщение повторяется, то это уже не информация для данного субъекта.

Многие исследователи ограничивают распространение информации только системами живой природы. Причем обмен информацией происходит при функционировании самоорганизующихся систем [4].

Н. Винер [5] связал информацию с управлением. Так появилась кибернетика. Кибернетика расширила область применимости информации за пределы человеческих действий. В ее рамках было доказано, что законы управления в биологических системах очень сходны с законами, на основании которых работают автоматы, созданные человеком [6]. И в тех и в других видах систем происходит обмен информацией и энтропией. Несколько позже термин информация стал использоваться биологами для описания механизмов передачи наследственных свойств и управления в живых системах. Образование саморазвивающихся систем невозможно представить себе без обмена информацией и энтропией. Можно предположить, что некоторая «праинформация» породила Большой взрыв [7], в результате которого произошло рождение Вселенной. Исследование эволюции систем Вселенной [8] достаточно убедительно доказывает, что развитие происходило не дискретно, а непрерывно, с известной долей преемственности. Так атомы, из которых состоят все системы живой и неживой материи, в том числе и человека, появились на ранних этапах развития Вселенной. Сознание человека является главным фактором в его борьбе за выживаемость вида. Однако оно присуще не только человеку, как управляющая функция сознание просматривается даже у простых живых организмов. В качестве доказательства можно привести пример использования и изготовления орудий труда у насекомых, птиц, млекопитающих [9]. Таким образом, можно предположить, что любой феномен материального мира подвержен эволюционному развитию. При известном накоплении количественных изменений происходят качественные преобразования, при которых появляются новые свойства, старые же, как правило, тоже сохраняются, иногда только в виде некоторого следа. На основе данных предположений возникла современная парадигма глобального эволюционизма. Исходя из изложенного выше, можно утверждать, что и энтропия и информация своими корнями уходят в самый фундамент организации всего материального мира.

Понятие информация, как и понятие энтропия, широко используется для объяснения протекающих процессов. Причем, как уже отмечалось, применение термина информация стараются ограничить живой материей, а энтропии -неживой. Однако, нейрон способен получать, перерабатывать и передавать информацию даже без участия головного мозга [10], при этом непременно происходит изменение энтропии системы, так как было доказано, что эти процессы сопровождают друг друга. Любая клетка живого организма через мембрану, отделяющую клетку от окружающей среды, передает и получает информацию. Гормоны и метаболиты переносят негэнтропию, а вместе с ней и информацию от клетки к клетке [11]. Иммунная система обнаруживает чужеродные клетки и воздействует на них, стремясь их уничтожить. Подобных примеров из живой природы можно приводить достаточно много, но представляется достаточным для того, чтобы считать, что понятия информация и энтропия связаны между собой и возможно их широкое совместное применение для описания систем живой природы. Информация является неизменным атрибутом всей

живой материи. Все живые существа принимают и обрабатывают информацию, а затем предпринимают те или иные действия. Проявления информационного и энтропийного обмена наблюдаются в системах неживой природы. Так некоторые твердые материалы обладают памятью, например, памятью формы. При наложении внешних воздействий они изменяют размеры и форму, а при снятии -переходят в исходное состояние. При наблюдении явления гетерогенного катализа, молекулярные скопления на поверхности твердых тел способны узнавать определенные молекулы в хаотическом движении молекул газовой смеси и избирательно совершать с ними различные химические превращения. Подобными свойствами способны обладать не только искусственные катализаторы, созданные человеком, но и природные минералы, глины [12]. Существует гипотеза о том, что именно глины явились субстратом для синтеза протобионтов.

И. Вейцзакер и А.К. Ребане считали, что информация -это форма [13]. По их мнению, источником информации является любая форма. Массу, энергию, а, следовательно, и энтропию они рассматривали как специфическое выражение информации. Однако И. Вейцзакер утверждал, что информация -это не просто форма, а чье-то знание об этой форме. То есть предполагается, что кроме объекта существует и субъект познания -приемник информации.

По А.Д. Урсулу, информация -это часть отражения, образ, возникающий в голове, отличающийся от самой информации. Он считает, что образ «привязан» к материальному носителю, а в информации исчезают многие предметные, пространственно-временные, энергетические характеристики

объекта. С этим невозможно согласиться, если речь идет о связанной информации, так как она всегда «привязана» к материальному носителю. Ю. И. Шемакин также отмечает дуализм информации, разделяя понятия знание и информация. Знание у него -это потенциальная информация о предмете. Информация -это актуализация знания [14].

Форма, образ и знание являются потенциальной информацией, которая может быть воспринята и изучена. Эта материальная часть информации привязана к своему носителю, следовательно, она должна подчиняться всеобщим законам материального мира, и, в частности, второму закону термодинамики. Другая -идеальная часть может перемещаться, менять носитель. На наш взгляд, в приведенных определениях информации не вскрыта ее природа. Описываются только свойства и проявления информации. Картина аналогична представлениям о пространстве и времени. Никто не знает, что они представляют собой, однако свойства описать можно.

Интересным представляется определение информации академика В.М. Глушкова [15]. Он понимает информацию как меру неоднородности распределения материи и энергии в пространстве и времени. Определение созвучное определению энтропии, которую считают мерой беспорядка в системе. Но мера подразумевает и средство измерения, и измеряющий субъект. Допустим, что средством измерения можно считать компьютер, а субъектом - человека. Действительно, компьютер способен выдать в определенных единицах - битах -количество сохраненной информации, выраженной в виде универсальных двоичных кодах. Человек, как измеряющий субъект, способен произвести оценку количества полученной информации. Может возникнуть вопрос. А необходим ли человек? Компьютер способен сравнить объем полученной информации. Но кроме количества, у информации есть качество. А его пока может оценить только человек. И как только встает проблема качества информации, мы должны говорить об энтропии. Сколько энтропии в книге или в научной статье? Можно твердо ответить на этот вопрос, что все зависит от соотношения в ней новых данных -информации и слов. Много слов и мало информации - много энтропии и наоборот.

Вновь переходя от живого вещества к неживому, можно отметить, что процессы, протекающие в системе атмосфера -океан невозможны без передачи энтропии и информации, без осуществления обратных связей. Резонансные явления, проявляющиеся в системах различной природы показывают, что

эти системы являются своеобразными фильтрами, вырезающими из окружения определенную полосу частот колебаний. Таким образом, энтропия и информация - это атрибуты как неживой, так и живой материи.

Настоящее время характеризуется резким ростом объема информации и, как следствие этого, наблюдается фрагментарность восприятия мира, напряженность в отношениях человека и природы, культуры естественнонаучной и культуры гуманитарной [16]. Поэтому современная наука растворена схоластичностью и разорвана специализацией. Но природа едина. Информация, накопленная человеческой цивилизацией уже ко 2-й половине XX века, с очевидностью показала, что окружающий нас мир состоит из весьма сложноорганизованных систем, которые могут одновременно выступать объектами изучения многих наук: физики, химии, биологии и других дисциплин. Тех, кто впервые знакомится с информатикой, обычно поражает несоответствие между огромным количеством информации, которое содержится в цветном изображении, и скромным объемом, который может быть отведен под него в головном мозге. Вывод из этого несоответствия прост: информация в мозге обрабатывается и хранится совсем не так, как в компьютере. Вероятно, мозг выделяет что-то наиболее важное в каждом изображении, с чем и имеет дело в дальнейшем. При таком подходе главной проблемой становится научить вычислительную машину выделить необходимое и забыть ненужное. Например, чтобы "запомнить" стандартным способом несложную картину, нарисованную на экране компьютера, нужно хранить более одного мегабайта информации. Однако если выделить "самоподобные" элементы в этом изображении с помощью методов фрактальной геометрии, достаточно одного килобайта, то есть в тысячу раз меньше. Причем, это число не зависит от размеров экрана. Оно останется тем же самым, если рисовать этот узор, а может быть что-то другое, с гораздо большим числом деталей. Здесь информацию удается сжать более чем в тысячу раз. В том, чтобы научиться сжимать информацию и для всех других изображений состоит одна из проблем современной науки. Трудно переоценить важность этой проблемы. С сейсмических станций, спутников, метеостанций поступает гигантский объем информации. Широкое использование томограмм, энцефалограмм и кардиограмм, снимаемых в течение больших интервалов времени, сделали современные больницы крупными поставщиками данных. Поток информации захлестывает современное образование, создавая дополнительные трудности в педагогическом процессе. Одной из принципиальных задач современной науки является задача научиться эффективно хранить, перерабатывать, передавать и анализировать большие информационные потоки. Космические снимки, данные сейсмостанций, томограммы похожи на неукротимого джинна, выпущенного из бутылки. Информацию надо хранить в наиболее компактном виде, причем так, чтобы с ней удобно было обращаться. Ведь что-то приходится вспоминать часто, что-то -иногда, а что-то - в исключительных случаях. Помнится, Во-ланд объяснял Левию Матвею, что свет невозможен без тьмы. Точно так же во множестве конкретных случаев становится ясно - порядок неотделим от хаоса. А хаос порой выступает как сверхсложная упорядоченность.

Связь между термодинамикой и теорией информации определяется еще и тем фактором, что для производства, преобразования и передачи информации необходимы затраты энергии. Чтобы что-то познать в любой форме -записать на бумаге, произнести, прочитать, послушать -необходимо затратить энергию, но неизвестно, какова связь между затраченной энергией и полученной информацией.

Если тепловую энергию выразить Q = Т А 5, а затраченную работу Ш = Т А I = ТА5, то температура будет обозначать «тепловой шум», то есть помехи при передаче информации. При повышении температуры уровень шума повышается, а затраты на его преодоление увеличиваются. В результате появляется новая трудность, так как для нахождения изменения энтропии необходимо измерить не только количество энергии или совершенной работы, но и абсолютную температуру, со-

ответствующую энергии, затрачиваемой диктором или докладчиком. Часто бывает легче установить связь между энтропией и информацией, чем показать ее практически на численных примерах. Тем не менее, эта связь была установлена до такой степени, что на основе теории информации разработана сложная система универсальной термодинамики обратимых и необратимых процессов, вытекающая из единой группы исходных уравнений. Автором ее является американец М. Трай-бус. Необходимо отметить, что до этого существовали отдельно термодинамика обратимых, т. е. идеальных процессов и термодинамика необратимых, т. е. реальных процессов. В первой, классической термодинамике все реальные процессы рассматриваются как обратимые, идеальные, а для учета необратимости конечные результаты умножаются на соответствующие поправочные опытные коэффициенты. Во второй - в исходные зависимости включаются многие показатели, в том числе скорость возрастания энтропии, учитывающие и позволяющие подсчитать величину необратимости. Но и в этом случае приходится вводить эмпирические коэффициенты (коэффициенты теплопроводности, излучения и др.), с той лишь разницей, что здесь они вводятся в самом начале расчетов [17]. Таким образом, человеческое сознание из информационной бездны выделяет умопостигаемые объекты и явления. О бездне информации можно говорить, так как по расчетам некоторых ученых количество атрибутивной информации во Вселенной не менее 10135бит [18]. Выделение - это процесс ограничения разнообразия, в ходе которого отсеивается избыточная информация и остается то, что обычно называют моделью или образом. В этом процессе происходит упорядочивание структуры, следовательно, энтропия системы уменьшается.

В литературе встречаются другие определения информации. Например, информация - это любые неоднородности материального континуума [21]. Определение отражает сущность информации, но оно является настолько общим, что отражает и другие понятия, например, флуктуации. Очевидно, что в определении необходимо вместе с общим выделение частного, присущего только этому понятию.

Неоднородности появились вместе с возникновением Вселенной и роль их в ее развитии велика. Неоднородность протекания процессов во времени информативна. Колебания маятника, броуновское движение, человеческая речь - это все проявление, как информации, так и энтропии. Отсутствие возможности сколько-нибудь точно сосчитать всю информацию не оставляет надежды на открытие закона сохранения информации. Сегодня мы считаем, что информация может появляться и исчезать, а также переходить из одного вида в другие, но как это происходит, какие существуют при этом взаимосвязи. Кроме того, ученые полагают, что общее количество информации хоть и велико, но конечно (10135 бит). Мы не знаем общее количество энергии во Вселенной, общее количество энтропии, общее количество массы материи, однако это не мешает нам формулировать законы их сохранения. Может не надо замахиваться на информацию всей Вселенной, а формулировать закон сохранения информации для замкнутой системы. Например, так: количество связанной информации в замкнутой системе не изменяется. Закон является вполне очевидным, вопрос состоит только в том, какую систему считать замкнутой.

В качестве доказательства рассмотрим замкнутую локальную компьютерную сеть. Количество информации, хранящееся на каждом компьютере строго определенное, выраженное в общепринятых единицах измерения информации -битах. Следовательно, общее количество информации в данной локальной сети также является строго определенным. Информация может перекачиваться с одного компьютера на другой, разделяться на части и объединяться в одно целое - от этого ее общее количество не изменится.

Но, есть ограничения, накладываемые на данную систему. Она не должна подвергаться внешним воздействиям со стороны систем живой и неживой природы. Человек может быть включен в эту систему, но она перестает быть замкну-

той, так как сам человек не является замкнутой системой, для поддержания его жизнедеятельности необходимо, как минимум, питание. Безусловно, что приведенный пример не затрагивает всего многообразия процессов, которое возможно при передаче, сохранении и переработке информации даже в этой простой системе. Кроме того, даже компьютерные системы, как правило, не являются замкнутыми. Однако и физические системы в общем случае не являются замкнутыми. Нет в природе замкнутых систем. Замкнутые системы - это абстракция, модель, созданная человеком для облегчения решения достаточно большой группы задач.

Тогда в общем виде закон сохранения информации будет иметь вид:

в любой замкнутой системе в любой момент времени сумма свободной и связанной информации есть величина по-

Библиографический список

1. Дворецкий, И. Х. Латинско-русский словарь. - М. : Рус. Яз., 197б.

2. Ожегов С.И. Толковый словарь русского языка / С.И. Ожегов, Н.Ю. Шведова: 80000 слов и фразеологических выражений / Российская академия наук. Институт русского языка им. В.В. Виноградова. -4-е изд. - М.: ООО «ИТИ ТЕХНОЛОГИИ», 2003.

3. Эбелинг, В. Хаос и космос: синергетика эволюции / В. Эбелинг, Р. Файстель. -Москва-Ижевск: Институт компьютерных исследований; НИЦ «Регулярная и хаотическая динамика», 2005.

4. Жаботинский, А.М. Концентрационные автоколебания. - М.: Наука, 1974.

5. Винер, Н. Кибернетика или управление и связь в животном и машине. - М.: Наука, 1983.

6. Зорина, З.А. Зоопсихология. Элементарное мышление животных / З.А. Зорина, И.И. Полетаева. - М.: Аспект Пресс, 2002.

7. Левитан, Е. Взрыв, породивший нашу Вселенную // Наука и жизнь. - 1998. - № 2.

8. Понов, В.П. Эволюция, информация и управление / В.П. Понов, И.В. Крайнюченко. - Ессентуки: ЕИУБиП, 2002.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

9. Дольник, В.Р. Вышли мы все из природы. - М.: Linka Press, 199б.

10. Хьюбел, Д. Мозг. - М.: Мир, 1984.

11. Фролов, Ю. Белковая ночта // Наука и жизнь. - 2000. - № 1.

12. Кернс-Смит, А. Дж. Первые организмы // В мире науки. - 1985. - №8.

13. Ребане, А.К. Информации как мигрирующая структура // Труды но философии. - Тарту. - 19б9. - Т. 12.

14. Шемакин, Ю. И. Семантическая парадигма самоорганизующихся систем // Синергетика, человек, общество. - М., 2000.

15. Глушков, В.М. Кибернетика: Вопросы теории и практики. - М.: Наука, 198б.

16. Буданов, В.Г. Трансдисцинлинарное образование, технологии и принципы синергетики // Синергетическая парадигма: Многообразие ноис-ков и подходов. - М., 2000.

17. Алексеев, Г.Н. Энергия и энтропия. - М.: Знание, 1978.

18. Демьянов, В.В. Эвалектика ноосферы. - Новороссийск, 2001.

Статья поступила в редакцию 19.10.09

стоянная. Математически этот закон может быть записан следующим образом: Iсеоб + Iсеяз = Const.

Для незамкнутой системы закон сохранения информации может быть сформулирован следующим образом: в незамкнутой системе изменение общего количества информации пропорционально работе, совершенной внешними системами над исследуемой.

Ранее было доказано, что для передачи, обработки и сохранения информации необходимо затратить работу. В случае замкнутой системы этим занимаются объекты, входящие в нее. Если же система незамкнута, информация может передаваться извне, или от системы к внешнему окружению.

Сформулированный выше закон является, безусловно, новым, полученным в результате применения предложенного в работе энтропийного подхода.

УДК 376.5 -05856: 371.322

Э.В. Зауторова, кан. пед. наук, доц. ВИПЭ ФСИНРоссии г. Вологда, Email: elvira-sons@mail.ru

ВАРИАТИВНОСТЬ ВКЛЮЧЕНИЯ НЕСОВЕРШЕННОЛЕТНИХ ОСУЖДЕННЫХ, ЛИШЕННЫХ СВОБОДЫ, В ХУДОЖЕСТВЕННО-ТВОРЧЕСКУЮ ДЕЯТЕЛЬНОСТЬ

В статье описаны особенности вариативного включения осужденных подростков, находящихся в местах лишения свободы, в художественно-творческую деятельность, способствующую развитию эстетического мироощущения, склонностей и способностей участников, реализации их потребностей, соответствующих личностным возможностям и запросам несовершеннолетних.

Ключевые слова: художественно-творческая деятельность, несовершен-нолетние осужденные, особенности подросткового возраста, специфика воспитательной работы в местах лишения свободы.

Демократизация и гуманизация уголовно-исполнительного законодательства, непрерывное развитие отечественной педагогической науки, а также накопившиеся проблемы в деятельности исправительных учреждений обусловливают необходимость расширения их воспитательного потенциала, поиска новых подходов к исправлению преступников, активизации личностных возможностей осужденных путем специально организованной психолого-педагогической работы.

В связи с этим возрастает потребность в активизации деятельности исправительных учреждений в преодолении негативных тенденций, развитии гуманитарных, эмоциональных начал исправительного процесса, повышении готовности осужденных, лишенных свободы, к осознанному включению в процесс собственного нравственного развития, самостоятельной работы над собой [1]. Особенно это важно для несовершеннолетних осужденных, находящихся на этапе становления своей личности.

Особенности личности несовершеннолетних осужденных рассмотрены в трудах В.М. Литвишкова, А.В. Митькиной, А.В. Пищелко, В.Н. Савардуновой, Д.В. Сочивко [2; 3; 4] и др. Ученые-пенитенциаристы отмечают, что большинство 14-18-

летних подростков, подвергнутых лишению свободы, отбывают наказания за умышленно совершенные преступления. К ним уже ранее применялись различные меры административного воздействия, но они не дали положительных результатов. Осужденные этой возрастной группы отличаются особой восприимчивостью к воздействиям окружающей среды, повышенной эмоциональностью, категоричностью суждений. Противоречия возраста в основном обусловлены расхождением между самооценкой окружающих, уровнем притязаний, индивидуальными возможностями, собственным поведением и общественными требованиями. В сочетании с неблагоприятным воспитанием это способствует формированию у молодых людей отрицательных черт характера, мотивов поведения, что и обусловливает вступление на асоциальный путь.

Подростковый возраст наиболее сложный для становления личности, возраст закрепления приобретенного в более раннем возрасте нравственного багажа, его осмысления и обогащения [1]. Несовершеннолетние весьма восприимчивы к внешним воздействиям. Восприимчивость и впечатлительность являются теми внутренними условиями, которые спо-

i Надоели баннеры? Вы всегда можете отключить рекламу.