Научная статья на тему 'ЭНТРОПИЯ НЕРАВНОВЕСНЫХ СИСТЕМ'

ЭНТРОПИЯ НЕРАВНОВЕСНЫХ СИСТЕМ Текст научной статьи по специальности «Математика»

CC BY
234
32
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
СИНЕРГЕТИКА / ИНФОРМАЦИЯ / ЭНТРОПИЯ / ПРИНЦИП МИНИМУМА ПРОИЗВОДСТВО ЭНТРОПИИ И МАКСИМУМА ИНФОРМАЦИИ / СТОХАСТИЗАЦИЯ

Аннотация научной статьи по математике, автор научной работы — Ильясов Н. И., Мукаева А. А.

С точки зрения синергетики вводится понятие информации и информационной энтропии наиболее универсальных статистических характеристик неравновесных явлений, сопровождающих стохастизацию динамической системы. В синергетике информация является основным объектом исследования. Информационная энтропия определяет средневероятное значение информации. В статье рассматриваются возможности к определении энтропии, зависящей от времени и координат в неравновесных процессах, а именно вопросы уравнения баланса энтропии, производства энтропии, а также принципы минимума энтропии и максимума информации.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

ENTROPY OF NONEQUILIBRIUM SYSTEMS

From the point of view of synergy, the concept of information and informational entropy of the most universal statistical characteristics of nonequilibrium phenomena accompanying the stochastization of a dynamic system is introduced. In synergy information is the main object of research. Informational entropy determines the average probability of knowing the information. The article discusses the possibilities for determining entropy, which depends on time and coordinates in non-equilibrium processes, namely questions of the equation of entropy balance, entropy production, as well as the principles of minimum entropy and maximum information.

Текст научной работы на тему «ЭНТРОПИЯ НЕРАВНОВЕСНЫХ СИСТЕМ»

Крзац мемлекетт1к цыздар педагогикальщуниверситеттщ Хабаршысы № 1 (77), 2019 МРНТИ 29.17.43

ЭНТРОПИЯ НЕРАВНОВЕСНЫХ СИСТЕМ

Н.И. Ильясов1, А.А. Мукаева2

2

1,2

:к.п.н., профессор магистрант 2 курса специальности «Физика»

Казахский национальный женский педагогический университет, г. Алматы, Республика Казахстан

email: ainura.mukayeva@mail.ru

С точки зрения синергетики вводится понятие информации и информационной энтропии наиболее универсальных статистических характеристик неравновесных явлений, сопровождающих стохастизацию динамической системы. В синергетике информация является основным объектом исследования. Информационная энтропия определяет средневероятное значение информации. В статье рассматриваются возможности к определении энтропии, зависящей от времени и координат в неравновесных процессах, а именно вопросы уравнения баланса энтропии, производства энтропии, а также принципы минимума энтропии и максимума информации.

Ключевые слова: синергетика, информация, энтропия, принцип минимума производство энтропии и максимума информации, стохастизация

1. Синергетическя информация и информационная энтропия

Большое разнообразие и сложность необратимых процессов создают значительные трудности в их изучении. Полной теории этих явлений пока не существует, однако усилиями ученых разных стран всего мира выработан целый ряд плодотворных методов для исследования неравновесных состояий. С помощью этих методов были получены важные результаты, имеющие большое теоретическое и практическое значение.

Как и для равновесных систем, здесь возможны два различных подхода: макроскопический и микроскопический. В первом из них задача состоит в установлении связей между макроскопическими параметрами на основе данных опыта, без привлечения в явном виде молекулярно-кинетических представленй.

В отличие от равновесной термодинамики характеристики неравновесных систем изменяются со временем, а интенсивные параметры (давление, плотность, температура и т.д.) имеют, как правило, разные значения в различных точках системы, т.е. зависят от координат. Основную роль в теории необратимых явлений играют потоки различных физических величин: энергии, массы или числа частиц, теплоты, импульса, энтропии, электрического заряда и т.д., которые отсутствуют в равновесных состояниях. Причины возникновения потоков получили формальное название сил. Это могут быть градиенты интенсивных параметров (температуры, скорости и т.д.) или связанные с ними величины. Во многих случаях предполагается линейная связь между потоками и силами. Коэффициенты пропорциональности, входящие в эти соотношения, называются кинетическими коэффициентами [2].

Второй способ изучения неравновесных процессов представляет собой дальнейшее развитие и обобщение идей статистической физики. Часто оказывается полезным следующий метод. Вводится функция распределения вероятностей для различных состояний частиц. Как правило, распределение зависит от координат, а для нестационарных случаев - еще и от времени. А вот равновесные распределения постоянны во времени, зависимость от координат в них имеет место только при наличии внешних полей.

Статистическая теория необратимых явлений называется физической кинетикой. Первоочередная проблема кинетики заключается в нахождении уравнения , определяющего функцию статистического распределения и ее измение со временем. Как и в случае равновесия, знание закона рапределения частиц по состояниям позволяет вычислить термодинамические характеристики системы, установить связь между ними, указать закономерности изменения всех величин.Но, к сожалению, реализация этой программы не удается. Трудность сосотоит в том, что невозможно ввести какие-либо простые функции распределения частиц по состояниям, которые были бы пригодны всегда и везде, как это было для равновесных состояний.

В настоящее время для исследования сложных неравновесных систем используют новое методологическое направление науки - синергетику (теорию самоорганзации материи и ее движения). Оказалось, что нелинейность и случайность играют существенную роль в развитии и описании термодинамически неравновесных систем и процессов, характеризующихся градиентом, потоком, изменением макроскопических физических величин (температуры, плотности, давленя и т.д.). Как отметил И.Пригожин «неравновесность есть то, что порождает порядок из хаоса» [4].

В физике синергетика занимается изучением систем и процессов, далеких от теплового равновесия. Термодинамику можно рассматривать как макроскопическую феноменологическую теорию. Ее основания лежат в статистической физике. В этой области физики предпринимается, в частности, попытка вывести феноменологическоие макроскопические законы термодинамики из микроскопической теории. Центральным понятием в этих исследованиях является энтропия S. Согласно Больцману, она связана с числом W различных макроскопических состояний (термодинамическая вероятность), порождающих одно и то же макроскопическое состояние системы соотношением:

5 = к 1пЖ. (1.1)

Здесь решающее значение имеет так и не получивший убедительного ответа вопрос о том, почему макроскопические явления необратимы, хотя все фундаментальные законы обратимы. Вместе с тем совершенно очевидно, что в макроскопической физике процессы необратимые. Например, если унас сосуд с газом и мы откроем клапан, чтобы газ мог попасть во второй сосуд, то оба сосуда окажутся заполненными газом. Однако, весь газ самопроизвольно,обратно один из сосудов не заполняет, т.е. в природе никогда не наблюдается обратный процесс. Но, несмотря на трудности, связанные сол строгим обоснованием необратимости, статистическая физика позволяет нам объяснить ряд явлений неравновесной термодинамки такие, как теплопроводность, диффузия, релаксационные процессы и т.д.

Как мы уже упомиали,термодинамика занимается рассмотрением систем, находящихся в тепловом равновесиием, тогда как синергетика изучает системы, далекие от теплового рановесия. Но, следует отметить, что мы любую открытую систему можем погрузить в объемлющуюе змкнутую. Например, приняв Солнечную систему как целую, мы можем рассматривать ее как замкнутую, к которой применимы законы термодинамик. Следовательно,общие законы термодинамики должна получаться как предельные случаи из общих законов синергетики. Тогда синергетика должна начинать свой построения не с микроскопического уровня, а с мезоскопического подхода. Исходным пунктом для этого является понятие информации.

В последнее время все чаще приходится убеждаться в том, что практически все существующие в природе закономерности имеют информационный характер. Оказалось, что информация определяет направление движения материи во Вселенной, именно она является носителем смысла всех процессов в природе и обществе. Важную роль в развитии новых научных представлений о природе информации сыграло появление синергетики - науки о процессах самоорганизации материи и ее движения в природе и обществе. Информация главный движущий фактор самоорганизующихся систем любого вида. Именно информация определяет основные фазы и направление всех эволюционных процессов, структуру и устойчивость существования возникающих при этом природных, социальных и экономических систем.

Дальше, мы пользуясь вероятностной трактовкой, предложенной К. Шенноном, применительно к синергетическим явлениям [1,2], вводим понятия синергетической информации и информационной энтропии - наиболее универсальных статистических характеристик неравновесных явлений, сопровождающих стохастизацию нелинейной динамической системы.

Итак, что такое информация? Как можно установить критерии, позволяющие отличить сообщения, несущие в себе много информации от малоинформативных. Сравним два сообщения: А - солнце восходит и В - завтра ожидается солнечное затмение. Понятно, что истинность первого сообщения никого не трогает, в то же время второе сообщение вызовет определенный интерес, оно будет широко обсуждаться в прессе, о нем будут говорить люди, передачи по телевидению, интервью с учеными и т.д. Из этого можно заключить, что сообщения о событиях имеющих малую априорную вероятность несут много информации, в тех случаях, когда такие

события происходят. Следовательно, информация I и вероятность события Р связаны соотношением:

с

I = I

P) ■ -

Для определения вида неизвестной функции I считаем, что для I выполняется правило аддитивности, т.е. общая информация поступившая от двух когерентных источников 1 и 2 должна быть равна сумме отдельных вкладов I = I +12. Понятно, что для выполнения этого условия функция I должна обладать следующим свойством:

( 1

( х х \ (л л\

f -\ = f---= f

V p J 1 P P

p p

V P P2

V 1 2 J

Простейшей математической функцией, обладающей такого рода свойством является логарифмическая, следовательно,

I = log-1 = - log P. (1.3)

величина I всегда положительна, так как 0 << P << 1. В зависимости от выбора основания логарифма в формуле (1.5) количество информации измеряется в «битах», «дитах» и «натах» соответственно в случаях двоичных, десятичных и натуральных логарифмов. Наиболее часто, как известно, за единицу количества информации кибернетике принято такое ее количество, которое содержится в сообщении о совершении одного из двух равновероятных событий.

Такая единица количества информации носит название бит или двоичная единица. Например, информация, извлекаемая из исхода бросания симметричной монеты равна:

I = - log 1 = log 2 = 1бит.

Известно, что вероятности обладают свойством мультипликативности: вероятность одновременных независимых событий равна произведению их вероятностей. Но, количество информации как мера множества должна обладать свойствами аддитивности. Как отмечено выше, единственная математическая функция, отвечающая этим свойствам, - логарифм, и log^) = log A + log B.

Следовательно, эту формулу можно ввести как условие, выражающее свойство аддитивности информации. Тогда рассмотрение его как функционального уравнения, позволило бы получить (1.4) в виде его единственного решения. Из уравнения (1.3) следует важный, единственно универсальный смысл информации: информативными являются события с малой априорной (доопытной, теоретической) вероятностью, что много информации несут в себе неожиданные события. Этот вывод не относится к редким, неповторяющимся событиям.

В конкретных случаях смысл информации несколько зависит от условия ее приема. Например, одним из возможных носителей информации является электромагнитное поле. А вот результат приема электромагнитного излучения не всегда однозначен: влияет флуктуация количество фотонов, потеря фазы электромагнитной волны и т.д. Таким образом, как количество, так и смысл информации не определяются полностью ее источником и переносчиком - материальной средой. Результат приема зависит от ее интерпретации субъектом. На вопрос, что такое информация, в настоящее время нет однозначного ответа. По сути информация и материальна, и духовна.

Г.Хакен использует термин информация в различных смыслах. В частности, в [1] им показано, что возникает новый тип информации связанный с коллективными переменными или параметрами порядка. В некоторых случаях для исследования открытых сложных систем понятие информации в смысле Шеннона оказывается более подходящим, чем понятие энтропии.

Процессам, нарушающим равновесное состояние в системе, противостоят внутренние релаксационные процессы. Если интенсивность возмущающих процессов меньше, чем интенсивность релаксационных, то можно ввести понятие о локальном равновесии, которое устанавливается в малом объеме. Эта идея была высказана И.Пригожиным и позволила

описывать состояния в этой области теми же параметрами, что и в равновесном. Этот принцип ввели и при медленном изменении внешних воздействий, то есть для времен, больших характерного времени релаксационного процесса формирующего равновесие.

Если, какие-то процессы не позволяют системе прийти в устойчивое равновесие, где прирост энтропии А. 5' = 0, то она придет в состояние с минимальным производством энтропии.

Эта теорема о минимуме производства энтропии в стационарных состояниях совместно с принципом локального равновесия положены И.Пригожиным в основу современной термодинамики необратимых процессов.

При определенных условиях суммарное уменьшение энтропии в системе, за счет обмена потоками с внешней средой, может превысить ее внутреннее производство. Ее состояние становится неустойчивым, в ней возникают крупномасштабные флуктуации. При этом за счет внутренней перестройки системы из хаоса могут возникнуть упорядоченные структуры. Это явление получило название самоорганизации. Современная общенаучная методология синергетика - теория самоорганизации материи и ее движения рассматривает реальные объекты как открытые системы, обменивающиеся с внешним миром энергией и информацией, т.е. базируется, в основном, на достижениях нелинейной физики хаоса и порядка. Поэтому в синергетике информация является ключевым понятием и основным объектом исследовании [24,13].

Самоорганизация всегда структурна и одновременно стохастична. Эти два фактора -нарушение симметрии и вероятностный характер явления обеспечивают достаточность условия для порождения системой информации. В науку введено новое понятие «синергетическая информация», означающее, что информация определяется через дискретные вероятности Р появление структур в процессе самоорганизации: i = - 1св р , (1.4)

где i всегда неотрицательна, так как 0 < Р < 1.

Одно из определений информации дается как разность энтропии равновесного и неравновесного состояний, открывает возможности применения ее для описания объектов различной природы. Система, находящаяся вне точек устойчивости может принимать различные состояния, и ей необходима информация о выборе того или иного состояния. Здесь одна из возможностей заключается в том, что эта информация заложена в системе генетически.

Понятие энтропии связано также с распределением вероятностей случайных величин. При равновероятном распределении энергии Ег вероятность реализации подсистем определяется

как: р (е1 ) = 1 / А г, следовательно, энтропия определяется следующим выражением:

5 = аг = - 1п р (Е7), (1.5)

по смыслу средневероятного эта формула записывается в виде:

5 = -! Р 1пР , Р = Р (Е). (1.6)

I

Энтропия, определенная по формуле (1.6) называется информационной энтропией. Из сравнения формул (1.2) и (1.5) видно, что энтропия определяет средневероятное значение информации. При равновероятном распределении подсистем неопределенность о системе достигает максимума, т.е. вся информация о системе стирается и превращается в энтропию (формула (.1.2)). Приобретение информации сопровождается уменьшением неопределенности, поэтому количество информации можно измерять количеством исчезнувшей неопределенности, т.е. энтропии /7/:

I = 5Рг - 5Р5, (1.7)

где индекс рг означает «априори» (до опыта), а р^ - «апостериори» (после опыта). По этой причине в литературе выражение (1.4) называется иногда информацией (если она приобретена), иногда энтропией (если она потеряна).

Пусть X = ,х2,...,хи ), У = (у,у2,...,ук) - наборы переменных. По аналогии с

формулой (1.3) введем условную энтропию 5 \ХХГ) . Условная энтропия всегда меньше, чем

безусловная энтропия т.к. задания условия означает наличие некоторой определенности порядка. Тогда, информация о величине Х при задании У определяется равенством:

I(X) = Я(X) — я), (1.8)

так как по смыслу I(X)> 0, то информация есть некоторая определенность. Формулу (1.7) можно считать вторым определением информации. Она применяется в анализе сложных явлений.

2. Уравнение баланса энтропии. Принцпы минимума производства энтропии и максимума информации.

В неравновесных системах физические величины меняются во времени и в пространстве. Эти процессы изучаются на основе законов сохранения частиц (кинетическое уравнение), массы (уравнение диффузии), импульса (уравнение движения), энергии (первый закон термодинамики). Основное уравнение процессов переноса имеют феноменологический характер. Потоки для теплопроводности, диффузии, внутреннего трения записываются в следующем виде[2,3]:

V дТ у пд п д и

= — X _ ; ^ = — ; *ши = •

дх д х д х

Сюда следует добавить и закон Ома в дифференциальной форме, который является уравнением переноса электрического заряда:

до

] = — У—,

дх

где ] — плотность тока, у — электропроводимость, р — потенциал электрического поля,

до

а--его напряженность.

д х

Общая особенность этих уравнений состоит в том, что они описывают поток некоторой величины, стоящей в левой части равенства, который возникает за счет соответствующей движущей силы, стоящей в правой части равенства и, которая является градиентом некоторой величины. В теории неравновесных процессов постулируется общее правило: потоки ^ и

создающие их силы Хк связаны линейной зависимостью:

1 к

¥г = X ЬгкХК =

к

где величины Ь ., - называются кинетическими коэффициентами.

' гк

Наиболее общие закономерности неравновесных процессов описываются уравнением баланса (второй закон термодинамики). В неравновесных процессах энтропия не сохраняется, ее эволюция определяет направление процесса, качественные изменения свойств системы.

Энтропия малого участка системы изменяется как следствие взаимодействия с соседними участками, так и за счет процессов, протекающих внутри его. Поэтому можно говорить о том, что энтропия поступает в систему из окружающей среды и производится в ней самой. Скорость поступления энтропии описывается плотностью потока энтропии ] , а скорость возникновения

энтропии описывается плотностью источника энтропии Г , т.е. производством энтропии. Так

как энтропия в изолированной системе может только возрастать, то Г > 0. В общем случае

$

уравнение баланса энтропии в каждой точке неравновесной системы имеет следующий вид [4,5]: ^ = — (г, I) + ( (г, Г), (2.1)

где г, ? - координата и время. Функция ((г, ^) всегда положительна и вносит вклад к росту энтропии за счет диссипативных (необратимых) процессов. Вид ], Г определяется из

вышеуказанных законов сохранения. Термодинамический метод не позволяет найти кинетические коэффициенты теоретически. Они определяются или экспериментально, или рассчитываются методами статистической физики. Определение Ь-^ облегчается благодаря

постулату, введенному в термодинамику Л.Онсагером [6]: матрица кинетических коэффициентов является симметричной:

Ьгк = Ьгк. М

Согласно этим соотношениям взаимности Онсагера, вытекает, что всегда существует явление, обратное какому-либо «перекрестному» процессу. Пусть градиент температуры в системе вызывает прямой процесс - теплопроводность. Однако наличие градиента температуры в системе является одной из причин переноса вещества. Это есть «перекрестному» процесс -термодиффузия. Тогда следует предположить существование явления, обратного термодиффузии. Это предсказываемое явление должно состоять в том, чтобы градиент плотности (или химического потенциала) приводил бы к потоку теплоты и, как следствие, к появлению разности температур. А такой процесс действительно наблюдается на опыте. Согласно Л.Онсагеру, равенство (2.2) выполняется при определенном выборе потоков и сил, т.е. они должны удовлетворять формуле, которая называется законом производства энтропии:

( = XЬ>Х , (2.3)

I

где ( - плотность источников энтропии, т.е. производство энтропии.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Соотношение, связывающее плотность газа с потенциальной энергией молекул газа называется формулой Больцмана:

— = а (1пп) = - ^, п = По ехр (- и/кТ) . (2.4)

п кТ

Здесь, путем замены плотности газа вероятностями найти молекулы в определенном энергетическом состоянии и, можно получить:

Р ~ иикт или к 1п Р = - и/т,

отсюда

к 1п>Р = и/Т, (2.5)

где Ур = Ж - число равновероятных микросостояний в состоянии термодинамического равновесия. С учетом этого формула (2.5) принимает следующий вид:

к 1п Ж = %,

который показывает, что термодинамическая энтропия по Клаузиусу совпадает с физической энтропией. Это позволяет понять, почему в состоянии термодинамического равновесия невозможно получить какую-либо информацию из окружающей среды. Таким образом, энтропия связана с вероятностями, т.е. с хаосом. Слева стоит ключевое понятие второго начала термодинамики, характеризующее любые самопроизвольные изменения состояния системы, справа - величина, связанная с хаосом и служащая мерой рассеяния энергии, ее деградации в окружающем мире. Следовательно, смыслом микросостояний является число способов, которыми можно осуществить внутренние перестройки в системе, не изменяя ее макроскопические характеристики.

Допустим, в отдельном атоме произошло его энергетическое возбуждение. Понятно, что при этом возможно только одно распределение возбуждения в системе, Ж = 1. Но, логарифм единицы равен нулю и 5 = 0, так как такой локализованный сгусток энергии обладает нулевой энтропией. Если возбуждение передается по системе, где сто атомов, то это может быть осуществлено ста способами, т.е. Ж = 100, 1п100 = 4,61. Отсюда и 5 = 4,61к, т.е энтропия системы выросла, система стала хаотичной, так как невозможно точно указать где находится возбужденный атом.

Если система состоит из двух взаимодействующих подсистем, то максимум энтропии достигается при их тепловом равновесии. Это состояние может быть достигнуто максимальным числом способов, и чем большим числом способов оно достигается, тем выше его вероятность

[7]. ^

Впервые связь энтропии с функцией распределения координат г и импульсов р частиц / (г, р, г) была установлена Больцманом, [8] который рассматривал процесс приближения разреженного газа к равновесному состоянию. При этом он предположил: во-первых, во внимание берутся только парные взаимодействия, т.е. в столкновениях участвуют только две частицы; во-вторых, частицы в объеме распределены независимо (гипотеза о молекулярном хаосе). Первое предположение ограничивает область применения теории газами относительно малых плотностей, а второе обуславливает необратимость во времени.

Из кинетического уравнения Больцмана для энтропии 5 (г, г) следует выражение [2, 9]:

/5(г, I)

= - к11 (г,р,г) 1п f (г,р,г) /р, (2.6)

где к - постоянная Больцмана, I - интеграл столкновений, f - функция распределения молекул газа. Так как i > 0, то f < 1, следовательно, из (2.6) следует

ё5 (г)

> 0, 5(г) = |5(я,г) /г,

т.е. энтропия замкнутой системы не может со временем убывать: она либо возрастает, либо остается неизменной (равновесное состояние). Больцман вместо 5 использовал функцию Н=- 5. Поэтому закон возрастания энтропии называется Н - теоремой.

Энтропию неравновесных состояний газа Больцман определил в следующем виде: 5(г) = - кп|f (г,р,г) 1пf (г,р,г) /г /р, (2.7)

где п - средняя плотность числа частиц, f - одночастичная функция распределения.

Для использования произвольных неравновесных процессов формула энтропии (2.5) обобщается в виде:

5 (г ) = - к | ^ (х, г) 1п ^ (х, г)/х; { ^ (х, г) /х = 1, (2.8)

где х - набор переменных, характеризующих состояние системы, ^ - N - частичная функция распределения [4].

В равновесном состоянии производство энтропии ( в системе равно нулю. Л.Онсагер и И.Пригожин установили, что в стационарном неравновесном состоянии, которое может поддерживаться граничными условиями (перепадом температуры, давления и т.д.), ( не исчезает. Стационарное состояние системы, в которой происходит необратимый процесс, характеризуется тем, что скорость возникновения энтропии в системе имеет минимальное значение, при данных внешних условиях, препятствующих достижению системой равновесного состояния. Таким образом, теорема И.Пригожина [2,4] гласит, что в стационарных, слабо неравновесных состояниях полное производство энтропии минимально Эта теорема Пригожина -Принцип минимума производства энтропии в процессах самоорганизации имеет огромное значение не только для физики, но и для биологии и других наук.

Справедливость этого утверждения проиллюстрируем на конкретном примере [4,8]. Необратимые процессы при малых отклонениях от равновесного состояния описывается линейной зависимостью:

У(1 ) = ХЬкХ(к) (2.9)

к

где У - потоки физических величин, Ьл - кинетические коэффициенты, X(к) -

термодинамические силы. Анализ строгих уравнений процессов переноса показывает, что в общем, виде

(=Ху () х(к ) = Х Ькх() х(к). (2.10)

г ¡к

При наличии градиента температуры А Т поток тепла определяется как Г = -%АТ , Х = /Т2, ? = 1т а(т-), (2.11)

где связь коэффициента теплопроводности % с кинетическим коэффициентом £

выбрана в виде, удолетворяющем (2.9). Полное производство энтропии П равно объемному интегралу от плотности источника 7 :

П = ¡7аТ = Ьт |(АТ"1 ) СГ . (2.12)

Найдем условия минимальности функционала (2.12) при постоянстве температуры на границах объема. Уравнение Эйлера-Лагранжа для данной вариационной задачи имеет вид

[4,10]:

5 / ^ д

д /

д(1ТГЕдх \д\д{ут)

(2.13)

7Т )/дХа I

где / = (АТ-г = (X,Х2,Х3 ). После выполнения дифференцирования (2.13) получим,

А(Т 1 )= 0, (2.14)

что эквивалентно уравнению Лапласа, описывающему стационарное = о)

распределение температуры АТ = 0. Следовательно, доказано, что состояние с минимальным производством энтропии является стационарным. Этот принцип выражается неравенством:

С2 £ С 7 /А

— = — < 0, 7 < 7(1), (2.15) Сг Сг ст

где 7 - производство энтропии в стационарном состоянии, а 7Ц) - в момент г

ст

процесса установления стационарного состояния. Теорема Пригожина доказана в рамках линейной термодинамики. В области далекой от равновесия универсальный критерий эволюции в виде (1,13) установлен для неполного дифференциала 7. Несмотря на это, теорема правильно указывает на существование стационарного состояния неравновесных систем, что доказано многочисленными экспериментами различного характера.

Возможно обобщение «принципа минимума производства энтропии в стационарных состояниях» на случай процессов самоорганизации. В [11] приводится расчет величин 7 , 7 , входящих в уравнение (2.13), при фиксированном напряжении на стенках трубы,

турб лам

который показал, что при выполнении указанного дополнительного условия имеет место неравенство:

7 <7 . (2.16)

турб лам

Основываясь на этом результате, Ю.Л.Климонтович сформулировал более общий «принцип минимума производства энтропии в процессах самоорганизации». Им, процесс самоорганизации, примером которого является гидродинамическая турбулентность, рассматривается как результат неравновесного фазового перехода. Тогда, сформулированный выше принцип выражается неравенством:

7 <7 , (2.17)

уст лам

имеющим более общий характер чем (2.16). Таким образом, в новом устойчивом состоянии производства энтропии меньше, чем в предыдущем неустойчивом состоянии. Вопросы общего доказательства принципа минимума производства энтропии в процессах самоорганизации подробно изложены в [11,12].

Нам следует рассмотреть еще принцип максимума информации, так как информационная интерпретация второго начала термодинамики более удобна применению к равновесным системам. По смыслу этот принцип исследованный Хакеном равнозначен принципу максимума,

если под информацией понять необходимую (априорную) меру определенности о системе. Так, J. Джейнс показал [1,4], что из принципа максимума информационной энтропии

S = XL>X> (218)

i

при ограничениях

X Pf((*} = fk, X P = 1 (219)

i

можно вывести все основные формулы термодинамики. Первое из условий (2.19) соответствует законам сохранения. Например, f может означать энергию системы в k -

состоянии. Экстремум энтропии (2.18) ищется методом множителей Лагранжа, широко применяемым в теоретической физике[4,8]. Неизвестные коэффициенты находятся из условия нормировки P .

В таком подходе к проблеме неравновесных явлений основную трудность представляет адекватный выбор законов сохранения открытой нелинейной диссипативной системы.

Список литературы

1. Haken H. Synergetics: Berlin, Heidelberg, 1983. - 240 p.

2. Василевский А.С., Мултановский В.В. Статистическая физика и термодинамика. М.: Просвещение, 1985. - 256 с.

3. Ильясов Н. Жалпы физика курсы. Молекулалык физика жэне бейсызык физика.-Алматы: Бшм 2003. - 350 б.

4. Жанабаев З.Ж., Ильясов Н. Практикум по нелинейной физике. - Алматы.: "Казак университет^ 1997. - 122 с.

5. Ландау Л.Д., Лифшиц Е.М. Статистическая физика, ч.1 - М.: Наука - 1986. - 583 с.

6. Стратанович Р.Л. Неравновесная нелинейная термодинамика. - М.: Наука. - 1985. - 424

с.

7. Дубнищева Л. А. Концепция современного естествознания. Новосибирск. 1997. - 756 с.

8. Климонтович Ю.Л. Статистическая теория открытых систем. - М.: Янус. - 1995. - 524 с.

9. Николис Дж. Динамика иерархических систем. Эволюционное представление. - М.: Мир, 1989

10. Nikolis G., Prigogine I. Self-Organization in Non-Eguilibrium Systems. New York: Wiley,

1977.

11 Дьярмати И. Неравновесная термодинамика. М.: Мир, 1974. - 304 с.

12. Климонтович Ю.Л. Турбулентное движение и структура хаоса. - М.: Наука. 1990. - 320

с.

13. Пригожин И., Стенгерс И. Порядок из хаоса. М.: Прогресс, 1986. - 256 с.

ТЕПЕ-ТЕЦС1З ЖУЙЕЛЕРДЩ ЭНТРОПИЯСЫ Н.И. Ильясов1, А.д. Муцаева2

2

п.г.к., профессор «Физика» мамандыгыныц 2 курс магистранты

1,2 Казак мемлекетпк кыздар педагогикалык университет^ Алматы к., Казакстан email: ainura.mukayeva@mail.ru Синергетикалык т^ргыда бейсызык динамикалык жуйенщ стохасталынуымен катар журетш тепе-тецаз к¥былыстардын мейшнше эмбебап статистикалылык сипаттамалары - информация жэне иформациялык энтропия ^гымдары енпзшед1. Синергетикада информация зерттеулердщ басты объекпсше айналды. Информациялык энтропия информацияныц орта ыктимал мэнш аныктайды. Макалада тепе-тецаз жуйелердеп уакыт пен координатага тэуелд1 энтропияны аныктаудыц мумшнд1ктер1 карастырылады. Ягни энтропия балансыныц тендеу1, энтропия ешмшщ минимум жэне, сонымен катар, информацияныц максимум кагидалары карастырылган.

Туйт свздер: синергетика, информациялыц энтропия, информацияныц максимум жэне энтропия внгмтгц минимум цагидалар, стохасталыну

ENTROPY OF NONEQUILIBRIUM SYSTEMS A.A. Mukayeva2 1 Cand. Sci. (Pedagogy), Professor 2Master student of 2nd year specialty «Physics» 12 Kazakh State Women's Teacher Training University, Almaty, Kazakhstan email: ainura.mukayeva@mail.ru

From the point of view of synergy, the concept of information and informational entropy of the most universal statistical characteristics of nonequilibrium phenomena accompanying the stochastization of a dynamic system is introduced. In synergy information is the main object of research. Informational entropy determines the average probability of knowing the information. The article discusses the possibilities for determining entropy, which depends on time and coordinates in non-equilibrium processes, namely questions of the equation of entropy balance, entropy production, as well as the principles of minimum entropy and maximum information.

Key words: synergetic, information, entropy, minimum principle, production of entropy and maximum information, stochastization

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Поступило в редакцию 10.12.2018.

N.I. IlyasoV

i Надоели баннеры? Вы всегда можете отключить рекламу.