Научная статья на тему 'Из лекций по философии науки'

Из лекций по философии науки Текст научной статьи по специальности «Философия, этика, религиоведение»

CC BY
467
71
i Надоели баннеры? Вы всегда можете отключить рекламу.
Журнал
Epistemology & Philosophy of Science
Scopus
ВАК
RSCI
ESCI
i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Текст научной работы на тему «Из лекций по философии науки»

ЭПИСТЕМОЛОГИЯ & ФИЛОСОФИЯ НАУКИ, Т. IX, № 3

Ш

ЛЕКЦИИ ПО ФИЛОСОФИИ НАУКИ

Принцип инвариантности

в научном познании

Следующим принципом научного познания является принцип инвариантности. Иногда его называют принципом симметрии. Это синонимы. В физике термины «инвариантность» и «симметрия» суть синонимы. При этом значение термина «симметрия» в физике отличается от его значения в искусствоведении, хотя эти значения достаточно сильно перекрываются. В дальнейшем мы будем использовать термин «симметрия» в физическом значении, хотя я предпочитаю термин «инвариантность».

Содержание понятия «инвариантность» состоит в утверждении о том, что некоторые величины, характеристики, соотношения изучаемой физической системы, круга явлений остаются неизменными при изменении условий, параметров и пр. Таким образом, понятие инвариантности содержит в себе и требование изменений, и требование неизменности.

Значение понятия инвариантности было осознано еще в антич-

С. В. ИЛЛАРИОНОВ

ной философии. Одной из основных тенденций ионийской школы античной натурфилософии был поиск вечного и неизменного первоначала, остающегося тождественным самому себе при любых изменениях. В дальнейшем эта тенденция была продолжена практически во всех натурфилософиях, и в особенности в учении атомистов о вечности и неизменности атомов и одинаковости их перво-вещества. Однако особенно резко идея инвариантности выступила в учении о мире и познании Платона. Платон противопоставил вечный и неизменный мир идеальных объектов меняющемуся и непостоянному эмпирическому миру, т.е. выделил инвариантную компоненту мира в особый мир эйдо-сов. По Платону, познать можно только то, что остается неизменным. То, что меняется, не может быть (да и не заслуживает быть) объектом познания. Таким образом, Платон очень резко подчеркивает роль инвариантов в познании. При этом очень существенное место в учении Платона отводилось именно математико-геометрическим инвариантам. Я

1 р-■ •

|

III №

X X

а

<3

1

1

1

к

а

<3

хочу напомнить вам о том, что Платон очень много внимания уделял правильным геометрическим фигурам - многоугольникам и многогранникам, и правильные многогранники и сейчас называются платоновскими телами.

Однако идеи Платона в дальнейшем не получили достаточного развития ни в эпоху Ренессанса, ни даже в процессе формирования науки в ХУП-ХУШ вв., хотя такие выдающиеся авторы, как Кеплер и Галилей, во многом вдохновлялись идеями Платона.

Идея инвариантности выражалась в процессе формирования науки в ХУП-ХУШ вв. в форме тенденции к поиску вечных и неизменных законов. При этом методологическое содержание оказывалось очень нечетко выраженным, поскольку считалось, что все открываемые закономерности автоматически являются такими вечными и неизменными. И говорить что-либо более содержательно считалось просто ненужным. Даже такая важная особенность, как инвариантность уравнений Ньютона относительно преобразований Галилея, квалифицировалась как весьма интересное, но все же частное свойство этих уравнений.

Одной из причин, а может быть, и важнейшей причиной такого положения дел было отсутствие математического аппарата, способного адекватно отобразить понятие инвариантности (вспомним, что мы говорили о роли математического аппарата при рассмотрении структуры теории!). Такой аппарат - теория групп -

начал создаваться, только начиная со второй трети XIX в. Но физики еще довольно долго не знали и не понимали его значения. И поэтому применение идей инвариантности в естествознании носило эпизодический характер.

В XIX - начале XX вв. можно указать лишь несколько случаев, хотя и очень ярких, применения идей симметрии и методов теории групп. Одним из них является использование теории групп в кристаллографии. Кристаллографы Федоров в России и Шенфлис в Англии провели теоретико-групповой анализ всех возможных типов кристаллической решетки и дали исчерпывающее описание всех 230 возможных типов. Это, конечно, выдающийся результат, но здесь применение идей симметрии прямо-таки само напрашивалось.

Еще более интересным было обнаружение того, что уравнения Максвелла неинвариантны относительно преобразований Галилея, и попытка Герца перестроить уравнения Максвелла так, чтобы новые уравнения были инвариантны относительно преобразований Галилея. Здесь мы имеем явное использование требования инвариантности, хотя и без использования теории групп, с этим же обстоятельством связана и знаменитая работа Пуанкаре, который еще до Эйнштейна получил почти все фундаментальные соотношения теории относительности, проделав теоретико-групповой анализ уравнений Максвелла. В дальнейшем мы еще раз вернемся к этой ситуации при рассмотрении прин-

я

ципа согласованности (системности). А сейчас я хочу отметить, что работа Пуанкаре не была понята физиками. Они просто не знали и не понимали теории групп. А вот работы Эйнштейна, который восполнял не абстрактно-фупповые действия, а физический анализ достаточно ясных ситуаций, были поняты сразу же (хотя и не все их принимали). Поэтому именно Эйнштейн, а не Пуанкаре стал создателем специальной теории относительности (СТО). Есть конечно же и другие очень важные причины этого, но в данный момент я отмечаю именно эту.

Очень интересными были работы Пьера Кюри, который анализировал свойства симметрии термодинамических свойств. Но все это, я повторяю, было именно эпизодическим применением идей инвариантности и методов теории групп.

Переломным моментом в истории формирования принципа инвариантности стало доказательство в 1918 г. великой теоремы Эмми Нетер. Напомню вам формулировку этой теоремы:

если интеграл действия

Б = \

инвариантен относительно некоторой группы преобразований, то каждой такой группе соответствует интеграл движения, т.е. закон сохранения.

Таким образом, теорема Эмми Нетер устанавливает связь между свойствами инвариантности и законами сохранения. Я думаю, что этот результат не нуждается в особых комментариях, важность за-

конов сохранения в физике очевидна, и именно они всегда рассматривались как образец вечных и неизменных законов природы. С этого времени начинается стремительное, я бы даже сказал триумфальное распространение использования идей симметрии и методов теории групп в точном естествознании. И в настоящее время нет ни одной области точного математизированного естествознания, в которой теоретико-групповые методы не играли бы исключительно важной и иногда решающей роли. Приведу неполный, но, по-моему, очень выразительный перечень применений. Среди них электронная структура многоэлектронных атомов и их спектров; теория химической связи атомов в молекулах, электронная структура и электронные спектры молекул, колебания молекул и колебательные спектры молекул; симметрия кристаллов и структура их энергетических зон; релятивистские волновые уравнения частиц в физике микромира; теоретико-групповой подход к проблеме систематики и строения элементарных частиц; теоретико-групповой анализ дифференциальных уравнений гидродинамики, физики плазмы и теории поля. И я еще раз подчеркиваю, что многие важнейшие результаты не могли быть получены иначе, чем на основе идеи симметрии.

Такое впечатляющее применение идеи инвариантности с необходимостью вызвало общее фи-лософско-методологическое осмысление, в результате чего и был сформулирован принцип инвари-

§

X X

О.

<3

антности. Причем основную роль в этом процессе сыграли не работы философов и профессиональных методологов науки, а философские работы самих физиков. Наиболее интересными в этом плане являются работы выдающегося физика XX в. Е. Вигнера и великого математика (и физика также) Г. Вейля. Именно в работе Е. Вигнера «Этюды о симметрии» развивается представление о том, что система требований инвариантности симметрии является ядром, вокруг которого группируются все остальные элементы теории. При этом сами симметрии относятся к законам данной теории так же, как законы к единичным явлениям. Иначе говоря, симметрии являются как бы «суперзаконами», законами законов. И именно это делает требования инвариантности методологическим принципом.

Все симметрии, следуя Е. Виг-неру, можно разделить на два класса — геометрические и динамические (их еще называют внешними и внутренними симметрия-ми). В геометрических симметри-ях производятся преобразования пространственно-временных переменных физических систем -трансляции в пространстве и времени, вращения пространства, преобразования Лоренца, отражения в пространстве и времени. Конечно же при таких преобразованиях, оказывается, необходимо выполнять и преобразования ди-

*• намических переменных (импульсов, напряженностей полей и пр.),

О. но исходным являются все-таки преобразования геометрических

переменных. Я думаю, что вы все знаете, какие законы сохранения соответствуют этим симметриям, но все же напомню их.

Инвариантности относительно трансляций во времени (однородности времени) соответствует закон сохранения энергии.

Инвариантности относительно трансляций в пространстве (однородности пространства) соответствует закон сохранения импульса.

Инвариантности относительно поворотов в пространстве (изотропности пространства) соответствует закон сохранения момента количества движения.

Инвариантности относительно отражений в пространстве соответствует закон сохранения четности.

Более сложный характер имеют законы сохранения, связанные с Лоренц-инвариантностью. Очевидным является лишь сохранение светового конуса. Другие законы сохранения связаны с такими характеристиками, как спин и четность.

Второй класс симметрий - динамические симметрии - связаны с преобразованием динамических переменных, таких как волновые функции, потенциалы, и отображают не характеристики пространства (пространства-времени), а характеристики взаимодействий.

И здесь я хочу сделать замечание, состоящее в том, что геометрические симметрии носят также и динамический характер. Так, закон сохранения момента тесно связан с центральной симметрич-

ностью взаимодеиствия, а закон сохранения четности нарушается в слабых взаимодействиях. Но именно динамические симметрии более глубоко и нетривиально отражают специфику взаимодействий. <...>

В качестве очень интересного применения идеи динамической симметрии я хочу привести историю появления гипотезы кварков. Еще до Второй мировой войны Гейзенберг высказал идею, что протон и нейтрон являются разными состояниями одной частицы - нуклона. Нуклон обладает характеристикой, похожей на спин, которую Гейзенберг назвал изотопическим спином Т. Проекция изотопического спина Т7 в абстрактном изотопическом пространстве может иметь только два «направления», одно из которых соответствует протону, а другое -нейтрону. Дальнейшее развитие физики частиц (уже после войны) показало высокую плодотворность концепции изотопического спина. Второй характеристикой сильно взаимодействующих частиц является гиперзаряд У. Если рассматривать сильно взаимодействующие частицы на плоскости У - Ти то в этих координатах частицы группируются в семейства-мультиплеты, и эти мультиплеты изображаются правильными фигурами — шестиугольниками и треугольниками.

Именно при такой систематизации был открыт П~ - гиперон. В одном из семейств, описываемых треугольником, не хватало частицы, которая бы занимала вершину треугольника. Требова-

ние симметрии привело к гипотезе существования такой частицы, которую и назвали (еще до открытия) £Т - гипероном. Вскоре эта частица была открыта.

Но самое интересное состояло в том, что диаграммы мультипле-тов на плоскости У - Т2 оказались в очень близком соответствии с корневыми диа1раммами группы 511(3). Так появилась идея систематизировать сильно взаимодействующие частицы при помощи группы 511(3). Пионерами этой идеи были выдающиеся физики М. Гелл-Манн и Ю. Нееман. При этом выяснилось, что все наблюдаемые частицы соответствуют высшим представлениям Би(3). Гелл-Манн провел теоретико-групповой анализ 811(3) на предмет того, какие частицы могли бы соответствовать наинизшему представлению 811(3). Ими оказались три частицы со спином '/2 и дробным электрическим зарядом (73, '/3 и 2/3). Гелл-Манн назвал эти гипотетические частицы кварками и предположил, что все сильно взаимодействующие частицы (нуклоны, мезоны, гипероны) состоят из двух или трех кварков.

Дальнейшая судьба этой гипотезы известна. Сейчас речь идет уже не о гипотезе, но о кварковой теории сильных взаимодействий, которая называется квантовой хромодинамикой. Но между появлением гипотезы кварков и созданием квантовой хромодинамики лежал довольно длинный путь, в котором идея инвариантности еще раз сыграла выдающуюся роль, причем исходная 811(3) - симметрия, легшая в основу гипотезы

ii

II ш;

х и О.

<3

13 Зак. 2015

193

М-

111

X

X

а

<3

кварков, оказалась приближенной^...> Более важную роль сыграло открытие у кварков нового свойства - квантового числа, которое может принимать 3 значения и которое назвали «цветом». Причем три разных «цвета» при объединении дают «бесцветное» состояние. По сути дела «цвет» -это заряд сильного взаимодействия и существуют заряд и антизаряд - «цвет» и «антицвет». Эти «цвета» имеют также симметрию SU(3), которая получила название цветовой SU(3) симметрии, или SU(3)C (с - color). Так что в настоящее время симметрия квантовой хромодинамики SU(3)C х SU(3), и всего в теории фигурирует 18 кварков (и столько же антикварков) — три пары кварков по «ароматам» (группы SU(3)) и в каждом «аромате» по 3 кварка разных цветов (SU(3)C). Для нас особенный интерес представляет SU(3)C- симметрия, поскольку она связана с важнейшей динамической симметрией - калибровочной.

Вам калибровочная симметрия известна из электродинамики как градиентная инвариантность. Она состоит в том, что если к вектор-потенциалу электромагнитного поля А прибавить градиент произвольной функции /(х, у, z, t), а к скалярному потенциалу df/dt, т.е. сделать преобразование потенциалов

А->• А = А + grad/

1 ISi Ф ->Ф = Ф + — cdt

то уравнения Максвелла не изменятся. На четырехмерном языке это означает, что к четырехмерному вектор-потенциалу мы прибавляем четырехмерный же градиент произвольной функции. Этой симметрии в электродинамике соответствует равенство нулю четырехмерной дивергенции четырехмерного тока, т.е. закон сохранения заряда. Кроме того, данная симметрия соответствует равенству нулю массы фотона. Это уже очень важно. В начале нашего века отсутствие такой симметрии послужило основанием для того, чтобы отвергнуть попытку выдающегося физика начала нашего века Густава Ми сделать нелинейное обобщение электродинамики. <...>

А теперь оцените всю глубину требования калибровочной инвариантности: только из требования калибровочной инвариантности уравнения Шредингера мы получаем всю электродинамику, даже если раньше мы ее не знали. Мы приходим к необходимости введения поля, являющегося переносчиком взаимодействия между электрическими зарядами, векторного, т.е. на квантовом уровне ему соответствуют частицы со спином 1-бозоны, и обладающего калибровочной инвариантностью

хр_= »^У е>«(г, О

А —> А1 = А - Ь а(г),

где а (г, 0 - числовая функция. Такая группа называется и(1).

Дальнейшее развитие идеи калибровочной инвариантности привело к крупнейшему успеху в фи-

зике частиц за последнее время -созданию единой теории электромагнитных и слабых взаимодействий и квантовой хромодинамики. Но для этого пришлось выполнить существенное обобщение теории калибровочной инвариантности. Группа и(1) однопараметрическая и а - числовая функция координат, т.е. группа и(1) абелева (коммутативная). Если же а будет оператором (матрицей), то группа станет неабелевой и будет содержать большее число параметров.

Единая теория электрослабых взаимодействий была создана на основе объединения неабелевой группы слабых взаимодействий Би(2) и группы электромагнитных взаимодействий и(1), причем это объединение имело простейший характер прямого произведения групп 8и(2)хи(1).

Таким образом, в совокупности частиц, обладающих только электромагнитным и слабым взаимодействием, выделяется группа лептонов - фермионов (электрон, мюон, нейтрино и др.) и группа промежуточных векторных бозонов - переносчиков взаимодействия. Группа электромагнитных взаимодействий 1Д1) требует существования одного бозо-на-фотона У. Требования калибровочной группы слабого взаимодействия 511(2) сложнее, здесь требуются три векторных бозона -и 7?. Кроме того, в теории электрослабых взаимодействий важную роль играет отношение между лептонами и кварками, обладающими, кроме слабых и электромагнитных, еще и сильными взаимодействиями.

Мы уже говорили о том, что квантовая хромодинамика также основывается на идее калибровочной симметрии. Здесь калибровочной группой является 8и(3)с - цветовая группа (тоже неабеле-ва). Требования калибровочной 5Ь:(3)С - симметрии приводят к необходимости введения восьми промежуточных бозонов, названных глюонами. Именно введение этих частиц позволило строить не просто модели сильных взаимодействий, но теорию - квантовую хромодинамику, причем теория электрослабых взаимодействий достаточно связана с теорией кварков.

Однако указанные симметрии 5и(3)с, 511(2) х и(1) не исчерпывают всех свойств симметрии системы частиц. Во-первых, явно бросается в глаза симметрия между числом лептонов и числом типов («ароматов») кварков. Это очень принципиально и к кварк-лептонной симметрии мы еще обратимся несколько позже. Во-вторых, и кварки и лептоны группируются в три пары, называемые «поколениями». В группе лептонов каждое «поколение» содержит один лептон и соответствующее этому лептону безмассовое нейтрино, причем масса лептонов очень растет при переходе к следующему поколению (масса т-лептона больше массы протона). Таково же положение и в «поколениях» кварков. Причем разделение кварков (про лептоны этого сказать пока нельзя) на три «поколения» также образует симметрию Би(3) (но не цветовую), так что симметрия совокупности кварков есть 511(3) х 5и(3)с.

!■ Ян 81 а

ШЙ!

ЙМ 11

х

X

а

<3

X

X &

<<

И теперь снова вернемся к кварк-лептонной симметрии. Кварки достаточно принципиально входят в единую теорию электрослабых взаимодействий, поскольку все сильно взаимодействующие частицы (и кварки в том числе) участвуют в слабых и электромагнитных взаимодействиях. Так вот, симметрии оказались необходимы для перенормируемости единой теории электрослабых взаимодействий.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Именно доказательство голландским физиком т'Хоофтом перенормируемости единой теории электрослабых взаимодействий сыграло решающую роль в признании этой теории. И поэтому я хочу некоторую часть курса посвятить проблеме перенормировок в квантовой теории поля, тем более, что она также связана с принципом инвариантности.

Я полагаю, вы знаете, что одним из важнейших (если не просто важнейшим) методов квантовой теории поля является метод возмущений. Суть его состоит в том, что мы ищем решения уравнений в виде разложения в ряд по малому параметру возмущения, при этом каждый член ряда представляет собой интегральное выражение. В диаграммной технике Фейнмана каждое такое выражение представляется некоторым графом, называемым диаграммой Фейнмана, и сами члены ряда теории возмущений также обычно называются диаграммами. Диаграммы Фейнмана характеризуются порядком, который равен числу узлов. Так вот, все диаграммы, имеющие порядок > 2,

расходятся, т.е. соответствующие им интегральные выражения являются расходящимися интегралами. Представьте себе: бесконечный ряд, все члены которого (кроме одного-двух первых) бесконечно велики!

Проблема состоит в том, что мы получаем неинтерпретируемое выражение и входим в противоречие с требованием проверяемости. Эта проблема выявилась еще в конце 1930-х годов, и физики начали разрабатывать приемы устранения расходимостей. Однако первые попытки были неубедительными. В конце 1940-х - начале 1950-х годов в работах Фейнмана, Швингера, Томонаги и Дай-сона была создана теория перенормировок. Эта теория состоит в том, что, переопределяя конечное число параметров, таких как масса, заряд, постоянная взаимодействия, можно сделать члены ряда теории возмущений конечными.

После создания теории перенормировок быстро выяснилось, что все варианты квантовой теории поля делятся на два класса -перенормируемые и неперенор-мируемые. В перенормируемых теориях переопределение конечного числа параметров устраняет расходимости во всех членах ряда теории возмущений, т.е. в бесконечном числе членов. В непере-нормируемых теориях для каждого члена ряда теории возмущений требуется свой особый набор устраняющих бесконечность параметров, т.е. число параметров бесконечно велико. Перенормируемой является такая замечательная

теория, как квантовая электродинамика, а неперенормируемой была ранняя теория слабых взаимодействий, предложенная Э. Ферма.

Применение метода перенормировок привело к колоссальным успехам в области электромагнитных взаимодействий. Так, полевая поправка к магнитному моменту электрона, вычисленная теоретически, была подтверждена экспериментально до шестого (!) знака (расхождение экспериментального и теоретического значений составляет 12 единиц восьмого знака). Такая точность является беспрецедентной в физике. Другие эффекты рассчитываются с меньшей, но все же очень большой точностью.

Но, несмотря на столь впечатляющие успехи, физики очень долго относились к методу перенормировок весьма скептически, считая его искусственным. Один из создателей метода Фейнман даже называл его «заметанием мусора под ковер». Однако после доказательства т'Хоофтом перенормируемости единой теории электрослабых взаимодействий положение изменилось. Требование перенормируемости теории стало рассматриваться как весьма важное (можно даже сказать методологическое) требование.

С моей точки зрения, это вполне справедливо: требование перенормируемости по сути дела означает требование возможности интерпретации теории и ее внутренней согласованности. При этом исключительно важно, что преобразования перенормировки обра-

зуют группу (ее называют ренорм-группой) и инвариантами этой группы являются эмпирически наблюдаемые значения физических величин.

Открытие групповой природы преобразований перенормировки привело к быстрому распространению метода ренормгруппы в квантовой теории поля. Но справедливости ради надо заметить, что математики выявили групповую природу перенормировок за несколько лет до того, как она была переоткрыта физиками.

И теперь я снова хочу обратиться к групповому характеру всей системы известных в настоящее время фундаментальных частиц. Кроме калибровочных 8и(3)с и БЬТ(2) х и(1) симметрий в этой системе присутствует еще кварк-лептонная симметрия и Би(3) — симметрия поколений. Открытие всех этих симметрий привело к тому, что идея симметрии стала одной из фундаментальных идей физики микромира, по сути дела направляющей идеей. Проявления этого направления (эвристического, методологического) характера принципа инвариантности в физике микромира в последние два десятилетия исключительно многообразны, настолько многообразны, что даже трудно дать их сколько-нибудь полный обзор. Я ограничусь лишь указанием на то, что в основе модели, которая считается наиболее перспективной, модели суперструн, лежит идея суперсимметрии (симметрии между фермио-нами и бозонами, или иначе -

|||

X X

а

<3

11 ii

ЙШ

I |!

X X

а

<3

фермионными и бозонными степенями свободы).

Итак, я думаю, что вы можете оценить мощь, эффективность и эвристичность требования инвариантности.

Однако развитие физики последних десятилетий, возможно, потребует дополнить принцип инвариантности (симметрии) требованием нарушения симметрии. Дело в том, что очень многие симметрии, открытые в физике, оказались неточными, приближенными. Все началось еще в 1960-е годы, когда было выявлено нарушение четности в слабых взаимодействиях. После этого было открыто, что не только симметрия относительно отражения в пространстве, но и многие другие нарушаются в тех или иных процессах, причем эти нарушения оказываются весьма принципиальными.

На роль нарушений симметрии в физике обратил внимание в одной из своих работ еще Е. Виг-нер (тот самый Вигнер, который по сути дела сформулировал принцип инвариантности). Вигнер обратил внимание на то, что если симметрия не нарушена, то все явления носят однотипный характер (в какой-то мере они все одинаковы), и что именно нарушение симметрии создает разнообразие явлений. Однако в высшей степени принципиальное значение нарушения симметрии обнаружилось именно при создании единой теории электрослабых взаимодействий, так сильно основанной на требовании калибровочной симметрии. Дело в том, что векторные

бозоны, соответствующие компенсирующим полям, должны быть безмассовыми. Но в реальности мы знаем только один безмассовый векторный бозон - фотон, квант элементарного поля. Другие же промежуточные бозоны - и 7" никак не обнаруживались. Это возможно, если их масса очень велика и требуется большая пороговая энергия тс" для их рождения. Безмассовые же частицы должны рождаться очень легко и достаточно просто обнаруживаться. Таким образом, в процессе создания единой теории электрослабых взаимодействий появилось очень острое противоречие. Выход из этого противоречия был найден в замечательных работах группы физиков, имена которых хотя и хорошо известны, но в книгах обычно не фигурируют. Лишь имя одного из них вошло в литературу - Хигтса.

В этих работах было обнаружено, что существует «механизм» появления массы у частиц, которые «исходно» являются безмассовыми. Он называется «механизмом Хиггса», хотя, повторяю, это достижение большой группы физиков. И в этом механизме Хиггса исключительно принципиальным является так называемое спонтанное нарушение симметрии.

Механизм Хиггса состоит в том, что «исходно» безмассовые калибровочные поля при взаимодействии со скалярным полем со спонтанно нарушенной симметрией приобретают массу. И создание единой теории электрослабых взаимодействий необходимо включало в себя введение Хиггсо-

ва поля и взаимодеиствия с ним калибровочных векторных бозонов и бозона. Когда они были открыты, их масса оказалась расходящейся с теоретически предсказанной всего на 1,5% -2,0%.

Эти результаты привели к убеждению, что все динамические симметрии являются нарушенными и что в этом нарушении содержится глубокий физический смысл. Поэтому, по словам известного физика Льва Борисовича Окуня, физики сейчас, едва открыв новую симметрию, сразу же ищут, как ее нарушить, причем чтобы нарушение было именно спонтанным.

Я описал простейший случай спонтанного нарушения симметрии. Дело в том, что в рассмотренном ранее лагранжиане возможность спонтанного нарушения была заложена сразу, в самой форме и(Э). В настоящее время физики разработали более тонкие и сложные варианты спонтанного нарушения - механизм Коулсона, в котором спонтанное нарушение получается в результате суммирования бесконечного ряда диаграмм, механизм нарушения «треугольными аномалиями» (диаграммами особой структуры).

Вторым исключительно важным проявлением принципиального характера нарушения симметрии является биология. Так, большинство органических веществ обладает оптической активностью, состоящей в том, что при прохождении поляризованного света его плоскость поляризации вращается по часовой стрелке или

против, направо или налево. Это означает, что молекулы имеют право- или левовращающую структуру. При этом огромное множество органических молекул обладает обоими изомерами. Вещество, являющееся смесью правого и левого изомеров, называется рацемической смесью (рацематом). Так вот, в живых организмах степень рацемизации равна нулю, т.е. все молекулы некоторого типа в живом организме являются или только правыми, или только левыми. Это иногда называют ки-ральной частотой. В живых организмах киральная симметрия между правым и левым стопроцентно нарушена. Природа и значение такого нарушения симметрии является предметом многих исследований, проводимых биофизиками и физиками. В частности, многие теоретики, известные своими работами в физике частиц, обращались к этой проблеме. В их работах обсуждался вопрос: может ли довольно малое нарушение симметрии на уровне взаимодействия частиц привести к стопроцентному нарушению симметрии на макроуровне?

В любом случае нарушение киральной симметрии в явлениях жизни нужно квалифицировать как нечто очень принципиальное.

И в заключение раздела курса, посвященного принципу инвариантности, я хотел бы обратиться к его связи с другими принципами. Когда мы говорили о принципе проверяемости (наблюдаемости), то в качестве важнейшего требования мы рассматривали требование того, что результаты экспери-

II

■ I №1

х к

а

<3

i

п\}

ш

X

X

а

<3

мента должны не зависеть от некоторых условий его проведения. В довоенных книгах по квантовой механике всегда подчеркивалось, что эксперимент должен давать одни и те же результаты в Париже и в Токио, а после войны стали писать «в Нью-Йорке и в Токио». И это представляется совершенно очевидным (но именно представляется), поскольку вопрос значительно сложнее.

Если подойти к этому требованию с более общих позиций, то его можно сформировать как требование инвариантности результатов наблюдения (эксперимента) относительно некоторой группы преобразований условий. И вот здесь и возникает нетривиальный момент: нужно еще убедиться, что изучаемое явление действительно обладает нужной симметрией. А это далеко не всегда верно. Так, прецизионные эксперименты с маятниковыми часами дадут весьма разные результаты в разных точках земного шара. На это влияет и вращение Земли, и ее эллиптическая сплюснутость, и отклонения фигуры Земли от идеального эллипсоида (Земля имеет форму «геоида»), и даже распределение пород в земной коре (на последнем обстоятельстве основан геологический метод гравиразвед-ки). Биологические эксперименты неинвариантны относительно места и времени проведения эксперимента. Они неинвариантны даже относительно личности экспериментатора; во многих опытах с высокоразвитыми животными обнаруживалась реакция поведения подопытных животных на

текущее настроение экспериментатора. Именно поэтому большое развитие получила тенденция к автоматизации эксперимента.

Так что связь принципа проверяемости (наблюдаемости) с требованием инвариантности, с одной стороны, очевидна, а с другой - весьма нетривиальна.

Очень большой интерес представляет проблема связи принципа инвариантности с принципом простоты. С одной стороны, отмеченная ранее тенденция к поиску одной обобщающей фуппы, заменяющей несколько разных групп, можно рассматривать как упрощение структуры теории (оно же является одновременно и увеличением системности-согласованности). С другой же стороны, переход к более широкой группе в физике частиц означает увеличение числа фундаментальных частиц. Что же «проще»? Физики отдают решительное предпочтение нетривиальной простоте, углубляющей внутреннее единство (системность) физики, перед уменьшением числа фундаментальных компонент. Я хорошо помню высказывание Л.Б. Окуня «не надо экономить на числе частиц». Так что в вопросе о связи принципа инвариантности с принципом простоты на самом деле речь идет о связи сразу трех принципов - простоты, инвариантности и системности.

Довольно прозрачной является и связь принципа инвариантности с принципом соответствия. Во многих случаях группа симметрии старой теории является подгруппой новой. Так, группа электроди-

намики является подгруппой группы единой теории электрослабых взаимодействий, но могут быть и другие случаи. Инвариантность относительно преобразования Лоренца обобщает классический принцип относительности Галилея, хотя группа Галилея не является подгруппой группы Лоренца.

Но если рассмотреть связь принципа соответствия с принципом инвариантности в более широком контексте, то можно сказать, что принцип соответствия представляет собой требование инвариантности позитивного содержания теории при переходе к новой и более общей.

И, наконец, наиболее прозрачной является связь принципа инвариантности с принципом системности. Любое выявление симметрии представляет собой существенное увеличение системности, а тем более, если речь идет об объединении нескольких, казалось бы, разрозненных групп симметрии в более общую группу, по отношению к которой они являются подгруппами.

Так что вопрос о связи принципа инвариантности с другими принципами оказывается вполне ясным. Конечно, возможно уточнение связи, выявление каких-то новых аспектов этой связи, которые я или не упомянул, или которых даже не знаю. Но сам смысл вопроса достаточно ясен. И поэтому я перехожу к последнему из названных в начале данной части курса принципу - принципу согласованности, или системности.

Принцип согласованности

(системности)

в научном познании

Принцип согласованности иди, как его часто называют, принцип системности, как и ряд других, был сформулирован в XX в., хотя основы его были заложены всем развитием философии, начиная еще с античной эпохи, и всем развитием науки, начиная с Ньютона. Я не буду углубляться в историю, поскольку она очень велика и ее даже поверхностный обзор потребовал бы слишком большого объема работы. Укажу лишь на некоторые моменты этой истории.

Вы, конечно, знаете, что Ньютон назвал свой великий труд «Математические начала натуральной философии». То есть он понимал свой труд не просто как разработку теории механических движений, но как саму философию природы, создание системы Мира. Идея системности была с самого начала заложена в его труде. И в дальнейшем многие великие физики (и не только физики) понимали свою научную деятельность как создание системы Природы (или некоторого аспекта Природы). Наиболее четко это проявилось в ХУШ-Х1Х вв. именно в механистическом материализме, в трудах П. Гольбаха, Лагранжа, Максвелла.

Кризис, а затем и крушение механического материализма в конце XIX - начале XX вв. не изменили понимания научного знания как системы. Именно в период наибольшего развития второго позитивизма его представители,

X

X

а

<3

бывшие наиболее активными критиками механического материализма, А. Пуанкаре и П. Дюгем весьма интенсивно развивали тезис о системном характере научного знания. Особенно интересной мне представляется книга Дюгема «Физическая теория, ее цель и строение» (СПб., 1910) (к ее обсуждению мы еще вернемся). Пожалуй, именно работы Пуанкаре и Дюгема можно считать началом понимания системности как методологического принципа.

Существенный вклад в разработку принципа внес неопозитивизм в конце 20-х - начале 30-х годов XX в. В неопозитивизме его называли принципом когерентности. Я предпочитаю перевести это слово на русский язык - согласованность, поскольку в русской терминологии за термином «когерентность» закрепилось специаль-но-оптическое и квантово-меха-ническое содержание.

Итак, мы переходим к обсуждению принципа системности или согласованности. Я предпочитаю термин «согласованность», но буду употреблять и термин «системность» как синоним.

Требование системности заложено в самом содержании понятия научного знания. Мы уже говорили, что научное знание это знание систематическое, организованное и упорядоченное Научным Методом. То есть системность оказывается как бы синонимом научного. В этом смысле "I принцип системности можно рас-сматривать как суперпринцип, О. объединяющий все остальные.

<{> Можно даже стать на крайнюю, я

бы сказал экстремистскую, точку зрения, что существует только один Методологический Принцип - Принцип системности, а все остальные являются только его частными проявлениями (проекциями на специальные ситуации). Я сам не придерживаюсь такой точки зрения, но если кто-нибудь из Вас (моих слушателей или читателей) займет такую позицию, то я боюсь, что не смогу ему аргументированно возразить.

Мои возражения носят скорее психологический характер. При таком подходе принцип системности становится синонимом самого научного мировоззрения и как бы теряет конкретную содержательность. Я стремлюсь к конкретности и именно поэтому хочу рассматривать принцип системности не как суперпринцип, но как «первый среди равных».

Перейдем к конкретному обсуждению принципа согласованности (хотя я, повторяю, боюсь, что это обсуждение только укрепит позиции тех, кто хотел бы рассматривать этот принцип как единственный).

Поскольку одним из основных объектов нашего анализа является теория, постольку мы обратим внимание именно на требования согласованности по отношению к теории, не затрагивая более сложных конструкций, таких как исследовательская программа или картина мира.

Когда мы говорим о требованиях согласованности по отношению к теории, то можно выделить три аспекта: «внешнюю» согласованность теории с эмпирическим

уровнем научного знания, «внутреннюю» согласованность теории внутри самой себя и согласованность данной теории с другими теориями. Эти три аспекта довольно сильно связаны друг с другом (опять системность!), так что один из них может автоматически оказаться и другим.

Смысл требования «внешней» согласованности теории с эмпирическим уровнем в общем аспекте довольно прост - теория должна быть согласована с опытными данными, описывать их. Но ведь это же принцип проверяемости, правда, в его специальной форме, в форме требования подтверждаемое™, тогда как проблема опровергаемое™ здесь явно не затрагивается. Этот общий аспект прост, но если рассмотреть его подробнее, то он очень существенно затрагивает проблему внутренней структуры теории. Дело в том, что, как уже говорилось раньше, для того чтобы сопоставить (согласовать) теорию с опытными данными, в теории должна присутствовать развитая система правил интерпретации. Кроме того, в теории не должно появляться неинтерпретируемых выражений. Я напомню, что в квантовой теории поля появляются неинтерпретируемые расходимости. Можно привести и другой пример. В конце 1950-х - начале 1960-х годов делались попытки строить квантовые теории поля с индефинитной метрикой. В таких теориях появляются состояния с отрицательной вероятностью, которые с очевидностью являются неинтерпретируемыми. Поэтому в

теорию должны быть введены принципы, устраняющие неинтерпретируемые выражения. В квантовой теории поля это достигается введением требования перенормируемости. Теории же с индефинитной метрикой сейчас благополучно забыты и о них никто не вспоминает, кроме небольшой кучки специалистов по истории послевоенной теорфизики.

Но, кроме необходимости устранения неинтерпретируемых выражений, может возникнуть и еще одна ситуация. Речь идет о возможных противоречиях в теории, когда для одной и той же наблюдаемой величины или характеристики получаются разные выражения. Это тоже можно назвать неинтерпретируемостью, но, скажем, второго рода. Такая ситуация представляет собой нарушение не только внешней, но и внутренней согласованности, и требование состоит в том, что подобные ситуации должны быть устранены.

Но, пожалуй, наиболее важный аспект внешней согласованности (системности) теории состоит в том, что теория объединяет в единство множество явлений, которые ранее выглядели как не связанные между собой. Классическим примером является объединение явлений свободного падения тел и движения планет по эллиптическим орбитам в механике Ньютона. Вообще, механика Ньютона дала возможность единого подхода к такому огромному множеству механических явлений, что можно понять тенденцию воспринимать ее как систему Мира. Не менее впечатляющей в этом

Мда

X

а

<!

а

X

и CL

<3

отношении является и электродинамика Максвелла, объединившая в единую систему электрические, магнитные и световые явления. Вообще, способность теории объединять (точнее говоря, вскрывать внутреннее единство) в общую систему является столь важной характеристикой любой теории, что ее возможно выделить как особую функцию теории.

Вторым уровнем требования согласованности теории является внутренний (внутритеоретиче-ский), который, как я уже говорил, очень тесно связан с внешним. Общая суть требования внутренней согласованности теории очень проста - теория должна быть непротиворечивой, т.е. в ней не должно появляться откровенно противоречащих друг другу выражений. Здесь, конечно, надо вспомнить фундаментальный результат математической логики, состоящий в том, что в противоречивой системе может быть доказано любое наперед заданное утверждение, допустимое языком данной системы. Противоречивая конструкция в некотором смысле является неопровергаемой, однако, в более общем плане обнаружение противоречивости есть радикальное опровержение данной системы в целом.

Кроме этого требования непротиворечивости, внутренняя согласованность подразумевает ряд моментов, которые мы обсуждали при рассмотрении внешней согласованности. Это относится к проблеме правил интерпретации и требованию интерпретируемости теории.

И, наконец, еще одним важнейшим моментом требования внутренней согласованности теории является категорическое запрещение объяснять каждое явление своей особой гипотезой, т.е. теория должна быть именно системно организованной, а не набором в какой-то мере случайных по отношению друг к другу гипотез, вводимых ad hoc (к данному случаю). И я напомню, что это одно из фундаментальных требований принципа простоты.

Рассмотренные нами требования принципа согласованности (системности) являются, несомненно, фундаментальными методологическими требованиями, эффективно функционирующими в научном познании. Однако наибольший интерес представляют требования, связанные с отношениями согласованности между теориями. Именно в этой области действие принципа согласованности проявляется особенно выпукло.

Я не могу претендовать на исчерпывающий или хотя бы очень полный анализ этой проблемы и поэтому остановлюсь лишь на тех моментах, которые мне представляются наиболее важными.

Первым требованием, связанным с необходимостью согласованности между теориями, является требование одинаковости интерпретации (физического смысла) величин, входящих в разные теории. В качестве примера можно привести классический случай, связанный с такой физической величиной, как энергия. В естествознании XVIII - начала XIX вв.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

фигурировало много разных «энергий»: механическая, тепловая, электрическая и много других, о которых мы даже уже забыли. Причем каждой из этих энергий приписывались разные природы, связанные со спецификой данных явлений. В 30-х - 40-х годах XIX в. был открыт общий закон сохранения энергии, и естествоиспытатели стали говорить о переходе одной «энергии» в другую. Это был определенный шаг в направлении установления системности естественно-научного знания, но сами «энергии» продолжали оставаться разными. Но создание молекулярно-кинети-ческой теории показало, что «тепловая энергия» есть просто кинетическая и потенциальная энергия совокупности частиц. В дальнейшем это же произошло с «электрической энергией».

Дольше всего сохраняла свою «энергию» химия. Невозможность понять природу химической связи в рамках классической физики приводила некоторых химиков к утверждению, что в физике своя энергия и свои силы, а в химии необходимо вывести свои «химическую энергию» и «химические силы». Создание квантовой теории химической связи показало, что «химическая энергия» также есть только потенциальная и кинетическая энергия электронов, но с присущими им квантовыми закономерностями.

Кстати, дольше всего представление об особых «химических» характеристиках задержалось в диамате. В конце 1940-х -начале 1950-х годов в Советском

Союзе развернулась идеологическая кампания против «теории резонанса», являющейся одним из вариантов квантовой теории химической связи. Так вот, один из критиков, довольно известный в те времена Жданов-младший писал, что теория резонанса «стремится свести химизм (курсив мой. - С.И.) к механике электрона», т.е. настаивал на каком-то особом «химизме».

Кстати, то же самое можно сказать и об особой «биоэнергии». Хотя это относится не к науке, а к паранауке, но все же я хочу сказать, что не может быть никакой особой «биоэнергии». Может быть энергия живого организма, выражающаяся через нормальную кинетическую и потенциальную энергию, в общем-то, очень сложных процессов, но не может быть «биоэнергии» и «энергетических хвостов». Но в целом для науки это уже пройденный этап. В конце XX в. требование одинаковости физического смысла выполнялось всегда.

Другим выражением требования согласованности является необходимость согласованности трансформационных (теоретико-групповых) свойств одинаковых физических величин, входящих в разные теории. В частности, если в разные теории включены пространство и время, то трансформационные свойства этих теорий относительно преобразований пространства и времени должны быть согласованы.

Рассмотрим эту ситуацию на классическом примере создания СТО. При этом я сознательно про-

изведу крайнее упрощение этой истории, которая в действительности была очень сложной. Но я думаю, что это упрощение является не огрублением, а выделением, так сказать, «скелета» этой истории. Когда Максвелл открыл законы электромагнетизма и написал свои уравнения в 1870 г., то очень быстро выяснилось, что они неинвариантны относительно преобразований Галилея, т.е. обнаружилась рассогласованность между механикой и электродинамикой. Меха-ника к этому времени существовала уже 200 лет, и электродинамика - одно-два десятилетия, поэтому первой реакцией физиков было перестроить электродинамику так, чтобы она стала инвариантной относительно преобразований Галилея. Эта попытка была сделана Генрихом Герцем, и соответствующие уравнения называются уравнениями Максвелла—Герца. Трансформационные свойства, использованные Герцем, были даже более общими, чем преобразования Галилея, но имели именно галилеев характер. Уравнения были написаны и из них следовали некоторые вполне проверяемые эффекты. Проверили - нет этих эффектов! Причем большая общность уравнений Максвелла-Герца не оставляла никаких надежд, что уравнения электродинамики можно согласовать с гали-лей-инвариантностью уравнений механики.

Следующий и очень естест-•* венный шаг такой: если нельзя перестроить уравнения электро-О. динамики так, чтобы они согласо-<{1 вывались с уравнениями механи-

ки, то, может быть, попробовать перестроить уравнения механики? Для этого надо исследовать трансформационные свойства уравнений Максвелла и перестроить уравнения механики. Это путь к созданию СТО. Таким путем шел Пуанкаре. Но физики той эпохи просто не понимали языка теории групп, тогда как физические построения Эйнштейна были поняты (и опять напоминаю - необязательно приняты) почти всеми физиками.

В дальнейшем эта ситуация, причем в значительно более явной и осознанной форме, повторилась при построении общей теории относительности. Сразу же после создания СТО стало ясно, что ньютоновская теория гравитации релятивистски неинвариантна. Попытки построить релятивистскую теорию гравитации начались еще в 1909 г. И в этом процессе принимали участие крупнейшие ученые того времени - Пуанкаре, Герман Минковский, Макс Абрахам, Густав Ми, Нордстрем, Фок-кер и, наконец, Эйнштейн и Гильберт. И в 1916 г. была создана общая теория относительности.

В дальнейшем эта линия принципа согласованности развивалась в аспекте принципа инвариантности, который мы уже рассмотрели раньше.

Последним аспектом принципа согласованности является согласованность между старыми теориями и новыми, сменяющими эти старые в процессе развития науки. Этот аспект представляет собой принцип соответствия, который мы уже весьма подробно

изучили в предшествующих разделах курса, и я не буду повторяться. И второй аспект отношений между старыми и новыми теориями связан с расширением групп симметрии, по отношению к которым группы симметрии старой теории являются подгруппами. Это отношение мы также рассмотрели и показали его методологическую значимость.

Таким образом, мы рассмотрели фундаментальные методологические аспекты принципа согласованности (системности) и его исключительно принципиальную связь с другими методологическими принципами. И в заключение данного раздела я еще раз хочу обратиться к чрезвычайно важному, по моему мнению, аспекту принципа согласованности, о котором мы говорили уже давно (и который вы, наверное, уже успели подзабыть). Речь идет о проблеме проверяемости и о чрезвычайно известном в философии науки тезисе Дюгема-Куайна или, для краткости, Д-тезисе.

Напомню, в чем состоит суть проблемы. Еще в начале XX в. один из крупнейших представителей второго позитивизма (и крупный физик тоже) Пьер Дюгем очень сильно акцентировал внимание именно на системном характере научной теории. При этом он особо подчеркнул, что, являясь целостной системой, теория не может быть проверена «по частям». То есть мы не можем проверять сепаратно отдельные положения теории. По словам Дюгема, теория - это не машина, которую можно развинтить на детали, про-

верить каждую деталь на прочность, а потом снова собрать и запустить. И надо сказать, что эта позиция Дюгема совершенно правильна.

Но из этой совершенно правильной позиции Дюгем делает заключение: любую наперед заданную теорию можно согласовать с опытными данными за счет введения дополнительных гипотез. Это положение в дальнейшем было развито известным американским логиком и крупным представителем школы аналитической философии У.О. Куайном и получило название тезиса Дюгема-Куайна (Д-тезиса).

С моей точки зрения, Д-тезис представляется очень опасным для научного мировоззрения. Дело в том, что с позиций Д-тезиса никакую теорию нельзя ни проверить, ни опровергнуть - ведь любую теорию (даже такую, которую мы с вами как естествоиспытатели квалифицируем как неправильную) можно согласовать с опытными данными за счет введения дополнительных гипотез. Вообще, такая позиция характерна для второго позитивизма. Именно во втором позитивизме была выработана и получила распространение ин-струменталистская концепция научной теории. Суть этой концепции состоит в том, что в качестве настоящего (позитивного) знания рассматривается только эмпирическое знание, теория же квалифицируется лишь как более или менее удобный инструмент для упорядочивания и систематизации опытных данных (как сокращенная запись большого мае-

И

х

а

сива опытных данных). С этой точки зрения теория не может быть правильной или неправильной, она может быть лишь удобной или не очень удобной. И конечно же с инструменталистской точки зрения любую теорию можно согласовать с опытом, вводя дополнительные гипотезы. Хочу заметить, что в дальнейшем эта точка зрения получила продолжение в неопозитивизме. Вспомним концепцию Ф. Рамсея исключения (элиминации) теоретических терминов из научного знания или концепцию интерфеноменов Г. Рейхенбаха.

Тезис Дюгема-Куайна неоднократно обсуждался и продолжает обсуждаться в философии науки, причем в большинстве работ авторы стремятся как-то преодолеть его. Даже в классическом неопозитивизме проявлялась эта тенденция. В большинстве случаев Д-тезис критикуется на основе принципа простоты. Действительно, наращивание гипотез типа ad hoc явно нарушает простоту теории.

Но я думаю, что можно выдвинуть и более сильный аргумент, если прибегнуть к принципу системности. Тому самому принципу системности, исходя из которого Дюгем и выдвинул свой тезис.

Рассмотрим ситуацию не вообще, а на очень конкретном примере опыта Майкельсона. Я думаю, что вы хорошо помните схему опыта Майкельсона, и не буду ее приводить. Напомню лишь, что Майкельсон хотел обнаружить эфирный ветер и не нашел его.

Отрицательный результат опыта Майкельсона можно объяснить при помощи нескольких разных гипотез. Во-первых, можно ввести гипотезу увлекаемого эфира. Очевидно, что если эфир увлекается движением Земли, то никакого эффекта не будет. Другой гипотезой является гипотеза В. Ритца о том, что скорость света складывается со скоростью источника светящегося тела, зеркала и пр. Легко вычислить, что если имеет место такое сложение скоростей, то опять-таки эффекта не будет. До появления СТО широко известной была гипотеза Лоренца, состоящая в том, что эфир не увлекается, но все тела при движении через эфир сокращаются (лоренцово сокращение). В этом случае результат тоже будет отрицательным. И, наконец, СТО вообще исключает эфир, что тоже приводит к отрицательному результату.

Итак, мы видим, что один результат можно объяснить четырьмя (а на самом деле их можно придумать больше) гипотезами. И на первый взгляд, эта ситуация вполне соответствует Д-тезису.

Однако давайте вспомним, что опыт Майкельсона не единственный, что есть и другие опыты, которые надо принять во внимание. И в качестве первого вспомним явление звездной аберрации, открытое еще в XVIII в. английским астрономом Брэдли. Суть явления состоит в том, что телескоп надо отклонять от истинного направления на звезду. Рассмотрим простейший случай.

Телескоп установлен на движущейся платформе, и звезда на-

ходится вертикально. Так вот, телескоп нужно наклонить на угол а ~ о/с. Понятно, что если платформа движется с постоянной скоростью, то эффект обнаружить нельзя. Но дело в том, что скорость Земли меняется (через полгода она будет двигаться в обратном направлении) и телескоп приходится перенастраивать (поворачивать).

Легко видеть, что явление звездной аберрации несовместимо с идеей увлекаемого эфира. Если бы эфир увлекался платформой, то поворачивать телескоп было бы не нужно. Наоборот, если эфир не увлекается, то поворот на угол а » и/с вполне понятен.

Итак, опыт Майкельсона требует введения увлекаемого эфира, а явление звездной аберрации -неувлекаемого. Но ведь есть еще и опыт Физо, который требует частично увлекаемого эфира и даже позволяет найти коэффициент увлечения. Совершенно очевидно, что мы просто начинаем запутываться в противоречиях.

Поэтому нам приходится обратиться к другой гипотезе - гипотезе Ритца, согласно которой скорость света складывается со скоростью источника. Легко показать, что она дает отрицательный результат для опыта Майкельсона и легко объясняет звездную аберрацию. Могут возникнуть некоторые затруднения с опытом Физо, но я думаю, что, вводя специальные гипотезы о среде, можно получить и этот результат.

Но в случае использования гипотезы Ритца возникает новое обстоятельство. Я думаю, что вам

хорошо известно, что многие звезды являются двойными, т.е. две звезды обращаются вокруг общего центра тяжести. Их можно распознать по характерным периодическим изменениям общей светимости пары (затменно-двойные звезды), спектра (спектрально-двойные звезды), эффекта Доплера. Так вот, давайте рассмотрим наблюдение двойной звезды с Земли. Мы рассмотрим упрощенную модель сложной звезды, вращающейся вокруг центра

Отметим последовательно переходимые точки орбиты (1, 2, 3 и 4) и найдем время их наблюдения на Земле.

—; (2 =—+ —; 1+У I 4

I 2Т / = УГ_

1-У + 4 ' 4 ~ / 4

где Т - период вращения звезды. Легко подсчитать, что если Ь достаточно велико, то появится ситуация, когда

^ ^ I Т .

-> — + — ,

I -V I 4

Ь >

С(/ - V) т

т.е. мы будем наблюдать следующую последовательность положений звезды во времени: 1, 2, 4, 3. Таким образом, движение звезды по орбите будет обнаруживать какие-то очень странные анома-

14 Зак. 2015

Шш

x

x

о.

<3

лии. Еще до Первой мировой войны известнейший астроном Де-Ситгер провел детальный анализ поведения всех известных в то время звездных пар и никаких аномалий не обнаружил. С тех пор прошло больше 80-ти лет, наши наблюдательные возможности (число наблюдаемых двойных звезд) возросли колоссально, диапазон расстояний возрос также сильно, но никаких аномалий нет и сейчас. Так что мы можем спокойно похоронить гипотезу Ритца.

Итак, у нас остались две гипотезы - гипотеза неподвижного эфира с лоренцовым сокращением и СТО. Обе они дадут правильные результаты Майкельсона, Брэдли, Физо и Де-Ситтера. И в литературе по философии науки часто встречается утверждение, что эфирная гипотеза Лоренца и СТО совершенно эквивалентны и что выбор между ними совершается на основании критериев внеэмпи-рического характера (простота, красота, логическая замкнутость теории).

Я полагаю, что это просто неверно. И здесь я хочу обратить ваше внимание на то, что световые явления представляют собой кинематику данной области. То обстоятельство, что два принципиально различных подхода могут быть кинематически эквивалентными, - не новость. Хорошо известно, что геоцентрическая модель Птолемея кинематически эквивалентна теории небесной механики. Но еще советский физик В.А. Фок указал на то, что они неэквивалентны динамически. Не

существует динамического закона, который дал бы в качестве орбит эпициклы и деференты Птолемея. Так что для анализа вопроса об эквивалентности эфирной модели Лоренца и СТО надо перейти от кинематики к динамике.

Динамические эффекты связаны с известным изменением массы. Рассмотрим этот вопрос на простой ситуации.

На движущейся платформе установлен излучатель, который испускает в противоположные стороны со скоростью и относительно платформы частицы, которые отклоняются поперечной силой Б. В СТО масса определяется только относительной скоростью и, и массы частиц, движущихся вперед и назад, одинаковы. Соответственно и поперечные отклонения частиц будут одинаковыми. Иная ситуация складывается в эфирной модели Лоренца: при любом разумном, т.е. удовлетворяющем принципу соответствия, законе сложения скоростей скорости движения частиц через эфир вперед и назад будут разными. А поскольку в эфирной модели Лоренца изменение массы определяется именно скоростью движения через эфир, то и массы будут разными. При этом и поперечные отклонения должны оказаться разными. Это умозрительная, крайне идеализированная модель.

Но есть ситуация, когда частица реально движется и по направлению и против направления движения - это кольцевой ускоритель, который движется вместе с землей

В этой ситуации масса частицы в верхней ветви будет меньше, чем в нижней, кривизна траектории в верхней ветви будет больше, чем в нижней, и появится дрейф частиц вправо. Можно подсчитать, что за время порядка 10"5 -10"6 сек. частица попадет на стенку ускорителя. Эту асимметрию масс можно было бы компенсировать настройкой магнитов. Но тогда при повороте Земли через полгода верхняя и нижняя ветви поменяются ролями, и магниты нужно будет перенастраивать. Ни у одного ускорителя в мире магниты перенастраивать не приходится.

Таким образом, эфирная модель Лоренца динамически неэквивалентна СТО, и практика работы ускорителей позволяет отвергнуть эфирную модель в пользу СТО.

Итак, мы видим, как подключение все новых и новых опытных данных позволяет отсекать гипотезы одну за другой.

О чем же говорит рассмотренная ситуация? Вывод состоит в том, что не только теория образует системную целостность, но и опыт тоже системен. Системный характер опыта позволяет мне сформулировать утверждение, которое я называю «контр-Д-тезисом».

С одной системой, каковой является совокупность опытных данных, можно непротиворечиво согласовать только одну теоретическую систему - правильную

теорию. Если мы, следуя идее Д-тезиса, станем согласовывать с растущей системой опытных данных неправильную теорию, то за конечное число шагов мы получим противоречивую конструкцию.

Я хочу отметить, что несистемное понимание опытных данных как не связанных внутренней сущностной закономерностью отдельных случаев вообще характерно для феноменализма, каковым является и второй позитивизм. В этом плане очень характерными являются слова Э. Маха: «не существует закона (курсив мой. - С. И.) отражения и преломления, есть только частные случаи отражения и преломления, которые мы подгоняем под закон». Напротив, понимание опыта именно как системной связности характерно для философского реализма (материализма). И в этом плане позиция естествоиспытателей является именно материалистической — стихийно или осознанно. Смысл этой позиции состоит в том, что подтверждением теории может быть не один экспериментальный результат, но именно совокупность (система) опытных данных.

Я не могу доказать контр-Д-тезис. Но и Д-тезис не доказывается. Потому он и называется не теоремой, а тезисом. Вообще, в матлогике тезисом называется утверждение не доказанное, но очень правдоподобное. Настолько правдоподобное, что его не хотят считать условно принятой аксиомой, но и доказать тоже не могут.

Ж

\т \\т

х и

а

<3

Так вот, я не могу доказать контр-Д-тезис, а какое утверждение более правдоподобно - мой тезис или Д-тезис, я предоставляю судить вам самим. Я же, как вы понимаете, решительно отстаиваю и защищаю именно контр-Д-тезис.

И, наконец, последний вопрос, $ЧЙ ~ г

который я хотел бы рассмотреть в

разделе «Принцип согласованности (системности)», - это вопрос о

¡решающем эксперименте, который теснейшим образом связан с тем, что мы только что обсуждали. В физике очень распространено представление о решающем эксперименте, который однозначно решает вопрос «за» или «против» некоторой теории. Его еще называют ехрсптспГит сшиб («крестовый» эксперимент), так как он ставит крест на данной проблеме.

Но когда в философии науки начали обсуждать вопрос о том, какие характеристики делают эксперимент решающим, то оказалось, что таких признаков нет. Ни один из знаменитых решающих экспериментов не оказался «крестовым». И в общем-то это правильно: ни один эксперимент, взятый сам по себе, т.е. в отрыве от других опытных данных, не является решающим. Он оказывается решающим только в системе других экспериментов. По сути дела решающим может оказаться любой эксперимент данной системы, в зависимости от порядка его выполнения. Решающим экспери-

**; ментом он оказывается тогда, ко-зг

^ гда он как бы замыкает, создает

О. достаточную полноту системы

'-<*,• опытных данных. Конечно, ника-

кой реальной замкнутости или абсолютной полноты не бывает. Речь идет лишь об относительном замыкании системы опытных данных, и эта система всегда остается открытой для дальнейшего расширения и движения научного познания. Но на данном конкретном этапе создается такая относительная полнота.

Некоторые общие

замечания по поводу системы методологических принципов

Мы рассмотрели те методологические принципы, которые очень разносторонне и подробно обсуждались в философии науки и получили сильнейшее признание именно как фундаментальные методологические принципы. Одним из важнейших аспектов выделения методологического характера каждого из этих положений было выявление их эффективного функционирования в реальном научном познании. Иначе говоря, мы здесь следовали принципу наблюдаемости.

Вторым важным аспектом методологических принципов является одинаковость центрального общего содержания при их использовании в построении разных теорий и в различных научных дисциплинах, т.е. инвариантность их содержания.

Весьма принципиальной характеристикой методологических регулятивов является то, что, возникнув в научном мышлении, они остаются навсегда. Дальнейшее

развитие науки и философии науки углубляет их понимание, обогащает их содержание, выявляет их новые грани, но сами принципы сохраняют свое значение именно как методологические регулятивы. И здесь, кроме уже упомянутого принципа инвариантности, нужно вспомнить принцип соответствия.

И, наконец, я показал, что каждый принцип связан с каждым другим, т.е. сами методологические принципы образуют систему. Конечно же, эта система не является замкнутой. Она открыта для появления новых принципов, и вы помните, что принцип соответствия появился только в XX в., а принципы инвариантности и системности хотя и начали развиваться довольно давно, но явно были сформулированы тоже в наше время. Так что требование системности означает не условие замкнутости, а условие того, что новый принцип должен быть включен в эту систему.

Все, что мы только что рассмотрели, означает, что методологические принципы удовлетворяют самим себе, т.е. они действительно представляют собой знание, систематизированное методом знания о научном познании. И весь проделанный нами анализ дает нам достаточно надежную основу для обсуждения проблемы - является ли некоторое положение, претендующее на статус методологического принципа, таковым, или эти претензии неосновательны, т.е. для изучения самих методологических принципов.

«Кандидаты » на статус методологических принципов

Как я уже сказал, мы обсудили прошедшие достаточно жесткое методологическое обсуждение и признанные в философии науки методологические принципы научного познания. И теперь перейдем к обсуждению «кандидатов» в методологические принципы. Таких «кандидатов» было довольно много, некоторые из них оказались просто однодневками: появились, стали содержанием одной-двух статей (главным образом, чтобы защитить диссертацию) и исчезли. Их мы вообще не будем рассматривать. Но некоторые из таких положений обсуждались довольно активно и даже продолжают обсуждаться и в современной литературе. Именно они станут предметом нашего обзора. И я рассмотрю их в порядке возрастания активности обсуждения и серьезности претензий на статус методологического принципа.

Первым я рассмотрю «принцип объяснения». В конце 1960-х - 1970-х годов в советской философской литературе произошел всплеск интереса к методологическим принципам научного познания. Это явление было вполне закономерно, поскольку именно с начала 1960-х годов философские проблемы физики освободились от пристального внимания идеологии диамата. Конечно, полного освобождения не было, но даже той относительной свободы было достаточно для серьезного обсуждения. Именно тогда стали интен-

X

X

а

<3

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

сивно обсуждаться проблемы методологии науки. И в ряде коллективных трудов, наряду с теми принципами, которые мы уже рассмотрели, появилось несколько работ, в которых авторы попытались рассмотреть «принцип объяснения». Однако таких работ оказалось немного, и обсуждение как-то затихло. И это не случайно. Дело в том, что объяснение явля-ется одной из фундаментальных

¡функций научной теории, тогда как методологические принципы -это средство достижения тех целей, которые ставит перед собой научное познание. Цель не может быть средством же, поэтому понятие «принцип объяснения» не получило дальнейшего развития. Конечно, сама эта тема в философии науки осталась, но обсуждение перешло в иную плоскость. Обсуждалась структура объяснения, процесс объяснения, но не принцип. И в настоящее время сам «принцип объяснения» даже уже не вспоминается.

Более интенсивно обсуждался в литературе «принцип дополнительности Бора» как методологический принцип научного познания.

И здесь нужно сделать очень серьезное пояснение. Дело в том, что термин «дополнительность» по отношению к познанию имеет несколько смыслов. Существует дополнительность в обычном смысле. Это означает некое знание, дополняющее то, что мы уже " знали раньше. Например, открытие у электрона спина было знани-О. ем, дополняющим наши прежние знания о свойствах электрона. Или

открытие нового квантового числа кварков, названное «цветом». Это дополнение в обычном смысле слова.

Боровское понятие дополнительности имеет иное содержание. Оно означает, что объект должен описываться характеристиками, которые взаимно исключают друг друга, но одновременно и необходимы для сколько-нибудь полного описания объекта. Нельзя отказаться ни от одной из этих взаимоисключающих характеристик. Это и есть боровская дополнительность.

Это понятие дополнительности было сформулировано Бором в его дискуссии с Эйнштейном по принципиальным проблемам квантовой механики в 1927 г. Оно представляет собой концептуальное обобщение соотношения неопределенностей и было сформулировано именно в ответ на попытки Эйнштейна показать, что можно получать знание более точное, чем допускается соотношениями неопределенностей. Боровское понимание дополнительности относится и к вопросу об измерении сопряженных характеристик. Их взаимоисключение требует для измерения и взаимоисключающих классов приборов. Ставя перед собой задачу измерить одну из пары сопряженных характеристик, мы должны применять соответствующий класс приборов, исключающих полученные знания о другой характеристике пары. И, таким образом, в опыте мы никогда не получим противоречивого результата.

Сформулировав такое важное концептуальное положение квантовой механики, Бор, как это часто случается даже с очень крупными учеными, попытался уни-версализовать свой принцип дополнительности и рассмотреть его как общую характеристику мира и методологический принцип познания. В ряде выступлений на конфессах - биологическом, эт-нографическом и других, Бор пытался утвердить принцип дополнительности в качестве такого общего принципа.

На биологическом конгрессе Бор выдвинул положение о том, что знание химического состава организма и свойство быть живым являются дополнительными друг к другу (в боровском смысле), поскольку выполнение анализа с целью установить состав убивает организм. Данный тезис Бора представляется очень сомнительным. Критика Бора указывает на то, что никакой дополнительности в специфическом боровском смысле здесь нет. Любая система перестает быть системой, когда мы разделяем ее на элементы. Это справедливо, например, и для взрывчатой начинки снаряда. Выяснив химический состав организма, мы вовсе не вынуждены делать это и для других организмов (данного типа), тогда как для микрообъектов в любом случае измерение одной величины из пары сопряженных всегда приводит к утрате информации о значении другой пары.

Другая ситуация, о которой Бор говорил на этнографическом конгрессе, представляется мне скорее комической. Тезис Бора

состоял в том, что бытие некоторой культуры первобытного племени и изучение ее дополнительны, потому что само изучение деформирует первобытную культуру, и к тому времени, когда мы ее изучим, она станет совершенно иной. Здесь Бор исходит из какого-то странного представления о работе этнографа. Как будто этнограф - это какой-то «папараццо», обвешанный диктофонами, фото-и видеокамерами, который всюду суетится и сует свой нос во все дела. Настоящий этнограф, какими были Миклухо-Маклай или Генри Льюис Морган, просто живет в данном племени и воспринимает эту жизнь изнутри, а уже потом собирает и описывает свои наблюдения. Другое дело, что вторжение иной цивилизации в жизнь данного народа меняет и деформирует ее, но это отнюдь не изучение.

Последний пример Бора просто смешной. В нем речь идет об отношении дополнительности между понятием национального суверенитета и высотой над поверхностью земли. Как-будто суверенитет есть объективная характеристика, а не условное соглашение, зафиксированное международными договорами.

В целом, попытки Бора утвердить принцип дополнительности в качестве общего методологического положения не получили в западной философии науки никакого отклика. Ни в одной работе по философии науки он просто не упоминается.

Зато в советской философии принцип дополнительности Бора

(8® й

ш

X X

а

<3

и

X X

а

<3

нашел достаточно сильный отклик в диалектическом материализме (заметьте, я отличаю диалектический материализм от вульгарно идеологизированного диамата). Представители диалектического материализма находили в принципе дополнительности глубокое диалектическое содержание. Вышло несколько коллективных работ, в которых идеи Бора пропагандировались, развивались и распространялись с квантовой механики на другие области науки. Но этот всплеск был довольно кратковременным и к серьезным результатам не привел.

Наиболее резкую критику принцип дополнительности Бора встретил именно со стороны физиков, которые возражали против использования принципа дополнительности за пределами квантовой механики. Известный советский физик Д.И. Блохинцев, много занимавшийся принципиальными вопросами квантовой механики и очень серьезно выступавший с позиций диалектического материализма, писал, что, основываясь на принципе дополнительности, даже квантовую механику построить нельзя.

Но самое главное состоит в том, что никакая теория, создававшаяся после 1930 г., не использовала в своем построении принцип дополнительности. Даже квантовая теория поля, не говоря уже о других теориях. То есть принцип дополнительности Бора не удовлетворяет требованию наблюдаемости, он нигде не обнаруживается как эффективно функционирующий методологический

регулятив. Не удовлетворяет он также и требованию системности, так как каких-либо связей с другими принципами не просматривается. Так что принцип дополнительности можно считать несостоявшимся кандидатом на статус общего методологического принципа научного познания.

С моей точки зрения, принцип дополнительности Бора является очень важным, но лишь одним из элементов системы правил интерпретации квантовой механики. Конечно же он включен и в квантовую теорию поля, но лишь постольку, поскольку это именно квантовая теория. В квантовой теории поля принцип дополнительности возникает в проблеме измеримости напряженностей полей в связи с процедурой квантования поля, но не как принцип построения теории.

Так что с принципом дополнительности вопрос вполне ясен.

Следующим кандидатом в методологические принципы научного познания является принцип красоты. Трудно сказать, когда этот принцип появился в науке. Скорее всего, в XVIII в., когда классическая механика Ньютона совершала грандиозную экспансию, захватывая все новые и новые области явлений. Красота и стройность классической механики, особенно в той форме, которую ей придал Лагранж, широта ее применимости, казавшаяся в то время всеобъемлющей, естественно породили не только строго гносеологическое, но и эстетическое отношение. Во всяком случае, уже Гамильтон прямо говорил об эсте-

щ

тическом отношении к канонической форме классической механики и к принципу наименьшего действия.

Но действительного расцвета принцип красоты достиг в XX в. после создания квантовой механики и релятивистского волнового уравнения для электронов. Наиболее активными сторонниками идеи красоты в науке были Гей-зенберг и Дирак. В особенности Дирак. Именно Дираку принадлежит высказывание, что красота теории даже важнее, чем согласие с опытом, и что красивая теория имеет больше шансов оказаться правильной, чем согласующаяся с опытными данными, но некрасивая. Он неоднократно повторял «физический закон должен быть математически красивым» и даже написал эту фразу на стене одной из аудиторий Московского университета во время своего последнего посещения России.

Но здесь и возникает самый трудный вопрос: а что такое красота? Красивы ли формула

Е = тс2 или же Е = 1 тУ2 + и?

2

И чем они красивы? Я, признаться, не вижу никакой красоты ни в той, ни в другой формуле. Они правильны (в соответствующих пределах), но при чем здесь красота?

С моей точки зрения, красота - это сугубо психологическое понятие, выражающее отношение ученого к своей деятельности, чувство удовлетворения полученным результатом. И это очень субъективное состояние. Весьма часто красивой мы называем работу, в которой получен неожи-

данный результат или в которой результат получен при помощи неожиданного приема. Особенно впечатляющими являются те ситуации, когда примененный прием отличается простотой, такой, что после прочтения работы читатель поражается: как же это гениально просто. Классическим примером такого гениально простого вывода является вывод Гейзенбергом соотношения неопределенностей в две строчки.

Но в целом, понятие красоты очень субъективно, и то, что один субъект считает красивым, другой представляет себе совершенно цначе (иногда даже диаметрально противоположно).

Если же попытаться выяснить объективные признаки того, что в науке называется красивым, то это всегда оказывается простота, инвариантность и системность. Мы называем красивой теорию, которая успешно объединяет большую группу явлений, ранее представлявшихся нам несвязанными. Мы говорим о том, что уравнение или формула красивы, если в них не содержится большого числа (двух-трех) поправочных членов, вводимых ad hoc как независимые гипотезы. Красивыми считаются также формулы, в которых не проявляются какие-то странные коэффициенты или показатели типа 1,439. Мы любим коэффициенты, содержащие тс, е, рациональные числа с небольшими числителями и знаменателями (типа 1 2 ч

—, — и пр.) и корни целого по-2 3

рядка (квадратный, кубический). Но именно это является требова-

x м

а

<3

н

i

X к

а

<3

нием принципа простоты. Но чаще всего красивыми мы называем теории или уравнения, обладающие хорошей симметрией. Кстати, сам Дирак чаще всего говорил о красоте, имея в виду именно симметрию.

И я утверждаю, что понятие красоты в науке не имеет самостоятельного содержания, помимо системности, инвариантности и простоты (если не считать субъективных моментов). Но соответствующие принципы уже есть в методологии науки, и понятие красоты оказывается излишним.

Некоторые авторы пытались связать красоту теории и ее истинность (правильность). Но мы очень часто говорим: красивая идея, но, к сожалению, неправильная. Можно сказать, что все правильные теории мы считаем красивыми, но и многие неправильные теории тоже красивы. Так что связь красоты с истинностью является более чем проблематичной.

В целом, я считаю, что принцип красоты не может иметь статуса фундаментального методологического принципа научного познания и его обсуждение принадлежит скорее к жанру философ-ско-художественной литературы.

Совершенно иначе обстоит дело с двумя другими принципами - экстремальным принципом и принципом причинности. Эти два кандидата являются наиболее серьезными.

Принцип наименьшего действия известен в форме принципа кратчайшего времени в оптике с XVII в. (принцип Ферми) и в ме-

ханике с XVIII в. (принцип Мо-пертюи). Его максимально общая форма была установлена Гамильтоном и имеет хорошо известный

вид

5.fzdt = 0 ,

где Z - функция Лагранжа данной динамической системы (разность между кинетической и потенциальной энергией — Т - ЕГ).

В начале XX в. была найдена вариационная форма электродинамики, и тем самым принцип наименьшего действия получил исключительно общее содержание, пригодное для любых динамических систем, включая и нулевые.

С этого времени принцип наименьшего действия становится одним из основных методов теоретической физики: построение теории очень часто начинается именно с установления лагранжиана системы. И даже если построение теории начинается с нахождения основных уравнений, все равно считается необходимым построить лагранжиан, уравнениями Эйлера для которого будут именно эти уравнения. Наиболее яркими проявлениями этого применения вариационного принципа были получение Гильбертом фундаментального уравнения общей теории относительности одновременно (или даже на пять дней раньше) с Эйнштейном и получение Шредингером уравнения квантовой механики. В настоящее время построение теории почти всегда начинается с построения соответствующего лагранжиана.

Кроме этого применения вариационного принципа как средства получения основных уравнений динамики, с начала нашего века получило большое распространение применение вариационного принципа как средства нахождения собственных значений и собственных функций. Это направление, начатое в работах Рэлея и Ригца, в настоящее время развилось в мощное направление математической физики. Использование вариационных методов оказалось очень эффективным в решении задач многоэлектронных систем (многоэлектронные атомы, не слишком сложные молекулы).

Третьим направлением, в котором нашли очень широкое и эффективное применение экстремальные принципы, является термодинамика необратимых явлений. Создатель этого направления в современной физике Ларе Онеа-гер еще до Второй мировой войны сформулировал так называемый «четвертый закон термодинамики» - принцип наименьшего рассеяния энергии. В послевоенные годы термодинамика необратимых процессов получила очень мощное развитие в работах бельгийского физика И.Р. Пригожина и его учеников. Пригожин сформулировал четвертый закон термодинамики как принцип наименьшей скорости производства энтропии. В дальнейшем в научной литературе появились и другие эквивалентные формулировки данного принципа.

Такое широкое и эффективное применение экстремальных принципов должно было бы вызвать

интерес методологов и попытки интерпретировать экстремальный принцип как общий фундаментальный принцип научного познания. Однако в действительности число таких работ очень невелико. Мне известны только две крупные работы советских философов О.Н. Разумовского и В.А. Асеева, посвященные анализу экстремальных принципов. Причем дальнейшего развития эти работы не получили.

Я не могу объяснить причину такого слабого внимания методологов к экстремальным принципам. Возможно, причина эта состоит в том, что принцип наименьшего действия вполне эквивалентен уравнениям движения системы и сам принцип наименьшего действия можно рассматривать просто как эквивалентную форму записи дифференциальных уравнений. В очень обстоятельной книге С.Г. Милликена «Вариационные принципы в математической физике» (М., 1957) показано, как по уравнениям построить функционал, для которого решения данных уравнений дают экстремизм.

Но такое понимание может встретить возражение именно в области использования экстремальных принципов в термодинамике необратимых процессов, поскольку в этой области экстремальные принципы являются не алгоритмом получения уравнений, а, скорее, ограничивающими условиями, дополнительными (не в боровском, а в обычном смысле слова) к уравнениям процесса. Естественно, что эти дополни-

ШШ 'III

jipi

X

и

<1

тельные условия существенно влияют на вид самих уравнений и в этом аспекте являются в высшей степени принципиальными требованиями. Но их уже нельзя рассматривать просто как эквивалентную форму записи уравнений.

В целом, вопрос об экстремальном принципе как методологическом принципе научного познания является весьма проблематичным. Вы можете сами для себя решить его «за» или «против». Я склонен думать, что экстремальный принцип является хорошим «кандидатом» на статус общего методологического принципа. Но полное решение вопроса принад-| р лежит, конечно, будущему.

Заключение

Рассмотрение системы методологических принципов научного

а я

X X

а

<3 220

познания как фундаментального ядра научного метода завершает предложенный вам курс философии науки. Конечно, он не является ни исчерпывающим, ни даже очень полным. Вне курса остались такая важная мировоззренчески-методологическая проблема, как проблема редукционизма и антиредукционизма в научном познании, философские проблемы, связанные с пространством и временем, интерпретацией квантовой механики, и многие другие. Содержанием нашего курса был именно общий логико-методологический подход к пониманию научного познания и, соответственно, утверждение Научного Метода как основного признака, критерия научности, а также анализ структуры метода. И я надеюсь, что эта задача мной выполнена.

i Надоели баннеры? Вы всегда можете отключить рекламу.