УДК 372.851:519.21
Г. Д. ГЕФАН
Иркутский государственный университет путей сообщения
ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА: ИСТОРИКО-ФИЛОСОФСКИЕ АСПЕКТЫ В ПРЕПОДАВАНИИ ДИСЦИПЛИНЫ
В работе в рамках краткого очерка развития вероятностных представлений рассмотрено взаимодействие двух подходов — детерминированного и стохастического. Статья адресована, в первую очередь, преподавателям математических и естественнонаучных дисциплин. Сформулированы некоторые содержательные особенности теории вероятностей и математической статистики, которые необходимо учитывать при разработке методики преподавания.
Ключевые слова: случайность, вероятность, статистика, детерминизм, стохастика, методика преподавания.
Преподавание математических дисциплин студентам естественнонаучных, технических, экономических направлений подготовки, к сожалению, часто строится на представлении о том, что математика есть лишь набор инструментов для количественного описания изучаемых явлений. Отсюда — огромное внимание, которое уделяется собственно технике математических расчётов при явной недооценке важности сопоставления подходов, условий их применимости и, говоря шире, роли математики в точном формулировании содержания других наук. Сводить изучение математики к выработке вычислительных навыков означает потерю возможности глубокого понимания сути явлений и процессов. Необходима выработка системных представлений о фундаменте математики [1].
Фундаментальная, структурообразующая роль математики ярко проявляется на примере теории вероятностей и математической статистики. Становление и развитие этой дисциплины теснейшим образом связаны с философскими размышлениями о природе необходимого и случайного, о месте вероятностных понятий в системе научного знания. Сама ретроспектива этой науки нагружена философским и методологическим содержанием. Анализу этого содержания посвящены многочисленные монографии и статьи (например, [2 — 6]), лежащие на границе философии и математики. В настоящей работе в рамках краткого очерка развития вероятностных представлений рассмотрено взаимодействие двух подходов — детерминированного и стохастического. Цель статьи — помочь преподавателям наполнить учебный процесс историко-философскими и методологическими сведениями о вероятности, которые способствовали бы более глубокому и осмысленному пониманию самой вероятностной теории и её роли в других науках.
Понятие вероятности события возникло как результат развития представлений о необходимом и случайном. Необходимым называют явление, однозначно определяемое внутренними условиями в некоторой фиксированной области объективной реальности. Мы способны достоверно предсказывать необходимое событие на основе знания условий.
Случайным называют явление, которое вносится в некоторую фиксированную область объективной реальности извне. Такое явление не детерминировано условиями, существующими в данной области и поэтому не может быть достоверно предсказано на основе знания о них [7]. Необходимое и случайное представляют собой диалектическое единство: одно и то же явление, случайное в одной области, выступает как необходимое в другой. Засушливая погода — явление случайное с точки зрения его отношения к биосфере Земли, но необходимое с точки зрения метеорологии.
Представления о соотношении необходимого и случайного формировались уже в античные времена. Демокрит стоял на позициях жесткого детерминизма: случайности не существует, всё имеет свою причину [8]. Эпикур, напротив, закреплял особый статус за категорией случайного, считая, что именно случайность правит миром. Если Демокрит утверждал, что движение атомов в пустоте определяется внешней механической необходимостью, то Эпикур полагал, что атомы спонтанно отклоняются от прямолинейного движения. Аристотель же считал необходимость и случайность равнозначными характеристиками действительности.
Представители немецкой классической философии преломляли и развивали аристотелевскую трактовку случайного. Кант вслед за Аристотелем понимал случайное как несущественное, несвойственное [9, с. 430]. Гегель не просто выделял необходимые и случайные события, но и отмечал, что они необходимы и случайны одновременно. Кроме этого, он не сводил необходимость к причинности, а случайность — к субъективным представлениям [10].
Из всех перечисленных точек зрения на необходимые и случайные явления суждение Демокрита, возможно, является самым грубым, но оно представляет для нас наибольший интерес, поскольку Демокрит считается предтечей так называемого каузального (т.е. причинного) детерминизма. Наиболее полно и последовательно эту концепцию сформулировал П. Лаплас в начале XIX века.
Детерминизм по Лапласу есть представление о том, что мир подчиняется действию однозначных
законов. «Мы можем рассматривать настоящее состояние Вселенной как следствие его прошлого и причину его будущего. Разум, которому в каждый определенный момент времени были бы известны все силы, приводящие природу в движение, и положение всех тел, из которых она состоит, смог бы объять единым законом движение величайших тел Вселенной и мельчайшего атома; для такого разума будущее было бы таким же ясным, как прошлое» [11]. По Лапласу случайность — субъективная категория, связанная с незнанием действующих причин. Поэтому и вероятность имеет лишь субъективное содержание, являясь выводом из той информации, которой мы располагаем.
К моменту, когда благодаря Лапласу в науке утвердился взгляд на вероятность как на нечто, связанное скорее с нашим знанием об объекте исследования, чем с самим объектом, теория вероятностей насчитывала уже примерно полтора века своего развития. Обычно возникновение этой науки связывают с именами Б. Паскаля, П. Ферма и Х. Гюйгенса (середина XVII века), хотя ещё за несколько десятилетий до них первичные вероятностные задачи пытались решать Дж. Кардано, Н. Тарталья и Г. Галилей [12, 13]. Итог XVII века в области теории вероятностей был подведён книгой Я. Бернулли «Искусство предположений» [14]. Бернулли сформулировал в простейшей форме закон больших чисел, в котором фигурирует не просто численность наступлений события, но относительная частота, что вплотную подвело его к классическому определению вероятности, которое также появилось в данной книге. Однако формулировка классического определения вероятности была ещё несовершенной. Автор писал об отношении числа благоприятных случаев к числу всех возможных случаев, но ничего не говорил о равновозможности этих случаев (хотя, очевидно, подразумевал это).
Требование равновозможности случаев в классическое определение вероятности ввёл Лаплас. Однако благодаря этому в классическом определении вероятности наметилось два «слабых» места. Во-первых, согласно Лапласу, вероятность определялась фактически через «равновероятность» (своего рода порочный круг) [2]. Во-вторых, хорошо, если речь идёт о монете или игральной кости (причём идеально симметричных). А что делать в других случаях? И здесь Лаплас даёт, пожалуй, один из своих наиболее сомнительных рецептов. Согласно сформулированному им принципу недостаточного основания, равно-возможными считаются случаи, существование которых для нас является одинаково неопределённым [11]. Итак, для Лапласа вероятность характеризует уровень знаний субъекта, а не свойства объекта исследования.
Пожалуй, одним из самых ярких примеров реализации концепции субъективной вероятности является байесовский подход. Согласно этому подходу, первоначально рассматриваются степени доверия к различным гипотезам (моделям). Эти степени доверия задаются в виде так называемого априорного распределения вероятностей. Затем фиксируются результаты наблюдений (в виде наступления некоторых событий или появления значений некоторой случайной величины, что, в общем, одно и то же). После этого формула (теорема) Байеса позволяет найти новое (апостериорное) распределение вероятностей. Это пересмотренные с учётом новой информации степени доверия к гипотезам (моделям).
Но существует ли объективная вероятность как мера возможности осуществления событий? Оче-
видно, положительный ответ на этот вопрос возможен при условии, что существует объективная случайность, т.е. случайность как объективный закон природы, а не как результат нашего неполного знания. Оригинальную теорию, связанную с этой проблемой, разработал в середине XIX века французский математик и экономист О. Курно, ученик Пуассона. Бесконечная цепь причин и следствий создаёт причинный ряд. При этом некоторые ряды связаны между собой причинной зависимостью, между другими же рядами не существует никакой связи. Пересечение независимых друг от друга причинных рядов рождает событие, являющееся объективно случайным. Таким образом, объективно случайное событие — это событие вовсе не беспричинное, но его причины никак не связаны между собой. Вероятность такого события «...не зависит от того, велики или малы наши знания относительно условий возникновения явлений» [15].
Рождение статистики (или, как тогда говорили, политической арифметики) принято связывать с именами английских исследователей Дж. Граунта, У. Петти и Э. Галлея. Занимаясь демографией во второй половине XVII века, они получили важные результаты, касающиеся возрастного состава населения, распределения смертности по возрастам и вероятной продолжительности жизни. Родоначальники статистики фактически ввели в научный оборот понятия относительной частоты и медианы (хотя сами этих терминов не использовали) и вплотную приблизились к формулировке закона больших чисел. Безусловно, это были первые шаги в области математической статистики, повлиявшие на чуть более поздние работы Я. Бернулли.
Проникновение вероятностно-статистических представлений в физику началось с соображений Г. Галилея об ошибках измерений. Именно он классифицировал ошибки на систематические и случайные и обратил внимание на то, что большинство измерений группируется около истинного значения. К. Гаусс ввёл понятие среднеквадратической ошибки и для минимизации ошибок первым применил метод наименьших квадратов (название принадлежит А.-М. Лежандру, «переоткрывшему» и впервые опубликовавшему этот метод, являющийся краеугольным камнем возникшего позже регрессионного анализа). Что касается так называемого нормального распределения, то первым его получил ещё А. де Му-авр как непрерывную аппроксимацию биномиального закона, а Гаусс и Лаплас связали нормальное распределение с теорией ошибок и детальнейшим образом исследовали. С тех пор нормальное распределение играет важнейшую роль во многих областях знаний, особенно в физике. Если физическая величина подвержена влиянию большого числа случайных факторов, то она подчиняется нормальному распределению. По этой причине именно нормальное (гауссово) распределение так распространено в природе.
Полномасштабное использование вероятностно-статистических методов в физике началось во второй половине XIX века в связи с развитием кинетической теории газов. Становилось ясно, что детерминированные модели явлений, основанные на так называемых динамических законах, не могут решить проблем, вставших перед исследователями. Динамические законы, законы классической механики, характеризуют поведение систем, состоящих из небольшого числа элементов. Реальный газ, состоящий из молекул, описать таким способом невозможно.
Появление статистических понятий в молекулярно-кинетической теории начинается с того, что Р. Клау-зиус вводит понятия средней длины свободного пробега и средней скорости молекул. Как писал Дж. Максвелл, ограниченность наших возможностей в применении динамических законов к громадному числу атомов вынуждает нас отказаться от попыток исследовать историю каждого атома в пользу изучения «среднего положения» большой группы (ансамбля) атомов [16]. Таким образом, речь шла о применении в кинетической теории вероятностно-статистических законов. Огромный вклад в молеку-лярно-кинетическую теорию и становление статистической физики внёс Л. Больцман.
Значительное влияние оказали вероятностно-статистические представления и на развитие биологии: основатель генетики Г. Мендель пришёл к формулированию и обоснованию её законов, последовательно применив статистический метод; антропометрические исследования Ф. Гальтона привели к появлению понятий корреляции и регрессии; наконец, теория эволюции Ч. Дарвина также, по существу, опиралась на статистические представления. Таким образом, в середине XIX века вероятностно-статистические методы стали играть важную роль в развитии социальных и естественных наук. Это, безусловно, было связано со стремлением к максимальной математизации научного знания. Однако более глубокая причина заключалась в том, что именно в XIX веке — идёт ли речь о явлениях социальных, биологических, или о термодинамических свойствах газа — объектом исследования стали массовые явления.
Казалось бы, роль вероятностно-статистических методов в науке ко второй половине XIX века была полностью определена. Детерминистский подход, основанный на использовании универсальных законов классической физики, является, если так можно выразиться, более «высокой» формой описания действительности, поскольку, в отличие от статистического подхода, даёт определённые, достоверные предсказания. Статистический подход вынужденно применяется вместо детерминистских методов при слишком большом числе уравнений, недостатке информации о начальных условиях и т.д. Создавалось представление, что если бы мы располагали более мощными вычислительными средствами и более точными измерительными приборами, то необходимости использования в физике самого понятия «вероятность» не было. Этот поход пошатнулся в связи с возникновением квантовой механики. Оказалось, что сами законы микромира являются вероятностно-статистическими. Выдающиеся работы физиков-теоретиков Л. де Бройля, Э. Шредингера, М. Борна, В. Гейзенберга в 1910— 1920-е годы привели к пониманию спонтанности распада радиоактивных атомов, волновых свойств микрочастиц, введению понятия волновой функции, её вероятностной интерпретации и формулированию так называемого принципа неопределённости. Принять эти открытия научному миру было непросто. В классической механике Ньютона задание положения и скорости тела в какой-либо момент времени, а также сил, действующих на это тело, однозначно определяет положение тела в любой последующий момент времени. Известный пример действенности этой теории — предсказание солнечных затмений и даже восстановление дат исторических событий путём вычисления «обратного» движения планет и их спутников. Для микрочастиц, как утверждает квантовая механика, такие предсказания невозможны в принципе.
Эта невозможность противоречит укоренившимся представлениям о динамических законах, имеющих детерминированный характер и полностью управляющих движением. Новая теория пришлась не по душе Планку и Альберту Эйнштейну, сказавшему, что «Бог не играет с миром в кости». И даже Шредингер, который ввёл понятие волновой функции, не принял её вероятностной (борновской) интерпретации. Однако из новой теории не следует, что микромир абсолютно недетерминирован, что им управляют только неопределённость и случайность. Сам Борн говорит об этом так: «В квантовой механике мы встречаемся с парадоксальной ситуацией — наблюдаемые явления повинуются закону случая, но вероятность этих событий сама по себе эволюционирует в соответствии с уравнениями, которые, судя по всем своим существенным особенностям, выражают причинные законы» (цитируется по книге [17]).
Принципиальное отличие вероятностно-статистических представлений в квантовой механике от других научных приложений теории вероятностей и математической статистики заключается в том, что статистические закономерности в квантовой механике применяются не к массовым явлениям (совокупностям, ансамблям), а к единичным объектам.
Благодаря перечисленным выше научным открытиям в естествознании второй половины XIX и первой половины XX веков и, вообще, колоссальному прогрессу наших знаний о природе, классическая версия детерминизма, не оставляющая места объективной случайности, была несколько потеснена. Однако это не привело к отрицанию закономерной связи явлений. Напротив, статистические законы, как и законы динамические, представляют собой форму такой связи. Статистические законы возникают вследствие взаимодействия большого числа элементов; регулярность и повторяемость, проявляющиеся в статистических законах, есть результат взаимной компенсации действия различных случайных факторов [4]. Такую концепцию можно назвать стохастическим детерминизмом. В классическом лапласовом детерминизме — чем меньше причин, тем точнее следствие (в гносеологическом смысле). В стохастическом детерминизме — чем больше причин (событий, наблюдений, измерений), тем точнее следствие (относительная частота, среднее значение, дисперсия). Закономерность порождается случайностью. Стохастический подход, действительно, не даёт нам точного знания о том, что произойдёт в данном опыте или в следующий момент времени, но зато позволяет предсказать, каково будет «среднее», «типичное» поведение некоторого объекта (процесса, системы).
Каким же образом современный специалист — инженер, естествоиспытатель, экономист, социолог — применяет идеи теории вероятностей и математической статистики на практике с целью исследования явлений и принятия решений?
Вероятностный подход основывается на разработке математической модели реального явления или процесса, в которой неопределённые факторы выражены в терминах теории вероятностей. Эта неопределённость может иметь объективный характер, но может вноситься и сознательно, например, при случайном отборе единиц генеральной совокупности. Однако для практического применения таких моделей необходимо знать сами вероятности. Если теоретически они неизвестны, то следует применить статистический подход, который, по сути, нацелен на решение задачи, обратной по отношению
к задачам теории вероятностей: на основе результатов наблюдений оценить вероятности, закладываемые в математическую модель явления. Таким образом, вероятностный и статистический подходы опираются друг на друга и, в сущности, составляют единое целое.
Выводы. В преподавании теории вероятностей и математической статистики должны присутствовать историко-философские аспекты, помогающие более глубокому пониманию этих наук. Необходимо донести до обучаемых, что:
— понятие вероятности тесно связано с категориями необходимого и случайного;
— согласно концепции классического детерминизма, идущей от Лапласа, к понятию случайности мы обращаемся только в связи с незнанием действующих причин, а вероятность субъективна, являясь лишь выводом из той информации, которой мы располагаем;
— концепцию объективной вероятности сформулировал Курно: пересечение независимых друг от друга причинных рядов рождает событие, являющееся объективно случайным;
— классический детерминизм сыграл огромную роль в познании мира (в частности, на этом принципе построена классическая физика за исключением термодинамики и молекулярной физики: возникновение этих наук заставило говорить о существовании не только динамических, но и статистических законов);
— статистические законы так же объективны, как и динамические: они возникают вследствие взаимодействия большого числа элементов, а регулярность и повторяемость, проявляющиеся в статистических законах, есть результат взаимной компенсации действия различных случайных факторов («стохастический детерминизм»);
— статистические закономерности в квантовой механике применяются не к массовым явлениям (совокупностям, ансамблям), а к единичным объектам: характер событий в микромире является вероятностным по самой своей природе;
— в работе исследователей вероятностный и статистический подходы к моделированию опираются друг на друга и, в сущности, составляют единое целое.
Библиографический список
1. Зепнова, Н. Н. Применение методов дискретной математики при решении логических задач / Н. Н. Зепнова, О. В. Кузьмин // Омский научный вестник. Сер. Приборы, машины и технологии. — 2014. — № 2 (130). — С. 14—17.
2. Купцов, В. И. Детерминизм и вероятность / В. И. Купцов. — М. : Политиздат, 1976. — 256 с.
3. Чайковский, Ю. В. О природе случайности / Ю. В. Чайковский. — М. : Центр сист. исслед. ; Ин-т ист. естествознан. и техники РАН, 2004. - 280 с.
4. Рузавин, Г. И. Неопределенность, вероятность и прогноз / Г. И. Рузавин // Вопросы философии. — 2005. — № 7. — С. 65 — 78.
5. Осипов, В. Е. Вероятностные представления в научном познании: сущность, эволюция, методологическое значение /
B. Е. Осипов // Современные технологии. Системный анализ. Моделирование. — 2009. — № 4 (24). — С. 241 — 256.
6. Григорян, А. А. Закономерности и парадоксы развития теории вероятностей. Философско-методологический анализ / А. А. Григорян. — М. : Едиториал УРСС, 2010. — 120 с.
7. Энциклопедия эпистемологии и философии науки / Гл. ред. И. Т. Касавин. — М. : Канон + РООИ Реабилитация, 2009. — 1248 с.
8. Чанышев, А. Н. Курс лекций по древней философии : учеб. пособие для филос. фак. и отд-ний ун-тов / А. Н. Чанышев. — М. : Высшая школа, 1981. — 374 с.
9. Кант, И. Критика чистого разума : в 6 т. / И. Кант. — М. : Мысль, 1964. — Т. 3. — 799 с.
10. Некрасов, С. И. Идеи детерминизма и глобального эволюционизма: антагонизм или взаимообусловленность? /
C. И. Некрасов, Н. А. Некрасова, А. М. Захаров. — М. : Изд. дом Академия естествознания, 2008. — 122 с.
11. Лаплас, Пьер. Опыт философии теории вероятностей / Пьер Лаплас. — М. : Либроком, 2011. — 208 с.
12. Гнеденко, Б. В. Курс теории вероятностей / Б. В. Гне-денко. — М. : Наука, 1988. — 448 с.
13. Секей, Г. Парадоксы в теории вероятностей и математической статистике / Г. Секей ; пер. с англ. — М. : Мир, 1990. — 240 с.
14. Бернулли, Я. О законе больших чисел / Я. Бернулли ; пер. с лат. — М. : Наука, 1986. — 176 с.
15. Курно, О. Основы теории шансов и вероятностей / О. Курно. — М. : Наука, 1970. — 384 с.
16. Гельфер, Я. М. История и методология термодинамики и статистической физики / Я. М. Гельфер. — М. : Высшая школа, 1981. — 536 с.
17. Налимов, В. В. Язык вероятностных представлений: препринт / В. В. Налимов. — М. : Научный совет по комплексной проблеме «Кибернетика» АН СССР, 1976. — 60 с.
ГЕФАН Григорий Давыдович, кандидат физико-математических наук, доцент (Россия), доцент кафедры математики.
Адрес для переписки: [email protected]
Статья поступила в редакцию 09.09.2014 г. © Г. Д. Гефан
Книжная полка
Маралов, В. Г. Педагогика и психология ненасилия в образовании : учеб. пособие для бакалавриата и магистратуры / В. Г. Маралов, В. А. Ситаров. - 2-е изд., перераб. и доп. - М. : Юрайт, 2015. -424 с. - Сер. Бакалавр и магистр. Модуль. - ISBN 978-5-9916-4311-5
В пособии даны теоретические основы педагогики и психологии ненасилия, показаны пути построения учебного процесса, основанного на принципах ненасилия, представлены технологии ненасильственного взаимодействия, методы формирования способности к ненасилию у всех участников образовательного процесса. Приведены методические и практические материалы, которые помогут студентам овладеть базовыми компетенциями педагогики и психологии ненасилия. Соответствует Федеральному государственному образовательному стандарту высшего образования четвертого поколения. Данное пособие может быть рекомендовано студентам вузов, работникам дошкольных и школьных образовательных учреждений, а также может быть использовано в системе повышения квалификации научно-педагогических работников.