Главная | Обратная связь | Поможем написать вашу работу!
МегаЛекции

Глава 3. Динамические и статистические законы




Все физические законы делятся на две большие груп­пы: динамические и статистические.

Динамическими называют законы, отражающие объек­тивную закономерность в форме однозначной связи фи­зических величин. Динамическая теория — это теория, представляющая совокупность физических законов.

Статистические законы — это такие законы, когда любое состояние представляет собой вероятностную ха­рактеристику системы. Здесь действуют статистические распределения величин. Это означает, что в статисти­ческих теориях состояние определяется не значениями физических величин, а их распределениями. Нахожде­ние средних значений физических величин — главная задача статистических теорий. Вероятностные характе­ристики состояния совершенно отличны от характерис­тик состояния в динамических теориях. Статистические законы и теории являются более совершенной формой опи­сания физических закономерностей, так как любой извес­тный сегодня процесс в природе более точно описыва­ется статистическими законами, чем динамическими. Различие между ними в одном — в способе описания состояния системы.

Смена динамических теорий статистическими не оз­начает, что старые теории отменены и сданы в архив. Практическая их ценность в определенных границах ни­сколько не умаляется. При разговоре о смене теорий име­ется в виду, в первую очередь, смена глубоких физичес­ких представлений более глубокими представлениями о сущности явлений, описание которых дается соответству­ющими теориями. Одновременно со сменой физических представлений расширяется область применения теории. Статистические теории расширяются на больший круг яв­лений, недоступных динамическим теориям.

Особенности описания состояний в статистических теориях

Согласно общепринятой терминологии под динамическими закономерностями (или теориями) понимаются закономерности, в которых связи всех физических величин однозначны. В статистических закономерностях (или теориях) однозначно связаны только вероятности определенных значений тех или иных физических величин, а связи между самими величинами неоднозначны. Общность этих теорий проявляется, прежде всего, в том, что все они вводят в качестве основного понятия состояние физической системы. Различие же между ними - в определении этого состояния. Например, в классической механике, являющейся динамической теорией, состояние задается координатами и импульсами материальных точек. В другой динамической теории - классической (феноменологической, эмпирической) термодинамике - состояние системы определяется давлением, объемом и температурой некоторой массы вещества. Эволюция этих состояний описывается соответствующими уравнениями - уравнением движения (в форме второго закона Ньютона) в механике и уравнениями переноса в термодинамике неравновесных процессов.

В статистической механике состояние системы определяется совершенно иначе: не положениями и импульсами частиц, а вероятностями того, что та или иная частица имеет координаты и импульсы в определенном диапазоне возможных значений. Чтобы лучше представить себе специфику такого подхода, рассмотрим конкретный пример. Пусть в результате многократного измерения координаты x некоторой частицы получено N значений, в общем случае отличающихся друг от друга,

X1, x2,..., xN

Чтобы наглядно представить эти значения, строят ступенчатый график, который называется гистограммой (рис.1). Для этого интервал [xmin, x max] на оси абсцисс, в который попадают все значения серии, разбивают на k одинаковых по ширине интервалов x i, (i =1, 2..., k) и на каждом из них строят прямоугольник, высота которого равна относительному числу Ni/N, попавших в соответствующий интервал, деленному на ширину интервала x. Тогда при достаточно больших Ni и N площадь каждого прямоугольника будет равна вероятности Pi = Ni / N попадания результатов измерения в соответствующий интервал x i.

Если теперь устремить N к бесконечности и одновременно ширину интервалов x - к нулю, то ступенчатый график - гистограмма - перейдет в плавную кривую r (x) (рис.1), которая называется плотностью вероятности (или функцией распределения) случайной величины x. Смысл этой функции остается прежним: ее значение в той или иной точке x определяет вероятность dP того, что измеренное значение случайной величины x попадет в малый интервал [x, x + x]

dP = r(x) dx

Таким образом, если в классической механике состояние N материальных точек (являющихся, например, теоретической моделью идеального газа) задается значениями N радиус-векторов ri и N импульсов pi, то в статистической механике состояние тех же N материальных точек определяется функцией распределения r (r1, p1; r2, p2;... rN, pN; t), с помощью которой можно вычислить вероятность того, что координаты и импульсы этих N точек находится между r1 и r1+dr1, p1 и p1+dp1,..., rN и rN+drN, pN и pN +dpN.

Рис.1. Гистограмма и плотность распределения вероятности случайной величины X

Эволюция состояния в фундаментальных статистических теориях определяется уравнениями движения, так же как и в динамических теориях. По заданному статистическому распределению в начальный момент времени однозначно определяется распределение в любой последующий момент времени. Никакого отличия в этом отношении от динамических теорий нет. В частности, в классической статистической механике эволюция функции распределения r (r1, p1; r2, p2;...; rN, pN; t) со временем описывается с помощью уравнения Лиувилля, точное решение которого - практически недостижимая задача, так как число входящих в него переменных огромно. Поэтому используются приближенные статистические описания с помощью более простых функций распределения.

Например, если система состоит из N одинаковых слабо взаимодействующих частиц, то состояние такой системы можно описать с помощью так называемой одночастичной функции распределения r (r, p, t), которая определяет среднее число частиц с определенными значениями координат и импульсов. Эта одночастичная функция распределения подчиняется гораздо более простому, чем уравнение Лиувилля, уравнению Больцмана. Главной особенностью статистических уравнений движения (Лиувилля, Больцмана и др.) является то, что их решения соответствуют необратимой трансформации функции распределения r к некоторому равновесному значению. Это означает, что какой бы ни была начальная функция распределения частиц (например, она может соответствовать ситуации, когда все частицы сосредоточены в каком-то определенном месте объема), в конце концов эта функция распределения, постепенно изменяясь, станет равновесной (в частности, будет соответствовать равномерному распределению частиц по объему). Таким образом, статистическая механика позволяет адекватно описать необратимое поведение системы, состоящей из большого числа частиц.

Энтропия

Еще до возникновения статистической термодинамики и даже до перехода к молекулярно-кинетическим представлениям о природе теплоты были известны два основных закона термодинамики, которые обобщали известные к тому времени опытные факты. Один их них - первое начало термодинамики - являлся фактически законом сохранения энергии и формулировался следующим образом: количество теплоты Q, сообщенное системе (например, газу), равно сумме приращения ее внутренней энергии U (а фактически температуры Т) и совершенной механической работы A:

Q = U + A

Этот закон, однако, ничего не говорил о направлении протекания тепловых процессов. Например, ему не противоречит замерзание некоторого объема воды, помещенного в раскаленную печку. Необратимость тепловых процессов отражает специальный закон - второе начало термодинамики, имеющий несколько эквивалентных формулировок, таких как:
- тепло не может самопроизвольно перетекать от холодного тела к горячему;
- нельзя построить вечный двигатель 2-го рода, который совершал бы полезную работу только за счет охлаждения теплового резервуара;
- нельзя достичь температуры абсолютного нуля;
- энтропия замкнутой системы является неубывающей функцией, т. е. при любом реальном процессе она либо возрастает, либо остается неизменной.
Понятие энтропии, введенной в термодинамику Клаузиусом, носило первоначально искусственный характер. Знаменитый французский ученый А. Пуанкаре писал по этому поводу: "Энтропия представляется несколько таинственной в том смысле, что величина эта недоступна ни одному из наших чувств, хотя и обладает действительным свойством физических величин, потому что по крайней мере в принципе вполне поддается измерению".

По определению Клаузиуса, энтропией называется такая физическая величина, приращение которой S равно количеству тепла Q, полученному системой, деленному на абсолютную температуру

S = Q / T

Если два тела, имеющие разные температуры Т1 и Т2 (Т1>Т2), привести в тепловой контакт, то изменение энтропии этой системы S будет складываться из изменения энтропии первого тела S1 и изменения энтропии второго тела S2: S = S1 + S2. Пусть первое тело, как более горячее, отдает второму небольшое количество тепла Q, тогда S1 = - Q/T1, S2 = Q/T2, S = Q (1/T2 - 1/T1) >0. Таким образом, при перетекании тепла от горячего тела к холодному энтропия системы, действительно, возрастает. "Энтропия является, следовательно, величиной, - продолжает Пуанкаре, - в некотором роде измеряющей эволюцию данной системы или по крайней мере указывающей направление этой эволюции".

Физическая сущность понятия энтропии была вскрыта статистической механикой. Оказалось, что энтропия S - это не что иное, как умноженный на постоянную Больцмана k = 1,38Ч10-23 Дж/К натуральный логарифм вероятности Р данного состояния макроскопической системы


S = k lnP.

При таком определении энтропии становится понятным, что возрастание энтропии замкнутой системы - это всего лишь естественный переход системы в наиболее вероятное состояние. С понятием вероятности состояния, а, следовательно, с энтропией связано представление об упорядоченности системы. Чем больше порядок в системе (например, все молекулы идеального газа находятся в одной точке пространства), тем меньше ее энтропия и меньше вероятность такого состояния. Наоборот, чем меньше упорядочена система - тем больше ее энтропия, больше вероятность такого состояния. Таким образом, статистический смысл второго начала термодинамики заключается в том, что изолированные системы самопроизвольно переходят из упорядоченного в неупорядоченные состояния.

Поделиться:





Воспользуйтесь поиском по сайту:



©2015 - 2024 megalektsii.ru Все авторские права принадлежат авторам лекционных материалов. Обратная связь с нами...