Лауреаты конкурса «Свободный полёт - 2013»

    О фонде  Конкурс Свободный полёт  Конкурс творческих идей  Собрание конкурсных работ  Физика  Математика  Это интересно 

Теория вероятностей и случайные процессы

 

На чисто математическом языке нижеследующее можно было бы изложить более кратко и лаконично. Например, как одну из моделей булевой алгебры. Это был бы строгий и абстрактный подход. Но именно в такой форме теория вероятностей не имеет существенного математического значения. Весь смысл (и в какой-то мере загадка) этой теории в том, что она востребована практикой. Поэтому мы будем сопровождать (или предварять) математические выводы (формализацию исходных понятий, соотношения и пр.) анализом соответствующих явлений в окружающем мире. И в этом плане, прежде всего, попробуем разобраться в том, что мы вкладываем в понятие "случайность".

 

1. Закономерности в случайностях.

 

Неопределенность, незнание чего-то, недостаток информации и т.п. - все это будет иметь место всегда, сколько бы мы не изучали окружающий мир. Из всего того неисчислимого потока информации, исходящей из этого мира, мы воспринимаем (регистрируем, "укладываем" в теории и т.д.) лишь ее малое количество. Конечно, ценность этой информации в среднем намного больше, чем средняя ценность того, что проходит мимо (очевидно, в этом и проявляется суть разума, как способность выделять существенное из моря фактов). Поэтому мы можем с достаточной точностью предсказывать многие явления, результаты экспериментов и пр. Но остаются (и всегда будут оставаться) процессы, теоретическое описание которых будет менее точным, чем точность измерений (наблюдений).

Допустим, что теория предсказывает: в результате опыта некоторая величина будет иметь значение от до . В то же время измерять эту величину мы можем с точностью . Что делает исследователь в таких случаях? Он повторяет этот опыт множество раз и анализирует результаты измерений.

Рассмотрим два крайних варианта. В первом результаты всех опытов с точностью измерения совпадают, например, лежат в пределах от до . Это будет экспериментальный факт. И этот факт есть основание для модификации теории (указанием на недостатки теории).

Во втором варианте результаты измерения разбросаны в пределах, предсказанных теорией. И это принципиально иная ситуация! Дело уже не в теории (что она могла, то она и предсказала). Что-то не учтено или не все известно. А возможно, что все это есть неотъемлемое свойство данного процесса. Как бы то ни было, мы должны допустить, что опыты не были одинаковыми и отличались или внешними, или внутренними факторами (а скорее всего и теми, и другими). Если мы не смогли учесть эти факторы (в силу их незнания или из-за их чрезвычайной сложности), то должны констатировать, что исходы опыта являются случайными. И нам остается с помощью статистического анализа выявить закономерности в разбросе значений измеряемой величины.

Однако не всегда результаты статистического анализа можно считать объективными характеристиками. Рассмотрим простой пример.

Проведена серия опытов, каждый из которых завершался одним из двух исходов. Подсчет показал, что опытов завершились первым исходом, - вторым. Отношения называют относительными частотами реализации исходов в данной серии. Будем считать, что число достаточно большое. Разобьем всю серию опытов на две (или более) части, каждая из которых содержит примерно одинаковое (большое) число опытов. Например, в одной части содержатся опыты с четными номерами, а в другой с нечетными. Допустим, что относительные частоты для одного и того же исхода в разных частях серии существенно отличаются (например, в одной , в другой ). Если это так, то данная серия не может служить предметом статистического анализа (точнее, такой анализ не имеет смысла, так как в последующих сериях мы можем получить совсем иные результаты).

Иное дело, когда частоты в разных подсериях практически совпадают (например, разница меньше ). Тогда эти частоты можно считать объективными характеристиками результатов опыта - вероятностями соответствующих исходов. Такого рода "правильные" серии называют статистическими ансамблями.

Все сказанное относится и к другим опытам, когда результатами анализа могут быть не только частоты, но и другие статистические характеристики.

Итак, мы должны допускать, что случайность в одних обстоятельствах познаваема (с помощью статистических закономерностей), а в других - нет. Ничего удивительного в этом нет, так как речь идет об обстоятельствах, в формировании которых участвуют люди (с ограниченными возможностями, недостаточно информированные, допускающие ошибки и пр.). Если серия опытов оказалась "неправильной", то это означает, что опыт или вся серия не охватывают всю суть случайного. Одни факторы случайности "работают" в каждом опыте, другие проявляются во множестве опытов, о третьих ничего не известно. Это как классификация параметров процесса: одни параметры меняются быстро, другие - медленно, а третьи являются скрытыми.

Важнейшим условием формирования статистического ансамбля является независимость друг от друга опытов в серии. Рассмотрим пример стрельбы по мишени. Если после каждого выстрела стрелок и винтовка "остывают", то каждый выстрел является независимым опытом. Если стрелок без перерыва выстреливает всю обойму, то мы должны допускать возможность связи между результатами выстрелов в этой "минисерии" и считать, что независимым опытом является такой "залп". А теперь представим себе, что в течение всей серии данного дня стрелок после каждого выстрела узнает его результат и соответствующим образом корректирует условия следующего выстрела. Ясно, что такая серия не является статистическим ансамблем. По существу это отдельный опыт. Совокупность таких опытов может представлять статистический ансамбль, если результаты одного дня никак не влияют на результаты других дней.

Очевидно, что в приведенных вариантах случайность предстает в различном сочетании факторов. Кроме того, различаются и варианты представления результатов независимого опыта (одно число, несколько чисел или длинная цепочка упорядоченных чисел).

Особый (по-видимому, присущий только теории вероятностей) смысл имеет такой фактор случайности, как недостаток информации. В качестве иллюстрации рассмотрим конкретный пример.

Пусть в каждом из двух ящиков имеется по шаров - белых и черных. В первом находится белых и черных шаров, а во втором распределение по цвету неизвестно. Опытом (испытанием) является вытаскивание наугад шара из ящика (к следующему испытанию шар кладется обратно). Очевидно, до испытаний мы должны предполагать, что вероятности вытащить белый или черный шары одинаковы для обоих ящиков. При этом мы исходим из того, что априори (до опыта) ни один цвет ничем не выделяется. Однако такой вывод для разных ящиков имеет совершенно различные основания. В первом варианте ящика у нас есть все основания считать белый и черный цвета равноправными. Во втором варианте у нас нет никаких оснований выделять какой-либо цвет. Т.е. в первом варианте равновероятность основана на полном знании исходных данных, а во втором - на полной неопределенности (можно даже не знать, сколько шаров во втором ящике, главное, что они там есть и только двух цветов).

Конечно, указанное различие проявится в результатах испытаний. В серии испытаний с первым ящиком мы уверены, что относительные частоты двух исходов будут практически одинаковыми. Если будет иначе, то или мы ошиблись в подсчете, или серия была "неправильной" (недостаточные перемешивания, какие-то шары "застряли" и т.п.).

Во втором варианте мы должны считать, что, скорее всего, относительные частоты будут разными. Единственное, что мы априори можем утверждать: при достаточно большой серии частоты будут стремиться к какому-либо из значений . Т.е. после такой серии опытов мы с большой степенью достоверности можем сказать, сколько белых и черных шаров во втором ящике. Однако здесь есть один нюанс. Допустим, что серия состояла из испытаний. Если частота выпадения белых шаров равна (белый шар выпал раз), то у нас есть основания считать, что в ящике находится белый и черных шаров. Но то же самое можно сказать, если эта частота равна (белый шар выпал один раз). Последняя ситуация, конечно, маловероятна, но возможна.

Сказать больше о втором ящике можно только "заглянув" в него. Если "краешком глаза", то уточнения будут небольшие. Если рассмотреть все, то можно предсказать частоты. Однако во многих случаях "заглянуть в ящик" невозможно, и только серия опытов может дать информацию о его содержании. Хотя и здесь нужно оговориться: все может зависеть от того, кто "смотрит" или чей "ящик". Т.е. в приложениях теории вероятностей мера случайности может определяться и "человеческим фактором". Поэтому при математизации этой теории мы часто должны будем формализовывать обычные жизненные ситуации так, чтобы словесные описания их имели четкую и логически ясную структуру.

Есть еще один момент, связанный с рассмотрением теории вероятностей как математической концепции. В практике "все может быть". Например, игральная кость может стать на ребро. Однако мы пренебрегаем исходами, вероятность которых настолько мала, что потребуется невообразимое число испытаний, чтобы увидеть один из таких исходов. Поэтому набор возможных исходов на практике неполон (сумма вероятностей не равна единице). В математике такое не допускается. И если строго подходить, например, к бросанию кости, то нужно говорить не о шести исходах, а, по крайней мере, о семи, определив 7-ой исход словом "иное".

 

2. События. Алгебра событий.

 

Если число возможных событий счетно, то их можно нумеровать. Будем обозначать их через так, что есть -ое событие. Исходы несчетного множества будем называть случайными величинами, отображая их точками арифметического пространства. Здесь и ниже набор событий (и операции с ними) привязан к конкретному опыту.

Множество возможных событий называется полным, если в опыте не может свершиться событие, не входящее в это множество. Если в опыте свершается одно и только одно событие из данного множества, то будем называть это множество полным набором элементарных событий.

С помощью логических связок "и", "или" и "не" можно строить составные и противоположные события. Событие , заключающееся в том, что свершается или событие , или событие , будем называть суммой событий и обозначать в виде .

Событие , заключающееся в том, что свершается и событие , и событие , будем называть произведением событий: .

Событием, противоположным событию , будем называть событие , заключающееся в том, что в опыте не свершается событие .

Если опыт всегда заканчивается одним исходом, то будем называть такой исход достоверным событием . Невозможное в данном опыте событие будем обозначать числом . Очевидно, .

Отметим следующие свойства операций с событиями:

Если , то события и называются несовместимыми. При говорят, что свершение события влечет за собой свершение события . Это можно выразить и форме включения: . При этом , где - некоторое несовместимое с событие.

Отметим, что элементарное событие не является составным, а любое событие можно представить суммой элементарных событий.

Проиллюстрируем сказанное на конкретном примере. Пусть в данном опыте (например, при бросании кости) может выпасть одно и только одно из шести чисел . Т.е. имеется полный набор из шести элементарных событий, которые будем обозначать через . Сумму событий будем обозначать, заключая элементарные события-числа в круглые скобки.

Определим следующие события: - выпало простое число; - выпало четное число; - выпало число, большее ; - выпало число, меньшее . Тогда

Отметим, что вместе и каждая из пар составляют полный набор событий, причем лишь последний состоит из несовместимых исходов.

Аналогичный смысл имеют и известные исходы в рулетке (красное, черное, четное, нечетное, сектор и т.д.).

Таким образом, сложение любых двух событий и дает событие, являющееся суммой всех элементарных событий, которые входят или в , или в . А произведение - это сумма всех элементарных событий, которые входят и в , и в . Несовместимые события не содержат общих элементарных событий.

Пусть элементарных событий составляют полный набор. Из них можно образовывать различные составные события, в частности, полные наборы

Имеют место следующие утверждения, касающиеся такого полного набора.

  1. Если , то можно выбрать этот набор таким, что в нем все события будут попарно несовместимыми ( при всех ).
  2. Если , то любой такой набор будет содержать хотя бы одну пару совместимых событий.
  3. Если , то единственным полным набором несовместимых событий будет набор элементарных событий.

Логической связкой "и" определяется также и сочетание событий, когда испытание состоит из нескольких опытов. Например, некоторая величина измеряется в разные времена (в разных местах) или в эксперименте одновременно измеряются несколько физических величин. Отметим, что сочетание событий в корне отличается от произведения событий (хотя их логическое описание одинаково). Сочетаться могут события, связанные с различными наборами элементарных исходов, а умножение определено лишь для событий, составленных из элементарных исходов одного набора. Поэтому порядок расположения событий в сочетании имеет значение.

Будем обозначать через сочетание событий, означающее, что в данном испытании, состоящем из опытов, в 1-ом опыте свершилось событие , во 2-ом - и т.д.. Иногда (особенно, когда речь идет о случайных числах) такое сочетание называют -мерным вектором.

 

3. Вероятности событий.

 

Каждому возможному событию из дискретного множества событий ставится в соответствие некоторое положительное число , называемое вероятностью данного события. При этом постулируется, что вероятность достоверного события равна , вероятность невозможного события равна , а вероятность суммы несовместимых событий равна сумме вероятностей:

Отсюда следуют соотношения:

Чтобы получить прочие общие соотношения, рассмотрим модель, в которой все элементарные события равновероятны (т.е. ни одно событие ничем существенным для данной модели не выделяется). Вероятность каждого такого события равна , где - число всех элементарных событий. Из (1) следует, что вероятность составного события равна

где - число элементарных событий, из которых состоит событие .

Пусть события и содержат по и элементарных событий, а число общих элементарных событий у и равно . Очевидно, что

Так как (4) справедливо для любых , и , то приходим к соотношению для любых событий:

Последовательным образом соотношение (5) обобщается для суммы произвольного числа событий:

где

Отметим, что в (5, 6) события могут являться и сочетанием событий (при этом каждое элементарное событие есть соответствующее сочетание элементарных событий).

Для сочетания событий можно ввести понятие условной вероятности. Допустим, что сочетаются два класса событий. События из первого класса составлены из элементарных событий , а события второго класса - из элементарных событий . Через и обозначим набор всех событий соответственно из первого класса и из второго класса. Вероятность - это вероятность того, что в первом опыте данного испытания свершится событие , а во втором опыте - событие . Тогда

есть вероятности (безусловные) исходов одного опыта независимо от того, чем завершился другой опыт.

Условные вероятности и определяются соотношениями

Например, есть вероятность того, что в первом опыте свершится событие при условии, что во втором опыте свершилось событие .

Если (или ) при всех и , то совместная вероятность

а - события и - события называются независимыми.

Расчет совместных и условных вероятностей можно свести к заданию соответствующих вероятностей для элементарных событий. Обозначим

Выражая события и через суммы элементарных событий

получим

(аналогичные соотношения имеют место для и ).

Если элементарные исходы равновероятны, то

В сущности приведенное выше и есть вся основа теории вероятностей. Если из каких-либо соображений найдены все вероятности, то дальнейший анализ связан с расчетом различных статистических характеристик, имеющих прикладное значение. Подробнее об этом будем говорить ниже, рассматривая множество несчетных событий.

Отметим некоторые особенности вероятностей, связанные со случаями, когда множество элементарных событий является бесконечным (счетным). Понятие равновероятности таких исходов имеет смысл лишь как предельный переход. За исключением этого все вышесказанное применимо к данным случаям без всяких ограничений и уточнений.

Покажем, что на практике из бесконечного числа событий достаточно учесть некоторое конечное число событий. Пусть в некотором испытании возможно бесконечное число элементарных исходов и

Пронумеруем исходы по убыванию вероятностей: при всех . Тогда, учитывая (14), нетрудно доказать, что для любого сколь угодно малого положительного числа найдется конечный номер такой, что

Отсюда и следует, что в практических приложениях всегда можно ограничиться конечным числом исходов, с полным основанием полагая, что вероятностью остальных исходов можно пренебречь.

 

4. Непрерывные случайные величины.

 

Пусть некоторая случайная величина (в общем случае многомерная) может в данном опыте реализоваться в любой точке некоторой области (и более в никакой) арифметического пространства соответствующей размерности. Т.е. все множество элементарных исходов - это несчетное множество точек . Количественное определение вероятности отдельного элементарного исхода теперь теряет смысл. Но в качественном плане можно говорить, например, о равновероятности всех допустимых значений случайной величины и делать из этого количественные выводы.

Допустим, что является двумерной случайной величиной, а - это некоторая область с площадью на плоскости. Если все точки равновероятны, то вероятность того, что значение величины реализуется в некоторой подобласти области , равна

где - площадь области . И наоборот, если для любой подобласти имеет место (16), то это означает, что все точки области являются равновероятными. При других размерностях в сказанном площадь заменяется понятием меры области. Здесь мы видим прямую связь между мерой и вероятностью. Однако если равновероятность не имеет места, то эта связь не столь явная и прямая. Т.е. в общем случае равенство (16) не является корректным.

Чтобы лучше понять определение вероятностей в общем случае, представим, что область заполнена неоднородной средой: в одних местах элементов больше, в других меньше. Это описывается понятием плотности элементов. Каждый элемент можно взаимно однозначным образом отобразить точкой некоторой области . Постулируем, что точки области равновероятны. Тогда вероятности для подобластей этих точек равны аналогично (16) отношениям мер. При переходе к области элементов , это отношение переходит в отношение интегралов по соответствующим областям с учетом плотности элементов.

Итак, в общем случае в области определяется некоторая интегрируемая функция , которую называют плотностью распределения вероятностей (сокращенно - распределение ). Эта функция нормирована, т.е.

и для любой области интеграл

есть вероятность того, что случайная величина реализуется в области .

Если функция непрерывна в окрестности точки , а область сосредоточена в достаточно малой окрестности этой точки, то

где - мера области . В частности, если есть -мерная величина , то выражение

при достаточно малых есть вероятность того, что значения лежат в соответствующих интервалах , .

Следует уточнить, что (18) является вероятностью, когда размерность области равна размерности области . При этом . В противном случае разность может быть отрицательной, и, значит, есть распределение вероятности, а не вероятность в чистом виде. Поясним сказанное на примере. Пусть случайная величина есть сочетание величин и , каждая из которых лежит на отрезке . Тогда интегралы

представляют распределения для соответствующих одномерных величин.

Часто задание области осуществляется вместе с заданием функции распределения . Например,

где , если , и , если не входит в . Учитывая это, ниже, если не заданы пределы интегрирования, они считаются бесконечными.

Если распределение определено для -мерной величины, то интегрируя по одной из компонент, приходим к распределению -мерной величины. Например,

Таким образом, из -мерного распределения можно получить все распределения для величин меньшей размерности.

Условные распределения имеют смысл аналогичный условным вероятностям:

Здесь, например, есть распределение компоненты при условии, что вторая компонента имеет значение .

Из (21) можно получить условные вероятности. Например,

где

является вероятностью того, что при условии, что .

Если

при всех допустимых и , то случайные величины и называются независимыми (не коррелированными).

Из заданного распределения случайной величины можно получать распределение для различных величин, являющихся функциями от . Пусть есть функция, заданная для всех возможных значений величины (причем может иметь меньшую размерность, чем ). Тогда распределение для определяется соотношением

где - дельта-функция Дирака (в общем случае многомерная).

Если случайная величина является дискретной и может реализоваться в значениях с вероятностями соответственно , то ее также можно описывать распределением, используя -функции:

С учетом (25) мы ниже все характеристики будем записывать через интегралы (для дискретных величин интегралы переходят в суммы).

 

5. Средние характеристики случайных величин.

 

Пусть - область возможных значений случайной величины , распределение которой описывается функцией . Средним значением (математическим ожиданием) случайной величины , определяемой функцией , называется интеграл

Приведем важнейшие частные случаи для одномерной величины:

Здесь называют средним значением случайной величины (центром распределения), - дисперсией, причем называют среднеквадратичным отклонением (СКО) случайной величины от ее среднего значения. Если , то .

Средние

называются соответственно начальными и центральными моментами -го порядка. Эти моменты существуют (не расходятся) не для всяких видов распределений. Есть и такие распределения, у которых все моменты расходятся (например, ). Но если существуют все моменты, и ряд

сходится при некотором , то распределение однозначно определяется своими моментами.

Если распределение четное (), то при всех

Для многомерной величины обобщением дисперсии является матрица моментов

При этом есть дисперсия -ой компоненты. Величину при называют корреляционным моментом (ковариацией) случайных величин и . Если все , то отношения

определяют корреляционную матрицу.

Если совокупность есть сочетание независимых случайных величин, то матрица является единичной.

Пусть независимые величины имеют одинаковые распределения. Тогда

Частным случаем (32) является распределение результатов испытания, которое состоит из одинаковых и независимых друг от друга опытов. В такой серии опытов обычно полагают, что арифметическое среднее

при достаточно больших можно считать средним значением случайной величины, реализующейся в опыте. Насколько это оправдано показывают так называемые предельные теоремы.

Итак, пусть (32) есть распределение совокупности независимых случайных величин. Рассмотрим случайную величину

Если имеет конечные среднее и дисперсию , то

Т.е. при величина , где . Это так называемый закон больших чисел, который в нашем случае можно сформулировать в виде предельного соотношения

где - распределение случайной величины :

Соотношения (34) показывают, что статистическое среднее (33) можно считать средним по вероятности с точностью величин порядка . О том, как распределяется с ростом случайная величина говорит центральная предельная теорема. Согласно ей это распределение при достаточно больших можно аппроксимировать гауссовским распределением

Аппроксимация в данном случае означает, что для любого сколь угодно большого можно указать такое, что (37) будет иметь место для всех с заданной точностью при .

Сказанное можно усилить, если у распределения все центральные моменты ограничены. В этом случае для распределения величины

имеет место предел

Так как , аппроксимация (37) при существовании всех моментов справедлива без ограничения на область изменения : для любого сколь угодно малого , можно найти число такое, что при всех разность правой и левой частей (37) будет по модулю меньшей .

Гауссовское распределение в (39) часто называют нормальным распределением, подчеркивая то, что во многих случаях распределение статистической суммы случайных величин близко к нему.

Отметим еще одну особенность гауссовского распределения. Энтропией распределения (мерой неопределенности величины ) называют интеграл

Объединим в один класс все распределения (одномерные) с одной и той же дисперсией. И вот в этом классе нормальное распределение приводит к наименьшей энтропии.

Из распределений, для которых вышесказанное не корректно (расходится дисперсия), отметим следующее

Для любого , подставляя в (36) распределение (41), получим:

Т.е. распределение среднего арифметического совпадает с (41). Более того, можно доказать, что (42) имеет место для любой суммы вида

где

 

6. Определение случайных процессов.

 

Если некоторая физическая величина меняется со временем, то в таком изменении практически всегда есть случайная составляющая. В одних процессах эта составляющая пренебрежимо мала, и такие процессы называют детерминированными. В других эта составляющая заметна и часто представляет всю суть процесса.

Основной смысл случайного процесса (случайной функции) заключается в том, что в каждый момент значение функции является случайной величиной. Однако задание распределений для каждого момента времени недостаточно для полного определения случайного процесса.

Пусть случайный процесс задан (исследуется) на отрезке времен , и требуется дать такое определение этого процесса, чтобы оно охватывало всевозможные свойства процесса. С этой целью введем понятие дискретной выборки процесса, являющейся набором значений функции для некоторой последовательности времен:

Сочетание выборок есть -мерная случайная величина.

Будем говорить, что процесс определен полностью, если для любой выборки (44) при любых можно задать распределение такое, что

есть вероятность того, что случайные величины лежат в пределах

(предполагается, что достаточно малы).

Причем эти распределения должны обладать следующими свойствами

Ясно, что не для всякого случайного процесса можно задать (или указать метод нахождения) распределение любой выборки. Редким исключением, в котором это можно сделать, является параметрический случайный процесс, когда задается детерминированной функцией , зависящей от случайного параметра . Достаточно задать распределение параметра , и для любой выборки имеем

Возникает вопрос: как исследовать процессы, которые нельзя задать в полном объеме? Ответ лежит в практической плоскости. Во-первых, отрезок времени на практике ограничен, а разности не могут быть сколь угодно малыми, так как всякое измерение "расплывается" во времени. Т.е. число не может быть сколь угодно большим. Во-вторых, основной объем информации о статистических свойствах процесса представляют распределения низших порядков. Очень часто достаточно знать и .

Если рассматриваются совместно несколько случайных процессов, то задается распределение соответствующего числа выборок. Например, для двух процессов и (45) обобщается в виде

причем наборы и могут принадлежать разным отрезкам времен.

Условные распределения определяются так же, как в (21, 22). Например,

есть вероятность того, что при условии, что . Для непрерывных процессов имеет место предел

При рассмотрении двух процессов аналогом (48) будет

Определение средних значений по вероятностям отличается от (27-30) лишь тем, что индекс "" заменяется непрерывной величиной ; т.е. результаты являются функциями времен:

Если существует предел

то процесс называют непрерывным в среднеквадратичном смысле. Иногда используют нормированные функции .

При совместном рассмотрении нескольких процессов к характеристикам (51), относящимся к отдельным процессам, добавляются смешанные средние. Для двух процессов и определяется взаимная корреляционная функция

При этом функции , данные в (51), называют автокорреляционными. Далее мы будем говорить только о функции (и называть ее просто корреляционной), подразумевая, что все операции с ней имеют смысл и для взаимной корреляционной функции.

 

7. Стационарные случайные процессы.

 

Как показывает практика, во многих случайных процессах основную информацию о стохастичности несет в себе корреляционная функция . Ход процесса в среднем не вносит какие-либо существенные коррективы в анализ. Можно даже считать, что два процесса, отличающие только такими средними, являются одним и тем же процессом со сдвинутыми относительно друг друга центрами распределений. Полагая, что , мы всегда можем перейти к "сдвинутому" процессу , где - детерминированная функция, сохраняя при этом все свойства центральных моментов. Поэтому ниже, определяя понятие стационарности, мы будем обходить вопрос о стационарности среднего хода процесса.

Случайный процесс называют стационарным, если все его конечномерные распределения не зависят от сдвига по времени. В более широком плане стационарность определяется условием

(нормированная корреляционная функция имеет вид ).

Несколько процессов называют совместно стационарными, если свойство инвариантности относительно сдвига по времени имеет место для совместных распределений.

Важной характеристикой стационарного процесса является спектральная плотность , определяемая фурье-преобразованием:

При значение представляет интенсивность случайного процесса. В общем случае с точностью до множителя можно считать энергией (или мощностью) стохастической составляющей процесса. При этом из (54) следует, что функция есть спектральная плотность этой энергии.

В спектральном разложении процесса

случайная функция является комплексной величиной. Если вещественная функция, то (знак "" означает комплексное сопряжение).

Для стационарного процесса при имеем

Строго говоря, определение стационарности предполагает, что процесс неограничен во времени в обе стороны. Только в этом случае спектр рассчитывается точно:

В действительности стационарность имеет место с той или иной точностью в ограниченных интервалах времени. Не ограничивая общность, определим интервал стационарности симметричным относительно нуля: . Тогда "наблюдаемый" спектр (т.е. тот, который мы можем рассчитать) является сглаженным:

и будет близким к истинному при достаточно больших , когда

Далее, когда будем считать , нужно иметь это в виду. Так при усреднении по времени

физической интерпретацией будет то, что значение настолько велико, что приращение частоты меньше или порядка несущественно для спектра функции .

Усреднение по времени является эффективным инструментом анализа эргодических процессов.

Стационарный процесс называется эргодическим, если для любой функции

среднее по времени с вероятностью единица совпадает со средним по вероятностям (или по множеству испытаний):

В частности, корреляционная функция

при ; причем

В эргодических процессах достаточно плотная и длинная выборка

может с заданной точностью представлять этот процесс. Обычно выборку производят с постоянным шагом: при всех .

При дискретизации процесса с постоянным шагом в ограниченном интервале наблюдаемый (измеряемый) спектр деформируется двояким образом. Во-первых, как было указано выше, истинный спектр сглаживается в интервалах частот . Во-вторых, дискретизация "обрезает" высокие частоты большие (точнее говоря, в общем случае при наблюдаемый спектр может существенно отличаться от истинного).

Если истинный спектр процесса имеет ограниченную полосу частот, т.е. при , то этот процесс может быть представлен в виде (теорема Котельникова)

Таким образом, процесс с ограниченным спектром однозначно определяется некоторой бесконечной дискретной выборкой.

Отметим, что при дискретизации с шагом корреляционная функция (53) переходит в корреляционную матрицу с элементами

В заключение рассмотрим некоторые специальные виды процессов.

В простейших вариантах процесс задается функцией со случайными параметрами. Для исследования таких процессов достаточно знать функции распределения параметров.

Случайный процесс характеризуют порядком , если он полностью определяется функцией распределения . Особое место занимают процессы второго порядка.

Гауссовский процесс отличается тем, что распределения для любой выборки являются нормальными:

здесь - матрица, обратная матрице . Как видим, для определения (65) при произвольных достаточно задать распределение второго порядка , где и пробегают всевозможные допустимые значения.

Второй порядок имеет также и марковский процесс, в котором условное распределение значения зависит только от значения :

Т.е. марковский процесс полностью определяется распределениями и .

Содержание