ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ...
Transcript of ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ...
Ё. И. Гурский
ТЕОРИЯ ВЕРОЯТНОСТЕЙ
С ЭЛЕМЕНТАМИ МАТЕМАТИЧЕСКОЙ
СТАТИСТИКИ
Д о п у щ е н о Министерством вы сш е го и среднего специального о б р а зо в а н и я С С С Р
в качестве уч е б н о го пособия д л я студентов вы сш и х технических
у ч еб н ы х завед ен ий
И З Д А Т Е Л Ь С Т В О « З ЫС ША Я ШК О Л А » М О С К В А - 1971
517 8Г 95У Д К 519.2
Гурский Е. И.Г 95 Теория вероятностей с элементами матем ати
ческой статистики. Учеб. пособие для втузов. М., «Высшая школа», 1971.
328 с. с илл.
В настоящем пособии содерж ится изложение курса теории вероятностей, а такж е элементов теории случайных функций и математической статистики. Помимо теоретического материала, в книге имеется большое количество примеров. Кроме того, в конце к аж дой главы предлагаются вопросы для самопроверки и задачи.
Предназначается для студентов высших т е х нических учебных заведений.
2-2-3 • 517.8
42-71
Г у р с к и й Евгений Иванович
ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИМАТЕМАТИЧЕСКОЙ СТАТИСТИКИ
Редактор Д. М. С у х о д с к н йХудожественный редактор В. И П о н о м а р е н к о Художник В В. III л я н д и н Технический редактор Л. Д. М у р а в ь е в а Корректор Н. С, Л о г у н о в а
Сдано в набор 15/IX 197П г. ГІодп. к печати 0/11 1971 г. Формат 8}XIОх1/:;. Объем 10.L'5 печ. л. 17._>J уел. н. ;i. Уч.- изд. л. 15,29. Изд. .V* ФМ-458. Тираж 50 000 экз. Ззк. 1331.
Иона 59 коп.План выпуска литературы издательства «Высшая
школа» (вузы л тіуушкуми) на 1071 год. Позиция X* -!2. • Москва.“ jv5r. ’Пёглинная ул.. д. 20/14.
/UMJtefiLCTBiAVВысшая Школа»
Ордена трудового Красного Знамени Ленинградская типография № 1 «Печатный , Диор» нм. Д. М. Горького Главполнграфпромэ Комитете но печати при Совете Министров СССР, г, Ленинград, Гатчинская ул., 26.
Предисловие
Настоящее учебное пособие возникло на основе курса теории вероятностей, читавшегося автором в течение ряда, лет слушателям Минского высшего инженерного радиотехнического училища, а также учебного пособия по некоторым разделам этого курса, изданного училищем ограниченным тиражом в 1966 г.
Книга предназначается для лиц, знакомых с математикой в объеме обычного курса высших технических учебных з а ведений. Она является пособием для студентов втузов при изучении вопросов теории вероятностей, элементов теории случайных функций и математической статистики, предусмотренных программами высших технических учебных заведений.
Кроме теоретического материала, в конце каждой главы имеются подробно составленные вопросы и предложения для самопроверки, а также приводится достаточное количество задач по каждому разделу курса, что в значительной мере исключает использование зад ач ника и способствует усвоению излагаемого материала.
Автор выражает глубокую благодарность рецензентам книги академику Б. В. Гнеденко, доценту Р. Я. Шостаку, доценту А. И. Сироте и ст. преподавателю К. Ш. Ярошевской, прочитавшим рукопись и сделавшим ряд полезных з а мечаний.
Лото/)
1*
В В Е Д Е Н И Е
В научных исследованиях, технике и массовом производстве часто приходится встречаться с явлениями, которые при неоднократном воспроизведении одного и того же опыта в неизменных условиях протекают каждый раз несколько по-ипому. Такие явления называются случайными. Так, например, при стрельбе результат каждого отдельного выстрела будет случайным. Производя экспериментальное исследование какого-либо явления и систематизируя результаты исследования в виде графической зависимости, мы убеждаемся в том, что при достаточно большом количестве экспериментальных точек получается не кривая, а некоторая полоса, т. е. имеет место случайный разброс экспериментальных точек.
При решении многих практических задач этими случайными отклонениями можно пренебречь, предполагая, что в данных условиях опыта явление протекает вполне определенно. Выявляется основная закономерность, свойственная данному явлению, по которой, применяя тот или иной математический аппарат, возможно предсказать результат опыта по его заданным условиям.
По мере развития многих отраслей науки становится необходимым изучать случайные явления, с тем чтобы научиться предвидеть действия случайных факторов и учитывать их в практическом решении задач.
Математическая наука, изучающая общие закономерности случайных явлений независимо от их конкретной природы и дающая методы количественной оценки влияния случайных факторов на различные явления, называется теорией вероятностей.
Основой научного исследования в теории вероятностей является опыт и наблюдение. На практике очень часто приходится иметь дело с различными опытами. Опыты могут давать различные результаты в зависимости от того комплекса условий, в которых они происходят. Результаты опыта можно характеризовать качественно и количественно. Качественная характеристика результата опыта есть событие. Например, появление на выходе приемника
радиопомехи в некотором определенном интервале времени является событием. Попадаппе в цель при выстреле является тоже событием. То, что при изменении некоторой величины получена величина меньше некоторого числа а, является событием и т. д.
Количественная характеристика результата опыта, которая может принимать одно из ряда возможных значений, заранее неизвестно какое именно, называется слу ч аи 11 ой величиной.
Случайные величины могут иметь различный характер. Так, например, можно рассматривать скалярные случайные величины, случайные векторы, случайные функции и т. д. Каждое возможное значение скалярной случайной величины есть число. Каждое возможное значение случайного вектора есть вектор, который характеризуется совокупностью соответствующего количества чисел (системы случайных величин). Каждое возможное значение случайной функции представляет собой некоторую конкретную функцию, которая называется реализацией случайной функции. Примерами скалярных случайных величин могут служить ошибки измерения длины, веса и т. д. Примерами случайных векторов могут служить совокупности ошибок совместного измерения нескольких постоянных скалярных величин. Примерами Случайных функций времени являются помехи, которые будут поступать в приемник радиоканала вместе с полезным сигналом.
Методы теории вероятностей широко применяются в различных отраслях естествознания и техники. Автоматическое управление производственными процессами, создание автоматических радиолокационных станций п автоматических математических машин, проблема автоматического управления полетом самолетов и другие технические проблемы автоматики и телемеханики вызвали бурное развитие теории автоматического регулирования как теоретической основы автоматики и телемеханики. Но теория автоматического регулирования не могла достаточно полно охватить процесс работы автоматических систем без использования вероятностных методов (особенно теории случайных функций), так как в любой автоматической системе имеются источники постоянно действующих случайных возмущений, которые оказывают существенное влияние на весь процесс работы системы.
5
Теория вероятностей служит также для обоснования математической и прикладной статистики, которая в свою очередь используется при планировании и организации производства, при анализе технологических процессов, при оценке качества продукции и для многих других целей.
Первые работы, в которых зарождались основные понятия теории вероятностей, были связаны с исследованием правил для азартных игр. Работы Паскаля, Ферма и Гюйгенса в середине XVII века являлись основой и началом теории вероятностей.
Дальнейшее развитие теории вероятностей связано с именем Якова Бернулли. Яков Бернулли во второй половине XVII века впервые показал, что с увеличением числа испытаний частота какого-либо случайного события приобретает устойчивость и определенным образом приближается к некоторому безразмерному числу, которое объективно отражает возможность появления этого события и называется вероятностью.
Математик Муавр в начале XVIII века впервые рассмотрел простейший случай нормального закона, который в настоящее время имеет широкое применение.
Большое значение в развитии теории вероятностен имели работы таких математиков, как Лаплас, Гаусс и Пуассон, которые жили в первой полов-ине XIX века. Лаплас впервые дал стройное и систематическое изложение основ теории вероятностей, дал доказательство одной из форм центральной предельной теоремы. Гаусс дал более общее обоснование нормальному закону и разработал метод обработки экспериментальных данных. С именем Пуассона связан один из законов распределения, который играет большую роль в теории вероятностей и ее приложениях.
В XIX веке вопросами теории вероятностей стали заниматься выдающиеся русские ученые: П. Л. Чебышев и его ученики А. А. Марков и А. М. Ляпунов. Создалась так называемая Петербургская школа теории вероятностей. П. Л. Чебышев ввел в теорию вероятностей понятие случайной величины и метод моментов, что привело к созданию мощного современного аппарата теории вероятностей. А. А. Марков в своих трудах существенно расширил область применения закона больших чисел и центральной предельной теоремы. Очень важной заслугой А. А. Маркова является то, что он в своих трудах
б
положил основу для новой области теории вероятностей— теории случайных процессов. А. М. Ляпунов известен своим доказательством так называемой центральной предельной теоремы п разработкой метода характе- р 11 сти чес к и х фу н к ц и й .
Советская школа теории вероятностей занимает в мировой науке ведущее место. Среди многих ученых — виднейших математиков нашей страны, занимавшихся разработкой вопросов теории вероятностей, необходимо отметить С. Н. Бернштейна, А. Я- Хинчнна, А. Ы. Колмогорова, В. И. Романовского, Б. В. Гнеденко, В. С. Пугачева.
С. Н. Бернштейн разработал первую закопченную аксиоматику теории вероятностей н существенно расширил область применения предельных теорем.
A. Я- Хинчпн известен своими исследованиями в области стационарных случайных процессов, предельных теорем теории вероятностей.
Особое значение в развитии теории вероятностей и математической статистики имеют работы А. Ы. Колмогорова. Он дал наиболее совершенное аксиоматическое построение теории вероятностей. Работы А. Н. Колмогорова в области теории случайных функций являются основой всех исследований в данной области.
B. И. Романовский известен своими работами в области математической статистики; Б. В. Гнеденко — исследованиями в области предельных теорем теории вероятностей, теории массового обслуживания и теории надежности. В. С. Пугачев разработал ряд общих методов в теории случайных функций п применении этих методов при исследовании динамических систем.
ОПРЕДЕЛЕНИЕ ВЕРОЯТНОСТИ И ОСНОВНЫЕ ПРАВИЛА ЕЕ ВЫЧИСЛЕНИЯ
§ 1.1. СЛУЧАЙНЫЕ СОБЫТИЯ. КЛАССИФИКАЦИЯ СОБЫТИЙ
В основе теории вероятностен, как и в основе любой другой науки, лежат некоторые определения, начальные понятия. При помощи этих понятий дается логическое определение последующих более сложных понятий.
В качестве одного из основных понятии, которым оперирует теория вероятностей, является событие.
Событием в теории вероятностей называется всякий факт, который может произойти в результате некоторого опыта (испытания).
Примерами событий могут служить:1. Попадание в цель при выстреле из орудия (опыт —
произведение выстрела, событие — попадание в цель).2. Выпадание двух гербов при трехкратном бросании
монеты (опыт — трехкратное бросание монеты, событие — выпадание двух гербов).
3. Появление ошибки измерения в заданных пределах при измерении дальности до цели (опыт — измерение дальности, событие— ошибка измерения).
События принято обозначать большими буквами латинского алфавита. Например, событие А — попадание в цель при выстреле, событие В — принятие сигнала радиостанцией при наличии помех и т. д.
Различные события отличаются между собой по степени возможности их появления и по характеру взаимосвязи. Д ля правильной ориентировки в теоремах теории вероятностей необходимо разобраться в существующей классификации событий.
Если при всех опытах (испытаниях) рассматриваемое событие всегда наступает, то оно называется достоверным. Например, при взрыве осколочного снаряда достоверное событие — разрушение оболочки; при сбрасывании бомбы с самолета достоверное событие — падение бомбы па поверхность земли и т. д.
Если при всех опытах рассматриваемое событие никогда не наступает, то оно называется невозможным. Например, при отсутствии тока в электрической цепи невозможное событие — загорание лампочки; при подбрасывании игральной кости невозможное событие — одновременное выпадание 2 и 3 очков и т. д.
Возможным, или случайным, событием называется событие, которое в результате опыта может появиться, по может и не появиться. Например, попадание в цель при выстреле, выигрыш па купленный билет лотереи и т. д.
Два или несколько случайных событий называются равновозможными, если условия их появления одинаковы н нет оснований утверждать, что какое-либо из них в результате опыта имеет больше шансов появиться, чем другое. Например, выпадание любого количества очков от- единицы до шести при подбрасывании игральной кости; выпадание герба и выпадание цифры при подбрасывании монеты п т. д.
Два события А н В называются совместными, если появление одного нз них не исключает появление другого. Например, подбрасываются две игральные кости. Событие А — выпадание 3 очков на первой игральной кости, событие В — 'выпадание 3 очков па второй кости. А и В — совместные события.
Два события А н В называются несовместными, если появление одного из них исключает появление другого. Например, в магазин поступила партия обуви одного фасона и размера, но разного цвета. Событие А — наудачу взятая коробка окажется с обувыо черного цвета, событие В — коробка окажется с обувью коричневого цвета. А и В — несовместные события.
Группа событий Ль A S, . . . ,A „ называется группой несовместных событий, если события, входящие в группу, попарно несовместны. Например, производится выстрел но мишени. /It — попадание в десятку, Л о— попадание в восьмерку, Л;, — попадание в шестерку, А г — попадание в четверку, Л5— попадание в двойку, Лс— промах. А\, А іг А;и А .ь А и, Л0 образуют группу несовместных событий.
Группа событий называется группой совместных событий, если совместны хотя бы два события нз этой группы. Например, производится три выстрела по мишени. А ( — п опадани е 'в мншеиь при первом выстреле, Ла— попадание в мншеиь при втором выстреле н Л 3 —
9
попадание в мишень при третьем выстреле. А и А іу А 3 образуют группу совместных событий.
•Несколько событий образуют полную группу, если в результате опыта обязательно наступает хотя бы одно из них. На практике широкое применение находит полная группа несовместных событий.
Пример 1. В урне находится 10 шаров, из них 6 шаров красных, 4 белых, причем 5 шаров имеют номера. А — появление красного шара при одном вынимании, В — появление белого шара, С — появление шара с номером. События А , В, С образуют полную группу совместных событий.
Пример 2. По цели производится три выстрела. Пусть А обозначает промах, В - одно попадание, С — два попадания н D — три попадания. События А, В, С и D образуют полную группу несовместных событий.
На практике часто интересуются наступлением двух несовместных событий, образующих полную группу. Такие события называются противоположными. Событие, противоположное событию А, принято обозначать через А. Например, искажение /1 п неискажение А какого-либо зпака_ при телеграфной передаче, попадание В и промах В при выстреле по цели и т. д.
§ 1.2. СУММА И ПРОИЗВЕДЕНИЕ СОБЫТИЙ
При разработке аппарата и методики исследования случайных событий в теории вероятностей очень важ ным понятием является понятие суммы и произведения событий.
Суммой, или объединением, нескольких событий называется событие, состоящее в наступлении хотя бы одного из этих событий.
Сумма S событий /1, В, С, . . . , N обозначается так:5 = /1 -{- Д С N .
Например, если событие /1 есть попадание в цель при первом выстреле, событие В — попадание в цель при втором выстреле, то событие
С = А - \-В
есть попадание в цель вообще, безразлично, при каком выстреле— при первом, при втором или при обоих вместе.
Ю
Произведением, или совмещением, нескольких событий называется событие, состоящее в совместном появлении всех этих событий.
Произведение 5 событии А, В , С, . . . , N обозначается так:
S = A B C . . . N .
Например, если событие А есть попадание в цель при первом выстреле, событие В — попадание в цель при втором выстреле, то событие
С = А В
состоит в том, что в цель попали при обоих выстрелах.При решении различных задач, связанных с событи
ями, очень часто приходится представлять сложные события в виде комбинации более простых событий, применяя операцию сложения и операцию умножения событий.
Например, пусть по мишени производится три выстрела и рассматриваются следующие простейшие события:
А {— попадание при первом выстреле;А I — промах при первом выстреле;А -2 — попадание при втором выстреле;А >— промах при втором выстреле;А-л — попадание при третьем выстреле;А л — промах при третьем выстреле.Рассмотрим сложное событие В, состоящее в том,
что в результате трех выстрелов будет ровно одно попадай не в мишень. Событие В можно представить в виде следующей комбинации простейших событий:
В = А 1А л А ц —11- А | А п А з —}— Л 1 /12 А .
Событие С, состоящее в том, что в мишень будет не менее двух попаданий, может быть представлено в виде
С = А\А-2уТл -[- А\ А ■> А ;(-j- A j А -’/1 a -j- А \А.>А,\.
Непосредственно из определения суммы и произведения событий следует, что
A -j- А = А ,А А = Л .
В некоторых случаях можно наблюдать, что наступление одного события В влечет за собой наступление
11
другого события А. Тогда говорят, что событие В содержится в событии А и обозначают это символом
Легко проверить, что если событие В содержалось в событии А, то имеют-место следующие равенства:
А - \ - В = А,АВ — В.
Понятия суммы и - произведения событий имеют наглядную геометрическую интерпретацию. Действительно,
пусть событие А есть попадание точки в область А, соответственно событие В — попадание в область В, тогда событие А - \ - В есть попадание точки в область, заштрихованную на рис. 1, и событие АВ есть попадание точки в область, заштрихованную на рис. 2.
§ 1.3. ЧАСТОТА СОБЫТИЯ И ЕЕ СВОЙСТВА
Пусть произведена серия пз п опытов (испытаний), в каждом нз которых могло появиться пли не появиться некоторое событие А.
Частотой события А п данной серии испытаний называется отношение числа испытаний, в которых появилось событие, к числу всех испытаний.
Обозначая частоту события А через Р * (Л), имеем по определению:
где т — число испытаний, в которых появилось событие А, а п — общее число испытаний.
В а А (В содержится в А).
Рис. 1 Рис. 2
12
Пример. Д ля контроля качества изделий нз партии . наугад выбрано 100 изделий, среди которых 3 изделия
оказались бракованными. Определить частоту брака.Р е ш е н и е . Обозначая через А событие, состоящее
в получении бракованного изделия, будем иметь: т — 3,/г = 100. Частота брака Р* (Л) — - ^ = 0,03.
Рассмотрим свойства частоты.С в о й с т в о 1. Частота случайного события А есть
неотрицательное число, заключенное между нулем и единицей, т. е.
0 ^ Р * ( А ) ^ 1.
Действительно, случайное событие А в серии из п опытов может наступать от 0 до п раз, т. е.
0 ш ^ п.
Следовательно, частота события А Р * ( А ) ~ — есть неотрицательное число, заключенное между нулем и единицей.
С в о й с т в о 2. Частота достоверного события равна единице.
Эго свойство вытекает из того, что достоверное событие А наступает при каждом испытании, т е. т — п. Поэтому
Р* (Л) = - = - = 1.х ' п II
С в о й с т в о 3. Частота невозможного события равна нулю.
В самом деле, при повторении опытов невозможное событие ни разу не наступает, т. е. т = 0. Тогда
Р* (А) = ~ = - = 0.' ’ п п
Мы рассмотрели свойства частоты одного события, но па практике могут иметь место случаи, когда в серии из п опытов наступает не одно событие, а несколько событий, которые находятся в каком-либо отношении друг с другом.
Если при повторении опыта может появиться либо событие А, либо событие В, то имеет место следующее свойство частоты, которое называется правилом сложения частот.
13
С в о й с т в о 4. Частота суммы двух несовместных событий А и В равна сумме частот этих событий:
р * (А + В) = Р * (А ) - \ - Р * (В). (1.1)
Д о к а з а т е л ь с т в о . Пусть в результате серии из п опытов событие А появилось т раз, а событие В — k раз. Это значит, что
P*(A) = j , Р * ( В ) = ~ .
Так как события А и В несовместны, то нет таких опытов, в которых события А и В появились вместе. Поэтому из определения суммы событий следует, что событие А В появилось m -\- k раз, и, следовательно,
Р * ( А -]-В) = ' ^ ~ - .
Подставляя полученные выражения Р* (А), Р* (В) и Р * ( А ~ Г В) в формулу (1.1), получим тождество. Свойство доказано.
Рассмотрим теперь появление двух совместных событий А и В в результате повторения опыта. В этом случае мы можем подсчитать ряд частот. Так, например:
1) частоту события А безотносительно к наступлению события В\
2) частоту события В безотносительно к наступлению события /1;
3) частоту произведения событий А и В\4) частоту наступления события А при условии на
ступления события В или частоту события В при условии наступления события /1.
Частоту одного события, вычисленную при условии наступления другого события, называют условной частотой и обозначают
Р* (Л \В), Р * ( В \ А ) .
Д ля совместных событий имеет место следующее свойство частоты, которое называется правилом умножения частот.
С в о й с т в о 5. Частота произведения двух событий равна произведению частоты одного из них на условную частоту другого
Р* (АВ) = Р* (Л) Р* (.В \ А ) = Р« (В ) Р * (A j В). (1.2)
Д о к а з а т е л ь с т в о . Пусть в результате серии из п опытов событие А появилось т раз и событие В — k раз, причем I раз события А и В появились вместе. Тогда
Р * ( А ) = %, Р * (В ) = | , p * ( A B ) = L .
Так как событие А появилось в т опытах и в / из этих т опытов появилось вместе с ним событие В, то условная частота события В при условии, что событие А
Iимело место, равно —, т. е.
Р* (В ,А ) =Аналогично
p * ( A \ B ) = L .
Подставляя выражения Р* (А В ), Р* (Л), Р * (В), Р * ( В \ А ) и Р * ( А \ В ) в формулу (1.2), получим тождество. Свойство доказано.
§ 1.4. ВЕРОЯТНОСТЬ СОБЫТИЯ
Частоту события можно определить только после проведения опытов, н в различных сериях опытов при одних и тех же условиях частота события не остается постоянной. Поэтому понятие частоты является плохой характеристикой события. Однако по мере увеличения числа испытаний, частота постепенно стабилизируется, т. е. принимает значения, мало отличающиеся от некоторого вполне определенного числа. Таким образом, с рассматриваемым событием можно связать некоторую постоянную величину, около которой группируются частоты и которая является характеристикой объективной связи между комплексом условий, при котором производятся опыты, и событием. Эта постоянная величина называется вероятностью события.
Итак, вероятностью случайного события называется постоянное число, около которого группируются частоты этого события по мере увеличения числа испытаний.
Это определение вероятности называется статистическим. Вероятность события А принято обозначать Р (/1). Если речь не идет о каком-нибудь конкретном событии, то вероятность будем обозначать просто через Р или р.
15
Статистический способ определения вероятности имеет то преимущество, что он опирается на реальный эксперимент. Однако он имеет тот существенный недостаток, что для надежного определения вероятности необходимо проделать большое число опытов, которые очень часто связаны с материальными затратами.
То, что каждое массовое случайное событие имеет свою вероятность, является опытным фактором и подтверждает существование статистических закономерностей в природе.
Иногда из соображений симметрии вероятность события может быть определена непосредственно. Например, при бросании монеты вероятность появления герба
равна у , так как при большом числе опытов следуетожидать появление герба примерно в половине всех случаев.
Статистическое определение вероятности события хотя и достаточно полно выявляет содержание этого понятия, но не дает возможности фактического вычисления вероятности, т. е. не является рабочим определением. Поэтому рассмотрим другое, так называемое классическое определение вероятности события.
Классический способ определения вероятности основан на понятии равновозможных событий, которые яв ляются исходом данного опыта и образуют полную группу несовместных событий.
В § 1.1 мы дали определение равновозможных событий и привели несколько примеров. Наиболее простым примером равновозможных и несовместных событий, образующих полную группу, является появление того или иного шара из урны, содержащей несколько одинаковых по размеру, весу и другим осязаемым признакам шаров, тщательно перемешанных перед выниманием.
Поэтому об испытании, исходы которого образуют полную группу несовместных и равповозможных событий, говорят, что оно сводится к схеме урн. Так, например, испытание с подбрасыванием монеты сводится к схеме .урны, содержащей два шара; испытание с подбрасыванием игральной кости сводится к схеме урны, содержащей шесть шаров, и т. д.
Равновозможные и несовместные события, составляющие полную группу, будем называть просто случаями или шансами. По отношению к каждому событию слу-
16
чан (шансы) делятся на благоприятные, при которых это событие происходит, и неблагоприятные, при которых это событие не происходит. Например, при подбрасывании игральной кости событию появления четного числа очков благоприятствуют три случая (2, 4, 6 очков) и не благоприятствуют также три случая (1, 3, 5 очков).
Эти вспомогательные понятия позволяют теперь дать другое определение вероятности появления события.
Вероятностью появления некоторого события называется отношение числа случаев, благоприятствующих появлению этого события, к общему числу равновозможных в данном опыте случаев.
Такое определение называется классическим определением, так как оно являлось определением понятия вероятности в начальный период развития теории вероятностей. Важным достоинством этого способа определения вероятности является то, что с его помощью вероятность события можно определить до опыта и заранее сделать для себя выводы. Однако этот способ имеет тот существенный недостаток, что он применим только тогда, когда мы имеем дело с равновозможными исходами испытания.
Обозначая число случаев, благоприятствующих событию А, через т и общее число равновозможных случаев через я, данное классическое определение вероятности можем записать в виде формулы
Рассмотрим примеры решения задач с применением формулы (1-3).
Пример 1. Найти вероятность того, что при бросании игральной кости выпадет число очков, делящееся на 2.
Р е ш е н и е . Обозначим через А выпадание числа очков, делящегося на 2. Число всех равновозможиых случаев п = 6. Число благоприятствующих случаев т — 3 (выпадание 2, 4 и 6 очков). Поэтому
Пример 2. В урне находится 15 шаров, из них 9 красных п 6 синих. Найти вероятность того, что вынутые наугад два шара оба окажутся .красными.
Р е ш е н и е . В данном примере общее число равновозможных случаев равно числу сочетаний из всего числа
(1.3)
г, 0 17
шаров по два (/г = С^), поскольку любые два шара из пятнадцати могут быть вынуты с равными шансами. Следовательно,
/~>2 /4 J Г. JO* М I А-tl = Cj3 = — = j 2 ~
Обозначим через А событие, состоящее в появлении двух красных шаров; тогда число случаев, благоприятствующих событию А, равно числу сочетаний из числа красных шаров по два. Поэтому
~ 0-8 ОР т = С‘9 — — = 36.
Следовательно,Р ( Л ) = “ = З б 12
' ' ti I Оэ Зо
Пример 3. В партии из N изделий имеются М бракованных. Из партии выбирается наугад п изделий. Определить вероятность того, что среди этих п изделий будет ровно т бракованных.
Р е ш е и и е. Из условия задачи следует, что М ^ N и т ^ п . Так как любая комбинация из N по п изделий имеет одинаковую возможность появления, то всех равновозможных случаев будет С’у. Обозначим через А появление т бракованных изделий среди выбранных наугад п изделий. Так как всех бракованных изделий М, то число способов, которыми можно вынуть т бракованных изделий, равно С,” . Но каждый нз этих способов может дополняться любой группой изделий из числа способов, которыми можно вынуть оставшиеся п — т годных из общего числа годных N — М изделий. Число таких групп равно СдСл,. Следовательно, всех случаев, благоприятствующих появлению события А, равно
С ГП /-*П — ТПм • Сд'—ЛЬПоэтому
г'Ш /^и — т 'М • ь Лг _ мР (А) =
§ 1.5. ГЕОМЕТРИЧЕСКАЯ ВЕРОЯТНОСТЬ
В классическом определении вероятности рассматривается полная группа конечного числа равновозможных событий. На практике же очень часто встречаются такие
18
испытания, число возможных исходов которых бесконечно. В таких случаях классическое определение неприменимо. Однако иногда в таких случаях можно воспользоваться другим методом вычисления вероятности, в котором rio-прежнему основную роль играет понятие равновозможиости некоторых событий. Применяется этот метод в задачах, сводящихся к случайному бросанию точки на конечный участок прямой, плоскости или пространства. Отсюда и возникает само название метода — геометрическая вероятность.
Для определения ограничимся двумерным случаем. Одномерный и трехмерный случаи отличаются только тем, что вместо площади в них нужно говорить о длинах и объемах.
Итак, пусть на плоскости имеется некоторая область D, площадь которой S D, и в ней содержится другая область d, площадь которой S (l (рис. 3).В область D наудачу бросает- Ри<-'- 3ся точка. Спрашивается, чемуравна вероятность того, что точка попадет в область d? При этом предполагается, что наудачу брошенная точка может попасть в любую точку области D и вероятность попасть в какую-либо часть области D пропорциональна площади этой части и не зависит от ее расположения и формы. В таком случае вероятность попадания в область d при бросании наудачу точки в область D равна
Р = ^'-. (1.4)D
Таким образом, в общем случае, если возможность случайного появления точки внутри некоторой области на прямой, плоскости или в пространстве определяется не положением этой области и ее границами, а только ее размером, т. е. длиной, площадью пли объемом, то вероятность появления случайной точки внутри некоторой области определяется как отношение размера этой области к размеру всей области, в которой может появляться данная точка.
Рассмотрим несколько примеров.
19
Пример 1. Имеется быстро вращающаяся с постоянной угловой скоростью круглая мншеиь. Пятая часть мишени окрашена в черный цвет, а остальная часть мишени окрашена в белый цвет (рис. 4). По мишени производится выстрел так, что попадание в мншеиь — собы
тие достоверное. Требуется определить вероятность попадания в черный сектор мишени.
Р е ш е н не. Обозначая через /1 интересующее нас событие, мы можем сразу же написать, что
Рис. 4 т. е. интересующая нас вероятность получена как отношение площади части
круга, которая окрашена в черный цвет, ко всей его площади. Такое решение приходит в связи с тем, что попадание пули в какую-либо область мишени (размер пули не учитывается) определяется не положением этой области и ее границами, а только ее размером.
Пример 2 (задача о встрече). Два лица договорилисьо встрече, которая должна произойти в определенном месте в любой момент промежутка времени Т . Определить вероятность встречи, если моменты прихода каждого лица независимы и время ожидания одним другого будет не больше т.
Р е ш е н и е. Обозначим момент прихода одного лица через х, а второго — через у. Чтобы встреча состоялась, необходимо и достаточно, чтобы
1X — у I ^ ' .
Будем рассматривать х и у как декартовы координаты на плоскости, всевозможные исходы изобразятся точками квадрата со стороной Т, а исходы, благоприятствующие встрече, расположатся в заштрихованной области (рис. 5). Искомая вероятность равна отношению площади заштрихованной фигуры к площади всего квадрата, т. е.
d __Т~ — (7 ')■Т- 1 1
20
Пример 3. Какова вероятность, что из трех взятых наудачу отрезков длиной не более / можно построить треугольник?
Р е ш е н и е . Обозначим через дг, у и z длины наудачу взятых отрезков. Возможные их значения: у ^ 1и z< ~l. Предположим, что x - s ^ y ^ z . Тогда для того, чтобы нз этих отрезков можно было составить треугольник, необходимо выполнение неравенства x-\-y^>z. Будем рассматривать А", у и г как декартовы координаты точки в пространстве; тогда всевозможные исходы выбора отрезков изобразятся точками куба со стороной / (рис. 6). Тройки же чисел (-V, У, г), удовлетворяющие хусловиям „ „J Р а с . о
х ty~%z и х -}- у > z , (1.5)
изобразятся точками заштрихованной пирамиды, объем /* пкоторой равен р,. Ь таком случае вероятность выполне
ния условий (1.5) будет
По так как число равновозможных упорядоченных расположений y~<;X-^z , x ^ Z ' - ^ y и т. д. равно 31, то искомая вероятность
р = р , . 31 = ~ = 1 .
§ 1.6. АКСИОМАТИЧЕСКОЕ ПОСТРОЕНИЕ ТЕОРИИ ВЕРОЯТНОСТЕЙ
Из статистического определения вероятности случайного события следует, что вероятность события есть число, около которого устойчиво колеблется частота этого события, наблюдаемая на опыте. Поэтому аксиомы теории вероятностей вводятся таким образом, чтобы вероятность события обладала основными свойствами частоты. Только в таком случае данная теория будет хорошо согласовываться с опытом.
Исходя из первого свойства частоты, которое утвер
21
ждает, что частота случайного события есть неотрицательное числб, заключенное между нулем и единицей, вводится первая аксиома теории вероятностей.
А к с и о м а 1. Вероятность случайного события А есть неотрицательное число, заключенное между нулем и единицей, т. е.
0 < Р ( Л ) < 1.Следующими двумя свойствами частоты является то,
что частота достоверного события равна единице, а частота невозможного события равна нулю. На этом основании вводятся следующие две аксиомы.
А к с и о м а 2. Вероятность достоверного события равна единице.
А к с и о м а 3. Вероятность невозможного события равна нулю.
Заметим, что если вероятность некоторого события А равна нулю, то это не означает, что событие невозможно. Вероятность Р (А) = 0 означает, что частота события А при достаточно большом числе опытов будет отличаться от нуля на сколь угодно малую величину. Так, например, если производить стрельбу по мишени, то при каж дом выстреле пуля попадает в какую-то точку мишени (размер пули не учитывается). Поэтому событие А — попадание пули в данную точку мишени есть возможное событие. Однако число точек мпшенн, в которые может попасть пуля при повторных выстрелах, настолько велико, что частота попадания в одну и ту же точку практически равна нулю. А это значит, что вероятность Р ( А ) = 0.
Аналогично, если вероятность некоторого события равна единице,* то это не означает, что нет таких случаев в результате повторения опытов, когда данное событие не наступает. Так, например, 'если рассматривать событие Л, протнвоположиое_ событию А предыдущего примера, то вероятность Р ( А ) = 1. Но в тех случаях, когда наступает событие А, не наступает ему противоположное событие А.
На основании четвертого свойства частоты, выражающего правило сложения частот, вводится аксиома, которая называется аксиомой сложения вероятностей.
А к с и о м а 4. Вероятность суммы (объединения) двух несовместных событий А и В равна сумме вероятностей этих событий, т. е.
Р ( Л - \ - В ) = Р(А) - ' Г Р(В) . (1.6)
22
Пятое свойство частоты состояло в том, что частота произведения двух событий равна произведению одного из них на условную частоту другого:
Р* (АВ) = Р* (А ) Р * (В | А) = Р* (В) Р* (А\ В).
Поэтому для введения аксиомы, соответствующей пятому свойству частоты, вводится понятие условной вероятности, подобно тому, как вводилась условная частота одного события при наступлении другого.
О п р е д е л е н и е . Вероятность наступления события А , вычисленная при условии наступления другого события В, называется условной вероятностью события А по отношению к событию В и обозначается
Р (А \В).
Теперь сформулируем пятую аксиому, которая называется аксиомой умножения вероятностей.
А к с и о м а 5. Вероятность произведения (совмещения) двух событий равна произведению вероятности одного из них на условную вероятность другого, т. е.
Р (АВ) = Р ( А ) Р ( В | /1) — Р (В) Р (А | В). (1.7)При • дальнейшем изучении вопросов теории вероят
ностей будем пользоваться изложенными аксиомами. Кроме того, они уже позволяют решать ряд простейших задач.
Пример 1. В урне содержится 10 красных, 15 синих и 5 белых шаров. Из урны наугад вынимается один шар. Требуется найти вероятность того, что этот шар будет красным или белым.
Р е ш е н и е . Обозначим через А событие, состоящее в появлении красного шара, и через В событие, состоящее в появлении белого шара. Тогда
^ > = ^ = 4 . р ( В ) = з > = 4 .
События А и В несовместны (появление красного шара исключает появление белого шара и наоборот), поэтому на основании аксиомы сложения вероятностей вероятность появления красного или белого шара равна
Р ( А + В) = Р { А) + Р(В) = 1~- | 4 = Т -
Пример 2. На двух автоматических станках изготовляются одинаковые детали. Известно, что производи
тельность первого станка в два раза больше, чем второго, и что вероятность изготовления детали высшего качества иа первом станке равна 0,96, а па втором — 0,94. Изготовленные за смену па обоих станках нерас- сортпроваппыс детали находятся на складе. Определить вероятность того, что наудачу взятая деталь произведена на первом станке и окажется высшего качества.
Р е ш е н и е . Обозначим через Л событие, выражающее то, что наудачу взятая деталь изготовлена па первом станке, а через В — событие, состоящее в том, что деталь высшего качества.
Поскольку деталей, произведенных на первом станке в два раза больше, чем па втором, то вероятность
‘УP ( A ) = -7j. Вероятность наступления сооытия В приусловии, что событие А имело место (условная вероятность), равна Р (В j /1) — 0,96.
По аксиоме 5 находим вероятность того, что наудачу взятая деталь окажется произведенной на первом станке и высшего качества
р (АВ) = Р (/1) • Р (В | А) — ~ • 0,96 = 0,64.
§ 1.7. ТЕОРЕМА СЛОЖЕНИЯ ВЕРОЯТНОСТЕЙ
В этом параграфе мы методом полной математической индукции обобщим аксиому сложения вероятностей на произвольное число несовместных событий.
Теорема. Вероятность появления одного из нескольких несовместных событий равна сумме вероятностей этих событий:Р (Л, - j - . . . -1- A n-i -|- А н) = Р (Л,) + . . . -j- Р (Ля_,) -j- Р {Ая) .
( 1-8)
Д о к а з а т е л ь с т в о . Пусть теорема имеет место для п — 1 событий:
Р (Л, - | - . . . ■-{- А а- ,) = Р (Л,) + . . . -I- Р (Лд-0. Обозначим
A j —(—. . . —j— А „~] = С,
тогда, в силу аксиомы сложения вероятностей Р (Л 1 Лл—1 + А п) = Р (С -|- А,,) = Р (С) Р {Ан).
24
НоР (С) = Р (Л, - I - Лп. ,) = Р (/1.) -}-Р (/!„-,).
Следовательно,Р (Л, - f . . . -}- А п-х -}- А„) = Р (Л,) -1 - . . . -j- Р (Лд-,) 4 - Р (Л„),
что и требовалось доказать.Если число несовместных событий, входящих в сумму,
будет бесконечно большим, то распространение правила сложения вероятностей на этот случай устанавливается аксиоматически.
А к с и о м а 6. Вероятность суммы бесконечно большого числа несовместных событий равна сумме вероятностей этих событий:
\ l x l I І IТеперь рассмотрим следствия нз теоремы сложения
вероятностей.С л е д с т в и е 1. Если события Ль Л», . . . , А„ обра
зуют полную группу несовместных событий, то сумма их вероятностей равна единице:
Р (Ai) -j- Р (Ла) + Р (Л„) = 1.
Д о к а з а т е л ь с т в о . Так как события Л ь Л>, . . . , А п образуют полную группу событий, то их сумма
Л 1 -f- Л-2 - j - . . . -{- Л л,
выражающая появление хотя бы одного из них, является достоверным событием. Поэтому
Р (Л, -j- Л, -{- Л„) = 1. (1.9)
Но так как события Ль Л», . . . , А п — несовместные, то, применяя теорему сложения вероятностей (формулу 1.8) к левой части равенства (1.9), получимР (Л, -!- л, - Һ А я) = р (л,) + р (Л,) - ! - . . . + Р (Л„ ) = 1 .
С л е д с т в и е 2. Сумма вероятностей противоположных событий равна единице:
Р (Л ) - і - Р (Л) = 1.
Противоположные события представляют собой част- ный случай полной группы несовместных событий, в которой число событий равно двум (см. § 1.1). Поэтому
25
следствие 2 вытекает из предыдущего следствия и не требует отдельного доказательства.
Заметим, что при решении практических задач часто оказывается легче вычислить вероятность противоположного события А, чем вероятность прямого события А. В таких случаях вычисляют Р (Л) п, пользуясь следствием 2, находят
Р ( А ) = 1 - Р ( А ) .Рассмотрим примеры.Пример 1. При приемке партии нз 80 изделий, среди
которых 6 бракованных, проверяется 40 наудачу выбранных изделий. Определить вероятность того, что партия будет принята, если условиями приема допускается бракованных изделий не более двух среди проверенных.
Р е ш е н и е . Обозначим через А событие, состоящее в том, что при проверке 40 изделий не получено ни одного бракованного изделия, через В — событие, состоящее в том, что получено только одно бракованное изделие, и через С — событие, состоящее в том, что получено два бракованных изделия. События А, В и С несовместны.
Согласно условиям приема, партия изделий будет , принята, - если будет иметь место событие А~~В~\ ~С. Поэтому, по теореме сложения вероятностей, искомая вероятность
Р = Р (А В -}- С) — Р (Л) Р (В) -j- Р (С).Из 80 изделий 40 изделий можно выбрать СД(J спосо
бами. Из 74 иебракованиых изделий 40 изделий можно выбрать С~1 способами. Следовательно,
Аналогично
. гмР ( А ) = е &^ Ч.)
Р ( В ) = СЛ £ ± и Р(С) = % 3m i
ПоэтомуР = Р ( А ) + Р (В) Р (С) = Р + 0,337.
° »0 ^ so ° оПример 2. Производится один выстрел по круговой '
мишени, состоящей из яблока и двух концентрических колец. Вероятности попадания при одном выстреле в яблоко и в кольца соответственно равны 0,11; 0,24; 0,35. Найти вероятность промаха.
26
Р е ш е н и е . Обозначим через А промах, тогда А — попадание в мишень. Следовательно,
А — А\ -j- А.2 -j- Л3,где Ль /Ь. Л3 — попадания соответственно в яблоко и в концентрические кольца. Так как события Ль Л.>, Л3 несовместны, то
Р (А) = Р (/{, 4- А.2 -j- /1,) = Р (/!,)-{- Р (Л,) - f Р (Л'з) = = 0,11 -Ь 0,24 -{-0,35 = 0,7,
откудаР (Л) = 1 — Р ( Л) = 1 — 0,7 = 0 , 3 .
§ 1.8. ТЕОРЕМА УМНОЖЕНИЯ ВЕРОЯТНОСТЕЙ
Прежде чем рассматривать теорему умножения вероятностей, введем понятие о независимых и зависимых событиях, которое является очень важным при дальнейшем изучении вопросов теории вероятностей.
О п р е д е л е н и е . Событие А называется независимым по отношению к событию В, если вероятность события А не зависит от того, произошло событие В или нет. В противном случае событие А называется зависимым от события В.
Рассмотрим примеры.Пример 1. В урне находятся 3 белых и 4 черных
шара. Из урны наудачу берут один шар, затем взятый шар возвращают в урну и испытание повторяют. Событие В — появление белого шара при первом испытании, событие А — появление белого шара при втором испытании. Очевидно, вероятность события Л І Р ( Л ) = ~ | независит от результата первого испытания. Таким образом, событие А независимо от события В.
Пример 2. В ящике содержится 80 радиоламп, из них 70 стандартных и 10 нестандартных. Наудачу берут одну лампу, затем не возвращая лампы в ящик, испытание повторяют. Событие В — появление стандартной лампы при первом испытании, событие А — появление стандартной лампы при втором испытании. Вероятность появления события А при условии, что событие В произошло, равна
Р (Л) = у у .
27
Если же в первом испытании событие В не произошло(вынута нестандартная лампа), то вероятность Р (Л) = ^ .Таким образом, вероятность появления события А зависит от того, произошло событие В или пет. Это значит, что событие А зависит от события В.
Математически условие независимости события А от события В записывают в виде:
Р ( А \ В ) = Р( А) ,
а условие зависимости — в виде:Р (А | В) г- Р (/1).
Теорема. Вероятность произведения, или совместного наступления, нескольких событий равна произведению вероятности одного из них на условные вероятности остальных событий, вычисленные в предположении, что все предшествующие события имели место:Р (A\A-i . . . А п) — Р (Ai) Р (/1*21 А\) . . . Р (Ля \ А у А л . . . Лл_і).
(1 . 10)
Д о к а з а т е л ь с т в о . Д ля доказательства теоремы применим метод полной математической индукции.
Пусть теорема имеет место для п — 1 событий:Р (А, А, ■ ■ • А п- \ ) = Р (Л,) Р (Л,| Л , ) . . . Р (Ля_, 1 Л , Л , . . . Л„_о).
Введем событие С как произведение п — 1 событий Л 1 Л ». . . А п~\.
С = Л, Ло . . . Л„_ 1.
Тогда в силу аксиомы умножения вероятностей Р ( Л ,Л , . . . А а~\А„) = Р (.САа) = Р (С) Р (Аа | С).
НоР ( С ) = Р (Л, Л о . . . Л„_,) = Р (Л,) Р (Л, | Л , ) . . .
. . . Р (Л/г- і } Лі Л* • • ■ Л„-а),следовательно,Р (Л, Л , . . . Л „ - ,Л „ )= Р (Л,) Р (Л,! Л , ) . . . Р (Ля ! А х А , . . . Ля_,).
Теорема доказана.Рассмотрим теперь несколько важных следствий из
аксиомы и теоремы умножения вероятностей.С л е д с т в и е 1. Если событие А не зависит от собы
тия В, то и событие В не зависит от события А.
28
Д о к а з а т е л ь с т в о . Так как событие /1 не зависит от события В, то
Р ( А ) = Р ( А \ В ) . (1.11)
На основании аксиомы умножения вероятностей имеем:
Р (А) Р ( В \ А ) = Р (В) Р ( A \ B ) t
или, согласно условию (1.11),Р ( А ) Р ( В \ А ) = Р ( В) Р (А).
Разделив обе части этого равенства на Р (А), получим: Р ( В \ А ) = Р ( В ) ,
что и требовалось доказать.Таким образом, из следствия 1 вытекает, что поня
тие зависимости и независимости событий взаимно. В связи с этим можно дать повое определение независимых событий.
О п р е д е л е н и е . Два события называются независимыми, если появление одного из них не изменяет вероятности появления другого.
Распространим понятие независимости событий па случай произвольного числа событий.
Несколько событий называют независимыми в совокупности, если каждое из них и любая комбинация остальных событий, содержащая либо все остальные события, либо часть из ипх, есть события независимые. Например, если события А {, А> и Л3 независимые в совокупности, то это значит, что будут независимыми следующие события:
А{ и А-2, Л, и Лз, А,-2 н А%, А\Ал и А з, Л,Лз и /1_>, А*АЛ и А\.
С л е д с т в и е 2. Вероятность произведения независимых в совокупности событий равна произведению вероятностей этих событий, т. е. для независимых событий формула (1.10) принимает вид:
Р (Л ,Л , . . . А„) = Р (Л,) Р (Л,) . . . Я ( Ап). (1.12)
Справедливость этого следствия вытекает непосредственно нз определения независимых событий.
Рассмотрим примеры на применение теоремы умножения вероятностей.
2У
Пример 3. В механизм входят три одинаковые детали. Работа механизма нарушается, если при его сборке будут поставлены все три детали размера больше обозначенного на чертеже. У сбсрщкка осталось 15 деталей, из которых 5 большего размера. Найти вероятность ненормальной работы первого собранного нз этих деталей механизма, если сборщик берет детали наудачу.
Р е ш е н и е . Обозначим через А событие ненормальной работы первого собранного механизма, а через Ль Л.> и А л — события, состоящие в том, что первая, вторая и третья детали соответственно, поставленные в механизм, большего размера. Тогда
А = A J Л-> Л
так как событие А наступает при условии одновременного наступления событий А \, Л.> и Л3. По теореме умножения находим
р \ А ) = Р (Л,А.Л») = Р (Л,) Р (Л, 1 Лі) Р (Л3; Л,Л,) =
Пример 4. Станок-автомат штампует детали. Вероятность того, что за смену не будет выпущено ни одной нестандартной детали, равна 0,9. Определить вероятность того, что за три смены lie будет выпущено ни одной нестандартной детали.
Р е ш е н и е . Обозначим через Л событие, заключающееся в том, что за три смены не будет выпущено ни одной нестандартной детали, а через Ль Л.>, Л;( — события, заключающиеся в том, что за соответствующую смену не будет выпущено пн одной нестандартной детали.
Т огдаЛ = Л,Л,Л:ь
так как событие Л наступает при условии одновременного наступления событий ЛіЛ* и Л3. Заметим, что события Л 1Л а, Л; | являются независимыми, ибо вероятности наступления каждого из» этих событий равны 0,9 и не зависят от того, имели место два других события или нет.
Поэтому по теореме умножения вероятностей для независимых событий имеем:
р (Л) = Р ( А , А , Аг) = Р (Л0 Р (Ла) Р (Ла) = 0.91 = 0,729.
30
§ 1.9. ТЕОРЕМА СЛОЖЕНИЯ ВЕРОЯТНОСТЕЙ ДЛЯ СОВМЕСТНЫХ СОБЫТИЙ
В § 1.7 была рассмотрена теорема сложения вероятностен для несовместных событий. Пользуясь теоремой сложения вероятностен для несовместных событий, вместе с теоремой умножения докажем следующую теорему сложения вероятностей для совместных событий.
Теорема. Вероятность появления хотя бы одного из двух совместных событий равна сумме вероятностей этих событий без вероятности их совместного появления:
Р (А + В) = Р (А) -{- Р (В) - Р (А В ). (1.13)
Д о к а з а т е л ь с т в о . Д ля наступления события А достаточно, чтобы произошло хотя бы одно из следующих несовместных событий: А В или А В . Аналогично, для наступления события В достаточно, чтобы произошло хотя бы одно из следующих несовместных событий: АВ или А В.
Поэтому на основании правила сложения вероятностей для несовместных событий имеем:
Р ( А ) = Р(АВ) + Р{АВ) (1.14)и
Р(В) = Р ( А В ) + Р( А В ) . (1.15)Д ля наступления хотя бы одного нз событий А или
В достаточно, чтобы произошло одно из трех попарно несовместных событий АВ, АВ, АВ. Поэтому вероятность Р (/1 -j- В) равна сумме вероятностей трех событий, т. е.
Р (А -І- В) = Р (АВ) Р (АВ) -i- Р (АВ). (1.16)
Сложив равенства (1.14) и (1.15), найдем:
Р (АВ) - f Р (АВ) = Р (Л) р (В) - 2Р (АВ).
Подставив это выражение в (1.16), получим:Р (A - f В) = Р (Л) -J- Р (В) — Р (АВ).
Теорема доказана.Формула (1.13) имеет простую геометрическую интер
претацию (см. рис. 7).Методом полной математической индукции получен
ную формулу (1.13) можно обобщить на случай верояі-
31
пости суммы произвольного числа совместных событий. При этом будем иметь:
Р (Л, л., - j - . . . + Л„) = Р (Л,) + Р (Л2) + . . .. . . + Р (Л„) - Р (Л, л.) - Р (Л,/ 1 ; , ) Л„) +
Р (Лi/I*/1а) -р . ..-{- Р (Лп„іЛЯ-іЛ л) — . . .. . . + { - \ ) пР { А і А г . . . Л п). (1.17)
Заметим, что при решении задач с использованием формулы (1.17) часто приходится производить громоздкие вычисления, поэтому лучше перейти к противо
положному событию. В таком случаеР (Лд -j- А-2- j - . . . А п) = 1 — Р (ЛуАо. . . Л„). (1.18)
Пример 1. Производится два выстрела по одной и той же мишени. Вероятность попадания при первом выстреле равна 0,6, для второго — 0,8. Найти вероятность того, что в мишени будет хотя бы одна пробоина.
Р е ш е н п е. Рассмотрим событие Л — попадание при первом выстреле и событие В — попадание при втором выстреле. Их вероятности
р (Л) = 0 , 6 , Р(В) = 0,8.Так как Л и В являются совместными и независимыми событиями, то вероятность того, что в мишени будет хотя бы одна пробоина, согласно формуле (1.13), равна
Р (/1 -I- В) = Р (А) + Р (В) - Р (Л) Р (В) == 0,6 -|- 0,8 — 0,6 • 0,8 = 0,92.
Если же перейти к противоположному событию, то применяя формулу (1.18) для случая двух событий, получим:
Р (А + В) = 1 - Р (Л) Р (В)— \ — 0,4 • 0,2 = 0,92.Пример 2. Рабочий обслуживает четыре станка, рабо
тающих независимо друг от друга. Вероятность того,
32
что в течение часа первый станок не потребует внимания рабочего, равна 0,92, для второго— такая вероятность равна 0,9, для третьего — 0,85 и для четверто го — 0,8. Какова вероятность того, что в течение часа хотя бы одни станок не потребует внимания рабочего?
Р е ш е н и е . Обозначим через А событие, выражающее то, что-в течение часа хотя бы один станок не потребует внимания рабочего, а через А , А>, А» и А.% обозначим соответственно события, заключающиеся в том, что первый, второй, третий и четвертый станок в течение часа не потребует внимания рабочего. Так как все четыре станка работают независимо друг от друга и могут потребовать внимания рабочего одновременно, то А 1, До, А л и А.і являются независимыми, но совместными событиями. Их вероятности Я (А ) = 0,92; Я (А.) = 0,9; Я (А ) = 0,85; Я(А,) = 0,8. Согласно обозначениям имеем:
А = A -j- А> -{- At -j - Аьоткуда
Я (А) = Я ( А -j- А-2 -\- At “Ь А ) •При вычислении вероятности Р (А) с применением формулы (1.17) придется производить довольно много вычислений, поэтому здесь целесообразно перейти от прямого события к противоположному событию А (что ни один станок не проработает без вмешательства рабочего). Очевидно,
А = .АА^АіАі*Вероятность того, что первый станок не прорабо
тает в течение часа без вмешательства рабочего, Я (А ) = = 1 — Я (Л) == 1 — 0,92 = 0,08; второй: Я (А,) = 1 — 0,9 = = 0,1; третий: Я(/1 :1) = 1 — 0,85 = 0,15 и четвертый:Р (At) = 1 — 0,8 = 0,2. Из независимости событий А , А>, А , А следует независимость противоположных имсобытий А , А», А а, А .
Следовательно, по теореме умножения для независимых событий имеем:
Р (А) = Я (Л, А .А А ) = 0,08 • 0,1 • 0,15 • 0,2 = 0,00024.А вероятность того, что в течение часа хотя бы одни станок не потребует внимания рабочего, равна
Я (Л) = 1 — 0,00024 = 0,99976, т. е. событие А практически почти достоверно.
2 Гурский 33
§ 1.10. ФОРМУЛА ПОЛНОЙ ВЕРОЯТНОСТИ
Пусть некоторое интересующее нас событие А может наступить или не наступить с одним из ряда несовместных событий
Ни Я * , . . . , Нт
составляющих полную группу. События такого ряда обычно называют гипотезами. Вероятности всех гипотез известны, т. е. даны Р (Н j), Р (Я >), . . . , Р (Н„). Известны также условные вероятности наступления события А при осуществлении каждой из указанных гипотез, т. е. даны Р (А/Ну), Р ( А ( Н Р ( А ( Н п). Вероятность интересующего нас события А определяется по следующей теореме.
Теорема. Вероятность события А, которое может произойти вместе с одной из гипотез Ну, # • > , . . Нп, равна сумме парных произведений вероятностей каждой из этих гипотез на отвечающие им условные вероятности наступления события А:
Р(Л) = 2 РШ,)Р(А1Н,). (1.19)1=1
Формула (1.19) носит название формулы полной вероятности.
Д о к а з а т е л ь с т в о . Так как гипотезы Ну, Н о, . . . . . . , Н п образуют полную группу, то событие А можно представить в виде следующей суммы событий:
А = АН у Н- А Н о + А Н п = А Н і .і— I
Поскольку события Hi несовместны, то и события A H t ( / = . 1 , 2 , . . . , п) также несовместны. Эго обстоятельство позволяет применить для определения вероятности события А теорему сложения вероятностей несовместных событий (1.8):
И
Р'уа ) = У і Р ( А Н і). (1.20)і = I
Вероятность же произведения событий А и Я,- находится по аксиоме умножения вероятностей (1.7):
Р (AHi) = Р (Hi) Р (А/Я,-).
34
Подставляя последнее выражение в формулу (1.20), получим:
что и требовалось доказать.Пример 1. В цехе три типа автоматических станков
производят одни п те же детали. Производительность их одинакова, но качество работы различно. Известно, что станки первого типа производят 0,94 деталей отличного качества, второго — 0,9 и третьего — 0,85. Все произведенные в цехе за смену детали в нерассортиро- ваниом виде сложены па складе. Определить вероятность того, что взятая наудачу деталь окажется отличного качества, если станков первого типа 5 шт., второго — — 3 шт., и третьего — 2 шт.
Р е ш е н и е . Пусть событие А состоит в том, что наудачу взятая деталь окажется отлпчпого качества.Рассмотрим три гипотезы:
Н 1 — наудачу взятая деталь произведена станкамипервого типа;
Н*— наудачу взятая деталь произведена станкамивторого типа;
Я:t — наудачу взятая деталь произведена станкамитретьего типа.
Учитывая количественное соотношение станков в цехе и то, что производительность их одинакова, находим:
Я (/■/,) = 4 , р т = щ . / > ( / / » > = ? = i .
Условные вероятности события при этпХ гипотезах соответственно равны
Р (А | //,) = 0,94; Р (А | // ,) = 0,9;По формуле полной вероятности
-І- - 0 , 9 4 + 'І . 0 , 9 + 1Р ( А )
Я (Л I /-/:,) = 0,85.
0,85 = 0,91,
§ 1.11. ТЕОРЕМА ГИПОТЕЗ (ФОРМУЛА БЕЙЕСА)
До сих пор мы рассматривали вероятности событий до испытаний, т. е. в комплексе условий не фигурировал результат проведенного опыта.
Поставим теперь следующую задачу. Имеется полная группа несовместных гипотез I Iь II-, //„. Известны
2*
вероятности каждой из гипотез Р (Ні), Р (Я2), , Р (Н п).Производится опыт и в его результате осуществляется некоторое событие А, вероятности которого по каждой из гипотез известны, т. е. известны Р {А | Н\), Р (А | Но), . . .
Р ( А \ Н п).Спрашивается, какие вероятности имеют гипотезы Я {-
(£ = Д , 2, . . . , п) в связи с появлением события А? Д р у гими словами, нас интересуют условные вероятности Р (Hi | А) для каждой гипотезы.
Ответ на поставленную задачу дает следующая теорема гипотез.
Теорема гипотез. Вероятность гипотезы после испытания равна произведению вероятности гипотезы до испытания на соответствующую ей условную вероятность события, которое произошло при испытании, деленному на полную вероятность этого события:
Р{Иі \А) = - пР-(Ні)Р{Л]Ні) . (1.21)2 Р{Ні) Р ( А \ Н і)
1 = I
Формула (1.21) носит название формулы Бейеса.Д о к а з а т е л ь с т в о . На основании . .°.<сиомы умно
жения оероятиостей (1.7) имеем:Р ( А ) Р ( Н І \А) = Р ( Н І) Р ( А \ Н І).
Разрешая это уравнение относительно Р (Hi | А) при условии, что Р (А) Ф 0, получим:
Р Ш 1\А) = Р(Н‘' ™ ,Н'>.
Выражая Р (/1) с помощью формулы полной вероятности (1.18), получим доказываемое равенство:
P ( H l \A) = ~ P H‘) P W H ‘) .2 P W i ) P ( A \ H , )
І = 1
В частном случае, если все гипотезы H i ( i — 1, 2, . . . , п ) до испытания имеют одинаковую вероятность Р ( / / , ) = /Л формула (1.21) принимает вид:
Р (Ні \А) = - р Л 1 Н,) . (1.22)2 р(л\11о
<•=-, I
Рассмотрим примеры па применение теоремы гипотез.
Пример 1. В трех ящиках находятся однотипные изделия: в первом 10 изделий, из них 3 нестандартных, во втором 15 изделий, из них 5 нестандартных п в третьем 20 изделий, из них 6 нестандартных. Наудачу выбирается одно изделие и оно оказалось нестандартное. Определить вероятность того, что взятое изделие принадлежало второму ящику.
Р е ш е н и е. Обозначим через Я ь Яо, Я 3 соответственно гипотезы о том, что наудачу взятое изделие принадлежало первому, второму, третьему ящикам. Тогда вероятности этих гипотез до проведения испытания
- .. 1 равны между сооои и равны у , т. е.
p ( f l , ) = p ( f t j = p ( « , ) = 4 .
В результате испытания наблюдается событие А, состоящее в том, что наудачу выбранное изделие является нестандартным. Условные вероятности этого события при гипотезах Н \, Н<>, Я 3 соответственно равны:
Р(Л!Я,) = ід, Р{Л|Я.;) = ! = 4 , />(Л|Я„) = АПо формуле (1.22) находим вероятность гипотезы Я.3 после испытания:
\_3 5Р(Н,\А)
A l l I 1 _ І4 10+ 3 + 10
Пример 2. Вероятность удовлетворять стандарту для изделий некоторого производства равна 0,9. Предлагается упрощенная система проверки на стандартность, дающая положительный результат с вероятностью 0,95 для изделий, удовлетворяющих стандарту, а для изделий, которые не удовлетворяют стандарту, с вероятностью 0,15. Найти вероятность того, что изделие, признанное при проверке стандартным, действительно удовлетворяет стандарту.
Р е ш е н и е . Обозначим через Hi гипотезу о том, что изделие удовлетворяет стандарту, п через Я 2— гипотезу о том, что изделие пе удовлетворяет стандарту. Эти гипотезы единственно возможны и несовместны. Нам дано, что Р (Я 1) = 0,9. Так как
Р (//,) + Я (Яа) = 1,получим, что
Р (Я,) = 1 - Р (Яі) = 1 - 0,9 = 0 , 1 .
37
Обозначим через А событие, состоящее в том, что изделие будет признано при проверке стандартным. По условию Р (/11 Hi) — 0,95; Р (А \ Но) = 0,15. 7'ребуется найти условную вероятность того, что изделие, признанное стандартным, действительно удовлетворяет стандарту, т. е. найти Р (НУ\А) . По формуле (1.21) получаем:
Р ( H i ! А ) = о,9 .0 ,9 5 -1-0,1 - 0,15 ~
Это означает, что на каждую сотню принятых деталей стандартных будет примерно 98.
§ 1.12. ПОВТОРЕНИЕ ИСПЫТАНИИ. ФОРМУЛА БЕРНУЛЛИ
Пусть производится несколько испытаний, в результате которых может появиться событие А с определенной вероятностью. Если вероятность события А в каждом испытании пе зависит от исходов других испытаний, то "такие испытания называются независимыми относительно события А .
Поставим следующую задачу.Определить вероятность того, что в результате про
ведения п независимых испытаний некоторое событие А наступит ровно т раз, если в каждом из этих испытаний данное событие наступает с постоянной вероятностью Р ( А ) = р.
Искомую вероятность будем обозначать Р„ип. Например, символ Р i, ю означает, что в десяти испытаниях событие А появится ровно" 4 раза.
Непосредственное применение теорем сложения и умножения вероятностей для решения поставленной задачи с увеличением числа испытаний приводит к очень громоздким вычислениям. Поэтому возникает необходимость применения менее трудоемких способов расчета. Один из таких способов ссповап на применении формулы Бернулли.
Вывод формулы Бернулли. Предположим, что в одинаковых условиях производится 11 независимых испытаний, результатом каждого из которых может быть наступление либо события А с вероятностью Р ( А) — р, либо ему противоположного А с вероятностью Р (А) = = 1 — р. Обозначим через А,- ( / = 1 , 2, . . . , п) насту пле-
3S
пне события /1 в i-м испытании. В силу постоянства условий испытания
Р ( А 1) = Р Ш = . . . = Р ( А к) = р,Р (At) = Р (Л,) = . . . = / > (Ап) = 1 - р.
Нас интересует вероятность того, что событие А при п испытаниях наступает ровно т раз, а в оставшихся п — т испытаниях наступит ему противоположное событие А. При этом событие А в п испытаниях может появиться ровно т раз в разных последовательностях или комбинациях, число которых равно числу сочетаний нз п элементов по т, т. е. С™. Примером такой комбинации может служить событие В, при котором событие А наступает подряд т раз, начиная с первого испытания:
В = А\А* . . . Л,п А т 1-1 . .. А,у (1.23)
т раз п — т раз
По условию испытания независимы. Это значит, что независимы события, входящие в комбинацию (1.23), поэтому, используя теорему умножения для независимых событий, получим:
Р (В) = Р (At) Р (А«) . . . Р (Ат) Р (А,,и) . . . Я (Ап) == р'» (1
Так как все комбинации событий, подобные комбинации В, являются несовместными событиями и нам безразлично, в какой именно последовательности появится событие А и в какой последовательности появится противоположное ему событие А, то, применяя теорему сложения вероятностей для несовместных событии, получим:
Р /^т т / 1 \П — тШшП = Са р (1 — /;) =
= Л (1.24)
Полученная формула (1.24) носит название формулы Бернулли.
Формула Бернулли имеет очень важное значение в теории вероятностей, так как она связана с повторением испытаний в одинаковых условиях, т. е. с такими условиями, в которых как- раз и проявляются законы теор I ш вер оят и осте й .
ЗУ
Так как события, состоящие в различном числе появления события А в серии пз п испытаний, несовместны и образуют полную группу, то
П П
= ( і _ р ) в + г і р о - р ) ' * - 1-!-- . .. . .- i- O "1 (1 .. + //*=!. (1.25)п — /7) I
Обозначая 1 — p — q, нетрудно заметить, что члены суммы (1.25) совпадают с членами разложения бинома
В связи с этим распределение вероятностей (1.25) называют биномиальным распределением.
Отмеченное совпадение позволяет ввести для вычисления вероятное гей возможного числа наступлении события А в серии пз п независимых испытаний так называемую производящую функцию <рЛ (х):
Эта функция обладает тем свойством, что коэффициент при хт в разложении (1.2G) равен вероятности наступления события /1 ровно т раз в серии из п независимых испытаний, проводимых в переменных условиях. Так, например, если вероятность появления события А в i-м опыте Р(А;) = р1 и вероятность непоявления р (А і) = 1 — pi — qit то вероятность того, что событие А появится ровно т раз в п независимых испытаниях, равна коэффициенту при х"‘ в разложении по степеням .t производящей функции
9п (*) = (<7i 4 - Р\Х) (</■> - г рчх) . . . (дп + рпх) ■ (1.27)
Рассмотрим примеры.Пример 1. Вероятность изготовления на автоматиче
ском станке стандартной детали равна 0,9. Определить вероятность того, что пз 6 наудачу взятых деталей 4 окажутся стандартными.
Р е ш е н и е. Условие задачи соответствует схеме повторных испытаний в одинаковых условиях. Поэтому,
(1.26)
40
применяя формулу (1.24) при п = 6, т — 4 и р = 0,9, получим:
P M = Q (0,9)’ (0,1)-' = 0 ,0984.
Пример 2. Четыре стрелка независимо один от другого производят по одному выстрелу по общей мишени. Вероятность попадания в мишень для первого стрелка равна 0,8, для второго — 0,7, для третьего — 0,6 и для
.четвертого — 0,5. Найти вероятность того, что в мишени будет ровно 2 пробоины.
Р е ш е н и е . Так как вероятности попадания для стрелков различны, т. е. испытания происходят в переменных условиях, то для решения задачи применим производящую функцию. Согласно условию, производящая функция (1.27) для данного примера имеет вид
'fi (*) = -(0 ,2 - f 0,8а-) (0,3 -!- 0,7*) (0,4 0,6*) (0,5 + 0,5*) == 0,012 - | - 0 , 1 Об* - г 0, 32л-- Л- 0,394*' -j- 0,168**.
Коэффициент при *■ является искомой вероятностью, т. е.р , 1 = 0,32.
Пример 3. Найти распределение вероятностей числа попаданий в цель при пяти независимых выстрелах, если вероятность попадания в цель при одном выстреле равна 0,6.
Р е ш е н и е . По условию, п = 5, /; = 0,6 и q = 0,4. Следовательно, применяя производящую функцию (1.26), получим:
о , (* ) = (0,4 0,6*)г, = 0,01024 - I - 0,0768*0,2304*- -j- 0,3456*3 - г 0.2592*1 -j- 0,07776*'*.
Искомые вероятности являются коэффициентами при *”': P 0t5== 0,01024; Р,. 5 = 0,0768; Р , ,5 = 0,2304;Р а. я = 0,3456; Р.1.5 = 0,2592; Р 3> 3 = 0,07776.
П р о в е р к а :5
2 Рт, Я = 0,01024 4 - 0,0768 -I- 0,2304 -{-т =*•-()
0,3456 4 - 0,2592 0,07776 = 1.
Решение проведено правильно. Как видно из решения, наиболее вероятное число попаданий равно трем.
41
§ 1.13. НАИВЕРОЯТНЕЙШЕЕ ЧИСЛО НАСТУПЛЕНИЙ СОБЫТИЯ ПРИ ПОВТОРЕНИИ ИСПЫТАНИЙ
О п р е д е л е н и е . Наивероятнейшим числом т0 появления события А в п независимых испытаниях называется число, для которого вероятность Рт<п превышает или, по крайней мере, не меньше вероятности каждого из остальных возможных исходов испытаний.
При решении примера 3 предыдущего параграфа, сравнивая вероятности числа попаданий при пяти выстрелах, мы получим иапвероятпейшее число. пи = 3. Оказывается, что для определения панвероятнейшего числа вовсе не нужно вычислять вероятности различных комбинаций появления события А, а достаточно знать число испытаний п и вероятность появления события А в одном испытании.
Действительно, пусть наивероятнейшему числу т0 соответствует вероятность
) г™о пт° ,.п ~ — ”‘пт0. n — n P q — ,Ло, (л _ щ) , Р Я
Тогда, согласно определению панвероятнейшего числа, вероятности наступления события А //г0 —f— 1 и //г0— 1 разне должны превышать вероятность а, т. е. должнывыполняться условия:
РШ(|. П ^ Р/По -}- J, П> (1 .28)Рто. а ^ Р то-1.п- (1-29)
На основании неравенства (1.28) по формуле Бернулли получаем:
п,,1°Оп — Г>1° -------------—------------- П,п0 *п’1 — т0 — ІЧ " " (т . _L 1 М 1,1 — ,п. — П I У Ч »то- (П — 111 о) ! (w0 -f 1)! {п — ш0 — 1)
откуда (после сокращения)__Q__ ___Р_____п — ///„ ''*■ ///«, -|- I
Разрешая это неравенство относительно т0> получаем:
п һ ^ п р — q. (1.30)
Аналогичным образом пз неравенства (1.29) получаем:
_____ —------ п'г,ип11 —111 и ------------- —________ л'«а — — то ^/;/0! (л - т 0) 1 Р 4 (/н0 - 1) (п - т 0 + 1)!
откудаР . ___ О///„ и — /«„ -j- I
IIWo ^ пр - f р. (1.31)
Объединяя неравенства (1.30) и (1.31), получим:
пр — q -С. то ^ , пр -|- р. (1.32)
Это двойное неравенство и служит для определения иаивероятнешиего числа.
З а м е ч а н и е . Длниа интервала, определяемого неравенством (1.32), равна единице:
(пр + р) — (пр — q) = р -}- q = 1.
Поэтому, если границы этого интервала есть дробные числа, то мы получаем одно значение наивероятнейшего числа ///,., если же границы являются целыми числами, то получаем два значения наивероятнейшего числа:
т'„ = пр р, m l = пр — q.
Пример 1. При данном технологическом процессе 85% всей произведенной продукции - высшего сорта. Найти иаивероятпейшее число изделий высшего сорта в партии из 150 изделий.
Р е ш е н и е . По условиям примера п = 150, р = 0,85, < 7 = 1 — 0,85 = 0,15. Согласно неравенству (1.32) имеем:
150 • 0,85 — 0,15 - с ///о <-150 • 0,85 0,85,откуда
1 2 7 , 3 5 /«о < 123,35.Следовательно, иаивероятпейшее число изделий высшего сорта в партии пз 150 изделий равно 128.
Пример 2. Определить наиболее вероятное число пораженных самолетов в группе из 13 бомбардировщиков, если самолеты поражаются независимо друг от друга и
•1вероятность поражения одного самолета равна .
Р е ш е н и е . По условию п = 1 3 , р = t , q =
= 1 — І = '7{ . Следовательно, согласно неравенству (1.32) ,
•13
Отсюда имеем:7 sg; m0 8.
Это означает, что имеются два значения: mi = 7 и mj = 8, каждое из которых является наиболее вероятным числом пораженных самолетов.
В опросы д л я с а м о п р о ве р к и
1. Какие события называют случайными? Приведите примеры случайны х событий.
2. Какие ' события о б р а зу ю т полную группу несовместных событий?
3. Приведите примеры полных групп событий.4. Какое собы тие называется суммой, или объ ед и н ен и е м , не
скольких событий?5. Какое событие называется произведением , или совм ещ ени ем ,
нескольких событий?6. Что называется частотой события и каковы ее свойства?7. С ф орм улируйте классическое определение вероятности с о
бытия. В каких пределах изменяется вероятность события?8. С ф орм улируй те теорем у сложения вероятностей для н е с о в
местных событий.9. Чему равна сумма вероятностей несовместных событий,
о б р азую щ и х полную группу?10. Какая вероятность называется условной вероятностью?11. Какие события называются независимыми?12. С ф орм ул ируйте теорем у умножения вероятностей и след
ствия из нее.13. Как следует вычислять вероятность появления хотя бы
о д н о ю ііз нескольких совместных событий?14. Д ок аж и те формулу полной вероятности.15. Вы ведите формулу вероятности гипотез.16. При решении каких задач применяется формула полной
вероятности?17. При решении каких задач применяется формула вероятно
сти гипотез?18. При реш ении каких задач применяется формула Бернулли?19. Какая функция называется производящ ей функцией в е р о
ятности появления события А при п независимых испытаниях? Какой она имеет вид, когда испытания происходят в одинаковых условиях и когда испытания происходят в неодинаковы х усл овиях?
20. Д айте о пределение нанвероятнейш его числа при повторны х испытаниях и приведите правило его вычисления.
У п р а ж н е н и я
1. В партии пз 200 деталей отдел технического контроля обн ар уж и л 8 нестандартных деталей. Чему равна относительная частота появления нестандартных деталей?
От в. р * — 0,04.
4-4
2. При стрельбе из винтовки относительная частота попадания в цель равна 0,75. Найти число попаданий, если всего было прои зведено 140 выстрелов.
Ошв. 105 попаданий.
3. В л о тер ее разыгрывается тысяча билетов. С реди них один выигрыш в 50 рубл ей , пять выигрышей в 20 рублей, двадцать выигрышей по 10 р ублей и пятьдесят выигрышей но 5 рублей. Некто покупает один билет. Найти вероятность: а) выиграть не менее 10 рублей: б) какого-либо выигрыша.
От в. а) 0,026; б) 0,076.
-; 4. В урне три белых и пять черных шаров. Из урны вынимают наугад два шара. Найти вероятность того, что шары не о д н о ю цвета.
От в. /? = -— .
5. В партии из 100 изделий 6 нестандартных. Нз партии выбирается наугад 10 изделий. О пределить вероятность того, что среди утих 10 изделий б у д ет ровно 2 нестандартных.
От в. р<=а 0,13.
- 6. На ш ести карточках написаны буквы А, В, К, М, О, С. После п еретасовки вынимают наугад одну карточку за другой и раскладывают их в том порядке, в каком они были вынуты. Найти вероятность того, что на карточках будет написано слово М О С К В А
-4 7. Два лица условились встретиться в оп р еделен н ом месте между 15 и 16 часами и договорились, что п риш едш ий первым ж дет др угого в течение 10 минут, после чего уходит. Найти в ер оятность их встречи, если приход каж дого в т еч е н и е ук а за н н о ю часа может произойти в лю бое время и моменты прихода независимы.
Отв. р = ~ г .
*7 8 . И меется радиолокационная система, состоящ ая из двух сам остоятельных станций. Для выполнения задачи н еоб х о д и м о , чтобы о б е радиолокационны е станции, входящ ие в систем у, работали б е з отказно. Т р ебуе тся оп ределить вероятность того, что система б у дет работать безотк азн о , если вероятность б е зотк азн ой работы каждой радиолокационной станции в течение времени, н еобходим ого для выполнения задании, p { t ) = 0,9.
Ошв. р = 0 , 8 1 .
9. Вероятность безотказной работы блока, в ходящ его в систему, в течение з а д а н н о ю времени составляет 0,8. Для повы шения н аде ж ности устанавливают такой ж е резервны й блок. Т р еб у е тся найти, какой станет вероятность безотказной работы блока с учетом р е з е р в ного.
О т в. р — 0,96.
10. Три охотника договорились стрелять в цель в определен н ой последовательности. С л едую щ ий охотник производит выстрел лишь
45
в случае промаха п реды дущ его . Вероятности попадания в цель каждым нз охотников одинаковы и равны 0,7. Найти вероятность того, что б у д ет произведено: а) один; б) два; в) три выстрела.
Ошв. а) 0,7; б) 0,21; в) 0,063.
И . При прием ке партии подвергается проверке половина изделии. У словие приемки — наличие брака в выборке не свыше 2rt/ 0. Вычислить вероятность того, что партия нз 100 изделий, с о д е р ж а щая 5 % брака, бу д ет принята.
Ошв. 0,18.
^ 12. Рабочий обслуж и вает три станка, р аботаю щ ие независи м о д р уг от друга. Вероятность того, что в течение часа первый станок не п о тр еб у е т внимания рабочего, равна 0,9"), для второго такая вероятность равна 0,9 и для третьего — 0,8. Какова в ер оятность того, что в течение часа: а) пн одни станок не п о тр еб у е т внимания рабочего; б) какой-нибудь один станок п отр ебует внимания рабочего; в) хотя бы один станок п отребует внимания р а б о ч е г о ?
Ошв. а) 0,684; б) 0,032; в) 0,316.
13. Два парохода должны подойти к одному и тому ж е причалу. Время прихода обо и х пароходов независимо и р а в и ов озм ож п о в течен ие данных суток. О пределить вероятность того, что одном у из пар оходов придется ож идать освобож ден и я причала, если время стоянки первого парохода один час, а второго — два часа.
О ш в. р = 0,121.
14. Радиолампа может принадлежать к одной нз д вух партий с вероятностями /; , = 0,6 и />„ = 0,4. Вероятности того, что лампа п р оработает заданное число часов, равны для этих партий с о о т в ет ственно 0,7 и 0,8. Определить вероятность того, что лампа п р о р а ботает заданное число часов.
Ошв. р = 0,74.
15. Двадцать экзаменационны х билетов со д ер ж а т по два вопроса, которы е не повторяются. Экзаменую щ ийся мож ет ответить только па 35 вопросов. О пределить вероятность того, что экзамен б у д ет сдан, если для этого достаточно ответить на два вопроса из одного билета или на одни вопрос из первого билета и на указанный дополнительный вопрос из д р у го г о билета.
35 34 ( 35 5 . 5 35 \ 34 Л пгоО т в. р — - ю • 3Sj + • зу + 40 • 39 J - - 8 — 0,963.
16. Один нз трех стрелков вызывается па линию огня и производит два выстрела. Вероятность попадания в мншеиь при одном выстреле для первого стрелка равна 0,4, для. второго — 0,6, для третьего — 0,8. Найти вероятность того, что в мишени будет две пробоины.
л 29Отв. р — .7э
17. Трое охотников одновременно выстрелили по медведю, который был убит одной нулей. О пределить вероятность того, что медведь был убит первым охотником, если вероятности попадания для них равны соответственно 0,3, 0,4, 0,5.
9Отв. р — — .
46
18. О пределить вероятность того, что среди 500 лампочек нет пн одной неисправной, если из взятых наудачу 50 лампочек все оказались исправными. Предполагается, что число неисправны х лампочек пз 500 равновозм ож но от 0 д о 5.
О т в. р — 0,214.
19. И звестно, что 95% вы пускаемой продукции удовлетворяю т стандарту. У пр ощ е нн ая схема контроля признает пригодной стандартную п родукцию с вероятностью 0,98 и нестандартную — с вероятностью 0,00. О пределить вероятность того, что изделие, п р о ш ед ш ее упрощ енны й контроль, удовлетворяет стандарту.
От в. р = 0,9908.
20. По цели производится пять независимых выстрелов. В ероятность попадания в цель при одном выстреле равна 0,4. Для получения зачета но стрельбе т р ебуется не меиее трех попаданий. Найти вероятность получения зачета.
От в. р = 0,317.
21. Вероятность отказа каждого прибора при испытании равна 0,3. Сколько таких приборов нужно испытать, чтобы с вероятностью 0,99 получить одни отказ?
Ошв. /*5= 13.
22. Вероятность изготовления детали отличного качества равна 0,9. Какова вероятность того, что среди 10 деталей не м енее девяти отличного качества?
Ошв. р — 0,7361.
23. П оследовательно послано четыре радиосигнала. Вероятности приема к аж дого нз них ге зависят от того, приняты ли остальные сигналы, и соотв етс тв ен но равны 0,2, 0,3, 0,4; 0,5. О пределить вероятность приема трех радиосигналов.
О т в. /; = 0,10С.
24. Прибор выходит из строя, если п ер его р и т не меиее пяти ламп I типа или не м енее двух ламп II типа. О пределить вероятность выхода нз строя прибора, если известно, что пер егор ел о пять ламп, а вероятность п е р ею р а н н я ламп I и II типов равны соо'пк‘тс '1 пеппо 0,7 п 0,3.
Ошв. р — 0,04.
Гла в а 2СЛУЧАЙНЫЕ в е л и ч и н ы
§ 2.1. ПОНЯТИЕ СЛУЧАЙНОЙ ВЕЛИЧИНЫ
До сих пор мы имели дело со случайными событиями. Событие является качественной характеристикой случайного результата опыта. Но случайный результат опыта можно характеризовать и количественно. Н апример, число попаданий в цель при пяти выстрелах, число деталей, выходящих по своим размерам за пределы допуска, и т. д. Количественной характеристикой случайного результата опыта является случайная величина.
Случайной величиной называется величина, которая в результате опыта может принять то или иное (но только одно) значение, причем заранее, до опыта, неизвестно, какое именно.
Понятие случайной величины является фундаментальным понятием теории вероятностей и играет очень большую роль в ее приложениях.
Случайные величины обозначаются обычно заглавными буквами конца латинского алфавита — X , Ү , а их возможные значения обозначаются соответствующими малыми буквами х, у, . . . .
Среди случайных величин, с которыми приходится встречаться в практике, можно выделить два основных типа: дискретные величины и непрерывные величины.
Д искрет ной случайной величиной называется такая величина, число возможных значений которой либо конечное, либо бесконечное счетное множество (множество, элементы которого могут быть занумерованы).
Приведем примеры дискретных случайных величин.1. Частота попаданий при трех выстрелах.Возможные значения случайной величины X , выра
жающей частоту попаданий при трех выстрелах, будут следующие:
1 2Х\----О, Д-2 — 2 » а’з ----- 7j- , х^---- 1.
48
2. Число дефектных изделий в партии из п штук.Если обозначить через /Ү случайное число дефектных
изделий, то возможные значения этого числа будут следующие:
A'l = О, Л'о = 1, А'з = 2, ...., Л'„ ., — п.3. Число вызовов, поступающих на телефонную стан
цию в течение суток.Случайная величина X в данном примере может при
нять следующие значения:*1 = 0, лга = 1, д'з — 2, . . .
4. Число выстрелов до первого попадания в цель.В этом примере случайная величина X может при
нимать бесконечное, но счетное множество значений:* 1 = 1 , Х-1 — 2, Л';, = 3 , . . .
Непрерывной случайной величиной называется такая величина, возможные значения которой непрерывно заполняют некоторый интервал (конечный или бесконечный) числовой оси. Очевидно, число возможных значений непрерывной случайной величины бесконечно.
Приведем примеры непрерывных случайных величин.1. Случайное отклонение но дальности точки падения
снаряда от цели.Так как снаряд может упасть в любую точку интер
вала, ограниченного пределами рассеивания снарядов, то все числа из этого интервала будут возможными значениями случайной величины X — отклонения точки падения снаряда от цели.
2. Ошибка при измерении дальности радиолокатором.3. Время безотказной работы радиолампы.4. Диаметр обработанной втулки и т. д.Случайная величина является своего рода абстрактным
выражением случайного события. С каждым событием А можно связать некоторую характеристическую случайную величину. Например, при выводе формулы Бернулли мы искали вероятность того, что событие А появится ровно т раз при п независимых испытаниях. Можно было бы искать вероятность того, что случайная величина X , возможными значениями иоторой являются .V, = 0, Л'.> = 1, хЛ = 2, . . . , л'/г, 1 = п, примет значение хт..Л = т при п независимых испытаниях. Оперирование с понятием случайной величины в ряде случаев бывает более удобным, чем оперирование со случайными событиями.
49
§ 2.2. ЗАКОН РАСПРЕДЕЛЕНИЯ ВЕРОЯТНОСТЕЙ ДИСКРЕТНОЙ СЛУЧАЙНОЙ ВЕЛИЧИНЫ
Рассмотрим дискретную случайную величину X , возможные значения которой х и x it . . . , хп нам известны. Очевидно, что знание возможных значений случайной величины еще не позволяет нам полностью описать случайную величину, так как мы не можем сказать, как часто следует ожидать появления тех или других возможных значений случайной величины в результате повторения опыта в одних и тех же условиях. Д ля этой цели необходимо знать закон распределения вероятностей случайной величины.
В результате опыта случайная величина X примет одно нз своих возможных значений, т. е. произойдет одно событие пз полной группы несовместных событий:
X = А'ь .
Х = х н.
Все эти события являются несовместными, потому что случайная величина X может принять в результате опыта только одно значение, и образуют полную группу событий, так как никаких других событий, кроме перечисленных, в результате опыта произойти не может.
Обозначим вероятности этих событий буквами р с соответствующими индексами:
Р (х = Xi) — pi, Р (X = А'-») = p i , . .. , Р {X = А'„) —-/VНа основании того, что события (2.1) образуют пол
ную группу несовместных событий, сумма вероятностей всех возможных значений случайной величины X равна единице:
£ р (Х = л-,.) = V > = 1 .«=:! І I
Эта суммарная вероятность каким-то образом распределена между отдельными значениями случайной величины. Дискретная случайная величина будет полностью описала с вероятностной точки зрения, если будет указано, какую вероятность имеет каждое из событий (2.1). Этим мы установим закон распределения случайной величины.
50
Законом распределения случайной величины называется всякое соотношение, устанавливающее связь между возможными значениями случайной величины и соответствующими вероятностями.
Зная распределение вероятности между возможными значениями случайной величины, можно до опыта судитьо том, какие значения случайной величины будут появляться чаще и какие реже.
Заметим, что способы или формы представления закона распределения случайной величины могут быть различными.
Простейшей формой задания закона распределения дискретной случайной величины X является таблица, в которой перечислены возможные значения случайной величины и соответствующие им вероятности:
Хі 1 Xi 1
Pi 1 pl 1 * 1 . ■ • 1 Pn
Такая таблица носит название ряда распределения случайной величины.
Д ля наглядности ряд распределения представляют графически. При графическом представлении все возможные значения случайной величины откладываются по оси абсцисс, а но оси ординат— соответствующие вероятности. Вершины полученных ординат обычно соединяют отрезками прямых (рис. 8). Следует помнить, что соединение вершин ординат делается только в целях наглядности, так как в промежутках между л'( и х.>, л\> и х-л и т. д. случайная величина х значений принять не может, поэтому вероятности се появления в этих промежутках равны нулю.
Такая фигура на- |/созывается многоугольником распределения.Многоугольник распределения, так же как н ряд распределения, является одной пз форм задания закона распределения дискретной случайной величины X . рис.а
51
Многоугольники распределения могут иметь самую различную форму, однако все они обладают одним общим свойством.
Сумма ординат многоугольника распределения, представляющая собой сумму вероятностей всех возможных значений случайной величины, всегда равна единице.
Эго является основным свойством многоугольника распределения и вытекает нз того, что все возможные
значения случайной величины X образуют полную группу несовместных событий, сумма вероятностей которых равна единице.
Используя данные примера 3 § 1.9, построим ряд распре- деления и много-
Рис, 9 угольник распределения числа попада
ний в цель при пяти независимых выстрелах, если вероятность попадания в цель при одном выстреле равна 0,6.
Возможными значениями случайной величины X (числа попаданий) являются:
Х{ = 0, х->== 1, л*з = 2, л'і — 3, Ад — 4, л'г, — 5.Вероятности этих значений соответственно равны:
= 0,01024, р, = 0,0768, р;, = 0,2304, р4 = 0,3456, ps = 0,2592, ре = 0,07776.
Ряд распределения величины X имеет вид:
1 0 1 1 1 2 1 3 4 1 5
Pi 1 0,0102 i I 0,0768 ’| 0,2304 І 0,3156 ! 0,2592 j 0,07776
Многоугольник распределения изображен на рис. 9.
§ 2.3. ФУНКЦИЯ РАСПРЕДЕЛЕНИЯ
Рассмотренный ряд распределения является удобной формой представления закона распределения для дискретной случайной величины с конечным числом возможных значений. Однако ряд распределения вообще нельзя построить для непрерывной случайной величины. Действительно, непрерывная случайная величина имеет бес
52
численное множество возможных значении, которые сплошь заполняют некоторый промежуток, и перечислить их в какой-либо таблице нельзя. Кроме того (как мы увидим в конце этого параграфа), каждое отдельное значение непрерывной случайной величины обычно не обладает никакой отличной от нуля вероятностью. Следовательно, для непрерывной случайной величины не существует ряда распределения в том смысле, в каком он существует для прерывной случайной величины.
В силу этого желательно иметь такую характеристику распределения вероятности, которая была бы применима для самых разнообраз-ных случайных в е л и ч и и . -------------- ---------
Наиболее общей фор- -----------1----------*--------мой закона распределе- 0 л х хния случайной величины X является так Рис- 10называемая функция распределения.
Функцией распределения, или интегральным законом распределения, случайной величины X называется задание вероятности выполнения неравенства X <[ х, рассматриваемой как функции аргумента х:
Ғ(х) = Р ( Х < х ) .
Из определения функции распределения следует, что она существует для всех случайных величин: как дискретных, так и непрерывных. Функция распределения полностью характеризует случайную величину с вероятностной точки зрения, это значит, что она является одной из форм закона распределения.
Определение функции распределения имеет простую геометрическую интерпретацию. Если рассматривать случайную величину как случайную точку X оси Ох (рис. 10), которая в результате опыта может занять то или иное положение, то функция распределения Ғ (х) есть вероятность того, что случайная точка X в результате опыта попадает левее точки х.
Д ля дискретной случайной величины X , которая может принимать значения х и хъ . . . , хп, функция распределения будет иметь вид:
2 Р { Х = хд, (2.2)
53
где символ Х-, х под знаком суммы обозначает, что суммирование распространяется па все те возможные значения случайной величины, которые по своей величине меньше аргумента х.
Из выражения ■ (2.2) следует, что функция распределения дискретной случайной величины /Ү разрывна и возрастает скачками при переходе через точки возможных ее значений Л'ь л:», . . . , хп, причем величина скачка равна вероятности соответствующего значения. Рассмотрим пример.
Пример 1. По цели производится три независимых выстрела. Вероятность попадания в цель при каждом выстреле равна 0,4. Построить функцию распределения числа попадании.
Р е ш е н и е . Обозначим число попаданий через X, тогда возможные значения случайной величины X будут следующие:
Х\ — 0, Л'а = 1, Л'з = 2, Хі = 3.Вероятность возможных значений случайной вели
чины определяем по формуле БернуллиР ( Х = Х ' ) = (% ря1дп- %
где /г = 3. Будем иметь:Р ( Х = 0) = 0,216, Р (X = 1) = 0 ,4 3 2 , Р (X = 2 ) = 0,288,
Р(Л' = 3) = 0,064.Составляем ряд распределения:
Х( 0 1 2 3
Р ( Х = Х і ) 0,216 0,432 0,288 0,061
Построим с помощью выражения (2.2) функцию распределения случайной величины X:
1. При Ж 0 / ’ ( * ) = S Р (X = Л',-) = 0.
4. При 2 < x s s 3 F ( x ) = } ] Р (Х = хі) = Р (А'= 0 ) - !•V; < і
_|- Р (X = 1) -}- Р (X = 2 ) = 0 ,9 3 6 .5. При л '> 3 Ғ (х) = Р (X = 0) Р (X = I) -\г
- \ ~ Р ( Х = 2) -{- Р (X = 3) = 1.График функции распределения представлен на рис. 11.
В рассмотренном примере значения случайной величины разделены интервалами,внутри которых других возможных значений нет. Характерно то, что на этих интервалах функция распределения Ғ (х) постоянна, т. е. график
1
1Г(х)
1 1 | 1
1------- 1 1| 1 < I 1 | 1 1 __1 I 1i t 1 1 1 1 1 1 1
0 / 2 3Р а с . 11
функции распределения представляет собой ступенчатую ломаную линию. Из графика видно, что при каждом новом значении случайной величины ступень поднимается выше на величину, равную вероятности этого значения.
Рассмотрим общие свойства функции распределения.С в о й с т в о 1. Функция распределения Ғ (х) есть неот
рицательная функция, заключенная между нулем и единицей:0 ^ F ( x ) - ^ l .
Справедливость этого свойства вытекает из того, что функция распределения F (х) определена как вероятность случайного события X <dx.
С в о й с т в о 2. Вероятность появления случайной величины с, интервале [а, 3), полузамкнутом слева, равна разности значений функции распределения в концах интервала, т. е.
Р (* < X < 3) = F (?) - F (а). (2.3)Д о к а з а т е л ь е т в о. Рассмотрим следующие три
события:
55
Событие А, состоящее в том, что случайная величина Х < } .
Событие В, состоящее в том, что случайная величина X < ^ z .
Событие С, состоящее в том, что я < ; Х < ^ 3 .Очевидно, событие А представляет собой сумму двух
несовместных событий В и С, т. е.А — В -}- С.
По теореме сложения вероятностей несовместных событий имеем:
Р(А) = Р( В) -Һ Р(С).Но
Р И ) = Р (X С ?) •— Ғ (3);Р(В) = Р ( Х < Я ) = Ғ ( а);Р(С) = Р ( у. ^ Х < 3).
ПоэтомуF(?) = F(*) + P ( * < x С ? ) . (2.4)
ОтсюдаЯ ( а ^ X < ? ) = /=■(?) — F (а).
что и требовалось доказать.Перейдем' в равенстве (2.3) к пределу при -> я.
В пределе вместо вероятности попадания случайной величины X в интервал [я, р) получим вероятность того, что эта величина примет отдельно взятое значение я:
Р (X = а) = lim Р (а< X < р) = lim [F (3) — Ғ (я)|. (2.5)— а — а
Значение этого предела зависит от того, является ли непрерывной функцией F (х) в точке я или же терпит разрыв. Если в точке я функция P(.v) имеет разрыв, то предел (2.5) равен значению скачка функции F (х) в точке я. Если же функция F (х) в точке д непрерывна, то этот предел равен пулю.
Так как непрерывная случайная величина X имеет непрерывную функцию распределения F (х), то из равенства нулю предела для непрерывной функции F (х)■ в точке я следует, что и вероятность любого отдельного значения непрерывной случайной величины равна нулю. Этот вывод, на первый взгляд, парадоксален. Однако он вполне согласуется с данным в § 1.4 статистическим определением вероятности события. Равенство нулю вероятности события характеризует тенденцию частоты этого
события неограниченно убывать при увеличении числа опытов и ни в какой мере не означает, что данное событие невозможно.
С в о й с т в о 3. Функция распределения случайной величины есть неубывающая функция, т. е. при 3 ^>а
Ғ & ) * * Ғ ( г ) .Это свойство вытекает из свойства 2. Действительно,
согласно выражению (2.4), имеем:F ( V = F ( r , ) - l - P { а < Л ' < 3 ) .
Но так как вероятность любого события не может быть отрицательна, то Р ( а ^ X 3) ^ 0. А это значит, что F (3) F (а), если 3 а.
С в о й с т в о 4. На минус бесконечности функция распределения равна нулю, а на плюс бесконечности функция распределения равна единице, т. е.
F (— со) = 0, F (-{- со) = 1.В самом деле, при неограниченном перемещении
точки х влево попадание случайной точки X левее х в пределе становится невозможным событием. Поэтому естественно полагать, что вероятность этого события стремится к нулю, т. е.
F ( со) = 0.Аналогичным образом, при неограниченном перемещении точки л' вправо попадание случайной точки X левее л* в пределе становится достоверным событием. Поэтому вероятность этого события стремится к единице, т. е.
F (-{- сс) = 1.Рассмотренные свойства функции распределения ко
ротко можно сформулировать так: каждая функция распределения является неотрицательной неубывающей функцией, удовлетворяющей условиям F (— оо) = 0 и /Ч - |-о о ) = Г.
Обратное утверждение также имеет место, т. е. каж дая функция, удовлетворяющая перечисленным условиям, может служить функцией распределения некоторой случайной величины.
Поскольку с помощью функции распределения можно найти вероятность появления случайной величины в любом интервале или в любой точке возможных значении для дискретной случайной величины, то функция рас
57
F(x)
у ' - -
Я XР а с . 12
пределения однозначно определяет закон распределения случайной величины.
Заметим, что если функция распределения возрастает в каждой точке интервала (а, b), то возможные значе
ния случайной величины непрерывно заполняют этот интервал, так как согласно выражению (2.4), вероятность того, что случайная величина примет значение, заключенное в сколь угодно малой части (а, $) этого интервала, отлична от нуля. Таким образом,
монотонно возрастающей функции распределения Ғ (х) на интервале (а, Ь) соответствует непрерывная случайная величина, возможные значения которой непрерывно за.- полняют этот интервал.
В дальнейшем изложении мы. будем называть непрерывными только те случайные величины, функция распределения которых везде непрерывна.
Из рассмотренных свойств следует, что график функции распределения для непрерывной случайной величины имеет вид, изображенный на рис. 1 2 .
В связи с равенством нулю вероятности любого отдельного значения непрерывной случайной величины равенство (2.3), определяемое свойством 2, для непрерывной случайной величины можно переписать так:
Р (а X < [3) = Р (а < X (3) = Р (а < X < р) == F ( P ) - F ( a), (2.6)
т. е. граничные точки интервала могут как включаться, так и выключаться.
Пример 2. Функция распределения непрерывной случайной величины X задана выражением
[ 0 при ,v=hSi,F (х) = j а (х — I) 2 при 1 < ' х -г-: 3,
1 при .V 3.
о 8
Найти коэффициент а и построить график Ғ(х) . Определить вероятность того, что случайная величина X в результате опыта примет значение на участке ( 1 ,2 ).
Р е ш е н и е . Так как функция распределения непрерывной случайной величины X непрерывна, то прих — 3 имеем: а ( х — 1 ) - = 1 , откуда а = - г .
График функции Ғ ( а ) изображен на рис. 13.Исходя пз второго свойства функции распределения,
имеем:Р ( 1 < Х < 2 ) = Ғ ( 2 ) . - Ғ ( 1 ) = .;' ( 2 - 1 ) * - І ( 1 - 1 )’ = | .
§ 2.4. ПЛОТНОСТЬ РАСПРЕДЕЛЕНИЯ
Функция распределения непрерывной случайной величины является ее исчерпывающей вероятностной характеристикой. Но она имеет недостаток, заключающийся в том, что по пей трудно судить о характере распределения случайной величины в небольшой окрестности той пли другой точки числовой осп. Более наглядное представлениео характере распределения непрерывной случайной величины в окрестностях различных точек дается функцией, которая называется плотностью, распределения вероятности или дифференциальным законом распределения случайной величины. В этом параграфе мы рассмотрим плотность распределения вероятности и ее свойства.
Пусть имеется непрерывная случайная величина А' с функцией распределения Ғ ( а ) . Вычислим вероятность попадания этой случайной величины на элементарный участок (д*, a - j - Ах). Согласно формуле (2.6) имеем:
Р (х < X < х -{- A.v) = F (х A.v) — F ( а ) .
Составим отношение этой вероятности к длине участка Ал:Р ( а А <С х А л ) __Л (A -j- А д) [" ( х ) /<-) уч
А д ~ Ал- ’
Полученное отношение называется средней вероятностью, которая приходится па единицу длины этого участка.
Считая функцию распределения F ( а ) дифференцируемой, перейдем в равенстве (2.7) қ пределу при Ах-> 0; тогда получим:
ІІШ / ^ А - < £ ± ^ = И|п Щ -Л л -> - _ n x 1 = F v .)Xv —U ~*Л’ -l.v-'U ЛЛ
(2 .8 )
59
Предел отношения, вероятности попадания непрерывной случайной величины на элементарный участок от х до х -j- Ал* к длине этого участка Ал*, когда A.v стремится к нулю , называется плотностью распределения случайной величины в точке х и обозначается } (х).
• В силу равенства (2.8) плотность распределения f (х) равна производной от функции распределения F (х), т. е.
f ( x) = F'(x).
Смысл плотности распределения [ (х) состоит в том, что она указывает на то, как часто появляется случай
ная величина X в некоторой окрестности точки Л' при повторении опытов.
Кривая, изображающая плотность распределения f (х) с л у ча й ной вел и ч и н ы, называется кривой распределения. П римерный вид кривой распределения f (х) изображен и а рис. 14. значения случайной
величины заполняют некоторый конечный промежуток, то плотность распределения f (х) — 0 вне этого промежутка.
Выделим на оси абсцисс элементарный участок A.v, примыкающий к точке х (рис. 15), и найдем вероятность попадания случайной величины X на этот участок. С одной стороны, эта вероятность равна приращению AF (х) функции распределения F (х), соответствующему приращению Ax = dx аргумента х. С другой стороны, вероятность попадания случайной величины X па элементарный участок clx с точностью до бесконечно малых высшего порядка, чем A.v, равна f (х) dx (так как ±F(x)^=;
dF (х) = f (Л') dx) . Геометрически это есть площадь элементарного прямоугольника с высотой f (л') и основанием dx (рис. 15). Величина f (х) dx называется элементом вероятности.
Следует обратить внимание иа то, что не все случайные величины,’ возможные значения которых непрерывно заполняют некоторый интервал, являются непрерывными
Заметим, что если возможные
60
случайными величинами. Встречаются такие случайные величины, возможные значения которых непрерывно заполняют некоторый промежуток, но для которых функция распределения не везде является непрерывной, а в отдельных точках терпит разрывы. Такие случайные величины называются смешанными. Так, например, в за
даче обнаружения сигнала в шумах амплитуда полезного сигнала является смешанной случайной величиной /Ү, которая может принимать любое значение, как положительное, так и отрицательное.
Действительно, если в принимаемом радиосигнале присутствует полезный сигнал с вероятностью р, то
вероятность отсутствия сигнала, т. е. вероятность нулевого значения его амплитуды (амплитуда сигнала равна нулю, когда сигнал отсутствует и принимается один шум), равна 7 = 1 — р ■ А это значит, что амплитуда сигнала представляет собой случайную величину X смешанного типа с возможными значениями, непрерывно заполняющими всю действительную ось, и с одним нсклю-
(51
чительным нулевым возможным значением, имеющим вероятность q. График функции распределения F (х) амплитуды полезного сигнала изображен на рис. 16.
Дадим теперь более строго определение непрерывной случайной величины.
Случайная величина X называется непрерывной, если ее функция распределения F (лЛ непрерывна на всей оси Ох, а плотность распределения f (х) существует везде, за исклю
чением, быть может, конечного числа точек.
Рассмотрим свойства п л от и ости р а с 11 р еде л е-ІІИЯ.
С в о й с т в о 1. Плотность распределения неотрицательна, т. е.
l ( x ) S* 0 .
Это свойство непосредственно вытекает пз
того, что плотность распределения / (.г) есть производная от неубывающей функции распределения F (х).
С в о й с т в о 2. Функция распределения случайной величины равна интегралу от плотности в интервале от — со до ху т. е.
F {*) = \ f { x ) dx . (2.9)
Д о к а з а т е л ь с т в о . По определению дифференциала функции имеем:
clF (х) = f (,v) dx.Следовательно,
i f ( x ) d x = I dF(x) — F{x) — F ( — oo),— 4.0 — _o
no F (— со) = 0 (свойство 4, § 2.3), поэтому
F ( x ) = \ f ( x ) d x .
На графике плотности распределения функция распределения изображается площадью, заштрихованной па рис. 17.
62
С в о й с т в о 3. Вероятность попадания непрерывной случайной величины X на участок (я, р) равна интегралу от плотности распределения, взятому по этому участку, т. е.
P ( c . < X < ? ) = Sf(.v)d.v. (2 . 1 0 )а
Д о к а з а т е л ь с т в о . На основании свойства функции распределения имеем:
P ( y . < X C ? ) = F Q ) - F ( o . ) .
Но согласно равенству (2.9)
f & ) = 1 f ( x) t l x , F (я) — \ f (х) dx.— GO — с о
Поэтому
Р (а < Л' < 3) = J f (х) dx — \ f (х) dx =-— СС —“ ч-О
= s f м d x + s f w d x = І /■ w d x >— o o а а
что и требовалось доказать.Геометрически полученный результат можно истол
ковать так: вероятность того, что непрерывная случайная величина примет значение, принадлежащее интервалу (а, 8), равна площади криволинейной трапеции, заштрихованной па рис. 18.
Заметим, что интеграл (2 . 1 0 ) можно получить, суммируя элементы вероятности на всем участке Рис. 18(а, р).
С в о й с т в о 4. Интеграл в бесконечных пределах от плотности распределения равен единице:
\ f ( x ) d x = 1 . (2 . 1 1 )
(33
Д о к а з а т е л ь с т в о . Заменяя в равенстве (2.9) величину х па плюс бесконечность и учитывая, что Ғ (-}-со) = = 1 , получим:
СО
Ғ ( + со) = 5 f (х) dx = 1,
что и требовалось доказать.Если интервал возможных значений случайной вели
чины имеет конечные пределы а и Ь, то плотность распределения f{x) = 0 вне промежутка [а, Ь] и свойство 4 тогда можно за писать так:
Геометрически доказанное свойство плотности распределения
означает, что вся площадь криволинейной трапеции, ограниченной осью Ох и кривой распределения, равна единице.
Пример. Случайная величина X подчинена закону распределения с плотностью
f (х)asin.v при 0 =sS .v <
О при х < 0 или х^>т..
Требуется:1.) Найти коэффициент а.2) Построить график плотности распределения.3) Найти вероятность попадания случайной величины
на участок от 0 до .Р е ш е н и е . 1) Д ля определения коэффициента а вос
пользуемся свойством 4 плотности распределения:
2а — I,
откуда а = 2 -2) График плотности распределения / (лг) представлен
на рис. 19.
64
3) По формуле (2.10) имеем:
•1
Р \ 0 < Х < 4U i ‘ >I' I . , 1V ~ sm х dx — — у cos х
и
cos — cos 0) ^ 0,15.
§ 2.5. ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ СЛУЧАЙНОЙ ВЕЛИЧИНЫ
1. Понятие числовых характеристик. Мы уже знаем, что закон распределения полностью характеризует случайную величину с вероятностной точки зрения. Зная закон распределения случайной величины, можно указать, где располагаются возможные значения случайной величины и какова вероятность появления ее в том или ином интервале.
Одпако при решении многих практических задач нет необходимости характеризовать случайную величину полностью, а достаточно иметь о случайной величине только некоторое общее представление. Зачастую достаточно бывает указать не весь закон распределения, а только лишь некоторые характерные черты закона распределения.
В теории вероятностей для общей характеристики случайной величины используются некоторые величины, которые носят название числовых характеристик случайной величины.
Основное их назначение — в сжатой форме выразить наиболее существенные особенности того или иного распределения.
О каждой случайной величине необходимо прежде всего знать ее некоторое среднее значение, около которого группируются возможные значения случайной величины, а также какое-либо число, характеризующее степень разбросанности этих значений относительно среднего. Кроме указанных числовых характеристик, для более полного описания случайной величины используют ряд других числовых характеристик. Все они помогают в той или другой мере уяснить характерные черты распределения случайной величины. Рассмотрим наиболее часто встречающиеся числовые характеристики.
2. Математическое ожидание. Математическое ожидание является важнейшей характеристикой положения
3 Гурский 6 5 '
случайной величины. Математическое ожидание случайной величины иногда называют просто средним значением случайной величины.
Рассмотрим сначала дискретную случайную.велпчину X, имеющую возможные значения Хи Хо, . . . . хп с вероятностями рх, р.ъ рп. Тогда математическое ожидание случайной величины X, которое мы обозначим М [X], определяется равенством
/І
' м \ Х ] = ХхРх + х*р-2 + . . . + ХпРп = 2 XiPi. (2.12)1
Если дискретная случайная величина X может принимать бесконечное счетное множество значений x t, х2, х-л, . . . с вероятностями р 1г Р-:> Рз> •••» то ее математическое ожидание определяется равенством
00
м \ Х ] = 2 а д - (2 . 1 2 ')І = 1
Итак, математическим ожиданием случайной величины X называется сумма произведений всех возможных значений случайной величины на вероятности этих значений.
В дальнейшем наряду с обозначением М [X] мы будем обозначать математическое ожидание случайной величины X через т к:
тх — М[ Х ] .Ниже (в гл. VII) будет показано, что математиче
ское ожидание приближенно равно среднему арифметическому наблюдаемых значений случайной величины, и тем точнее, чем больше число опытов.
Если производится несколько серий опытов, то математическое ожидание есть такое постоянное число, около которого будут колебаться средние арифметические значения случайной величины, вычисленные для каждой серии опытов.
Рассмотрим теперь непрерывную случайную величину X, все возможные значения которой принадлежат отрезку \а, Ь]. Пусть f (х) есть плотность распределения величины X. Разобьем отрезок [а, Ь) па п частичных отрезков, длины которых обозначим через Дл'ь Д*о, . . . . . . , Дл:7і. Возьмем в каждом частичном отрезке по одной точке, абсциссы которых обозначим соответственно xv Х.у, . . . | ха.
66
Так как произведение [ (л:,-) Д*£- ( « = 1 , 2, /г) приближенно равно вероятности попадания случайной величины X на элементарный участок Да',-, то сумма произведений
j] Xi f (Хі) ЛХі, (2.13)< = і
составленная по аналогии с определением математического ожидания для дискретной случайной величины, приближенно равна математическому ожиданию непрерывной случайной величины X .
Перейдя к пределу в сумме (2.13) при стремлении к нулю длины наибольшего из частичных отрезков Да',-, получим определенный интеграл
п Ьlim У) Xif (хі) ДХі — [ xf (х) dx,
тач -* 0 j а
который и полагают по определению равным математическому ожиданию непрерывной случайной величины X.
Итак, математическим ожиданием непрерывной случайной величины X , возможные значения которой принадлежат отрезку [а, Ь\, называют определенный интеграл
ьM [ X ] = \ x f ( x ) d x . (2.14)
а
Если возможные значения непрерывной случайной величины X принадлежат всей осп Ох, то математическое ожидание определяется интегралом
LQ
М [X] = \ xf (х) dx. (2.15)— СО
Понятие математического ожидания случайной вели- -чины имеет простую механическую интерпретацию.
Действительно, распределение вероятностей случайной величины можно интерпретировать механически как распределение масс на прямой. Вся распределенная на прямой масса принимается за единицу. Дискретной случайной величине X, имеющей возможные значения х\, x if хп с вероятностями р и р . . . , рп, соответствует прямая с сосредоточенными в точках с абсциссами лгь л*2> . . . , хп массами р 1г р.2) , рп.
3« 67
Непрерывной случайной величине соответствует непрерывнее распределение масс на прямой с плотностью в каждой точке, равной плотности вероятности в этой точке. Тогда математическое ожидание М [А'], определяемое формулой (2.12) или (2.15), есть не что иное как абсцисса центра тяжести стержня, так как формулы (2.12) и (2.15), очевидно, совпадают с выражением для координаты центра тяжести стержня, имеющего массу, равную единице.
Следует заметить, что встречаются и такие случайные величины, для которых математическое ожидание не существует, так как соответствующая сумма (2 . 1 2 ') или соответствующий интеграл (2.15) расходятся. Однако такие случайные величины встречаются довольно редко. Обычно случайные величины, с которыми мы имеем дело на практике, имеют математическое ожидание.
Отметим простейшие свойства математического ожидания.
С в о й с т в о 1. Математическое ожидание постоянной величины равно самой постоянной, т. е.
м [С] = с.Д о к а з а т е л ь с т в о . Постоянную величину С можно
рассматривать как частный случай величины, которая с вероятностью, равной единице, принимает только одно значение, равное С. Но тогда в соответствии с формулой (2 . 1 2 )
М [CJ = С - 1 — С.
С в о й с т в о 2. Постоянный множитель можно выносить за знак математического ожидания, т. е.
М [ С Х ] = С М [ Х ] .
Д о к а з а т е л ь с т в о.а) Д ля дискретных случайных величин:
М[СХ] = V СхіРі = С V XiPi = CM [X]. і ---1 І —- 1 .
б) Д ля непрерывных случайных величин:СО ГО
.VI [СХ J = J Cxf (.х) dx = С \ х} (х) dx = CM [X] .— СО — оэ
G8
Пример 1 . Определить математическое ожидание числа попаданий при пяти выстрелах, если случайная величина X (число попаданий) задана рядом распределения (см. § 2 .2 ):
Xl 0 1 2 3 4 5
Pi 0,01024 0,0768 0,2304 0,3456 0,2592 0,07776
Р е ш е н и е . По формуле (2.12) находим:М [X] = 0 • 0 , 1 024 -j- 1 • 0,0768 -j- 2 • 0,2304 -j- 3 ■ 0,3456 - f
- j -4• 0 ,2592- j - 5• 0,07776 = 3 (попадания).Пример 2 . Изделия испытываются на надежность.
Вероятность выхода пз строя за время испытания для каждого изделия равна р. Испытания заканчиваются после первого же изделия, не выдержавшего испытания. Найти математическое ожидание числа испытаний.
Р е ш е н и е . Если X — случайное число испытаний, то ряд распределения случайной величины X имеет вид:
■Ч 1 2 3 ... /е
Pi Р ЧР q-p Ч к~1Р
где q — 1 — р.Математическое ожидание случайной величины X,
согласно формуле (2 . 1 2 '), выражается суммой ряда:М [X] = 1 • р 4 - 2 • qp -j- 3 • q-p 4 - kqk~lp + . . . =
= р (1 2q 4 3ql 4* • • • “Г кЦ" 1 ~b • • •) •Легко заметить, что ряд, стоящий в скобках, пред
ставляет собой результат дифференцирования геометрической прогрессии
_ пq ~г q~ 4" q* 4 1
Следовательно,
1 4 2q~ -j- 3q ‘ 4 " kqh~1 •откуда
Р
(I q <tq 1 — q (1 - q)-
69
/(* )
Пример 3. Непрерывная ’ случайная величина X за дана плотностью распределения
ах при 0 < лг < 2 ,О при х< ^0 или х ^> 2 .
Найти значение коэффициента а и определить математическое ожидание случайной величины X .
Р е ш е н и е . Коэффициент а найдем, воспользовавшись свойством 4 плотности распределения:
^ f (х) dx — ах dx ■ 2 а = 1 ,ах~т
—'оо О1откуда а — ү .
По определению математического ожидания для непрерывной случайной величины найдем:
М [ Х ] = ^ x f { x ) d x = ^ x ^ x d x = ~ ^— со 6
3. Мода и медиана случайной величины. Кроме математического ожидания, которое является основной числовой характеристикой положения случайной величины, на практике применяются и другие характеристики положения, в частности мода и медиана случайной величины.
Модой Мп дискретной случайной величины называется ее наиболее вероятное значение.
Д ля непрерывной случайной величины мода есть такое значение случайной величины, при котором плотность распределения имеет максимум, т. е. f(/W0) = max. На рис. 2 0 и рис. 2 1 показана мода для дискретной и непрерывной случайной величины.
Если многоугольник распределения (кривая распределения) имеет два или несколько максимумов, то распределение называется двухмодальным или многомодальным (рис. 22 и 23).
Иногда встречаются распределения, которые имеют минимум, но не имеют максимум. Такие распределения называются антимодальиыми (рис. 24 и 25).
Медианой M D случайной величины X называется такое ее значение, относительно которого равновероятно получение большего или меньшего значения случайной величины,
P < , X < M D) = P ( X > M D).
70
Геометрически медиана — это абсцисса точки, в которой площадь, ограниченная кривой распределения, делится пополам (рис. 26). Каждая из этих площадей равна 0,5, так как вся площадь, ограниченная кривой распределения, равна единице. Поэтому функция распределения в точке MD
Ғ ( М ә ) = Р ( Х С М о ) = = О Л
Заметим, что если распределение одномодальное и симметрическое, то все три характеристики положения случайной величины — математическое ожидание, мода и медиана — совпадают.
4. Дисперсия и среднее квадратическое отклонение. Д ля характеристики случайной величины совершенно недостаточно знать только числовые характеристики положения, так как одному и тому же заданному математическому ожиданию может соответствовать бесчисленное множество случайных величин, различных не только по своим значениям, но и по их характеру и природе.
Значения наблюдаемых в практике случайных величин всегда более пли менее колеблются около среднего значения. Это явление называется рассеянием величины около ее среднего значения.
Числовые характеристики, характеризующие рассеяние случайной величины, т. е. показывающие, насколько тесно сгруппированы возможные значения случайной величины около центра рассеивания (математического ожидания), называются характеристиками рассеивания.
Основными характеристиками рассеивания случайной величины являются дисперсия и среднее квадратическое отклонение. .
При определении указанных характеристик используется разность между случайной величиной /Ү и ее математическим ожиданием тх> т. е. X — тх.
Эта разность называется центрированной случайнойвеличиной, соответствующей величине X, и оиозна-
0чается X:
X = X — т х.
Очевидно, закон распределения центрированной случайной величины X совпадает с законом распределения соответствующей случайной величины Л'.
72
Нетрудно показать, что математическое ожидание центрированной случайной величины равно нулю. Действительно, для дискретной случайной величины
М [Л; ] = М [X — тх \ = 2 (Xi — т х) pi =/« 1
п п п
— У ) X iP i — v т х р і — пгх — /??л. y j p i — m x tnx 1 = 0;i= I i= I I — I
для непрерывной случайной величины
/VI [Л' ] = М [X — тх] — \ (х — тх) f ( a') dx =— 00
со о= jj A'/ ( a ) dx — /«.v jj f (a ) dx — tnx — /н v- 1 = 0 .
— СО —со
Но если математическое ожидание центрированнойослучайной величины X равно пулю для всякой случайной величины X , то, конечно, оно никак не характеризует рассеяние ее значений, указывая только, что значения отклонения — числа разного знака. Поэтому в качестве меры рассеивания случайной величины берут математическое ожидание квадрата отклонения случайной величины от ее математического ожидания
M [ ( X - w . v)*|,
которое называют дисперсией случайной величины X и обозначают D [X] или Dx.
Итак, дисперсией случайной величины называется математическое ожидание квадрата отклонения величины от ее математического ожидания, т. е.
D[ X ] = М [(X — тх)-] или D [X] = М [X*].
Д ля дискретной случайной величины дисперсия выражается суммой
D [X ] = 2 ( X t - m j p , , (2.15)I - I
а -для непрерывной — интеграломсо
D [ X ] = I ( а — тх)- f (a ) dx. ( 2 . 1 7 )— СО
7о
Формулы (2.16) и (2.17) непосредственно следуют из определения математического ожидания.
Дисперсия случайной величины является очень удобной характеристикой рассеивания возможных значений случайной величины. Однако она лишена наглядности, так как имеет размерность квадрата случайной величины.
Для большего удобства желательно иметь характеристику, по размерности совпадающую с размерностью случайной величины. Такой характеристикой является среднее квадратическое отклонение случайной величины, которое представляет собой положительный квадратный корень из ее дисперсии. Обозначают среднее квадратическое отклонение случайной величины X символом оА.:
ах = }Л Щ х]. (2.18)
Рассмотрим простейшие свойства дисперсии.С в о й с т в о 1. Дисперсия постоянной величины равна
нулю:D [С] — 0.
Действительно, если в данных условиях величина X может иметь только одно значение С, то, в соответствии с первым свойством математического ожидания
М[С] = С.
Тогда по определению дисперсииР \С\ = М [(С - М [С])'-] = М [(С — С)2] = 0 .
С в о й с т в о 2. Дисперсия произведения постоянной величины на случайную величину равна произведению квадрата постоянной величины на дисперсию случайной величины:
D[CX] = C-D[X\ .
Д о к а з а т е л ь с т в о . На основании определения дисперсии и второго свойства математического ожидания имеем:
D [ С Х ] = А1 [(СХ — М [СЛ'1)-] = М [(СХ — CM [X])-] = = М [С2 (X — М [X])2] = С' М [(X — М [X])-] = C2D [X].
С в о й с т в о 3. Дисперсия случайной величины равна математическому ожиданию квадрата случайной величины минус квадрат ее математического ожидания:
D[ X] = M[X-] — m%.
74
Д о к а з а т е л ь с т в о . Используя определения для дисперсии и математического ожидания, имеем:
а) для дискретной случайной величиныП 11
D [X] = 2 (Xi — тх)~ Pi = 2 (Л7 — 2Х{тх - f rn%) pt =i = I ; = l
n n n= У і x i P i — 2/И* 2 О Д - -f- /И І 2 A- =
* = 1 І = 1 1 = 1
• = M [X2] — 2m% 4- m l = M [X2] — m%;б) для непрерывной случайной величины
со со
D [X] = (х ~ т х? f (х) d x = 5 x~f (х) dx!—— со — со
со со
— 2т х 5 x f (х) dx -[- т% $ / (х) dx — М [X2] — 2т\- -(- т% —— со —со
= М [X2] — т%,что и требовалось доказать.Пример 3. Найти математическое ожидание и среднее
квадратическое отклонение числа появлений события А при одном опыте.
Р е ш е н и е . Так как при одном опыте число появлений X события А может принять только одно из двух значений 0 или 1 , причем вероятность значения 1 равна вероятности р появления события А, а вероятность значения 0 равна вероятности q = l — р непоявления события А, то применяя формулу (2.12), найдем:
т х = 0-.<7 -|- 1 • р — р.Определим теперь по формуле (2.15) дисперсию случайной величины х:
Dx = ( О— р) -q 4 - (1 — р)- р = pq.Следовательно, применяя формулу (2.18), найдем
среднее квадратическое отклонение числа появлений события А при одном опыте:
' °x = V p q -Пример 4. Случайная величина задана плотностью
распределения
Определить дисперсию и среднее квадратическое отклонение случайной величины X.
Р е ш е н и е . Применяя формулу (2.14), найдем математическое ожидание
2. Л ^/;гл. = ~ ^ х cos л- dx = л* sin х " — - т у sin x dx = 0.
Поскольку tnx — 0, то применяя формулу (2.17), найдем:
D , = 1 ^ л"COSXdx-
2х cos х -j- (х- — 2 ) sin л' ~2 - 8
откудаг.- - 8
Заметим, что для характеристики рассеивания случайной величины X часто используют так называемое вероятное (срединное) отклонение, которое обозначают через Ех.
Вероятным отклонением называется половина длины участка, симметричного относительно математического
ожидания, вероятность попадания в которой равна половине, т. е.
Р (| X — тх | < Е х) = 0,5. (2.18')Геометрически вероятное отклонение Ех есть половина
длины участка оси абсцисс, симметричного относительно математического ожидания, на который опирается половина площади, ограниченной кривой распределения (рис. 27).
76
Обобщением основных числовых характеристик случайных величин является понятие моментов случайной величины. Само название «момент» заимствовано из механики, где это понятие применяется для описания распределения масс.
В теории вероятностей различают моменты двух видов: начальные и центральные.
Начальным моментом к-го порядка случайной величины X называют математическое ожидание величины Х к, т. е.
а, = М [Хк].
Следовательно, для дискретной случайной величины начальный момент выражается суммой (см. 2 . 1 2 )
• П
ч = 2 і = 1
а для непрерывной — интегралом (см. 2.15).'.О
4 = \ x l:f (x)dx.— СО
Из начальных моментов случайной величины особое значение имеет момент первого порядка, который представляет собой не что иное, как математическое ожидание случайной величины.
Начальные моменты высших порядков используются главным образом для вычисления центральных моментов.
Центральным моментом к-го порядка случайной величины X называют математическое ожидание величины( X -» !* )*
Для дискретной случайной величины центральный момент выражается суммой
п= 2 (*«■ — т *)и а»
і = I
а для непрерывной — интеграломоэ
{** — 5 (-V — m ^ kf (х) dx.
§ 2.6. МОМЕНТЫ СЛУЧАЙНОЙ ВЕЛИЧИНЫ
77
Центральный момент первого Порядка, как мы уже показали в § 2.5, всегда равен нулю.
Среди центральных моментов случайной величины особое значение имеет центральный момент второго порядка, который представляет собой не что иное, как дисперсию случайной величины.
Кроме центрального момента второго порядка, в теории вероятностей для описания случайной величины широко применяются центральные моменты третьего и четвертого порядков.
Третий центральный момент ц3 служит характеристикой асимметрии («скошенности») распределения. Чита-
Р ас . 29
телю предлагается самостоятельно проверить, что если случайная величина X распределена симметрично относительно своего математического ожидания, то третий центральный момент
• |х3 = 0 .
Так как третий центральный момент имеет размерность куба случайной величины, то обычно рассматривают безразмерную величину — отношение |д.3; к среднему квадратическому отклонению в третьей степени
Величина ах носит название коэффициента асимметрии. На рис. 28 кривая распределения имеет положительную асимметрию (ах ^>0), а на рис. 29 кривая распределения имеет отрицательную асимметрию( я V- < 0 ).
Четвертый центральный момент jx4 служит для характеристик островершинности или плосковершинности рас-
78
пределения. Эти свойства распределения описываются с помощью так называемого эксцесса. Эксцессом случайной величины X называется величина
Сх = JtL 1° х3.
Число 3 вычитается из отношения -Ц-O.V
для наиболее распространенного нормального закона распределения (с которым мы познакомимся в дальнейшем)4г~ з.3.V
Кривая нормального распределения, для которого эксцесс равен нулю, принята как бы за эталон, с которым сравниваются другие распределения. Кри- f (x) вые более островершин- ^ cz >0ные имеют положительный эксцесс; кривые более плосковершинные — отрицательный эксцесс (рис. 30).
Кроме рассмотренных начальных и центральных моментов, на практике иногда применяются так называемые абсолютные моменты.
Абсолюта ый н а ч а л ь н ы й мулой
потому, что
Рис. 3 0
момент определяется фор-
Һ = М [ \ Х П
а абсолютный центральный момент — формулой'>1: = М [ | X — tn x |ft 1.
Из определения абсолютных моментов следует, что абсолютные моменты четных порядков совпадают с обычными моментами.
Из абсолютных моментов нечетного порядка часто применяется первый абсолютный центральный момент
vj = М [\Х — тх И,
который называется средним арифметическим отклонением.
79
Среднее арифметическое отклонение, наряду с дисперсией и средним квадратическим отклонением, иногда применяется как характеристика рассеивания случайной величины.
§ 2.7. БИНОМИАЛЬНОЕ РАСПРЕДЕЛЕНИЕ
Среди законов распределения для дискретных случайных величин наиболее распространенным является биномиальное распределение, с которым мы уже встречались в § 1.9.
Биномиальное распределение имеет место в следующих условиях.
Пусть случайная величина X выражает число появлений события А при и независимых испытаниях, проводимых в одинаковых условиях. Вероятность появления события А постоянна и равна р. Следовательно, вероятность непоявления события А равна q = 1 — р.
Возможными значениями случайной величины X являются *о = 0, *і = 1, . . . , хп — п. Вероятности этих возможных значений определяются по формуле Бернулли(§ 1-9)
Р (X — т) = C y v'qn-m (т = 0 , 1 , . . . , « ) . (2.19)
Распределение дискретной случайной величины, для которой ряд распределения задается формулой (2.19), носит название биномиального распределения.
Биномиальное распределение имеет, например, случайная величина X , выражающая число бракованных изделий в повторной выборке из п изделий, и т. п.
Найдем математическое ожидание и дисперсию случайной величины, имеющей биномиальное распределение.
Согласно определению математического ожидания для дискретной случайной величины, имеем:
тх = 2 ^ 7 " . (2 .2 0 )гп — О
Д ля вычисления суммы (2.20) продифференцируем по р следующее выражение:
(р + 9 ) " = У , С : Р’У ~ т- (2.21)т 0
SO
Получим
п (р - f q)n ■' = 2 тСпрт lqn т' (2 .2 1 )т -= 0
Умножая теперь левую и правую часть равенства (2 .2 1 ) на р, имеем:
пр (р + q)п- ' = V mCnpmqn~m- (2 .2 2 ;«г ---= О
Правые части равенства (2.20) и (2.22) равны между собой, следовательно, равны и левые части, т. е.
тх пр (р - f q)n l .
Но так как р - \ - д = \ , тотх = пр. (2.23)
Итак, математическое ожидание числа наступлений события в серии независимых и одинаковых испытаний равно произведению числа испытаний на вероятность появления события при одном испытании.
Д ля вычисления дисперсии биномиального распределения используем третье свойство дисперсии:
D V = M [X 2] — т'х . (2.24)
Найдем вначале M I X 2]:
М [Х-] = J / b W " (2-25)т = 0
Для вычисления суммы (2.25) продифференцируем дважды по р выражение (2 .2 1 ), получим:
я (я - 1) (р + <?г! =-. у. т (HI - 1) С?рт- ү -т.171 == 0
Умножая обе части полученного равенства на р-, будем иметь:
я (я - 1) Р- (р + ?)“- ' = 2 in (« - 1) С"рт = 0
Отсюда, учитывая, что /? - ] - (?= 1, получаем:
/г/г — пр- = У nvC ’n pwqn~rn — V т С ’п p"‘qn~m.rn t) т — U
81
2 m-CnP'"q"-m = М [X»] н V m O V ~ m = т, = пр,т = 0 т = 0
ТОгг/г — /гр- = /VI [X2] — /г/?.
Отсюда/VI [Х-] = /г-р- — /гр2 -j- пр. (2.26)
Подставляя выражение (2.26) в формулу (2.24) и учитывая, что тх = пр, получим:
Dx = ггр1 — пр- пр — /г2/У- = пр (1 — /;),или
Dx = npq. (2.27)
Отсюда определяем среднее квадратическое отклонение для биномиального распределения:
<зЛ. = V npq. (2.28)
Пример. Случайная величина X представляет число бракованных деталей из возвратной выборки в 50 штук. Вероятность брака одной детали р = 0,06. Найти математическое ожидание, дисперсию и среднее квадратическое отклонение числа бракованных деталей в выборке.
Р е ш е н и е . Случайная величина X имеет биномиальное распределение. Поэтому по формуле (2.23) математическое ожидание
тх = пр = 50 • 0,06 = 3 (дет.).
Дисперсию определяем по формуле (2.27)Dx = npq = 50 • 0,06 • 0,94 = 2,82.
Тогда -среднее квадратическое отклонение будет
о, = 1/ 2 ^ 2 ^ 1 , 6 8 (дет.)
§ 2.8. РАСПРЕДЕЛЕНИЕ ПУАССОНА
При решении многих практических задач приходится иметь дело с дискретными случайными величинами, которые подчиняются закону распределения Пуассона.
Но так как
82
Типичными примерами случайной величины, имеющей распределение Пауссона, являются: число вызовов на телефонной станции за некоторое время /; число отказов сложной аппаратуры за время t, если известно, что отказы независимы друг от друга и в среднем на единицувремени приходится X отказов, и т. д.
Рассмотрим общую задачу теории вероятностей, приводящую к распределению Пауссона.
На оси Ох случайно распределяются точки такимобразом, что вероятность попадания любого данного числа точек на любой отрезок / оси Ох не зависит от числа точек, попадающих па другие иеперекрывающпеся отрезки оси Ох, и от их распределения па этих отрезках, а зависит только от размера отрезка /.
Требуется найти вероятность Р т = Р ( Х = т ) того, что на отрезок оси Ох длины / попадает ровно т точек, предполагая, что точки распределены по всей осп с одинаковой средней плотностью.
Обозначим эту плотность, т. е. среднее число точек (математическое ожидание), приходящихся на единицу длины, через X и будем рассматривать малый отрезок Дд. Тогда математическое ожидание числа точек, попадающих па этот отрезок, очевидно, равно ХДд.
Если отрезок Дд достаточно мал, то можно считать, что вероятность возможного попадания на него двух или более точек пренебрежимо мала. Поэтому вероятность попадания на Ад: ровно одной точки можно считать приближенно равной X Дд, так как
X±х = М[ Ү ] = 0 - Р (У = 0) -|- 1 • Р ( К = 1 ) - | - 4 - 2 • Р (Ү = 2) + 3 • Р (Ү = 3) + . . . ^ Р {Ү = 1),
где Ү — случайное число точек, попадающих на отрезок Дд.
Разделим отрезок / иа п равных частей длиной Дх = —. Так как вероятность того, что интервалу Дд принадлежит одна точка, равна X Дд, то вероятность того, что интервалу Дд не принадлежит точка, равна 1— X • Д д == 1 — X • —.п
Согласно условию, попадания точек в неперекрываю- щиеся отрезки независимы, поэтому попадания или непопадания точек в каждый из п отрезков можно рассматривать как результат п независимых опытов.
83
Вероятность того, что из числа п отрезков будет ровно т отрезков, которым будет принадлежать одна точка, при наших допущениях найдется по формуле Бернулли
(2.29)Ц\п-тп
При достаточно большом п и, следовательно, при достаточно малых Дд: эта вероятность приближенно равна искомой вероятности попадания ровно т точек на отрезок /, так как попадание более одной точки па элементарный отрезок Да- имеет очень малую вероятность.
Д ля определения вероятности Р т перейдем в выражении (2.29) к пределу при п —у со.
Тогда
ІІШ
= limП О'-)
= im с . ■ т -п-пг
а -* со \ « I \ п
Л ) . iv !• (п — т 1 1) (И У" I 1 " п )т\ пт и У 11
а /Л и \ п
.. (п — т ~ 1) 0-1 )'п 1 ~ пIIV
Так какlim п (п — 1 )... (п — т -f- 1 )
= lim Г(і — — ІҮtl —* 00 L ^ . \ Г1 . \ Н I 1 ,
lim 1 1П-+ оЛ
Ы\ тп I
lim (l — Н) = limЯ-*Я) \ п і п — со
(?-/)Л « Ү и
а множитель не зависит от /г, то из выражения(2.30) получаем:
(2.31)
В полученном выражении (2.31) величина X/ есть не что иное как математическое ожидание числа точек, попадающих на отрезок длиной /.
84
Обозначая 11 = а, получаем:ПР,П = —Г с т т\ (2.32)
Распределение дискретной случайной величины X, описываемой формулой (2.32), и называется распределением Пуассона.
Распределение Пуассона за висит от одного параметра а, который является математическим ожиданием случайной величины Х ( т х = а). На рис. 31 показан общий вид многоугольника распределения Пуассона при различных значениях параметра тх = а.
Определим дисперсию случайной величины, имеющей распределение Пуассона. Согласно третьему свойству дисперсии имеем:
D[ X] = М [Х-] — т%.Найдем момент М [X-]:
00
'9* - 0
а (I .т ‘ —г е т\ ае V/ , т(т - 1)!
— ае а "V [(m — 1 ) Ч- Ит = I
ас У, О » - 1 )т ~ 1
(/« - 1)!
о _а V а”1~" ~ СГе 1 ( / « - 2)1 1
- - ае
ае
(/// - 1)!
СО
-« V _
(т - 1)1 *т — г in — 1
Так как каждая из этих сумм равна еа, тоМ [Х‘2] 2 р ■« Ра _1_а-е ае~ а- а.
Следовательно, дисперсия величины X равнаD [Л'] = а ‘“-)- а — а- = а.
Таким образом, дисперсия случайной величины, имеющей распределение Пуассона, численно равна ее математическому ожиданию.
Распределение Пуассона мы получили, рассматривая задачу о числе случайных точек на оси абсцисс, попадающих на заданный отрезок L т. е. для одномерного случая. Распределение Пуассона автоматически распространяется на двумерный и трехмерный случай, когда речь идет о числе попаданий в какую-либо область на плоскости или в пространстве, если точки распределились на плоскости или в пространстве равномерно и независимо друг от друга и задано среднее число точек, попадающих в единицу площади (объема).
Кроме того, распределение Пуассона может быть использовано как приближенное в тех случаях, когда точным распределением случайной величины является биномиальное распределение и когда математическое ожидание мало отличается от дисперсии, т. е. когда пр npq.
В связи с этим распределение Пуассона имеет большое количество различных приложений.
Пример 1 . На телефонную станцию в течение определенного часа дня. поступает в среднем 30 вызовов. Найти вероятность того, что в течение минуты поступает не более двух вызывов.
Р е ш е н и е . Математическое ожидание числа вызовов за минуту равно
Вероятность того, что в течение данной минуты возникнет не более двух вызывов, равна сумме вероятностей того, что в течение данной минуты будет либо 0 , либо 1, либо 2 вызова. Поэтому искомая вероятность
Пример 2 . Завод отправил на базу 500 доброкачественных изделий. Вероятность того, что в пути изделие повредится, равна 0,002. Найти вероятность того, что па базу прибудет три негодных изделия.
Р е ш е и и е. Задача решается приближенно с помощью формулы Пуассона. Имеем: р = 0,002, q = l — /; = 0,998 и п = 500.
30 1
. < '__
S6
По формулам (2.23) и (2.27) определяем математическое ожидание и дисперсию числа негодных изделий:
тх = пр = 500 • 0,002 = 1,Dx = npq = 500 • 0,002 • 0,998 = 0,998.
Так как mx ^ D x, то полагая а = тх = 1, найдем приближенно искомую вероятность по формуле Пуассона:
§ 2.9. РАВНОМЕРНОЕ РАСПРЕДЕЛЕНИЕ
Непрерывная случайная величина X имеет равномерное распределение на отрезке [а, Ь], если на этом отрезке плотность распределения случайной величины постоянна, а вне его равна нулю, т. е. если
!0 при х< ^а ,С при а ^ х ^ Ь ,
0 при х Ьугде С = const.
Г рафик плотности f (х) для равномерного распределения изображен на рис. 32.
Так как площадь, ограниченная кривой распределения, равна единице, то плотность равномерного распределения на интервале (а, Ь), как высота прямоугольника с основанием (b — а), равна
Ь — а
и, следовательно, плотность распределения f (.v) имеет вид:0
f i x ) Ь — а
0
при х< ^а ,
при а ^ х Ь, (2.33)
при х^>Ь.
87
Найдем функцию распределения Ғ (х) для равномерного распределения на интервале (а, Ь). Согласно формуле (2.9), имеем:
dxЬ — а о — а
(а ^ -V --S Ь).
При х < a F (х) = 0, а при х > b F (.v) - - 1. Таким образом,
О при х< ^а ,
х — аа Ь — а
F (х) = X -■ (I. при а ^ х ^ Ь ,Ь — а ‘
1 при Х ^ > Ь .
(2.34)
График функции F (х) показан на рис. 33.Непрерывная случайная величина X подчиняется
закону равномерной плотности (имеет равномерное распределение), если ее возможные значения лежат в пределах некоторого определенного интервала, кроме того, в пределах этого интервала все значения случайной величины одинаково вероятны (обладают одной и той же плотностью вероятности).
Со случайной величиной, имеющей равномерное распределение, мы часто встречаемся в измерительной практике при округлении отсчетов измерительных приборов до целых делений шкал. Ошибка при округлении отсчета до ближайшего целого деления является случайной величиной /Ү, которая может принимать с постоянной плотностью вероятности любого значения между двумя соседними целыми делениями.
Определим математическое ожидание и дисперсию случайной величины X, имеющей равномерное распределение на участке от а до Ь.
Имеем:
т ■2 № - а)
т. е. математическое ожидание равномерного распределения находится посредине интервала сто распределения.
Дисперсию случайной величины X находим по формуле (2.17):
D , =
ь в\*2 } Ь
[Ь - аГ-
-dx ■
12 ’
откуда среднее квадратическое отклонение
1 Av 2 ) 3Рис . 34
Наконец, найдем вероятность попадания случайной величины, имеющей равномерное распределение, на участок (а, 3), представляющий собой часть интервала (а, Ь) (рис. 34):
d x
Графическая вероятность Р (а X <^3) представляется в виде площади заштрихованного прямоугольника на рис. 34.
§ 2.10. ПОКАЗАТЕЛЬНОЕ РАСПРЕДЕЛЕНИЕ
В практических приложениях теории вероятностей, особенно в теории массового обслуживания, исследовании операций, в физике, биологии, вопросах надежности и других приложениях, часто имеют дело со случайными величинами, имеющими так называемое экспоненциальное, или показательное, распределение.
Непрерывная случайная величина X распределена по показательному закону, если ее плотность вероятности имеет вид:
при х ^ О ,\ 0 при , v < 0 ./' (-V) (2.35)
89
Кривая распределения f (х) изображена на рис. 35. Функцию распределения величины X найдем по
формуле (2.9):
Ғ (х) = \ f (х) d x = $ Хе Кх dx— со U
Таким образом,
F(x) =
г ь |л== 1 — <гЧ
1 е при х ^ = 0 ,(2.36)
О при х < 0 .Г рафик функции распределения F (х) показан на рис. 36. Определим математическое ожидание и дисперсию
случайной величины X, имеющей показательное распределение:
СО
тх = jj xf (х) dx =— ОЭ
СО
= xle~Kx dx.о
Интегрируем по частям, полагая и = х, dv = е 'Кх dx; получим:
da = — dx,
v = Ц е~Кх dx = — е~и .
Следовательно,
тх = — хе | о00
-j- ^ е~Кх d x =о
__1_I ’
т. е. математическое ожидание есть величина, обратная коэффициенту X.
Д ля нахождения дисперсии используем формулуDx = М [X 2] — nvx.
Найдем М [X*]:СО
М[Х-] = \ x-le~hxdx.
3-X.V
90
Дважды интегрируя по частям, получаем:
/И[Х'Ч = >т-Следовательно,
D , = М 1X'3] - т% = | - 1 = I .
Отсюда определяем среднее квадратическое отклонение для показательного распределения:
, X= V D X = / 5 = 4 .
■ Таким образом, у показательного распределения математическое ожидание и среднее квадратическое отклонение одинаковы:
тх = ох = 1 .
Пример 1. Случайная величина Т — время работы радиолампы — имеет показательное распределение. Определить вероятность того, что время работы лампы будет не меньше 600 часов, если среднее время работы радиолампы 400 часов.
Р е ш е н и е. По условию задачи математическое ожидание случайной величины 'Г равно 400 часам, следовательно,
= Искомая вероятность
Р [Т ^ 600) = 1 — Р (Т < 600) = 1 — F (600) =/ _ ± .гоо\ J*»
= 1 — { 1 — е ш ) = е = 0,2231.
§ 2.11. НОРМАЛЬНОЕ РАСПРЕДЕЛЕНИЕ
Среди распределений непрерывных случайных величин центральное место занимает нормальный закон (закон Гаусса), плотность вероятности которого имеет вид:
(х- 'пх)~
1(х '> = — 7 л Г е 2 4 ' (2.37)ах у 2г.
где тх и ох — параметры нормального распределения.Нормальный закон распределения очень широко рас
пространен в задачах практики. Он проявляется во всех
91
тех случаях, когда случайная величина X является результатом действия большого числа различных факторов. Каждый фактор в отдельности на величину А' влияет незначительно и нельзя указать, какой именно в большей степени, чем остальные. Примерами случайных величин, имеющих нормальное распределение, могут служить: отклонение действительных размеров детален, обработанных на станке, от номинальных размеров, ошибки при измерении, отклонения при стрельбе и другие.
Основная особенность, выделяющая нормальный закон среди других законов, состоит в том, что он является предельным законом, к которому приближаются другие законы распределения. В § 5.4 будет рассмотрена центральная предельная теорема теории вероятностей, в которой доказывается, что при достаточно большом п сумма независимых случайных величии Х \, X» , . . . , Х п, подчиненных каким угодно законам распределения (при соблюдении некоторых ограничений), будет иметь закон распределения, как угодно близкий к закону нормального распределения.
Функция распределения случайной величины, имеющей нормальное распределение, согласно формуле (2.9), будет иметь вид:
Найдем Математическое ожидание и дисперсию нормального распределения. Имеем:
dx.
М [Х | = [ x f ( x ) d x = - L = \ хе * 1 dx.
Производя замену переменнойX - - 9П ..
имеем:
Второй интеграл равен нулю, как интеграл от нечетной функции в симметричных пределах, первый интеграл представляет собой известный интеграл Пуассона:
СО СО5 e - t* d t = 2 \ e - t2dt = V r ..
— со ОПоэтому
СОМ [ Х 1 = р | jj e-<‘ d t = ^ . v ; = mx.
Итак, параметр т х является математическим ожиданием случайной величины, имеющей нормальное распределение.
Дисперсия нормального распределения определяется по формуле
DСО
т - S (*(х-гпху
— tnx)-e х dx
Применив снова замену переменной
имеем:
D
Интегрируя по частям, получим:
D
Первое слагаемое в фигурных скобках равно нулю, так как е ~ при / - > со убывает быстрее, чем возрастает любая степень t. Второе слагаемое есть интеграл Пуассона и, следовательно, равно V т. Поэтому
D [XI = о;..Таким образом, параметр j v в выражении (2.37) есть
среднее квадратическое отклонение случайной величины, имеющей нормальное распределение.
График плотности вероятности нормального распределения (рис. 37) называют нормальной кривой (кривой Гаусса).
Отметим некоторые свойства нормальной кривой.1) Кривая распределения симметрична относительно
ординаты, проходящей через точку тх.
2) Кривая имеет один максимум при х = тх, равный1___
сх У :Б '3) При | х | — со ветви кривой асимптотически при
ближаются к оси Ох.4) Изменение математического ожидания гпх при зЛ. =
= const приводит к смещению кривой распределения вдоль оси Ох. При этом кривая распределения сохраняет свой вид.
При изменении среднего квадратического отклонения ах и тх = const кривая распределения изменяет свой вид. На рис. 38 кривая 7 соответсувует случаю ох— 2,5, для кривой I I — аЛ.= 1, а для кривой I I I — ах = 0,4.
§ 2.12. ВЕРОЯТНОСТЬ ПОПАДАНИЯ СЛУЧАЙНОЙ ВЕЛИЧИНЫ, ИМЕЮЩЕЙ НОРМАЛЬНОЕ РАСПРЕДЕЛЕНИЕ,НА ЗАДАННЫЙ УЧАСТОК. ФУНКЦИЯ ЛАПЛАСА
Мы уже знаем, что если случайная величина X задана плотностью вероятности f (x) , то вероятность попадания величины X на участок (а, (3)
Р ( « < Х < $) = { f ( x ) d x .
94
Пусть случайная величина X распределена по нормальному закону. Тогда вероятность того, что /Ү примет значение, принадлежащее интервалу (а, р),
не выражается через элементарные функции, то для вычисления интеграла (2.38) пользуются таблицами значений специальной функции, которая называется функцией Лапласа, или интегралом вероятностей, и имеет вид:
Таблица значений функции Ф(х) приведена в приложении (см. табл. 1).
Путем несложных преобразований приведем выражение (2.38) для вероятности попадания случайной величины на заданный интервал (а, [3) к функции Лапласа:
Р ( * < Х < Р ) = - ^ = \ в dx.ах У2т. .а
Пользуясь снова заменой переменнойУ _ tn
____ Xс гго X г -
(2.38)
Так как интеграл[ e r * d i
(2.39)
Р - тх
Функция Лапласа имеет следующие с в о й с т в а .1 . Ф(0) = 0. Это следует из того, что при л : = 0
пределы интеграла (2.39) совпадают.2. Ф (со) = 1. Действительно,
Ф
3. Функция Лапласа Ф (,ү) есть функция нечетная,
Ф ( - х ) = - Ф ( х ) .
В самом деле,
Ф ( _ Ал — J L \ e- '* d t, у , }
положив t = — и, имеем:
Ф (— А") = = ---- ?= \ е~“- duу . , J
График функции Лапласа изображен на рис. 39.
Ф (х).
Отметим важный частный случай формулы (2.40):
Р (| X - rnx ! < / ) = /> (гпх - / < X < гпх + /)Ф / \ Ф - I \
/ J= Ф
'x V 2(2.41)
Воспользуемся формулой (2.41) и найдем вероятность попадания случайной величины X, имеющей нормальное распределение с параметрами тх и ах, на интервал
96
(/«v Ззл., fiix —j- Ззv) . Д л я расчетов используем таблицу значений функции Лапласа, получим:
Таким образом, для нормально распределенной случайной величины X с параметрами тх и ох выполнение неравенства | X — т х j <^’ Ззл. практически достоверно, В этом заключается так называемое «правило трех сигм».
Д ля характеристики ширины нормальной кривой (2.37) вместо среднего квадратического отклонения оЛ. иногда используют вероятное отклонение Е х.
По определению вероятного отклонения (формула 2.18')
Найдем из таблицы значений функции Лапласа обратной интерполяцией корень уравнения (2.42) с точностью до трех значащих цифр:
Формула (2.43) устанавливает связь между вероятным п средним квадратическим отклонением для нормального распределения.
Полагая в выражении нормального закона (2.37)
Р (| X — т х j < Зох) = Ф ( 4 - W 0,9972.\V '*}
Р (тх - Е х С X < т х -]- Е х) = Р (j X - п и | < Е х)
Но по формуле (2.41)
Следовательно,
Обозначим буквой р корень уравнения
ф м = 4 - (2.42)
Р ^ 0,477.Таким образом,
р 0,477,
откудаЕ х = р У 2 о х ъ* 0,675 (2.43)
4 ГурскиП 97
получим еще одну форму нормального закона:
Р £- v хi U)
Эта форма часто применяется в теории стрельбы.Призер 1 . Ошибка радиодальномера подчинена нор
мальному закону. Математическое ожидание этой ошибки равно 5 м, а среднее квадратичное отклонение равно 1 0 м. Найти вероятность того, что измеренное значение дальности будет отклоняться от истинного не более чем на 2 0 м.
Р е ш е н и е . Решение задачи сводится к определению вероятности попадания случайной величины /Ү (ошибка радиодальномера) с математическим ожиданием тх = 5 и средним квадратическим отклонением сЛ. = 1 0 на участок (— 20, 20). По формуле (2.40) имеем:
Р (— 20 < X < 20) = Ц ф ( — Л) — Ф^ ^ 2 [ \ 1 0 )Л>/ \ 10 V 2 )
= [ф (1,06) - f ф (1,77)1 0,875.'
Пример 2. Размер диаметра втулок, изготовляемых цехом, можно считать нормально распределенной случайной величиной с математическим ожиданием тх = 2 , 5 см и дисперсией ох = 0,0001 см'. В каких границах можно практически гарантировать размер диаметра втулки, если за вероятность практической достоверности принимается0,997?
Р е ш е п и е. Обозначим через / величину, на которую может отклониться размер диаметра втулки от математического ожидания с вероятностью 0,997. Тогда, согласно формуле (2.41), имеем
Р (!Х - т , ] < / ) = Ф (—р - ) = 0,997. (2.43)
Определяя из таблицы значений функции Лапласа обратной интерполяцией корень уравнения (2.43), получим
__L_— 9 1*ХУ'І * ’
откуда (так как сл. = 0 ,0 1 )
/ = сх У 2 - 2 , \ = 0 , 0 1 ‘2 ,1 . у Ъ ^ О .О З .Таким образом, размер диаметра втулки с вероят
ностью 0,997 принадлежит интервалу (2,47; 2,53).
96
1. Какая величина называетя случайной величиной?2. Д ай те оп р еделен и е дискретной и непрерывной случайных
величин. Приведите примеры дискретных и непреры вных случайных величин.
3. Что называется законом распределения случайной величины?
4. Что называется рядом распределения дискр етн ой случайной величины?
5. Д айте оп р еде л ен и е функции распределения вероятности. П еречислите и док а ж и те свойства функции р аспределения.
6. Как, зная функцию распределения, найти вероятность п опадания случайной величины в заданный интервал?
7. В чем состоит различие графиков функций распределения дискретной и непреры вной случайных величин?
8. Дайте о п р еде лен и е плотности распределения вероятностей. Перечислите и докаж и те свойства плотности распределения. Пригодно ли понятие плотности распределении вероятностей для д и с кретной случайной величины?
9. Как, зная плотность распределения, найти вероятность попадания случайной величины в заданный интервал?
10. Что называется математическим ож иданием дискр етн ой случайной величины?
11. Что называется математическим ож иданием непреры вной случайной величины?
12. Как мож но истолкован, математическое ож идание механически?
13. Что называется модой случайной величины? Что называется медианой случайной величины?
14. Д айте о п р еде лен и е дисперсии случайной величины и п е р е числите ее свойства.
15. Что назы вается средним квадратическим отклонением с л у чайной величины?
16. Что называется начальным моментом /г-го порядка случайной величины?
17. Что называется центральным моментом Л-го порядка сл учайной величины?
18. Какое р аспределение вероятностей называется бином иал ьным? Чему равны м атем атическое ож идание и дисперсия случайной величины, имею щ ей бином иальное распределение?
19. Какое р аспределение называется р аспределением П уассона? Чему равны матем атическое ож идание и дисперсия случайной величины, распределенной по закону Пуассона?
20. Какое ра сп р еде лен и е случайной величины называется равномерным распределением ?
21. Какое р а сп р еделен и е случайной величины называется показательным распределением ?
22. Какое р асп ределен и е случайной величины называется нор- ма л ь ны м распределением ?
23. Как называется график плотности вероятности нормального р аспределения и каковы его свойства?
24. Что называется функцией Лапласа и каковы ее свойства?
Вопроси для самопроверки
4*
У tip а ж н е н и я
1. При установивш емся технологическом п р о цесс е -ц всей про-
\дукции станок-автомат выпускает первым сортом и — вторым
сортом. П остроить ряд распределения и функцию распределения числа изделий п ервого сорта среді^ 5 штук, отобранных случайным о бр азом . И спользуя ряд распределений, найти математическое о ж и дани е и дисперси ю рассматриваемой случайной величины.
Ошв. /нЛ. == 3,33, D x я» 1,11-
2. По цели производится стрельба независимыми выстрелами д о первого попадания. В ероятность попадания в цель при одном выстреле равна р . Построить ряд распределения числа п роизведен ных выстрелов. Найти математическое ож идание и средн ее квадратическое отклонение числа произведенны х выстрелов.
Отв.
2
* ! 1 12 I 3 п I ...
pi \ р Р<1 PQ3 ... \р(]п \ ...1 Vqтх — — . а\ ~ — • р р
3. Случайная величина X подчинена закону равномерной плотности распределения на интервале от 1 до *3. Написать выражение для плотности распределения случайной величины А’. Найти математическое ож идание и дисперсию случайной величины X.
( Д- при 1 A' s c 3;О т в. / (х ) — І ^
( 0 при х < 1 или х > 3,
4. Каждый из трех стрелков стреляет по мишени один раз. Вероятность того, что первый, второй и третий стрелки попадут при одном вы стреле в мишень, соответственно равны р и р.: , р 3. Пусть X — о б щ ее число попаданий в мишень. Найти закон р асп р еделения, ср едн ее значение и дисперсию случайной величины Л'.
а зОтв. тх = J ] т , D x = 2 PiQ;.
/=)
5. Случайная величина X задана функцией распределения
0 при -V < О,
Г(к)=-.< а (1 — 003 ~Х) 11 рП 0 ^ Л" ^ Т •
1 при X >
100
Найти коэффициент а. Написать вы ражение для плотности р асп р еделения. О пределить матем атическое ож идание и д ис пер си ю случайной величины.
Отв. а = - у , f (л')( sin 2л*
X ) =
прп 2 *
(О при х < . О или х
>»х = Т - . A v
2 *- 2 - 8
4 » v 16 ‘
6. Плотность р аспределения случайной величины X заданавыражением
а х - прп 0 Л' 1;
О при .v < 0 или л г > 1.f i x )
Найти коэф ф ициент а. О пределить м атем атическое ож идание и дисперсию случайной величины.
О тв. а = 3, тх = — , D x = щ .
7. Функция р асп р еделен и я случайной величины X задана выраж ением
О прп х ^ 0;
F ( x ) = \ *Q- х* при 0 < л 'г^ 2 ;
■1 при •)Написать вы ражение для плотности распределения. Определить вероятность неравенства 0 < Х < 1 .
Ошв. f (х )х) _ \ j x 2 при 0 < х 2;
\ 0 при л* 0 или х > 2.Р ( 0 < Л" < 1) = 0,125.
8. В группе из десяти изделий имеется одно бракованное. Ч то б ы ого о б н а р у ж и т ь , в ы б и р а ю т н а у га д одно и зд е ли е за другим и каж дое вынутое издели е проверяют. Пусть X — число п роверенных изделий (включая бракованное). Найти закон распределения, среднее значение и д и с п ер си ю случайной величины X
Ошв. шх — 5,5; D x = 3,1235.
9. З а в о д выпускает 96% изделий первого сорта и 4п/о изделий второго сорта. Н аугад выбирают 1000 изделий. Пусть X — число изделий п ервого сорта в данной выборке. Найти закон р а с п р е де л е ния, средн ее значение и дисперси ю случайной величины X.
От в. тх — 960; U x = 38,1.
10. Аппаратура сод ер ж и т 1000 электро-элементов, вероятность отказа для каждого из которы х в течение н екотор ого вре м ен и ~t равна 0,001 и не зависит ог состояния др у ги х элементов. Какова вероятность отказа аппаратуры, если он н аступает при отказе хотя бы одного из электроэлемептов?
От в. р = 1 — е"1 «= 0,63.
101
11. М атематическое ож идание числа отказов радиоаппаратуры за 1000 часов работы равно 5. Определить вероятность отказа радиоаппаратуры за 20 часов работы. •
Ошв. р — 0,095.
12. Телефонная станция о бсл уж и вает 500 абонентов. В е р о я т ность позвонить на коммутатор любому абоненту в течение часа равна 0,01. Какова вероятность того что, в течение часа позвонят3 абонента?
Отв. р =ss 0,14.
13. О ш ибка измерения подчинена нормальному закону. М а т е матическое ож идание этой ошибки равно 5 м , а средн ее квадратическое отклонение 10 м. Найти вероятность того, что и зм еренноезначение дальности будет отклоняться от истинного не более , чемна 15 я і
Отв. р = 0,8187.
14. О ш ибка радиодальномера подчинена нормальному закону.Систематической ошибки радиодальномер не даст. Какова долж на быть срединная ошибка (вероятное отклонение), чтобы с в ер о я т ностью не меньше 0,95 .можно было бы ожидать, что изм еренноезначение дальности будет отклоняться or истинного не более , чемна 20 .и?
Ошв. Ех ~« 6 , 9
15. Измерительный прибор имеет срединную ош ибку 25 м . С истематические ошибки отсутствуют. Сколько н е о б х о д и м о п р о извести измерений, чтобы с вероятностью не меньше 0,9 ош ибка хотя бы одноуэ из них превосходила но абсолютной величине 5 „и?
Ошв. п 25 21.
Глава 3СИСТЕМА СЛУЧАЙНЫХ ВЕЛИЧИН
§ 3.1. ПОНЯТИЕ О СИСТЕМЕ СЛУЧАЙНЫХ ВЕЛИЧИН
В предыдущей главе мы рассматривали случайные величины и познакомились с различными характеристиками случайной величины.
При изучении случайных явлений о зависимости от их сложности приходится использовать две, три и большее число случайных величин. Например, точка попадания снаряда определяется не одной, а двумя случайными величинами: абсциссой и ординатой. Случайное отклонение точки разрыва снаряда прп дистанционной стрельбе определяется комплексом трех случайных величин - тремя координатами этой точки.
Прп различных измерениях мы очень часто имеем дело с двумя или тремя случайными величинами.
Совместное рассмотрение двух или нескольких случайных величин приводит к системе случайных величин. Условимся систему нескольких случайных величин А, У, . . . , W обозначать (X, У, . . . , W). При изучении системы случайных величин недостаточно изучить в отдельности случайные величины, составляющие систему, необходимо учитывать еще и связи или зависимости между этими величинами. Здесь возникают новые, отличные от рассмотренных ранее, задачи.
При рассмотрении системы случайных величин удобно пользоваться геометрической интерпретацией системы. Так, например, систему двух случайных величин (X, У) можно рассматривать как случайную точку па плоскости хОу с координатами X и Г*или как случайный вектор на плоскости со случайными составляющими X и У. Систему трех случайных величии (X, У, Z ) можно рассматривать как случайную точку в трехмерном пространстве или как случайный вектор в пространстве. По аналогии, систему п случайных величин (X, У', . . . , U") можно рассматривать как случайную точку в «-мер-
103
ном пространстве или как //-мерный случайный вектор.
Так как 'систему случайных величин можно трактовать как систему случайных векторов, то теорию систем случайных величин можно рассматривать как теорию случайных векторов.
В зависимости от типа случайных величин, образующих систему, могут быть системы дискретных и непрерывных случайных величин, а также смешанные системы, в которые входят случайные величины различных типов.
При изучении систем случайных величин ограничимся подробным изучением системы двух случайных величин, так как все положения, касающиеся системы двух случайных величин, можно легко распространить на систему трех, четырех и более случайных величин.
§ 3.2. ЗАКОН РАСПРЕДЕЛЕНИЯ СИСТЕМЫ СЛУЧАЙНЫХ ВЕЛИЧИН. ТАБЛИЦА РАСПРЕДЕЛЕНИЯ
При изучении одной случайной величины мы познакомились с законом ее распределения и рассмотрели различные его формы. Аналогичную роль играет закон распределения системы случайных величин.
Законом распределения системы случайных, величин называется соотношение, устанавливающее связь между областями возможных значений системы случайных величин и вероятностями появления системы в этих областях.
Так же как и для одной случайной величины, закон распределения системы случайных величин может быть задан в различных формах. Рассмотрим сначала таблицу распределения системы дискретных случайных величин.
Пусть X и Г —дискретные случайные величины, возможные значения которых (д:,•//,•), где / = 1 , 2 , . . . , п, а / = 1 , 2, . . . , т. Тогда распределение системы таких случайных величии может быть охарактеризовано указанием вероятностей р^== Р (X = .у,-, У = у j) того, что случайная величина X примет значение х-, и одновременно с этим случайная величина У примет значение ijj.
104
Вероятности p;j сводятся в таблицу вида
Такая таблица называется таблицей распределения системы двух дискретных случайных величин с конечным числом возможных значений.
Все возможные события(X = xh . Y — tjj) при i = \ , 2, . . . , п н / = 1 , 2, . . . , т
составляют полную группу несовместных событий, поэтому
2 Р ч = Ц р ( х = Х[, у = у j ) = 1.i, j i,j
При этом
■ Ъ р ч = Ц Р ( Х = * 1, У = у , ) = Р ( Х = х , ) -J J
( Х = Х Һ Ү = У ; ) = Р ( Ү = У ; ) .і і
§ 3.3. ФУНКЦИЯ РАСПРЕДЕЛЕНИЯ СИСТЕМЫ ДВУХ СЛУЧАЙНЫХ ВЕЛИЧИН
Функцией распределения системы двух случайных величин называется функция двух аргументов Ғ (х, у ) , равная вероятности совместного выполнения двух неравенств X О ' и Ү < ^у , т. е.
Ғ(х , у) = Р (X <л% У С у ) . (3.1)
Геометрически функция* распределения системы двух случайных величин представляет собой вероятность попадания случайной точки (X, Ү ) в левый нижний бесконечный квадрант плоскости (рис. 40) с вершиной в точке С*» У)•
105
Указанная геометрическая интерпретация функции распределения системы двух случайных величин позволяет наглядно иллюстрировать следующие свойства.
С в о й с т в о 1. Если один из аргументов стремится к плюс бесконечности, то функция распределения системы стремится к функции распределения одной случайной вели
чины, соответствующей другому аргументу , ' Т . е.
lim F(x, у) — Ғ\ (*);
lim Ғ (х, у) = Ғ, (у).
это записываетсяСимволически так:
F (х, -j-oo) = Ft (х);Ғ ( —|— со, у) = Ғ і(у).
В этом свойстве функции распределения легко убедиться наглядно, отодвигая одну из границ квадранта в.4 - со; при этом в пределе квадрант превращается в полуплоскость (рис. 41 и. 42). Вероятность же попадания случайной точки в такую полуплоскость есть функция распределения одной из величин, входящих в систему.
Рис. 41
С в о й с т в о 2. Если оба аргумента стремятся к плюс бесконечности, то функция распределения системы стремится к единице, т. е.
l im F (х, у) = 1,X + со
И Л И
1 .Ғ ( 4 * оо,4 " со)Действительно, при л:----- |-со и гу — - j - со квадрант
с вершиной (х, у) обращается во всю координатную пло-
106
скость хОу, попадание случайной точки в которую есть достоверное событие.
С в о й с т в о 3. При стремлении одного или обоих аргументов к минус бесконечности функция распределения стремится к нулю , т. е.
lim F (х, у) = lim F (х, у) = lim F (х, у) = О,-V — о о V -*• — с о .V — — о о
у — о о
или.F (— со, у) = Ғ(х , — со) = Ғ (— со, — со) = 0.
Действительно, отодвигая ту или иную границу квадранта (или обе границы) в минус бесконечность, убеждаемся, > что вероятность попадания случайной точки в квадрант в пределе равна нулю.
С в о й с т в о 4. Функция распределения является неубывающей функцией по каждому аргументу, т. е.
F(x»_, y ) ^ F ( x i , у), если а*3> * , ;Ғ (х, у*) 52= Ғ {х, уі), если у-2> Уі-
Д о к а з а т е л ь с т в о . Рассмотрим следующие три события:
А ( Х < jc i , Y < y ) , B = (xl * £ X < x t , Y < y ) и С = ( X < х-2, ш Ү<Су).
Очевидно, событие С представляет собой сумму двух несовместных событий А и В . т. е. С = А В .
По теореме сложения вероятностей несовместных событий имеем:
Р ( С ) = Р ( А ) + Р( В) .Но
Р (С) = Р (X < Xu Ү < У ) = Ғ(Х, , у );Р { А ) = Р ( Х С х х Ү < у ) = Ғ { х ь у);
Р ( В ) = Р ( х г ^ Х < х у , Ү < / / ),
поэтому
Ғ (*•>, у) = ғ (хь у ) + Р (Xi < X < Л',, Y < / / ). •
Отсюда
F (х.2) у ) — Ғ (Л'і, у) = Р (л'і ^ X < х«, У < у ) .
107
Так как любая вероятность есть число неотрицательное, то Ғ (л'2, у) — Ғ (л'ь у ) ^ О,
илиZ7 (Лз. .(/) ^ Ғ //).
Аналогично доказывается, чтоҒ (х, y , ) ^ F ( x , i/i), если //2 > / / i .
Доказанное свойство становится наглядно ясным, если воспользоваться геометрической интерпретацией функ-
. цни распределения как вероятности попадания в квадрант
(а.с!) (’j,?) с вершиной (х, у) (рис. 40).Действительно, увеличивая х (смещая границу квадранта вправо) или увеличивая у (сме-
п,'с) щая границу вверх), мы, очевидно, не можем уменьшить
------ вероятность попадания случай-х ной точки в такой квадрант.
Рис. 43 С в о й с т в о 5. Вероятностьпопадания случайной точки
(X , У) в произвольный прямоугольник со сторонами, параллельными координатным осям, вычисляется по формуле
P ( a ^ X < b , с ^ У < d ) = F(b, cl) — F (a, d) —- F ( b , с) -{- F (а, с). (3.2)
Д о к а з а т е л ь с т в о . Возьмем прямоугольную область с вершинами в точках (а, с), (a, d), (b, d), ф, с) (рис. 43) и рассмотрим следующие события:
А = ( а X < [ b, с ^ Y < d ) ;В = ( а ^ Х < Ь , У < с ) ;С = ( Х < л , c < K < r f ) ;
£> = ( Х < а , У < с ) ;Е = (X < Ь, К < d ) .
Очевидно, событие Е есть сумма несовместных событий А, В, С, D, т. е. Е = А -}- В -j- С -(- D.
По теореме сложения вероятностей несовместных событий имеем:
Р (£) = Р (А) + Р (В) -f- Р (С) -|- Р (D ),откуда
Р { А ) = Р (Е) — Р (В) — Р {С)— Р {D). (3.3)
108
Выразим вероятность правой части равенства (3 .3 ) через значения функции распределения:
P ( E ) = P { X < b , Y < d ) = - . F ( b , d),Р (В) = Р ( а ^ X <^ b , Y <^c) = F (b, с) — F (а, с),Р (С) = Р (X < я, c ^ Y < d ) = F(a, d) — F (а, с),
Р (D) = Р (X < а, Ү < с) = Ғ (а , с) .
Подставляя полученные значения вероятностей в равенства (3.3) и приведя подобные члены, получим:
Р (A) = F (b, d) — F (0, с) — F (a, d) F (а, с),
что и требовалось доказать.
§ 3.4. ПЛОТНОСТЬ РАСПРЕДЕЛЕНИЯ СИСТЕМЫ ДВУХ СЛУЧАЙНЫХ ВЕЛИЧИН
Функция распределения, рассмотренная в предыдущем параграфе, является универсальной характеристикой системы случайных величии. Она может быть применена для описания систем как дискретных, так и непрерывных случайных величин. Основное практическое значение имеют системы непрерывных случайных величин, распределение которых характеризуется не функцией распределения, а плотностью распределения.
Плотность распределения является исчерпывающей характеристикой системы непрерывных случайных величии, с помощью которой расчет вероятностей попадания в различные области производится проще, а описание распределения системы становится более наглядным.
Определим плотность распределения системы двух величин аналогично тому, как мы определили плотность распределения для одной случайной величины.
Пусть имеется система двух непрерывных случайных величин (А', К). Рассмотрим вероятность попадания случайной точки (A, Y) в элементарный прямоугольник со сторонами Дл' и А//, примыкающий к точке с координатами (л\ у) (рис. 44). Применяя формулу (3.2), получим:
Р (х < X < х - f Дд, y < Y < у -1- Д у) == F {х | Дд, у Ду) — F (х, у -|- Ду) —
- F (л -j- Дд, у) -|- F (х, у).
109
Разделим полученную вероятность на площадь этого прямоугольника и перейдем к пределу при Дл' - - 0 и Л// — 0 :
только непрерывна, но и дважды дифференцируема, тогда правая часть формулы (3.4) представляет собой вторую
смешанную частную пронз-
Таким образом, плотность распределения системы двух случайных величин представляет собой предел отношения вероятности попадания случайной точки (X, Ү) в элементарный прямоугольник (рис. 44) к площади прямоугольника, когда оба размера его стремятся к нулю; она может быть вычислена как вторая смешанная частная производная от функции распределения системы.
Геометрически функцию / (л*, у) можно изобразить некоторой поверхностью (рис. 45), которую называют поверхностью распределения.
Рассматривая плотность распределения f (.v) для одной случайной величины X , мы ввели понятие «элемента вероятности» } (л) dx, выражающего вероятность попадания случайной величины Л" на элементарный участок dx. Аналогично вводится понятие «элемента вероятности» и для системы двух случайных величин. Элемент вероятности f (х, у) dx dy системы двух случайных величин дает вероятность попадания случайной точки в элементарный прямоугольник со сторонами dx и dy, примыкающий
limA.v -» 0 Л у - 0
р (,у < X < д: -г А у. V < У < V -г Ау) Ах • А?/
— lim ■A .V — О
Д у - О
/•' (.у - f Л V, ;/ - г А!/) — F (.с, 11 + Ау) — !■' (х + Ах,и) + Av • Ay (3.4)
Предположим, что функция распределения F (х, у) не
У водную функции F (х, у). Обозначим эту производную через f (х, у):
о х
Рис. 44
х+йх X Функция / (.V, у) называется плотностью распределения системы непрерывных случайных величии (X , К),
110
к точке (лг, у) (рис. .45). Геометрически элемент вероятности есть объем элементарного параллелепипеда, опирающегося на элементарный прямоугольник со сторонами dx и dy и с высотой f (х, у) фис. 45).
Следовательно, зная плотность распределения / (.v, у), можем определить вероятность попадания случайной точки (X , К) в произвольную область D. Эта вероятность может быть получена суммированием элементов вероятности по всей области D и предельного перехода, когда наибольший прямоугольник со сторонами Ax = dx и Лy = dy стягивается в точку:
Р( ( Х, Y) С £>) == \ \ f ( x , у) dxdy. (3.6).
' D
Геометрически вероятность попадания в область D изображается объемом цилиндрического тела, ограниченного поверхностью распределения и опирающегося на эту область (рис. 46).
Используя формулу (3 .6), выразим функцию распределения системы F (х, у) через плотность распределения f (х, у).Функция распределения F (х, у) есть вероятность попадания в квадрант, ограниченный абсциссами — оо, х и ординатами — с о , у, поэтому
F (х, у ) = \ \ f (х, у) dxdy. (3.7)— СО — СЭ
Рассмотрим свойства плотности распределения системы двух случайных величин.
С в о й с т в о 1. Плотность распределения есть функция неотрицательная:
f(x, у) 2*0.111
Д о к а з а т е л ь с т в о . Плотность распределения есть предел отношения вероятности попадания случайной точки в прямоугольник со сторонами Л* и А// к площади этого прямоугольника (при Ах - - О и А/у— 0). Обе эти величины — неотрицательны. Следовательно, и предел их отношения не может быть отрицательным, т. е. / (* , у ) ^ 0 .
С в о й с т в о 2 . Двойной нссооственныи интеграл с оес- конечными пределами от плотности распределения системы равен единице:
СО СО
5 5 f ( x , y ) d x d y = 1.— СО —со
Д о к а з а т е л ь с т в о . На основании формулы (3.7) и свойства функции распределения F ( оо, -\- оо) = 1 имеем:
со со
I' ( оо, оо) = 5 5 / у) dx dlJ = l -
Геометрически это свойство озиа- *х чает, что объем тела, ограниченного
р ас_ 47 поверхностью распределения и пло-’скостыо хОу, равен единице.
Пример 1 . Плотность распределения системы двух случайных величин (X, Y) задана выражением
Найти а. Определить функцию распределения F { x , aj) и найти вероятность попадания случайной точки в прямоугольник (рис. 47) с вершинами 0 ( 0 , 0 ) , /1 (0 , i),
в(Кз~ 1) И С(КЗТО).Р е ш е н и е. Пользуясь свойством 2 плотности распре
деления, найдем постоянную величину а:
] ъ— с о — со
1 + А'2 + ДГ-У - dx dy = a \ \ , dA d-v — - =
VJ W ^
I* fix I* dy = ° \ и г ? \ ттгуг — arctg х arctg у — а--.
Следовательно, а =
Функцию распределения Ғ{х , у ) определяем по формуле (3.7):
•V V
(Ix dy'I (1 + 1
■ оо — соI \ ( 1
)(1 + г )
! 1 * , I \ / 1 , , 1 \= ( _ arctg х 4 - -2- j (~ arctg у + -fJj .
Вероятность попадания случайной точки (X, У) в заданный прямоугольник согласно формуле (3.6) равна
Р ((X , У) с Я) = i jj 5 (1 -І-Л-H l -Ь г )
Уз I! I* f/л- I* r/v i .= — \ :--- г. \ arctg л*
-- .) 1 -f -V- ,) 1 -г 3'- ■*
V з
arctg f/
f(-v, и)
~~ г.5 з 4 " 12 *В заключение этого параграфа отметим, что одним
из наиболее простых распределений системы двух непрерывных случайных величин является равномерное распределение.
Система двух непрерывных случайных величин (X, У) имеет равномерное распределение в области D плоскости хОу, если плотность распределения в точках области D постоянна п равна нулю в остальных точках плоскости хОу:
j С внутри D ,j 0 вне D.
Это означает, что с вероятностью 1 случайная точка попадает в область D, причем все положения в области D для этой точки в некотором смысле равноправны.
В силу свойства 2 плотности распределения имеем:С — .} -
Vгде So — площадь области D.
Основное свойство равномерного распределения состоит в том, что для пего применим геометрический способ определения вероятности. Так, если область w содержится в области D, то нетрудно показать, что
Р((Х, К) оо = Iя.D
где 5 Ш— площадь области со.
113
Действительно, согласно (3.6)
Р«*'У>С")=П/(*.0 Лг*=0>
= \ [ k d x d ^ s - A l d x d ! J = = k
§ 3.5. ПЛОТНОСТИ РАСПРЕДЕЛЕНИЯ ОТДЕЛЬНЫХ ВЕЛИЧИН, 6ХОДЯЩИХ В СИСТЕМУ. УСЛОВНЫЕ ЗАКОНЫ РАСПРЕДЕЛЕНИЯ
Пусть известна плотность распределения системы двух случайных величин. Рассмотрим сначала задачу нахождения плотности распределения одной величины, входящей в систему. Согласно свойству 1 § 3.2, имеем:
Fi (.* )'= F (х, со ); F, {у) = F (оо, у).
Следовательно, используя формулу (3.7) связи между f (х, у) и F (х, у), можно представить Fi{x) и F* (у) в виде:
Л* ОО
Fi (х) = F (х, оо) = 5 J f (х, у) dx dy,— со — со .
F* (у) = ғ (оо, у) =5 \ f ('v> У) clx dtJ-
Отсюда, дифференцируя первое равенство по х, а второе — по у, получим выражение для плотностей распределения отдельных величин, входящих в систему:
ft (х) = F\ (х) = j [ (х, у) dy,— СО
со
Һ (у) = F;> ( у ) = \ f (х’ У) dx -
(3.8)
Таким образом, для того чтобы получить плотность распределения одной из величин, входящих в систему, нужно плотность распределения системы проинтегрировать в бесконечных пределах по аргументу, соответствующему другой случайной величине.
Перейдем теперь к решению обратной задачи: по известным законам распределения отдельных величин,
114
входящих в систему, найти закон распределения системы. Как легко видеть, в общем случае эта задача неразрешима. Действительно, законы распределения отдельных случайных величин, входящих в систему, характеризуют каждую из случайных величин в отдельности, но ничего не говорят о том, как они связаны между собой. С другой стороны, искомый закон распределения системы должен содержать все сведения о случайных величинах системы, в том числе и о характере связей между ними.
Таким образом, если случайные величины X, У зависимы между собой, то закон распределения системы не может быть выражен через законы распределения отдельных случайных величин, входящих в систему. Это приводит к необходимости введения условных законов распределения.
О п р е д е л е н и е . Распределение одной случайной величины, входящей в систему, найденное при условии. что другая случайная величина, входящая с систему, приняла определенное значение, называется условным законом распределения.
Условный закон распределения можно задавать как функцией распределении, так и плотностью распределения. Условная функция распределения обозначается Ғ {XIу), условная плотность распределения f (х/у) (мы записали условные законы распределения случайной величины X при условии, что другая случайная величина У приняла определенное значение). Так как системы непрерывных случайных величин имеют основное практическое значение, то мы ограничимся рассмотрением условных плотностей распределения.
Согласно определению плотности распределения для случайной величины X при условии, что случайная величина У приняла определенное значение, имеем:
f / 1 N 1 • р ( X < х < Д- -f- A.V' І у = V) /0 mf (х \у) = l i m -------------- - ---------------— • (0 .9)Дд- -* 0 ~л
Но в силу непрерывности случайной величины У Р ( У = у ) = О,
и поэтому условная вероятность Р (л*<^Х х -j- 1 х \ У = у) не существует (см. теорему умножения вероятностей). Следовательно, правую часть равенства (3.9) нужноусовершенствовать, не меняя, однако, ее смысла. Это можно сделать, заменив первоначальное условие (У = у)
115
новым (у < У < у + А //) и устремив затем А г/ к нулю. Таким образом, примем следующее определение условной плотности распределения f ( x \ y ) :
f ( x \ y ) = lim Р ^ < ^ < - г + д ^ > ' < 1/<->' + д>:). (3.10)д х -* Од V — U
По теореме умножения
Р ( х < Х < х + Ь х \ у < У <0 + Ьу) =__Р (л* х -)- А л", < }' х у А у )~~ Р ( у < У < у + Ьу)
Следовательно, равенства (3.10) можно переписать так:
г , , ч , • Р (х < X < х -һ А л*, у < У < v 4- А з'), ( х , у) = i,,„e — — .
iv -»0
Разделив числитель и знаменатель на Д у, получим:
Р (X с Х < X -\- А А', V < У < у + А У)£ / 1 \ 1 • А Д - ■ А у / (х, 3 »)f ( х j //) —д1 іто P ( v < r < v + A.y — /, (у) •
Ay(3.1!)
Д.У — 0 Ay
Аналогично получаем:
f (U\ x ) = (3.12)
Используя оба соотношения (3.11) и (3.12), можно записать, что
f (X, у) = Һ (х) / (I/1X) = /. (//) f (X | г/). (3.13)
Отсюда видно, что для определения плотности распределения системы необходимо в общем случае знание плотности распределения одной случайной величины, входящей в систему, и условной плотности распределения другой случайной величины, входящей в эту систему.
Равенство (3.13) часто называют теоремой умножения законов распределения. Эта теорема в схеме случайных величин аналогична правилу умножения вероятностей для случай пых событий.
Применяя правила определения плотностей распределения случайных величин, входящих в систему (см.
116
формулы 3.8), формулы (3.11) и (3.12) можно переписать так:
f ix, У)f(x \у)
f (У! х)
j / (-V, У) dx—‘оо
/ (а-, у)СО5 / (X, у) dy
(3.14)
Условная плотность распределения обладает всеми свойствами безусловной плотности распределения. В частности, как следует из (3.14),
с о с о
5 / (х | tj) dx = 1 , 5 f ( y \ x ) d y = \ .— СО — с о
Д ля краткого описания условных законов распределения мы можем использовать различные характеристики, подобно тому как мы имели для одномерных распределений.
Наиболее важной характеристикой является условное математическое ожидание.
Условным математическим ожиданием дискретной случайной величины X при Y — у [у — определенное возможное значение случайной величины Y) называется сумма произведений возможных значений X на их условные вероятности:
M \ X \ Y = y\ = Y l xlP(x , \ y ) .£== 1
Д ля непрерывных случайных величинСО
M [ X \ Y = , j ] = \ x f ( x \ y ) d x ,— СО
где f ( x \ y ) — условная плотность распределения случайной величины X при Y = у.
Аналогично, условным математическим ожиданием дискретной случайной величины Y при X = х называется сумма произведений возможных значений Y на их условные вероятности:
тM [ Y \ X = x ] = ^ y j P { y j \ x ) .
/ = 1
117
Д ля непрерывных случайных величинСО
М [ У \ Х = х ] = S i j f (y\x)dt j ,— со
где f (у | х) — условная плотность распределения случайной величины Y при Х = х.
Подобным образом вводятся условные дисперсии и условные моменты более высоких порядков.
Из определения условного математического ожидания М [ Х \ У = у \ следует, что с изменением значения у будет изменяться и М [ Х \ У = у]. Это значит, что мы можем рассматривать функцию тх (у) = М [X 1, Ү = у\, областью
а) б)
У=т,(х)
определения которой является множество возможных значений случайной величины Ү . Эта функция носит название регрессии X по Ү .
Аналогично условное математическое ожиданиеМ [Ү І Х = л ] является функцией лг, т.е. m v (л) = Д1 [Y | X = л], которая носит название регрессии Y по X.
Уравнениях = тх (у) (3.J5)
иУ = т у (х) (3.16)
называются уравнениями регрессии соответственно X по Y и Y по X. Линии, определяемые уравнениями (3.15) н (3.16), называются линиями регрессии. Эти линии вводятся лишь для непрерывных случайных величин (длядискретных случайных величин «линии регрессии» будут состоять из изолированных точек плоскости). Примерные графики линий регрессии изображены на рис. 48.
118
§ 3.6. ЗАВИСИМЫЕ И НЕЗАВИСИМЫЕ СЛУЧАЙНЫЕ ВЕЛИЧИНЫ
Понятие зависимости или независимости случайных величин является одним из важнейших понятий теории вероятностей.
Случайная величина X называется независимой от случайной величины У, если закон распределения величины X не зависит от того, какое значение приняла величина Ү .
Д ля непрерывных случайных величин условие независимости X от Ү может быть записано в виде
f ( x \ y ) = [ 1 (*)
ripн любом у.Если же случайная величина X зависит от случайной
величины Y, тоf (х I У =ғһ(х) .
Используя равенство (3.13), легко показать; что если величина X не зависит от Ү, то и величина У не зависит от Х , ут. е. зависимость или независимость случайных величин всегда взаимны.
Действительно, пусть X не зависит от У:
f ( x \ y ) = fi (-V). (3.17)
Из равенства (3.13) имеем:h ( x ) f ( y \ x ) = f .z(y)f(x\ i j ) ,
откуда, принимая во внимание (3.17), получим: f (у \ х ) = һ(у) ,
что и требовалось доказать.Таким образом, случайные величины X и У называются
независимыми, если закон распределения каждой из них не зависит от того, какое значение приняла другая. В противном случае случайные величины X и У называются зависимыми.
Укажем простой признак независимости случайных величии, который сформулируем в виде следующей теоремы.
Теорема. Д ля того чтобы непрерывные случайные величины X и Ү были независимыми, необходимо и достаточно, чтобы плотность распределения системы (X, Ү)
110
была равна произведению плотностей распределения отдельных величин, входящих в систему:
f i x , y) = f i i x ) f i {y) .
Д о к а з а т е л ь с т в о . Н е о б х о д и м о с т ь . Пусть X и Y — независимые случайные величины, тогда
f {х I У) = f 1 (X), f i y IX) = fi (IJ),
и, следовательно, равенство (3.13) принимает вид: fix, У) = h ix) /о (у).
Д о с т а т о ч н о с т ь . Пусть / (х, у) = f \ (.* )/2 (у) . Отсюда, используя равенства (3.11) и (3.12), получаем:
fi (х) = 1 ix | у) или f, (у) = = f (у | Л').
Теорема доказана.С л е д с т в и е . Если плотность распределения f (х, у)
представима в виде произведения двух сомножителей, первый из которых содержит только х , а второй — только у, то случайные величины X и Y независимы.
Действительно, пустьf іх, у) = я(х) 3 (у). (3.18)
Тогда в силу свойства 2 плотности распределения системы и формул (3.8) имеем:
со со со со
5 5 / (х, у) dx dy = \ а (х) dx $ 3 (у) d y — l,— оэ — со
f, (*) = *(*) ? ( ! / ) d y = - s r ! --------- ,J [ a (x) СІХ— со J 4
— CO
CO
h (</)= ? to) Г « M dx = .S Н у) Чу
— СО
Отсюда
Һ М Һ (У) = — ------ --------------------- = * М ? (U) = f (*. у)j a ( x ) d x j (3 0 0 dy
— CO — CO
и, следовательно, случайные величины X , Y независимы.
120
Заметим, что (как видно из доказательства) функциио.(х), 3 (у) в разложении (3.18) с точностью до постоянных множителей совпадают с плотностями распределенияҺ (*) 11 /-Н^-
Пример 1 . Система случайных величин (X , Y) имеет плотность вероятности:
/ (х, У) = ^ (1 - { - Х - + Г + .rL> -) *
Требуется определить, зависимы или независимы случайные величины X и У.
Р е ш е н и е . Ответ немедленно следует из возможности разложения плотности f (х, у) на множители:
Һ (*, У) 1
Отсюда видно, что случайные величины X и У независимы, причем каждая из них подчиняется так называемому закону Коши:
А ( * ) — w T X 3 ' . h i ! / ) 'Я (>+*-) ’ * ( > + / • ) '
Пример 2. Система случайных величин (X, У) равномерно распределена внутри круга радиуса г:
Л I при х~ + у * ^ г \ f (x>y) = \ ,'r (3-19)
( 0 при г Ч - * / '> '" •
Найти плотности распределения случайных величин X и Y, а также их условные плотности распределения относительно друг друга. Установить, зависимы или независимы случайные величины X и У.
Р е ш е н и е . Подставляя выражение (3.19) в формулы (3.8), находим плотности распределения случайных величин X и У:
СО
f 1 (X) = 5 / (X, у) cly =
I у 1 sc: г.(3.20)
VГ'~ - -V-С _ J L 1/- у . . г — X- при I X | С г ,
- Y Г- — А--0 при | * | ] > г .
121
, I Zrz V Г — f прп | / / ! с г ,h{y) = \ (3.21)
[ 0 при \ у \ > г .Подставляя полученные выражения (3.20) іг (3.21)
соответственно в формулы (3.14), найдем условные плотности распределения случайных величин X и У:
1
Аналогично вычисляя, получим:
п р п U 1 < J ' V — у1,
п р и и > У г ~ У 1 у
п р и \ У \ го
п р и \у \ > 1 ' Г — х -
Так как их условные плотности распределения не совпадают с безусловными и произведение их плотностей распределения не равно их совместной плотности распределения, то случайные величины Л' и У зависимы.
§ 3.7. ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ СИСТЕМЫ ДВУХСЛУЧАЙНЫХ ВЕЛИЧИН. КОРРЕЛЯЦИОННЫЙ МОМЕНТ. КОЭФФИЦИЕНТ КОРРЕЛЯЦИИ
Законы распределения системы случайных величин являются исчерпывающими вероятностными характеристиками ее. Однако очень часто такая исчерпывающая характеристика не может быть применена. Иногда ограниченность экспериментального материала не дает возможности построить закон распределения системы.
При исследованиях, связанных с системами случайных величин, весьма большое применение нашли их числовые характеристики, которые в определенной степени могут дать представление также и о характере закона распределения.
В основу получения числовых характеристик системы случайных величин положено понятие моментов. Как и для одной случайной величины, здесь различают начальные и центральные моменты.
Начальным моментом aks порядка /е -{— s системы (X, Y) называется математическое ожидание произведения /г-й степени X на s-ю степень У:
a b = A 'l [ X /-Y i ] . ( 3 .2 2 )
122
Формулы для вычисления начальных моментов aks записываются следующим образом:
для системы дискретных случайных величин
(3-23)i j
где Pij = Р (X — .V/, У == tjj) — вероятность того, что система (X, У) примет значения (л'г-, tjj), а суммирование распространяется по всем возможным значениям случайных величин X , У;
для системы непрерывных случайных величинCO со
a*s= 5 S x ki / f (х, у) dxdy , (3.24)— СО — со
где /(.V, у) — плотность распределения системы.На практике наиболее употребительными являются
начальные моменты первого порядка:
а„ = М [ХЧ'*] = М [X] = тх, \ ат = М [Xе/ 1] = М [У] = т у, )
которые являются математическими ожиданиями случайных величин X н У, входящих в систему. Эти математические ожидания определяют координаты точки, называемой центром рассеивания системы на плоскости.
Перейдем теперь к рассмотрению центральных моментов.
Центральным .моментом порядка к ~\- s системы (X, У) называется математическое ожидание произведения Л-й п s-й степеней соответствующих центрированных величин:
!4 -s = М [(А' — тх)к (У — ШуУ] . (3.25)
Формулы для вычисления моментов \i!{S записываются следующим образом:
для системы дискретных случайных величин
lJ‘*S = V V (X; — шх)!' (у — ШуУРіj\ (3.26)i j
для системы непрерывных случайных величинСО rfj
Hs — S S (* — тхУ' (У -- niy)s f (x, у ) dx dy. (3.27)
12.
В практике наибольшее применение имеют центральные моменты второго порядка. Два из них представляют собой уже известные нам дисперсии величин X и Ү:
Dx = а20 = М [{X - тх)~ (Y — //гу)°] = М [(X - mxf ] ,Dy = [j-оз'== М [(X — тх)° {Y — ту)'2} = /VI [(К — туу2],
которые характеризуют рассеивание случайной точки в направлении осей Ох и Оу.
Особую роль при исследовании системы двух случайных величии играет второй смешанный центральный момент iMi, который называется корреляционным моментом, или моментом связи. Он обычно обозначается kxy:
kxУ = !Ji 1 = м [(X — тх) (Y — 1Пу)\. (3.28)Момент связи kxv, определяемый как математическое
ожидание произведения отклонений двух случайных величин от их математических ожиданий, помимо рассеивания величин X и Y, может характеризовать взаимное влияние этих случайных величии. Для оценки степени этого влияния обычно используют не сам момент связи кХу, а безразмерное отношение
k KVГ*! = Т Г ' <3 -29)Ху
которое называют коэффициентом корреляции случайных величин X и Ү .
Корреляционный момент и коэффициент корреляции обладают следующим свойством.
Если случайные величины X и Ү независимы, то корреляционный момент и коэффициент корреляции равны нулю.
Доказательство проведем для непрерывных случайных величин. Пусть X и Ү — независимые случайные величины с плотностью распределения f ( x , y ) . Тогда согласно теореме § 3.6 имеем:
f ( x , y) = f i (x)fo(y),где f i (х), fi (у) — плотности распределения соответственно величин X и Y.
Следовательно,со со
kxy = S S (X — тх) (у — ту) f (х, у) dx dy =— со — со
со с )
= 5 (х — тх) [l (X) dx 5 (у — /Лу) /•» (у) dy,
124
т. е. двойной интеграл превращается в произведение двух интегралов, каждый из которых равен нулю, так как они представляют математические ожидания от центрированных случайных величин (см. § 2.5, п. 4).
Итак, для независимых случайных величин X и Үt ixy — Q.
Из равенства пулю корреляционного момента и формулы (3.29) следует равенство нулю коэффициента корреляции.
Аналогично доказывается это свойство и для дискретных случайных величин.
Равенство нулю коэффициента корреляции является только необходимым, но не достаточным условием для независимости случайных величии. Это значит, что может существовать система зависимых случайных величин, коэффициент корреляции которой равен нулю. Примером такой системы является система случайных величин (X, К), равномерно распределенная внутри круга радиуса г с центром в начале координат. В примере 2 § 3.6 мы показали, что случайные величины X и Y системы, имеющей такое распределение, являются зависимыми. Вычислим теперь корреляционный момент.
Так как для системы случайных величин (X, К), равномерно распределенных внутри круга с центром в начале координат, тх = 0 , ту = 0 , то
со о:>
кку = S S Xtjf (х, у) dx dy.— со
Тогда имеем:
где
, . f Дт при х- - f i f ^ Лf ( X j y ) = ) r . r -{ 0 при Х-~\-у'-^>Г.
Здесь внутренний интеграл равен нулю (подынтегральная функция нечетна, пределы интегрирования отличаются только знаком), следовательно, kxy = 0 , или, что то же, коэффициент корреляции гху = 0 .
Vr~-x"
V Г - - X -
dx,
Две случайные величины X и У называются некоррелированными, если их коэффициент корреляции равен нулю; X и У называются коррелированными, если их коэффициент корреляции отличен от пуля.
Таким образом, если случайные величины X и Ү независимы, то они и некоррелнрованы, но из некоррелированности случайных величин нельзя в общем случае сделать вывод об их независимости.
Кроме корреляционного момента и коэффициента корреляции, взаимная связь двух случайных величин может быть описана с помощью линий регрессии. Действительно, хотя при каждом значении Х = = х величина У остается случайной величиной, допускающей рассеивание своих значений, однако зависимость У от X сказывается часто в изменении средних размеров У прп переходе от одного значения х к другому. Эту последнюю зависимость и описывает кривая регрессии
у = ту (х).
Аналогично, зависимость X от У, которая сказывается в изменении средних размеров X при переходе от одного значения у к другому, описывается кривой регрессии
х = т х (у).
§ 3.8. ФУНКЦИЯ И ПЛОТНОСТЬ РАСПРЕДЕЛЕНИЯ СИСТЕМЫ ПРОИЗВОЛЬНОГО ЧИСЛА СЛУЧАЙНЫХ ВЕЛИЧИН
На практике очень часто приходится рассматривать системы более чем двух случайных величин. Эти системы, как мы уже отмечали в начале этой главы, интерпретируются как случайные точки или случайные векторы в пространстве соответствующего числа измерений.
Полной характеристикой системы произвольного числа случайных величин является закон распределения системы, который может быть выражен функцией распределения или плотностью распределения.
Функция распределения системы нескольких случайных величин вводится как обобщение функции распределения системы двух случайных величин. Так функцией распределения системы п случайных величин fXi, Х>, . . . , Х,{) называется функция а аргументов
Л'ь .v2, . . . , x,i, равная вероятности совместного выполнения п неравенств X,-< \ v ; ( * ' = 1 , 2 , п), т. е.
F (хI, а», ■ • • j Xji) —— P ( X \ <^ X i , Х <2 < л'2, . . . , Х п < ^хг1). (3.30)
Эта функция является неубывающей функцией каждой переменной при фиксированных значениях других переменных. Если хотя бы одна из переменных л*ь . . . . . . , л',г стремится к — сю, то функция распределения F (ЛГ|, х-2, . . . , хп) стремится к нулю.
Выделим из системы величин (Ль X», Х„) частную систему (Л ь Х-2, Х т), тогда функция распределения этой системы определяется по формуле
F 1, 2, ... , т *2» • • • j Хт) — Ғ (Лі, Ао, . .. , Xf/it СО, . .. , со).
В частности, функция распределения каждой из величин, входящих в систему, получится, если в функции распределения системы положить все остальные аргументы равными - |-со :
Л ( X l ) = F (хи СО, . . . . со).
Если все переменные а ь xit . . . , хп стремятся к -{-ос, то F (хи а .2, . . . , х„) стремится к единице:
F ( с о , - . . . , оо) = 1 . (3.31)
Зная функцию распределения Ғ (хи л\>, . . . , хп), можно получить формулу, аналогичную формуле (3.2), для определения вероятности попадания случайной точки (Ль Л 2, . . . , Х я) в прямоугольные области. Однако получающаяся при этом формула весьма громоздка.
Функция распределения является достаточно общей характеристикой системы случайных величин. Любая система случайных величин имеет функцию распределения. Д ля описания закона распределения системы непрерывных случайных величин обычно используют плотность распределения системы.
Плотность распределения f (лгь лг2, . . . , хп) системы п случайных величин (Ль Л*, . . . , Л„) определяется как предел отношения вероятности появления системы (Ль Х ь . . . , Л /г) в малой окрестности точки (хи а 2) . . .
'127
/
. . . , х п) к размеру этой окрестности прп неограниченном ее уменьшении, т. е.
f (ль Аг, • • • , Хя) =_ Р (a'i < At •< л-j Ал'р •••, х п ■<. Х п <с х п -)- Ал'ц) 2 2 ^
A.VX- 0 Ал'і Лл'«Д* 2 -*■ о .А'хп~*°
Плотность распределения системы не 'может быть отрицательной:
f (Хи хо, Ал) ^ 0 .Вероятность попадания случайной точки с координа
тами (Х и Х-2, , Х п) в «-мерную область D выражаетсяинтегралом
Р ( ( Х и Х ь . . . >Xa)<ZD) == $ $ . . . $ / (*ь a2, . . . , хп) cixidx-i . . . dxn. (3.33)
D
Применяя формулу (3.33) к области Х £- х £- (/ = 1, . . . . . . , п ), получим выражение функции распределения системы через плотность ее распределения:
F (Хи Ао, . .. , А„) —*1 -V2 A’rt /
— 5 5 . . . S f (xu Ao, . . . , xn)d x id x i . . . dxa. (3.34)— CO —CO
Дифференцируя эту формулу по.каждой из переменных, получим выражение плотности вероятности системы (Хь Хо, . . . , Х п) через функцию распределения этой системы:
г ( г .. ч _ д п ’Ғ ( х і , х», . . . , х п)А2, . . . , Х п) a.vr.rXv, ...
Полагая в (3.34) аі = а2= = . . . = а„ = оо и принимая во внимание (3.31), получим:
ОЭ ' СО5 . . . 5 f (Хи Ха, . , х„) dxydx-i . . . dxn = 1. (3.36)
— ОО — с о
Плотность распределения частной системы (Х и Хч, . . . Х т), выделенной из системы (Хи Ха, . . . , Х п), равна
f 1, ‘2......т ( -Ь Ха, . . . , Хп) ----с о о э
- ■ ■ ■ 5 х%> • • • » X/i) dx,ji_v\ . . . dxn.— ОЭ — ОО
128
В частности, плотность распределения каждой из величин, входящих в систему, получится, если плотность распределения системы проинтегрировать в бесконечных пределах по всем остальным аргументам:
СО о э
f 1 (х) [ (л 1, х •_>, . . . , хп) dx-i . . . dxn.— с о — с о
Для того чтобы исчерпывающим образом охарактеризовать систему, нужно еще знать зависимость между величинами, входящими в систему. Эта зависимость может быть охарактеризована с помощью условных законов распределения.
Условным законом распределения частной системы (Хь Х 2, . . . , Х т) называется ее закон распределения, вычисленный при условии, что остальные величины Х т,л, . . . , Х п приняли значения хт+и . . . , хп.
Условная плотность распределения определяется по формуле:
/ *2, . . . . хт | хт+1, . . . , хп) = /(Лі> х -' ’ Хп) ./ От-Ц, ... , П \Л/П+1, ... , х п)
Случайные величины Х и Х 2, Х п называютсянезависимыми, если закон распределения любой частной системы, выделенной из системы (Хь X 2, . . . , Х п), не зависит от того, какие значения приняли остальные случайные величины.
Для системы (Хь X», . . . , Х п) независимых случайных величин плотность распределения равна произведению плотностей распределения отдельных величин, входящих в систему: ,
f (хи Х-2, . . . , Х а) = f i (Ху) f о (Хо) . . . f „ (Х п) .
§ 3.9. ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ СИСТЕМЫПРОИЗВОЛЬНОГО ЧИСЛА СЛУЧАЙНЫХ ВЕЛИЧИН
Основными числовыми характеристиками, с помощью которых может быть охарактеризована система п случайных величин (Хь Х 2, . . . , Х п), являются следующие.
1. Математические ожидания случайных величин, входящих в систему
тХ1, тХя, , т х-п,
б Гурскиіі 12;)
которые в совокупности определяют центр рассеивания системы или математическое ожидание /z-мерного случайного вектора.
2. Дисперсии
характеризующие рассеивание случайной точки в направлении осей.
3. Корреляционные моменты каждой пары из п случайных величин
характеризующие попарно корреляцию всех случайных величин, входящих в систему.
Зная корреляционные моменты, можно найти коэффициенты корреляции
которые характеризуют степень связи между каждой парой случайных величин.
Так как дисперсия каждой из случайных величин системы (Х и Х-ъ . . . , Х п) есть не что иное, как частный случай корреляционного момента, а именно корреляционный момент величины и той же самой величины Хі
то все корреляционные моменты и дисперсии распола^ гают в виде прямоугольной таблицы
которая называется корреляционной матрицей системы п случайных величин. - .
Из определения корреляционного момента следует, что kXiXf = kXfX,. Это значит, что элементы корреляционной матрицы, расположенные симметрично по отношению к главной диагонали, равны. В связи с этим часто для
kx .xj = М [(Хі — т х .) (X j — тХ/)} (і ^ /),
130
простоты в корреляционной матрице заполняется только ее половина:
В случае, когда случайные величины Х \, X:, Х п некоррелнрованы, все корреляционные моменты
Следовательно, корреляционная матрица системы некоррелированных случайных величин имеет вид:
Такая матрица называется диагональной матрицей .Вместо корреляционной матрицы часто пользуются
нормированной корреляционной матрицей.Нормированной корреляционной матрицей называется
такая матрица, элементами которой являются коэффициенты корреляции.
Все элементы главной диагонали нормированной корреляционной матрицы равны единице. Нормированная корреляционная матрица имеет вид
В заключение этого параграфа введем понятие о некоррелированных случайных векторах. Рассмотрим два случайных вектора в «-мерном пространстве.
kx .x j= 0 (при І Ф І ) .
V \ {Хь Х ь . . . . Х в} и V , { Y u У, ..........Уп}.
Случайные векторы V\ и F 2 называются некоррелированными, если каждая из составляющих X* вектора V ]t
некоррелирована с каждой из составляющих У j век' тора Уь т. е. если корреляционные моменты
кхіУ/ = 0 при і = 1 , 2 , я ; / — 1 , 2 , п.
§ 3.10. НОРМАЛЬНОЕ РАСПРЕДЕЛЕНИЕ НА ПЛОСКОСТИ
Из всех законов распределения системы двух случайных величин наибольшее распространение на практике имеет нормальное распределение.
Рассмотрим вначале нормальное распределение для системы двух независимых случайных величин.
Пусть X и У — нормально распределенные и независимые случайные величины, а отвечающие им плотности распределения имеют вид
Следовательно, плотность распределения системы (X , У) на основании теоремы умножения плотностей распределения для случая независимых величин получим в виде
Если центр рассеивания системы совпадает с началом координат, то тх = ту = 0 , и следовательно,
Выражение (3.38) называется канонической формой нормального распределения на плоскости.
Д ля выяснения вида поверхности распределения(3.38) будем применять метод сечений.
Пересекая поверхность распределения плоскостями, параллельными координатной плоскости хОу, и проектируя сечения на эту координатную плоскость, мы полу
f(*> У) = f\ (х) Һ (у) =1 Г(л' - ,пх)~ , (у - туУ
1 + а 2.(3.37)
(3.38)
чим семейство подобных и одинаково расположенных эллипсов с общим, центром в начале координат.
Д ля того чтобы убедиться в этом, напишем уравнение линии пересечения поверхности распределения (3.38) плоскостью z = Zo = const. Очевидно, что постоянному значению г0 функции
1 /.V-
Z = f(x, у) 2 ' „jj
отвечает постоянное значение показателя степени, т. е.
Су к~ (к = const). (3.39)
Уравнение (3.39) является уравнением проекции па координатную плоскость хОу линии пересечения поверхности распределения (3.38) плоскостью z = zn. Преобразовав уравнение(3.39) к виду
(=v*)s (*уА)я
(3.40)
мы видим, что оно является уравнением эллипса, главные полуоси которого пропорциональны сЛ. ио у и совпадают соответственно с осями Ох и Оу, а центр находится в начале координат.
Так как к может меняться от нуля до бесконечности, то мы имеем семейство подобных и одинаково расположенных эллипсов. Каждый эллипс из этого семейства является геометрическим местом точек, где плотность распределения / (х,у) равна постоянной величине. Поэтому они называются эллипсами равной плотности, короче, эллипсами рассеивания. Общие оси симметрии всех эллипсов рассеивания называются главными осями рассеивания.
При оЛ. = а у эллипсы (3.40) превращаются в окруж ности и распределение (3.38) называется круговым.
133
Пересекая поверхность распределения (3.38) плоскостями, параллельными координатной плоскости уОг или хОг, мы будем получать кривые, подобные кривым нормального распределения.
f(x* У)
Рис . 50
Таким образом, поверхность распределения (3.38) имеет вид холма, вершина которого находится на оси Ог (рис. 49).
Поверхность распределения (3.37) отличается от поверхности распределения (3.38) только тем, что центр
эллипсов рассеивания имеет ко- ордииаты (тх, т у), а главные оси рассеивания параллельны соответственно осям координат, т. е. поверхность распределения (3.37) получается параллельным переносом поверхности распределения (3.38) (рис. 50).
Подсчитаем для распределения (3.37) вероятность попадания в прямоугольник со
сторонами, параллельными осям координат. Прямоугольник ограничен абсциссами а и b и ординатами c u d (рнс. 51).
Применяя общую формулу для расчета вероятности попадания случайной точки в произвольную область к
134
рассматриваемому случаю, запишем исходное выражение для искомой вероятности в виде
. Р ( а < л : < г ), c < K < < g = 5 * r f / ( * , ,i )dy =
и а и= Д (*)<** dr/==
а с а
X ) z r £ e
( х ~ т х ) '2а -
a v ^2* ( у - т д,)2
У
dx X
dy.
Отсюда, применяя формулу (2.40) для вероятности попадания случайной величины на интервал, находим:
Р ( д < Х < 6 , c < K < d ) =
Ф ~ W.V \У 2 /
Ф'л- / 2
(Г) d — my~ < к ғ
ф/с -
U . l ' ' - 5/Если стороны прямоугольника не параллельны осям
координат (главным осям рассеивания), эта формула для вероятности попадания в прямоугольник не применима.
Двумерное нормальное распределение (3.37) допускает непосредственное обобщение на систему п случайных величин (Хь Хо, Х„). А именно, если случайные величины Х ь Хо, . . . , Х п имеют нормальные распределения и независимы между собой, то система случайных величин (Хь Хо, . . . , Х п) имеет «-мерное нормальное распределение с плотностью вероятности
f (Xl, А*, ..., Хп) =1 — " ' . V , ) 9 ( Л\> ~ тх~)- ( л " ,г - тхп)-~
----- ------- І-------77-------}-... 4-------77------
C.v1ax.) • • • аХп (~~) (3.41)Рассмотрим теперь нормальное распределение на пло
скости для зависимых случайных величин.Плотность нормального распределения для системы
двух зависимых случайных величин X и Y выражается формулой
f ( x , у ) = - ------- ‘ X
Х е ’ О " ' 3* )
\ х - т ху- 2 г.ху
. (3.42)
135
Этот закон зависит от пяти параметров тх, m v, ах, ov и гху. Д ля выяснения смысла этих параметров определим частные распределения случайных величин системы.
Согласно формулам (3.8) имеем:( х — m )!ээ ' -V/
/iW= \ f {x , у) d y = - -------г)-.- „ е 2(1 г*у)9* хV 1 - Гху
а 1 Г(>'-"г.уУ- ,v (х~ тх) (-v~ m\X J е L °у " ’VV V>
— СО
Положим:У - т у _
} -Ш Г Ч ------- >■ « ,К 2 ' . „ ^ 2
тогда
dv.----------- — л— (v" — 2r . uv)
f, (x) = — 7____ ____ . e ( e '- 'i jr-•К2 . 4 / І - Г І , _ie
Дополним выражение в скобках до полного квадратан- г* и9
— +- -f 1 С*) = — - — <? 1 “ г*у 1 ~ X* У 2' хУ 1 - г * лу А
“ “ 7— r - ( ’ - V )2 X J б *у dv.
— со
Сделаем подстановку:
' = j 7 T = ^ (0 - ^ u)'тогда
һ (X) — JL е-"’ [ e-r-dt.
СО
Но dl — \ гъ (интеграл Пуассона). Поэтому, учи
тывая, что и = х п:. х , имеем:
Таким образом, случайная величина X распределена нормально с математическим ожиданием гпх и дисперсией о%.
Аналогично, определяя плотность распределения случайной величины У, получим
(>'-туУ
т. е. случайная величина У распределена нормально с математическим ожиданием ту и дисперсией aj,.
Покажем теперь, что параметр гху есть коэффициент корреляции случайных величин X и У. Д ля этого вычислим корреляционный момент k xy:
кху = $$ (х — т х) {у — ту) f (х, у) dx dy =— со
со
= о--- - - - - - (У — ШУ] х2 ™х Ь у \ - г ; ку Л
(х - mx f 2. (х (У~ту) (У-'ПуУЧ [~ гху) dx dy.
Произведем в двойном интеграле замену переменных, положив
и;1
V r2 | / 2 ( 1 - г у \
Якобиан преобразования равен
2 ахау Y 1 - гху.Поэтому
v - ту .. Л' - тх\ ____
k „ = | j 5 У 2 ь У 2 ( 1 - Ъ ) (ш + у ү £ ? г ) х________ со оо
X e-u- - w- da dw — "■ Л ;V ----- — jj ме- "2 dw ^ we~w~ dw -f-
ь 137
Ho J ие~п' du = J we~wSdw = 0 , как интегралы от нечет-— со — со
ной функции в симметричных пределах, а такжесо со
u*era* d u = - ү , e~w~ d w = V % .— со —со
Следовательно,
ХУ ■ г*у—'ЧУ
°ЛЛ_уТаким образом, параметр гху в формуле (3.42) есть
коэффициент корреляции случайных величин X , Y . Рассмотрим уравнение
' « * ) “ 2 / - (^' » ' * ) (-V М у ) I ( У M y ) _ _ ^ 2 ^ ^ 0 ^(Л'
Анализируя уравнение (3.43) обычными методами аналитической геометрии, убеждаемся в том, что оно представляет эллипс, центр которого находится в точке
с координатами (m.v, ту), а оси симметрии такого эллипса составляют с осью Ох углы, определяемые уравнением
tg 2 а ЪГху'яРу (3.44)
Уравнение (3.44) дает два значения * углов ол и а.2, различающихся навеличину
Придавая k различные значения, мы получим семейства подобных и одинаково расположенных эллипсов (эллипсов рассеивания), осп симметрии которых (главные оси рассеивания) не параллельны координатным осям (рис. 52).
Из уравнения (3.44) следует, что ориентация эллипсов рассеивания относительно координатных осей находится в прямой зависимости от коэффициента корреляции гху системы (X , Y ). Если величины X и Y некоррелированы (гху = 0 ), то главные осп рассеивания параллельны координатным осям. Плотность распределения для некорре
138
ре- м
лированных случайных величин получается из уравнения (3.42) при rxv = 0:
f i x , У)1 (3.45)
°АЛУ V2lZНо выше было показано, что выражение (3.45) пред
ставляет плотность распределения системы независимых случайных величин. Таким образом, мы получили важный вывод: если нормально распределенные случайные величины некоррелированы, то они и независимы.
Из приведенных рассуждений следует, что от нормально распределенной системы зависимых случайных величин можно перейти к нормально распределенной системе независимых случайных величин путем поворота системы координат хОу на угол а, определяемый уравнением (3.44).
В заключение этого параграфа рассмотрим условные законы нормального распределения, для определения которых применим формулы (3.14). Будем иметь:
1 Ш = --------, 1 . . XJ f i x , y ) d y
j/2 - av ү 1 - r %
X * 2(1-4;.)'( x - m x ) S _ 2 r Vv ( A - - m v ) ( v - m v) ( y - m y f
+(x ~ mx)3ъ-.
f ( x \ y )f i x , y ) X
X !0 - 4 v )
5 f ( x , y ) d x— 00
(x- ,nx)- -rxy (x~ mx) ( y ~ m.v) , ( y - my)- +2 з г
Преобразуя показатель степени при е, получим:
Анализируя полученные выражения, мы видим, что они представляют собой плотности нормального закона с центрами рассеивания соответственно
М [ У \ Х = х } = niy (х) = m v - | - гХу (хх
м [ X \ Y = у] = т х (у) = т х - f гху (уу
и средними квадратическими отклонениями
Су | Д- = а у У 1 / д. v,
°x\y = ° x Y \ — f ly .
Формулы (3.46) показывают, что линии регрессии Y по X и X по Y в случае нормального распределения являются прямыми линиями
У = Щу - j - гХу р - ( х — т х) ,
х = т х - \ - г ху I х ( у — т у ), у
которые проходят через точку (тх , т}), т. е. через центр распределения системы (X, Y ). Угловые коэффициентыпрямых регрессии гху - - и гху — называются соответ-
О д . а у
ственно коэффициентами линейнои регрессии Y по X и X по Y .
В о п р о с и д л я с ам оп ро ве рк и
1. Что называется системой случайных величин?2. Как м о ж н о трактовать ' систем у случайных величин?3. Д ай те определение функции распределения системы двух
случайных величин н укажите ее свойства.4. Дайте о п р еде лен и е плотности распределения вероятностей
системы д вух случайных величин. П еречислите и докаж и те ее свойства.
5. Как определить вероятность попадания в данную область?6. Что называется условным законом распределения?7. Как выражается плотность распределения каждой из величин,
входящ их в систему, через плотность распределения системы?8. Какие случайные величины называются зависимыми? н еза
висимыми? /9. Что является необходимым и достаточным условием незави
симости случайных величин?10. Что называется корреляционным моментом? коэффициентом
корреляции?
140
— т х) , )(3.46)
— Щу) J
11. Чему равен коэффициент корреляции для независимых сл учайных величин?
12. Какие случайные величины называются некоррелированны ми?13. С л едует ли из некоррелированности случайных величин их
независимость и наоборот?14. Что называют функцией распределения системы п случай
ных величин?15. Как определяется плотность распределения системы п слу
чайных" величин?16. Как определяется плотность распределения частной системы
т случайных величин, входящ ей в систему п случайных величин (т < л)?
17. Чему равна плотность распределения системы п независимых случайных величин?
18. С п ом ощ ью каких числовых характеристик м о ж ет быть охарактеризована система п случайных величин?
19. Что называется корреляционной матрицей системы п случайных величин?
20. Какая матрица называется нормированной корреляционной матрицей?
21. Как записывается формула для плотности р асп ределен и я нормально распределенной системы д в у х независимых случайных величин? зависимых случайных величин?
22. Какие эллипсы называются эллипсами равной плотности или эллипсами рассеивания?
23. Равносильны ли понятия некоррелированности и н езав иси мости случайных величин для нормально расп р едел ен н ой системы?
У п р а о к н е н и я
1. По некоторой цели производится два выстрела. Вероятность попадания при одном выстреле равна р . Рассматриваются две случайные величины:
X — число попаданий в цель,Ү — число промахов.
Составить таблицу распределения и определить числовые характеристики системы.
т х = 2р, my — 2q,
D x = D y = 2pq,
k x y = - 2pq.
2. Н езависим ы е случайные величины X и Y подчиняются зако- равномерной плотности распределения соответственно в ннтер-
141нам
\ - ' 7
3’/ \0 1 2
0 0 0 р -
1 0 2 pq 0
2 Г 0 0
валах (0, 2) и (— 2, 1). Написать выражения для плотности р а сп р ед ел ени я системы (A', Ү).
~ при 0 г £ л г ^ 2 , — 2 * g y s g 1;
Отв. / (л*, у ) = ■ О при л- < 0 или х > 2; у с — 2 или > > > 1 .
3. Система случайных величин (X, У) имеет плотность р асп р еделения
_ (Л‘ ~ 9)2 / (х) = ае 8 g ( y ) ,
где
1 COS у при |>»
g (У) =О при ! у j > 9
Найти а. Написать выражения для плотностей р аспределения с л у чайных величин X и Y. О пределить математические ож идания и дисперсии величин X и У.
1 1 -& = & ■Ошв. а = — — , / і (а ) = — — е 8 ,
•1 \ г 2~ 2 У2г.
Л ( Л = П Г , и* = 2 . ту = 0. = Oj = T - 2'4. Плотность вероятности системы случайных величин (X , Y)
задана выражением
/ (х, у ) = а е ~ ('v + D2 ~ I І.
Найти а. Написать выражения для плотностей распределения с л у чайных величин X и У. О пределить числовые характеристики системы
а 1 = , / , (* ) = 4 = е-'*-*-1’’ ,2 V ? .' ' УТ
Отв. ,f t (У) = — <?“ 1 -v тх = — 1, гпу = О,
Dy = 2, A*v = 0.
5. Плотность вероятности системы случайных величин (А, К) задана выражением
/ (л*, у ) = a cos (л- — у ) при O s ^ x ^ - £ , 0 ^ у ^ ~ .
Т ребуется: а) определить величину и; б) найти функцию р а сп р еделения Ғ ( х , у); в) определить числовые характеристики системы.
Отв.
О при х < 0 и у < О;
~у [cos (л- + з') — cos л* — cos у - f П
б) F (х, у ) = i
1 при Л' > ү или у > -‘у ;
в) тх = m v = ~ , Dx = Dj, = үб Ң- о1 - 2:
6. Система д в у х случайных величин (X , У) подчинена закону р аспределения с плотностью вероятности
Определить коэффициент а и найти радиус круга с центром п начале координат, вероятность попадания в который равна р.
7. Система трех случайных величин (X, У, Z ) подчинена закону равномерной плотности распределения внутри цилиндра, ось которого совпадает с осью O z и точкой О делится пополам. Р ади ус цилиндра равен г, а высота равна 2Һ.
Написать вы ражение для плотностей распределения системы и отдельных случайных величин, входящ их в систему. Установить, являются ли случайные величины X, У и Z зависимыми.
8. Плотность распределения системы д в у х случайных величин ( X, У) задана выражением
Отв. / (.v, у , z) = { 2т.г-һщ при X s - \ - у * * ^ г и | z | Л;
О прп д'2 + у" > Г' и | z | > Һ.
| ^ 5 V г* - при | л-1 =£ г;
[ О при | х | > г,
Һ (У) =
I 0 при 1 г j > Л ,X , У и Z — зависимы.
(-у 4 - з ) 1 ( у - 1)г
/ ( * , у ) = ае 2
143
Найти коэффициент а. Установить, являются ли случайные величины X и У зависимыми. О пределить вероятность совм естного выполнения д в у х неравенств Х < — 3; У < 4 .
л о = — , где <jv = 2, а , = 1.Отв. 2"аЛ. а / л '
X и Y — независимы, Р ( X < — 3, У < 4) =%s0,5.
9. П роизводится единичное бом бом етание по прямоугольной назем ной цели. Ширина цели равна 20 м, а д л и н а — 100 м. П риц еливание по центру цели. Осп рассеивания совпадают с направлением полета и с перпендикуляром к этому направлению. В ероятн ое отклонение в направлении полета равно 60 м, в направлении, п ер пен ди кулярном полету — 40 м. Систематические ош ибки отсутствую т. Найти вероятность попадания в цель при сбрасывании одной бомбы.
Ошв. р 0,058.
10. Система д в у х случайных величин (X, Y) подчиняется н ормальному закону. Рассеивание круговое . Найти вероятность попадания случайной точки (X , У) в круг, центр которого совпадаетс центром рассеивания, а радиус равен двум вероятным отклонениям.
Отв. р — 0,598.
Г л а в а 4
ФУНКЦИИ с л у ч а й н ы х вел и ч и н
§ 4.1. ЗАКОН РАСПРЕДЕЛЕНИЯ ФУНКЦИИ ОДНОЙ СЛУЧАЙНОЙ ВЕЛИЧИНЫ
При решении задач, связанных с оценкой точности работы различных автоматических систем, точности производства отдельных элементов систем и др., часто приходится рассматривать функции одной или нескольких случайных величин. Такие функции тоже являются случайными величинами. Поэтому при решении таких задач необходимо знать законы распределения фигурирующих в задаче случайных величин. При этом обычно закон распределения системы случайных аргументов известен и известна функциональная зависимость.
Таким образом, возникает задача, которую можно сформулировать следующим образом.
Дана система случайных величин (Х ь Хо, . . . , Х „), закон распределения которой известен. Рассматривается некоторая случайная величина У как функция случайных величии Х ь Х 2, . . . , Х п
Ү = ? (Хь X,, . . . , Х„). (4.1)
Требуется определить закон распределения случайной величины Ү , зная вид функции (4.1) и закон совместного распределения ее аргументов.
Начнем с рассмотрения наиболее простой задачи, относящейся к этому классу: задачи о законе распределения функции одного случайного аргумента
У = ? (X). (4.2)
В дискретном случае решение этой задачи очень просто. Действительно, пусть X —дискретная случайная величина, имеющая ряд распределения:
X А'і А‘> х,
р Pi Р* Р
к
Тогда Ү = 9 (X )— также дискретная случайная величина с возможными значениями # i = < ? (a 'i) , = = 9 (лг2) , . . .
= <р (а „ ) . Если все значения у и у», . . . , у п различны, то для каждого / е = 1 , 2, . . . , п события {Х — хк} и {Y — ук = <? (хк)} тождественны. Следовательно,
Р ( Ү = У и ) = Р ( Х = хһ) = р к Х
и искомый ряд распределения имеет вид:
Y у 1 = ? (jfi) У-г = ? (а 2) Уп — '■? (Хп)
р P i Рз . . . Рп
Если же среди чисел у { — <р(*0* У-2 — ?(■**), • • •, уп —— о (хп) есть одинаковые, то каждой группе одинаковых значений ук — <? (хк) нужно отвести в таблице один столбец и соответствующие вероятности рк сложить.
Д ля непрерывных случайных величин задача ставится так: зная плотность распределения / (а ) случайной величины X , найти плотность распределения g (у) случайной величины Y — ср (X).
При решении поставленной задачи рассмотрим два случая.
1 . Случай монотонной функции. Предположим сначала, что функция у = <о(х) является монотонно возрастающей, непрерывной н дифференцируемой на интервале (а, b), на котором лежат все возможные значения величины X (в частном случае, когда область возможных значений X ничем не ограничена, а = — со, 6 = 4 - со). Тогда обратная функция х = (у) существует, при этом является также монотонно возрастающей, непрерывной и дифференцируемой функцией.
Зададим на оси Оу интервал (у, у -|- Л//) и отобразим его с помощью функции а = 6 (у) на ось Ох\ получим интервал (х, х -[- A.v) (рис. 53).
События (у Y < у Дг/) и (х < ^Х < ^х -j- Да) тождественны. Поэтому Р (у <CY <t у & У ) — Р (х <С X < х Да)и, следовательно, согласно формуле (2 .8 ), имеем:
Р ( у < У ' < у + Ду) _ Р ( х < X < х + Лх)
Если функция y = ' f(x) является монотонно убывающей, то приращению А//^> 0 соответствует приращение Д а<^0 (рис. 54). Следовательно,
Р (у с У с у + Ду)S (и) ■ 1ІП1
•\У -* о ЛуЛл-Лу
(i.v-0)Объединяя оба случая и учитывая, что а — (у), полу
чаем: если у — v(.v) — монотонная дифференцируемая функция, то
g ( y ) - f l ' H y ) } \ V ( y ) \ - (4-3)Пример 1. Случайная величина X распределена нор
мально (гпх — 0 , з v = 1 ):
Найти закон распределения случайной величины У, связанной с величиной /Ү зависимостью
Y = X \Р е ш е н и е . Так как функция у — Xs монотонна на
участке (— со, -у- 0 0 )» 1 0 можно применить форму
лу (4.3). Обратная функция по отношению к функции © (х) == а*3 есть 6 (у) = У у, ее производная <У (у) = :
Следовательно,3 у у-
I/ ч 1 - о 1 1
S У) = 7 7 ? * ,ТТ7^ = .777^7у 2т. 3 у у - 3 ) / 2-е 2
| / >
1-17
Докажем теперь одно важное свойство линейного преобразования случайной величины.
Теорема. Линейное преобразование случайной величины не изменяет вида закона распределения.
Д о к а з а т е л ь с т в о . Пусть случайная величина Ү связана со случайной величиной X линейной функциональной зависимостью
Ү = аХ + Ь,где а и b — не случайные коэффициенты.
Поскольку выражение у — а х -f- b определяет монотонную функцию, то обратная функция
* = <М 0) = “ ~
также монотонна. Далее, имеем
? < 0 = Т -Используя общую формулу (4.3), получаем:
S ( y ) = f { * i r ) - 1 T \ - <4-4>Полученное выражение (4.4) показывает, что линей
ное преобразование случайной величины X равносильно изменению масштаба изображения кривой распределения f (х) и переносу начала координат в новую точку. Вид кривой f (х) при таком преобразовании не изменяется. Это значит, что линейное преобразование случайной величины не изменяет вида закона ее распределения.
Пример 2. Случайная величина X подчинена нормальному закону с плотностью
(х ~ т х ) ‘
f (х) — — ~ = е .
Требуется найти распределение случайной величины Y, связанной со .случайной величиной X линейной функциональной зависимостью.
Y = a X - \ - b .Р е ш е н и е . Используя формулу (4.4), получим:
[.у-(Н-,,„1д.)15
или после преобразования:
Таким образом, случайная величина Ү имеет нормальное распределение с параметрами
ту — атх -j- Ь, оу = \ а \ о х
2. Случай немонотонной функции. Имеется непрерывная случайная величина X с плотностью распределения
f (а*); другая случайная величина Y связана с X функционально)"! зависимостью:
У = ?(Х) .причем функция у = о(х) такова, что обратная функция д- = z> (у) неоднозначная, т. е. одному значению величин у соответствует несколько значений аргумента а , которые мы обозначим через ai = 6 i(//), а .> = б-> (//), а „ — Ф „(у), где и — число участков, на которых функция у= = о (а) изменяется монотонно (рис. 55).
Очевидно, что событие У < ^У < ^И ~ г^У происходит при наступлении хотя бы одного из нескольких несовместных событий Х\ X <С Ai -[- Даг, а а X A.' -j- Д а ., . . . . . . , А„ А Хп “}— Д А„.
Применяя теорему сложения вероятностей несовместных событий, получаем, что
кр (У < У < У + ді/) = 2 р (** < А' < X* + .k—i
149
Следовательно,
Р ( У < Ү < У + & У )g{y) = lim■i.v — 0 Ay
2 P(xk < X < x k + hxt )= limД у - о Ay
Применяя теорему о пределе суммы и произведя преобразования под знаком суммы, получим:
g ( y ) = y Hm i.<“ ■ Д V - * П L
imiV-*Q
P ( x u < X < Xfi -f- Ал-fe)
I A** I Ay
= 2 f ( x „ ) \ x u A = 2 /H>*Gf)l№(»)l-/< = 1 A’ = 1
(4.5)
Пример 3. Случайная величина X имеет нормальное распределение с параметрами тх — 0 и о * = 1 . Найти распределение случайной величины
К = Х*.и
Р е ш е н и е . Обратная функция х — 'Ь(у) неоднозначна. Одному зна-
№ чению аргумента у соответствует два х, = +\гу значения функции х (рис. 56):
= (1/) = + V y ,Х-2 — <{*.2 (lj) = --- У у.
Так как плотность распределения случайной величины
Рас. 56
имеет вид
fix)-V-
С- Т2"
то, применяя формулу (4.5), получим:
s s in) = f ib т I (у) 1 + f Ш I «К (у) I =
§ 4.2. РАСПРЕДЕЛЕНИЕ ФУНКЦИОНАЛЬНОГОПРЕОБРАЗОВАНИЯ СИСТЕМЫ СЛУЧАЙНЫХ ВЕЛИЧИН
Пусть система двух случайных величин (U , V) является результатом функционального преобразования системы случайных величин (X , Ү ), заданного функциями
U = U ( X , Y), \V = V { X , Y). J (4,6)
Будем считать, что известно также обратное преобразование '
X = X(U, V), ,(4.7)Y = Y(U, V).
Рассмотрим только тот случай, когда преобразования (4.6) и (4.7) являются взаимно однозначными. Кроме
того, предположим, что все рассматриваемые функции (4.6) и (4.7) непрерывны н дифференцируемы. Примерами таких функциональных преобразовании систем случайных величин являются преобразования прямоугольных координат в полярные и обратно пли прямоугольных координат в прямоугольные.
Задача состоит в нахождении плотности распределения g (и, у) системы случайных величин (U , V), если известна плотность распределения f (х, у) системы (X, Y).
В силу сделанных предположений относительно преобразований (4.6) и (4.7) каждой точке Q (X, Y) элементарной области До плоскости хОу отвечает одна вполне определенная точка Qi (U , V) соответствующей элементарной области Дох плоскости uOv (рис. 57).
151
Следовательно, события {(X, К) ( 2 Да} и {(t7, V) С Дзі}тождественны и их вероятности равны, т. е.
Р{ ( Х , Y ) ( Z b o } = P[{U, V) С Ц .Используя определение плотности распределения для
системы двух случайных величин, имеем:,. Р UU, 10 с : До,}: І1П1 —U - 1 ---
-* Q,
= limЛгі — Qi
- * Q)
g ( U, V ) =
P { ( X , Г ) с Л о }
Лаг,
Да Да- \ = f ( x , y) 1пи -Q i
ЛзЛ !
где
Но,
х = х ( и , v), у = у ( и , V ) .
как известно из математического анализа,.. ЛзІ1 m -г— J
(4.8)(4.3)
для одной случайной
С? (W, V) I
где У — якобиан преобразования (4.7) в точке Qt.Таким образом, имеем:
g (« , v) = f [x{u, v); г/(£/, ^ Н е полученный результат соответствует формуле
величины и может быть распространен па случай функционального преобразования системы п случайных величин.
Если система (4.6) неоднозначно разрешима относительно X, Y, то подобно формуле (4.5), число слагаемых в формуле (4.8) увеличивается.
На практике наиболее частым преобразованием случайных величин является линей
ное преобразование, сводящееся к преобразованию прямоугольных координат в прямоугольные.
Рассмотрим преобразование прямоугольных координат, заключающееся в повороте осей координат на угол а (рис. 58). В таком случае прямое и обратное преобразования задаются формулами:
U — X cos a - j - Y sin ос,
V — — X sin a -]- V cos a,X — U COS a — V sin a,Y = U sin a -I- V cos a.
152
Якобиан преобразования прямоугольных координат равен единице:
дх дхда dv COS а — sin а
ду_ — sin а COS ада dv
Следовательно,
g (и , v ) = f (и cos а — v sin а, и sin а -}- v COS а),
а это значит, что при преобразовании прямоугольных координат в прямоугольные плотность распределения в точке (и, v) равна плотности распределения в соответствующей точке (х, у).
§ 4 .3. ЗАКОН РАСПРЕДЕЛЕНИЯ ФУНКЦИИ НЕСКОЛЬКИХ СЛУЧАЙНЫХ ВЕЛИЧИН
Пусть случайная величина Y является функцией нескольких случайных величин, образующих систему(X,, X ,......... Х„), т. е. У = ;? (Хь Х 3, Х я). Нашазадача состоит в том, чтобы по известному распределению системы (Хь Хо, . . . , Х„) найти распределение случайной величины Y.
Рассмотрим решение этой задачи для наиболее простого случая функции двух переменных:
Y — у (Хь Хо).
Пусть f { x ь Хі) — плотность распределения системы случайных величин (Хь Х 2).
Введем в рассмотрение новую величину Уь равную Х ь и рассмотрим систему уравнений
У = <р(хь Хз),У 1 = Х Х.
(4.9)
Будем полагать, что эта система однозначно разрешима относительно хь х*
Хі =У\ , х , = ф (у, у !) )
(4.10)
и удовлетворяет условиям дифференцируемости. Тогда к рассматриваемому преобразованию можно применить
153
/
формулу (4.8) для определения плотности вероятности g ( y t у х) системы (У , У i). Якобиан преобразования (4.10) имеет вид:
J =
Поэтому
Но так как
то
дхі д\\1 0
0y t ~дудхг dxs dv* dx,j.ду[ ду дуі W
(У* Уі)
g(y> y i ) = f [ y u Уі)\
Уі = Хи
g{y> X i ) = f [ X u Ф (//, ЛГі)1
0у
дф (у> Уі)
(4.11)
ду
( у , A'j)by
Интегрируя это выражение по аргументу хх в бесконечных пределах, получим плотность распределения случайной величины У (см. § 3.5, гл. III);
£i (У) = S £(У> X i ) d x гс о
{j f [ x ь ф(*Л ДГі)] O’. *i)0y dx i. (4.12)
Заметим, что рассуждения не изменяются, если введенную новую величину У i положить равной Х 2.
Рассмотренный метод решения задачи для случая функции двух переменных легко обобщается для случая, когда случайная величина У является функцией трех и большего числа случайных величин. Так например, для функции трех случайных величин К = <р(Хь Х 2, Х 3) можно ввести новые переменные:
Yi = X u У, = Х, .
И если при этом между системой (У, Уь У*) и системой (Хь Хо, Х 3) устанавливается взаимно однозначное соответствие, то плотность распределения случайной величины У
СО с о
£ ( l / ) = § U f i x и х2, Ф (у.Хи Л, ) 1cty (з>, л-!, л~3)
д уdx 1 dxit
где Ф (г/, ль Хо) — обратная функция.
1 5 4
Рассмотрим применение формулы (4.12) для определения плотности распределения суммы, разности, произведения и частного от деления двух случайных величин.
1. Распределение суммы двух случайных величин
ПустьF = X 1 + X2,
тогда имеют место следующие функциональные зависимости:
Х \ = У ~ Х ъXi = y — Xi.
Отсюда(ІКі__dvo__ .
д у д у
Следовательно, согласно формуле (4.12), имеем:СО оэ
8 ( у ) = S f i x 2, у — Л'о) dxq = 5 f i x и У — *i) dx\.— со — сс
В случае, когда случайные величины Х и X 2 независимы, плотность распределения системы равна произведению плотностей отдельных случайных величин, входящих в систему, т. е.
f (*і, х%) — f 1 (х\) • / 9 {х»).Поэтому плотность распределения суммы запишется
в виде:оо оэ
8 ІУ) — 5 h (*<») f i ІУ — Xq) dx.2 = 5 / і ( * , ) / , ( у — Хі) d X i .— со — со
Распределение суммы независимых случайных величин /Үі и Х -2 называют композицией распределений этих величин.
2. Распределение разности двух случайных величин
ПустьУ = Х { — Х ъ
тогда имеют место следующие зависимости:х\ — y - j -хч,Хч = A'i — у.
155
Так какd.Vj дх.ду 'ду 1,
то, согласно формуле (4.12), имеем:со со
8 ( у ) = 5 f (Хъ У -Г хд dx* = $ f (Л'ь А?! — у) dxt.—-сс — сс
В случае независимости случайных величин Xi исо оэ
8 (У) = \ Һ (*2) fi (У "Г Л'-) dx* = 5 /1 (*1) /2 (*1 — f/) dx 1 .— со — оо
3. Распределение произведения двух случайных величин
ПустьK = AVA'o,
тогда имеют место следующие зависимости:3’
Так как*1 = 7- 11 VЛ3 А1
d X j 1 д х м 1д у х 2 11 д у x t ’
то, согласно формуле (4.12), имеем:со со
е(у)= \ f(* 1. |)-nrndx‘= 5 f(x— СО — 0 0
В случае независимых величин /Үі и Х -2со
е ( Л = I І Ы ( * { $ ■ £ ] * * =— СО
оо
= I *&*•(£)' Ш * *
л 1 ■dx*.
4. Распределение частного от деления двух случайных величин
Пусть У = -~-. В таком случае имеют место следующие функциональные зависимости:
Х\ = yx.i и Xi = j .
156
Так как
— vо и ---* = — - 1- ду ' 2 ду у- ’
то, согласно формуле (4.12), имеем:
со со
£(//)= jj / (*ь yj р dX{ = ij / (X., //х») I X, I dx,.— со — со
Если Х\ и X* — независимые случайные величины, тосо со
8 ( у ) = I /(Л'і)/2( у ) у , d x , = [ / (Х,2) f х (ух.) I х , I dx,.
§ 4.4. РАСПРЕДЕЛЕНИЕ РЭЛЕЯ
Найдем закон распределения величины отклонения случайной точки (X, Y) от начала координат при условии, что система случайных величин (X, Y) имеет нормальное распределение с параметрами тх = ту — 0 и ол. = = ау = о. Плотность распределения такой системы имеет вид:
•Г M-.V*
f(x, у) = — е
Обозначим через R случайное отклонение точки (X , Y) от начала координат. Это отклонение является функцией случайных величин X и Y:
R — У X* + Y*.
Так как случайная величина R является полярным радиусом в полярной-системе координат, то для определения ее закона распределения перейдем от декартовых координат к полярным координатам, т. е. положим:
х = г cos О, у — г sin 0.
В таком случае плотность распределения g (г, 0) системы случайных величии (R, 0) определим через плот
157
ность распределения f (x , у) системы (X, Ү ) по формуле (4.8). Имеем:
g(r , Ө)
_ Г*_
Г: е г, (4.13)
так как х2 -f- у 1 = г2, а якобиан перехода от декартовых координат к полярным координатам равен г.
Интегрируя выражение (4.13) по переменной 0 в пределах от 0 до 2 тс, найдем плотность распределения случайной величины R ■
Г22 х - S_
g i ( r ) = \ rdO =о
при / '^ > 0 ,
При г<^ 0, очевидно, gi (г) = 0 .
Закон распределения, имеющий плотность вероятности
(4.13)при /*>>0 ,
0 п р и / -< ^ 0 ,называется распределением Рэлея. График распределения Рэлея показан на рис. 59.
Закон распределения случайного отклоненияR = -\/X '1 - \-Y -
при условии, что система случайных величин (X, Y) подчиняется круговому нормальному распределению с плотностью
/(* . у) = 2 ^ 5 е
называется обобщенным распределением Рэлея. Плотность распределения обобщенного закона Рэлея имеет вид:
r*+r'i
где Го—полярный радиус центра нормального распределения, а / 0 й г ) — функция Бесселя мнимого аргумента.
§ 4.5. ОПРЕДЕЛЕНИЕ МАТЕМАТИЧЕСКОГО ОЖИДАНИЯ ФУНКЦИИ СЛУЧАЙНЫХ ВЕЛИЧИН. ТЕОРЕМЫО МАТЕМАТИЧЕСКИХ ОЖИДАНИЯХ
В предыдущих параграфах этой главы мы рассмотрели различные задачи определения закона распределения функции случайных аргументов, если известны законы распределения аргументов. Однако на практике часто встречаются случаи, когда нет особой надобности полностью определять закон распределения функции случайных величин, а достаточно только указать его чис: ловые характеристики,
Таким образом, возникает задача определения числовых характеристик функций случайных величин, помимо законов распределения этих функций. Начнем с простейшего случая, когда случайная величина Ү является функцией случайного аргумента X с заданным законом распределения,
Ү = ? ( Х) .
Требуется, не находя закона распределения величины У, определить ее математическое ожидание
ту = М [? {Х)\.
Рассмотрим сначала случай, когда X есть дискретная случайная величина с рядом распределения
Xi j| * | 1 * 1. . . j| xn
Pi 1Pi 1Pi \ Pn
Составим таблицу значений величины Ү и вероятностей этих значений:
Ui = ? (Xt) I ? (Xl) 1 ? (x-d 1 ? (*,,)
Pi 1 Pi 1 Pi 1 . . . 1 PnТаблица (4.15) не является рядом распределения слу
чайной величины Ү, так как в общем случае некоторые
159
из значений могут совпадать между собой н значения в верхней строке не обязательно идут в возрастающем порядке. Однако математическое ожидание случайной величины У можно определить по формуле
м [ ? (Х) і= 2 ч (4Л6)*==1
так как величина, определяемая формулой (4.16), не может измениться от того, что под знаком суммы некоторые члены будут заранее объединены, а порядок членов изменен.
В формуле (4.16) для математического ожидания функции У — о (X) не содержится в явном виде закона распределения самой функции © (X), а содержится только закон распределения аргумента X. Таким образом, для определения математического ожидания функции У = = 'э (Х) вовсе не требуется знать закон распределения функции с? (X), а достаточно знать закон распределения аргумента X .
Если с формуле (4.16) сумму заменить интегралом, а вероятность р{ — элементом вероятности, то получим аналогичную формулу для непрерывной случайной величины:
mМ[-?(Х) 1 = 5 в (лc ) f ( x ) d x , (4.17)
— СО
где f (х) есть плотность распределения случайной величины X .
Аналогично может быть определено математическое ожидание функции Z = ? ( X , У) от двух случайных аргументов X и У.
Д ля дискретных случайных величин
М [с? ( X , У)1 = 2 2 ? Уі) Pip (4.18)i j
где pi j = P {.X = xh У = tjj).Д ля непрерывных случайных величин
ОО
М[<?(Х, У)} = 5S?(.v, у) / (х, у) dxdy, (4.19)
где f (х, у ) - плотность распределения системы (X , У).
ICO
Если случайная величина Ү есть функция нескольких случайных величии Х ь X 2, Х п:
Y = V ( X и X * . . . , Х п),
то математическое ожидание определяется совершенно аналогично предыдущим определениям. Так, например, для непрерывных величин имеем:
/И [<?(*,, Хо, . . . , Х п)] =СО со
= . . . 5 © (Хи Xi, . . . , х„) f (Хи Хь . . . , хп) dx 1. . . dxn,— ОО — СО
(4.20)
где f (л'ь Хъ . . .» хп) — плотность распределения системы (Хь Х2, . . . , Хп).
Пример 1 . Система (X, Y) равномерно распределена внутри круга радиуса г с центром в начале координат. Определить математическое ожидание расстояния R случайной точки (X, У) от начала координат.
Р е ш е н и е . Так как R = Y X- -j- Y- и
то согласно формуле (4.19)
М [Л] = М i V x - ' + Y 1] = S $ V x * + y ± d x d y =
Рассмотрим случаи, когда для нахождения математического ожидания функции случайных аргументов не требуется знать даже законов распределения аргументов, а" достаточно знать только некоторые их числовые характеристики. Сформулируем эти случаи в виде следующих теорем.
Теорема 1. Математическое ожидание суммы как зависимых, так и независимых двух случайных величин равно сумме математических ожиданий этих величин
М IX -j- Y \ = М IX] + М [К], у (4.21)
6 ГурскпЛ 161
f (X, У)( 1 О I о ___ оI z p , если X - г - ' - у - ^ г ,
1 0 , если X" -|- i f > Л
Д о к а з а т е л ь с т в о , а) Пусть (X, У ) —система дискретных случайных величин. Применим общую формулу (4.18) для математического ожидания функции двух аргументов:
м [ X + Y ] = 2 2 (х ,+ у,) / , „ = 2 2 а д у
+ 2 2 У/Р‘ і = 2 2 р ч + 2 ^ / 2 р ч -* ;
и » 2 р</ представляет собой полную вероятность того,і
что величина X примет значение xf:
2 = p (X = Х і ) = рі.i
Следовательно,
2 Л р і у = Т і х іРі= м і * ь «' j i
Аналогично
2 lJj 2 Рч = 2 VjPj = M 1- / * /
и теорема доказана.б) Пусть (X, У) - система непрерывных случайных
величин. Тогда по формуле (4.19) имеем:ОЭ
/VI [X -{- К] == 5 5 (Л- -j- у) f (х, у) clxdy =— со
оэ оэ
= J SЛ' (*» у ) dx diJ +И yf (х > у) dx dy =— со — оэ
CO г- СО -1 СО Г- с о
= 5 X J f { x , у ) d y d x - f J г/ 5 / ІХ, у ) d x dy.— CO — CO J — CO L — OD
Но так какоэ со
S f ix* У) dlJ — fy (x ) H 5 f ( x , y ) d x = f ,(y),— CO — CO
TOCO CO
/ЩХ + Ү } = \ x f , ( x ) d x - 1- S уШ 4 ! / = МІ Х] + Щ Ү ] .— оэ — со
Теорема доказана.
162
Теорема сложения математических ожиданий методом полной математической индукции обобщается на произвольное число слагаемых:
М = 2 М( Х , \ (4.22)1 = 1
(доказательство формулы (4.22) предлагается читателю).С л е д с т в и е . /VI атемапшческое ожидание линейной
функции случайных величин равно той же линейной функции от математических ожиданий этих величин:
М 2 о,х ,+ь і = 1
2 ъ М Ш + ь 1 = 1
(ait Ь — ие случайные величины).Д о к а з а т е л ь с т в о . Пользуясь теоремой сложения
математических ожиданий и простейшими свойствами математического ожидания (см. § 2.5), получим:
М 2 atX i 4 - b ;= 1
■-М -| -М[Ь] =
— 2 ^ -j- ь — 2 aiM [Xf] -}- ь./= і /=і
Используя теорему сложения математических ожиданий и простейшие свойства числовых характеристик, легко доказать справедливость следующих формул:
М[Х] = К М [ ^ р ^ \ + х0, (4.23)
D\ X } = Қ- М [ ( ~ 1/Ү - Л'« » 2 • (4 -24>
которые прп умелом подборе К и .v0 значительно облегчают вычисление соответственно математического ожидания и дисперсии.
Докажем, например, справедливость формулы для дисперсии. Д л я этого, пользуясь свойствами математического ожидания, преобразуем правую часть формулы (4.24):
К Ш [ ( ^ * ) * ] - (/VI [X — .v„l)3 = М [/Ү4 — 2Л'л'ц *51 —— (ДЦЛ'1 — Х „)- = М [А'-| — 2х9М \ Х \ -]-л'и- ( М I X \ f -|-
-\- 2х0М [X ] — хь — М [A'-J — т %.
1G3
Но М [Х 2] — m*x — D \Х] (см. свойство 3, §2.5, п. 4). Следовательно,
D IX] = к -M - т х - *о])2.
Теорема 2. Математическое ожидание произведения двух случайных величин равно произведению их математических ожиданий плюс корреляционный момент:
м [XY] = М [X] • М [У] + kxy. (4.25)
Д о к а з а т е л ь с т в о . Согласно определению корреляционного момента имеем:
kxy = М [(X — тх) (Y — ту)], (4.26)где
тх = М [X]; т v = М [Y].Преобразуем выражение (4.26), пользуясь свойствами
математического ожидания, получим:kxy — М [ХУ] — тхМ [У] — т уМ [X] тхту =
— М [ХУ] — М [X] Л'1 [У].Отсюда
М [ХУ] = М [X] • М [У] -|- kxy.Теорема доказана.
С л е д с т в и е 1. Математическое ожидание произведения двух некоррелированных случайных величин равно произведению их математических ожиданий.
Действительно, если случайные величины X и У некор- релированы, то kxv = 0 и формула (4.25) примет вид:
М [XY] = М [X] • М [У ] . .С л е д с т в и е . 2. Математическое ожидание произведе
ния независимых случайных величин равно произведению ожиданий этих величин, т. е.
- П “I ПМ I | А, =11 М [Aj],
_(-=! J І-- = 1
Это следствие легко доказывается методом полной математической индукции.
Пример 2. Производится п опытов, в каждом из которых может появиться или не появиться событие Л. Вероятность появления события А в /-м опыте равна Найти математическое ожидание числа появлений события А .
164
Р е ш е н и е . Рассмотрим дискретную величину X — число появлений события А во всей серии опытов. Очевидно,
Х = Х 1 + Х . + . . . + Х #|1
где A'i — число появлении события А в первом опыте, Х-2 — число появлении события А во втором опыте,
Х п — число появления событий А в п -м опыте. Каждая из величин X ,• (i — 1, 2 , . . . , п) есть дискрет
ная .случайная величина с двумя возможными значениями: 0 и 1. Ряд распределения величин Х і имеет вид:
XI \ 0 | 1
Pi I <7 І 1 Pi
где qi = 1 — pi — вероятность непоявления события А в t'-м опыте. По теореме сложения математическихожиданий имеем:
т х = М [X] = J ] М [ Х і і (4.27)г = 1
Вычислим математическое ожидание случайной величины Х і . По определению математического ожидания
М [X;] = 0 • С/і -{- 1 ' P i— Pi-
Подставляя это выражение в формулу (4.27), получим:
тх ==У] Pi, (4.28)»•=1
т. е. математическое ожидание числа появлений события А при нескольких опытах равна сумме вероятностей события в отдельных опытах.
В частности, когда условия опытов одинаковы, случайная величина X подчинена биномиальному распределению и формула (4.28) принимает вид:
т х — пр.
Заметим, что формула (4.28) применима к любым опытам — зависимым и независимым, так как теорема сложения математических ожиданий применима к любым случайным величинам— как зависимым, так и независимым.
§ 4.6. ОПРЕДЕЛЕНИЕ ДИСПЕРСИИ ФУНКЦИИ СЛУЧАЙНЫХ ВЕЛИЧИН. ТЕОРЕМЫ О ДИСПЕРСИЯХ
Рассмотрим случайную величину Ү , являющуюся функцией нескольких случайных величин Х и Х 2, . . . , Х п,
Ү = <?(Х„ Х а>. . . , Х п)
и поставим задачу найти ее дисперсию, минуя определение закона распределения этой функции.
По определению дисперсии
D [ Y \ = M [ ( Y - m ynСледовательно,
Я [К] = м [ ( ? (* ! , а д ~ / % (л'1( х2>. . . , х /г))£], (4.29)где
т ?(Хи л'о,. . . , х/() = М I? (Хи Х-2, . . . , Х„)].
Выражение (4.29) показывает, что дисперсия функции случайных величин определяется как математическое ожидание некоторой новой функции тех же случайных величин. Поэтому вычисление дисперсии может быть осуществлено приемами, совершенно аналогичными рассмотренным в предыдущем параграфе. Здесь мы приведем расчетные формулы только для случая непрерывных случайных аргументов.
Д ля функции одного случайного аргумента Y = ? (X) дисперсия выражается формулой
СО
D \ ; ( X ) ] = J l9 { x ) ~ m , f f ( x ) d x , (4.30)— СО
где tnf = М ['-р (X )]— математическое ожидание функции 9 (A); f (х) — плотность распределения величины X.
Аналогично выражается дисперсия функции двух аргументов:
СО
D I? (X; Y ) \ = Ң [?(.v, у) — /?гт-Г7 (х, у) dxdy , (4.31)— ОЭ
где ш^ — М [? (X, У)], a f (х, у) — плотность распределения системы.
Наконец, если имеем функции произвольного числа случайных аргументов Y — 9 (Хь Х ч , . . ., Х п), то дисперсия
166
со со
£>1?<Х„ X , .........Х „)| = й . . . J [? (дг„ Л'..,. . . ,v„) — m j X— о э — о э
х f (Xi , X ,, . . . , Л'„) dxy dxо. . . d.iv (4.32)
Заметим, что прп вычислении дисперсии бывает удобно пользоваться формулой
D [X] = М [X2] — т%.
В таком случае формулы (4.30) — (4.32) можно заменить соответственно следующими:
ОЭ
D [ ? ( X ) ] = S [?(*)]- f ( x ) d x — mi, (4.33)— ОО
О")
D [<? (X, У ) ] = 55 [? (дг, r/)]2f (Л-, у) d x d y — пц, (4.34)— О Э
0 [? ( Х „ . . . , *„)] =ОЭ СО
= 5 • • • 5 I? * • • ’ • • • ’ Л'л) rf-Vl • * •dx« — w-f-(4.35)— СО — с о
Таким образом, дисперсия функции случайных величин может быть определена как математическое ожидание квадрата этой функции минус квадрат ее математического ожидания.
Рассмотрим теперь теоремы о дисперсиях, которые играют очень большую роль в теории вероятностей и се приложениях.
Теорема 1. Дисперсия суммы случайных величин равна сумме дисперсий этих величин плюс удвоенная сумма корреляционных моментов каждой из слагаемых величин со всеми последующими, т. е.
выражается формулой
D 2і с г Л
2 D [ X i}- \ -2 X (4-36)1 I i < J
Д о к а з а т е л ь с т в о . Обозначим
У = Xi -|- X« . -j- X n; (4.37)
тогда по теореме сложения математических ожиданийniy = m Xl -j- m Xa - j - . . . -j- mX/i. (4 .3 g)
167
Вычитая почленно выражение (4.38) из равенства (4.37), получаем:
Ү - m , - (X, - т х \ -j- (X, - m , J . . . + (Х я - т , д).
По определению дисперсии имеем:
D 2 х , і= 1
М = М 2 ( X , - m Xiy(=i
- 1 - 2 5] ( Х ( - т , . ) ( Х у- ш , . ) = 2 / И [ ( Х , . - » Ч )=] +ІС/ J » = 1
- 1 - 2 V М [(X; — т х. ) (Ху - /К,.)] =
Z D IX, 1 + 2 2»=|
что и требовалось доказать.С л е д с т в и е 1 . Дисперсия суммы некоррелированных
случайных величин равна сумме дисперсий слагаемых, т. е.
DП2 х,i ---■ I
= 2 DIX, ) . (4.39)/ - 1
Действительно, если случайные величины некоррели- рованы, то k x . x — 0 при і Ф / и формула (4.36) принимает вид формулы (4.39).
С л е д с т в и е 2. Дисперсия линейной функции случайных величин
У = 2 а , х , + ьІ— I
(а;, b — не случайные величины) выражается формулой
D [ Y \ = D 2 а , Х , + ЬI
- г 2 У] a-, a j k x . х ..
У f l ?D[Xf] +
(4.4 0)
Д о к а з а т е л ь с т в о . Введем обозначение: а-і X,- = Kf.
16»
Тогда
K = V а , Х ( + й = У Y, + b. (4.41)і — I
Применяя к правой части выражения (4.41) теорему о дисперсии суммы и учитывая, что D[b] — Q, получим:
D [ Y \ = D У щХ і + ь = D V ү . -L-b/ а 1 i I u1
Так как
= 2 i ^ i + 2 2 *wі= і і< /
ky .y . = M Г(Yi — niy.) (Y / — my.)] = M [(«/ Xi — a-, tnx .) X X (aj X j — aj mX/)j = M [я,- af (X i - mx.) (X j — mXj)J =
= д* a j M [(X,- — m x. ) (X j — m.v.)l = at a} k x . x .,TO
D[Y] = D 2 ai x-t -\-b1 = 1
D<*= I
= У D [I7,!
{-2 2 ky.y . = 2 a}D\ Xi ) + '2 2 ai aj k x . Xf'k j
Формула (4.40) доказана.В частном случае, когда все случайные величины
иекоррелированы, формула (4.40) принимает вид:
D[ Y] = D 2і = і
т. е. дисперсия линейной функции некоррелированных случайных величин равна сумме произведений квадратов коэффициентов на дисперсии соответствующих аргументов.
Теорема 2. Дисперсия произведения двух независимых случайных величин вычисляется по формуле
D [XY] = D [X] • D[Y] -j- т% D [Y] - f пгу D [X]. (4.42)
Д о к а з а т е л ь с т в о . Так как случайные величины /Ү и Y независимы, то независимы и случайные величины X - и Y'2.
160
Следовательно,М [ХУ] = т х niy,М [Xs У2] = М [Xе] М [Y-]
(4.43)
По определению дисперсии с учетом равенств (4.43) имеем:
D [XY] = М [(ХУ — mx myf \ = M [X2] М [У*] —— 2тх ту М [ X \ M[ Y \ - \ - m%my * = М [X2] М [У2] — т% ту.
НоМ [X2] = D [X] т*х
иM[Y-] = D[Y]- \ -m%
поэтомуD [ХУ] = (D [X] - f т%) (D [У] -j- т\) — т\- т*. —
= D [X] D [Y] -1- т% D [У] - f ту D [X]. '
С л е д с т в и е . Дисперсия произведения независимых центрированных случайных величин равно произведению их дисперсий.
Д о к а з а т е л ь с т в о . Рассмотрим две центрированные и независимые случайные величины X и У. Математические ожидания центрированных случайных величин равны нулю, т. е.
м[х] = м[у]=о.Следовательно, формула (4.42) принимает вид:
D [X K ] = D [ X ] - D [ K ] .
Пример 1. Производится п независимых опытов, в каждом из которых может появиться или не появиться событие А, причем вероятность появления события А в і-м опыте равна р,-. Найти дисперсию и среднее квадратическое отклонение числа появления события А.
Р е ш е н и е . Пусть случайная величина X — число появлений события А в п опытах, а X; — число появлений события А в i-м опыте, тогда
п
1
170
В силу независимости опытов случайные величины X; ( і— 1 , 2 , . . . , п) независимы. Поэтому, используя теорему о дисперсии суммы, получим:
- V Д , .І •- 1
Найдем дисперсию случайной величины X Используя результаты решения примера 2, § 4.5, имеем:
D.x. = (0 — pi)'1 сц -j- (1 — pi)-pi = pi ер.
Следовательно,П
Av = У) P i <7;> (4.44)i:=l
т. e. дисперсия числа появлений события А при нескольких независимых опытах равна сумме произведений вероятностей появления и непоявления события А в каждом опыте.
Из формулы (4.44) находим среднее квадратическое отклонение числа появлении события А:
В частности, когда условия опытов одинаковы, случайная величина X подчинена биномиальному распределению и формула (4.44) принимает вид
Dx = tipq.
Среднее квадратическое отклонение в этом случае
С.V = V npq.Пример 2. Пусть одним и тем же методом произво
дится п независимых измерений какой-либо величины. Результаты измерений являются независимыми случайными величинами Х и X * , . . . , Х п с равными дисперсиями D [X,-] = с v (г = 1 , 2 , . . . , п). В этих условиях требуется определить дисперсию среднего арифметического результатов измерений
П2 х ‘/— I
171
Р е ш е н и е . Находим D[ a) = D
Используя теорему сложения дисперсии, получим:
г п
2 * г п пD «=1 У х іа гг — 1.1=1
О [ а ] D у х, = д ушші 1 ГГ ^ 1 1 ГГ п1 = 1 І = 1
Таким образом, дисперсия среднего арифметического результатов п независимых измерений в п раз меньше дисперсии отдельного результата измерения.
§ 4.7. ОПРЕДЕЛЕНИЕ КОРРЕЛЯЦИОННОГО МОМЕНТА ФУНКЦИЙ СЛУЧАЙНЫХ ВЕЛИЧИН. СВОЙСТВА КОРРЕЛЯЦИОННОГО МОМЕНТА И КОЭФФИЦИЕНТА КОРРЕЛЯЦИИ
Согласно определению корреляционного момента двух случайных величин X и У, имеем:
kxy = M [{X — т х) (У — ту)}.Раскрывая скобки и применяя свойства математи
ческого ожидания, получим:kxy = М [XY] — М [X] • М [У]. (4.45)
Рассмотрим две функции Уi и У2 системы случайных величин (Хь Х 2, . . . , Х„):
Уі — ?i (Ai, Х2, . . . , Хп), У2 = ср2(Х„ Х2, . . . , Хп).
Согласно формуле (4.45)Ьуіу* = М ІУіУ,1 - М [Y t] М [У«],
отсюда^ = A f [ ? i ( X lf Хо, . . . , Xw) ? 2 (Xi, Х 2.........Х я) ] -
- М [с?! (Хь Хо, . . . , Х п ) ) М [ср., (Хь х2.........Х„)1, (4.46)т. е. корреляционный момент двух функций нескольких случайных величин равен математическому ожиданию произведения этих функций минус произведение их математических ожиданий.
Рассмотрим основные свойства корреляционного момента и коэффициента корреляции.
172
С в о й с т в о 1. От прибавления к случайным величинам постоянных величин корреляционный момент и коэффициент корреляции не меняются.
Д о к а з а т е л ь с т в о . Пусть kxv есть корреляционный момент случайных величин X и У, т. е.
kxy= M [(X — тх) (Y — ту)\.
Наіідем теперь корреляционный момент k x>v> случайных величин
X' = X -j- а и Y' = Y - \ -b .Так как
' X ' — т Х’ = X -]- а — М [ X а \ = Х -~-а — тх — а — Х — гпх, Ү ' — т у = Y - \ - b — M [Y + b] = Y — niy,
тоkxy = м [(X' — т х>) (У — ту)] =— Л'1 [(X - - тх) (Y — m v) ] = k xy,
что и требовалось доказать.С в о й с т в о 2. Д ля любых случайных величин X и Y
абсолютная величина корреляционного момента не превосходит среднего геометрического дисперсий данных величин, т. е.
\kXy \ ^ Y ~ D J \ , = oxzy, (4.47)
где сЛ., а у — средние квадратические отклонения величин X и Y .
Д о к а з а т е л ь с т в о. Рассмотрим случайную величину
Z — а Х - j - ҺҮ -{- с,
где а, b и с — неслучайные величины. Определим дисперсию величины Z. По формуле (4.40) имеем:
D~ = a-Dx -}- b~D у -{- 2 abkxv.
Полагая a — av, b = ± :c x, получим (Dx = o%, Dy — о:.):
D . = 2-я-у 2 3x3ykxy
Так как дисперсия любой случайной величины не может быть отрицательной, то
2 ^ z l z 2 ^ b kXy ^ i ) ,
17а
O.vOу —L. kxv О,откуда
| kxy I 5= ОхОу.
С л е д с т в и е . Д ля любых, случайных величин X и Y абсолютная величина коэффициента корреляции не превосходит единицы, т. е.
Действительно, из равенства (4.47) следует:
НЛЙ
С в о й с т в о 3. Если случайная величина Y есть линейная функция случайной величины X , то коэффициент корреляции между ними по абсолютной величине равен единице, а его знак определяется знаком множителя при X , т. е. если ”
Y = аХ -}- Ь,то
Д о к а з а т е л ь с т в о . Используя определение корреляционного момента, получаем:
kxy = M [(X — тх) (Y — ту)] = М l(X — тх) (аХ -j- Ь —— атх —- &)] = М [а (X — /«V)-J = аМ [(X — т х)~] = aDx.
Так как (см. § 4.G)
Dy, = D [а Х ~ - b] = a-Dx,то
Су — У Dy = У arDx — 1 а | V 'D X = | а | ах.
Следовательно,kxy a D x a D x а
ху C.V3V °.vI " I a-v I а ! “м ’
что и требовалось доказать.Таким образом, если случайные величины X и Y
связаны точной линейной функциональной зависимостью:
Y = a X -\-b ,
174
то rXy — i t 1 , причем знак плюс или минус берется в зависимости от того, положителен пли отрицателен коэффициент а. В общем же случае, когда случайные величины X и Y связаны произвольной вероятностной зависимостью, коэффициент корреляции может иметь значение в пределах
- 1 < г ху< 1 .
Это значит, что коэффициент корреляции гху может служить характеристикой того, насколько зависимость между случайными величинами X и Y близка к линейной. Чем меньше по абсолютной величине коэффициент корреляции rxv, тем сильнее отклоняется зависимость между величинами X и Y от линейной.
В рассмотренном примере 2 § 3.6 мы видели, что для системы случайных величин (X , Y ), распределенной внутри круга с равномерной плотностью, несмотря на наличие зависимости между случайными величинами X и Y системы, линейная зависимость между ними отсутствует (прп возрастании величины X меняется только интервал изменения величины Y) и коэффи- ү циент корреляции г ху = 0 (см. 2
§ 3.7).С в о й с т в о 4 (теорема ело- >7
жения корреляционных момен- — тов). Корреляционный момент между составляющими случай- 60ного вектора, являющегося суммой нескольких некоррелированных случайных векторов, равен сумме корреляционных моментов составляющих этих векторов.
Д о к а з а т е л ь с т в о . Рассмотрим два некоррелированных вектора Vi и ТЛ> па плоскости хОу (рис. 60). Пусть составляющие вектора V x есть (Хь Уі), а вектораV з — (Х2, Ү'і). Тогда вектор V = Vy -|- V» имеет составляющие:
х=хн-х2,К = 7 , - 1 - Га.
Определим корреляционный момент составляющих X и Y вектора V.
175
тх = m Xl -J- т Х2, ту — тУ1 -}- ту.2>
тоkxy = М [(X — тх) (У — ту)] = М [ ( Х , + X»— т Х{ — т х.) X X {Yx-t-Y». — шУ1 — m y.)] = М [{Xi — tnXl) - f (Xi — т Х£) } X X {(УI — ftlyi) “Һ ( ^ 2 — fny-:)}] = M [(Xi — mXl) (У 1 — % ,)] -f- + M [(Xa — mx,) (Yi — myi)\ -J- M [Xt — mXl) (Y-2 — my,)] +
- f M [(Xo — mXs) (Уо - tn ,<£)] —— kXlyt -f- k Xi Yl -j- kXly2 -J- k x,y,.
Так как векторы V t n V -2 некоррелированы, то k x.,yi=— kXly 2 = 0 , и мы получаем:
kXy = kXly, -}- kXsy2>
т. е. корреляционный момент между составляющими случайного вектора, являющегося суммой двух некоррелированных случайных векторов на плоскости, равен сумме корреляционных моментов составляющих этих векторов.
Приведенное доказательство можно распространить на любое число некоррелированных случайных векторов, заданных как на плоскости, так и в пространстве любого измерения.
С в о й с т в о 5 (теорема сложения корреляционных матриц). Корреляционная матрица случайного вектора, являющегося суммой некоррелированных случайных векторов, равна сумме корреляционных матриц слагаемых векторов.
Докажем свойство для двух случайных векторов, заданных в «-мерном пространстве.
Пусть V { X U Хо, Х а} и V»{Yu У о, У,,} некор
релированные векторы с известными корреляционными матрицами для каждого из них. Определим корреляционную матрицу вектора суммы
V = Vi -[- Vi.
Составляющие вектора V равны:Zi = X i Ч- У и Z* — X i -j- Ү»,
Так как
г а= х п+ ү л.176
По теореме сложения дисперсии имеем:
D \Z i \ = D [ X i] + D [ Y i], 0 = 1 , 2, . . . . п)
или в других обозначениях:
k z . z . = = f e x . x . ~ Х ~ k v . v .II I I ' J і ' I
На основании свойства 4 для корреляционных моментов при і Ф / имеем:
V v = V / + V y
Так как под суммой двух матриц мы понимаем матрицу, элементы которой получены сложением соответствующих элементов этих матриц, то корреляционная матрица суммы двух некоррелированных случайных векторов равна сумме корреляционных матриц слагаемых.
§ 4.8. КОМПЛЕКСНАЯ СЛУЧАЙНАЯ ВЕЛИЧИНА
Комплексной случайной величиной называется величина вида
Z — X - \ - /У,
где /Ү и Y — действительные случайные величины; j — Y — 1 — мнимая единица.
Геометрически комплексную случайную величину можно интерпретировать как случайную точку Z на координатной плоскости хОу.
Таким образом, случайная величина Z является другим способом описания систем двух случайных величии(X , Y ).
Числовые характеристики комплексной случайной величины определяются так, чтобы в частном случае, когда 7 = 0 и величина Z действительна, они сводились к обычным определениям характеристик действительной случайной величины.
Математическим ожиданием комплексной случайной величины Z = X ~ ~ j Y называется комплексное число
mz — m x jm v.
Геометрически эго есть некоторая средняя точка /«., вокруг которой происходит рассеивание случайной точки Z.
177
Дисперсией комплексной случайной величины Z —— X - \ - j Y называется математическое ожидание квадрата модуля соответствующей центрированной случайной величины Z = Z — пи, т. е.
D \ Z \ = M [ \ z f \ .Так как
Z = Z — пи = X -j- /У — m.v — jtriy — X + /К 3,то
П >31 г ^ о о о ID [Z] = M [| Z |i = M [ X' + K-| == M [X !| 4 - M [к°1 = D [X] + D [ n ,
т. e. дисперсия комплексной случайной величины равна сумме дисперсий ее действительной и мнимой части.
Из определения дисперсии следует, что дисперсия комплексной случайной величины удовлетворяет соотношению D \ Z ] ^ 0 . Обращаться в нуль она может только в том случае, если величина не случайна.
Геометрически дисперсия комплексной случайной величины есть среднее значение квадрата расстояния от случайной точки до ее математического ожидания пи. Эта величина характеризует разброс случайной точки Z около ее среднего положения.
Корреляционный момент комплексных случайных величин
Z x = Xr-'r j Y x п Z .2 = Xo -{- /У 2
определяется так, чтобы при условии Zy — Z« — Z он обращался в дисперсию величины Z. Д ля этого необходимо назвать корреляционным моментом математическое
О ~оожидание произведения Z y на Zo, т. е.
г п (Г *1M j Z„ ZoJ,
о о огде Zi — Хъ — /У 2 есть комплексная сопряженная вели-
«» О Очина по отношению к величине Z* — X » - \ - jY 2.
Выразим корреляционный момент k -lZi через корреляционные моменты действительных и мнимых частей комплексных случайных величин Z t и Z 2. Имеем:
Итак, определения основных характеристик комплексных случайных величин отличаются от обычных определений аналогичных характеристик для действительных величин только тем, что для дисперсии рассматривается не математическое ожидание квадрата центрированной случайной величины, а математическое ожидание квадрата ее модуля и для корреляционного момента рассматривается не математическое ожидание от произведения центрированных величин, а математическое ожидание произведения одной центрированной величины на комплексную сопряженную величину по отношению к другой центрированной величине.
§ 4.9. ХАРАКТЕРИСТИЧЕСКИЕ ФУНКЦИИ
Характеристические функции являются одним из способов описания случайных величин, удобным прп решении многих задач теории вероятностей.
Пусть имеется вещественная случайная величина X . Образуем комплексную случайную величину U, функционально связанную с величиной X по следующему закону:
и = ы (Х,
где аргумент t принимает вещественные значения па интервале (— со, со).
Характеристической функцией g (/) случайной величины X называется математическое ожидание комплексной случайной величины U = eJ'tx , т. е.
g(t ) = М И Л']. (4.48)
Зная закон распределения случайной величины X, можно найти ее характеристическую функцию.
Д ля дискретной случайной величины X с рядом распределения
Хи | Х\ | Л'-2 | • ■■ • | хп
Pk 1Р\ 1 Pi 1 • • • | Рпхарактеристическая функция
g ( 0 = (4.49)It = 1 '
Д ля непрерывной случайной величины X с плотностью распределения f (х) характеристическая функция
179
g ( t ) = \ el,xf (x )d x . (4.50)— CO
Как видно из формулы (4.50), характеристическая функция g(t ) является преобразованием Фурье соответствующей ей плотности вероятности f (x) . Из теории преобразований Фурье известно, что функция f(x) , или в данном случае плотность распределения, может быть определена путем обратного преобразования Фурье:
СО
f M = ,! \ e - l,xg(t)dt. (4.51)— СО
Формула (4.51) позволяет сделать вывод о том, что плотность распределения случайной величины однозначно определяется ее характеристической функцией.
Приведем примеры определения характеристической функции случайной величины, закон распределения которой известен.
Пример 1. Найти характеристическую функцию случайной величины X, подчиняющейся распределению Пуассона,
Р ( Х = т) = а~ е ~ а.
Р е ш е н и е . По формуле (4.49) имеем:00 с о
g (t) = у е'"” ^ в - = < - * 2 Щ И Т = * “■ еае“ = е° .т--~ 0 т —0
Пример 2. Найти характеристическую функцию нормированной случайной величины, имеющей нормальное распределение.
Р е ш е н и е . Случайная величина X называется нормированной, если ее математическое ожидание тх — 0 , а дисперсия Dx = 1. Следовательно, плотность распределения нормированной нормально распределенной случайной величины X имеет вид: г
180
По формуле (4.50) имеем
00 СО
= у И 2 dx. (4.52)
После преобразования.V.. л'- _ 2 f t х - ,v2 - ( j t f + ( j t f _ — ( x — j t f — t*ЦХ 2 — 2 2
и заменыz — x — jt
интеграл (4.52) приводится к виду:/2
1
Ү ъ2 \ е ~ \ dz,
L
где интегрирование производится в комплексной плоскости вдоль прямой L, изображенной на рис. 61.
Но так как.?■ со л*-
\ e ~ ' U z = [ e * d x = V 2?..L —со
то характеристическая функция нормированной случайной величины X , имеющей нормальное распределение, будет А У
g{t) = e ~ * (4.53)
Установим основные свойства характеристических функций.
С в о й с т в о 1 . Характеристическая функция g (t) вещественна тогда и только тогда, когда соответствующая плотность вероятности f (х) является четной функцией. При этом сама функция g (/) является тако/се четной.
Справедливость этого свойства следует из свойств преобразований Фурье.
С в о й с т в о 2. Если случайные величины X и У связаны соотношением
Y — аХ,
-t
Рас. 61
181
где а — неслучайный множитель, то их характеристические функции связаны соотношением
gy(t) = 6 x(at)- (4.54)Д о к а з а т е л ь с т в о . Имеем:
gy (t) = М [е*Л'\ = М [eJ'iaX] = М __ gx ^С в о й с т в о 3. Характеристическая функция суммы
независимых случайных величин равна произведению характеристических функций слагаемых.
Д о к а з а т е л ь с т в о . Пусть Х ь Хо, . . . , Х п — независимые случайные величины, имеющие соответственно характеристические функции
5(0» ё х Л * ) , ..., g xJ t ) .
Найдем характеристическую функцию случайной величины
Y = £ x - k.1(^-1
Имеем:
gy (/) = М [eitY\ — М» £ ХиU =:= 1 = М [ е ^ • e'tx- . . . Л ] ._е
Так как случайные величины X l{ ( 6 = 1 , 2 , ..., п) независимы, то независимы и их функции ejtxk. По теореме умножения математических ожиданий получим:
g Y (/) = М [е//Л'>] • М \е;ЪЦ . . . М [e/txn] == ( 0 - ^ ( 0 . . . gxa (t). (4.55)
Рассмотренные свойства позволяют применить аппарат характеристических функций для композиции законов распределения.
Приведем примеры.Пример 3. Композиция биномиальных распределений.Найдем закон распределения суммы Z = X - \ - Y неза
висимых случайных величин X и Y, имеющих биномиальное распределение
Р (X = т) = С;»р;« (1 — р У ' - " \Р (Y — т) = С™р™ (1 — рУ 1-—,п.
Д ля определения характеристической функции случайной величины X , имеющей биномиальное распределение, воспользуемся формулой (4.49), получим:
182
e A D = S J""P(X=m)= Y, (i — p,)*!-” =m —0 tn~ 0
= 2 c ” (* — p,)ai~ m= 1 ( 1 — p j + p / ' V ' =m — 0
= [ 1 + P i ( e " — 1)]**.Аналогично
£ у ( 0 = П + M * " — П о следовательно, согласно свойству 3, характеристиче
ская функция случайной величины Z
g z (О = 8 х (0 £у (0 = 11 -}-р, (е77 — l)]«i [ 1 -{-ра (^7 — 1)«-.(4.56)
Выражение (4.56) показывает, что композиция биномиальных распределений при различных значениях параметров pi и р .2 не дает биномиального распределения. В частном случае, когда pi = р .2 — р, из выражения (4.56) получаем:
g z (0 = I Н - Р ( е " — 1)1Й1+Яз.
Таким образом, при постоянном параметре р композиция биномиальных распределений имеет тоже биномиальное распределение.
Пример 4. Композиция распределений Пуассона.Найдем закон распределения суммы Z = X - \ - Y неза
висимых . случайных величин X и Y, подчиняющихся закону Пуассона с параметрами щ и а2 соответственно.
Согласно результату примера 1, имеем:
g x (t) = еПі(eJl~ 1} и gy (t) = ea-(eJt~ !).
Поэтому, применяя свойство 3, найдем:у ) — e a t ( c j t - 1) . c a « ( c } t - 1) __ е ( , ц -l-«ui ( c V - 1)
т. e. случайная величина Z также подчиняется закону Пуассона с параметром a = a i-\- а.>. Этот результат можно распространить на любое число взаимно независимых слагаемых.
Пример 5. Композиция нормальных распределений.Найдем закон распределения суммы Z — X - \ - Y неза
висимых нормально распределенных случайных величии X и Ү , имеющих плотность распределения
1S3
Зл- ] ' 2 " • ■ З у У 2п
Определим характеристическую функцию случайной величины X . Д ля этого представим ее в виде
X = oxU,где U — нормально распределенная нормированная случайная величина. Тогда, пользуясь результатом примера 2 , найдем:
gu ( 0 — е 2 .Согласно свойству 2 характеристических функций
°ІГg x ( t ) = g u ( ° J ) = c 2 = е 2 .
Аналогично3yt
g y (0 = СПрименяя свойства 3, определим характеристическую
функцию случайной величины Z
а.у~ °v<s ( 4 + 4 )g A t ) = g x ( t ) - g y ( t ) = e ~ е 2 ==е 2 ' .
Сравнивая полученную функцию g~(t) с характери- стической функцией нормально распределенной случайной величины X, мы видим, что случайная величина Z также имеет нормальное распределение с параметрами пи — О,<3; = "К °Л- ~Г °У •
Из полученного результата вытекает, что сумма любого числа взаимно независимых нормально распределенных случайных величин также подчиняется нормальному закону.
Пример 6 . Композиция показательных распределений.Найдем распределение суммы Z — X - \ - Y независимых
случайных величин X и Y , каждая из которых распределена по показательному закону:
е~ >іЛ' при .v ^ O , ( Xae*-?-s.v при у ^ О,
н f (У) = IО при х < ^ 0 I 0 при { / д о
определим характеристическую функцию случайной величины X:
со со
gx (t) = 5 7 (.v) dx = J e,v *X, e r x«v dx =— со 0
CO
= >., = (4 .5 7 )6
Аналогично
s A ‘) = r r ^ T f
Следовательно, характеристическая функция случайной величины Z
ЫО=ЫОьМО=д7гг7 һг77т (4-58)к выражению вида (4.57) не приводится. А это значит, что показательное распределение свойством устойчивости не обладает.
В частном случае, когда = из выражения(4.58) получаем:
ё Л 0 =
Используя обратное преобразование Фурье, имеем:СО с о
I e~ " - 's A t ) d t = i $ e -" - 'w ^ w d t.— СО —со
Отсюда, вычисляя интеграл с помощью вычетов, получим:
Г лагс~?~ при г 2 =0 ,t (z\ _ ) 1/ w I 0 при 2 < 0 .
В о п ро сы д л я с а м о п р о в е р к и
1. Как находится плотность распределения случайной величины У, если эта случайная величина есть монотонная функция случайной величины X , закон распределения которой известен?
2. Что м ож но сказать о законе распределения линейной ф ун к ции?
3. Как находится закон р аспределения немонотонной функции одного случайного аргумента?
4. Как оп р еде ля ется закон распределения функции нескольких случайных аргу ментов?
5. Что значит произвести композицию д в у х законов р а с п р е деления?
185
6. Как оп ределяется математическое ож идание функции сл учайного аргумента, закон распределения которого известен?
7. С ф орм ул ируй те и докаж и те тео р ем у о матем атическом о ж и дании суммы д в у х случайных величии.
8. С ф орм ул ируйте и докаж ите тео р ем у о математическом о ж и дании произведен ия д в у х случайных величин.
9. Ч ему равно матем атическое ож идан ие от произведения н ескольких независимы х случайных величин?
10. Как оп р едел я ется дисперсия функции случайного аргумента (нес ко л ь ки х аргум ентов) , если известен только закон р а с п р е д е л е ния аргумента (аргументов)?
11. С ф ор м ул ир уй те и докаж и те тео р ем у о дисперсии суммы случайных величин.
12. Ч ему равна дисперсия суммы некоррелированны х случайных величин?
13. С ф орм улируйте и док а ж и те т ео р ем у о дисперсии п р о изведени я д в у х независимых случайных величин.
14. С ф орм улируйте и д окаж и те свойства корреляционного момента:
15. Ч ему равен коэффициент корреляции случайных величин, связанных м е ж д у со б о й линейной зависимостью?
16. Д айте определения числовых характеристик комплексной случайн ой величины.
17. Д айте оп р еде лен и е характеристической функции и н азо вите основны е ее свойства.
18. Каким образом применяется аппарат характеристических ф ун кц и й для композиции законов распределения?
19. Какой закон получается при композиции нормальных законов?
У п р а ж и е н и я
1. Найти плотность вероятности площади квадрата, стор она которого г X — случайная величина, равномерно распределенная в интервале (0 , 1 ).
— при 0 < у < 1 ;2 У у
О при у О ИЛИ 1.
2. Ч е р е з точку (0, /) проведена наугад прямая. Найти плотность распределения расстояния этой прямой от начала координат.
< 9— .. ■ при 0 < 2 < /;
Отв. g (z) = j л У Г- — 2-
I 0 при Z s^ O ИЛИ Z 5 : I.
3. Дана плотность вероятности f (х) случайной величины X (0 < х < со). Найти плотность вероятности случайной величины У = 1пХ.
Отв. g О») = / (сУ) сУ.
4. Система дву х случайных величин ( X, У) подчинена н ормальному закону распределения. Рассеивание круговое. В ероятное отклонение равно Е. Найти выражение для плотности р а сп р еде л ения случайной величины Z = а (Х~ + Ус), где а > » 0 .
186
Отв. f f (2) = | "Р" г > < *
[ 0 при z с О.
5. Известны матем атическое ож идание и д ис пер си я случайной величины X: т х — 2, D x = 3. Найти матем атическое ож идан ие и дисперсию случайной величины К = З Л ' — 5.
Отв. ту = 1 , D v — 27.
6 . Случайная величина X подчинена закону равномерной плотности на интервале (0, 2 ). Найти м атем атическое ож идан ие случайной величины У — — X - -{- ЗА' — 2.
Отв. ту — — — .
7. Случайная величина X подчинена закону равномерной плотности на интервале (0, 1). Найти дисперси ю случайной величины У = 2Х- .
л п 16Ошв. £>,, = 7= •у 4о
8 . С истем а д в у х случайных величин (X, У) хар актеризуется математическими ожиданиями шх = 2, шу — О, дисперсиям и D x = 1, D v — 2 и корреляционны м моментом /:ху = — 1. О пределить математическое ож идание и дисперсию случаіГпой величины Z = X — 2Ү ,
Ошв. т , = 2, D z = 14.
9. Случайные величины X и У имеют математические о ж идания тх = = — 1, ту = 1 и дисперсии D x — 4 и Dy — 9. Найти математическое ож идан ие сл учайной величины Z — З Х У - 1-5.
Отв. / « , = 0,2.У 1
10. По мишени п р оизводится п независимых выстрелов. В е р о ятность попадания в мишень при t-м выстреле равна p t . Найти м атем атическое ож и д а н и е и дисперси ю числа попаданий в мишень.
П ПОшв. ш — 2 Р ь D = s р{).
i = 1 і-Л11. Имеются две случайные величины X и У, связанные с о о т
нош ением •)/ = 4 — X. Найти корреляционны й момент, если известно, что матем атическое ож идание тх — 3 и дисперсия D x — 2.
Ошв. кху = — 2.
12. Найти х арактеристическую функцию линейной функцииП
Y = V [ a t.Xj, -)- b независимы х случайных величин X i t .X« , . . . , Х п,/: = 1
характеристические функции которы х заданы.я
Ошв. gy ( t ) = e J tb П gx / i (ak t) .I; — 1
187
13. Найти характеристическую функцию g x (t ) случайной в ел и чины X, распределенной по закону Паскаля: P(X — m ) — p q m (т = 0, 1, '2, ...).
Отв. gx ( t )_ — qc
14. Найти характеристическую функцию g x (t) случайной величины X , равномерно распределенной в интервале (а , Ь).
„ ... sin tbОтв. g x ( t ) = .
15. Найти характеристическую функцию случайной величины, расп ределен н ой по закону Лапласа:
f (x) = ^ e — я ] л- — т \
Отв. g x (£) =a- -4- t'1
16. Найти закон распределения суммы двух независимы х сл у чайных величин X и У, каждая из которьіх имеет равном ерное р асп р еде л ен и е на интервале (0 , 1 ).
О, если л 0;
Ошв. F (z) =если 0
Г л а в а 5
ПРЕДЕЛЬНЫЕ ТЕОРЕМЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ
§ 5.1. ПРЕДВАРИТЕЛЬНЫЕ ЗАМЕЧАНИЯ
Мы уже знаем, что теория вероятностей изучает закономерности, свойственные массовым случайным явлениям. Как и любая другая наука, теория вероятностей предназначена для того, чтобы возможно точнее предсказать результат того или иного явления или эксперимента. Однако если явление носит единичный, не массовый характер, то теория вероятностей способна предсказать обычно лишь вероятность исхода в весьма широких пределах. Совсем иное дело, когда явление — массовое. Закономерности проявляются именно при большом числе случайных явлений, происходящих в однородных условиях. При достаточно большом числе испытаний характеристики случайных событий и случайных величин, наблюдаемых при испытании, становятся почти неслучайными. Так, например, частота ' события при большом числе испытаний становится устойчива, то же самое относится к средним значениям случайных величин. Это обстоятельство позволяет использовать результаты наблюдений над случайными явлениями для предсказания результатов будущих испытаний.
Группа теорем, устанавливающих соответствие между теоретическими и экспериментальными характеристиками случайных величин и случайных событий при большом числе испытаний над ними, а также касающихся предельных законов распределения, объединяются под общим названием предельных теорем теории вероятностей.
В настоящей главе мы познакомимся с двумя типами предельных теорем: законом больших чисел и центральной предельной теоремой.
Закон больших чисел, занимающий важнейшее место в теории вероятностей, является связующим звеном между теорией вероятностей как математической наукой и закономерностями случайных явлений при массовых наблюдениях над ними. Закон больших чисел играет очень важную роль в практических применениях теории
189
вероятностей к явлениям природы и техническим процессам, связанным с массовым производством.
При доказательстве теорем, относящихся к группе «закона больших чисел», мы воспользуемся неравенством Чебышева.
§ 5.2. НЕРАВЕНСТВО ЧЕБЫШЕВА
Рассмотрим случайную величину X, математическое ожидание которой тх и дисперсия Dx. Неравенство Чебышева утверждает: вероятность того, что отклонение случайной величины от се математического ожидания будет по абсолютной величине не меньше любого положительного числа s, ограничена сверху величиной
Р { \ Х - т , \ 2= * )< % ? . ( 5 . 1 )
Д о к а з а т е л ь с т в о . 1. Пусть случайная величина X дискретная с рядом распределения
Xk 1 Xl 1« !j . . . | xn
Pit 1Pi Pi Pn
Тогда дисперсия случайной величины XП
Dx = У) (xk — тху' ри. (5.2)к —-1 •
Очевидно, все слагаемые этой суммы не отрицательны. Отбросим те слагаемые, у которых | хк — тх \<^г, вследствие чего сумма (5.2) может только уменьшиться, т. е.
2 ( х і — п і х ) * Р һ (5.3)I -'*/—"*.v'—•
где запись | л*,-— тх | ^ s под знаком суммы означает, что суммирование распространяется только па те значения І, для которых Xi отклонится от тх па величину не меньше, чем г.
Заменим под знаком суммы (5.3) выражение \x t — /;гЛ.( через г. Так как для всех членов суммы имеем \xi — mx то от такой замены сумма может только уменьшиться, значит
A , 2 е<й = е! 2 Ре (5-4)
Под знаком суммы (5.4) мы имеем вероятность p t только тех значении х;, которые отклоняются от математического ожидания тх на величину, не меньшую, чем в. Следовательно,
v Pl = P ( \ X - m x \2s *b|.V; —/«V|D=S
Таким образом,
Dx ^ z * P ( \ X - ,пх | ^ 8)„
откуда непосредственно вытекает доказываемое неравенство (5.1).
2. Пусть теперь случайная величина X непрерывна с плотностью распределения f (х). Тогда
соD , = S ( x— m j f ( x ) d x . (5.5)
— со
Выделим на числовой оси вправо и влево от математического ожидания тх отрезки, длиной г каждый (рис. 62). Если в выра-
/г- Г- \ } ЧС ..... F. ---->— ------ £ > Iженин (о.о) интеграл \ ° iпо всей оси Ох заме- ^нить интегралом по области, лежащей вне от- Рис . 62р.езка АВ, то, посколькупод интегралом стоит неотрицательная функция, величина интеграла прп этом может только уменьшиться, т. е.
СО
Av = S (х — тх)~ f (х) d x $ (х — mx)-f (х) dx.— СО | j f — Ш Д. | > Е
(5.6)
Заменяя [х — тх \ под знаком интеграла (5.6) через г, мы опять можем только уменьшить величину интеграла. Следовательно,
S t"-f(x)dx = z- 5 f ( x ) d x . (5.7)|JC— f«v|>£ I.V — ОТ |>*
Интеграл правой части выражения (5.7) представляет собой вероятность того, что случайная величина X примет значение вне отрезка АВ. Поэтому
А * ^ г * Р ( | Х - Ш , | > з ) .191
Отсюда непосредственно вытекает неравенство Чебышева(5.1). Здесь знак ^ заменен знаком > , так как для непрерывной величины вероятность точного равенства равна нулю.
Неравенство Чебышева может быть записано и в другой форме, применительно к противоположному событию — отклонению случайной величины от математического ожидания меньше, чем на s:
/ > ( | Х - т , | < 0 ) 3 = 1 (5.8)
З а м е ч а н и е . Неравенство Чебышева имеет для практики ограниченное значение, поскольку часто даетгрубую оценку. Пусть, например, е = — Ү Ъ Х , тогда получим:
Р ( \Х - тх | s= ' У Ж ) < -р^ = 4.
' ^Но и без того ясно, что никакая вероятность ие может быть больше не только четырех, но даже единицы; с другой стороны, если, например, £ = 1 0 V'DX, то
Р ( X - т , 13= 10 V Щ < j B f c - = 0,01.
Э то уже неплохая оценка вероятности. Таким образом, мы видим, что неравенство Чебышева полезно лишь при относительно больших е.
Теоретическое же значение неравенства Чебышева очень велико. Ниже мы воспользуемся этим неравенством при доказательстве теоремы Чебышева.
§ 5.3. ТЕОРЕМА ЧЕБЫШЕВА
Теорема Чебышева является одной из важнейших форм закона больших чисел. Она устанавливает связь между средним арифметическим наблюдаемых значений случайной величины и ее математическим ожиданием.
Теорема Чебышева. При неограниченном увеличении числа независимых испытаний среднее арифметическое наблюдаемых значений случайной величины, имеющей конечную дисперсию, сходится по вероятности к ее математическому ожиданию.
Поясним смысл термина «сходится по вероятности».
192
Последовательность случайных величин Х ь Х>, X ... сходится но вероятности к велнчеие а, если для любого£ > О
lim Р ( | Х п — а | < г ) = 1,и -• -О
или более подробно: последовательность случайных величин Хь Хі , . . . сходится по вероятности к величине а, если для любых г ^ > 0 п о > 0 существует такое п (г, о) , начиная с которого выполняется неравенство
Я ( | Х „ - А | < * ) > 1 - а .Таким образом, теорема Чебышева означает, что если
Х ь Х ~>,. . . независимые одинаково распределенные случайные величины с математическим ожиданием тх и с ограниченной дисперсией Dx, то при любом s ^ > 0
lim Р \^ X - л ‘/ : I Ш,
\(5-9)
Д о к а з а т е л ь с т в о. Рассмотрим случайную величину
У2 х,І Л
Найдем числовые характеристики случайной величины Ү. Пользуясь свойствами числовых характеристик, получим:
m y ==M[Y] = M2
4 М [X;] = - • п ■ т хII Л-™ IIІ 1
V А7I
D, = D [ Y \ = D = ,;Л ’ Л |АМ = j f -II I 7/ мея ил І \
Применим теперь к случайной величине Ү неравенство Чебышева в форме (Г>.8 ):
Р(\У - / " v i < 3) sr-iо ,
Подставляя в это неравенство выражение для случайной величины Y и ее числовых характеристик, получим:
Р
п \
]2 *; 11 = * : 1
- W V
< 7^ 1 ljx_
III- (5 . 10)
7 ГурскнЛ 193
О, при увеличе-стремится к единице. По-
Каково бы ни было малое число г1 О хпип числа п величина 1 ----- •п:
этому переходя в неравенстве (5.10) к пределу и учитывая, что вероятность не может быть больше единицы, получим:
lim Р vп — -J \
У х л ‘т х
< 7 = 1Теорема доказана.Теорема Чебышева может быть распространена на
более общий случаи, когда характеристики наблюдаемой случайной величины меняются от опыта к опыту. Оказывается, что и в этом случае при соблюдении некоторых условий среднее арифметическое является устойчивым и сходится по вероятности к определенной не случайной величине. Точнее, имеет место следующая обобщенная теорема Чебышева: при неограниченном увеличении числа независимых испытаний над случайными величинами, имеющими ограниченные дисперсии, среднее арифметическое наблюдаемых значений сходится по вероятности к среднему арифметическому математических ожиданий этих величин, т. е.
1 i m Р
/ п п \|/
I 2 * 2 m xiІ : 1 І = 1
< • ]\ tl п
Д о к а з а т е л ь с т в о. величину
У
1. (5.11)
Рассмотрим снова случайную
П2 *
Характеристики случайной величины Y соответственно равны:
т у = М / , 'Ид-.-.
У! X;L)y = D
\/ ,І = 1О*.
101
Применяя к величине Ү неравенство Чебышева в форме (5.8), получим:
/Л.P ( \ Y - m v 1 0 ) 2 , 1 - ^ ,
или
2 *< 2/ « 1 /*-■! 2 д«<І г~, |
(5.12)
Из ограниченности дисперсий следует, что существует такое постоянное число С^>(), для которого
ПоэтомуDx . < С ( i = 1, 2 , . . . , /О-
У D , ; < пС. (5.13)
Подставляя правую часть (5.13) в неравенство (5.12), отчего последнее может быть лишь усилено, будем иметь:
/ >, Xi 1//С , с
п п2г • - 1 2 ' ы
1п п\
или, переходя к пределу и учитывая, что вероятность не может быть больше единицы, получим доказываемое равенство (5.11).
Закон больших чисел может быть распространен и па зависимые случайные величины, лишь бы соблюдалось условие
D
lim2 а'і
= о .
Это утверждение составляет теорему /Маркова. Доказательство теоремы Маркова предоставляется читателю.
§ 5.4. ТЕОРЕМА БЕРНУЛЛИ
Теорема Я- Бернулли является важнейшей и исторически первой формой закона больших чисел. Она устанавливает связь между частотой события и его вероят
н а
постью. Доказательство, данное Бернулли, было весьма сложным. Простое доказательство дано ГІ. Л. Чебышев ым — как прямое следствие из его теоремы.
Теорема Бернулли. При неограниченном увеличении числа независимых опытов в постоянных условиях частота рассматриваемого события А сходится по вероятности к его вероятности р в отдельном опыте.
Если обозначить частоту события А в п опытах через р",:, теорему Бернулли можно записать в виде:
lim Р ( Ip* — p | < £ ) = 1. (5.14)а -*■ оэ
Д о к а з а т е л ь с т в о . Обозначим через X i случайную величину — число появлений события А в первом опыте, через X i — число появлений события А во втором опыте и т. д.
Каждая из величин X, (/==1, 2 , . . . , п) есть дискретная случайная величина с двумя возможными значениями: О и 1. Ряд распределения величины X; имеет вид:
Xi 1 0 1
Pi 1 ч Ргде <7 = 1 — р есть вероятность неноявлеиия события /1 в г-м опыте.
Математическое ожидание каждой из величии X; равно р (см.' пример 2, § 4.5), а ее дисперсия равна pq (см. пример 1. $ 4.6).
Частота /г:: представляет собой среднее арифметическое случайных величин Х ь Х*, . . . , Х п:
И
Применяя к этим величинам теорему Чебышева, получим доказываемое равенство (5.14).
Обобщением теоремы Бернулли на случай, когда опыты происходят прп неодинаковых условиях, является теорема Пуассона, которая формулируется следующим образом:
При неограниченном увеличении числа независимых опытов в переменных условиях частота события А сходится по вероятности к среднему арифметическому его вероятностей при данных испытаниях.
т
Доказательство теоремы Пуассона следует из обобщенной теоремы Чебышева, точно так же, как доказательство теоремы Бернулли следует из теоремы Чебышева.
§ 5.5. ЦЕНТРАЛЬНАЯ ПРЕДЕЛЬНАЯ ТЕОРЕМА
Рассмотренные в предыдущих параграфах теоремы являются различными формами закона больших чисел. Закон больших чисел устанавливает факт сходимости по вероятности некоторых случайных величин к постоянным их характеристикам. При этом ни в одной из форм закона больших чисел мы не имеем дела с законами распределения случайных величин.
В этом параграфе мы рассмотрим вопрос, связанный с отысканием предельного закона распределения суммы
JИ
У« = V] А'„ (5.15)і I
когда число слагаемых неограниченно возрастает. Центральная предельная теорема теории вероятностей (теорема Ляпунова) устанавливает условия, при которых указанный предельный закон является нормальным. Различные формы центральной предельной теоремы отличаются между собой условиями, которые накладываются па распределение случайных величин Х-„ образующих сумму (5.15). Мы сформулируем и докажем простейшую форму центральной предельной теоремы, когда случайные величины Х|, Х-х, Х п взаимно независимы н одинаково распределены.
Теорема. Если случайные величины Х \, X о, . . . , Х п взаимно независимы и имеют один и тот же закон распределения с математическим ожиданием т и дисперсией а', причем существует третий абсолютный момент v;t, то при неограниченном увеличении п закон распределения суммы (5.15) неограниченно приближается к нормальному.
Д о к а з а т е л ь с г в о . Прп доказательстве этой теоремы воспользуемся характеристическими функциями.
Так как случайные величины A't, X», . . . , Х„ имеют один и тот же закон распределения, то они имеют одну и ту же характеристическую функцию g x ((). Следовательно, в силу формулы (4.55) и взаимной независимости
197
случайных величин Xi характеристическая функция случайной величины Y n будет
gv„ = lg,(0!“- <5Л6)Разложим функцию gx (/) по ч формуле Маклорена,
ограничиваясь тремя членами:fr' (0) ғ ” (0)
g x ( 0 = g x (0) + п т - 1 - г J ~ R * W • (5 Л ? )
Остаточный член (/) в форме Лагранжа имеет вид: Й','-' (ГЮ
R A 0 = ^ п ^ :і ( 0 < 0 < 1 ) .
При определении коэффициентов разложения (5.17) и оценке остаточного члена (/) положим, что случайные величины К ; непрерывны с плотностью распределения f (х )
(для дискретных случайных в'елнчин оно будет аналогичным).
В таком случаеОО
В Л 1 ) = \ е>и Цх)с1х (5.18)— ОЭ
и при ( = 0СО
г , ( 0) = 5 f ( x ) d x = 1 .— со
Дифференцируя (5.18) rio t и полагая = 0, получим:ОЭ
g x (0) = / 5 x f ( х ) c lx — jm.— ОО
Не ограничивая общности, можно считать т — 0 (для этого достаточно перенести начало отсчета в точку т). Тогда
gx (0 ) = 0 .
Дифференцируя (5.18) дважды по / и полагая / = 0, имеем:
СО
г.И0) = - S x°f (x)i lx. (5.19)— ОЭ
При условии, что математическое ожидание случайной величины X равно нулю, интеграл (5.19) есть дисперсия величины X, следовательно,
g x (0) = — о*.
198
е*(‘) ==-/ $’ rV 'vf(.v)d,v.— СО
Из существования третьего абсолютного момента v3 получаем следующую оценку для остаточного члена формулы (5.17):
Продифференцируем (5.18) трижды по t, получим:
Я 3 (О
- j \ ллс№х / {х) ( 1х
3! (5.20)
Подставляя в (5.17) g x (0) = 1, g x (0) = 0 и gx (0) = — о-, будем иметь:
югдаг* ( 0 = 1 - £ . * * + Я 3 (О-
&Я(0 = [М 0]Я = i - c-jt4~R40 (5.21)
Для доказательства того, что закон распределения случайной величины Y п прп увеличении п приближается к нормальному, перейдем от величины Y п к нормированной случайной величине
У и - п1у __ У„
О У п
ибо т,, = М
Z,
У X,І --
V Dy
= Ь [ Х , ] = 0; Dy = D V У.
V D[X/] = « 32 . Характеристическая функция вели
чины Z/;, согласно второму свойству характеристических функции, имеет вид
8~ А 0 = 8у, / Ь
Отсюда, пользуясь формулой (5.21), получаем:
1 — -2 \ G
tУ п )
R л 12 п - | - Д з ] , ( 5 .2 2 )
где (согласно оценке (5.20))2v, а V., I V'
Д ля нахождения предела выражения (5.22) прп п -► со предварительно прологарифмируем его и используем эквивалентность бесконечно малых, получим:
Таким образом, последовательность характеристических функции нормированных сумм Z„ сходится при п —> со к характеристической функции нормированной нормально распределенной случайной величины (см. пример 2, § 4.9). Отсюда заключаем, что и закон распределения величины 7 п (а значит, и величины Уа, связанной с Z„ линейной зависимостью) неограниченно приближается к нормальному распределению*. Теорема доказана.
В практических задачах часто применяют центральную предельную теорему для определения вероятности того, что сумма нескольких случайных величин окажется в заданных пределах.
Пример 1. Складываются 24 независимых случайных величины, каждая из которых подчинена закону равномерной плотности распределения на интервале (0 , 1 ). Написать приближенное выражение для плотности суммы этих случайных величии. Найти вероятность того, что сумма будет заключена в пределах от 6 до 8 .
Р е ш е и п е. Пусть У — V Х ;, где X,- — случайные
величины, равномерно распределенные на интервале (0 , 1 ).
* Зле п . мы принимаем 'к-з дока п гельстиа, что из схо кімости характеристических функций сл едует сходимость законов р а с п р е деления.
ІІП1 I n g z n ( t ) — lim i l 111 (1 — щ - j - R :tj =n -> со
t-
так как
lim j Rjti I lim —.Mr:.. . .4 J'.-’// 1 - и = 0 .
Следовательно,
П CO
im g;n ( t ) = e
200
Условие центральной предельной теоремы соблюдено, поэтому случайная величина У имеет приближенно плотность нормального распределения
(5.22)
Пользуясь свойствами числовых характеристик, определим математическое ожидание и дисперсию величины Y . Математическое ожидание и дисперсия случайных величин Х-„ имеющих равномерное распределение на интервале (0, 1), соответственно равны (см. § 2.9):
т1.x .) , Е) х .I 1 I 12 '
Следовательно,
т у — М
а;. = D
г :?!h Xtі = I
У, Xi
= v /И [Х /1 = 1 2 , / : 1
= V D [X/] = 2 .( 1
Подставляя в (5.22), получим:( v - 12)3
[(У) V -Применяя формулу (2.<10). наіідем вероятность того,
что сумма (величина У) будет заключена в пределах от 6 до 8 :
р № < и < 8) = j | ф Ф (^Цг^ )] = о,°о23-
§ 5.6. ТЕОРЕМА МУАВРА — ЛАПЛАСА
Случайные величины X i .........Х п, фигурирующие в центральной предельной теореме, могут обладать произвольными распределениями вероятностей. Если считать, что все случайные величины X,- одинаково распределены, дискретны и принимают только два возможных значения0 плп 1 , то мы придем к теореме Муавра — Лапласа, представляющей собой простейший частный случай центральной предельной теоремы.
201
Теорема Муавра — Лапласа. Если производится п независимых опытов, в каждом из которых событие А появляется с вероятностью р, то для любого интервала (а, 3) справедливо соотношение
Ү — п р
У т< з \ = -^ * I •> ф J M
' 2 )ф/_^_
1 / 2 Л*(5.23)
где У — число появлений события А в п опытах, q — 1 — р, Ф (;с) — функция Лапласа.
Д о к а з а т е л ь с т в о . Пусть производится п независимых опытов, в каждом из которых может появиться событие А с вероятностью р.
Тогда число появления события А в п опытах есть случайная величина Y , которую можно представить в виде следующей суммы:
У = У Х и
где Х і — случайная величина, выражающая число появления события А в /'-м опыте.
В примере 3 § 2.5 мы показали, чтоM[Xi] = p, D \ X i\ = pq.
Следовательно, случайная величина Y является суммой независимых случайных величин X,-, имеющих один и тот же закон распределения с математическим ожиданием т — р н дисперсией o - = p q . В таком случае, на основании центральной предельной теоремы, закон распределения случайной величины Y прп увеличении числа опытов приближается к нормальному. Поэтому для определения вероятности попадания величины Y в интервал (а, 3) Справедлива формула (см. формулу (2.40), § 2.12):
P ( * < Y < ?) = - ф» ■ / 2
Ф:VK 2
(5.24)
Вычислим математическое ожидание и дисперсию слу чайной величины Y:
гпу= Л'/І-Л
= 2 M { X i] = Y 1 p = np,І - - Л :1
У ; Х,] = V 0 [ А ' , ] = У pq = ,ipq.i J j - i г- і
202
Подставляя эти выражения в (5.24), получим:
Р ( а < Г < 3 ) Ф / (І — пр
У - " р ч<!>/•
\ У ^ рч;или, перейдя будем иметь:
Р х >
к нормированной случайной величине,
У - пр W ф ( 4 _ \> 2 . \ Г 2 / 1 ) 2 / _n p q
Теорема доказана.Теорема Муавра — Лапласа описывает поведение бино
миального распределения при больших значениях п. Эго обстоятельство позволяет существенно упростить вычисления, связанные с биномиальным распределением при больших п. В самом деле, подсчет вероятности попадания случайной величины У в интервал (х. 3) по точной формуле
Р ( * < у < ? ' ) = у .а < к <С 3
связан при больших /г с громоздкими вычислениями. Значительно проще воспользоваться приближенной формулой (5.25).
Пример 1. Найти вероятность того, что в результате 10 0 0 бросаний монеты число выпадения герба будет заключено в интервале (475, 525).
Р е ш е н и е . В этой задаче р — ~ , п — 1 ООО. Следовательно, tip — 500, npq — 250.
Полагая в формуле (5.25) а = 475, 3 = 525, получим:
Р (475 < У < 525) (!) _ ф /475 - 500
\ ГоОб\ \ 500
= Ф (— ^~) = 0,8854.•К> Г о /
Пример 2 . Завод выпускает 90% изделий первого сорта п 10% изделий второго сорта. Наугад выбирают 1000 изделий. Найти вероятность того, что число изделий первого сорта окажется в пределах от 900 до 940.
Р е ш е н и е . Вероятность выбора изделия первого сорта /) = 0,9, число опытов п = 1 0 0 0 . Следовательно, /ф = 900, npq — 90.
Применяя формулу (5.25), получим:
Р (900 < X < 940) =
ф:
Ф(/910 - !Ю0\
V•ш
\3\ 20 j
' 180
Ф (0)
ф /900 — ОООV 180
= 0,5.
203
1. В чем заключается сущ ность закона больших чисел?2 . Как записывается неравенство Чебышева?3. К а к о е практическое и теоретическое значение имеет нера
венство Чебыш ева?4. С ф ор м ул ир уй те н докаж ите т еор ем у Чебышева.5. Чем отличается обычное понятие предела от предела по
вероятности?6 . С ф орм улируйте и докаж ите обобщ ен н ую т ео р ем у Чебышева.7. К акое "практическое значение имеют теоремы Чебышева?8 . О бъясните , пользуясь теорсмоіі Бернулли, свойство устой
чивости относительных частот.9. Как ф орм улируется теорема Пуассона?
10. В чем заключается сущ ность центральной предельной теоремы ?
11. С ф орм улируйте и докаж ите теорем у Муавра — Лапласа.12. Приведите примеры задач, при решении которых приме
няется теорема М уавра Лапласа.
У п р а ж н с н и я
1. Вероятность наступления события /1 в каждом испытании равна 0,3. И спользуя неравенство Чебышева, оценить вероятность того, что в 10 000 испытаниях отклонение частости события А от вероятности его не превзойдет по абсолютной величине 0,0 1 .
Ошв. Не меньше 0,79.
2 . С помощью неравенства Чебышева оценить вероятность того,' что нормальная случайная величина отклонится от своего матема
тического ожидания больше, чем на три средних квадратических отклонения.
Отв. Р ( \ X - тх 15= Зз) 1 .
3. Сколько следует проверить деталей, чтобы с вероятностью, не меньшей 0,96, можно было ожидать, что абсолютная величина отклонения частости годных деталей от вероятности детали быть годной, равной 0,98, не превысит 0,02?
Отв. п 1 2 2 а
4. Суточная потребность электроэнергии в населенном пункте является случайной величиной, математическое ож идание которой равно 3000 tcemju, а дисперсия составляет 2500. Оценить вероятность того, что в ближ айш ие сутки расход электроэнергии в этом населенном пункте б у д ет от 2500 д о 3500 квт\ч.
Отв. р ^ 0,99.
5. С реднее квадратическое отклонение каждой из 2500 независимых случайных величин не превосходит 3. О ценить вероятность того, что абсолютная величина отклонения средней арифм етической этих случайных величин от средней арифметической их математических ожиданий не превзойдет 0,3.
Вопроси для самопроверки
Ошв. р ^ 0,96.
204
6. Выборочным путем тр ебуется определить среднюю длину изго і онлпемых изделий. Сколько н уж но обследовать изделий, чтобы е г.ерояінпгіт.к), больш ей О Д можно было утверждать, что средняя длина отобранных изделий будет отличаться от математического ож идания этого с р е д н е ю (п р и н и м а ем о ю за средню ю длину изделий по всей партии) не б о л ее чем на 0,001 см? Установлено, что среднее квадратическое отклонение длины детали не превы ш ает 0,01 см.
О та. п 16 000.7. Вероятность того, что наудачу выбранная деталь окажется
бракованной, при каждой проверке одна и та ж е и равна 0,2. О п р е делить вероятность того, что среди 50 наудачу отобранны х д е т а лей бракованных о к аж ется не менее 6.
Отв. р — 0,921.
8. И звестно, что П()л/ 0 всего числа изготовляем ы х заводом и зд е лий выпускаются первым сортом. Приемщик б е р е г первы е п о п а в - , шпеся 200 изделий. Чему раина вероятность того, что среди них изделий п е р в о ю сорта окажется:
а) от 120 до 150 шт., б) от 1)0 д о 150 шт.?Отв. а) 0,‘1909.
9. Вероятность появления события Д в отдельном испытании равна 0,8. Оценить вероятность того, что при 1000 независимы х повторных испытаний отклонение частоты события Л от вероятности прп отдельном испытании но своей абсолютной величине будет меньше 0,05.
Ошв. 0,8-13.
10. П роверкой качества изготовляемых радиоламп установлено,что из них !>б°/0 служат не меньше гарантируем ого срока в Т часов. Наугад выбирают 15(100 ра июламп. Найти вероятность того, что со сроком службы менее гарантируем ого будет: ь
а) от 570 до (530 радиоламп,б) от ООО д о 6(50 радиоламп,в) меньш е 615 радиоламп.
Ото. а) 0,7887; 6} 0,-1938; в) 0,734.
Г л а в а 6
СЛУЧАЙНЫЕ ф у н к ц и и
§ 6.1. ОПРЕДЕЛЕНИЕ СЛУЧАЙНОЙ ФУНКЦИИ
Функция., значение которой при каждом значении аргумента (или нескольких аргументов) является случайной величиной, называется случайной функцией.
Так как случайной величиной называется величина, которая в результате опыта может принимать то или иное значение, неизвестно заранее, какое именно, то из определения случайной функции следует, что она в результате опыта может принять тот пли иной конкретный вид, неизвестно заранее, какой именно.
Конкретный вид, принимаемый случайной функцией в результате опыта, называется реализацией случайной функции.
Если над случайной функцией произвести группу опытов, то мы получим группу реализаций этой функции.
В дальнейшем мы будем обозначать случайные функции прописными буквами латинского алфавита, например X (і), Ү (/), Z (/) и т. д., гд е / — аргумент случайной функции. Реализацию будем обозначать соответствующими малыми буквами, например x(t), y(t), z (t) и т. д.
Приведем несколько примеров случайной функции.Пример 1. При передаче сигнала по радиоканалу
в 'прнемипк радиоканала будут поступать вместе с полезным сигналом также различные помехи, которые являются случайными функциями времени.
Пример 2 . Отклонение снаряда от расчетной траектории изменяется случайным образом в зависимости от пути, пройденного снарядом.
Пример 3. Температуру воздуха в различных точках атмосферы можно рассматривать как случайную функцию четырех аргументов: трех координат х, у, z и времени t.
Число гірИіМеров случайных функций, встречающихся в технике, можно привести сколько угодно. Действительно, в любом случае, когда мы имеем дело с какой- либо непрерывно работающей системой, то при анализе
2U(i
точности работы этой системы нам приходится учитывать наличие случайных помех. Как сами помехи, так и вызванная ими реакция системы представляет собой случайные функции времени.
Случайные функции бывают скалярные и векторные. Примером векторной случайной функции может служить отклонение центра массы снаряда от теоретической траектории. Однако анализ векторных функций удобнее производить, проектируя их на некоторые координатные оси пли плоскости. Эти проекции будут скалярными случайными функциями.
В заключение этого параграфа отметим, что понятие случайной функции является обобщением понятия системы случайных величин.
Действительно, пусть имеется некоторая случайная функция X (/), определенная на интервале \а, Ь\. Предположим, что ход изменения этой функции регистрируется с помощью некоторого прибора, который пс записывает случайную функцию непрерывно, а регистрирует се значения через определенные интервалы аргумента t. Обозначим через / ь . . . , фиксированные значения аргумента /, при которых прибором регистрировались значения случайной функции.
Так как согласно определению случайной функции при фиксированном значении / случайная функция превращается в обычную случайную величину, то результаты записи прибора в данном случае представляют собой систему т случайных величин:
X (/i) , * ( / - ) , . . . . X ( t m). (6 . 1 )Очевидно, прп достаточно высоком темпе работы
регистрирующего прибора запись значений случайной функции через такие интервалы даст достаточно точное представление о ходе ее изменения. Следовательно, рассмотрение случайной функции можно с некоторым приближением заменить рассмотрением системы случайных величин (6.1). С увеличением числа т такая замена становится все более точной. В пределе число значений аргумента и соответственно число случайных величин(6 . 1 ) становится бесконечным.
Таким образом, понятие случайной функции является обобщением понятия системы случайных величии, когда этих величин — бесконечное множество (в общем случае— несчетное).
207
§ 6.2. МНОГОМЕРНЫЕ ПЛОТНОСТИ ВЕРОЯТНОСТИ
Рассмотрим, каким образом можно дать.описание случайной функции с вероятностной точки зрения.
Пусть дана некоторая случайная функция X (/). Зафиксируем какое-либо значение аргумента t = t\ и рассмотрим значение X (1 {) случайной функции X (/). Согласно определению случайной функции, величина X (/О есть случайная величина, поэтому она может быть охарактеризована законом се распределения, который обычно выражается функцией распределения l'\ (.v; / 1) или плотностью вероятности fi (.v; t\). Индекс 1 указывает на то,что мы имеем дело с одномерным законом распределения,
a t\ указывает, что закон распределения случайной величины X ((\) может зависеть от выбранного момента времени t\. Если взять произведение f 1 (.v; 1 1) dx, то оно является приближенным значением вероятности
P ( x < X ( U ) < x - ' r dx),
которая имеет простое геометр и- Рчс. 63 ческое истолкование, а именно:
вероятность того, что график реализации х (() будет пересекать прямую l — i\ па высоте между х п ,v-|-d x (рнс. 03).
Итак, полное описание случайной функции X (/) прп фиксированном значении аргумента I дает одиоме|)ный закон распределения возможных значений случайнойфункции при этом значении аргумента, описываемый функцией распределения 1-\ (х\ І) или плотностью вероятности / 1 (.V; /).
Однако одномерный закон распределения случайной функции не характеризует связь между значениями случайной функции для различных значений аргумента.Поэтому введем понятие многомерного закона распределения случайной функции (будем рассматривать только плотности вероятности).
Зафиксируем два значения аргумента: и /.». Значения случайной функции X (/) для двух фиксированных значении аргумента Л и /._> образуют систему двух случайных величин {Л'(Л), X (/•_•)J.
208
Д ля того чтобы охарактеризовать вероятностную связь между нарами значений X {(\) и X {(■>), надо использовать совместную плотность вероятности [>(л'ь / ь (>). Эта функция называется двумерной плотностью вероятности случайной функции. Заметим, что
/.»(л'ь л.»; t\, /j) d:<\ dx -2
есть приближенное значение вероятности
Р {д-j < X (/і) < л'| -j- dxь л'.. < /Ү (/..) < .Vo -\-dXi},
которая также может быть истолкована геометрически, как вероятность того, что график реализации .v (Л будет пересекать прямую / — t\ иа высоте между л'і и .V| -j- dx{, а прямую / = /•>— па высоте между х> и л'.> dx 2 (рис. 64).
Отметим два свойства двумерных плотностей:
1 . Симметрия: h { x 1, Л'.; /,, /,.) —— f.>{Х-1. л',; /.», /,).2. Согласованность:
; Xft)
X; *■ СчГ; :__ /
0 if L2
Рис. 645 •/•> (л'ь ХУ, ti, L) dxi =
= / 1 (Xi, 11).
Очевидно, что п двумерная плотность вероятности не является полной характеристикой случайной функции. Однако знание двумерных плотностей \-2 (л*|, х 2, t\, />)достаточно для всех нужд так называемой корреляционной теории случайных процессов.
Иногда для получения исчерпывающей характеристики случайной функции надо увеличивать число аргументов плотности вероятности. Д ля этого выбираются произвольно значения аргумента i\, /•>, и рассматривается /z-мерная плотность вероятности
f II (Л 1 > Л-2, . . . , Хп, /1, /•>, - . . , t/j)
системы случайных величин А '(Л), X (/._.), X (t,,),являющихся значениями случайной функции X (/) при произвольно выбранных значениях аргумента.
209
§ 6.3. МАТЕМАТИЧЕСКОЕ ОЖИДАНИЕ И ДИСПЕРСИЯ СЛУЧАЙНОЙ ФУНКЦИИ
Получение и использование многомерных плотностей для описания случайных функций при решении практических задач в большинстве случаев сопряжено с очень громоздкими математическими преобразованиями. Поэтому на практике чаще всего пользуются вероятностными характеристиками случайных функций, которые аналогичны числовым характеристикам случайной величины (математическим ожиданием, дисперсией, корреляционным моментом или коэффициентом корреляции). В отличие от числовых характеристик случайных величин, которые являются постоянными числами, характеристики случайных функций являются неслучайными функциями ее аргументов. В этом параграфе мы познакомимся с двумя характеристиками случайной функции: математическим ожиданием и дисперсией.
Математическим ожиданием случайной функции X (/) называется неслучайная функция тх (!) аргумента /, которая при каждом данном значении аргумента равна математическому ожиданию значения случайной функции при том. же значении аргумента.
По определению математического ожидания (см. (2.15) можно написать:
СО
тх (/) = Л1 [X (0 1 = J xh (-V, t) dx. (6 .2 )
Математическое ожидание случайной функции представляет собой некоторую среднюю функцию, около которой группируются и относительно которой колеблются все реализации рассматриваемой случайной функции. На рис. 65 показана некоторая случайная функция и ее математическое ожидание. Математическое ожидание тх (() называют также неслучайной составляющей случайного процесса X (/), в то время как разность
Х(/) = Х ( о - / « , ( / )называют флуктуационной частью процесса.
Дисперсией случайной функции X (/) называется неслучайная функция Ъх (/) аргумента t, которая при каждом данном значении аргумента равна дисперсии значения случайной функции при том же значении аргумента.
210
По определению дисперсии можно написать:с о
Д , (0 = й [ А' (0 ] = 5 IX — тх ( 0 f /, (.V, О d*. (6 .3)— о э
Дисперсия случайной функции характеризует разброс реализаций случайной функции относительно математи
ческого ожидания случайной функции. , Часто вместо дисперсии случайной' функции используется среднее квадратическое отклонение случайной функции, равное корню квадратному из дисперсии:
ox (t) = Y D A f ) .
§ 6.4. КОРРЕЛЯЦИОННАЯ ФУНКЦИЯ СЛУЧАЙНОЙ ФУНКЦИИ
Математическое ожидание и дисперсия являются весьма важными характеристиками случайной функции, однако для описания основных особенностей случайной функции этих характеристик недостаточно. Например, на рис. 66 и 67 приведены реализации двух случайных функций Xi (t) и Х> (/), имеющих одинаковые математические ожидания и дисперсии. Мы видим, что характер изменения реализации этих двух случайных функций совершенно различен. Так, если случайная функция Х\ (t) при некотором значении аргумента t приняла значение, лежащее ниже математического ожидания случайной функции, то мы наверняка можем утверждать, что и в дальнейшем реализация случайной функции пройдет ниже ее математического ожидания. При рассмотрении второй функции
211
этого утверждать нельзя. Следовательно, различие между функциями Л',(/) и Л'.(/) проявляется и характере связи между значениями случайной функции для различных аргументов t\ и /■>.
Для того, чтобы учесть связь между значениями случайной функции прп различных значениях аргумента,
x, f t )
тх , (t)
Нас. 66
необходимо, как. н в случае системы случайных величин, задать, кроме дисперсии, корреляционные моменты значений случайной функции, соответствующие всем возможным парам значений аргумента. Очевидно, если менять пары значений Л и U аргумента / случайной функции X (/)
А *2 It)
ft
Рас . 67
или менять интервалы между значениями / 1 и Л., то будет меняться и корреляционный момент. Значит, корреляционный момент является функцией двух переменных: 1 \ и t>. Эта функция и называется корреляционной функцией.
Таким образом, корреляционной функцией случайной функции X {() называется неслучайная функция двух иргу-
212
ментов K x (tь /о), которая при каждой парс значений Л и /..» равна корреляционному моменту соответствующих значений случайной функции.
Зная двумерный закон распределения /•> (.v,, лу, f,, /..) случайноіі функции X (/), мы можем, согласно определению корреляционного момента (см. формулу (3.28)), определить корреляционную функцию по формуле
Kx( t u t«) = M [ { X ( / , )—/и, (Л)} {X{U) — mx (/,)]] = 'со
= 5 5 [Л'1 — шх (Ml [*•> — тх (/.,)] X
Һ ( Х и ХУ, 1 1, /..) с/л'! с/л'._». (6.4)
nx (t, , t2)
Рис. 68
Из сравнения выражений (6.3) и (6.4) видно, что если аргументы корреляционной функции равны между собой, т. е. ti = t-> = t, то
K x (t, /) = D , (0 -(6.5)
Таким образом, необходимость в дисперсии как в отдел ь-11 о i i х а р а ктер 11 сті і к e случайной функции отпадает, поэтому в качестве основных ха- ^ рактеристнк случаи- ион функции достаточно рассматривать ее математическое ожидание и кор- р ел я цнош 1 у ю фу и к ци ю.
Отметим основные с в о й с т в а корреляционной функции.
1. Так как корреляционный момент двух случайных величии X (t\) и X {(■>) не зависит от последовательности, в которой эти величины рассматриваются, то корреляционная функция симметрична относительно своих аргументов, т. е.
/С, ( / „ t.>) = Қ х (t.>, /,)•
Если изобразить корреляциониую функцию геометрически, т. е. в виде поверхности, то эта поверхность симметрична относительно плоскости, перпендикулярной к координатной плоскости l\Ot.> и проходящей через биссектрису угла i-iGt.* (рнс. 6 8 ).
2. Мз неравенства (4.47) для корреляционного момента и формулы (6.5) получаем второе свойство корреляционной функции:
У к 7 (Ги t , ) - K x (4. ЧК .Л Ч Ч) ' ° х ( t l) °Л- (/•-')•
Таким образом, значение корреляционной функции в любой точке (Л, /•_>) не может превосходить по абсолютной величине среднее геометрическое ее зпачеіпій наглавной диагонали в точках ее пересечения с прямыми,
проведенными из данной точки и параллельными соответственно осям О/] н Of* (рис. 69).
3. Если к случайной функции X (!) прибавить неслучайную функцию 9 (/), то ее корреляционная функция не изменится.
Д о к а з а т с л ь с т в о.Прибавим к случайной функ
ции X (t) неслучайную функцию 9 (/), получим новую с л у ча й н у ю фу 11 к ц и ю:
Y (I) = Х ( 1) - г г (О-
На основании свойств математического ожидания будем иметь:
т , (!) — тх (!) - j-? (О-Следовательно,
У (/) — /Ну (!) = X (!) — тх ((), а это значит, что
К у (А, Ъ) = Кх Уи •/,).4. Если умножить случайную функцию X (!) па не
случайную функцию о {!), то ее корреляционная функция умножится на 9 (Л) о (/._>).
Д о к а з а т е л ь с т в о. Умножим случайную функцию X (!) на неслучайную функцию » (/), получим новую случайную функцию
к (/) = ? ( / ) * ( / ) .На
имеем:основании свойств математического ожидания
т ( 0 = 9 ( 0 /пх (!).
214
ПоэтомуV (/) — niy (t) = ? (/) [X (t) — mx (/)].
Следоваіелыю,K v(tu U) = M [ { Y ( t o - m y i t , ) } {Y ( і , ) - т УШ = == M [? (/,) {X (/,) - m , (/,)} * (4) {X (/,) - mx (/«)} 1 -
= ? ( t l) ' i ( t i ) Kx (tu ti).Часто вместо корреляционной функции 1(х (/ь Л) рас
сматривают нормированную корреляционную функцию R x (ti, /о), определяя ее следующим образом:
Нормированная корреляционная функция по смыслу аналогична коэффициенту корреляции для случайных величин, но не является постоянной величиной, а зависит от двух аргументов: t x и t>. Как и коэффициент корреляции, нормированная корреляционная функция изменяется о т — 1 до 1. Если оба аргумента нормированной корреляционной функции равны между собой, то R x (t, /) = !• При увеличении разности t> — 1 { значение функции R x (tь /о) уменьшается и при достаточно большом значении /■> — t\ стремится к нулю. Физически это означает, что с увеличением разности Ы — 1 \ отклонения случайной функции от ее математического ожидания для аргументов Л и /._> все менее зависимы друг от Друга.
В заключение рассмотрим корреляционную функцию связи.
Пусть имеются дізе случайные функции: X (7) и Ү (s). При совместном рассмотрении этих функций необходимо, кроме их математических ожидании и корреляционных функций, задать еще их корреляционную функцию связи.
Корреляционной функцией связи, или взаимной корреляционной функцией двух случайных функций X ( t) и Y (s) , называется неслучайная функция двух аргументов К ху (t, s), которая при каждой паре значений t, s равна корреляционному моменту соответствующих значений случайных функций X ( t ) и Y (s):
К.,у (t, s) = М Ц Х (/) — тх (/)} {Y (.V) - т , (s)}] =СО с с
= 5 5 [ x — mx ( t ) \ [ y — my {s)]f{xt у; t, s)dxcly. (6 .6)— СС - о?
215
В частном случае, если х и ;/ являются случайными функциями одного п того же аргумента (, необходимо в определении корреляционной функции связи двух случайных функций (0.(5) положить s — t. Тогда получим:
Кху (Л, t-i) = М [\Х (ti) — /п, (/,)} {V' (/,) — ту (4)}] =
= м [ ! ( / , ) г (/,)],где
X (/,) = X (U) - тх (/,), 'У (/■*) = У (Ц - ту (/,)н называются центрированными случайными функциями.
Случайные функции X (/) и Y (s) называются коррелированными, или связанными, если их корреляционная функция связи не равна тождественно пулю. Если K x y (t, s) = 0 , то случайные функции X (Л и У (s) называются некоррелированными или несвязанными.
Наряду с корреляционной функцией связи используется нормированная корреляционная функция R x y (t,s), равная отношению корреляционной функции связи к средним квадратическим отклонениям случайных функций X (/) и Y (s) для значений аргументов t и б:
ху ^ зх (t) s., (s) ‘
§ 6.5. МОМЕНТЫ ВЫСШИХ ПОРЯДКОВ
Математическое ожидание случайной функции называют начальным моментом первого порядка, а корреляционную функцию — центральным моментом второго порядка.
Согласно определению моментов любого порядка для случайной величины (или системы случайных величии) начальный момент порядка п случайной функции X (/) оп р еде л я ere я формулой
|ія (/„ /„ . . . , t„) = Д-І [ * ( / , ) X ( / , ) . . . X (/„)].Центральный момент порядка п случайной функции
о п р еде л я етс я формулой
К п (tu fc, . . . , t„) = М [X (t,) X ( / , ) . . . X (*„)],о
где X (/) — отклонение случайной функции X (t) от ее математического ожидания, т. е. центрированная случайная функция.
Диалогично можно определить взаимные моменты высших порядков двух случайных функций и взаимные моменты высших порядков нескольких случайных функций.
Для определения момента /z-го порядка случайной функции X (/) необходимо знать ее //-мерную плотность вероятности
fn (' Ь A*2i . . . » Х „ , 11, /j, . . . , tri) •
Тогда начальный момент порядка и случайной функции выразится формулой
•••■> СПI *„(/,, Ц, . . . , t„) = J . . . Х\Х$. . . хп X
X f n ( x и X i ......... x ti; . . . . t „ ) d x \ . . . d x n.
Аналогичной формулой определяется центральный момент порядка п:
'>) соК п (Л, ( , ) — 5 • • • S (Л'1 — ///,; (Л)) • • • (Х> — П1Х ({»)) X
/ \ //1 (*1, • • •) Хц , 1 1, . . . , ttl) tixI . . . dxn.
В большинстве практических задач теории случайных функций достаточно знания математического ожидания и корреляционной функции. Однако существуют задачи, для точного решения которых недостаточно знать математическое ожидание и корреляционную функцию. Так, например, для точного определения математического ожидания п корреляционной функции случайной функции на выходе существенно нелинейной системы необходимо задать моменты высших порядков случайной функции на входе системы.
§ 6.6. ПРИМЕРЬ! СЛУЧАЙНЫХ САНКЦИЙ
Пример І. Гармонические колебания.Пусть
X ( t ) = A cos (с»/-j-c?), (G.7)
где А ^ О, со^-О, v — случайные величины. Каждая реализация
.V (/) = An cos ((•)(/ -J- <?„)
представляет собой косинусоиду. Множество всех реализаций зависит от трех параметров: А, ш и у; поэтому
217
для определения вероятностей различных событий в этом множестве реализации необходимо знать трехмерную плотность вероятности f (А, «, ?).
В приложениях часто встречается случайная гармоника, для которой фиксирована частота « и фаза v не зависит от А, причем ср равномерно распределена па отрезке [0, 2-]. В этом случае множество всех реализации будет зависеть только от двух параметров: А и <?; причем плотность вероятности будет иметь вид
f ( A , ?) = ± [ , ( Л )
Найдем корреляционную функцию случайной гармоники (6.7). Для этого запишем ее в такой форме:
X (/) == a cos W -}- 3 sin со / ,
гдеа — А COS/f, 3 = — A sin v,
и отметим следующие два свойства' случайных величин а и р:
1 ) AJ 1а] = ЛП?] = 0 ;2 ) М [а2] = М [3‘1 = ~ М f/Г’], М [аЗ] = 0.Докажем свойство 2 (свойство 1 доказывается анало
гично). Так как случайные величины А и о независимы, то
М [от] = М [А '] М [cos- о], М [3-] = М [А*] М [sin2 <?•],
М [сс, fJ] = — 4 - М [Л*] М [sin 2 ?]. (6 .8 )
Используя предположение о том, что случайная величина о равномерно распределена на отрезке [0 , 2 —], и учитывая, что математическое ожидание случайной величины, являющейся функцией случайной величины можно выразить непосредственно через плотность вероятности случайной величины z>, находим, что
2 г.
А1 [cos- 'с] — ~ cos- 9 сһ — ,о
AI [sin'2 в] = ^ { sin2 9 d? = 4 “.0
AI [sin 2s j = — sin 2 f d f — 0 .I)
218
Подставляя полученные значения математических ожиданий в равенство (6 .8 ), будем иметь:
/М И = /И [Л '!]4-, М [?2] = М [Л Ч I , Л* [а, |3] = 0.
Свойство 2 доказано.Используя СЕОЙСТВО 1, получим !ПХ (/) = М [ X (/)] = О,
т. е. случайная гармоника есть чисто флуктуационный процесс. Следовательно, используя свойство 2 , получим, что корреляционная функция случайной гармоники будет иметь вид
Kx 0*1» ts) = М [(я cos ш*і -\- Р sin со/]) (a COS О)/о -{- 3 sin со/,)] = = М [а- cos со/, cos со/ 2 -}- ра sin со/, COS со/.2 -J-
apcOSco/jsillсо/о -}- !3- sin со/, sill со/.2] =
= .у М [Л2] (cos со/[ cos со/о -{-sin со/! sin со/.:) =
= 4- М [Л -] cos Ш (ti — /о). (6.9)
При ty — ti получим выражения для дисперсии случайной гармоники:
D [X (/)] = к х (/, /) = І М [Л~] = a;v. (/). (6.10)
Поэтому нормированная корреляционная функция будет
Rx (tl, t-i) — COS со (/, — to) . (6.11)
Из выражения (6.11) следует, что при | / | — /21 -> оо
Rx( tu t-г)
не стремится к нулю. Это связано с периодическим характером случайной функции X (/).
Пример 2. Телеграфный сигнал.Телеграфным сигналом называется случайная функ
ция X (/), которая может принимать одно из двух значений: -j- а или — а\ причем вероятность перемены знака в интервале (/, /-[•-') не зависит от того, что происходит вне этого интервала. Реализация x( t ) такого случайного процесса имеет вид, показанный на рис. 70.
В таком случае распределение числа перемен знака функции X (/) подчиняется закону Пуассона, поэтому
вероятность получения п перемен знака этой функции за время ~ определяется формулой
(>-)«(6. 12)
где У— среднее число перемен знака функции в единицу времени.
Найдем корреляционную функцию телеграфного сигнала. Из задания случайной функции X (/) следует,
что математическое ожидание равно нулю. Следовательно,
г_ _ К л һ - ti) = M [ X ( t l) X ( Q ] .I II I
Рис. 70
-------- Произведение X (t\) X (t>)[ j I 1 может иметь два значения:
если число перемен знака за время \t\ — / .^ я в ляется четным числом, и — а 1, если число перемен знака не
четно. Так как возможные значения числа перемен знака за время ! ; представляет собой несовместные события, то вероятность получения четного числа перемен знака за это время равна сумме вероятностей
Р (0), Р ( 2), . . . . Р ( 2 к),а нечетного — сумме вероятностей
Р ( 1 ), Р ( 3), . . . , Р {2к 1 ).где Р (к) есть вероятность получения к перемен знака за время ! t \ — /.. \.
Сл едовате л ы ю, и с пол ь зу я о и ределеи не математического ожидания, получим:Kx а Ь tl) ^ а 1 [Р (0) !- Р (2) + ...] - я* [Р( \ ) + Р (3) - I - .. .J.
Используя формулу (6.12), будем иметь:
/с, (/,«=«* У. (-l)tl?' '“с-ЧҺ-:, =А9С.Л
к- :0
v / nft 0 ' 1^1 - L- I)*= а-е_ Л | / і - / - 1 > (— 1 )
= d 'c~ >'Таким образом, корреляционная функция телеграф
ного сигнала определяется выражениемKx {tl, t'i) — < - i ~ c 1. (6 .13 )
220
§ 6.7. КОМПЛЕКСНЫЕ СЛУЧАЙНЫЕ ФУНКЦИИ
'В приложении часто оказывается удобным рассматривать комплексные случайные функции. Поэтому нам необходимо определить математическое ожидание и корреляционную функцию комплексной случайной функции.
Комплексной случайной функцией называется функция вида
Z( t ) = X ( t ) -\--jY (О,
где /Ү (/) и У (/) — действительные случайные функции; j = \ г — 1 — мнимая единица.
Пользуясь определением математического ожидания и его свойствами для случайных величин, приходим к следующему определению математического ожидания комплексной случайной функции Z (/):
пи (/) = тх ( 0 -\- jmy (/).
Корреляционной функцией комплексной случайной функции Z (І) называется корреляционный момент ее значений, соответствующих- произвольно взятой паре значений /ь t. аргумента I:
К A t и t^ = M \ z ( t , ) Z { t A (6.14)
где ноликом вверху отмечено отклонение случайной функции от ее математического ожидания:
Z (0 — Z( t ) — пи (I) = X (t) -j- jY (/) — тх (I) — jm.y (t) =
= [X ( 0 - mx (/)J -|- / [У (0 - »b (t)J = A (/) -I- jY (t).Кроме того,
Z {(>) = X (ti) — jY (t*) (6.15)
есть комплексная величина, сопряженная величине
Z (t.2) = X ((■>) jY (/■>). (6.16)
Определение корреляционной функции построено так, чтобы при tx= t . , = t она обращалась в дисперсию комплексной случайной функции Z (/) (как и для действительной случайной функции). Оказывается, этому требованию нельзя было бы удовлетворить, если бы мы па::;і-
221
пали корреляционной функцией математическое ожиданиео о
произведения Z(t \ )Z( to) , ибо при t\ = L — t математическое ожидание такого произведения будет пе действительной функцией, а комплексно!!, т. е. уже ие дает дисперсии, которая, согласно определению, действительна и существенно положительна.
Пользуясь формулами (G.14) и (6.15), найдем:
Кг (tl, Һ) = М [Z (U) Z (/,)] = М [{X (',) - f j Y ((,)} х
х {X (h) - j Y (Ai)}] = м [X (<,) X (/,)] + М [Y (tl) У (<',)] +
+ І [М [Ү (Һ) X (/,)] - М [X (/,) Y (/.)](,
или, принимая во внимание определения корреляционной функции и корреляционной функции связи действительных случайных функций, имеем:
К z (tl, to) = Kx (t\, ti) - r (tl, to) -{-+ j [ K y x (tu /a) — Kxy (tl, /2)]- (6.17)
Эта формула выражает корреляционную функцию комплексной случайной функции через корреляционные функции и корреляционные функции связи ее действительной и мнимой частей.
В случае, когда действительная и мнимая части комплексной случайной функции некоррелнроваиы, т. е. Кху (tl, Һ) — 0, формула (6.17) имеет вид
K z (tu U = Kx( tu t9) + K y ( t l , to). (6.18)
Из формулы (6.14) при t \= t . , = t вытекает определение дисперсии- комплексной случайной функции:
D \z ( t ) ] = M [ \ Z ( t ) I*],
пли, подставляя сюда выражение (6.16) случайной функции, получим:
D[Z( t ) \ = M \ { X ( t ) Y \ - { Y ( t m =
— М [{X (/)}*] - f М [{У (0}э1 = D [X (/)] - f D [Y (01- (6.19)
Таким образом, дисперсия комплексной случайной функции равна сумме дисперсий ее действительной и мнимой частей.ООО
§ 6.3. ОПЕРАЦИИ^ НАД СЛУЧАЙНЫМИ ФУНКЦИЯМИ
При решении многих практических задач приходится определять характеристики случайных функций на выходе некоторой динамической системы по известным характеристикам случайных функций на входе этой системы. Под динамической системой понимаем любой прибор, счетно-решающий механизм, систему автоматического управления и т. п. Например, при анализе работы какой-либо системы автоматического регулирования или управления нам обычно известны характеристики возмущающих факторов па входе системы, а требуется оценивать точность работы па выходе системы. Решение задачи определения характеристик преобразованной случайной функции имеет особенно большое значение прп проектировании различных систем, когда отсутствует возможностьоценки интересующих н а с __________характеристик из опытных х ( t) л ] Y(t)данных.
Рассмотрим самый простой случай: когда па вход Рис . 71системы (рис. 71) подаетсяслучайная функция X (/) с известными характеристиками. Система Л осуществляет над этой случайной функцией некоторые преобразования, в результате которых получается новая случайная функция Y ((), характеристики которой требуется определить. Запишем это преобразование символически в виде
Y (/) = Л {*(/)}.
Преобразование (оператор) Л может иметь любой вид: простое умножение па неслучайную функцию, дифференцирование нлп интегрирование и т. д.
Все виды подобных преобразований можно разбить па две различные группы: линейные и нелинейные. В свою очередь линейные преобразования делятся на однородные и неоднородные.
Линейными однородными преобразованиями, которые будем обозначать буквой L, называются преобразования, обладающие следующими свойствами.
1 . К сумме функции оператор L может применяться почленно:
L {Л, (/) 1 (/)} = L [Л', (/)) {- L {X, (0). (6.20)
223
f5. Постоянную величину С можно выносить па пнак oiii'jbiiopa:
L { CX( t ) \ = CL{X( t ) } . (0 .2 1 )
Примеры линейных однородных операторов:а) оператор умножения на заданную функцию f (/)
Y ( t ) = f ( t ) Y ( t y ,
б) оператор дифференцирования
У ( 0 = .
в) оператор интегрирования
У (t) = \ X ( t ) d t .
Линейные операции могут быть и неоднородными, если они ссстоят из линейных однородных операций с прибавлением заданной функции /( /) :
L { X ( t ) } = U \ X ( t ) } + f((),
где La— линейный однородный оператор.Примеры линейных неоднородных операций: а) У — (/) X (I) (/);
с) К ( 0 = т г + / ( 0 ;
в) Y (t) = {x(/ )dt + l(t).О
К нелинейным операциям относятся все виды преобразований, не удовлетворяющие условиям (0 .2 0 ) и (6 .2 1 ). Например, нелинейной операцией будет
У ( 0 = X '1 (/) .
Рассмотрим задачу определения характеристик па выходе линейной системы (т. е. системы, оператор которой является линейным) для некоторых видов линейных операторов.
224
1. Умножение случайной функции на неслучайную функцию
Дана случайная функция X (/) с метсматическим ожиданием т х (/) и корреляционной функцией I(x (tь 4 ).
Случайная функция К (7) связана со случайной функцией X (/) следующим образом:
Y( f ) = f ( t ) X ( f ) .
Требуется определить математическое ожидание и корреляционную функцию случайной функции Y (t).
Находим .математическое ожидание• ту (i) — М [Y (/)] = М [f (t) А (/)].
Поскольку f (/) является неслучайной функциеіі, то ее можно вынести из-под знака математического ожидания. Тогда
my ( t ) = f ( t ) m x (t), (6 .2 2 )
т. е. при умножении случайной функции на неслучайную функцию математическое ожидание случайной функции умножается на эту неслучайную функцию.
Найдем корреляционную функцию K Y(tu £>)• По определению
Қ , (/,. U) = М | Y (Л) Y (/..)! = М 1{Х (ti) f (tl) —- т х (tl) f (h)} {X (/.,) j (t.) - mx (ti) I (/»)}].
Вынесем неслучайную функцию / (/) за знак математического ожидания, получим:
К V Оь Ц = f (ti) f (4) м [ х (/,) X (/,) \ = f ( t i ) f (к) К , (Л, к),(6.23)
т. е. при умножении случайной функции па неслучайную функцию корреляционную функцию случайной функции для аргументов Л и и следует дважды умножить на эту неслучайную функцию для аргументов U и L.
Заметим, что еслиY (t) = CX (I),
где С — постоянная величина, тоm v ( t ) = C m x.(t),
Ky (h, i j = C-Kx (tb 4).
8 Гурскнй 225
2. Производная от случайной функции
Пусть линейное преобразование случайной функции состоит в дифференцировании ее:
Ү ( і ) = « х л & '
Математическое ожидание т х (t) и корреляционная функция Қ х (tu к) случайной функции X (/) заданы. Требуется найти my (t) и K v (Һ, к).
Представим производную в виде предела:
Y (/) = iim х {t + Aw ~ уҮ {t)• ' (6.24)а/ ~ « лг
Применим к равенству (6.24) операцию математического ожидания. Предполагая, что математическое ожидание предела равно пределу математического ожидания, получим: \
= ( 0 1 = tim + У> = « Л ф _
Итак,
m v (0 = — f P , (6.25)
т. е. математическое ожидание производной от случайной функции равно производной от математического ожидания случайной функции.
Значит, операцию дифференцирования и операцию математического ожидания можно менять местами.
Д ля определения корреляционной функции Қу (/,, /а)о и
перейдем к центрированным случайным функциям Ү (t ) и X (/); очевидно,
огY (6.26)
По определению
к , у ,, k ) = М [ү (/,) Ү ((.)].
Подставив вместо Y (tv) и Y (/..>) их выражения из (6.26), получим:
К у {tu /2) = М
226
(IX ( t , ) _ (IX ( t , ) d t v dt..
Представляя выражение под знаком математического ожидания в виде второй смешанной частной производнойи, учитывая, что операцию дифференцирования и математического ожидания можно менять местами, будем иметь
'*> = т ж м ^ (/‘> * (У! = (6'27)т. е. корреляционная функция производной от случайной функции равна второй смешанной частной производной от корреляционной функции исходной случайной функции.
При определении характеристик производной случайной функции предполагалось, что случайная функция X(t) является непрерывной и производная ее существует.
Случайная функция А (/) называется непрерывной, если для любого значения аргумента / и сколько угодно малого г 0 выполняется равенство
lim Р (| X (( -h М) - X (t) I > е) = 0 .
Это равенство означает, что для непрерывной случайной функции должна существовать статистическая связь между значениями случайной функции при аргументахI и t- \- А/ для достаточно малого А/. Если же для любого А/ связь между значениями случайной функции отсутствует, то с вероятностью, равной единице, функция является разрывной для любого /.
Пример. На вход дифференцирующего механизма поступает случайная функция X (t) с математическим ожиданием
тх (/) = A sin at
и корреляционной функцией
К А Һ , / - )= = 0 Лв-р < ',-«% _
где Од.— постоянная дисперсия случайной функции X'(f).Определить математическое ожидание и дисперсию на
выходе системы.Р е ш е н и е . Используя формулы (6.25) и (6.27),
получим:
т у (0 = — 'А -- = a. A co s а/,
К , It,, U) = = - m - W [i — 2
227
Полагая t\ — t-2 = f, имеем: D v (t) — 2$DX.Мз последнего равенства видно, что дисперсия па
выходе дифференцирующего механизма зависит не только от дисперсии Dx на входе, но и от параметров корреляционной функции Қ х (/,, /2).
3. Интеграл от случайной' функции
Пусть линейное преобразование случайной функции состоит в ее интегрировании:
tY (t) = \ X ( t ) d t . (6.28)
оИзвестны характеристики случайной функции X (/),
требуется определить математическое ожидание m v (/) и корреляционную функцию К у (t\, t>) случайпоіі функции Ү (/).
Представим интеграл (6.28) как предел интегральной суммы
еУ (/) = \ X (/) d t = 1 i m У ] X (U) А/,- (6.29)
„ max л Л — о I
п применим к равенству (6.29) операцию математического ожидания, полагая, что операции отысканияпредела и математического ожидания можно поменять местами:
т , ( 0 = Л1 [ К( / ) 1 = М lim У ] Х ( Ы А//тпхДЛ-*о ;
lim '}] AI [X (іі) А/ ,1 = lim V тх (/,•) А =m a x М- -<■ о / пых- / , • — и »
Итак,
Я тх (() dt.
niy (/) — j тх (/) dt, (6.30)
т. е. математическое ожидание интеграла от случайной функции равно интегралу от математического ожидания этой случайной функции. Иными словами, операцию интегрирования и операцию математического ожидания можно менять местами.
Найдем корреляционную функцию Ky (t\, to). Д ля этого составим произведение
„ п (l ,, Лі „
У ((,) Y (<.) = \ X (/,) dt, S .X (/,) dl,, (6.31)о о
о огде X (/) и К ( 0 — центрированные случайные функции.
Произведение двух интегралов в правой части равенства (6.31) можно рассматривать как двойной интеграл:
$' X (t,) dt, $ X (U) dt, = 5 \ X (/,) X (/«) dt, dt,.о о и 0
Следовательно,
у (Л) Y (fi) = s' S X (/,) X (/,) Л , </0- (6.32)0 0
Прнмеппм теперь к равенству (6.32) операцию математического ожидания и поменяем ее в правой части с операцией интегрирования, получим:
/(,, (/„ /.,) = Д1 [ у (/,) к (/»)| = $‘ $',И [х (/,) х (fe)] at, dt,,О о
или/I /,
K.V (Л. -'=) = $ S /<Л (Л. л.) dt, dt... (6.33)О и
Таким образом, корреляционная функция интеграла от случайной функции равна двойному интегралу от корреляционной функции исходной случайной функции.
Пример. Характеристики случайной функции X (t) Заданы выражениями
тх (/) = 2 / -j- 3; / \Л. (/ь 4 ) = cos ^ cos /.».
Найти характеристики случайной фуикцинt
1у (о = | jj Х(о*.
Р е ш е н и е . Так как случайная функция V (/) есть результат двух последовательных операций (интегрирование и умножение па неслучайную функцию), примененных
229
к данной случайной функции X ((), то, используя формулы (6.24), (6.30) и (6.33), получим:
tт , W = т Л' ( й -I- з )d l = j ( у -I- 3t) = i + 3, К , (tu /,) =
011
= \ S C0S C0S = 7Т s*n s'n (0 =° 0
= К у (t, t) — ^ sin2/.
4. Сложение случайных функции
Пусть в результате сложения двух случайных функций одного аргумента X (/) и К (/) получена новая случайная функция
Z(t) = X ( t ) + Y ( t ) . (6.34)
Известны характеристики исходных функций: математические ожидания mx (t) и т у (/), корреляционные функции K x (t\, to) и Ку (/„ /..), корреляционная функция связи К ху (ti: /о). Требуется найти характеристики случайной функции Z (/).
Применяя к равенству (6.34) операцию математического ожидания, получим:
т . (() = тх (/) -|- niy ((:), (6 .35)
т. е. при сложении двух случайных функций их математические ожидания складываются.
Корреляционная функция случайной функции Z (/) выражается формулой (доказательство которой предлагается читателю)
КЛҺ> t>) = K x (tu h) + K y(tb h ) + K xy (tь һ) + Қ Ху(і», tl).(6.36)
В случае, когда случайные функции X (t) и Y (I) не- коррелированы, K xy(tu һ ) = 0 и формула (6.36) принимает вид:
K £ (tl, t o ) = K X (tl, to) Ку (tl, to), (6.37)т. е. при сложении некоррелированных случайных функций их корреляционные функции складываются. .
Выведенные формулы могут быть обобщены па случай произвольного числа слагаемых.
230
§ 6.9. КАНОНИЧЕСКОЕ РАЗЛОЖЕНИЕ СЛУЧАЙНЫХ ФУНКЦИЙ
В § 6 .8 были изложены общие правила определения характеристик случайной функции после линейного преобразования.
Правило преобразования математического ожидания при практическом применении затруднений не вызывает. Что касается двойного преобразования корреляционной функции, то оно в ряде случаев приводит к очень громоздким операциям, что затрудняет практическое использование рассмотренных методов.
Значительное упрощение правил определения характеристик случайной функции после линейного преобразования может быть получено применением метода канонических разложений, разработанного В. С. Пугачевым [ 1 ].
Идея метода канонических -д разложений состоит в представлении случайной функции в виде суммы элементарных случайных функций.
Простейшей случайной функцией называется функция вида
X (/) = (t), (6.38)где X — обычная случайная величина;
<р (/) — неслучайная функция.Все реализации такой функции изображаются подоб
ными кривыми, которые могут быть совмещены друг с другом путем изменения масштаба по оси ординат (рис. 72). Прп этом ось абсцисс тоже изображает реализацию, которая соответствует возможному значению л' = 0 случайной величины X .
Определим характеристики простейшей случайной функции (6.38). Имеем:
тх (() = М [X? (/)] — '-р (i) М [XJ = ? (/) тх,где тх — математическое ожидание случайной величины X. Если тх — 0, то математическое ожидание случайной функции X (t) также равно пулю для всех t :
тх (/) = 0 .В этом случае простейшая случайная функция (6.33) называется элементарной случайной функцией.
x(t)
231
Определим корреляционную функцию элементарной случайной функции. Имеем:
Рассмотрим теперь случайную функцию X (/), которая является суммой взаимно некоррелированных элементарных случайных функций:
Из взаимной некоррелированности элементарных случайных функций, входящих в сумму (6.39), следует взаимная некоррелированность случайных величии Xi.
Очевидно, математическое ожидание случайной фупк-О
цпп X (t) равно пулю (так как математическое ожидание каждого слагаемого правой части (6.39) равно нулю).
Найдем корреляционную функцию случайной фупк-о
ции X (t). По определению
Перемножая выражения (6.41) и (6.42) п применяя к произведению операцию математического ожидания, получим:
где суммирование распространяется па все пары значений, как равные, так п неравные. В случае, когда i — j,
Х (/) = 2 * ; '* (/)• (6.39)
(6.40)где
(6.41)і 1
(6.42)
(6.43)ч
В случае, когда і Ф /,M [ X iXj ] = Ki j = 0,
так как по условию случайные величины X,- взаимно некоррелироваиы и, следовательно, корреляционныіі момент Kij — 0 .
Подставляя эти значения в формулу (6.43), получим выражение для корреляционной функции случайной фупк-
Оции X (/), заданной разложением (6.39)
ГПк л ь > « - 2 (6.44)
I
Согласно одному из основных свойств корреляционной функции (§ 6.4) все случайные функции, отличающиеся друг от друга только произвольным неслучайным слагаемым, имеют одну п ту же корреляционную функцию, поэтому случайная функция
( 111 X (0 = тх (0 + X (0 = тх (0 + 2 Х ,ъ (Q, (6.45)
/ = 1
где tnx(() - неслучайная функция, имеет корреляционную функцию, определяемую формулой (6.44).
Математическое ожидание случайной функции, определяемой равенством (6.45), очевидно, равно mx (t):
М [X — (/).0
Значит, случайная функция X (/), определяемая равенством (6.39), является отклонением случайной функции X (/) от се математического ожидания.
Итак, случайная функция X (/), определяемая равенством (6.45), имеет математическое ожидание т х (I) и корреляционную функцию Kx (tu /•_>) определяемую равенством (6.44).
Представление случайной функции X (t) в виде суммы ее математического ожидания и взаимно некоррелированных элементарных случайных функций называется каноническим разложениемi случайной функции X (/). Случайные величины Xi называются коэффициентами канонического разложения, а неслучайные функции ot (/) — координатными функциями канонического разложения.
Выражение (6.44) называется каноническим разложением корреляционной функции.
233
Полагая в формуле (6.44) tx — tа, мы получим дисперсию случайной функции X (I)
т
D , = s Y i i W D , .i= I
Таким образом, зная каноническое разложение случайной функции X (/), можно сразу найти каноническое разложение ее корреляционной функции. Обратное тоже справедливо, а именно: если задано каноническое разложение корреляционной функции вида (6.44), то для случайной функции X (/) справедливо каноническое разложение вида (6.45).
Мы принимаем это положение без доказательства (см. [ 1 1 ).
Канонические разложения случайных функций очень удобны для выполнения различных операций над случайными функциями, особенно линейных. Эго объясняется тем, что в каноническом разложении случайной функции X ( 0 мы имеем дело только со случайными величинами, которые являются коэффициентами разложения. Зависимость же случайной функции X (/) от ее аргумента t выражается координатными функциями (/), которые являются вполне определенными неслучайными функциями. Поэтому выполнение различных операций над случайной функцией X (/) (например, дифференцирование, интегрирование и т. д.) сводится при помощи канонического разложения к соответствующим операциям над неслучайными координатными функциями (t), т. е. к обычным операциям математического анализа.
§ 6.10. СТАЦИОНАРНЫЕ СЛУЧАЙНЫЕ ФУНКЦИИ
В приложениях очень часто приходится встречаться со случайными процессами, которые протекают во времени приблизительно однородно и имеют вид непрерывных случайных колебаний вокруг некоторого среднего значения. Такие случайные процессы называются стационарными. Примерами стационарных случайных процессов могут служить: 1 ) случайные шумы в радиоприемнике, 2 ) колебание самолета на установившемся режиме горизонтального полета, 3) колебания напряжения в электрической сети и т. д.
‘234
В связи с тем, что стационарные случайные процессы часто встречаются при решении физических и технических задач, на практике получила широкое применение специальная теория стационарных процессов, или, иначе, теория стационарных случайных функций. Дадим точное определение стационарной случайной функции.
Стационарной случайной функцией называется такая случайная функция X (t), математическое ожидание которой постоянно, а корреляционно функция зависит только от разности аргументов, т. е.
тх ( 0 — const, К хУи Һ) = kx (х),где 'z — ti — ti.
Это так называемое определение стационарной случайной функции в широком смысле. Д ля теории, оперирующей только с математическими ожиданиями и корреляционными функциями, достаточно приведенного определения стационарности случайной функции в широком смысле.
Случайную функцию X (t) называют стационарной в узком смысле, если все ее многомерные плотности вероятности fn (x |, . . . , Х„, t ...........tn) при любом п зависят толькоот интервалов t* — tь /„— 1 \ и не зависят от положения этих интервалов в области изменения аргумента t.
Так как в большинстве случаев мы будем интересоваться только характеристиками случайной функции тх (t) и К х ( / ь / о ) , то в дальнейшем будем рассматривать только стационарные случайные функции в широком смысле.
Из определения стационарной случайной функции следует, что корреляционная функция стационарной случайной ф ун к ц и и я в л я е т с я ф ун к ц и ей не д в у х , а одной переменной. Это обстоятельство в ряде случаев значительно упрощает операции над стационарными случайными функциями.
На основании рассмотренных свойств корреляционной функции произвольной случайной функции (см. § 6.4) сформулируем основные свойства корреляционной функции стационарной случайной функции:
1 ) kx (0 ) = D X (/),
т. е. дисперсия стационарной случайной функции постоянна и равна значению корреляционной функции в начале координат;
2 ) М ~ ' ) = Ы ' ) .235
т. е. корреляционная функция стационарной случайной, функции является четной;
3) | M ^ M O ) = = A v (0 .Из свойств 2 н 3 следует, что график корреляционной функции симметричен относительно осп координат и расположен в горизонтальной полосе [— Dx (t)', Ол (/)].
На практике вмссго корреляционной функции kx (i) часто пользуются нормированной корреляционной ф ункцией
где Од. = kx (0 ) — постоянная дисперсия стационарного процесса. Функция {>х (-:) есть не что иное, как коэффи
циент корреляции между значениями случайной функции, разделенными интервалом - по времени. Очевидно, что P.V (0 ) = 1.
Рассмотрим примеры стационарных процессов.При мер 1 . Гармоническое колебание
Л” (/) = A cos (со/ - j- 9 ) = a cos м/ р sin со/является стационарным процессом.
Действительно, в примере 1 § 6 .6 мы показали, что математическое ожидание случайной гармоники равно пулю, а корреляционная функция имеет вид
А д - ( / | , /■_>) = -С М | A ' 1} c o s со ( / , — / , ) = з ; . c o s c m ,
т. е. зависит только от разности аргументов. График корреляционной функции представляет собой косинусоиду (рис. 73).
Заметим, что случайная гармоника с фиксированной начальной фазой 9 = 9.1 является уже нестационарным случайным процессом. В самом деле, если
X (/) — A cos (со/ - ~ 9 „),то
М [X (/)j = М [А \ соъ (со/ -j- 9у) ф const.
236
Пример 2 . Т елсграфпый сигнал (см. пример 2 § 6 .6) является стационарным процессом, так как математическое ожидание равно пулю, а корреляционная функция имеет вид
Кх (Л. t-i) — а-е~2}' ' , или k x (~) — d'e~-}- I'l.
График корреляционной функции имеет вид, показанный на рнс. 74.
В заключение этого параграфа отметим, что прп совместном рассмотрении нескольких ста- цио и а р 11 ы х с л у 11 а й п ы х функцйи необходимоучитывать возможную рцС. 74связь между отдельными случайными' функциями. Эта связь характеризуется взаимной корреляционной функцией.
Введем следующее определение: случайные процессы X (/) и Y (i) называются стационарно связанными, если их взаимная корреляционная функция
K x A h , U) =
= М{[Х ( / , ) - / / ! , ( / . ) } {Г {1*) — ту kx y {4) .зависит только от ^ = ti — /•>.
§ 6.11. ЭРГОДИЧЕСКОЕ СВОЙСТВО СТАЦИОНАРНОЙ СЛУЧАЙНОЙ ФУНКЦИИ
Пусть имеется произвольная случайная функция X (/). Требуется найти оценки для характеристик этой случайной функции: ее математического ожидания mx (t), дисперсии Dx (t) и корреляционной функции K x (tь /■>)• Д ля решения этой задачи нужно либо знать одномерную и двумерную плотности вероятности случайной функции X (t), либо располагать достаточно большим числом реализации этой случайной функции для того, чтобы иметь возможность подсчитать эти характеристики приближенно (например, заменяя математическое ожидание средним арифметическим для каждого значения случайной функции).
Большинство стационарных случайных функций обладает очень важным для практики эргодическим свойством,
сущность которого состоит в том, что по одной достаточно длинной, отдельной реализации можно судить о всех свойствах функции так же как по любому количеству реализаций.
Если стационарная случайная функция X (/) обладает эргодическим свойством, то для нее среднее по времени приближенно равно среднему по множеству реализаций (на достаточном большом участке наблюдения). То же будет верно и для X '1 (/), X (t) X (t -}- ■z). Следовательно, математическое ожидание, дисперсию и корреляционную функцию можно будет приближенно определять по одной достаточно длинной реализации.
Математически эргодическое свойство для указанных характеристик записывается в таком виде:
со 7
m x ( i ) — [ xji (х, /) dx — lim J r \ x ( t ) d t , (6.46)«> 7'-> со 11 Л.— оо — /
со
Дх- (0 = \ [х — тх [t) 1- U (х , 0 dx =- оэ
7
= lim [ [X(t) — mx {t)]-dtt (6.47)/ ' - C O - 7
о э с о
/г.х- СО = jj jj [х\ — m x {ti)]l-vo — tnx (/*)] X— CO - CO
7
X h ( X u X*\ tl, /,) dxi dx-i = lim ~ \ [x (t) — mx (/)] XГ —► со *1 _ y T
X [X (t -}- *0 — tnx (/)] dt, (6.48)
где x (t) - любая реализация случайной функции X ( t ) .Стационарные случайные функции могут обладать
свойствами эргодичности по отношению к моментам не всех порядков. Так. например, случайные функции могут быть эр годичны по отношению только к двум первым моментам, а по отношению к моментам высших порядков не являются эргодичными. Но так как для описания случайной функции мы пользуемся только математическим ожиданием и корреляционной функцией, то будем считать стационарную случайную функцию эргодичиой в том случае, если условие эргодичности выполняется для этих характеристик.
238
Не все стационарные функции обладают свойством эргодичности даже по отношению к моментам первого порядка. На рис. 75 приведены реализации стационарной случайной функции X (О, для определения математического ожидания которой мы не можем пользоваться осреднением значений одной реализации по аргументу t, ибо полученный результат будет зависеть от выбранной реализации и вообще иметь значение, отличное от математического ожидания случайной функции.
В частности, пеэргоднч-
т
пость случайного процесса может быть связана с нали- Рис. 7Ъчием в его составе слагаемогов виде обычной случайной величины. Действительно, рассмотрим случайную функцию
Z (/) = X (О -j- К, ((3.49)где X (О - стационарная функция, обладающая свойством
эргодичности, с характеристиками mx (t) и kx (-)\Y — случайная величина с характеристиками m v и D Y.
Предположим, что X (/) и Y иекоррелнрованы.Тогда т . (I) = tnx (О -j- ту, (6.50)
к г ( х ) = М [ Z (/) Z (/ т) | = М [ [ X (() -!- Y } Х
Х { Х (/ + -) -1- У) ] = k x (') -!- D v. (6.51)Из формул (6.50) и (6.51) видно, что случайная функ
ция 2 ( 0 является етлцпопирпон. Олняко она не обладает свойством эргодичности, так как каждая ее реализация будет по характеру отличаться от других. Именно, каждая реализация случайной функции Z (?) будет обладать тем или иным средним по времени значением в зависимости оттого, какое значение приняла случайная величина Y (рис. 76).
Об эргодичности или иеэргоднчиости стационарного случайного процесса можно судить по его корреляционной функции. Если корреляционная функция /гх (х) стремится к нулю при неограниченном возрастании ~ (корреляционная связь между значениями случайного процесса неограниченно убывает по мере увеличения расстояния между ними), то это является достаточным усло-
239
Уі
внем для того, чтобы случайный процесс X (t) обладал свойством эргодичности относительно моментов второго порядка (т. е. дисперсии и корреляционной функции). Рассмотренная случайная функция (G.49) имеет корреляционную функцию
М 0 = М 0 -г£у> т. е. она отличается от корреляционной функции стационарной случайной функции X (/) наличием постоянного слагаемого D v. В то время как корреляционная функция
zft) М О — 0 прп - — со ,функция к, (-) уже не стремится к нулю прп- — со , а приблнжает- ся к Dy.
П ример. Он р еде л ить, является ли эргодичиой случай 11 а я гар мопикаX (/) = A cos (со/-!-? ) =
= a cos ш/ - j- 'л sin со/.
Р е ш е н и е . В примере I § 6 и примере 1 § 10, определяя характеристики тх (() и kx (т ) как среднее по совокупности реализации, мы показали, что
тх ( / ) = 0 , 1гх ( т ) = <v c o s co t.
Найдем эти же характеристики как среднее по аргументу t для некоторой реализации, т. с. для некоторых фиксированных значений А = й \ и о =
т тm x (t) = lim ,jr \ х (()d(== lim ~ «і cos («о I -[-о \) dt =■
кР и с . 76
1 — с о • " I — 0 0Т - ' Г
I sill («.»* - f с ,): С(\ JIJT1
Т
кх (-) = lim rjy- ^ ci\ cos (со/ -]- 0 a, cos (<»/ -]- со- -]- ?,) dt~ * _! 7'
Г— lim Др {cos «от -j- cos ((от -j- 2 ю/ -j- 2 -р|)} г// =
7‘ — оо " «),
lim/ — со
COS (ОТ ■sin (L W -j hit • j • 2-:,) - sin ( 2‘ >7' -j- wi -}•• 2-r l )- ^
a\= COS COT.
- 7
2 1 0
Сравнивая полученные результаты, видим, что тх (/) = тх (/); кх (') ~ /г v (т).
Следовательно, рассматриваемая случайная гармоника по отношению к математическому ожиданию обладает свойством эргодичности, но по отношению к корреляционной функции этим свойством не обладает cos on -±
так как сһ — некоторое значение случайнойа] „ \-! COS сот I
величины.Этот же результат мы получим, если используем
сформулированное свойство эргодичности по корреляционной функции. Действительно, kx (-) — o% cos ют прп ~ -> оо пе стремится к нулю, а это значит, что случайная гармоника не обладает свойством эргодичности.
§ 6.12. СПЕКТРАЛЬНОЕ РАЗЛОЖЕНИЕ СТАЦИОНАРНОЙСЛУЧАЙНОЙ ФУНКЦИИ НА КОНЕЧНОМ ИНТЕРВАЛЕ
Спектральным разложением, некоторой функции называется представление ее в виде суммы гармонических колебаний, имеющих разные амплитуды и частоты. Зависимость амплитуды гармоники от частоты называется спектро:.i функции.
Рассмотрим, каким образом можно получить спектральное разложение стационарной случайной функции.
Пусть дана стационарная случайная фупк- * л'-і111цня X (/) па конечном интервале I— Т, Т\.Пусть А'Л. (-) — корреляционная функция случайной функции X (/)•При изменении■ t x и (> в интервале [— Т, Т\ разность t\ — /■) = ", очевидно, изменяется в интервале {— 27, 27’j. Поэтому в этом интервале н следует рассматривать корреляционную функцию к х ( ' ) .
Функция к х (х) есть четная функция:
м - о = м о >и следовательно, па графике она изобразится симметричной относительно вертикальной оси кривой (рис. 77).
Р и г . 17
Мы знаем, что четную функцию на интервале [— 27\ 2 Л можно разложить в ряд Фурье по косинусам:
СО
кх (т) = У) D,t cos (о* т, (6.52)к = 0
где-
(О/. == /гсо,; U), = ~ = т.р ,
а коэффициенты ряда определяются по известным формулам теории рядов Фурье:
27"
А> = 4^ kx (~) d~,~ - т
2 Т
Dk = 27; \ cos ~d~ ПРИ к ^ 0— 2 т
или, в силу четности корреляционной функции,о Т
Do = ^ . \ k , ( - ) d - . ,6
271 СD,, = f \ кх (-) cos со/, t dx.
и
Представив формулу (6.52) в видеСО
кх (ti — to) = У] Du cos щ {ti — to) =к = I)
С'Э= У] Dk (cos со,. /, cos O)/, to —J - sin tl sin со /j ti),
к =---- 0убеждаемся в том, что формула (6.52) дает каноническое разложение корреляционной функции стационарной случайной функции, координатными функциями которого являются попеременно синусы и косинусы частот, кратных COjI
cos<ok t, - s in со/.z1 (к — 0 , 1 , 2 , . . . ) .
Мы знаем, что по каноническому разложению корреляционной функции можно построить каноническое раз-
ложепие самой случайной функции X (/) с теми же координатными функциями:
X (/) = т х (/) -{- У] (Y cos о)А. t -j- Z !t sin со,, t), (6.53)/: ~ О
где Yu и Zu (к — О, 1 , 2 , . . . ) — взаимно некоррелированные случайной величины с равными нулю математическими ожиданиями, причем величины Y и Z k с одинаковым номером к имеют одну и ту же дисперсию Д .. Все коэффициенты Д , разложения (6.52) положительны.
Каноническое разложение (6.53) случайной функции X (/), координатными функциями которого являются функции coso),. /, sin о п р п различных (О/., называется спектральным разложением стационар ной слу чай нойфункции.
Спектральное разложение изображает стационарную случайную функцию, разложенную на случайные гармоники различных частот °\
(0], (0.1, Рис. 78
Определяем дисперсию случайной функции X (/), заданной спектральным разложением (6.53). На основании свойства дисперсии имеем:
оэ оэД , (/) = D [ X ( / ) ] = У] (cos- шк t -|- sill- (Од. /) Д . = у Д.,
А-О О(6.54)
т. е. дисперсия стационарной случайной функции равна сумме дисперсий всех случайных гармоник се спектрального разложения.
Формула (6.54) показывает, что дисперсия случайной функции известным образом распределена по различным частотам. Графически распределение дисперсий по частотам можно проиллюстрировать в виде так называемого спектра стационарной случайной функции (рнс. 78).
Очевидно, сумма всех ординат построенного таким образом спектра равна дисперсии случайной функции X (t).
В ряде случаев, с точки зрения простоты математических преобразований, удобно пользоваться спектраль
243
ным разложением не в действительной форме, а в комплексной. Поэтому представим спектральное разложение (6.53) случайной функции X (/) в комплексной форме. Воспользуемся формулами Эйлера;
2 //°’ 1.1 -J^lJ __ j € — € /v
Подставляя эти выражения в формулу (6.53) и учитывая, что wk — kuh, (о0 = 0 , получим:
ү / eJU)kl Л,X (t) = m , (/) -j- Y , -I- V I ү к ------- V/<-----------
кш= 1 '/ щ t — /о) . Л г-°
- /2»* -.= «, (/) + к. -!- У +Аг = 1
+ У - 4 -— (6.55)ftr=l
Положим Y -и — У I.-, Z-u — Z.); и распространим.условно область частот со* па отрицательные значения о>; в качестве частот спектрального разложения будем рассматривать значения
(оА = /го>, (/г = zlz 1, zh 2, dt 3 , . . . ).
Тогда формулу (6.55) можем записать так:
х (о= т , (о -|- к» -|- У *1^4 e'v -j- v M S '/ i ',
или
где
X (t) — mx (l) -|- V Ut cJ-V , (6.56)к = -* — с о
(J!. = Ү о прп /г = О,
U,, = - h ~ jZk при к О,
U при /г<^0.
214
Разложение (6.56) представляет собой каноническое разложение случайной функции /Ү (/) с комплексными координатными функциями и комплексными коэффициентами Uк- Чтобы убедиться в этом, достаточно показать, что случайные коэффициенты этого разложения не коррелировали между собой. (Доказательство этого услови я представляется читател ю).
Определим корреляционную функцию случайной функции /Ү (/), представленной в виде формулы (6.56). Пользуясь общим определением корреляционной функции комплексной случайной функции (6.14) для элементарной комплексной случайной функции U(f) = Uv(t), где случайная величина U и функция ? (/) — комплексны, будем иметь:
Ка (tu U) = м [Щ {to Щ Щ \=? (/.) Т Ш М 11 и И == ? (/,) ? (ti) D„.
Следовательно, корреляционная функция случайной функции X (/)> представленной каноническим разложением (6.56), выражается формулой
K A U , и ) = у т е 1"*'' е " -*'* =А' — ТО
•а> со
= k * - a o
или, переходя к аргументу ~ —со
k , ( ~ ) = У] Dt eJ“’k~. (6.57)
Выражение (6.57) представляет собой ряд Фурье функции kx (-) в комплексной форме. Поэтому, используя формулы коэффициентов ряда Фурье,имеем:
2 Г
D t — \ fix (") ' ik , где щ = J p ,— 21 '
пли, учитывая, что kx (~)— четная функция,1!/'
Dt = !> Du = 4р \ kx (х) cos (0А X dx. и
2 1 5
§ 6.13. СПЕКТРАЛЬНОЕ РАЗЛОЖЕНИЕ СТАЦИОНАРНОЙСЛУЧАЙНОЙ ФУНКЦИИ НА БЕСКОНЕЧНОМ ИНТЕРВАЛЕ. СПЕКТРАЛЬНАЯ ПЛОТНОСТЬ СТАЦИОНАРНОЙ СЛУЧАЙНОЙ ФУНКЦИИ
Спектральное разложение случайной функции на ограниченном интервале | — Т, 7’] дает только приближенное описание случайной функции. Более полное представление о случайной функции при ее спектральном разложении может быть получено при увеличении величины Т. Поэтому целесообразно вывести из формул предыдущего параграфа предельные формулы путем предельного перехода при Т —>оо. При Т -> оо (Oj = ~тр —> 0; это значит,что расстояния между частотами на которых строится спектр, будут при Т -* оо неограниченно уменьшаться, т. е. дискретный спектр разложения переходит в непрерывный и вместо дисперсии амплитуды гармоники каждой частоты следует рассматривать плотность дисперсии амплитуд на единицу частоты.
Рассмотрим отношение дисперсии амплитуды любойгармоники Dt/ к приращению частоты Aoj = a)1 = ^-, приограниченном Т. Отношение
К = ^ = 5 * г Н ) (0.58)
представляет собой среднюю плотность дисперсии на единицу частоты. Учитывая, что
2 7'I I*Dk = 2 f \ М О cos u)k -.dx
- 2 7
и До) = ^-., получим:
27
S x t (<*>а) — 4- kx (т) cos со/, zdx. (6.59)—27
Отсюда при Т -* оо (ш/; становится непрерывной величиной, поэтому индекс к опускаем) имеем:
ООS x (ш) ^ 1 k x (x )cosu-d- . (6.60)
— СО
246
Функция 5 Л- (<о) определяет плотность распределения дисперсии гармонических колебаний разложения в зависимости от частоты и поэтому называется спектральной плотностью стационарной случайной функции.
Спектральная плотность любой стационарной случайной функции является неотрицательной функцией со.
Действительно, в силу равенства (6.58), функция S xT(w/{) ^ > 0 для любого шЛ. Поэтому предел этой функции при Т -> со не может быть отрицательным.
Кривая S.v (со)(рис. 79) изображает плотность распределения дисперсий по частотам непрерывного спектра.
Распространяя условно область частот со и па отрицательные значения, из выражения (6.60) получим, что спектральная плотность является четной функцией, т. е.
S , (со) = S.V (— со).Найдем выражение, определяющее обратный переход
от спектральной плотности к корреляционной функции.Из выражения (6.58) имеем:
D u = S _ x j - І ш і і ) Д(0-Подставляя эти выражения в формулу (6.52), получим:
СО6.v (') = 2 S X J (со*) COS СОд, хДш.к =0
При переходе к пределу при Т -> со сумма переходит в интеграл. Получим:
СО
кх (х) = S x (со) cos cox dco. (6.61)'о
Так как S x (со) cos сох является четной функцией со, то на основании свойства интеграла от четной функции равенство (6.61) можно записать в виде:
Таким образом, корреляционная функция и спектральная плотность стационарной случайной функции X (t) связаны между собой следующими преобразованиями:
СО
j (6.62)
Эти выражения определяют прямое и обратное преобразования Фурье, которые являются обобщением разложения непериодической функции на бесконечном интервале па гармонические колебания.
Преобразования Фурье (6.62) можно записать в комплексной форме:
Так как е /шт = cos сот — / sin on, а функции 5 Л. (ш) и kx (т) являются четными функциями, то прп спектральном разложении стационарной случайной функции выражения (6.62) и (6.63) совершенно эквивалентны.
Полагая во второй из формул (6.62) и = 0 и принимая во внимание, что kx (Q) — Dx — a:*, получим:
т. е. интеграл от спектральной плотности равен дисперсии или квадрату среднего квадратического отклонения стационарной случайной функции. Соотношение (6.64) нашло весьма широкое применение при определении дисперсии пли среднего квадратического отклонения стационарной случайной функции.
Спектральную плотность случайной функции можно рассматривать как «энергетический спектр» случайной
СО
(6.63)
со
Dx = с' 5 , (о>) clо ) = S x (о>) d<-о, (6.64)и
функции. Это объясняется тем, что в качестве стационарной случайной функция часто рассматриваются такие величины, как ток и напряжение. Тогда распределение дисперсий, имеющих квадрат размерности амплитуды сигнала, пропорционально плотности распределения энергии сигнала по частотам.
На практике вместо спектральной плотности 5 Л. (<о) часто пользуются нормированной спектральной плотностью
где Dx — дисперсия случайной функции.Заметим, что нормированная корреляционная функция
P-v (“) 11 нормированная спектральная плотность зЛ-(со) связаны теми же преобразованиями Фурье:
Полагая в первом из равенств (6.65) т = 0 п учитывая, ч то рЛ (0 ) = 1 , и о л учим:
т. е. полная площадь, ограниченная графиком нормированной спектральной плотности, равна единице.
Пример 1. Рассмотрим телеграфный сигнал. В при-
рЛ. (-с) — ах (со) СОЯ сот с/м,о (6.65)
jj ах (со) (Һ — 1 ,
/гл- (т) —- его
Р е ш е и и е. Найдем спектральную плотность телеграфного сигнала, воспользовавшись формулой (6.63):
Разобьем этот интеграл на два:
S , H = ~
2 1 - j а
1 (2Х-/ш) " IIIе I
- (4А.-/Ы) - , .J1—00 2/. У W
1 , 1 ] _ 4 ? .а *
2?. — /о . І 2 1 -4- у со J г. (4 Х - - ] -
|о
(о-)График спектральной плотности телеграфного сигнала
изображен на рнс. 80. Он показывает, что наибольшее значение спектралыюіі плотности приходится на низкие частоты.
Пример 2 . Установить, является ли функ-
корреляционной функцией случайной функции /Ү (/).
Р е ш е н и е . Рассмотрим преобразование Фурье:СО СО
S V (ц>) = -1 ^ k (t) С iu>~ dl — — 0-с~ А ' ' COS О)0- (cos cot —— СО — СО
СО с о
— / sin cot) d- — J— ^ ^ I ' COScootCOScotdt— ^— CO — CO
X cos co0t sin cot dx.
Так как функция e~ л I ‘ 1 cos co t sin cot является нечетной, то
S COS <o0t sin cot dx = 0.
Функция c~ A i ' 1 cos co,)t cos cot — четная, следовательно
S x (со) = ~ e Лт cos co„t cos cot dx =U
СО ОЭ
— ~ e^~ cos (co0 -j- o)) t dx -j- -- e cos (u>0 — со) xdx —
~ “Г l°r]<!-•>.______
[Л- -j- (tou - CO?]
250
с <ш\ — ______ — ________ 1_______ — _______^ QлЧ г.|>.» + К + ш)=] ' - |).- -j- (о)0 — <о):] ^ U;
поэтому функцияk (-:) = а-е~ А 1 т ! COS о)0т
является корреляционной функцией.
Итак, функция
График функции S x (w) изображен на рис. 81. Из графика видно, что наибольшее значение спектральная плотность S x ( с о ) имеет при co = cd0 .
§ 6.14. ПРИМЕРЫ СТАЦИОНАРНЫХ СЛУЧАЙНЫХ ФУНКЦИЙ
В этом параграфе рассмотрим конкретные типы стационарных случайных функций и их характеристики.
1. Белый шум
Белым шумом называется случайный процесс с постоянной спектральной плотностью для всех частот от О до оо. Понятие «белый шум» аналогично понятию «белый цвет», который получается при равномерном смешении всех цветов видимого спектра. Д ля белого шума характерно равномерное распределение энергии сигнала по всем частотам от 0 до со. Реально такие процессы не существуют, так как энергия такого сигнала должна быть бесконечной, но понятие «белого шума» является удобной абстракцией для тех случаев, когда спектральная плотность сигнала примерно постоянна на всем интересующем нас диапазоне частот.
Пусть дана стационарная случайная функция X (/), спектральная плотность которой на интервале [шь оъ]
251
является постоянной п равна нулю вне этого интервала. В таком случае нормированная спектральная плотность аналитически описывается выражением
( О
О
прп (0 0>Г,
при (0, v j (!) -
прп (0 ^>(1Ь.
График нормированной спектральной плотности изображен па рнс. 82.
Найдем нормированную корреляционную функцию случайной функции X (/), воспользовавшись первой формулой (G. 65):
г:.) uj j
P.v ( ' ) = J С Л- (<») COS OK rfu> = ^ ^ COS doi
(sin ton - sin OJjt).!U| " ((03 -- trtj)
Посмотрим, как будет изменяться рх (т) при о», —> о.,:
Рх ( ' ) li in • (<»і — <•>,) (sin 0 > n — sin C!)j-)
= lim("
— j C O S I — ’l _ COS <■).,»<!);!
При пахождепііп предела M
1
мы использовали первый замечательный предел,. sill X т lim ----- = 1 ..V — 11 Л
Случайная функция, для которой корреляционная функция имеет вид (6.67), является синусоидой (см. пример 1 § 6 .6 ). Заметим, чтоесли о)| -> оь, то спектр случайной функции пре
вращается в дискретный с одной линией в точке «■>>.Пусть теперь o)t = 0. Тогда нормированная корреля
ционная функция (6 .6 6) принимает вид
со,Рис. 82
0-Һ и)
Рх (О lim ;to 2 - > ОЭ
Sill оът
График этой корреляционной фупкнп'и приведен на рнс. S3.
Есди Юл —► со, то мы получаем белый шум с нормированной корреляционной функцией
j" 1 прп т = О,\ 0 при -z ф 0 .
Для получения корреляционной функции белого шума умножим нормированную корреляционную функцию па дисперсию случайной функции X (t). Будем иметь:
D x прп т = ().М О ' 'О при х Ф 0.
Таким образом, для белого шума корреляционная функция везде равна нулю, кроме точки t = 0. Это означает, что для белого шума совершенно отсутствует связь между значениями случайной функции для любых значений аргументов t{ и U, если t\ Ф t*.
В заключение еще раз подчеркнем, что всякий реальный процесс, у которого спектральная плотность сохраняет постоянное значение в пределах некоторой полосы частот, определяемой характером задачи, может рассматриваться как белый шум.
2. Случайная функция с функцией
лиисиион корреляционно!!
k x ( ' ) =
Рассмотрим стационарную случайную функцию X (/), корреляционная функция которой па интервале от 0 до т0 является линейной функцией и имеет вид:
j D:. ( l — А-) прп 0 ^ т < т0,
{ 0 при ^ > - 0-График этой корреляционной функции приведен на
рис. 84.Линейная корреляционная функция может быть ис
пользована для аппроксимации быстро затухающей монотонной корреляционной функции.
253
Найдем спектральную плотность случайной функции X (t), использовав для этого первую формулу (6.62):
Этот интеграл представим в виде суммы двух интегралов, один из которых является табличным, а второй интегрируется по частям. Получим:
График S x (со) приведен на рнс. 85.Из формул (6 .6 8) и (6.69) видно, что при уменьшении
т0 корреляционная функция сжимается, а спектральная
плотность растягивается и, наоборот, при увеличении т0 корреляционная функция растягивается, а спектральная плотность сжимается.
3. Случайная функция с показательной корреляционной функцией
Рассматривая телеграфный сигнал, мы видели, что корреляционная функция имеет вид показательной функ-
СО
S x (со) — — ^ кх (т ) COS сот dо
^ k x (О COS сот d ■
— соЧ)
и
2(6.69)
кх т Sx (и)
Я 2ЛТо Т0
Рис. 85Рис . 84
254
Пии. Рассмотрим теперь случайный процесс X (/), корреляционная функция которого имеет вид
kx (х) = Dxe~ a'~2, (6.70)
т. е. является показательной функцией. Подобную корреляционную функцию имеют случайные процессы, обладающие тесной связью между значениями функции X (t), разделенными малым интервалом значения аргумента.
График функции (6.70) изображен на рис. 8 6 .. Найдем спектральную плотность случайной функции
X (/), использовав для этого первую формулу (6.63): \./<х (т)
со
S , ( « 0 = 4 j * , ( ’ )«•'*’ < < » Пі
со
И D e - d - =
CO
— e - as’s-**'dx. P u c . 8 6
Преобразуем показатель степени к полному квадрату:о о о О / ” J j ^ ~- а-,- _ /ш- = _ й--- - /«к - i y + ^ =
4а-
Тогда_ 3° / /а> 0)2
S .v (ш) = ^ Л' ^ * * / ” ^ ==— с о
(Оо С.° / . \“— jj е" ( я* 1 й?)
Применим замену переменной:
a~ - \ - J£ = t, откуда dx = -'-;dt
получим:
2 о о
Интеграл в этом выражепнм является интегралом Пуассона и равен У г., поэтому
0)2
= . (6.71)и} ~
Сравнивая формулы (6.70) и (6.71), мы видим, что в этом примере корреляционная функция и спектральная плотность выражаются через однотипные показательные функции. Поэтому график функции S x (to) имеет такой же вид, что и график функции кх (т).
§ 6.15. ПРЕОБРАЗОВАНИЕ СТАЦИОНАРНОЙ СЛУЧАЙНОЙ ФУНКЦИИ ЛИНЕЙНОЙ СИСТЕМОЙ
Ранее были рассмотрены общие правила определения характеристик случайной функции после линейного преобразования. Рассматривая каноническое разложение случайной функции, мы отметили, что задача линейного преобразования случайной функции сводится к задаче такого же линейного преобразования над неслучайными координатными функциями. Для стационарной случайной функ
ции задачу линейных пре- x it) [ ~ 1 образований удается еще
■----------->- более упростить.I I Пусть па вход линей-
noil динамической системы с постоянными параметрами (такую систему назы
вают стационарной линейной системой) поступает стационарная случайная функция, характеристики которой известны. На выходе системы получим случайную функцию, характеристики которой требуется определить.
Схема работы системы' условно изображена на рис. 87.
Работа линейно-динамической системы с постоянными параметрами описывается обыкновенным дифференциальным уравнением с постоянными коэффициентами, которое имеет следующий .вид:
а„ Y (/) + а,,-, ^ г Y «) + ••• + о.У (0 =
= ь я — X ( I) - j- ~ X (0 - j - . . . + ь л (I ) (6.72)
Рис. 87
2oG
или, если обозначить оператор дифференцирования через р,
Обозначая эти линейные операции через А п (р) и Вт (р), запишем выражение (6.73) в таком виде:
Наконец, условно разрешая уравнение относительно У (/), получим:
Отношение операторов В т (р) и А„ (р) называется перс- даточной характеристикой системы и обозначается ^ (р ) .
Ограничимся рассмотрением участков времени, достаточно удаленных от начала процесса, когда все переходные процессы в системе можно считать законченными и система работает в установившемся режиме.
В таком случае, если па входе линейной системы — стационарная случайная функция X (t), то па выходе системы получим случайную функцию Ү (/), которая будет также стационарной.
Так как координатные функции спектрального разложения стационарной случайной функции X (0 представляют собой гармонические колебания» то рассмотрим, как преобразуется линейной системой гармоническое колебание, заданное в виде
x ( i ) — d*‘.
Реакцию системы будем искать опять в виде гармонического колебания
где А — коэффициент, который следует определить.Подставив выражение для х (() и у (t) в уравнение
(6.72), получим:
{«пр" -г «п 1 р" 1 -г • • • ~г «о) У (0 == (Ь,пРт -!- Ьт-\Рт~л -!-••• ьп) X (0. ( 6 .73)
А п (р) У (/) = В,а (р )Х ({) . (6.74)
(6.75)
У (0 = 4 > (p )X ( t ) . (6.76)
у (/) = Ad**, (6.77)
btfd”*. (6.78)
*/:- 9 Г урС К ІІЙ 257
= (/“ )" г'“' '
А (ап (/ш)” ~һ ап- 1 (/(0)и 1 • • • Н- Л<0 —^ « ( / « Г + Ь»-! ( / м ^ + .- . + бо.
Отсюда, полагая, что Лп (/со) 92= 0, имеем:
Л = = % ^ = = Ф ( / а ) ) .Ия (7м)
Следовательно,у (t) — Ф (/оз) е/ш/.
Передаточная характеристика Ф (/?) при р — /со «язм- вается частотной характеристикой. Частотная характеристика Ф (/со) в общем случае является комплексной величиной.
Таким образом, если на вход линейной системы с постоянными параметрами поступает гармоническое колебание вида ем , то реакция системы представляется в виде того же гармонического колебания, умноженного па частотную характеристику Ф (/со).
Модуль частотной характеристики [Ф(/со)| является коэффициентом усиления амплитуды гармонического колебания с частотой со.
Соотношение между вещественной и мнимой частями частотной характеристики определяет сдвиг фазы гармонического колебания на частоте со.
Пусть теперь случайная функция X (t) представлена на интервале (О, Т) в виде спектрального разложения [см. (6.56)]:
со
х (о= пх + 2 £V V -Һ — — со
При прохождении через линейную систему каждый член этого разложения будет умножаться на частотную характеристику Ф (jay). (Математическое ожидание стационарной случайной функции X (t) будем рассматривать как гармоническое колебание нулевой частоты со = 0).
СО
К ( 0 = Ф(0) ш . , + 2 и* «>(/»*)«**' =It ==--- СО
= І ; и иФ и щ )е '"» ‘. (6.79)к — — со
Так как
то, сокращая выражение (6.78) на с1*1, получим:
258
Так как
Ф(0 ) = ^и0
ТО
Ф (0 ) т v = — т V = //г v.ао
Случайная функция Y (/) представлена в виде спектрального разложения (0.79).
Определим спектр этого разложения. Д ля этого найдем дисперсию- комплексной случайной величины і / кФ (/4 ):
D [и лФ ( /4 )1 = М [| и и ф (/4)1*1 = М и и к I* I ф (/to,) I-] = = |Ф (/(О*) ]- М [| а* И = I ф 0 4 ) I-D,.
Таким образом, при преобразовании стационарной случайной функции стационарной линейной системой каждая из ординат ее спектра умножается на квадрат модуля частотной характеристики системы для соответствующей частоты.
Переходя от разложения случайной функции X (Л па конечном интервале с дискретным спектром Dk к разложению на бесконечном интервале значений t с непрерывным спектром, аналогично можем записать:
т. е. при преобразовании стационарной случайной функции стационарной линейной системы ее спектральная плотность умножается на квадрат модуля частотной характеристики системы.
Итак, общий порядок решения поставленной в начале этого параграфа задачи следующий:
1 . Находим математическое ожидание на выходе системы:
2. По корреляционной функции кх (т) входной случайной функции X (/) находим спектральную плотность 5 Д. (to) сигнала на входе системы:
S y (to) == | Ф (/to) |- S.v (to)
(6.80)
(6.81)— СО
% 9
3. Находим спектральную плотность сигнала на выходе системы, умножая S x (со) па квадрат модуля частотной характеристики системы Ф (/to):
Sy («>) = IФ (/«>)|’г S x (w). (6.82)
4. Находим корреляционную функцию случайной функции на выходе системы:
СО
k v (-.) = ■}- ^ S y M e f ^ d t o . • (6.83)— со
Очень часто пас интересует только дисперсия сигнала па выходе системы. Тогда из формулы (6.83) при х — 0 получаем более простую формулу:
ОО
■ s ' » d<“— оо
или, учитывая четность функции,а)
Dy = \ Sy(v)d(o. (6.84)о
Пример. На вход линейной динамической системы, описываемой дифференциальным уравнением первого порядка
‘һ Ціг - -I-« » Ч г -+ ь"х W '
поступает случайная функция X (/) с математическим ожиданием тх и корреляционной функцией
kx {x) = Dxe ~ ^ i,
где а — положительны!! коэффициент.Найти математическое ожидание ту и дисперсию D v
на выходе системы.Р е ш е и и е. На основании формулы (6.80) находим:
Спектральную плотность сигнала на входе систем определяем, воспользовавшись примером 1 § 6.13:
2 D г*
Находим частотную характеристику системы Ф (/о>). Д ля этого записываем уравнение системы в операторной форме:
( « , р - [ - а») У ( 0 = ( h i p - j- £>„) А' ( / ) .
Отсюда (p — jisi)
Ф (/со) = = b iJa + ь° .
ТогдаЬ\о)" -]- //jФ (/.
Определяем спектральную плотность сигнала на выходе системы:
b-у- Ң 2 и х*s у («о — | Ф ( / о . ) 5 Л. (о») ==
Далее по формуле (6.84) находим дисперсию сигнала на выходе системы:
D v — —~ { -7 Ң ■ , ? „ (Іш.~ ') ц -ы - - j- cl- a~ - j- <<>*
iiЭтот интеграл может быть вычислен разложением
подынтегрального выражения на простые дроби. Произведя интегрирование, получим:
> v « и«1 (а«, + </„) ’
В опросы д л я с а м о п р о в е р к и
1. Какая функция называется случайной? П риведите примеры случайных функции.
2. Что назы вается реализацией случайной функции?3. Какая су щ ес тв у ет связь м еж ду понятием случайной функ
ции и понятием системы случайных величин?4. Каким образом м ож но дать описание случайной функции
с вероятностной точки зрения?5. Д айте оп ределения математического ож идания, дисперсии
и корреляционной функции случайной функции.6 Какая с у щ е с тв у е т связь м ежду д и спер си ей и корреляци он
ной функцией?7. Н азовите основные свойства корреляционной функции.8. Чем отличается нормированная корреляционная функция от
корреляционной функции?9. Д айте о п р еде лен и е корреляционной функции связи и ука
ж ите, что она характеризует .10. Какие преобразования случайных функций называются ли
нейными? П риведите примеры линейных преобразований.
у Гу реки fi 2 6 1
11. Ч ем у равны математическое ож идание и корреляционная функция от произведения случайной функции на неслучайную функцию?
12. Чему равны математическое ож идание и корреляционная функция производной от случайной функции?
13. Ч ему равны математическое ож идание и корреляционная функция интеграла от случайной функции?
14. Какая случайная функция называется элементарной?15. В чем заключается идея канонического разложения слу
чайной функции?1(5. Какая случайная функция называется стационарной? При
ведите примеры сіацпонарны х случайных функций.17. С ф орм ул ируйте основные свойства корреляционной ф у н к - ,
ции стационарной случайной функции.18. В чем заключается эргодическое свойство стационарных
случайных функций? Приведите примеры стационарных случайных функций, которы е обладают эргодическим свойством и которы е не обладают эргодическим свойством.
19. Что называется спектральным разложением функции?20. Какими преобразованиями связаны меж ду со б о й к о р р е л я
ционная функция и спектральная плотность стационарной сл уч ай ной функции?
21. Какой стационарный случайный процесс называется белым шумом?
22. Что называется передаточной характеристикой линейной системы?
23. Как пр еобр азуется стационарная случайная функция стационарной линейной системой?
У п р а о/с и с н и я.
1. Плотность вероятности f v (х, () случайной функции Л' (t) равна
(л- — a s in п -
где а и о — постоянные, причем з > . 0. Найти математическое о ж и дание и дисперси ю случайной функции X (t).
Отв . тх ( t ) = a sin D x ( t ) = r
2. Д вум ерн ая плотность вероятности Д (.v„ л г; t u t t ) случайнойфункции X (t ) равна
Найти: а) математическое ож идание и дисперси ю случайной функции X ({)', б) корреляционную функцию случайной функции X (t).
Отв. а) 0; с-; б) корреляционная функция / \ x ( t uпри t t — t« и I\x ( t j , Л.) = 0 при і у ф -t...
3. М атем атическое ож идание и корреляционная функция сл учайной функции X (t ) заданы выражениями
тх (t ) = t -j- 4; К х ( t u t 2) = t j *
2(52
Найти характеристики случайной функции
Y (t ) = Ы Х (t) - f 2.Отв. niy (t ) = 5 1~ -[- 201 -j- 2;
K v ( t lt ( , ) = 25 f j f j ; D v (t) = 251 \
4. Характеристики случайной функции X (t) заданы выражениями:
тх (t) = t - Л'д- ( t lt t s ) — е l ~x Ч
Найти характеристики случайной функции
} ' ( t ) = t s ‘1 ^ 1 — -М-. d t
Отв. m v {t) = 2 t \ I \ v ( t lt t .) = -\t-{t:}e l -\ D v — 4 t ee ~ 2ia-
5. Характеристики случайной функции X (t ) заданы вы раж ениями:
пгх (t ) = 4t - |- 5; /СЛ- ( t u t«) — cos t x cos t s.
Найти характеристики случайной функцииt
V( t ) = j jj X ( T ) d T + t.
Ошв. m y (t) — о t -{- 5; /Cv ( t h t„) — — sin t x sin t , \
. • ' w - 4 -6. На вход диф ф ер ен ц ир у ем о го механизма п оступает случайная
функция X ( t ) с математическим ож иданием тх (t ) = .1 sin / п корреляционной функцией
Кх (ti, к) = І)хе - а{' * - (і)а,где Д у — постоянная дисперсия случайной функции X (t). О п р е д е лить математическое ож идание и дисперси ю на выходе системы.
Ошв. Шу (£) = Л сиз t\ О у {£) — 2D x a.
7. На вход динам ической системы поступает случайная функция X (t ), характеристики которой известны:
тх (t) - 2</; Қ х ( t lt L ) = t j . / ' e 1-.
Работа системы описывается оператором вида
} {£) — ^ X (~) d~ -j- t~.
О пределить характеристики случайной функции Y ( t ) на выходе системы.
4 lit
К у t*) = щ : t l - *'* -i V ' 1 111 - - f t .
Отв. m v (t ) — t - -|- (<:’ - I);
9*
8. Случайная функция X (t) имеет пил
Л' ( t ) = X t ~ ,
где X — случайная величина с математическим ожиданием, рапным 2, и д исперсией , равной 1. Найти характеристики случайной функции X ( t ).
Отв. тх (t) — 21-; К х ( t u t 2) — (Щ.
9. Случайная функция X {t) задана выражением
X ( 0 = 2 4 Л\ t + X J 2,
где А', и X» — некоррелированны е случайные величины с математическими ожиданиями m X i = — 3, т Хл = 2 и дисперсиями D v = 2 , D Хп — 3. Найти характеристики случайной функции X (t).
Отв. тх (t ) = 2 — 31 2 t 2',К х { tu t s ) = 4 t xu -I- Щ і ц;
D x (t) — 21- -I- ЫК
10. Случайная функция X (t) задана каноническим разлож ением
X (t ) = cos t -j- X i -)■* X 2t -j- X 3t cos t -j- X'tt~,
Д исперсии случайных величин X lt X.z, Х л, Л', известны и со о т в ет ственно равны D I, D>, D z, D\- Найти математическое ожидание, корреляционную функцию и дисперсию случайной функции X (t ).
Отв. тх (t ) = cos t\К х ( t it t 2) — D i - f D$t] t* -j- D^t i t . cos 11 cos t 2 -j- D xt \ t l \
D x (t ) = D t + D J~ -\- D J - cos' t -j- D.xt \ .
И . Корреляционная функция K x { t u t s) случайной функции X (t) задана каноническим разложением
К х ( t u U) = 3 t xU - f t\t% -f- 5 t \ t \ .
Найти каноническое разложение центрированной случайной функ
ции X (t).П
Отв. X ( t ) = X {t -}- X nt- + A V \ причем D Xl = 3 , D х 2 = 1, D Хл = 5.
12. Случайная функция X (t) задана каноническим разл ожением
X (t) = t -f- X t cos 2 1 - f X s sin 21.
Д исперсии случайных величин X t н Л'2 известны н равны 2. Найти каноническое разложение и характеристики случайной функции
Y ( t ) = M X (t ) -\- 2t-.Ошв. У ( t ) — Ый 4 - 3A V cos 'It -]- ЗА' J sin 21\
m v (t ) — Ы-\ /Су ( t u t s ) — cos 2 (t . — t j);D y ( t ) = \ 8 t - .
13. На вход динамической системы поступает случайная функция X (t), заданная rt виде канонического разложения
А' (t) = 1 -j- л у -J- ХЛ- 4- л у а,
2Ш
причем D = 1, D Xa = D x — 2. Работа системы описывается оп ератором вида
Ү { і ) = 2 і Ц Р - + Ы \
Найти каноническое разл ож ен и е и характеристики случайной ф ун к ции X (£) на вы ходе системы.
Ото. У (£) = 3£- + 2X \ t - f А Х Г - + бX, t*;Шу (£) = 3£~;
К у ( t lt t 2) = 4 i t t i -{- 3 2 Щ -j- 72D y (£) = 4 t - + 3 2 ^ -(- 72*°.
14. Случайная функция X ( t ) задана каноническим разлож ением
X (t ) 1 -{- A i cos Myt -f- X. ‘ sin -j~ A;j cos мЛ -j“ A.i sin to t.
Известны дисперсии коэффициентов разлож ения D V = D V„ = 1 , D = D X — 2. Найти характеристики случайной функции А (г). Установить, является ли случайная функция X (£) стационарной.
Отв. mx ( t ) — I;К х ( t i , t s) — cos <->! ( t 2 — t i ) -[- 2 cos «о, (r2 — t ^; D x (t ) = 3;
X (t) является стационарной случайной функцией.
15. Нормированная корреляционная функция рЛ-(х) стационарной случайной функции A ( t ) з а д а н а . выражением
, ч ( 1 H P" I " I < 'о ,(-) = ' ‘0I 0 при | т ; 5 йт0.
Найти нормированную спектральную плотность ах («).2
О т в. ах (ы) = — -тг (1 — cosco70).
1G. Спектральная плотность 5 Л- (<») стационарной случайной функции X ( t ) задана выражением
P.V (' )
$х ('■')__ (I) *•Г D* ~ 4*
где а > 0. О п ре де ли ть корреляционную функцию кх (х).
Ото. 1:х (х) = У Ъ Х е ~ а~~.
17. Нормированная корреляционная функция рЛ. (х) стационарной случайной функции X { t ) имеет вид рЛ. (х) — с ~ а 1 х 1 cos <»„х, где и > 0. О пределить нормированную спектральную плотность av (w).
Отв. ах (to) = ~ — -j— ----- + , ~-г ---J .2“ l_a- -j- (« ■— <"(,)■ a ~ -{- (t0 ~{- (!,o)' J
18. Корреляционная функция /гл. (x) стационарной случайной функции задана выражением k x (~) = D x c ~ cos со0х, где а > . 0. О пределить спектральную плотность S x (<■*).
^ («) ч ) ц ) - ((О — ( О ,) )- "
Отв. S v (« ) == е 4* -j- 6' 1а-1 \ ~л
205
19. На вход инерционного зпена *, описываемого уравнением
в с т у п а е т стационарный сигнал с белым спектром (со спектральной плотностью S x — const на всех частотах от <о = 0 д о ш = со). Найти дисперси ю сигнала на выходе.
20. Работа динамической системы описывается уравнением у' U) Чу (t ) — х (t).
На вход системы поступает стационарная случайная функция X (t) с математическим ож иданием nix ( t ) = \ и дисперсией 1 ) х — 2. Нормированная спектральная плотность зЛ. (w) случайной функции А'(О постоянна на интервале частот [<•>,, <->.,] и равна пулю вне этого интервала. Найти математическое ож идание и дисперсию реакции системы У (О-
21. Работа динамической системы описывается диф ф еренциальным уравнением
На вход системы поступает стационарная случайная функция A ( t ) с математическим ожиданием тх = — 1 и дисперсией IJX — 1,5. Н ормированная спектральная плотность сх (ш) постоянна на интервале частот [м,; оь] и равна нулю вис этого интервала. Найти матем атическое ож идание и дисперсию реакции системы У (t).
22. Работа динамической системы описывается д иф ф ер ен ц иал ь ным уравнением
На вход системы поступает стационарная случайная функция A (t) с математическим ожиданием тх = 1 и корреляционной функцией к х (т) = e ~ J l TL Найти математическое ож идание и дисперси ю случайной функции У (t) на выходе системы.
* Инерционным звеном называется звено, у которого прп еди ничном ступенчатом воздействии па входе величина на выходе по экспоненциальному закону стремится к новому установивш емуся значению.
Отв.<- I о
Отв. m v ( t ) = • - ;
У' (О - f Ь ' (О = 4.v’ (t) -|- х (t).
Отв. m v (t ) = — -f>- ;
2з-' ( t ) + у (t) = 3 x (t).
9Отв. m v (t ) = 3; D v — -r- .О
23. Р абота динам ической системы описы вается дифференциальным уравнением
3 / (О + 2у (t ) = 2л- (О Зл- (t).
На вход системы поступает стационарная случайная функция X (t ) с математическим ож иданием тх — 1,5 и корреляционной функцией
кх {г) = 2е 3 .
Найти м атем атическое ож идание и д ис пер си ю реакции системы.
л /м 9 „ 89Отв. my (t ) = - j ; D y = ^=.
24. Работа динам ической системы описывается диф ф еренциальным уравнением
2 / ( t ) + { t) — х' (t ) - f З х {£).
На вход системы поступает стационарная случайная функция X (t) с математическим ож иданием тх — 1 и корреляционной функцией к х (~.) = 2 е ~ “ 1 ~ О пределить математическое ож идание и дисперсию сл)чайной функции на выходе системы.
О т в . шу (t) — 3; D y (t) = 4.
Г л а в а 7
МАТЕМАТИЧЕСКАЯ СТАТИСТИКА
§ 7.1. ПРЕДМЕТ МАТЕМАТИЧЕСКОЙ СТАТИСТИКИ
Математической статистикой называется наука, зани- мающаяся разработкой методов получения, описания и обработки опытных данных с целыо изучения закономерностей случайных массовых явлений.
Определение методов обработки опытных данных составляет одну из основных прикладных задач теорий вероятностей.
Все задачи математической статистики касаются вопросов обработки наблюдений над массовыми случайными явлениями, но в зависимости от характера измеряемо]; велнчі.шьк--ііелн измерения при обработке^результатов измерений эти з адачи могут принимать ту или "иную форму." Типичными задачами математической статистики," которые наиболее важны для нас по своим практическим применениям, являются следующие.
1 . Оценка на основании результатов измерений неизвестной функции распределения. Задача ставится так: в результате независимых измерений (испытаний) над случайной величиной X получены следующие ее значения; ДГр Л'о, . .. , х„.
Требуется приближенно оценить неизвестную функцию распределения Fx случайной величины /Ү.
2. Оценка неизвестных параметров распределения. Задача ставится так: случайная величина X имеет функцию распределения определенного вида, зависящую от k параметров, значение которых неизвестно (о типе функции распределения часто можно сделать достаточно определенное заключение на основании общетеоретических соображений). Требуется на основании опытных данных оценить значение этих параметров.
3. Статистическая проверка гипотез. Одна из основных задач статистической проверки гипотез ставится так: на основании некоторых соображений можносчитать, что функция распределения исследуемой случайной величины X есть F (х). Спрашивается: сов-
268
местимы ли наблюденные значения с гипотезой, что случайная величина X действительно имеет распределения Ғ(х).
В частности, если закон распределения исследуемой случайной величины X не вызывает сомнений и в проверке нуждаются только значения некоторых параметров, характеризующих распределение, то в задаче .спрашивается: не опровергают ли опытные данные ту гипотезу, что параметры закона распределения имеют предположенные значения.
В основе математической статистики лежит ряд исходных понятий, без предварительного ознакомления с которыми невозможно изучение современных методов обработки опытных данных. Остановимся на выявлении существа основных понятий математической статистики.
§ 7.2. ГЕНЕРАЛЬНАЯ СОВОКУПНОСТЬ И ВЫБОРКА
Пусть требуется исследовать какой-нибудь признак, свойственный большой группе однотипных изделий (например, размеры деталей данного типа, вес изделий и т. д.). Совокупность значений признака всех N изделий данного типа называется генеральной совокупностью. При этом предполагается, что число N в генеральной совокупности весьма велико. В некоторых случаях количество значений, образующих генеральную совокупность, можно мыслить и бесконечным. Например, прп измерении дальности до неподвижной цели мы можем получить сколь угодно много результатов измерений.
Па практике, одпако, сплошное обследование применяется сравнительно редко. Например, если совокупность содержит очень большое число изделий, то провести сплошное обследование физически невозможно. Тем более, если обследование изделий связано с их уничтожением (например, проверка электронного оборудования па продолжительность работы) или требует больших материальных затрат, то проводить сплошное обследование практически не имеет смысла. В таких случаях случайно отбирают из всей совокупности ограниченное число объектов (изделий) и подвергают их изучению.
Выборочной совокупностью, или просто выборкой. называют совокупность случайно отобранных объектов.
Таким образом, выборочный метод заключается в том, что из генеральной совокупности берется выборка
объема 11 (причем п N) и определяются характеристики выборки, которые принимаются в качестве приближенных значений соответствующих характеристик генеральной совокупности.
Чем больше п, тем более обоснованное суждение можно высказать на основе выборки о свойствах генеральной совокупности. Очевидно, что при п -> N выборочное распределение приближается к генералі ному. Отметим, что выборка дает наибольшую информациюо генеральной совокупности только в том случае, когда результаты обследований, составляющие выборку, я в л я ются независимыми.
§ 7.3. СТАТИСТИЧЕСКИЙ РЯД. СТАТИСТИЧЕСКАЯ ФУНКЦИЯ РАСПРЕДЕЛЕНИЯ
Предположим, что изучается некоторая случайная величина X, закон распределения которой неизвестен. С этой целью над случайной величиной X производится ряд независимых опытов (измерений). Результаты измерений представляют в виде таблицы, состоящей из двух строк, в первой из которых указываются номера измерений І, а во второй — результаты измерений х{:
І 1 2 3 4 а
Xi ■Vi л'л х 3 Л'4 х а
Таблицу, в которой содержатся номера ft результаты измерений, в математической статистике называют статистическим рядом. Статистический ряд представляет собой первичную форму записи статистического материала и может быть обработай различными способами. Одним из способов такой обработки является построение статистической функции распределения случайной величины X .
Статистической функцией распределения случайной величины называется закон изменения частоты события X<jc в данном статистическом материале:
Г*(х) = Р* ( Х < х ) .
Для того, чтобы найти значение статистической функции распределения прп данном ,v, надо подсчитать число
270
опытов, в которых случайная величина X приняла значения, меньшие, чем х, п разделить на общее число произведенных опытов.
Пример. Построить статистическую функцию распределения ошибок 2 0 измерений дальности до цели с помощью дальномера. Результаты измерений сведены в статистический ряд:
І 1 2 3 • 4 5 6 7 8 9 10
x it м 5 - 8 10 15 3 — С — 15 20 12 15
І 11 12 13 14 15 16 17 18 19 20
x h м — 4 - 2 20 14 - 8 - 1 2 16 10 - 5 18
Р е ш е н не. Так как наименьшее наблюдаемое значение — 15, то Ғ* (— 15) = 0. Значение — 15 наблюдается один раз, его частота
1равна щ , следовательно, в точке — 15 Ғ* (х) имеет скачок,
.. 1 0 равный gy • В промежутке от — 15 до — 1 2 функция Ғ* (х)
1имеет значениев точке — 1 2 функция Ғ* (х) имеет тоже
.. 1скачок, равный ^ ,ибо значение — 12 наблюдается один раз. В промежутке от
2— 12 до — 8 функция Ғ* (л') имеет значение gg , а в точке — 8
9происходит скачок па ;Э, так как значение — 8 наблюдаетсядважды п т. д.
График функции F* (х) для данного примера приведен на рис. 8 8 .
Статистическая функция распределения любой случайной величины (прерывной или непрерывной) представляет всегда прерывную ступенчатую функцию, скачки которой соответствуют наблюдаемым значениям случайной величины и по величине равны частотам этих значений.
1 F (X)
/
1—П ; 11
Г1 і' мJ , J ! I
«ггГг—1 1 1 1
г— Г І 11 |,— < 1 111 1
....... 1_ -1—J—LXJ !
_f"l1 | 1 1 1 1 1 1 1 1 1 1
j 1 1 1 1 I | м и м 1 1 и 1 1 11 1 1 11 1 11 ( 1 1 I I M i l l
~15 -12~1д~1* ~2 0 3 5 1012 15’.8 2 0 £
Рис. 88
Согласно теореме Бернулли при неограниченном увеличении числа опытов п частота события Х < ^ х сходится по вероятности к вероятности этого события. Это значит, что статистическая функция распределения Ғ* (х) при увеличении п сходится по вероятности к подлинной функции распределения Ғ (х) случайной величины X.
Следует заметить, что при большом числе опытов п построение статистической функции распределения Ғ* (х)— очень трудоемкая операция, поэтому часто бывает удобно пользоваться другими характеристиками статистических распределений, аналогичными не функции распределения Ғ(х), а плотности вероятности /(*).
§ 7.4. СТАТИСТИЧЕСКАЯ СОВОКУПНОСТЬ. ГИСТОГРАММА
При большом числе наблюдений представление результатов наблюдений в виде статистического ряда бывает затруднительным, а при решении многих задач и нецелесообразным. В таких случаях производят подсчет результатов наблюдений, попадающих в определенные группы, и составляют таблицу, в которой указываются группы и частота получения результатов наблюдений в каждой группе.' Совокупность групп , на которые разбиваются результаты наблюдений и частот получения результатов наблюдений в каждой группе, называют статистической совокупностью .-В качестве примера построена статистическая совокупность ошибок 10 0 измерений дальности с помощью радиодальномера:
Группы, М -2 0 ;-1 5
— 15; -1 0
-10 ;—5 - 5 ; 0 0; 5 5; 10 10; 15 15; 20
Число ошибок в группе 2 S 17 24 26 13 6 4
Частота 0,02 0,08 0,17 0,24 0,20 0,13 0,06 .0,04
Из примера видно, что статистическая совокупность образуется из статистического ряда путем деления его на группы по некоторым признакам и подсчета чисел и частот измерений в каждой группе.
Заметим, что если при группировке наблюдаемых ■■'значений имеем значение, которое в точности лежит на грз-
272
нице двух групп, то следует прибавить к числам пц•• ’ Г ТІодной п другой групп по -9- . Что касается числа групп,
таким образом,оыли хорошо обозримы
*Pi
чтобы и со
то их количество выбирается результаты измерений держали достаточно большее количество сведений.
Графическим изображением статистической совокупности является так называемая гистограмма.Гистограмма строится следующим образом: по оси абсцисс откладываются интервалы, соответствующие группам совокупности, и па каждом из них, как на основании, строится прямоугольник, площадь которого равна частоте данной группы. Из способа построения гистограммы следует, что полная площадь ее равна единице. ,
В качестве примера построим гистограмму статистической совокупности ошибок 10 0 с помощью радиодальномера (рис.
измерении89).
дальности
Очевидно, что если точки гистограммы соединить плавной линией, то эта л}шня в первом приближении будет представлять график плотности вероятности случайной величины /Ү. При этом, если число опытов увеличивать и выбирать более мелкие группы в статистической совокупности, то гистограмма будет всеболее приближаться к плотности вероятности случайной величины.
Пользуясь данными статистической совокупности, можно приближенно построить и статистическую функцию распределения случайной величины X. Д ля примера построим приближенно статистическую функцию распределения ошибок 10 0 измерений дальности с помощью радиодальномера. В качестве точек осп Ох для вычисления Ғ* (х) возьмем границы ,vlt лг2, . . . групп, которые фигурируют в статистической совокупности. Тогда будем иметь:
F * (— 20) = 0; Г* (— 15) = 0,02; /«*(— 10) == 0 ,0 2 -1-0,08 = 0 , 1 ;
р* (—5) ^ 0,27; Ғ* (0) = 0,51; Ғ* (5) = 0,77; Ғ* ( 10) = 0,9; Ғ* (15) = 0,96; Ғ * ( 2 0 ) = \ .
Приближенный график статистической функции распределения дан на рис. 90.
§ 7.5. ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ СТАТИСТИЧЕСКОГО РАСПРЕДЕЛЕНИЯ
Закон распределения случайной величины представляет собой некоторую функцию, указание этой функции полностью описывает случайную величину с вероятностной точки зрения. Однако прп решении многих практических задач нет необходимости характеризовать случайную величину исчерпывающим образом, а достаточно указать только отдельные числовые характеристики, которые характеризуют существенные черты распределения случайной величины. Основными числовыми харатернстн- ками случайной величины является математическое ожидание и дисперсия. /Математическое ожидание характеризует среднее значение, около которого группируются возможные значения случайной величины, а дисперсия характеризует степень разбросанности этих значений относительно среднего.
Аналогичные числовые характеристики существуют и для статистических распределений. Аналогией математического ожидания случайной величины X является среднее арифметическое наблюдаемых значений случайной величины
П
г * : VI__1
27-1
где Xi — значение случайной величины, наблюдаемое в i-м опыте,
п — число опытов.Эту характеристику называют статистическим средним
случайной величины.Прп большом числе опытов среднее арифметическое
наблюдаемых значений случайной величины приближается (сходится по вероятности) к ее математическому ожиданию и может быть принято приближенно равным математическому ожиданию.
Аналогией дисперсии случайной величины X является статистическая дисперсия, которая определяется следующим образом:
П
где Xi — значение случайной величины, наблюдаемое в (-м опыте;
п — число опытов; ni* = М* [Л] — статистическое среднее.
Аналогично определяются статистические начальные и центральные моменты любых порядков:
п2 А
л г* [х * з= ,
2 (л'і - mt)*М* ЦХ - mj)‘ 1 = — -— ------------ .
Заметим, что прп увеличении числа наблюдений все статистические характеристики будут сходиться по вероятности к соответствующим числовым характеристикам случайной величины и при достаточном п могут быть приняты приближенно равными им.
§ 7.6. СВОЙСТВА ТОЧЕЧНЫХ ОЦЕНОК
Рассмотрим следующую общую задачу. Имеется случайная величина X, закон распределения которой содержит неизвестный параметр а. Требуется па основании опытных данных найти подходящую оценку параметра а.
Обозначим через' Хь Хо, Хя (7 1)
наблюдаемые значения случайной величины X в результате проведенных п независимых опытов. Пусть величина а, вычисленная на основе материала (7.1), является оценкой параметра а. Это значит, что а является функцией величин Х ь Хо, Х п:
а = а ( Х ь Хо, . . . , Х„).Кроме того, наблюдаемые значения Х ь Х2, . . . , Х п
следует рассматривать как случайные величины, каждая из которых распределена по тому же закону, что и случайная величина X. Поэтому а является тоже случайной величиной, закон распределения которой зависит, во-первых, от закона распределения случайной величины X, во-вторых, от числа опытов п. Д ля того чтобы оценка а имела практическую ценность, она должна обладать следующими свойствами.
1. Несмещенность оценки. Различают оценки смещенные и несмещенные. Смещенными называются оценки, математическое ожидание которых не равно оцениваемому параметру:
М [а (Хь Хо, . . Х„)] а .Несмещенными называют оценки, для которых выполняется условие
М [ й ( Х ь Хо, Х я)] = а.Естественно в качестве приближенного неизвестного параметра брать несмещенные оценки, для того чтобы не делать систематической ошибки в сторону завышения или занижения.
2. Состоятельность оценки. Оценка a ( X b X.., . . . , Х п) для параметра а называется состоятельной, если она сходится но вероятности к оцениваемому параметру при неограниченном возрастании числа опытов п, т. е.
lim Р [ \ а (Xj, Х 2, Х„) — а | < в] = 1 , (7 .2 )п со
где г — сколь угодно малое положительное число. Для удовлетворения требования (7.2) достаточно, чтобы дисперсия оценки стремилась к нулю при п —>оо, т. е. чтобы выполнялось условие
lim D [a (Х„ Хо, . . . , Х„)] = 0 (7.3)
276
и, кроме того, чтобы оценка была несмещенной. От формулы (7.2) легко перейти к выражению (7.3), если воспользоваться неравенством Чебышева.
Итак, состоятельность оценки означает, что при достаточно большом количестве опытов п со сколь угодно большой достоверностью отклонение оценки от истинного значения параметра меньше любой наперед заданной величины.
Очевидно, такому требованию должна удовлетворять всякая оценка, пригодная для практического использования.
3. Эффективность оценки. Оценки, обладающие свойством несмещенности и состоятельности, при ограниченном числе опытов могут отличаться дисперсиями.
Совершенно очевидно, что чем меньше дисперсия оценки, тем меньше вероятность грубой ошибки прп определении приближенного значения параметра. Поэтому необходимо, чтобы дисперсия оценки была минимальной, т. е. чтобы выполнялось условие
D\ a( X[ , X о.........X„)] = Dmin.Оценка, обладающая таким свойством, называется эффективной.
При выработке практических методов обработки опытных данных с целью получения оценок, принимаемых в качестве приближенных значении искомых параметров, необходимо руководствоваться сформулированными свойствами оценок.
§ 7.7. ОПРЕДЕЛЕНИЕ ПРИБЛИЖЕННОГО ЗНАЧЕНИЯ ИЗМЕРЯЕМОЙ ВЕЛИЧИНЫ И ПРИБЛИЖЕННОГО ЗНАЧЕНИЯ ДИСПЕРСИИ В СЛУЧАЕ ПРЯМЫХ РАВНОТОЧНЫХ ИЗМЕРЕНИИ
Определить приближенное значение измеряемой величины X — это значит произвести оценку математического ожидания величины X . При этом, если измеряемая величина X постоянна, то оценка для тх есть приближенное значение истинного значения измеряемой величины, а если измеряемая величина случайная, то оценка для тх есть приближенное значение математического ожидания измеряемой случайной величины.
Необходимость получения по опытным данным приближенного значения дисперсии возникает в связи с опре
делением характеристики точности прибора или характеристики рассеивания измеряемой случайной величины.
Пусть имеется случайная величина X с математическим ожиданием тх и дисперсией Dx\ оба параметра неизвестны. Требуется па основании опытных данных найти состоятельные и несмещенные оценки этих параметров.
Обозначим через Л'ь X з, Х п значения случайной величины X , наблюдаемые в результате проведенных п независимых равноточных измерений, т. е. измерений, которые проводились в одинаковых условиях. Обычно считают эти условия выполненными, если измерения проводились одним прибором.
Естественно в качестве оценки для математического ожидания принять среднее арифметическое наблюдаемых значений, которые мы обозначили через
т ■ nix
Покажем, что эта оценка является состоятельной и несмещенной. Действительно, согласно закону больших чисел,
lim Р.
п -
2I . 1I — 1
n x_
1
Это значит, что т = т% является состоятельной оценкой. Оценка т = т% является также п несмещенной, ибо
М [ш] = Мл іі I
til.
(наблюдаемые значения А',, Х>, . . . , Х п рассматриваем как случайные величины, каждая из которых распределена но тому же закону, что и случайная величина X).
Перейдем к оценке для дисперсии Dx. Возьмем статистическую дисперсию и проверим ее на состоятельность н несмещенность.
Статистическая дисперсия имеет вид
2 (Xi III)-
D% (7.4)
278
где
V ,v .
Преобразуем выражение (7.4) к другому виду:п п
У] (Xi — I'll)- 2 j (а ’<: — 2A'iill ■ I' in'-)D i = , : д | ---------= i---------- --------------=
S Ai 2 « v А,- V v V x i____ i : 1 І 1 j І : J / I ~ ,r-*— r — - - = — ------- //r. (/.G)
т = . (7.5)
n tl 1 // /ІПервый член в правой части равенства (7.G) представляет собой среднее арифметическое п наблюдаемых значений случайной величины Х~, следовательно, он сходится по вероятности к М [Л'-j. Второй член п г сходится по вероятности к т%. Это значит, что вся правая часть равенства (7.G) сходится по вероятности к величине
Д/ [А'-] — m ; = Dx.Следовательно, статистическая дисперсия Dx является состоятельной оценкой дисперсии D v.
Проверим теперь, является ли оценка DA- также и несмещенной. Для этого в фо|)мулу (7.6) вместо in подставим его выражение нз формулы (7.5) и произведем у к аз а н и ые де ii ств и я :
П ! ■■I \ “ « пv X } I V AV \ V А? 2 АІ
D I = — --------- '• — j = — — - — — 4--------II II I U ІГ2 ^ X iX J 4
— V Х і — 'І V X j X - . (7.7)il- n- t : J ' >II' II"i I * < j
Так как дисперсия Dx не зависит от того, в какой точке выбрать начало координат, то выберем его в точке тх и найдем математическое ожидание величины (7.7). Получим:
П2 V
У. i M f X f ] - - - V. M[ X , X j ] =II-1 i < j
п — I V гл 2 V Г' - оч— > Dv------> Kx.x.. {/ .8)"- и i 7 ' ’i I
27!)
Из независимости опытов следует, что Қ х .х . — 0, поэтому равенство (7.8) принимает вид:
Отсюда видно, что статистическая дисперсия Dx не является несмещенной оценкой для дисперсии Dx, ее математическое ожидание не равно Dx, а несколько меньше.
лучим оценку для дисперсии Dx, обладающую свойством несмещенности, ибо
будет также и состоятельной.Таким образом, если в результате проведенных п неза
висимых измерений случайной величины X с неизвестным математическим ожиданием тх и дисперсией Dx получены значения
то для определения этих параметров следует пользоваться следующими приближенными оценками:
Заметим, что в качестве оценки для дисперсии случайной величины X с известным математическим ожида-
AI[DS1 = D , . (7.9)
Однако если умножить величину D% на , то мы по-
Так как множитель стремится к единице при п ->оо,то оценка
П
11 п
ГП = D = - - 1п
И Л И
/ \
(7.10)
280
иием тх необходимо брать статистическую дисперсиюИ
В этом случае статистическая дисперсия удовлетворяет условию несмещенности и состоятельности (проверка этих условий предлагается читателю).
Определение приближенных значений математического ожидания тх и дисперсии Dx случайной величины X по формулам (7.10) иногда приводит к громоздким вычислениям, поэтому на практике целесообразно использование формул
t № - “) л . * =*= 1 I „
п Г V' ' 1 1 /2 (Л',- - ")*
D = " .!—!------------------(т — аҮ ,п — 1 п 4 '
которые при умелом подборе числа а значительно облегчают обработку статистического материала. Заметим, что формулы (7.11) простыми преобразованиями приводятся к формулам (7.10).
Пример. Через каждый час измерялось напряжение тока в электросети. Результаты измерений в вольтах представлены в виде статистического ряда:
І 1 2 3 ■1 • 6 7 N 9 Ш 11 12
xi , и 9 ) 0 219 221 220 218 217 221 220 215 218 223 225
* 13 м 1Г> и; 17 IS 10 2. 22 за 21
X i, в 220 226 221 216 211 219 220 221 222
со 221 219
Найти оценки для математического ожидания и дисперсии результатов измерений.
Р е ш е н и е . Оценки для математического ожидания и дисперсии найдем по формулам (7.11), положив а = 22G. Все необходимые вычисления приведены в следующей табли це:
281
І .V. — (I 1 ( x . - a f.< .V- — п ( х . - а у
'X. - -І 1 (x i ~ a )-
1 4 9 —5 25 17 1 1о — 1 1 10 _•> 4 18 - 1 13 4 10 11 3 9 19 0 04 0 0 12 5 25 20 1 15 _ 2 4 13 0 0 21 2 46 - 3 9 14 0 3G 22 _2 47 1 1 15 1 1 23 1 18 0 0 10 - 4 16 24 — 1 1
С умма 1 35 4 116 1 13
Следовательно,ai2 ( . с , - 2 2 0 )
----------Ь 220 = 220 = 220,25 (в),
2 (.V, — 220)=І ~ I_________
24(220,25 — 220)- 7,06 (<г).
§ 7.8. ОПРЕДЕЛЕНИЕ ПРИБЛИЖЕННОГО ЗНАЧЕНИЯИЗМЕРЯЕМОЙ ВЕЛИЧИНЫ В СЛУЧАЕ НЕРАВНОТОЧКЫХ ИЗМЕРЕНИЙ
Рассмотрим определение приближенного значения математического ожидания тх некоторой величины X по не- равпоточиым измерениям, т. е. по измерениям, каждое из которых характеризуется своей величиной рассеивания.
Пусть мы имеем серию Х ь Х>, . . . , Х п независимых измерений одной и той же величины X , дисперсии которых соответственно равны с;.., а;.
Требуется по результатам измерений найти оценку т, удовлетворяющую свойствам несмещенности, состоятельности п эффективности.
Искомая оценка Гп является функцией результатов измерений, т. е.
Гп = /Һ (AY Х.>, . . . , Х„).Известно, что наиболее простой функциональной зави
симостью является линейная зависимость. Поэтому будем искать нужную нам функцию в виде
ill = С,А', -І С,X., - j - . . . -I- С„Х„ = v С ,х„ (7.12)І J
282
где Си С,, Сп — некоторые постоянные коэффициенты, которые следует определить таким образом, чтобы оценка (7.12) удовлетворяла условию несмещенности и обладала наименьшей дисперсией.
Условие несмещенности выполняется, если
Так как результаты измерений /Үь Хо, Х п не имеют постоянной погрешности, то
/VI [X/] — тх (І — 1, 2, . . . , п).
Следовательно, чтобы оценка Гп удовлетворяла условию несмещенности, необходимо выполнение равенства
Теперь будем выбирать коэффициенты С,- ( / = ! , 2, .. . . , п) так, чтобы дисперсия оцепкн (7.12) была минимальной, т. е. чтобы оценка Гп была эффективной. Дисперсия оценки Гп, согласно свойству дисперсии, равна
Исследуем выражение (7.14) па минимум. Ввиду того, что на коэффициенты С/ уже наложено условие (7.13), исследуем выражение па условный минимум, применяя метод множителей Лагранжа.
Составляем функцию Лагранжа:
Приравняв правую часть пулю и решив полученное уравнение относительно С;, находим:
М[Гп\ = М У) С і Х і = У і СіМ[Х;] = тх .і -= 1 .J і== 1
£ С , = 1 . (7.13)
г- П -I ПD [ m ) — D У \ CiXi = У ;CJD[X, ] . (7.14)
.1 = 1 _ i -|
283
Обозначая ■ g i , будем иметь:
Ci = '-gi.
Подставив найденное значение Сг- в равенство (7.13), получим:
Отсюда
Следовательно,
Х * * « = * 2 в , = і . i = 1 / = 1
1
2 аi = 1
Ci — >~gi = - p —
2 й
Подставив полученное значение Сг в формулу (7.12), будем иметь:
т =
£
2Si v __ 1X/. (7.15)
Проверим теперь, является ли оценка m также и состоятельной. Для этого найдем дисперсию величины т.
D [m] — D2 &Хі
І = 1 1tl / n \
rr.L » j f e *
IX ,],
но (согласно обозначению)
D[Xi]gi ’
поэтому
Поскольку ряд v g. при п —> оо расходится (не выпол- i~ \
няется необходимый признак сходимости ряда), то при п ^ о о D [/7г]->0. Это значит, что функция Гп, определяемая выражением (7.15), является состоятельной оцен- кой тх.
Таким образом, оценка
£ е,х,
2 */ 1
для математического ожидания тх измеряемой величины X прп неравноточных измерениях обладает свойствами несмещенности, состоятельности и эффективности.
Величину
принято называть весом І-го измерения.Из выражения (7.16) видно, что чем больше диспер
сия , тем меньше вес g ( результата измерения X/.Пример. Производились измерения специальной меры
длины. Результаты измерения приведены в следующей таблице:
Порядковый Л'.- измерения
От к.'.онсннс от номинального размера, мы
Прибор «V 1 Прибор .V' 2 Прибор Х* 3 Прибор .V; 4
1 10,3 10,8 У,9 11,32 10,5 1 1,2 10,6 11,13 10,7 10,4
• Сумма 120,8 32,7 20,5 32,8
При этом известно, что дисперсии погрешностей измерений на применявшихся приборах имели следующие значения в МК1'.
cj-= 0 ,32 ; о.] = 0 ,25 ; с;; = 0 ,50 ; з| = 0 ,16.
Требуется оценить отклонение действительного размера меры от номинального ее размера.
285
Р е ш е н и е . Мы имеем 10 результатов измерений, которые получены на четырех различных приборах. Поэтому некоторые измерения имеют одинаковые дисперсии.
Применяя формулу (7.16), найдем вес каждого измерения:
_ 1 . __ I& £ч 0,50 ’ ~ ^ 10 “ 0,16 ’
Их сумма:
V — A I J L _ l _ L _ i _ _ L _ 4 1b‘ ~ 0,32 f 0,32 1 0,50 1 0,16
Поэтому на основании формулы (7.15)
20,8 • ~ + 32,7 • J j l -}- 20,5 • -|- 32,8 • ~0,32 0,2о 0,э0 0,lb . Л гпт — -----------------------1 ^ ---------1-------------- — 10,67.
§ 7.9. ДОВЕРИТЕЛЬНЫЙ ИНТЕРВАЛ. ДОВЕРИТЕЛЬНАЯ ВЕРОЯТНОСТЬ
Оценки, которыми мы до сих пор занимались, называются точечными, так как они указывают точку па числовой оси, в которой должно находиться значение неизвестного параметра. В ряде задач требуется не только найти для параметра а подходящее числовое значение, но и оценить его точность и надежность. Такого рода задачи очень важны при малом числе наблюдений, так как точечная оценка а в значительной мере является случайной н приближенная замена а па а может привести к серьезным ошибкам.
Для определения точности оценки а в математической статистике пользуются доверительными интервалами, а определения надежности — доверительными вероятностями. Раскроем существо этих понятий.
Пусть для параметра а получена из опыта несмещенная оценка а. Требуется оценить возможную при этом ошибку. Задаем некоторую вероятность р (например, = 0,9) н находим такое значение г 0, для которого
Р( \ а — а | < е ) = р. (7.17)
286
Равенство (7.18) означает, что неизвестное значение параметра а с вероятностью 3 попадет в интервал
/ р(а — е, r t - f e ) . (7.19)
Заметим, что здесь неизвестное значение параметра а является неслучайной величиной, а интервал I является случайной величиной, так как полож ение’'интервала на осп зависит от случайной величины а (центр интервала), длина интервала 2г тоже в общем случае является случайной величиной. Поэтому в данном случае вероятность 3 лучше толковать не как вероятность попадания точки а в интервал ^а как вероятность того,что- случайный ннтер- ___ f вал /ч накроет точку 0 а-е(рис. ‘91).
Интервал 1{1 называется доверительныминтервалом, а вероятность 3 — доверительной вероятностью, т. е. доверительной вероятностью или надежностью 3, соответствующей данному доверительному интервалу /,, называется вероятность того, что истинное значение параметра лежит в этом интервале.
В качестве примера рассмотрим задачу о доверительном интервале для математического ожидания.
Пусть произведено п. независимых опытов над случайной величиной X с неизвестными математическим ожиданием тх и дисперсией Dx. На основании опытных данных для этих параметров построены оценки:
Представим (7.17) в видеР (a. — &<^и<"'а -|- s) = 3. (7.18)
Г а
Гиг. 91
п — 1
Требуется построить доверительный интервал /,, соответствующий доверительной вероятности 3, для математического ожидания случайной величины X.
Так как величина Гп представляет собой сумму п независимых одинаково распределенных случайных величии Xi, то согласно центральной предельной теореме ее закон распределения близок к нормальному. Пользуясь
287
свойствами математического ожидания и дисперсии, находим:
М [пг ] = МS *iz= I = — 'У Л '1 [ Х , ] = — У тх — тх,П 1 ‘J П ішк
і =,- I і=і
D [th] — D n
Найдем теперь такую величину s., для которойР ( \ т - т л. \ < г ;) = ?. (7.20)
Учитывая, что закон распределения случайной величины т близок к нормальному, выразим вероятность J3 в левой части равенства (7.20) через функцию Лапласа:
Р (j т — тх І < г.) =
r Dl
Ф I z3 \ — ф , (7.21)
среднее квадратическое отклонениегде с~ = ] / - f оценки.
Так как функция Лапласа нечетная, то равенство (7.21) принимает вид:
— ч> ( \
Из уравнения
Ф(.
(7.22)
W ~ У 2 /' m f 1находим значение г,:
^ = в* К 2 ф" (? ) .
где Ф-1 (3)— функция, обратная функции Лапласа. Вели
чина о - = ] / £ * , входящая в формулу (7.22), выражается через неизвестную нам дисперсию Dx, поэтому в качестве ее ориентировочного значения можно взять оценку D и положить приближенно
Таким образом, доверительный интервал для математического ожидания приближенно равен
' /3 = ( /& —■£-; т - |- £р),где £. определяется формулой (7.22).
Пример. Произведено 20 опытов над величиной X . Результаты опытов приведены в следующей таблице:
І x l І x i
1 10,9 11 10,89 10,7 12 10,33 11,0 13 10,54 10,5 14 10,85 10,6 15 10,96 10,4 16 10,6
11,37 11,3 178 10,8 18 10,89 11,2 19 10,9
10 10,9 20 10,7
Требуется найти оценку /Һ для математического ожидания величины X и построить доверительный интервал, соответствующий доверительной вероятности р==0,8б.
Р е ш е н и е . Имеем:2,:)
/Гг = 2 2 Xj = 10,78.I — 1
Использовав формулу для оценки дисперсии, находим:
0;, = ] / — = 0 ,0 5 6 4 .гп Г п
По формуле (7.22) находим значение г,:г, = 0,0564 У 2 Ф 1 (0,86) = 0 ,0 8 3 .
Доверительные границыm i — th — е., = 10,78 — 0,083 я» 10,70; пи = т = 10,78 —|— 0,083 10,86.
Доверительный интервал/ = (10,70; 10,86).
289
§ 7,10. ПОСТРОЕНИЕ ДОВЕРИТЕЛЬНОГО ИНТЕРВАЛАДЛЯ МАТЕМАТИЧЕСКОГО ОЖИДАНИЯ СЛУЧАЙНОЙ ВЕЛИЧИНЫ, РАСПРЕДЕЛЕННОЙ ПО НОРМАЛЬНОМУ ЗАКОНУ. РАСПРЕДЕЛЕНИЕ СТЬЮДЕНТА
В предыдущем параграфе мы рассмотрели приближенный метод построения доверительного интервала для математического ожидания тх величины X с неизвестным законом распределения. Д ля точного построения доверительного интервала необходимо знать закон распределе-
И2 А‘-
нпя случайной величины /п = — , который в общемслучае зависит от самих неизвестных параметров величины X . Оказывается, в некоторых случаях от случайной величины т можно перейти к другой случайной величине, являющейся функцией наблюдаемых значенийХ и Х > , ___ Х п, закон распределения которой не зависитот неизвестных параметров величины X, а зависит только от числа опытов п и от вида закона распределения случайной величины X.
Так, например, доказано, что при нормальном распределении величины X случайная величина
Т = Ү 1 і $ ~ (7.23)U
где
_____ 1 ' 1 ^ ■ 1п ’ п — 1 ’
подчиняется распределению Стыодеита с п — 1 степенями свободы. Плотность вероятности распределения Стыодеита имеет вид:
г (*)1)1'
І-
где Г (д-) = \ tix' xe 'n du — гамма-функция.о
Из формулы (7.24) видно, что распределение Стыодеита не зависит от ui и D, а зависит только от числа опытов п. При этом S n~i it) является четной функцией от t.
Рассмотрим применение распределения Стыодеита при построении доверительного интервала для математического ожидания.
Пусть произведено п независимых опытов над случайной величиной X, распределенной по нормальному за кону с неизвестными математическим ожиданием тл и дисперсией Dx. На основании опытных данных для этих параметров построены оценки
Требуется построить доверительный интервал соответствующий доверительной вероятности 3, для математического ожидания случайной величины X.
Обозначим через s, половину длины интервала, симметричного относительно /и, -тогда будем иметь:
Перейдем в левой части равенства (7.25) от случайной величины т к случайной величине Т, распределенной по закону Стыодеита. Д ля этого умножим обе части неравенства \ t h — m x | г. на положительную величину
Учитывая четность функции S n-i (t), получим, что ве-
П П2 № -Im п — 1tl
(7.25)
получим
или, пользуясь обозначением (7.23),
роятиость |3 осуществления неравенства \ T \ < ^ t —
равна (см. свойства 3, § 2.4):
и
21) 1
Равенство (7.26) определяет величину Л в зависимости от доверительной вероятности [1
Имеется готовая таблица (см. в приложении табл. 3), пользуясь которой, по доверительной вероятности £ и числу степеней свободы п — 1 находят величину
Определив величину по формуле
находим половину ширины доверительного интервала /,. Следовательно, сам интервал
Пример. Произведено 10 независимых опытов над случайной величиной X, распределенной нормально с неизвестными параметрами тх и ах . Результаты опытов представлены в виде статистического ряда:
/ 1 .'5 4 5 6 7 8 9 10
Л', 2,5 2 — 2,3 1,9 - 2,1 2,4 ■> 3 - 2,5 1,5 - 1 ,7
Найти оценку т для математического ожидания и построить доверительный интервал, соответствующий доверительной вероятности £ = 0,95.
Р е ш е н и е . Имеем:
По табл. 3 приложения для п — 1 = 9 и 3 = 0,95 находим:
г I'*V
Г П — -Г Г ,
»— 1
откуда
Доверительный интервал будет
§ 7.11. ОПРЕДЕЛЕНИЕ ПРИБЛИЖЕННЫХ ЗНАЧЕНИЙ ЧИСЛОВЫХ ХАРАКТЕРИСТИК СИСТЕМЫ ДВУХ СЛУЧАЙНЫХ ВЕЛИЧИН
Пусть над системой случайных величин (X, К) произведено в одинаковых условиях п независимых опытов. Результаты опытов
(Хь Ү \), (Хо Ко), . . . . (Хя. Ү п)являются иезавпсимымп системами случайных величин, математические ожидания, дисперсии и корреляционные моменты которых одинаковы, т. е. тх. = тх, туі — ту , DX. = DX> Dyi — Dy \ k x .y . = k xy . Требуется путем обработки опытных данных, найти приближенные значения указанных числовых характеристик.
Эта задача решается аналогично тому, как мы решали ее для одной случайной величины.
Так как неизвестные математические ожидания тх и т ү, а также дисперсии Dx и Dv являются характеристиками отдельных случайных величин, входящих в систему, то для определения приближенных их значений, применяя формулы (7.10), получим:
ПS *І : ~ 1
►п2 у,~ i — Iт = --------.
п
д . = ~ т 2 і — 1
п
6 >' = ,7 ^ Т 1 (У ! - * > ? ■i = I
Поскольку корреляционный момент есть математическое ожидание произведения отклонений случайных величин X и К от своих математических ожиданий, то приближенное значение корреляционного момента fixy ищем как линейную комбинацию вида
Ьху = У, Q {Xi — гіі л.) (К, — thy), (7.27)І = 1
293
где С; — постоянные коэффициенты, причем, в силу равно- точности измерений,
Q = C.
Неизвестный коэффициент С определяем из условия, чтобы величина Ъху была несмещенной оценкой для корреляционного момента k xv, т. е. чтобы
М [kxy] = М J \ C ( X i - m x) (Yi — thy)Z_Jі = l
: С 2 M [(Xi - rnx) (Yt - my)\ = kxy.i--.\
Преобразуем выражение, стоящее под знаком математического ожидания. Так как по условию тх. = тх, то
п п п2 Л/ 2 тх 2 т*
Y ___ t y, ___ у ___ / — 1 _1_ / — 1__________ / — 1 ___Л-і т х --А; : --
= ( X i - m xi)
аналогично
2 ( * / - ' % ) й 2 'хі 1=1------т--------= х і — ^ —
т -i л 2 > /
Y t ~~tnv — Yi
Следовательно,Щ ( Х і — тх) (Ү і — /«..)]
Принимая во внимание, что kx .y . = kxy, а кх.у . ==0 при і Ф /, имеем:
/VI К Хі — /и.») ( К г — /« .,)] = /гл.,, .vv +
1“ \ ^.vy----кху ~ кХу [ п» flkxy п - 1 Һ п -ХУ’
І = 1Таким образом,
ПМ [А,,1 = с 2 А1 [ № - (К, - - OTj.) ]
{• = 1
= с У n— k = с — У к х.у = с ' - ^ ‘пкху=п ■ > п iLm У п ->
1=I / —- I= С (п — 1) kxy = kxy,
1если С •— ,./г — 1
Д ля того, чтобы показать состоятельность оценки (7.27) при условии, что С,- = С = ?ү-^-ү, найдем дисперсию этой оценки:
2 U » - тх) ( Y i - m y )D \ k xy\ = D i = l
= („,!. I)- 2 ° l № — 'п.х)(Уі— /%)]•1= 1
Так как по условию случайные величины Хг- и К,- имеют одинаковые распределения, то
D [ Z i ] - D - = const ( / = 1 , 2 , . . . , я ) ,
где Zi = (Xi — nix) (Уі — ту) .Следовательно,
Я [ k x y ]xyi (n— I fn D ~
(л — l)2i= i t = l
Выражение D[kxy] = — 0 при n — *0 0 , а этозначит, что
n
к = ^ г т 2 ( Х і - { Ү і (7 '28>
295
является несмещенной и состоятельной оценкой для корреляционного момента kxv системы случайных величин (X, У). Формула (7.28) наиболее употребительна для определения корреляционного момента двух случайных величин по опытным данным.
Опытный коэффициент корреляции гху определяют по формуле
При этом среднее квадратическое отклонение опытного коэффициента корреляции вычисляется по формуле
1 — r~.v 1 — Гхуг XV ~ Т ^ Vп - ) *
§ 7.12. МЕТОД НАИБОЛЬШЕГО ПРАВДОПОДОБИЯ ДЛЯ НАХОЖДЕНИЯ ОЦЕНОК ПАРАМЕТРОВ РАСПРЕДЕЛЕНИЙ •
В § 7.7 мы рассмотрели оценки для математического ожидания и дисперсии. В этом параграфе рассмотрим один из важнейших методов для отыскания оценок параметров по данным опыта, который носит название метода наибольшего правдоподобия.
Пусть функция f (х, 0), зависящая от параметра 0, является плотностью вероятности случайной величины X. Требуется на основании опытных данных определить неизвестный параметр 0.
Обозначим через Xi, л'о, . . . ,хп наблюдаемые значения случайной величины X в результате проведенных а опытов.
Функцией правдоподобия называется функция
L, (aj, л'о, . . . , хп,0) —= f(* „ 0 ) /(* ь 0). . . / (л'м, 0). (7.29)
Если случайная величина X - дискретная с возможными значениями
f- Һ у-«1. •••» *г,
аНҺ, ш-2, . . . , тг
‘2У6
будут равны соответственно числу опытных значений, которые совпадают с с,, Ь, %п то функция правдоподобия определяется соотношением
L (Л'Ь л,, . . . , хп, 0) = (0) Р а“ а (0)... Р тг г (0), (7.30)где Pi (0) = Р (.X = сі) (/ — 1, 2,
Считая наблюдаемые значения Х\, х*, . . . . хп данными, будем рассматривать L как функцию неизвестного параметра 0. Сущность метода наибольшего правдоподобия заключается в том, что в качестве оценки параметра 0 выбирается значение аргумента, которое обращает функцию L в максимум. Это значение является функцией от л*ь Хі , . . . , х„ и называется оценкой наибольшего правдоподобия. Отсюда согласно известным правилам дифференциального исчисления, для нахождения оценки наибольшего правдоподобия необходимо решить уравнение
| = 0 (7 .3 1 )
и отобрать то решение 0, которое обращает функцию L в максимум.
Обычно с целыо упрощения функцию правдоподобия заменяют ее логарифмом и решают вместо (7.31) уравнение
1п I*— — — о (7 32)ОЬ L ОН ( / - OZ)
В случае двух параметров 0! и 0.2 оценки их определяются из двух совместно решаемых уравнений:
д In L Л д In L а—гг- — О II —777" = 0 .d(), 04.,
Продемонстрируем применение метода наибольшего правдоподобия па примерах.
Пример 1. Оцепить качество продукции некоторого производства.
Р е ш е н и е . Искомой величиной является вероятность р того, что наугад выбранное изделие окажется бракованным. Вероятность р считается постоянной величиной, не зависящей от результатов проверки других изделий. Д ля отыскания величины р из готовой продукции случайным образом отбирается п изделий и проверяется их качество. Вероятность р мы можем рассматривать как параметр, входящий в распределение дискретной двузначной величины X, принимающей только два значения ? і = 1 и ?2 = 0
10 Гурскин 297
в зависимости от того, каким окажется наугад выбранное изделие: бракованным или хорошего качества.
Пусть среди наугад выбранных изделий оказалось т бракованных, тогда согласно (7.30) мы будем иметь
L — pm (1 — р)п
и уравнение (7.32) запишется так:д In L ____ т п — т _______ q
др J 1 - р ~
Оно имеет единственное решение:
Следовательно, оценка вероятности р по методу паи* „ .. шбольшего правдоподооия совпадает с частотоп — сооытпяпоявления бракованных изделий.
Пример 2. На вход приемного устройства поступает сумма Y (/) = X -J- Z (/) неизвестного, не зависящего от времени сигнала X и случайной помехи Z(t) . В моменты времени t it t«, . . . , tn производятся измерения случайного процесса У ((). На основании полученных данных у и у,, . уп нужно указать приближенное значение 0 (уи у . . . , уп) сигнала Л'.
Р е ш е п ие. Пусть случайные величины Z (/i), Z (Л), . . . . . . , Z (/„) взаимно независимы и распределены нормально с математическим ожиданием, равным 0, и дисперсией, равной с \ Тогда при заданном значении X — 0 случайные величины
Ул. = У (/*) = X -!- Z (/*) ( £ = 1 , 2 , — /г)
также взаимно независимы 'и подчиняются нормальному закону с той же дисперсией а- и математическим ожиданием 0. Следовательно, функция f (.v, 0) для нашего примера имеет вид:
, _ (-у - 6)*f(Vk, 0) = — .
Согласно (7.29), запишем функцию правдоподобия
ПInL = - ln[3" (V '2 i ) “J - ' У (ук - О)2,
Заменяя ее логарифмом, получим:
2с2Л»!
поэтому уравнение (7.32) запишется так:
о in L I / х г\ пТ Г = ;Н >, й - н « | = 0.
Отсюда
О
А; = 1
I V- УкП J
Функция L{ij\, у-2, . . . , уп, Щ достигает при этом значении б своего наибольшего значения. Следовательно, оценка сигнала X по методу наибольшего правдоподобия имеет вид:
110 ( l /h Уъ . . . » У г ) = п ^ У к,
к ■-= 1
т. е. является средним арифметическим результатом измерений.
Метод наибольшего правдоподобия обладает важными достоинствами: он всегда приводит к состоятельным (хотя иногда и смещенным) оценкам, имеющим наименьшую возможную дисперсию по сравнению с другими и наилучшим образом (в некотором смысле) использующим всю информацию о неизвестном параметре, содержащуюся в выборке. Однако на практике он часто приводит к необходимости решать весьма сложные системы уравнений.
§ 7.13. СГЛАЖИВАНИЕ ЭКСПЕРИМЕНТАЛЬНЫХ ЗАВИСИМОСТЕЙ
При обработке опытных данных очень часто приходится решать задачу, в которой необходимо исследовать зависимость одной физической величины у от другой физической величины л\ Например, исследование величины погрешности размера изделия от температуры, величины износа резца от времени и т. д.
10* 209
Пусть производится опыт с целыо исследования зависимости величины у от величины л\ которая в общем случае может быть записана в виде
У — f (*)•Вид этой зависимости и требуется определить из опыта.
Предположим, что в результате опыта получен ряд экспериментальных точек (л'ь у {), (л\>, //._>), . . . . ( хп, у„) и построен график зависимости переменной величины у от независимой переменной v (рис. 92). Так как производимые в ходе опыта измерения связаны с ошибками слу
чайного характера, то обычно экспериментальные точки па графике имеют некоторый разброс относительно общей закономерности. В силу случайности ошибок измерения этот разброс или уклоненияточек от общей за кономерное! и также
Рис. 92 являются случайными.
Следовательно, задача состоит в такой обработкеэкспериментальных данных, при которой по возможности 'ЮЧНО. была бы отражена тенденция зависимости у от х и возможно полнее исключено влияние случайных, незакономерных уклонений, связанных с погрешностями опыта. Т акая задача является типичной для практики и называется задачей сглаживания экспериментальной зависимости.
Очень часто бывает так, что вид зависимости y = f ( x )
до опыта известен из физических соображений, связанных с существом решаемой задачи, а на основании опытных данных требуется определить только некоторые параметры этой зависимости, которые входят в эту зависимость линейно.
При решении задачи сглаживания экспериментальной зависимости в случае, когда вид зависимости y — f (х) до опыта известен, обычно применяется расчетный метод, известный под названием «метода наименьших квадратов»,
300
§ 7.14. МЕТОД НАИМЕНЬШИХ КВАДРАТОВ
Метод наименьших квадратов применяется для решения различных задач, связанных с обработкой результатов опыта. Наиболее важным приложением этого метода является решение задачи сглаживания экспериментальной зависимости, т. е. изображения опытной функциональной зависимости аналитической формулой. При этом метод наименьших квадратов не решает вопроса о выборе общего вида аналитической функции, а дает возможность при заданном типе аналитической функции у = )'(х) подобрать наиболее вероятные значения для параметров этой функции.
Сущность метода наименьших квадратов при решении поставленной задачи заключается в следующем.
Пусть получено п экспериментальных точек с абсциссами
Х\) Хо, .. . , Xп
и соответствующими им ординатами
£/ь У’Ъ • • •» Уп-
Зависимость у от х, изображаемая' аналитической фуикцпей
У / ( )> (( -33)
не может совпадать с экспериментальными значениямиУі во всех п точках. Это означает, что для всех или некоторых точек разность
Ь і ~ У і — І (*<) (7 .34)
будет отлична от нуля.Требуется подобрать параметры функции (7. 33) таким
образом, чтобы сумма квадратов разностей (7. 34) была наименьшей, т. е. требуется обратить в минимум выражение
* = 2 ЛІ = 2 l№ - > t o ) I*- (7- 35)i I /=- •>!
Таким образом, прп методе наименьших квадратовприближение аналитической функции y = f (х) к экспериментальной зависимости считается иаплучшпм, если
301
выполняется условие минимума суммы квадратов отклонений искомой аналитической функции от экспериментальной зависимости.
Следует заметить, что выражение (7. 35) представляет собой полином второй степени относительно неизвестных параметров (неизвестные параметры в зависимость y — f (а-) входят линейно), который не может принимать отрицательных значений. Поэтому существуют такие значения неизвестных параметров, при которых функция (7. 35) достигает минимума, и этот минимум в зависимости от значений лг,- н у, будет положительным или равным нулю.
Прп решении многих практических задач функциональную зависимость у от х ищут в виде
у = у : « л м , (7 .36)к ■-. 1
где /і (лг), fi (х), . . . , fm (х) — известные функции, аи а2, . . . . . . , ат — неизвестные параметры.
Так, например, прп исследовании колебательных процессов функциями f t:(x) (к — 1,2, . . . , tn) являются тригонометрические функции
//, (л*) = COS kx, fk (.v) = s in kx.
При исследовании во многих областях техники очень часто встречаются степенные функции
fk (.v) == хи ~ 1 [к — 1.2, . . . , т ) .
Таким образом, /», (л) в равенстве (7. 36) являются известными элементарными функциями аргумента х.
Исходя из принципа наименьших квадратов, мы должны подобрать такие значения неизвестных параметров а{, аг, . . . , ат, при которых обращается в минимум выражение
Уі — У, auf u (.v4)к == I
(7. 37)
Выражение (7. 37) является функцией неизвестных параметров ак, поэтому для отыскания минимума этой функции нужно согласно правилам дифференциального исчисления найти частные производные функции г по
веем параметрам ак [k — 1,2, tn) и приравнять их нулю:
Подставляя в систему (7.38) опытные значения л*г- и у{, мы получим систему т линейных уравнений относительно неизвестных параметров а,., решение которой может быть получено с помощью определителей или последовательным исключением неизвестных.
Рассмотрим применение метода наименьших квадратов, когда для изображения экспериментальной зависимости выбрана парабола второго порядка
Пусть в результате независимых опытов получено п значений величины у:
Д ля определения неизвестных параметров а, b и с методом наименьших квадратов составляем сумму квадратов отклонений искомой аналитической функции от наблюдаемых значений в данных точках
Дифференцируя функцию (7.39) по неизвестным параметрам а, b и с и приравнивая производные к нулю,
j = 1 L ){ = 1
tl in
п гпd z
дат 2 2 У‘ - 2 йЛ(лГі)і = i
у — ax'- -[- bx -j- с.
соответствующих значениям велпчипы л-:
ПУ (Уі — ах! — Ьх{ — с)-. (7.39)
зоз
получим следующую систему уравнении:п
— ү = У, (Уі — ахі — Ьхі — с) xi = О,і -- 1
~ - | - = У. ( I j , - a x i - b x , - c ) дг, = 0, [ • (7.40) і Г ,
1 д.'2 с/с
~ = У (у-, — axf — Ьхі — с) = О,
или несколько преобразовав уравнения (7.40), получим систему уравнении:
а У] xi -j- b 2 х] -f- с 2 х і = У} хіуі,І — 1 І - - I І 1 і - - I
а У) xi -'r b V x j JrC j Xi — V xitji, j. (7.41)І = 1 І = 1 i I i = 1
й У 4 + 6 2 -v' + с/г = 2 У1-і = i / .-, I i == I ;
Система (7.41) представляет собой систему трех линейных уравнений относительно неизвестных параметров а, Ь, и с. Решая систему (7.41) с помощью определителей третьего порядка пли последовательным исключением неизвестных, мы и получим значение параметров а, Ъ и с по методу наименьших квадратов.
§ 7.15. СТАТИСТИЧЕСКАЯ ПРОВЕРКА ГИПОТЕЗ
Прежде чем формулировать задачу проверки гипотез в общем виде, рассмотрим два примера.
Пример 1. Имеется склад готовой продукции. Известно, что изделия (например, радиолампы одного типа) поступают на склад партиями с двух заводов, выпускающих продукцию разного качества, и такими же партиями отпускаются потребителю. Качество продукции завода характеризуется вероятностью Р того, что наугад выбранное изделие является бракованным. Д ля одного завода Р = Р 0, для другого Р = Рі ( Р о > Р і ) . Потребитель на
304
угад выбирает одну партию изделий. Нужно па основании результатов контроля решить, на каком заводе изготовлена выбранная партия изделий.
Р е ш е н и е . Я» — гипотеза, состоящая в том, что выбранная партия изделий плохого качества, т. е. вероятность брака равна Р„; //( — противоположная гипотеза, вероятность брака равна /V Будем называть Я«— нулевой, а Н\ — конкурирующей гипотезой.
Отберем из партии наугад п изделий. Пусть Ү обозначает количество бракованных изделий среди отобранных. Ясно, что У является случайной величиной, возможными значениями которой будут 0, 1, 2 , . . . , п. Под решением поставленной задачи понимается выработка решающего правила, которое сопоставляет каждому возможному зпачешпо случайной величины Ү одну из гипотез Но или Н 1 .
Обозначим набор возможных значений случайной величины У через А, тогда согласно сказанному выше, искомое решающее правило состоит и некотором разбиении множества А на части А„ и А,. При попадании возможного значения случайной величины Ү в множество А0 принимается гипотеза Я 0 и, наоборот, прп попадании возможного значения в множество А, принимается гипотеза Н\.
Вопрос заключается в том, какое из возможных разбиений множества А на части А0 и А, следует выбрать.
Пример 2. На вход приемного устройства в некоторый момент времени поступает случайная величина Ү , которая либо является суммой известного сигнала X и случайной помехи Z, либо одной помехой. Производится измерение величины Ү. По полученному числовому значению у нужно решить, присутствовал ли па входе сигнал X, т. е. выбрать одну из двух возможностей:
y — x - \ - z пли у — г.
Р е ш е н и е . В качестве пулевой гипотезы //« возьмем отсутствие сигнала, а в качестве конкурирующей гипотезы Н | — наличие сигнала. Задача заключается в проверке гипотезы //„ относительно гипотезы Н\.
Множество А возможных значений случайной величины Y представляет собой всю ось у. Искомое решающее правило состоит в разбиении оси у на две части: А0 и Aj. Требуется выбрать одно из таких разбиений.
Общая постановка задачи. Имеются две противоположные гипотезы //« п Ну п некоторая связанная с ними
случайная величина У. Пусть у обозначает числовое значение случайной величины У, полученное в результате испытания, А— множество всех возможных значений случайной величины У. Требуется произвести проверку нулевой гипотезы относительно конкурирующей гипотезы Н 1 на основании результатов испытания.
Разобьем множество А на две части А0 и At с условием принятия гипотезы Н0 при попадании полученного значения у случайной величины У в результате проведенного опыта в А„ и гипотезы И\ — при попадании у в А]. Выбор решающего правила, т. е. правила разбиения множества А на две части А0 и Aj в любой задаче проверки гипотез возможен больше, чем одним способом.
Дд Л1 _ Лр ________ At ДО _
Т, *у t Т2 *у
Рис. 93 Рис. 94
Так, в примере 2 можно задать какое-нибудь число 1{и положить
Д0 = (— ОО, Һ), А, = (/ь оо) (рис. 93).
Другой вариант решающего правила изображен на рис. 94.
Спрашивается: какому из этих разбиений следуетотдать предпочтение, или, отвлекаясь от рассматриваемого примера, какое из всех возможных разбиений в каждой конкретной задаче считать паилучшим?
Метод минимума [)иска. Д ля применения к задаче проверки гипотез метода минимума риска нужно располагать некоторыми вероятностными данными.
Будем считать известными два условных распределения вероятностей случайной величины У:
и (у) — при условии, что верна гипотеза Я 0;fi (y) — при условии, что верна гипотеза Н\.
Заметим, что случайная величина У может быть и дискретной (пример 1) и непрерывной (пример 2). Тогда под функциями /о (у) и ft (у) в первом случае будем понимать условные дискретные распределения вероятностей, во втором случае — условные плотпостп распределения.
В примере 1 вероятность Р того, что наугад выбранное изделие является бракованным, не зависит от результатов проверки других изделий и при условии истин
ности гипотезы Я 0 равна Р 0. Поэтому закон распределения случайной величины Ү является биномиальным и, следовательно, имеет вид
Һ (У) = Р ( Ү = У\р = Р.) = a i P l (1 - Р 0)п~*. (7.42)
Аналогично, прп условии истинности гипотезы Н\
U ( У ) = Р ( У = у \ Р = Pi) = С Х (1 - Р,)"->. (7.43)
В примере 2 будем считать случайную величину Z подчиненной нормальному закону с нулевым математическим ожиданием и дисперсией а-, тогда условная плотность распределения /„ (у) случайной величины У при условии отсутствия сигнала имеет вид
(7.44)
так как в случае отсутствия сигналаY = Z.
Если же сигнал присутствует, то
Y = X -J-Zи, следовательно,
Һ (.'/) = / » (и - X) = - - 4 - - С- ^ . (7.45)а
Кроме условных распределений f0(y) и f i(y), нам потребуется априорная (доопытиая) вероятность Р того, что гипотеза Н() имеет место.
Иногда мы располагаем сведениями об этой вероятности, а иногда нам ничего н е «. известно или известно очень мало. Так, например, если в задаче- о приемочном контроле известно, что среди партий готовой продукции, хранящейся на складе, одна четверть плохого качества, то при условии, что потребитель наугад выбирает одну партию изделий,
Будем рассматривать следующие случайные события: Л — верна гипотеза /70,/ 1 — верна гипотеза I I и
301
В — результат эксперимента у попал в область Д(ьВ — результат эксперимента //попал в область А,.Тогда в результате принятия решения возможен одни
из следующих четырех исходов:АВ — верна гипотеза На и принято решение о ее
истинности;АВ — верна гипотеза Н ь а принято решение о истин
ности гипотезы /'/о;АВ — верна гипотеза /7(Ь а принято решение о истин
ности гипотезы Я,;АВ — верпа гипотеза Hi и принято решение о ее истин
ности.Отсюда видно, что исходы АВ и А В связаны с оши
бочными решениями. Исходу АВ соответствует так называемая ошибка первого рода, а исходу АВ — ошибка второго рода.
Например, в задаче обнаружения сигнала ошибке первого рода соответствует принятие решения о наличии сигнала в случае его отсутствия, ошибке второго рода соответствует принятие решения об отсутствии сигнала в случае его наличия.
Д ля ответа на вопрос, какое из решающих правил следует считать наилучшим, введем понятия функции потерь и среднего риска.
Функция потерь сопоставляет каждому из четырех возможных исходов АВ, АВ, АВ, АВ соответствующие потери, выраоісенные в некоторой системе единиц.
Прп правильном решении естественно положить потерн равными нулю. Потери, связанные с ошибками первого и второго рода, обозначим соответственно С| и С.>. Будем считать, что С] и Со— положительные. Для задания функции потерь нужно указать эти два числа. В дальнейшем предполагается, что функция потерь задана. Заметим, однако, что в практических задачах часто трудно сделать обоснованный выбор величины С\ п С>. Ниже мы покажем, как поступают в таких случаях.
Перейдем теперь к понятию риска. Пусть Р 0, Р і и Р 2— вероятности соответственно правильного решения, ошибки первого рода и ошибки второго рода. Определение значений этих вероятностей будет приведено ниже. Величина потерь С, к которым приводит однократное применение решающего правила, является случайной величиной, принимающей значения О, Сь С> с вероятностями соответственно Р 0, Pi и Р->.
308
Математическое ожидание М [С] случайной величины С называется средним риском (или просто риском) и обозначается буквой г. Таким образом,
г = М [С] = / V О -І- Р,С, -j- Р,С, = Р,С, -j- Р іСі . (7.46)
Понятие риска присолит к естественному способу сравнения решающих правил. Из двух правил лучшим считается то, которое приводит к меньшему риску.
Оптимальным решающим правилом называется правило, приводящее к наименьшему возможному в данной задаче риску.
Итак, мы должны найти оптимальное решающее правило, которое соответствует заданным условным распределениям (//) и / 1 (//), априорной вероятности Р и функции потерь (Ci, С,). Это правило будем обозначать буквой Г. При отыскании правила Г ограничимся рассмотрением непрерывной случайной величины Y.
Обозначим через я условную вероятность ошибки первого рода, вычисленную при условии истинности гипотезы Но, а через — условную вероятность ошибки второго рода, вычисленную при условии пстиппостп гипотезы Н\. Применяя правило определения вероятности попадания случайной величины Y на заданный участок, если известна ее плотность вероятности, запишем вероятности а и $ с помощью условных плотностей fn (у) п fj (у):
a. = P ( B : A ) = \ f „ ( u ) i ! i / , Р (В/А) = \ h ( u ) d y . (7.47)•ІI ' А 0
В свою очередь, безусловные вероятности Р\ и Р.2 ошибок первого и второго рода/ входящие в (7.46), выражаются через условные вероятности этих ошибок а и [3 и априорную вероятность Р следующим образом:
Р у = Р (АВ) = Р (А) Р (В;А) = Ра, Р , == Р (АВ) == Р (А) Р (В, /1) = (1 — Р) 3.
Поставим полученные значения Р\ и Р.. в формулу (7.46), получим:
г = Р,.С, -i- (I — IJ) = PC, Ц 1„ (у) cly -!-
+ (1 - P ) C . ! \h(U)<ly- (7.48)
Из формулы (7.48) видно, что каждому способу разбиения множества А па области А0 и А, соответствует свое
30!)
значение риска. Нужно выбрать области Afl и Ai так, чтобы выражение (7.48) достигло минимума.
Используя свойства плотности вероятности
$ /о (у) dy = \ /о (у) dy + 5 /о (у) d y — \,Д Лц
перепишем формулу (7.48) в виде
r = PCi
= PC, + J [(1 - Р) С-,/, (у) - РС,/„ (</)] dy.Л О
Последнее выражение достигает минимума при таком выборе области Д0, который приводит к наименьшему возможному значению интеграла в правой части. А длятого, чтобы интеграл был минимальным, нужно включить в состав Д0 те и только те значения у, в которых подынтегральная функция отрицательна, т. е.
(1 - Р) Со/, (у) - />С,/0 (у) < 0, (7.49)
а в состав Д і— остальные значения у.Запишем неравенство (7.49) в таком виде:
Л Су) ^ РСу п/ о ( > » ) < ( 1 - Р ) С У ( 7 - 5 0 )
Функция называется отношением правдоподобия./о ‘У)
Таким образом, искомое оптимальное решающее правило Г заключается в следующем: для полученногов результате эксперимента значения у вычисляется отношение правдоподобия j -Щ. и сравнивается с числом.
/ о (У /
l ~ (1 - Р ) С , ’ І 7 ' 5 1 )
если отношение правдоподобия меньше /, принимается гипотеза # 0; в противном случае — гипотеза Н {.
Оптимальное решающее правило Г называется пороговым критерием для отношения правдоподобия
Р С ■С порогом / = jy z ir p y c '
Аналогичны!! результат получается и для дискретной случайной величины.
310
Применим пороговый критерий Г к рассмотренным выше примерам.
Пример 1. Используя равенства (7.42) и (7.43), найдем отношение правдоподобия
/, м ^ с у р у ц - г ^ - у/ ' . ' О ’ » ~С-'пРУ(\
[P.( l-Po>l-v ,1 Р Л пІ 'Р 0)"-У | Р 0 (1 - Р . ) I - V у _ / > , ,
Следовательно, неравенство (7.50) для данного примера принимает вид
Р ,(1 /V'Р .)
откудаЯ о ( 1
Р , (1 — Р „
3’ /1I —
PC,- P n
РА 1 - / V <р с ,
( I - P ) C S ’
/ I - Р о(1 - Р ) С , / Л ) .
(7.52)
Из условия, что Р о ^ > Р ь следует неравенство P i П - Р о )
а это значит, чтоРо (1 — Pi)
, Р . ( 1 - Р о )
< 1.
< 0.Ро (1 — Pi)Поэтому, определяя у из неравенства (7.52), будем иметь:
P C t / 1 - р ' « '111 / 1 - Р ) С - V 1 — Р111 р, ІІ - /Л,) (7.53)
Р „ (1 - Р . )Итак, если число/у бракованных изделий среди наугад
выбранных /г изделий удовлетворяет неравенству (7.53), то принимается решение о плохом качестве полученной партии, в противном случае— решение о хорошем качестве.
Пример 2. Используя равенства (7.44) и (7.45), найдем отношение правдоподобия:
( V — -V)-
/ 1 О') /п ( У )
Следовательно, принимает вид:
* Г 2г. = е~- с
с у '2 ? . 6
неравенство (7.50) для этого примера
е:~ с <р с ,
о - Р) С » • (7.54)
311
Пусть х 0. Тогда, определяя у из неравенства (7.54), получим:
РС,у С - In ‘ ,Л' .(1 — р) Со е~*т (7.55)
Итак, если значение у, полученное на входе приемного устройства, удовлетворяет неравенству (7.55), то принимается решение об отсутствии сигнала, в противном сл у ч ае— решение о его наличии.
Покажем это па графике. Изобразим плотности вероятностей /„(//) и /, (у) (рис. 95).
Согласно формулам (7.47) условные вероятности в этом примере имеют вид:
СО „•> /|
= т ш \ е Р = Г І
( V — -V )-
dy.
под кривой правее точки
Следовательно, величина а равна площади области, расположенной (рис. 95)
/»(</)• У = 1 ь
величина $ — площади области, расположенной под кривой /,(//), левее y = h. Из рис. 95 видно, что при изменении порога U одна из
или 3 растет, другая — убывает. В част-вероятностеи а «ности,
l im a = 0 ,/ 1 - Н - О Э
lim 3 = 1 , 1п п а— с о
І І П і З : / | ---------с о
0.
Из формулы (7.48) следует, что при изменении а, т. с. при изменении /ь изменяется также и риск г и достигает минимума при значении /ь определенном формулой (7.55).
Величина /, входящая в решающее правило Г, определяется значениями априорной вероятности Р и потерь Сь С>. Задание этих величин на практике, как мы уже отмечали выше, сопряжено с большими трудностями. Поэтому желательно было бы получить величину / без использования значений Р, С,, С>. Оказывается, часто прп решении задачи проверки гипотез задают условную
312
вероятность ошибки первого рода а. Зная эту величину и зависимость, которая связывает а и /, можно найти порог /.
Так, например, при решении задачи обнаружения сигнала мы имели такую зависимость:
Полагая теперь, например, а = 10 с помощью таблицы функции Лапласа находим порог
Это значит, что решение о наличии сигнала принимается, если результат измерения у удовлетворяет неравенству
и решение об отсутствии сигнала — в противном случае.
§ 7.16. ПОНЯТИЕ
Во многих случаях практики на основании тех или иных данных делается предположение о виде закона распределения интересующей пас случайной величины X. Однако для окончательного решения вопроса о виде закона распределения в подобных случаях представляется целесообразным проверить, насколько сделанное предположение согласуется с опытом. При этом ввиду ограниченного числа наблюдений опытный закон распределения обычно будет в какой-то мере отличаться от предполагаемого, даже если предположение о законе распределения сделано правильно. В связи с этим возникает необходимость решать следующую задачу: является ли расхождение между опытным законом распределения п предполагаемым законом распределения
Используя функцию Лапласа, можем записать:
О КРИТЕРИЯХ СОГЛАСИЯ
313
следствием ограниченного числа наблюдений, или оно является существенным и связано с тем, что действительное распределение случайной величины отличается от предполагаемого. Для решения поставленной задачи служат так называемые «критерии согласия».
Идея применения критериев согласия заключается в следующем.
Пусть, например, на основании данного статистического материала нам предстоит проверить гипотезу Я, состоящую в том, что случайная величина X имеет функцию распределения Ғ (х).
Д ля того чтобы принять пли опровергнуть гипотезу Я, будем рассматривать случайную величину Ү, характеризующую степень расхождения теоретического и статистического распределений. Величину Ү можно выбирать различными способами. Например, в качестве Ү можно взять максимальное отклонение статистической функции распределения Ғ* (х) от теоретической Ғ (х). Очевидно, закон распределения случайной величины Ү зависит от закона распределения случайной величины X, над которой производились опыты, и от числа опытов п.
Предположим, что закон распределения случайной величины нам известен.
Пусть в- результате проведенных п опытов над случайной величиной X величина Ү приняла некоторое значение у. Спрашивается, можно ли объяснить принятое значение Ү — и случайными причинами или же это значение слишком велико и указывает на наличие существенной разницы между теоретическим и статистическим распределениями, т. е. непригодность гипотезы Я? Д ля ответа на этот вопрос допустим, что верна гипотеза Я, и вычислим вероятность того, что случайная величина Ү за счет случайных причин, связанных с ограниченным объемом опытного материала, примет значение не меньше, чем наблюдаемое значение у, т. е. вычислим вероятность Р (У ^ у ) . Если эта вероятность мала, то гипотезу Я следует опровергнуть как малоправдоподобную, а если же эта вероятность значительна, то экспериментальные данные не противоречат гипотезе Я.
Д ля вычисления вероятности Р (Ү ^ у) необходимо знать закон распределения случайной величины Ү, который, как мы уже отмечали, зависит от закона распределения случайной величины X (функции распреде-
ления Ғ (а*)) и от числа опытов п. Оказывается, что при некоторых способах выбора случайной величины У ее закон распределения при достаточно большом п практически не зависит от закона распределения случайной величины X . Именно такими мерами расхождения и пользуются в математической статистике в качестве критериев согласия.
Наиболее простым критерием проверки гипотезы о виде закона распределения является критерий академика А. Н. Колмогорова, представляющий собой максимальное значение абсолютной величины разности между статистической функцией распределения Р* (х) и соответствующей теоретической функцией распределения Ғ (х) , т. е.
D = max ! F* (х) — F ( а*) |.
А. Н. Колмогоров доказал, что какой бы вид не имела непрерывная функция распределения F (х) при неограниченном возрастании числа независимых наблюдений п, вероятность неравенства
D У п ^ Xстремится к пределу
СО
Р (I) = 1 — 2 ( — ])к е - 2к2}'2. (7.56)к — оэ
Для вероятности Р (I) составлена таблица, краткая выдержка из которой приводится ниже:
/. | O.S28 | 1.221 | l.MYi 1,627 | 1.950
Р (?•) 0,5 0,1 0,05 0,01 0,001
Схема применения критерия А. И. Колмогорова следующая.
1. По результатам п произведенных измерений строится статистическая- функция распределения F* (х).
2. На том же графике строится предполагаемая теоретическая функция распределения Ғ (х).
3. Определяется максимальная величина модуля разности их ординат (рис. 96).
4. Вычисляется величина
а = D У 11 .315
5. По вышеуказанной таблице находится верояіг- ность Р (/0, соответствующая тому, что за счет случай- пых причин максимальное расхождение между Ғ* (.v) и F (х) будет не меньше, чем факти’чески наблюдаемое.
Если вероятность Р ('-) очень мала, гипотеза бракуется: при сравнительно большой вероятности Р (X) гипотеза считается совместимой с результатами опыта.
Заметим, что критерий А. II. Колмогорова может применяться только в случае, когда гипотетическое распределение F (х) полностью известно, т. е. известен не только вид функции распределения F (х), но и все вхо
дящие в нее параметры. Очевидно, что такие случаи на практике встречаются редко. Обычно из теоретических соображений известен только вид функции F (х), параметры ее приходится определять по результатам выборки. В таких случаях следует применять другие критерии согласия. Один из наиболее часто применяемых па практике критериев согласия, который позволяет производить проверку гипотезы соответствия опытного закона распределения предполагаемому (теоретическому) не только в случаях, когда последний известен полностью, но и тогда, когда параметры предполагаемого закона распределения определяются на основании опытных данных, является критерий •/.- (хи-квадрат). Описание этого критерия можно найти, папрнмер, в работе [2].
В о п р о си д./я с а м о п р о ве р к и
1. Чем заним ается матем атическая статистика?2. М азоните основны е задачи матем атической статистики.3. Н азовите основны е понятия м атем атической статистики.4. Что назы вается статистической функцией р аспределения?5. Что такое гистограмма?
F\ x ) Ғ(Х)
1
ОРис. 96
6. Н азовите числовы е характеристики статисти ческ ого р а сп р ед ел ен и я . Д ай те оп р едел ен и е этих характеристик.
7 . Какая оценка парам етра назы вается состоятельн ой ?8. Какая оценка парам етра назы вается н есм ещ енн ой ?9. Какая оценка для м атем атического ож идания обладает
свойствами состоятельн ости и н есм ещ енности в случае прямых равноточны х изм ерений?
10. Какая оценка для диспер си и обладает, свойствам и с о с т о я тельности п н есм ещ енн ости ?
11. Какая оценка для м атем атического ож идания обладает свойствами состоятельн ости и н есм ещ енности в сл уч ае неравно- точны х изм ерений?
12. Что назы вается доверительны м интервалом и довери тел ь ной вероятностью (надеж ностью )?
13. Как строится доверительны й интервал для м атем атического ож идания случайной величины , р асп р еделен н ой по норм альном у закону?
14. Какая оценка для корреляционного мом ента обл адает св ой ствами состоя тел ь н ости и несм ещ енности?
15. В чем заклю чается сущ ность м етода н аибольш его правдоп одоби я для н ахож ден ия оценок парам етров расп ределен и й?
16. В чем заклю чается сущ ность м етода наим еньш их квадратов при обр а б о тк е результатов наблю дений?
17. С ф ор м ул ир уй те задачу статистической проверки гипотез.18. П р иведите примеры задач на проверк у гип отез.19. Какими н уж но располагать вероятностны м и данными для
прим енения м етода минимума риска к реш ен и ю задачи проверки гипотез?
‘20. В чем заклю чается сущ ность м етода минимума риска при реш ении задачи проверки гипотез?
21. С ф орм ул ируй те оптим альное р еш аю щ ее правило Г.22. В чем заклю чается идея прим енения критериев согласия
при реш ении задачи о согласованности т ео р ет и ч еск о го и статисти ческого расп р еделен и я?
У п р а ж н е н и я
1. С целью и сследования закона р асп р едел ен и я ош ибки и зм ерения дальности с пом ощ ью радиодальном ера п р ои зв еден о 300 и зм ерен и й дальности. Результаты изм ерений представлены в виде статисти ч еск ой совокупности:
/. м 1 > т і Р*1 /. м п in . 1 РР1
560 - 570 С 0,02 610 — 620 42 0,14570 — 580 27 0,09 620 - 630 21 0,07580 — 590 •15 0,15 630 - 640 6 0,02590 — 600 72 0,24 640 — 650 3 0,01600 — 610 78 0,26
О пределить статические м атем атическое ож идан ие и д и сп ер си ю . П остроить статисти ч еск ую ф ункцию р асп р еделен и я .
О г/i в. т* — G00 м; £ ) * = 2 ‘17 м~.
317
2. П о в о зд у ш н о й цели ведется стрельба независимы ми о ч ер едям и, каж дая из которы х состои т из четырех- вы стрелов. С лучайная величина X — число попаданий в цель для одной о ч ер еди . П р о и зв ед ен о 30 оч ер едей . Результаты опы тов представлены в виде статисти ч еск ой совокупности:
Л'< 0 1 2 3 4
щ 3 6 12 6 3
Pi 0,1 0,2 0,4 0,2 0,1
П остроить статистическую ф ункцию расп ределен и я и о п р едел и ть статисти ческ ое м атем атическое ож идание и статисти ческ ую д и с п ер сию случайной величины X
Отв. т* = 2; £ > * = 1 ,2 .
3. П роизведен о 400 бом бом етаний с радиолокационны м п р и ц елом в прим ерно одинаковы х усл ови ях (Я = : 3000 м", и як 900 км!ч). С лучайная величина X — отклонение бомбы по дальн ости от центра цели. Р езультаты опытов представлены в виде стати сти ч еск ой сов ок уп н ости :
•« mi /. м п т. p i
_ 500 — - 400 4 0,01 0 - 100 96 0,24
_ 400 --------300 12 0,03 100 — 200 60 0,15
_ 3 0 0 -------- 200 28 0,07 200 — 300 32 0,08
— 200 -------- 100 56 ' 0,14 300 — 400 8 0,02
_ Ю 0 -------- 0 100 0,25 400 — 500 1 0,01
О п редели ть статистические м атем атическое ож и дан и е и д и с п ер сию отклонения бомбы но дальности. П остроить гистограм м у д ан ной статпстическоіі совокупности.
О ш в. ш * ~ 0; D% — '2,72 • 10' m s.
‘4 . П р ои зведен о 500 опы тов, в которы х определялась м ощ ность отр аж ен н ого от участка моря сигнала ни вы ходе радиолокационного приемника. Результаты опы тов сведены в статистическую совокупность:
I І, в in 0 — 0,1 0,1 — 0,2 0,2 - 0,3 0,3 - 0,4 0,4 - 0,5
165 !20 75 55 35
Pi 0,33 0.24 0,15 0,1 i 0,07
318
/,-, вт 0,5 — 0,6 0,6 — 0,7 0,7 - 0,8 0,8 — 0,9
т 20 15 10 5
p f 0,04 0,03 0,02 0,01
О пределить статисти ч еск ое м атем атическое ож идан ие и ср едн ее квадратическое отклонение мощ ности сигнала.
О т в. т* = 0 ,225 вт', а:-: = 0,189 вт.
5. При помощ и радиодальном ера п р ои зв еден о 16 изм ерений одного и того ж е расстояния. Р езультаты и зм ерения в метрах представлены в виде статисти ческ ого ряда:
І 1 2 3 •l 5 7 к у 10 П \> іа 1! 15 ifi
D i 201 195 207 203 191 208 198 210 204 192 195 211 206 196 208 197
И звестно, что р адиодальном ер не им еет си стем ати ч еск ой ош ибки. Найти н есм ещ ен н ую оц енк у м атем атического ож идания, и зм ер я емого расстояния и оп редели ть довери тел ьны е границы , в которы х с вероятностью 0,9 заклю чено это расстояни е.
От в. т* — 201 м; т 1 = т* — £ = 201 — 3 = 1 9 8 м\/»,. = 201 - | - 3 = 204 м.
6. П роизводи тся серия независим ы х опы тов с целы о о п р еделения вер оятн ости собы тия А. В р езул ьтате 200 опы тов собы тие А произош ло 68 раз. Ч астота собы тия приним ается за приближ енное зн ачен ие вероятности. Найти границы , в которы х с вероятностью не м енее 0,9 б у д е т заклю чено наблю даем ое значение частоты появления собы тия А.
О т в. / f, % (0,286; 0,394).
У к а з а и и е. М атем ати ч еск ое ож идан ие случайной величины Л', которая в каж дом отдельном опы те принимает зн ач ен ие 1, если собы ти е А п оявилось , и 0, если не появилось, равно частоте р * , се ди сп ер си я />*(1 — р * )■
7. П р ои зводи тся сери я независим ы х опы тов с целью о п р ед е л ения вероятн ости собы тия А. В р езул ьтате 100 опы тов собы тие /1 п р ои зош ло 36 раз. Ч астота собы тия приним ается за приближ енное зн ач ен и е вероятн ости эт о го собы тия. Найти вероятность того, что доп ущ ен н ая при этом ош ибка не п р евосходи т 20°/0-
Ошв. [і — 0,87.
8. П р оизводится серия независим ы х опы тов с целы о о п р ед е л ения вер оятн ости собы тия А. В р езул ь тате 100 опы тов собы ти е А п р ои зош л о 36 раз. Ч астота собы тия приним ается за п р ибл иж ен ное зн ач ен и е вероятности. К аково д олж н о быть число опы тов для то го , чтобы с вероятностью не м енее 0,9 м ож но бы ло утверж дать , что допущ енн ая при этом ош ибка не превы ш ает 15%?
Ошв. п ^ 213.
319
9. П роизводи тся п независим ы х опы тов, в р езул ьтате которы х собы тие А появилось т раз. Т р ебуется м етодом н аибольш его правд о п о д о б и я оценить величину вероятности Р появления собы тия А в отдельн ом опы те.
От в. Р = — .ti10. Случайная величина X подчинена закону П уассон а с н еи з
вестны м парам етром 0 и м ож ет принимать лю бое из значении0, 1, 2, — П усть д'ц .Г о ,. . . , х п — наблю даем ы е значения случайной величины в резул ьтате проведенны х п опы тов и г — наибол ьш ее из этих значении. Числа ///„, тг представляю т со б о й частоты, с которы ми встречаю тся наблю денны е значения случайной величины Л'. Требуется методом н аибольш его п р авдоп одоби я о ц енить параметр О,
п1
Отв. О = — / л';. п _( = 1
П Р И Л О Ж Е Н И Й
Т а б л и ц а 1
2 (*Значения функции Лапласа Ф (.v) = ~т~п \ с d t
V яо
X Ф (х) .V Ф (х) А- «1> (.V)
0,00 0,0000 0,95 0,8209 1,90 0,99280,05 0,0564 1,00 0,8427 1,95 0,99420,10 0,1125 1,05 0,8(524 2,00 0,99530,15 0,1680 1,10 0,8802 2,05 0,99630,20 0,2227 1,15 0,8961 2,10 0,99700,25 0,2763 1,20 0,9103 2,15 0,99760.30 0,3286 1,25 0,9229 2,20 0,99810,35 0,3794 1,30 0,9340 2,25 0,99850,40 '0,4284 1,35 0,9438 2,30 0.99880,15 0,4755 1,40 0,9523 2,35 0,99910,50 0,5205 1,45 0,9597 2,40 0,99930,55 0,5633 1,50 0,9661 2,45 0,99950,00 0,6039 1,55 0,9716 2,50 0,99960,65 0,6420 1,60 0,9736 2,55 0,99970,70 0,6778 1,65 0,9804 2,60 0,99980,75 0,7112 1,70 0,9838 2,65 0,99980,80 0,7421 1,75 0,9867 2,70 0,99990.85 0,7707 1,80 0,9891 2,75 0,99990,00 0 ,7969 1,85 0,9911 2,80 0,99990,95 0,8209 1,90 0,9928 3,00 1,0000
Т а б л и ц а 2) т —А.
Значения функции Р (х = т) = — — ст\
лгп 0.1 * 0,2 0,3 0,4 0.5 0,0
0 0,904837 0,818731 0,740818 0,670320 0,606531 0,5488121 0,090484 0,163746 0,222245 0,268128 0,303265 0,3292872 0,004524 0,016375 0,033337 0 ,053626 0,075816 0,0987863 0,000151 0,001092 0,003334 0,007150 0,012636 0,0197574 0,000004 0,000055 0,000250 0,000715 0,001580 0.G029645 0,000002 0,000015 0,000057 0,000158 0,0003566 0,000001 0,000004 0,000013 0,0000367 0,000001 0,000003
321
Про
долж
ение
та
бл.
j 3.0 0,0
49
78
70
,149
361
0,2
24
04
20
,22
40
42
0,1
68
03
10
,10
08
19
0,0
50
40
90
,02
16
04
0,0
08
10
20
,00
27
01
0,0
00
81
00
,00
02
21
0,0
00
05
50
,00
00
13
0,0
00
00
30
,000
001
О
0,1
35
33
50,
2706
710,
2706
710
,18
04
47
0,0
90
22
40
,03
60
89
0,0
12
03
00
,00
34
37
0,0
00
89
90,
0001
910
,00
00
38
0,0
00
00
70,
0000
01
О
0,3
67
87
9
0,3
67
87
9
0,1
83
94
0
0,0
61
31
3
0,0
15
32
8
0,0
03
06
6
0,00
0511
0
,00
00
73
0
,00
00
09
0
,000
001
0.9
0,4
06
57
00
,36
59
13
0.1
64
66
10
,04
93
98
0,0
11
11
50
,00
20
01
0,0
00
30
00
,00
00
39
0,0
00
00
4
СОО
0,4
49
32
90
,35
94
63
0,1
43
78
50
,03
83
43
0,0
07
66
90
,00
12
27
0.0
00
16
40
,00
00
13
0,0
00
00
2
о
0,4
96
58
50
,34
76
10
0,1
21
66
30
,02
83
88
0,0
04
96
80,
0000
810
,00
00
08
0,00
0001
У О —н ОІ СО 1-0 О Г— СО СЭ О — <М ГС IO/5
r C - 'O O t f ' f 'O O t O C O O O i O O ^ - •ОСОГООГ—-?'ЗОСМСО<ССМ CM —< ОЭ СЭ 00 СМ СЭ •—■ 1.0 ІО CO Dl «О Г- WCO р; Э9 О) Г“ — с о о ^ —'О О —' ' - ® О Г ' Г ^ О - ' ( ч- І ' - Ю О Г ' С 0 С ^ Т 0 > һ - М С 0 О ( М ' - ' О О О О0 ’- ‘?'тте0'-'һ"«00мм0£'10!0йс'1-<0000000о о о ^ г п с а - с о м - а м о м - ^ о о о о о о о о о оО О О О О О О — — ~ — О О О С С5 С 0 _ 0 С О 0 „ 0 о о о оо о о о о о о о о о о о о о о ' о о о о о о о о о о о о
lO IO «С !М "З* СО Г- Г- Г- СМ О Г'- О "Ч* СС СО тГ Г» О — СМ 00 ГО —■сс м и о! ю о c l эо со > о з ; (М — м (М — С! -з1 о> ю о :м о о о ГО <С С М СО — Ю lO О !М — —■ СС СЭ О to •— С5 00 — о о о о оо (М о со г----і і м о а т с і и ю о е о т м о о о о о о о оч—' V. -ч v v — ^ -1 С4 ] ^ Э *2 ) -ту i.О О —• CJ іО О СМ ГС ГС C l СЭ tо о о о о о ---- —■ -
І О С О О О С с с с с о
о о і х о е с і - г м о с о с о о о о С Э Һ - Т С Ч - О О С О О С О О О О О С О С С О О О О О О О О О О О О-С -С -Г —~ ' о о " о * о* о " о " о " о " о " о о "
СМ ГО *—1 С> СС Г"- ГС 00 Г - 1.0 СС^ - - V - u. J •— О СО Ч’ — СО О (М 1.0 О Ч/ —со см см — о о г ^ с с о м о о о о і - гг сэ го со го — с о ГСГС —'N l - O O C C r C — ГС —■ о со т ю см о о о о о а м о і —' О) 05 О — O i Q C T I ^ X - о о о о о о ог-■: у-м іг гт> гч rf* т*< сг: <Г5 гг С4'! О г*} э {“э г~? г-і г-'. г-*, с—>о ___ . . .О О СМ Ю СЭ СМ ООО ОС О о О О О О о
- . -0000000000 Ю .0 - .Я .Я .Ч ,о о _о о _о о о " d o " о о о ’ о о о " о о " о ’ о " о *о " о ’ о "
— — — О О С оГ © о о о о о о о о <
СС ГО lO £; Г- ГС *+ О О — СМ 1C С4) СС 1.0 - ? — ого о Го со сс см — |.о г— см С1СЭО — о о о о оСО ГС О 1.0 Ю О Т С5 С; СС 1.0 —' о о с о о о о— I---ГСЭСЭіОО іОСМ — О О О о о о о о оО с - І - - - - о с о о о о о. о. о_ о о о,о" о о* о" о о о о" с о о о" о о с о о" с о
/РЗначения t$ , удоплстворяю щ ис равенству 2^ S n х (/) dt — fi
ив зависимости от (’» и п — I
Т а б л и ц а 3
'ңЧ-1Ч\ ^ 0.1 0,2 0,3 0, I Г. 5 O.G 0.7
1 0,158 0.325 0,510 0,727 1,000 1,376 1,9632 142 289 445 617 0.810 1.001 1,3363 137 277 424 584 705 0,978 1,2504 134 271 414 569 711 94! 1,1905 132 207 4 0S 559 727 920 1,1566 131 205 401 553 718 906 1,1347 130 263 402 549 711 896 1,1198 130 262 39!) 546 706 88!) 1,1089 129 261 398 543 103 883 1,100
10 129 260 397 542 700 879 1,09311 129 260 390 540 097 876 1,08812 128 259 395 539 095 873 1,08313 128 259 394 538 694 870 1,07914 128 258 393 537 092 808 1,07615 128 258 393 536 091 866 1,074И) 128 258 392 535 090 865 1,07117 128 257 392 534 089 863 1,06918 127 257 392 534 088 862 1,06719 127 257 391 533 688 861 1,06620 127 257 391 533 687 860 1,06421 127 257 391 532 680 859 1,00322 127 256 390 532 080 858 1,06123 127 250 390 532 685 858 1,06024 127 256 390 531 085 857 1,05925 127 256 390 531 084 856 1,05820 127 256 390 531 684 850 1,05827 127 25(3 389 531 681 855 1,05728 127 256 38!) 530 683 855 1,05629 127 256 389 530 683 854 1,05530 127 256 389 530 683 854 1,05540 120 255 388 529 681 851 1,05000 120 254 387 527 679 848 1,010120 120 254 380 520 677 815 1,041
0,120 0,253 0,о8о 0,524 0,674 0,842 1,036
323
123•I5О789
К)II121314151(51718192021')0‘2324252627282930406020
Продолжение
0,8 0,9 0,95 0.98 (',99
3,08 0,31 12.71 31,8 63,71,886 2,92 4,30 (5,96 9,921,038 2,35 3,18 4,54 5,841,533 2,13 2,77 3,75 4,601,476 2,02 2,57 3.36 1,031,440 1,943 2,45 3,14 3,711,415 1.895 2,3(5 3,00 3,501,397 1.860 2,31 2,90 3,3(51,383 1,833 2,20 2.82 3.251,372 1,812 2.23 2.76 3,171,363 1.796 2,20 2,72 3,111.356 1,782 2,18 2,68 3,0(51,350 1.771 2,Ю 2.65 3,011,345 1,761 2.14 2.(52 2,981,341 1,753 2,13 2,60 2,951.337 1,746 2,12 2,58 2,921.333 1.740 2,11 2,57 2,901,330 1,734 2,10 2,55 2,881.328 1,729 2,09 2,54 2І861,325 1,725 2,09 2,53 2,841.323 1.721 2,08 2,52 2,831,321 1,717 2,07 2,51 2,821,319 1,714 2,07 2,50 2,811,318 1.711 2,0(5 2,49 2,801,316 1,708 2,0(5 2,48 2,791.315 1,700 2,00 2,48 2,781,314 1,703 2.05 2,47 2,771,313 1,701 2,05 2,47 2,7(51,311 1,099 2,01 2,46 2,7(51,310 1.097 2,01 2,40 2,751,303 1,684 2,02 2.12 2,701,296 1,671 2,00 2,39 2,0(51,289 1,058 . 1,980 2,36 2,021,282 1,045 1,960 2,33 2,58
ЛИТЕРАТУРА
1. В. С. П у г а ч е в . Теория случайны х ф ункций и ее п рим енение к задачам автом атического управления. М ., Ф изм атгнз, I960.
2. Е. С. В е и т ц е л ь. Теория вероятностей. М., Ф изматгнз, 1962.
3. Б. В. Г и е д е н к о. К урс теории вероятностей . М., Ф изм атгнз, 1961.
4. 11. В. С м и р н о в н 11. В. Д у н и п-В а р к о в с к и и. М., К раткий курс матем атической статистики для технических приложений. М ., Ф изматгнз, 1959.
5. В. Ф е л л е р. В веден ие в теорию вероятностей и ее прилож ения, т. 1 и 2. М., «Л\пр», 1967.
6. В. Е. Г м у р м а и. В веден ие в теорию вероятностей и м атем атическую статистику. М., «Вм еш ан школа», 1963.
7. Б. Г. В о л о д и н и др. Сборник задач по теории вероятностей, матем атической статистике и теории случайны х функции. М., «Н аука», 1965.
8. С. И. Л о з и н с к и й . Сборник задач по теории вероятностей н математической статистике. М., «Статистика», 1967.
ОГЛАВЛЕНИЕ
Стр.П редисловие ............................................................................................................. 3В в е д е н и е ..................................................................................................................... 4Г л а в а 1. О п ределен и е вероятности и основны е правила сс
вычисления ........................................................................................ 8$ 1.1. Случайны е собы тия. Классификация собы тий. 8§ 1.2. Сумма и произведение событий .......................... 10$ 1.3. Частота собы тия и се с в о й с т в а ............................ 12§ 1.1. Вероятность с о б ы т и я ................................................. 15$ І Л Геом етрическая в е р о я т н о с т ь ................................ 18§ I.e. А ксиом атическое построение теории вероят
ностей .................................................................................... 21§ 1.7. Теорема слож ения в е р о я т н о с т е й ........................ 24$ \.х. Теорема ум нож ения в е р о я т н о с т е й .................... 27§ I.!). Теорема слож ения вероятностей для совм ест
ных с о б ы т и й ....................................................................... 31$ 1.10. Ф ормула полной в е р о я т н о с т и ................................ 34§ 1.11. Теорем а гипотез (форм ула Б е й е с а ) .................... 35$ 1.12. П овторение испытаний. Ф ормула Бернулли 38§ 1.13. П аивероятнейш ее число наступлений события
при повторении и с п ы т а н и й ...................................... 42Вопросы для самопроверки ...................................... 44У праж нения ...................................................................... 44
Г л а в а 2. Случайные в е л и ч и н ы .................................................................... 48$ 2.1. П онятие случайной в ел и ч и н ы ............................... 4S§ 2 .2 . Закон распределения вероятностей дискрет
ной случайной величины ............................................ 50§ 2.3. Функция р а с п р е д е л е н и я ........................................... 52§ 2.4. Плотность р а с п р е д е л е н и я ....................................... 59§ 2.5. Числовые характеристики случайной величины 65§ 2.6. Моменты случайной в е л и ч и н ы .......................... 77§ 2.7. Биномиальное р а с п р е д е л е н и е ............................... 80§ 2.8. Р аспр едел ен ие П у а с с о н а ........................................... 82$ 2.9. Равномерное р а с п р е д е л е н и е ................................... 87$ 2.10. П оказательное р а с п р е д е л е н и е ................................ 80§ 2.11. Н ормальное р а с п р е д е л е н и е .............................. . 91§ 2.12. Вероятность попадания случайной величины,
имею щ ей нормальное р асп р едел ен и е, на за данный участок Фукция Л а п л а с а ........................ 94Вопросы для сам опроверки ......................................... 99У п р а ж н е н и я ......................................................................... 100
Г л а в а 3. Системы случайны х в е л и ч и и ............................................... 103§ 3.1. Понятие о си стем е случайны х величин . . . . 103§ 3.2. Закон расп р еделен и я системы случайны х . .
величин. Таблица расп ределен и я ........................ 101§ 3.3. Функция расп ределен и я системы д в ух случай
ных в е л и ч и н ......................................................................... 105
326
I
Стр.§ Я .I. Плотность расп ределен и я системы дпух сл у
чайных в е л и ч и н ................................................................. 109§ 3 .5 . Плотности распределения отдельны х величин,
входящ их в систем у. Условные законы распределения ......................................................................... 11-1
§ 3.6. Зависимы е и независимы е случайны е величины 119§ 3.7. Числовые характеристики системы двух сл у
чайных величин. К орреляционны й момент.К оэффициент к о р р е л я ц и и ......................................... 122
§ 3.8. Ф ункция и плотность расп ределен и я системыпроизвольною числа случайны х величин . . . 126
§ 3.9. Числовые характеристики системы произвольн ою числа случайны х величин ............................. 129
§ 3.10. Н ормальное расп ределен и е на плоскости . . 132Вопросы для сам опроверки .................................... Ы0У п р а ж н е н и я ......................................................................... 141
Г ла ва •/. Функции случайны х в е л и ч и н ............................................... 145§ 4.1. Закон расп ределен и я функции одной сл уч ай
ной ' величины ..................................................................... 145§ 1 . 2 . Р асп р едел ен и е ф ункциональною п р еобр азова
ния системы случайны х в е л и ч и н ......................... 151§ 4.3. Закон расп ределен и и функции нескольких сл у
чайных в е л и ч и н ................................................................. 153§ 4.4. Р асп р едел ен и е Р э л е я .................................................... 157§ 4.5. О п ределен и е м атем атическою ожпчания функ
ции случайны х величин. Теоремы о м атем аш -чеекпх о ж и д а н и я х ............................................................. 159
§ 4.6. О п р едел ен и е дисперсии функции случайны хвеличин. Теоремы о д и с п е р с и я х ............................. 106
§ 4.7. О п р едел ен и е корреляционною момента ф ункции случайны х величин. С войства корреляцион н ою момента и коэффициента корреляции 172
§ 4.8. Комплексная случайная в е л и ч и н а ........................ 177§ 4.9. Х арактеристические ф у н к ц и и .................................... 179
Вопросы для сам опроверки ......................................... 185У праж нения ......................................................................... 18(5
\ Глина Л. П редельны е теорем ы теории в е р о я т н о с т е й ................... 189§ 5.1. П редварительны е з а м е ч а н и я ............... . . . . . . 189§ 5 .2 . Н еравенство Ч е б ы ш е в а ................................................. 190§ 5.3. Т еорем а Ч е б ы ш е в а ....................................................... 192§ 5.4. Теорем а Б е р н у л л и ............................................................ 195§ 5.5. Ц ентральная предельная т е о р е м а ....................... 197§ 5.6. Т еорем а М уавра — Л а п л а с а ....................................... 201
Вопросы для сам опроверки ......................................... 204,У праж нения ......................................................................... 204
Г л а в а 6. С лучайны е ф у н к ц и и ................................................................... 206§ 6.1. О п ределен и е случайной ф у н к ц и и ......................... 206§ 6.2. М ною м ерны е плотности в е р о я т н о с т и .................. 208§ 6.3. М атем атическое ож идание и дисперсия сл у
чайной ф у н к ц и и ................................................................. 210§ 0.4. К орреляционная функция случайной функции 211§ 6.5. М оменты вы сш их п о р я д к о в ...................................... 216
327
I
Стр.§ 0.6. Примеры случайны х ф у н к ц и и .................................217§ 0 .7 . Комплексны е случайны е ф у н к ц и и ..................... 221§ 6.8. О перации нал случайными функциями . . . . 223 § 6.9. Каноническое разлож ение случайны х ф ункции 231§ 6.10. Стационарны е случайны е ф у н к ц и и .................... 234§ 6.11. Э ргодическое свойство стационарной случай
ной ф у н к ц и и ........................................................................ 237§ 6.12. С пектральное разлож ение стационарной сл у
чайной функции на конечном интервале . . . 211 § 6.13. С пектральное разлож ение стационарной сл у
чайной функции на бесконечном интервале. Спектральная плотность стационарной случайной ф у н к ц и и .........................................................................246
§ 6.14. Примеры стационарны х случайных функций 251 § 6.15. П реобразование стационарной случайной
функции линейной системой .................................. 256Вопросы для сам опроверки ................................... 261У п р а ж н е н и я .........................................................................262
Г л а в а 7. М атематическая с т а т и с т и к а .................................................... 268§ 7.1. П редмет математической ст а т и ст и к и ...............268§ 7.2. Генеральная совокупность и выборка . . . . 269 § 7.3. С татистический ряд. С татистическая функция
распределения .................................................................... 270§ 7.4. С татистическая совокупность. Гистограмма. 272 § 7.5. Числовые характеристики статистического
распределения ..................................................................... 274§ 7.6. Свойства точечны х о ц е н о к .................................... 275§ 7.7. О п ределен и е приближ енного значении и зм еря
емой величины и приближ енного значения д и сперсии в случае прямых равноточных изм ерений 277
§ 7.8. О п ределен и е приближ енного значения и зм еряемой величины в случае неравноточны хи з м е р е н и й .............................................................................2S2
§ 7.9. Д оверительны й интервал. Д оверительнаяв е р о я т н о с т ь .........................................................................286
§ 7.10. П остроение доверительного интервала для м атем атического ожидания случайной величины, распределенной но нормальному закону.Распределен ие С т ы о д е и т а ......................................... 290
§ 7.11. О пределен и е приближ енны х значений числовых характеристик системы двух случайны хвеличин .................................... ........................................... 293
§ 7.12. М етод н аибол ьш ею правдоподобия для нахож дения оценок параметров расп ределен и й . . ’. 296
§ 7.13. С глаж ивание эксперим ентальны х зависим остей ........................................................................................ 299
§ 7.14. М етод наим еньш их к в а д р а т о в ................................301§ 7.15. Статистическая проверка г и п о т е з ........................304§ 7.16. Понятие о критериях с о г л а с и я ............................ 313
Вопросы для сам опроверки .................................... 316У п р а ж н е н и я ........................................................................ 317
П р и л о ж е н и я ..............................................................................................................321Л и т е р а т у р а ........................................................................................ 325