Author: Гмурман В.Е.
Tags: теория вероятностей и математическая статистика теория вероятностей математическая статистика комбинаторный анализ теория графов математика статистика учебное пособие
ISBN: 5-06-003464-Х
Year: 1999
В.Е.Гмурман
Теория
"
вероятпостеи
и математическая
статистика
ИЗДАНИЕ СЕДЬМОЕ, СТЕРЕОТИПНОЕ
Рекомендовано Министерством общего
и профессионального образования
Российской Федерации
в качестве учебного пособия.
для студентов в узов
Москва
"Высшая школа"
1999
УДК 519.2
ББК 22.171
г55
Гмурман В. Е.
Г55
Теория вероятностей и математическая статистика. Учеб.
пособие для вузов. Изд. 7 -е, стер.-М.: Высш. шк., 1999. -
479 с.: ИJI.
ISBN 5-06-003464 -Х
Книга (6-е изд.- 1998 г.) содержиr в основном весь материал программы
по теории вероятностей и математической статистике. Большое внимание
уделено статистическим методам обработки экспериментальных данных. В
конце каждой главы помещены задачи с ответами.
Предназначается для студентов вузов и лиц, использующих вероятнос
тные и статистические методы при решении практических задач.
ISBN 5-06-003464-Х
© Издательство «Высшая школа», 1999
ОГЛАВЛЕНИЕ
Введение............................................................. ·········'·······················•·····
14
ЧАСТЬ ПЕРВАЯ
СЛУЧАЙНЫЕ СОБЫТИЯ
Глава первая. Осиовиwе DOИJmUI теории 11epo.tm1ocтdi.................... ...
17
§1. Испытания и события...............................................................
17
§2.Видыслучайныхсобытий...... ...................................................
17
§ 3. Классическое определение вероятности ........... .. . .. .. .. . ... .. .. .. .. .
18
§ 4. Основные формулы комбинаторики............................ ... . .. .. .. .
22
§ 5. Примеры непосредственного вычисления вероятностей. ... ..
23
§ 6. Относиrельная частота. УстойЧивость относительной часто-
ты........................................................................................................
24
§ 7. Ограниченность клас
с
ического определения вероятности.
, Статистическаявероятность............................................................
26
§ 8. Геометрические вероятности.............. .. .. .. . .. .. .. .. .. .. .. . .. .. .. .. .. .. . .. .
27
Задачи.................................................................................................
30
Глава вторая. Теорема сложении 11epo.tm1ocтei ......•... ......• ...... ....... ...
31
§ 1. Теорема сложения вероятностей несовместных событий.. .. .
31
§ 2. Полная груп
па
событий......... ...................................................
33
§3.ПротивополоЖНЪiесобытия......................................................
34
§ 4. Принцип практической невозможности маловероятных
событий..............................................................................................
35
Задачи.................................................................................................
36
Глава третЬя. Теорема умиожеНИJ1 11epo.tm1ocтei.."..... .... .. .. .. .... ....... .
37
§ 1. Произведение событий.................................. .. .. .. .. . .. .. .. . .. .. .. . .. .. .
37
3
§2.Условная вероятность................................................................
37
§3.Теоремаумножениявероятностей...........................................
38
§ 4. Независимые события. Теорема умножения для независимых
событий...............................................................................:..............
40
§ 5. Вероятность появления хотя бы одного события...... . .. .. . .. . .. ..
44
Задачи.......... .......................................................................................
47
Глава четвертая. CпeдC'l'l
llUI
теоремCJ
J
OJUll
lUI
в умвоже11
1U1
• •••• •••• •••• •
48
§ 1. Теорема сложения вероятностей совместных событий... . .. .. .
48
§2.Формула полной вероятности..................................................
50
§3. Вероятностьгипотез. Формулы Бейеса...................................
52
Задачи.................................................................................................
53
Глава пятая. Повторение нспыrан
нй
••• •••• •••• •••• •••• •••• •••• •••• •••• •••. •••• •••• •
55
§1.ФормулаБернулли............................................".......................
55
§2.ЛокальнаятеоремаЛапласа.......................... :...........................
57
§3.Интегральная теоремаЛапласа.............................. ..................
59
§ 4. Вероятность отклонения относительной частоты от постоян-
нойвероятности в независимых испытаниях................................
61
Задачи.................................................................................................
63
ЧАСfЬ ВТОРАЯ
СЛУЧАЙНЫЕ ВЕЛИЧИНЫ
Глава шестая. Виды спуча1ны
х
JleJl
llЧl
ll
l
.Задан
н
е дискретной случай-
ной вeJ
JJf'l
llВW
•• •••• ••• •••• •••• •••• •••• •••• •••• ••••• ••• •••• •••• •••• •••• •••• •••• •••• •••• •••• •••• •
64
§1.Случайнаявеличина................................................................"
64
§ 2. Дискретные и непрерывные случайные величины.. .. . . .. .. . .. . ..
65
§ 3. Закон распределения вероятностей дискретной случайной
величины............................................................................................
65
§4.Биномиальное распределение...................................................
66
§5.РаспределениеПуассона...........................................................
68
§ 6. Простейший поток событий........." .."..""". ". . .. . ."". "" . .. . ." .. ."
69
§7.Геометрическое распределение.............................."................
72
§8.Гипергеометрическое распределение.......................................
73
Задачи.................................................................................................
74
Глава седьмая. Математическое ОJl[НДаННе днскретноl случайной
веJ1
11Ч1
11
1Ы
• •"• ••• •" "•• •••• "• •••• •••• •••• •••• •"• •••• •••• •••" ••• •••• •••• •••• •••�. ... .... ... ...
75
4
§ 1. Числовые хара�сrеристики дискретных случайных величин.
75
§ 2. Математическое ожидание дискретной случайной величины
76
§ 3. Вероятностный смысл математического ожидания...............
77
§4.Свойства математического ожидания......................................
§ 5. Математическое ожидание числа появлений события в
независимыхиспыrаниях...........................................................····.·
Зацачи.................................................................................................
Глава восьмая. Дисперсия дискретной случайной велвчв
вы
.........."....
§ 1. Целесообразность введения числовой харак:rеристики рассе-
янияслучайнойвеличины...............................................................
§ 2. Оrклонение случайной величины от ее математического
ожидания............................................................................................
§3. Дисперсия дискретной случайной величины.........................
§4.Формуладля вычисления дисперсии.......................................
§5.Свойствадисперсии...................................................................
§ 6. Дисперсия числа появлений события в независимых испы-
таниях.................................................................................................
§7.Среднее квацратическоеотклонение.......................................
§ 8. Среднее квацратическое отклонение суммы взаимно
независимых случайных величин....................................................
§9. Одинаково распределенные взаимно независимые случайные
величины............................................................................................
§ 10. Начальные и центральные теоретические моменты. . .. .. . .. . ..
Зацачи.................................................................................................
Глава девятая. Закон болыпвх чисел ................................................
§1.Предварительныезамечания.....................................................
§2.НеравенствоЧебышева.............................................................
§3.ТеоремаЧебышева.....................................................................
§4.Су�цностьтеоремыЧебышева..................................................
§5.Значение теоремыЧебышевадля практики...........................
§6.ТеоремаБернулли......................................................................
Зацачи..............................................................:
..................................
Глава десятая. Функция распределения вероJ1
11
1
остей случайной
78
83
84
85
85
86
87
89
90
92
94
95
95
98
100
101
101
101
103
106
107
108
110
веJ1
11ЧИ1
1Ь1
• ••••• •••• •••• •••• •••• •••• •••• ••••• •••• •••• •••• • •••• •••• ••• ••••• ••••• ••• •••• •••• • •• •• • ••
111
§1.Определение функциираспределения.....................................
111
§2.Свойствафункциираспределения...........................................
112
§3.Графикфункциираспределения..............................................
114
Зацачи.................................................................................................
115
Глава одиннадцатая. ПлО1
11
осп. распределеиия веро1П1
1
остей непре-
рwввой случайной велвчв
вы
............................................................
116
§1.Определение плотности распределения..................................
116
§ 2. Вероятность попацания непрерывной случайной величины
в зацанный интервал........•/;''·····························································
116
5
§ 3. НахоQение функциираспределения по иэвесrной плотности
распределения....................................................................................
118
§4.Свойстваплотности распределения.........................................
119
§ 5. Вероятностный смысл плотности распределения ..................
121
§ 6. Закон равномерного распределения вероятностей ....... . .. .. . .. .
122
Зццачи.................................................................................................
124
Глава двенадцатая. Норма!
!N!ОР
pacupeдe
JИ'l
ll
le
. ..... ..... ..... ..... ..... ..... ..
124
§ 1. Числовые хараперистики непрерывных случайных величин 124
§ 2. Нормальное распределение.......................................................
127
§ 3. Нормальная кривая....................................................................
130
§ 4. Влияние параметров нормального распределения на форму
нормальной кр ивой............................................... ... . .. . .. . .. .. . .. .. . .. . ... ..
·
131
§ 5. Вероятность попццания в заданный икrервал нормальной
случайной величины..........................................................:. .. .. .. .. .. . ..
132
§ 6. Вычисление вероятносrи задаНного отклонения ...................
133
§7.Правилотрехсигм.....................................................................
134
§ 8. Понятие о теореме Ляпунова. Формулировка ценrральной
предельнойтеоремы..........................................................................
135
§ 9. Оценка отклонения теоретического распределения от нор-
мального.Асимметрия иэксцесс....................................................
137
§ 10. Функция одного случайного арrуменrа и ее распределение 139
§ 11. Математическое ожидание функции одного случайного
арrуменrа...............................................................................·-··········
141
§ 12. Функция двух случайных арrуменrов. Распределение суммы
независимых слагаемых. Усrойчивосrь нормального распреде-
ления...................................................................................................
143
§ 13. Распределение «ХН квадраТ»...................................... .. . .. . .. .. .. ..
145
§14.РаспределениеСтьюдента.......................................................
146
§ 15. Распределение FФишера -Снедекора.......... .. .. . .. .. . .. .. .. .. .. . .
147
Зццачи.................................................................................................
147
Глава тринадцатая. Пouзaтe.Jlbl
l
oe распределение.............. ...... ... ....
149
§ 1. Определение показательного распределения..........................
149
§ 2. Вероятносrь попадания в заданный интервал показательно
распределенной случайной величины .......... ........ ..........................
150
§ 3. Числовые характеристики показательного распределения.. ..
151
§ 4. Функция надежносrи ...................................................
·
.............
152
§5.Показательный законнадежности...........................................
153
§ 6. Характеристическое свойство показательного закона надеж-
ности.......................................................................... ........................
154
Зццачи.................................................................................................
155
Глава четырнадцатая. Система .uyx случаi
iиwх
вeJDIЧl
ll
l
... ...... .... .... ..
155
6
§ 1. Понятие о системе нескольких случайных величин..............
155
§ 2. Закон распреде.1ения вероятностей дискретной двумерной
случайнойвеличины................................................................."..... .
156
§ 3. Функция распределения двумерной случайной величины . . .
158
§ 4. Свойства функции распределения двумерной случайной
величины..".."...."........"........"..""......"."...".. ""......".... "".."....""..
159
§ 5. Вероятность попадания случайной точки в полуполосу .." .. .
161
§ 6. Вероятность попадания случайной точки в прямоуrольник.
162
§ 7. Плотность совместного распределения вероятностей непре
рывной двумерной случайной величины (двумерная плотность
вероятности)".... ..".............."...."....""......"""....".".....".."....""......
163
§ 8. Нахождение функции распределения системы по известной
плотностираспределения...".........."..........""""""".."...."..""...."..
163
§ 9. Вероятностный смысл двумерной плотности вероятности...
164
§ 10. Вероятность попадания случайной точки в произвольную
область..".... ".......... "... "................... ""..".."""..................."."."..."..
165
§ 11. Свойства двумерной плотности вероятности.."...". .. . "" " "" .
167
§ 12. Оrыскание плотностей вероятности составляющих двумер-
ной случайной величины....""...".."..."...........""".............."..........
168
§ 13. Условные законы распределения составляющих системы
дискретных случайных величин..."."....".."""".".."..".."...."...".."
169
§ 14. Условные законы распределения составляющих системы
непрерывных случайных величин ."" "".. .. ". .. " . .. .. .. ." """. . .. "." "" ..
171
§ 15. Условное математическое ожидание ...... ..""".. " " . . ".. "" " ""..
173
§ 16. Зависимые и независимые случайные величины"..".. " ." "..
174
§ 17. Числовые характеристики систем двух случайных величин.
Корреляционный момент. Коэффициент корреляции.""..". ". " ..
176
§ 18. Коррелмрованность и зависимость случайных величин".".
179
§ 19. Нормальный закон распределения на плоскости."."""."""
181
§ 20. Линейная реrрессия. Прямые линии среднеквадратической
реrрессии".."...."..".."""".."........."."".."" .. "...."..."".."......•"..""....
182
§ 21. Линейная корреляция. Нормальная корреляция.. .. . .. ." . "". . .
184
Задачи................................................."........................"....................
185
ЧАСТЬ ТРЕТЬЯ
ЭЛЕМЕIПЫ МАТЕМАТИЧЕСКОЙ СТАТИСТИКИ
Глава пятнадцатая. ВыборОчвый метод •••••••" •••• ••••" •••• ••••• •••"... ..... ..
187
§1.Задачиматематической статистики........".............."............".
187
§2.Краткаяисторическая справка"........................"..................".
188
§ 3. Генеральная и выборочная совокупности......... ... . .. . ." .. "". "".
188
§ 4. Повторная и бесповторная выборки. Репрезентативная вы-
борка......... .................."................................................................"....
189
7
§ 5. Способы отбор:1....... .. .. . .. .
............................... .......... ..............
190
§6.Статистическоераспредедениевыборки.. ..................... . .. ...
192
§ 7 Эмпирическая функция распределения ........... .
.... .
.. ....
..
192
§ 8. Полигон и гистограмма..
.....
..............
.. .............. .................
194
Задачи .. . .
.. . .... ............................
. ...
... ............. .... ..........
1%
Глава шестнадцатая. Ста11
1
стичесuе оцеп:и параметроа pacopeдe-
Мl
lJIJI
••••••••••••••••••••••••••••••••••••••••••••••••••••••••••••••••••••••••••••••••••••••••• .••••
1�7
§ 1. Статистические оценки параметров распределения ... .
197
§ 2 Несмещенные, эф
фе
ктивные и состоятельные оценки.. .
198
§ 3. Генеральная средняя........ .. . .. ..
............ .
19<J
§ 4. Выборочная средняя........................ .. .. .. .. .. .. ..
...................... ...
200
§ 5. Оценка генеральной средней по выборочной средней Ус-
тойчивостьвыоорочныхсредних............................ ..... .. ·············
201
§ 6. Гру11по11ая и общая средние.... . .... . ..................
203
§ 7. Отклонение от общей средней и ею соой<.'ТВО .
. ...... . .........
204
§ 8. Генеральная !IИсперсия ...... .
......
..... ..... .
205
§9.Выборочнаязисnерсия.................... ....................... ............ ..
206
§ 10. Формула для вычисления диспс.рсии.............. .... . .. .. ... . . . .
207
§ 11. Групповая, внутригрупповая. межrрупповая и общая
дисперсш1...............
.... .........................
........ ...... .......
.... ......
207
§ 12. Сложение дисперсий ............ .......... ... ... . . . . .. .
...
.......... ......
21О
§ 13. Оценка генеральной дисперсии по испра1t'!енной выбороч-
ной.......................................... ................. .. ...... ........... .............. ....
211
§ 14. Точность 011енки, доверительная вероятность (надежнос
'
Ть).
Доверительный интервал................
........... ....................... ............
213
§ 15. Доверительные икrервалы ддя оценки математического
о:жидания нормального распределения при известном а ... . .
......
214
§ 16. Доверительные икrериалы для оценки математического
ожиnания нормального распределения при неизвесrном а . ...
216
§ 17. Оценка истинного значения измеряемой величины......... ..
219
§ 18. Доверительные интервалы для оценки среднего кв:щ-
ратическоrо отклонения (J нормального р;;спре.аеления. ..._. ... . .. . .
220
§19.Оценкаточностиизмерений.................. ....................... ........
223
§ 20. Оценка вероятности (биномиальною распределения) по
относительной частоте............... ... . .. .. .. .. . .. .. . . ..
................... . ....... 1- 224
§ 21. Метод моментов для точечной оценки параметров распре-
деления ................................................................... . .. .. .. .. . .. .. .. .. .. . .. .. .
226
§22.Методнаибольшегопрамоподобия..... ................................
229
§ 23. Другие характеристики вариационного ряда ............. .... . . . . ..
234
Задачи.......... ......................................................................................
2j5
Глава семнадцатая. Meтo./Uol раечета ево.АВWХ харапернст
п
awбopu 237
8
§ 1. Условные варианты...................................................................
237
§ 2. Обычные, начальные и ценrральные эмпирические моменты
238
§ 3. Условные эмпирические моменты. Оrыскание ценrральных
момеиrов по условным................................ . .. .. . ... . .. .. .. .. .. . .. . .. .. .. .. .. .. .
239
§ 4. Метод произведений для вычисления выборочных средней
и дисперсии ..................................... .. .. . .. .. .. . .. .. .. .. . .. .. .. . .. .. .. . .. . .. .. . .. .. .. .
241
§ 5. Сведение первоначальных вариаиrов к равнооrстоящим. .. . .
243
§ 6. Эмпирические и выравнивающие (теоретические) частоты.
245
§ 7. Построение нормальной кривой по опьrrным данным.. . .. . .. .
249
§ 8. Оценка отклонения эмпирического распределения от нор-
мального. АсимметрJ>!Я и эксцесс....................................................
250
Задачи.................................................................................................
252
Глава восемнадцатая. ЭлемеlП'Ы теори
и
корреляци
и
. ..... .... ...... ...... ....
253
§ 1. Функциональная, статистическая и корреляционная
зависимости............................................................. ,.. .. . .. .. .. . .. .. .. . .. .. . .
253
§ 2. Условные средние............................. .. . .. .. . .. .. . .. .. .. .. . .. .. . .. .. . .. . .. .. ..
254
§ 3. Выборочные уравнения регрессии...........................................
254
§ 4. Отыскание параметров выборочного уравнения прямой
линии среднеквадратичной регрессии по несrруппированным
данным .................................."...................... "..................................
255
§ 5. Корреляционная таблица...... "..........................."......".............
257
§ 6. Отыскание параметров выборочного уравнения прямой
линии регрессии по сгруппированным данным..
.
.........................
259
§ 7. Выборочный коэф
ф
ициент корреляции ... "....."."..................
261
§ 8. Методика вычисления выборочного коэф
ф
ициента корре-
ляции ····························· ····································································
262
§ 9 Пример на отыскание выборочного уравнения прямой линии
регрессии.......... ................................................................. .. . .. .. .. .. . .. ..
267
§ !О. Предварительные соображения к введению меры любой
корреляционной связи......................................................................
268
§ 11. Выборочное корреляционное отношение ..... .... .. . .. .. . .. .. . .. .. . ..
270
§ 12. Свойства выборо•1ного корреляционного отношения .........
272
§ 13. Корреляционное отношение как мера корреляционной
связи.Достоинстваинедостаткиэтоймеры.................................
274
§ 14. Простейшие случаи криволинейной корреляции ................
275
§ 15. Понятие о множественной корреляции ........................ . ... . .. .
276
Задачи....................................... ....................................................
278
Глава девятнадцатая. Статистическая проверка статистических
rипотез ..... ............. ..
.
.... .... . ......................... ..... .
281
§ 1 Статисти•1еск:�я rип01еза. Нулевая и конкурирующая, прос-
тан и сложная гипотезы.... ...............................................................
281
§2.Ошибки первого ивторогорода........... ... .... .... ............... . ....
282
§ 3 Статистический критерий проверки нулевой гипотезы. На-
блюда1:мое значение критерия......................... ... ...........................
283
9
§ 4. Критическая область. Область принятия гипотезы.
Критиt�:ескиеточки..................."..................."............"...................
284
§ 5. Отыскание правосторонней критической области... . .. .. . .. . .. .. .
285
§ 6. Отыскание левосторонней и двусторонней критических
областей..............................................................................................
286
§ 7. Дополнительные сведения о выборе критической области.
Мощностькритерия........"............"..................................................
287
§ 8. Сравнение двух дисперсий нормальных генеральных сово-
_купностей........."....".................."......................................"..............
288
§ 9. Сравнение исправленной выборочной дисперсии с
гипотетической генеральной дисперсией нормальной совокуп-
ности........."".."......."..........."......................".."..."...........................
293
§ 10. Сравнение двух средних нормальных генеральных совокуп-
ностей, дисперсии которых известны (независимые выборки)... 297
§ 11. Сравнение двух средних произвольно распределенных ге-
неральных совокупностей (большие независимые выборки).. .. .. .
303
§ 12. Сравнение двух средних нормальных генеральных совокуп
ностей, дисперсии которых неизвестны и одинаковы (малые
независимые выборки) ."..."................................."....".................... 305
§ 13. Сравнение выборочной средней с гипотетической генераль-
нойсреднейнормальнойсовокупности.............."..................."....
308
§ 14. Связь меж.цу двусторонней критической областью и
доверительныминтервалом".."........"........""..................................
312
§ 15. Определение минимального объема выборки при сравнении
выборочной и гипотетической генеральной средних................... .
313
§16. Пример наотыскание мощности критерия..........................
313
§ 17. Сравнение двух средних нормальных генеральных совокуп-
ностей с неизвестными дисперсиями (зависимые выборки).... .. .
314
§ 18. Сравнение наблюдаемой относительной частоты с
гипотетической вероятностью появления события..""."."".. " ." "
317
§ 19. Сравнение двух вероятностей биномиальных распределений 319
§ 20. Сравнение нескольких дисперсий нормальных генеральных
совокупностей по выборкам различного обьема. Критерий Бар-
тлетта"....".."..".."............""............................................"......"""....
322
§ 21. Сравнение нескольких дисперсий нормальных генеральных
совокупностей по выборкам одинакового объема. Критерий Коч-
рена......................"."""..".............:··················".."....................... ....
325
§ 22. Проверка гипотезы в значимости выборочного
коэф
ф
ициентакорреляции.. "."........................".."... "....""..". ".."
327
§ 23. Проверка гипотезы о нормальном распределении генераль- .
ной совокупности. Критерий согласия Пирсона "".."....."..".. " ".
329
§ 24. Методика вычисления теоретических частот нормального
распределения.."...."....""........ "...."..".... "".......... """""................ "
333
§ 25. Выборочный коэф
ф
ициент ранговой корреляции Спирмена
и проверка гипотезы о его значимости ".."""""" """"""."""""".
335
10
§ 26. Выборочный коэф
ф
иuиент ранговой корреляuии Кендал
л
а
и проверкагипотезыоегозначимости····-·········-······-····················
341
§ 27. Критерий Вилкоксона и проверка mпотезы об однород-
ностидвухвыборок...........................................................................
343
Задачи·---··-···--····-·--·······-··············-··-· -· · ·- -· ·· · ·· -· ·· · ·· ·· ·· · ·· ·· ·· · ·· ·· ·· ·· · ·- - -- -· -- ·
346
Глава двадцатая. 0.lUloфaпopнw
ii
дисперсионвwi аиализ ••.•••••••.•••...
349
§ 1. Сравнение нескольких средних. Понятие о дисперсионном
анализе...............................................................................................
349
§ 2. Общая, факторная и остаточная суммы квацратов откло-
нений································-················-················································ 350
§ 3. Связь между общей, факторной и остаточной суммами·---···
354
§ 4. Общая, факторная и остаточная дисперсии-··--·················-····
355
§ 5. Сравнение нескольких средних методом дисперсионного
анализа··········-············-·······-···························································-···
355
§ 6. Неодинаковое число испьrrаний на различных уровнях.......
358
Задачи.................................................................................................
361
ЧАСТЬ ЧЕТВЕРТАЯ
МЕТОД МОНТЕ-КАРЛО . ЦЕПИ МАРКОВА
Глава двадцать первая. Моделировавие (рuwrрываиие) СJl)'Чайных
JleJl
ll
ll
ll
ll
методом Moir
re
- Кapлo •••••.•••••••••..•.•.•••••••"•.•••••••••••"...........
363
§1.Предметметода Монте-Карло..................................................
363
§ 2. Оценка погрешности метода Монте-Карло............ ................
364
§3.Случайныечисла........................................................................
366
§ 4. Разыгрывание дискретной случайной величины ...................
366
§ 5. Разыгрывание противоположных собьrrий............................. 368
§ 6. Разыгрывание полной группы событий··············-···--······--····-· 369
§ 7. Разыгрывание непрерывной случайной величины. Метод
обратных функuий·····················---····-·-······-·-···-··-························-···· 371
§ 8. Метод суперпозиuии···························--·····-··-·-·-·········-····---····--
375
§ 9. Приближенное разыгрывание нормальной случайной
величины.....................·--····-·········-·-··--··-···-···-·--··--················-············
377
Задачи··-···-····--·----·---··--·-·-·--····----·········--· ········-···---·····-····--··-·····-·-·-···
379
Глава двадцать вторая. Первоначальные сведении о цепях Маркова .
380
§ 1. Цепь Маркова ···············-···········-·--·-··-··-···-·······--···-····················
380
§ 2. Однородная цепь Маркова. Переходные вероятности .
Матрица перехода·-····-·······-···········--··-··---·······-········--················ -·-···
381
§. Равенство Маркова .. ·-------------------·- _______--
·
·· ·-·····-·--·······- .....
383
Задачи···············--···-· -· -· · -· -· ·- ·· · -·· · ·· -· -- -- - -- - -- ·-
_______--·--·--·-----------·-·----····-
385
11
ЧАСГЬ ПЯТАЯ
СЛУЧАЙНЫЕ ФУНКЦИИ
Глава двадцать третья. Случайные фующви .•..........••.•...•.•............•. 386
§1.Основныезадачи........................................................................
386
§ 2. Определение случайной функции.".."..""..".".."........""""""
386
§ 3. Корреляционная теория случайных функций "....".."."....."" 388
§ 4. Математическое ожидание случайной функции ..."...........""
390
§ 5. Свойства математического ожидания случайной функции "
390
§6.Дисперсияслучайнойфункции......""......".""""".".."".."..""
391
§ 7. Свойства дисперсии случайной функции.. . .. . " .. .. ... .. ". .. .. . ". ".
392
§ 8. Целесообразность введения корреляционной функции...." ..
393
§ 9. Корреляционная функция случайной функции".. ". . ." ." .. ." "
394
§ 10. Свойства корреляционной функции......... . .. .. .. . . ". ". . ." .. ". .. .. .
395
§ 11. Нормированная корреляционная функция. .. .. """" . ." .. .. . ." ..
398
§ 12. Взаимная корреляционная функция.. .. ". "". "". ."" """ .. ". ." ..
399
§ 13. Свойства взаимной корреляционной функции..."............".
400
§ 14. Нормированная взаимная корреляционная функция.. ". ." ..
401
§ 15. Характеристики суммы случайных функций ......"....."""."" 402
§ 16. Производная случайной функции и ее характеристики......
405
§ 17. Интеграл от случайной функции и его характеристики"" "
409
§ 18. Комплексные случайные величины и их числовые харак-
теристики.........................".."...".."."....""""""".."""..".."..............
413
§ 19. Комплексные случайные функции и их характеристики. . ..
415
Задачи".................".....".......".."..............".."....".."".."..".."..".".""
417
Глава двадцать четвертая. Стационарные случайные фушщви..•...•". 419
§ 1. Определение стационарной случайной функции."..".""""".
419
§ 2. Свойства корреляционной функции стационарной случай-
нойфункции....".."......"..".."..........".."............"...".......""..."."..""
421
§ 3. Нормированная корреляционная функция стационарной
случайнойфункции....."."...."......""..."...".."""...."""...."."."........
421
§ 4. Стационарно связанные случайные функции .. """......".."""
423
§ 5. Корреляционная функция производной стационарной слу-
чайнойфункции.........."......"........"..........".."....".".........................
424
§ 6. Взаимная корреляционная функция стационарной случай-
нойфункциииее производной......... ..........................................."
425
§ 7. Корреляционная функция интеграла от стационарной слу-
чайнойфункции.................."........".................."..............................
426
§ 8. Определение характеристик эргодических стационарных
случайныхфункцийизопыта........"................".........................."..
428
Задачи...".........................................."...................................."..........
430
Глава двадцать пятая. Элеме11
11а1
спектральной теории стационарных
случайвы
х
функций •.•.." •.•• ...• .•.. ..•. .... •" ." •.: . •.•. •.•" ..•. " . .. .. ..... .. ... ... .. .
431
12
§ 1. Представление стационарной случайной функции в виде
гармонических колебаний со случайными амплитудами и случай-
нымифазами.....................................................................................
431
§ 2. Дискретный спектр стационарной случайной функции . ... .. .
435
§ 3. Непрерывный спектр стационарной случайной функции.
Спектральная плотность...................................................................
437
§4.Нормированная спектральнаяплотность................................
441
§ 5. Взаимная спектральная плотность стационарных и
стационарно связанных случайных функций......... .. . .. . .. . .. .. . .. ". .. . .
442
§6.Дельта-функция.........................................................................
443
§ 7. Стационарный белый шум........................................................
444
§ 8.' Преобразование стационарной случайной функции
стационарной линейt-1ой динамической системой ...... . .. . .. .. . .. .. . .. . .
446
Задачи.................................................................................................
449
Дополнение........................................................................................
451
Приложения.......................................................................................
461
Предметныйуказатель......................................................................
474
ВВЕДЕНИЕ
Предмет теории вероятностей. Наблюдаемые
нами событи я (явления) можно подразделить на сл едую
щие три вида : достоверные, невозможные и с.лучайные.
Достовер ным называют событие, которое обязательно
произойдет, если будет осуществлена определенная сово
купность услов ий S. Например, если в сосуде содержится
вода при нормальном атмосферном давлении и темпера
туре 20°, то событие «Вода в сосуде находится в жидком
состоянии» есть достовер ное. В этом примере заданные
атмосфер ное давление и температура воды составляют
совокупность условий s.
Невозможным называют событие, которое заведомо не
произойдет, если будет осуществлена совокупность усло
вий S. Например, событие «вода в сосуде находится в
твердом состоянии» заведомо не произойдет, если будет
осуществлена совокупность условий предыдущего примера.
Случайным называют событи е, кото рое при осуществле
нии совокупности условий S может либо произойти , либо
не произойти. Например, если брошена монета, то он а
может упасть так, что сверху будет либо герб, либо над
пись. Поэтому событие «при бросании монеты выпал
«герб»- случайное. Каждое случайное событи е, в частно
сти выпадение «герба», есть следствие действия очень
многих случайных причин (в нашем примере: сила, с
которой брошена монета, форма монеты и многие другие).
Невозможно учесть влияние на результат всех этих при
чин, поскольку число их очень велико и законы их
действия неизвестны. Поэтом у теория вероятностей не
ставит перед собой задачу предсказать, произойдет еди
ничное событие или нет, -она просто не в силах это
сдел ать.
По-иному обстоит дело, если рассматриваются с.1
1
учай
ные событи я, которые могут многократно наблюдаться
при осуществлении одних и тех же условий S , т. е. если
14
речь идет о массовых одн ородных случайных сОбытиях.
Оказывается, что достаточно большое число одн ородных
случайных событий независимо от их конкретной природы
подчиняется определенным закономерностям, а именно
вероятностным закономерностям. Установлением этих за
кономерностей и занимается теория вероятностей .
Итак, предметом теории вер оятностей является изу
чение вероятностных закономерностей массовых однород
ных случайных событий.
Знание закономерностей, которым подч иняются массо
вые случайные события, позволяет предвидеть , как эти
события будут протек ать. Например, хотя, как было уже
сказано, нельзя наперед определить результат одного
бросания монеты, но можно предсказать, причем с не
большой погрешностью, число появлений «герба», если
монета будет брошена достаточно большое число раз. При
этом предполагается, конечно, что монету бросают в одн их
и тех же услов иях.
Методы теории вероятностей широко применяются в
различных отраслях естествознания и тех ники: в теории
надежности, теории массового обслужи вания, в теорети
ческой физике, геодезии, астрономии, теории стрельбы,
теории ошибок наблюдений, теории автоматического управ
ления, общей теории связи и во многих других теорети
ческих и прикладных науках . Теория вероятностей служит
также для обоснов ания математической и прикладной
стати стики, которая в свою очередь используется при
планировании и организации производства, при анализе
техн<?.'lогических процессов, предупредител ьном и прие
мочном контроле качества продукции и для многих дру
гих целей.
В последн ие годы методы теор ии вероятностей все
шире и шире проникают в различные области науки и
техники, способствуя их прогрессу.
Краткая историческая справка. Первые работы, в ко
торых зарожд ались основные понятия теории вероятно
стей , предс тавляли собой попытки созда ния теории
азартных игр (Кардано, Гюйгенс, Паскаль, Ферма и дру
гие в XVI-XVII вв.).
Следующий этап развития теории вероятностей связан
с именем Якоба Бернулли (1654- 1705). Доказ анная им
теорема, получившая впоследствии название «Закона
больших чисел», была первым теоретическим обоснова
нием накопленных ранее фактов.
15
Дальнейшими успехами теория вероятностей обязана
Муавру, Лапласу, Гауссу, Пуассон у и др.
Новый, наиболее плодотворный период связан с име
нами П. Л. Чебышева (1821-1894) и его учеников
А. А . Маркова (185 6-1922) и А. М . Ляпунова (1857-1918).
В этот период теория вероя тностей становится строй
.
ной
математической наукой. Ее последующее развитие обязано
в первую очередь русским и советс ким ма;rематикам
(С. Н . Бернштейн , В. И . Рома новский, А. Н. Колмогоров,
А. Я.·Хинчин, Б. В. Гнеденко, Н. В. Смирнов и др.) .
В настоящее время ведущая роль в созда нии новых вет
вей теории вероятностей также принадлежит советс ким
математи кам.
ЧАСТЬ ПЕ РВАЯ
СЛУЧАЙНЫЕ СОБЫТИЯ
Глава первая
ОСНОВНЫЕ ПОИ.ЯТИ.Я ТЕОРИИ ВЕРОЯТНОСТЕR
§ 1 . . Испытания и события
Выше событие названо случайным. если при
осуществлении определенной совокупности условий S оно
может либо произойти, либо не произойти. В дальней
шем, вместо того чтобы говорить ..:совокупность условий
S осуществлена» , будем говорить кратко: «произведено
испытание:.. Таким образом, <;обытие будет рассматри
ваться как результат испытания.
Пример 1. Стрелок стреляет по мишени, разделенной на четыре
области. Выстрел-это испытание. Попадание в определенную область
мишени -событие.
Пример 2. В урне имеются цветные шары. Из урны наудачу
берут один шар. Извлечение шара из урны есть испытание. Появле
ние шара определенноrо цвета-ссбытие.
§ 2. ВиАы случайных событий
События называют несовместными , если появле
ние одного из них исключает появление других событий
в одном и том же испытании.
Пример 1. Из ящика с деталями наудачу извлечена деталь.
Появление стандартной детали исключает появлен)fе нестандартной
J(e'ranи. О>бытия споявилась стандартная деталь» и споявилась ие
станяартная деталь» -не совместные .
Пример 2. Брошена монета. Появление сгерба:t исключает nо
JIВЛение надписи. События споявился герб:t и споявнлась надпись» -
несовместные.
Несколько событий образуют nоАную группу, если в
результате испытания появится хотя бы одно нз них.
Другими словами, появление хотя бы одного из событий
п�дной группы есть достоверное событие. В частности,
17
если событ ия, образующие полную группу, попарно несов
.л1естны, то в результате испытания появится одно и
тол ько одно из эт их событий . Этот частный случай
предста вляет для нас наиб�льший интерес, посколь ку
использ уется далее.
Пример 3. Приобретены два билета денежно-вещевой лотереи.
Обязательно произойдет одно и только одно из следующих событий:
«выигрыш выпал на первый .билет и не выпал на второй:., «выигрыш
не выпал на первый билет и выпал на второй» , «выигрыш выпал на
оба билета», «на оба билета выигрыш не выпал». Эти события обра
зуют полную группу попарно несовместных событий.
Пример 4. Стрелок произвел выстрел по цели. Обязательно прои
зойдет одно из следующих двух событий: попадание, промах. Эrи
два несовместных события образуют полную группу.
События называют равновозможными , если есть осно
вания считать, что ни одно из них не является более
возможным, чем другое.
Пример 5. Появление «герба» 11 появление надписи при бросании
монеты-равновозможные события. Действительно, предполагается,
что монета изготовлена из однородного материала, имеет правильную
цилиндрическую форму и наличие чекающ не оказывает влипния на
выпадение той или иной стороны монеты.
Пример 6. Появление того или иного чис.'lа очков на брошенной
игральной кости -равновозможные собЬ1тия. Действительно, предrrо
лагаетсц, что игральная кость изготов.7\ена из однородного материала,
имеет форму правильного многогранника и наличие очков не оказы
вает влияния на выпадение любой грани.
§ З . Классическое определение вероятности
Вероятность- одн о из основных понятий теории
вероятностей . Существует несколько определений этого
пон яти я. При ведем определение, которое называют клас
сическим. Далее укажем слабые стороны этого определе
ния и приведем другие определения, позвол яющие пре
одолеть недостатки классического определен ия.
Рассмотрим пример. Пусть в урне содержится 6 оди
наковых , тщательно перемешанных шаров, причем 2 из
них - красные, 3-синие и 1 -бе.1ый. Очевидно, возмож
ность вынуть наудачу из урны цветной (т. е. I<расный или
синий) шар больше, чем возможность извлечь бе.ТJый шар.
Можно ли охарактеризовать эту возможность чис.пом?
Оказывается, можно. Эго число и называют вероятностью
события (появления uветного шара). Таким образом,
вероятность есть число, характеризующее степень воз
можности появления события.
i8
Поста вим перед собой Задачу дать количественную
оценку возможности того, что взять1й наудачу шар цвет
ной. Появление цветного шара будем рассматривать в
качестве события А. Каждый из возможных результатов
испытания (испытание состоит в извлечении шара из
урны) назовем элементарным исходом (элементарным
событием). Элементарные исходы обозначим через ro1, ro2,
ro3 и т. д . В нашем примере возможны следующие 6 эле
ментарных исходов : rо1-появился белый шар; ro2, 003 -
появился красный шар; 004, 005, 008- появился синий шар.
Легко видеть , что эти исходы образуют полную группу
попарно несовместных событий (обязательно появится
то.Тiько один шар) и они равновозможны (шар вынимают
наудачу, шары одинаковы и тщательно перемешан ы).
Те элементарные исходы , в которых интересующее
нас событие наступает, назовем благоприятству 101.и, и-ми
этому событию. В нашем примере благоприятствуют со
бытию А (появлению цветного шара) следующие 5 исхо
дов : 002, Ю3, 004, 0011, (1)6.
Таким образом, событие А наблюдается, если в испы
тании наступает оди н, безразлично какой , из элементар
ных исходов, благоприятствующих А; в нашем примере
А наблюдается, если наступит ro2, или 008, или оо,, или ro6,
или ro8• В этом смысле событие А подраздел яется на
несколько элементарных событи й (002, ro8, ro,, 0011, ro8);
элементарное же событие не подразделяется на другие
события. В этом состоит различие между событием: А и
элементарным событием (элементарным исходом).
Отношение числа благоприятствующих событию А эле
ментарных исходов к их общеl\IУ числу называют вероят
ностью события А и обозначают через Р (А). В рассмат
риваемом примере всего элементарных исходов 6; из них
5 благоприятствуют событию А. СледоватеJ1ьно, вероят
ность того, что взнтый шар окажется цветным, равна
Р (А)= 5/6. Это чисJiо и дает ту количественную оценку
степени возможности появ.1ения цветного шара, которую
мы хотели найти. Дадим теперь определение вероятности.
Вероятно стью события А называют отношение чисJiа
благоп риятствующих этому событию исходов к общему
числу всех равновозможных несовместных элементарных
исходов, о б разующ их по.rшую группу. Ит ак, вероятность
события А определяется формулой
Р(А)=т/п,
'19
где т-число эле ментарных исходов , благоприятствую
щих А; п-чнсло scex возможных элементарных исходов
испытани я.
Здесь предполагается, что элементарные исходы не
совместны, равновозможны и образуют полную группу.
Из определения вероятности вытекают следующие ее
свойства:
С в ойств о 1 . Вероятность достоверного события
равна единице.
Действительно, если событие достоверно, то каждый
элементарный исход испытания благоприятствует собы
тию. В этом случае т = п, следовательно,
P(A)=m/n=n/n=1.
С в ойств о 2. Вероятность невозможного события
равна нулю.
Действительно, если событие невозможно, то ни оди н
из элементарных исходов испытан ия не благоприятствует
событию. В этом случае т = О , следовательно,
Р(А)=т/п=0/n=О.
С в ойств о 3. Вероятность сл учайного события есть
п оложительное число, закл юченное ;.1ежду нулем и еди
ницей.
Действительно, случайному событию благоприятствует
лишь часть из общего числа элементарных исходов испы
тания. В этом случае О<т<п, значит, О<m/n<1,
следовательно,
О<Р(А) < 1.
Итак, вероятность любого события удовлетворяет двой
ному неравенству
О�Р(А) � 1.
Далее приведены теоремы, которые. позволяют по из
вестным вероятностям одних событий находить вероятно
сти других событий.
3 а меч ани е. Современные строгие курсы теории вероЯтностеА
построены на теоретико-множественной основе. ОrранИ'Чимся изложе- ·
нием на языке теории множеств тех понятий, которые рассмотрены
выше.
Пусть в результате испытания наступает одно и тмько одно из
событий ш; (i = 1, 2, . . . , п). События ro; называют злементарньиси
событиями (влементарными исходами). Уже отсюда следует, что
ЗJ
J
ементарные события попарно несовместны. Множество всех з.пемен-
20
тарных ссбытий, которые могут появиться в испытании, называюr
пространством але1.tентарных событий Q, а сами элементарные собы·
тн я-точками пространства Q.
Событие А отождествляют с подмножеством (пространства Q),
элементы которого есть элементарные исходы, благоприятствующие А;
событие В есть подмножество Q, элементы которого есть исходы,
благоприятствующие В, и т. д. Таким образом, множество всех со
бытий , которые могут наступить в испытании, есть множество всех
подмножеств Q. Само Q наступает при любом исходе испытания,
поэrому О-достоверное событие; пустое подмножество пространства
Q-невозможное событие (оно не наступает ни при каком исходе
испытания).
Заметим, что элементарные события выделяются из числа всех
событий тем, что каждое нз них соде ржит только один элемент Q.
Каждому элементарному исходу о:ч ставят в соответствие поло-
жительное число Рi-вероятность этого исхода, причем � Pi = I.
i
По определению, вероятность Р (А) собь11ия А равна сумме вероят
ностей элементарных исходов, благоприятствующих А. Отсюда легко
получить, что вероятность события достоверного равна единице, не
возможного- нулю, произвольного- заключена между нулем и еди·
ницей.
Рассмотрим важный частный случай, когда все исходы равновоз
можны. Число исходов равно п, сумма вероятностей всех исходов
равна
единице; следовательно, вероятность каждого исхода равна l/n.
Пусть событию А благоприятствует т исходов. Вероятность события
А равна сумме вероятностей исходов, благоприятствующих А:
P(A)= lln+lfn+ . . +1/п.
Учитывая, ч·го число слагаемых равно т, имеем
Р (A)=m/n.
По.пучено классическое определение ве роятности.
Построение логически полноценной теории вероятностей основано
на аксиоматическом определении случайного события и его вероятно
сти. В системе аксиом, предложенной А. Н . Колмогоровым *>, неопре
деляемыми понятиями являются элементарное событие и вероятность.
Приведем аксиомы, определяющие вероятность:
J. Каждому событию А поставлено в соответствие неотрицатель
ное действительное число Р (А). Это число называется вероятностью
события А:
2. Вероятность достоверного события равна единице:
р(Q)=1.
З. Вероятность наступления хотя бы одного из попарно несов
местных событий равна сумме вероятностей этих событий.
Исходя из этих аксиом, свойства вероятностей и зависимости
между ними выводят в качестве теорем.
•> 1( о л м о r о ров А. Н . Основные понятия теории вероятностей.
М., сНаука :t, 1974.
21
§ 4. Основные формулы комбинаторики
Комбинаторика изучает количества комби наций,
подчиненных определенным условиям, которые можно со
ставить из элементов, безразлично какой природы , задан
ного конечного множества. При непосредственном вычис
лен ии вероятностей часто используют формулы комбина
торики. Приведем наиболее употребительные из них .
Перест ановками· называют комбинации, состоящие из
од них и тех же п различных элементов и отличающиеся
только порядком их рас положе ния. Число всех возмож
ных перестановок
где п!=1.2.з. . .п.
Замети м, что удоб но рассматривать 01, полага я, по
опреде лению, 01 = 1.
Пример 1. Сколько трехзначных чисел можно составить из
цифр 1, 2, 3, есл и каждая цифра входит в изображение числа только
один раз?
Реш е н и е. Искомое число трехзначных чисел
Р8=31 =1 ·2·3 =6.
Размещениями называют комби нации, соста вленные
из п различных элементов по т элементов, кото рые от
личаются либо составом элементов, либо их порядком.
Число всех возможных размеще ний
А�=n(п-1)(п-2) ...(п-т+1).
Пример 2. Сколько можно составить сигналов из 6 флажков
различного цвета , взятых по 2?
Решение. Искомое число сигналов
л: =6 ·5=30.
Сочетаниями называют к омби нации, соста вленные из п
различных элементов по т элементов, которые отл и·
чаются хотя бы одним элементом. Число сочетаний
с� = n!/(tn! (п -т)!).
Пример 3. Ско.'l ькими способами можно выбрать две детали из
ящика, содержащего 10 деталей?
Реш е и и е. Искомое чис.10 способов
С�0 = 101/(21 8!) =45.
Подчеркнем , что числа размещений, перестановок и
сочетани й связаны равенствоы
А;:1 = Р тС':(.
22
За м е ч а н и е. Выше предполага.�юсь, что все п элементов раз
личны. Если же некоторые элементы повторяются, то в этом случае
комбинации с повторениями вычисляют по другим формулам. Напри
мер, если среди п элементов есть п1 элементов одного вида, п2 эле
ментов другого вида и т. д., то число перестановок с повторенцями
Рп(n1, n2'. . ")=n!/(n1I n2! . " ),
где n1+n2+...= n.
При решении задач комбинаторики использ уют сле
дующие прави ла:
Пра вило с уммы. Если некоторый объект А может
быть выбран из совокупности объектов т способами, а
другой объект В может быть выбран п способ ами, то
выбрать либо А, либо В можно т + п способами .
Правило произведения. Если объект А можно
выбрать из совокупности объектов т способами и после
каждого такого выбора объект В можно вьiбрать п спо
собами, то пара объектов (А, В) в указанном порядке
может быть выбрана тп способами .
§ 5 . Примеры непосредственного выч исления
вероятностей
Пример 1. Набирая номер телефона, абонент забыл одну
цифру и набрал ее наудачу. Найти вероятность того, что набрана
нужная цифра .
Решение. Обозначим через А событие -набрана нужная
цифра. Абонент мог набрать любую из" 10 цифр , поэтому общее число
возможных элементарных исходов равно 10. Эти исходы несовместны,
равновозможны и образуют полную группу. Б .'Iаголриятствует собы
тию А лишь один исход (нужная цифра лишь одна). Искомая веро
ятность равна отношению числа исходов, благоприятствующих со
быtию, к числу всех элементарных исходов:
Р (А) = 1/10.
Пример 2. Набирая номер теJJефона, абонент забыл последние
две цифры и, помня лишь, что эти цифр ы - различны, набрал их на
удачу. Найти вероятность того, что набраны нужные цифры.
Решение. Обозначим через В событие -набраны две нужные
цифры. Всего можно набрать столько различных цифр, сколько
может быть составлено размещений из десяти цифр по две, т. е .
А�6 = I0.9=90. Таким образом, общее число возможных э.'!ементар
ных исходов равно 90. Эти исходы несовместны, равновозможны и
образуют полную группу. Благоприятствует событию В лишь один
исход. Искомая вероятность равца отношению числа исходов , благо
приятствующих событию, к числу всех элементарных исходов:
Р (В) = 1/90.
Пример З. Указать ошибку «решения» задачи: «Брошены две
игральные кости. Найти вероятность того, что сумма выпавших
очков равна 4 (событие А)».
23
Реше11 и е. Всего возможны 2 исхода испытания: сумма выпав
ших очков равна 4, сумма вьшавших очков не равна 4.
Событи1� А
б.чilrоn�1иитствует один исход; общее число исходов равно днум. Сд е ·
Дf вателыю, ИCKOMёlSI Bt:/)OЯTllOCTЬ
Р(А)=1/2.
Ошибка этого решения состоит в том, что рассматриваемые ис
ходы не являются равновозможными.
П р а виль ное ре ш е ние. Общее число равновозможных l!C·
ходов испыта ния равно 6 .6 = ЗG (каждое чнсло выпавших 0•1ков на
одной кости может сочета1ьсн со 11сем11 •111СJ1зми очков другой кt;сти).
Среди этих исходов благоприятствуют ссбытшо А тоЛ I,ко 3 исхода:
(1 ; 3), (3; 1), (2; 2) (в сксбк;�х указаны числа выпавших оч1шв).
С.11едователыю, искомая вероятность
Р (А) =3/36 = 1/12.
Пример 4. В партии из 10 деталеii 7 стандартных. Наiiти веро ят
ность 1oro, •1то среди 111ест1-1 взятых наудачу дет :iлей 4 сгандартных.
реш с н 11 е. Общt:е '!llCЛO BOЗMOЖllWX эл емента рных JICXOДOB
испытания р<11ню чнслу способов. кото ры�1и можно извJ1счь G деталей
из 10, т. с. ч11сJ1у сочета ний из 10 элементов по б э:�емснтоn (С�0) .
Определим чис:ю исходов, благопрняrствующих интересующему
нас ссбытию А (среди шести взятых дeraлeii 4 ста нда ртных). Четыре
ста11да рт11ые детали можно взять нз семи станда ртн ых деталей С� спо·
собами; при 3;ом остальные 6-
-
4 = 2 детали дол :м11ы быть нестан·
дарпшм11; в:-1ять ж� 2 11ес 1;1 1щартные детали из 10-7 = З нестанда рт
ных дcтa.rrcii можно с5 способа ми. Следовательно, число блаrоприя
тствующнх исходов равно с; . с;.
Ис1<омая Вf'р11ятностu равна отношен ию числа исходоn, благо·
11vияr�·тnующ11х с:1;быт11ю, к чисJ1у всех элемента рных исходо в:
Р(А)=(С�.C�)/Cf0 = 1/2.
§ 6. Относительная частота. Устойчивость
относитель ной частоты
Относительная частота наряду с вероятностью
принадлежит к uсноnным понятиям теории вероятносте и.
Относипzельной частотой события называют отноше
ние чисJ1а испытаний , в которых событие появилось,
r< общему чисду фактически произведе нных испытаний.
Тнким оGра:юм, опюс итеJ1ьная ча(�тота события А олре
деJiяется формуJюй
W(A)=m/n,
где т - чис.rю появлений события, п-общее число испы
,�·ний.
Сопоставл яя определения вероятности и относитель
ной частоты, заключаем ; определение вероятности не
требует, чтобы испытания производи лись в действитель
ности; определение же относительной частоты предпол а
гает, что испытания были произведе ны фактически. Дру
гими словами, вероятность вы•1исля10т до опь1
1п
а,а
относительную частоту -после опьипа.
Пример 1. Оrдел технического контро.1
1
я обна ружил 3 неСТаt1-
да ртных детали в партии нз 80 случайно отобра1шых деталей. Оrио
сительная частота появлеt1ия нестандартн1�1х деталей
W (А)=З/80.
Пример 2. По цели .произвели 24 выстрела, причем было зареги
стрировано 1 9 попаданий. Оrносительнзя частота поражения цели
W (А)= 19/24.
Длител ьные наблюдения показали, что если в оди на
ковых услови я х производят опыты, в каждом из которых
чисJю испытаний достаточ но велико, то относительная
частота об наруживает свойство устойчивости . Эrо свой
ство состоит в том, что в различньvс опытах относитель
ная rшстота изменяется .мало (тем меньше, че.м больше
п роизведено испытан ий), колеблясь около некоторого по
стоянного rшсла . Оказалось, что это постоянное число
есть вероятность появления события .
Таким образом, ес.тш опытным путем установ.1ена от
носительная частота , то полученное число можно припя·rь
за приближенное значение вероятности .
Подробнее и точнее связь между относптельной часто
ой и вероятностью будет изложен� далее. Теперь же
роиллюстрируем свойство устой ч ивости на примера х .
Пример 3. По данным шведской статистики, относительная 'iас
ота рождения девочек за 1935 r. по месяцам характеризуется сле
ующн�и чис.r�амн (числа расnо.11ожены в порядке �'l едова ния мес я.
ев. ш1 чиная с января): 0,486; 0,489; 0,490; 0,471; 0,478; 0,482;
,462; 0,484; 0,485; 0,491 ; 0,482; 0,473
Оrносительпая частоrа колfблется около чи,�а 0,482, которпе
ожио принять за прибли женное значение вероятности рождения
евочек.
Заметим, что статистические да нные рамичных стран дают при·
ерно то же зиа че"ние отнv:нтельноit частоты.
Пример 4. ,'
'<1
ногократно пrов' •ди,1нсь '"'''ЫТЫ бросания монеты,
в которых подс1штыва.1и чис.'/•) появле:, 11 .; <�:герба». Р�зультаты не
с одьких опытов приведе ны в таб11. 1 .
3десь относите.'Iы1ые частоты НР.значиw.лъио 0·1·к лоняются от
•1 ела 0,5, причем тем ме ньш�. чем больше ЧНС'ЛО 1-1спыт11ний. Напри·
м р, при 4040 испытаниях отклонение равно 0,0069, а при 24 ОО
О
25
Таб.1ица 1
Ч11с.n о
1 Ч исло появлений
1 Относительная
бросаниll
сгерба»
частота
4040
2048
0, 5069
12000
6019
0,5016
24 000
12 012
0, 5005
испытаний-лишь 0,0005. Приняв во внимание, что вероятность по
явления «герба» при бросании монеты равна 0,5, мы вновь убеж·
даемся, что относительная частота КО.'Iеблется около вероятности ..
§ 7. Огран иченность к.яассическоrо определе ния
вероятности . Статистическая вероятност ь
Классическое определение вероятности предпо-
лагает, что число элементарных исходов испытания · ко
нечно. На практике же весьма часто встречаются испы
тания, число возможных исходов которых бесконечно .
В таних случаях классическое определение неприменимо.
Уже это обстоятельство указывает на ограниченность
классического определ ения . Отмеченный недостаток может
быть преодолен, в частности , введением геометрических
вероятностей (см. § 8) и, конечно, использованием аксио
матической вероятности (см. § 3, замечание).
Наиболее с.1абая сторона классического определения
состоит в том, что очень часто невозможно представить
результат испытания в виде совокупности элементарных
событи й. Еще труднее указать основан ия, позволяющие
считать элементарные события равновозможными . Обычно
о ра вновозможности элементарных исходов испытан ия
говорят из сооб ражений симметрии. Так, например, пред
полагают, что игральная кость имеет форму правильного
многогранника (куба) и изготовлена из однородного мате
риа.па . Одн ако задач и, в которых можно исходить из
сооб ражен ий симметрии, на практике встречаются весьма
редко. По этой причине наряду с классическим опреде
лением вероятности используют и другие определен ия,
в частности статистическое определение : в качестве ста
тистической вер оятности событ ия принимают относи
тель ную частоту или число, 'близкое к не й. Например,
ее.п и в результате достаточно большого числа испытаний
оказалось, что относите.r�ьная частота весьма близка
26
к числу 0,4, то это число можно принять за статистиче
скую вероятность события.
Легко проверить, что свойства вероятности, вытекаю
щие из классического определения (см. § 3), сохраняются
и при статистическом определ ениИ вероятности. Действи
тельно, если событие достоверно, то т = п и относитель
ная частота
т/n =n/n = 1,
т. е. статистическая вероятность достоверного события
(так же как и в случае классического определения)
равна единице.
.
Если событие невозможно, то т =О и, следовате.'lьно,
относительная частота
0/n =O,
т. е. статистическая вероятность невозможного события
равна нулю.
Для любого события О�т � п и, следовательно, от
носительная частота
О�т/п� 1 ,
т. е. статистическая вероятность любого события заклю
чена между нулем и еди ницей.
Для существования статистической вероятности собы
тия А требуется :
·
а) возможность, хотя бы принципиально, производить
неограниченное число испытаний, в каждом из которых
событие А наступает или не наступает;
б) устой чивость относительных частот появления А
в различных сериях достаточ но большого числа испыта
ний.
Недостатком статистического определения являетс я
неоднозначность статисти ческой вероятности; так, в при
веденном примере в качестве вероятности события можно
прин.ять не только 0,4, но и 0,39; 0,41 и т. д.
§ 8. Геометрические вероятности
Чтобы преодолеть недостаток классического опре
деления вероятности, состоящий в том, что оно непри
менимо к испытан иям с бесконечным числом исходов,
вводят геометр ические вероятности - вероятности попа
дания точки в область (отрезок, часть плоскости и т. д.).
Пусть отрезок l составляет часть отрезка L. На отре
зок L наудачу поставлена точка. Это означает выпо.11не-
._ 27
ние следующих предположен ий: постав.ленная точка
может оказаться в любой точке отрезка L, вероятность
попадания точки на отрезок l пропорциональна длине
этого отрезка и не зависит от его расположен ия относи
тельно отрезка L. В этих предположениях вероятность
поnадания точки на отрезок l определ яется равенством
Р =дJшна !/Длина L.
·
Пример 1. На отрезок ОА длины L числовой оси Ох наудачу
поставлена точка В (х). Найти вероятность того, что меньшин из
отрезков ОВ и ВА имеет длину, большую L/3. Предполагается, что
вероятность попадания точки на отрезок пропорциональна дл ине от
резка и не зависит от его расположения на числовой оси .
Реш е н и е. Разобьем отрезок ОА точками С и D на 3 равные
части . Требование задачи будет выполнено, если точка В (х) попа
дет на отрезок CD длины L/3. Искомая вероятность
Р = (L/3)/L = 1/3.
Пусть плоская фигура g составляет часть плоской
фигуры G. На фи гуру G наудачу брошена точка. Это
означает выполнение следующих предположен ий: брошен
ная точка может оказаться в любой точке фигуры G,
вероятность попадания брошенной точки на фигуру g
пропорциональна площади этой фигуры и не зависит ни
от ее расположен ия относительно G, ни от формы g.
В этих предположен иях вероятность попадания точки
в фигуру g определ яется равенством
·
Р = Площадь g/Площадь G.
Пример 2. На плоскости начер_чены две концентрические окруж
ности, радиусы которых 5 и 10 см соответственно. Найти вероят
ность того, что точка, брошенная наудачу в большой круг, попадет
в кольцо, образованное построенными окружностями. Предполагается,
что вероятность попадания точки в плоскую фигуру пропорциональна
площади этой фигуры и не зависит от ее расположения относительно
большого круга .
Реш е н и е. Площадь кольца (фигуры g)
Sg=n(102-52)=75я.
Площадь большого круга (фигуры G)
S0 =nl02=IООя.
Искомая вероятность
Р=75я/( 100л) =0,75.
Пример 3. В сигнализатор поступают сигналы от двух устройств, ·
причем поступление каждого из сигналов равновозможно в любой
момент промежутка времени мнтельносtью Т. Моменты поступления
сигналов независимы один от другого. Сигнализатор срабатывает,
если разность между моментами поступления сигналов меньше
28
t (t < Т). Найти вероятность того, что сигнализатор сработает за
время Т, если каждое из устройств пошлет по од ному сигналу.
Реш е н и е. Обозначим моменты поступления сигналов первого
и второго устройств соответственно через х и у. В силу условия
задачи должны выполняться двойные
неравенства: О<;х <; Т, О :о:
:;
у<;Т. Вве
дем в рассмотрение прямоугольную си
стему координат хОу. В этой системе
двойным неравенствам удовлетворяют ко
ординаты .любой точки квадрата ОТАТ
(рис. 1). Таким образом, этот квадрат
можно рассматривать как фигуру а, ко
ординаты точек которой представляют
все возможные значения моментов по-
g
тг-
-�mтm�А(
t
ступления сигналов.
о
t
т
Сигнализатор срабатывает, если раз-
ность между моментами поступления си-
Рис. 1
гналов меньше t, т. е. если у-х < t
приу>х их-у<tприх>у,или,чтотоже,
у<х+t при у>х,
р>x-t при у<х.
х
Неравенство (*) выполняется для тех точек фигур ы G, которые
лежат выше прямой у=х и ниже прямой y=x+t; неравенство (**)
имеет место для точек, расположенных ниже прямой у=х и выше
прямой y=x-t.
l(ак видно из рис. 1, все точки , координаты которых удо мет
воряют неравенствам (*) и (**) , принадлежат заштрихованному
шестиугольнику. Таким образом, этот шестиугольник можно рассма
тривать как фигуру g, координаты точек которой являются благо
приятствующими моментами времени х и у.
Искомая вероятность
Р=Пл. gfПл . G =(T2 -(T- t )2)/T2 =(t (2T- t))/T2.
3 а мечани е 1. Приведенные определения являются частными
случаями общего определения геометрической вероятности. Если
обозначить меру (дл ину, площадь, объем) области через mes, то
вероятность попадания точки, брошенной наудачу (в указанном выше
смысле) в область g-часть области а, равна
Р=mesg/mesG.
3 а м е ч а н и е 2. В случае классического определения вероят
ность достоверного (невозможного) события равна единице (нулю);
справедливы и обратные утверждения (например, если вероятность
события равна нулю, то событие невозможно). В случае геометри
ческого определения вероятности обратные утверждения не имеют
места. Например, вероятность попадания брошенной точки в одну
определенную точку области G равна нулю, однако это с.обытие может
произойти, и, следовательно, не является .невозможным .
29
Зацчи
1. В ящике имеется 50 одинаковых детапеА, из них 5 окра·
шенных. Наудачу вынимают одну деталь. Найти вероятность тоrо,
что извлеченная деталь окажется окрашенной.
Отв. Р =О,1.
2. Брошена игральная кость. Найти вероятность тоrо, что выпа·
дет четное число очков.
Отв. Р =О,5.
З. Участники жеребьевки тянут из ящика жетоны с номерами
от 1 до 100. Найти вероятность того, что номер первого наудачу
извлеченноrо жетона не содержит цифры 5.
Отв. р=О,81.
4. В мешочке имеется 5 одинаковых кубиков. На всех rранях
каждого кубика написана одна вз следующих буJ(В: о, п, р, с, т.
Найти веРQятносrь того, что на вынутых по одно.му и расположен·
ных «В одну линию» кубиков можно будет прочесть слово сспорт».
Отв. р=1/120.
о. На каждой из шести одинаковы х карточек напечатана одна ·
из следующих букв: а, т, м, р, с, о. Карточки тщательно переме
шаны. Найти вероятность того, что на четырех, вынутых по одной
и расположенных св одну линию» карточках можно будет прочесть
слово строе».
Отв . р= 1/А:= 1/360.
6. Куб, все грани которого окрашены, распилен на тысячу куби
ков одинакового размера, которые затем тщательно перемешаны.
Найги вероятность того, что наудачу извлеченный кубик будет иметь
окрашенных rраней: а) одн у; б) две; ·в) три.
Отв . а) 0,384; б) 0,096; в) 0,008.
7. Из тщательно перемешанного п�лного набора 28 костей домино
наудачу извлечена кость. Найти вероятность того, что вторую наудачу
извлеченную кость можно приставить к первой, если первая кость:
а) оказалась дубле м; б) не есть дубль.
Отв. а) 2/9; б) 4/9.
8. В замке на общей оси пять дисков. Каждый диск разделен
на шесть секторов, на которых "аписаны различные буквы. Замок
открывается только в том случае, если каждый диск занимает одно
определенное положение относительно корпуса замка. Найти вероят
ность того, что при произвольной установке дисков замок можно
будет открыть .
Отв. р= 1/65,
9. Восемь различных книг расставляются наудачу на одной
полке. Найти вероятность того, что две определенные книги ока
жутс я поставленными рядом.
Отв. р=7. 21 .61/81 =1/4.
10. Библиотечка состоит из де сяти различных книг, причем
пять книг стоят по 4 рубля каждая, три книги -по одному рублю
и две книги -по 3 рубля. Найти вероятность того, что взятые
наудачу две книги стоят 5 рублей.
·
Отв. P=G·C�/ Cfo =l/3.
Н. В партии из 100 деталей отдел технического контроля обиа·
ружил 5 нестандартных деталей. Чему равна относительная частота
появления нестандартных деталей?
Отв. w=0,05.
зо
12. При стрельбе из винтовки относительная частота попадания
в цель оказалась равной 0,85. Най1и число попаданий, если всего
было произведено 120 выстрелов.
Отв. 102 попадания.
13. На отрезок ОА длины L числовой оси Ох наудачу постав·
пена точка В (х) . Найти вероятность того, что меньший i!З отрезков
ОВ и ВА имеет длину, . меньшую, чем L/3. Предполагается , что веро·
ятность попадания точки на отрезок пропорциональна длине отрезка
и не зависит от его расположения на числовой оси.
Отв. р = 2/3.
14. Внутрь круга радиуса R наудачу брошена точка. Найти
вероятность того, что точка окажется внутри вписанного в круг
квадрата. nредполагается, что вероятность попадания точки в квад·
рат пропорциональна площади квадрата и не зависит от его pacno·
ложения относительно круга.
Отв. P = 2/n.
15. Задача о встрече. Два студента условились встретиться
в определенном месте между 12 и 13 часами дня. Пришедший пер
вым ждет второго в течение 1/4 часа, после чего уходит. Найти веро·
ятность того, что встреча состоится, если каждый студент наудачу
выбирает момент своего прихода (в промежутке от 12 до 13 часов).
У к аза и и е. Ввести в рассмотрение прямоугольную систему
коорди нат хОу и принять для простоты, что встреча должна состо
яться между О и 1 часами.
Отв. Возможные значения координат: О <;
;
х<;
;
1, О<:;у� 1;
б.'Iагоприятствующие встрече значения координат: 1у-х 1 <:;
;
1/4;
Р=7/16.
Глава втора я
ТЕОРЕМА СЛОЖЕНИЯ ВЕРОЯТНОСТЕ Й
§ 1. Теорема сло жения веро ятностей
несовместных событий
Су.ммой А + В двух событий А и В .называют
событие, состоящее в появлении собь1тия А, и.ли собы
тия В, или обоих этих событий. Например, если из ору
ди я произведе ны два выстрела и А- попадание при пер
вом выстреле, В - попада ние при втором выстре.'1е, то
А+В-попада ние при первом выстреле, или при вто
ром, или в обоих выстре.11ах .
В частности , если два события А и В-несовместные,
то А+ В-событие, состоящее в появлении одн ого аз
:этих событи й, безразлично какого.
Сум мой нескол ьких собьцп ий называют событие, кото
рое состоит в появлении хотя бы од ного из этих собы
пй. Например, событие А+В+С состоит в поя;:;,·11.:юш
31
одного из следующих событий: А, В, С, А и В, А и
С,ВиС,АиВиС.-
Пусть события А и В- несовместные, причем вероят
ности этих событий известны. l(ак найти вероятность
того, что наступит либо событие А, либо событие В?
Оrвет на этот вопрос дает теорема сложения.
.
Теорема . Вероятность появления одного из двух несов
местных событ ий, безразл ично какого , равна сумме веро
ятностей эт их событий :
Р(А+В)=Р(А)+Р(В).
Доказательство. Введем обозн ачения: п-общее
число возможных элементарных исходов испытан ия; tni -
число исходов, благоприятствующих .событию А; т, -
число исходов, б<1
1
агоприятствующих событию В.
.
Число элементарных исх одов, благоприятствующих
наступлению либо событи я А, либо события В, равно
т1 + т,. Спедовательно,
Р(А+В)=(т1+т,)/п=т1/n+т,Jп.
Приняв во внимание, что m1/n = Р (А) и т,Jn = Р (В),
окончательно пол учим
Р(А +В)=Р(А) +Р(В).
С л едств и е. Вероятность появл ения одного из не
скольких попарно несовмест ных событий, безразлично
какого, равна сумме вероятностей эт их событий:
P{A1+Az+ ...+А")=Р(А1)+Р(А,) + ...+Р(А").
Доказат�л ь с тво. Рассмотрим три события: А, В
и С. Так как рассматриваемые события попарно несов
местны, то появление одного из трех событий, А, В и С,
равносильно наступлению одного из двух событий, А +В
и С, поэтом у в силу указанной теоремы
Р(А+В+С)=Р[(А+В)+С]=Р(А+В)+Р(С)=
= Р (А}+Р (В) +Р(С).
Для произвольного числа попарно несовместных собы
тий доказательство проводится методом математической
индуКции.
о,.
._,
1. 8 урне З0 шаров: 10 красных, 5 С:ВНВХ В 15 беJIЫХ.
Наlтн вероятность nо.явпеиия цветного шара.
Решеи в е. По.явление цsетиоrо шара означает появление либо
красвоrо, либо сввеrо шара•
.
32
Вероятность появления красного шара (событие А)
Р (А) = 10/30 = 1/3.
Вероятность появления синего шара (событие В)
Р (В) =5/30 = 1/6.
События А и В несовместны (появление шара одного цвета искnю·
чает появление шара другого цвета), поэтому теорема сложения при
менима.
Искомая вероятность
Р (А+В)=Р(А)+Р(В) = 1/3+ 1/6= 1/2.
Пример 2. Стрелок стреляет по мишени , разделенной на 3 об
ласти. Вероятность попадания в первую область равна 0,45, во
вторую-0,35. Найти вероятность того , что стрелок при одном
выстреле попадет либо в первую, либо во вторую область.
Реш е н и е. События А - «стрелок попал в первую область» и
В - «стрелок попал во вторую область» - несовместны (попадание
в одну область исключает попадание в другую) , поэтому теорема
сложения применима.
Искомая вероятность
..
.'
Р (А +В)=Р(A) -f-P(8) = 0,45+ 0,35=0,80 .
§ 2. Полная группа событий
Теорема. Сумма вероятностей событи й А1, А 2 ,
Ап, образующих полную группу, равна единице:
Р(А1)+Р(А2)+. . . +Р(Ап)=1.
Док а затель ств о . Так как появление одн ого из
событий полной груп пы достоверно, а вероятность досто
верного события равна единице, то
Любые два события полной группы несовместны,
поэтому можно применить теорему сложения :
Р (А1+А2 + ...+A n)=P (A1) +P(A2) + ...+Р(Ап). (**)
Сравнивая (*) и (**) , получим
Р(А1) +Р(А2)+... +Р(Ап) = 1.
Пример. Консультационный пункт института получает пакеты
с контрольными работами из городов А, В и С. Вероятн�� по.пу
чения пакета из города А равна 0,7, из города В-0,2. 1-iайти веро
ятность того, что очередной пакет будет получен из города С.
Решение. События «пакет получен из города А», «пакет получен
из города В» , «пакет получен из города С» образуют полную группу,
�-2JO
33
поэтому сумма вероятностей этих событий равна единице;
0,7+о,2+Р=1.
Отсюда искомая вероятность
P=l -0,9 =0,l .
§ 3. Противоположные события
Противоположными называют два единственно
возможных события, образующих полн ую группу. Если
одно из двух противоположных событий обозн ачено через
А, то другое принято обозначать А.
Пример 1. Попадание и промах при выстреле по цели -противо
положные события. Если А-попадание, то А- промах.
Пример 2. Из ящика наудачу взята деталь. События «появилась
стандартная деталь» и «появилась нестандартная деталЬ» -противо
положные.
Теорема. Сумма вероятностей прот ивоположных собы-
тий равна едщ-tцце�tс
,·;_
ожиn:11и :tllal
leИ
••c.w
Р(А)+Р(А)=1.
f\,�J,.,,/н'..,
,
,
Д о к а з а т ель ств о. Противоположные события об
разуют полную группу, а сумма вероятностей событий,
образующих полную группу, равна единице (см. § 2).
3амечание 1. Если вероятность одного из двух противопо
ложных событий обозначена через р, то вероятность другого события
обозначают через q. Таким образом, в силу предыдущей теоремы
p+q=I.
Пример 3. Вероятность того, что день будет дождливым, Р=О,7.
Найти вероятность того, что день будет ясным.
Решение. События «день дождливый» и «день ясный» - про
тивоположные, поэтому искомая вероятность
q=1-р = 1 -0,7=0,3.
3 а мечани е 2. При решении задач на отыскание вероятности
событи я А часто выгодно сначала вычислить вероятность события А,
а затем найти искомую вероятность по формуле
Р(А)=1-Р(А).
Пример 4. В ящике имеется п деталей, из которых т стандарт
ных. Найти ве�оятность того , что среди k наудачу извлеченных дета
пей ость :хотя бы одна стандартная.
Р е m е Jt и е. С'.обытия «Среди извлеченных деталей есть хотя бы
одна щ:андартная» в «среди извлеченных деталей нет ни одной ста11-
дартнон» - противоположные. Обозначим первое событие через А,
а второе- через ii.
�
.Очевидно.
Р(А)==1-Р(А).
Найдем Р (А). Общее число способов . которыми можно извлечь
k деталей из п детал ей , равно С�. Число нестандартных деталей равно
п-т; из зтоrо числа деталей можно с:-т способами измечь k не
стандартных деталей . Поэтому вероятность того, что ере.цв изв.печен-
ных k деталей нет ни одной стандартной , равна Р (А) =,�.:.т1С:.
Искомая вероJ1ТНость
Р(А)=1-Р(А)=1 -С:-т1С:.
§ 4. Принцип практической иевоэможвости
маловероятных собы тий "'
При решении многих практических задач прихо
дится иметь дело с событиями, вероятность которых .
весьма мала, т. е . близка к нулю. Можно ли считать,
что маловероятное событие А в единичном испытании не
произойдет? Такого заключения сделать нельзя, так как
не исключено, хотя и ·мало вероятно. что событие А
наступит.
Казалось бы, появление или иепоявление мало�роят
ного события в единичном испытании предс казать невоз•
можно. Однако длительный опыт показывает, что мало
вероятное событие в еди ничном испытании в подавляющем
большинстве случаев не наступает. На основании этого
·
факта принимают следующий «принцип практической
невозможности маловероятных событий»: если случайное
собьипие имеет очень малую вероятность, то практически
можно считать, что в единичном испьипании вто собы
тие не наступ ит .
Естественно возникает вопрос: насколько ' малой
должна быть вероятность событи я, чтобы можно бЬ1Ло
считать невозможным его появление в одн ом испытании?
На 9ТОТ вопрос нельзя ответить од нозначно. Для задач,
различных -по существу, ответы разные. Например, если
вероятность того, что парашют при прыжке не раскроется,
равна 0,01, то было бы недопустимым применять такие
парашюты. Если же вероятность того, что поезд даль
него следования прибудет с опозданием, равна 0,01, то
можно практически быть уверенным, что поезд прибудет
вовремя .
Дост�точно малую вероятность, при которой (в дан
ной определенной задаче) событие можно считать прак-
35
тически невозможным, называют уровнем значимости.
На практике обычно принимают уровни значимости , заклю
ченные между 0,01 и 0,05. Уровень значимости , равный
0,01, называют однопроцентным; уровень значимости,
равный 0,02, называют двухп роцентным, и т. д.
Подчеркнем, что рассмотренный здес ь принцип позво
ляет делать предс казания не только о событи ях , имею
щих малую вероятность, но и о событиях, вероятность
которых близка к еди нице. Действительно, если событие
А имеет вероятность, близкую к нулю, то вероятность
противоположного событи я А близка к еди нице . С другой
стороны, непоявление · события А означает наступление
противоположного события А. Таким образом, из прин
ципа невозможности маловероятных событий вытекает
следующее важное для приложений следствие : если сл у
чайное событие имеет вероятность, очень близкую к еди
нице, то практически можно считать, что в единичном
испытании это событие наступит . Разумеется, и здес ь
ответ на вопрос о том, какую вероятность считать близ
кой к ед инице, зависит от существа задачи.
Задачи
1. В денежно-вещевой лотерее на каждые 1О ОО
О
билетов
разыгрывается 150 вещевых и 50 денежных выигрышей. Чему равна
вероятность выигрыша, безразлично денежного или вещевого, .дЛя
владельца одного лотерейного билета?
Отв. р=О,02 .
2. Вероятность того, что стрелок при одном выстреле выбьет
10 очков, равна 0,1; вероятность выбить 9 очков равна 0,3; вероят
ность выбить 8 или меньше очков равна 0,6 .
Найти вероятность
того, что при одном выстреле стрелок выбьет не менее 9 очков.
Отв. р=О,4.
3. В партии из 10 деталей 8 стандартных. Найти вероятность
того, что среди наудачу извлеченных 2 деталей есть хотя бы одна
станда ртная.
Отв. р = 44/45.
4. В ящике 10 деталей, среди которых 2 нестандартных. Найти
вероятность того, что в наудачу отобранных 6 деталях окажется не
более одной нестандартной детали.
Отв. р =2/3.
У к а з а н и е. Если А-нет ни одной нестандартной детали,
В-есть одна нестандартная деталь, то
р (А +В) =Р (А)+Р (В) = C:fcfo + �·c:;cfo.
5. События А, В, С и D образуют полную группу. Вероятности
событий таковы: Р(А) =О,1; Р(В) =О,4; Р(С) =О,3. Чему равна
вероятность события D?
Отв. Р (D) =0,2.
36
6. По статистическим данным ремонтной мастерской , в среднем
на 20 остановок токарного станка приходится: 10-для смены резца; ·
3-нз -за неисправности привода; 2-из-за несвоевременной подачи
заготовок. Остальные остановки происходят по другим причинам.
Найти вероятность остановки станка по другим причинам. -
Отв. р = 0,25.
Глава третья
ТЕОРЕ МА УМНОЖЕНИЯ ВЕ РОЯТНОСТЕЙ
§ 1. Произведение событий
Произведением двух событий А и В называют
событие АВ, состоящее в совмес1:НОМ появлении (совме
щении) этих событий. Например, если А -деталь годная,
В-деталь окрашенная, то АВ-деталь годна и окрашена.
Произведен ием нескольких событий называют событие,
состоящее в совместном появлении всех этих событий.
Например, если А, В, С - появление «герба» соответственно
в первом, втором и третьем бросаниях монеты, то АВС -
выпадение «Герба» во всех трех испытаниях .
§ 2. Условная вероятность
Во введении случайное событие определено как
событие, которое при осуществлении совокупности усло
вий S может произойти или не произойти . Если при вы
числении вероятности события никаких други х ограни
чени й, кроме условий S, не налагается, то такую вероят
ность называют безусл овной; если же налагаются и другие
дополнительные условия, то вероятность события называют
условной. Например, часто вычисляют вероятность собы
тия В при до полнительном условии, что произошло со
бытие А. Заметим, что и безусловная вероятность, строго
говоря, является условной, поскольку предполагается
осуществл ение условий S.
Усл авной вероятностью РА (В) называют вероятность
события В, вычисленную в .предположении, что событие А
уже наступило.
Пример. В 'урне З белых ·и 3 черных шара. Из урны дважды
вынимают по одному шару, не возвращая -их обратно. Найти вероят
ность появления белого шара при втором испытании ·(событие В),
если при первом испытании был извлечен черный шар (событие А).
31'
Решение. После первого испытания в урне осталось 5 шаров.
из них 3 белых. Искомая условная ве роятность
Р А (8) =3/5.
Этот же результат можно получить по формуле
РА(В)=Р(АВ)/Р(А) (Р(А)>О).
Действительно, вероятность появления белого шара при первом ис-
пытании
1
Р(А)=3/6=1/2.
Найдем вероятность Р (АВ) тогq, что в первом испытании по
явится черный шар, а во вто ром -белый. Общее число исходов -
совместного появления двух шаров, безразлично какого цвета, равно
числу размещений А: =6·5=30. Из этого числа исходов событию АВ
благоприятствуют 3·3=9 исходов. Следавательно,
Р (АВ) = 9/30 =3/10.
Искомая условная ве роятность
Р А (В) = Р (АВ)/Р (А) = (3/ 10)/(1/2) =3/5.
Как видим, получен прежний результат.
Исходя из класс.ического определения вероятности,·
формулу (*) можно доказать. Это обстоятельство и служит
основанием для следующего общего (применимого не
только дл я классической вероятности) определения.
Условная вероятность события В при условии, что
событие А уже наступило, по определению, равна
рА(В)=р(АВ)/Р(А) (Р(А)>О).
§ 3. Т�рема умножения вероятностей
·
Рассмотрим два события: А и В; пусть вероят·
ности Р (А) и РА (В) известны. Как найти вероятность
совмещения этих событий, т. е . вероятность того, что
п�явится и событие А и событие В? Ответ на этот вопрос
дает теорема умножения .
·
Теорема. Вероятность совместного появления двух со
бьlтий равна проиэведеяию вероятности одного из них
на условную вероятность другого, вьtчисАенную в предпо·
ложении , что первое событие уже наступило:
р(АВ)=;:=р(А)рА(В).
Д о к аза т ельств о. По определению ус.повной веро-
ятности,
.
рА (В) � Р1(АВ)/Р (А).
38
Отсюда
Р(АВ)=р(А)рА(В).
3 а мечани е. Применив формулу (*) к событию ВА, получим
Р (ВА) =Р (В) Рв (А),
или, поскольку событие ВА не отличается от события АВ,
Р (АВ) =Р (В) Рв (А).
(**)
Сравнивая формулы (*) и (**), заключаем о справедливости ра·
венства
Р(А)РА(В)=Р(В)Рв(А).
С л едств и е . Вероятность совместного появления
нескольких событий равна произведению вероятности одного
из них на условные вероятности всех остальных, причем
·
вероятность каждого последующего событ ия выч исляется
в предположении, что все предыдущие события уже появи
лись :
Р (А1А
2
А3•• •Ап) =Р(А1)РА,(А2)РА1А1(А3)•• •
•··рА1А1•••An-l
(Ап ),
где РА,А, ...An -l
(Ап)-вероятность события А п , вычислен
ная в предположении, что события А 1, А
2
,•••,An-lна
ступили. В частности, для трех событий
Р(АВС)=Р(А)РА(В)РАв(С).
Заметим, что порядок, в котором расположены собы
тия, может быть выбран любым, т . е. безразлично какое
событие считать первым, вторым и т . д .
Пример 1. У сборщика имеется 3 конусных и 7 эллиптических
валиков. Сборщик взял один валик, а затем второй. Найти вероят
ность того, что первый из взятых валиков - конусный, а второй -
элли птический.
Р е ш е н и е. Вероятность того, что первый валик окажется ко
нусным (событие А),
Р (А) =З/10.
Вероятность того, что второй валик окажется эллиптическим
(событие В). вычисленная в предположении, что первый валик -
конусный, т. е. условная вероятность
р А (8) =7/9.
По теореме умножения, искомая вероятность
Р (АВ) =Р(А) РА (В) =(З/10)-(7/9) = 7/30.
Заметим, что, сохранив обозначения, легко найдем: Р (В) = 7/10,
Рв (А) =3/9, Р (В) Рв (А) =7/30, что наглядно иллюстрирует спра·
ведливость равенства (***)·
39
11р.имер 2. В урне 5 белых, .4 черных и 3 синих шара. Каждое
испытание состоит в том, что наудачу извлекают один шар, не воз
вращая его обратно. Найти вероятность того, что при первом испы
тании появится белый шар (событие А), при втором- черный (собы
тие В) и при третьем-синий (событие С) .
Решение. Вероятность появления белого шара в первом
испытании
Р (А) = 5/12.
Вероятность появления черного шара во втором испытании,
вычисленная в предположении, что в первом испытании появился
белый шар, т. е. условная вероятность
РА (8) =4/ll.
Вероятность появления синего шара в третьем испытании, вы
численная в предположении, что в первом испытании появился белый
шар, а во втором -черный, т. е. условная вероятность
РАв(С)=3/l0.
Искомая вероятность
р (АВС) =Р (А) V.A (В) р АВ (С) =(5/12)·(4/ 1 1) -(3/10) = 1/22.
§ 4. Независимые собы тия. Теорема умножения
для независимых событий
Пусть вероятность события В не зависит от по
явления события А.
Событ ие В называют независимым от события А, если
появление события А не изменяет вероятности события В ,
т. е. есл и условная вероятность события В равна его
безусловной вероятности:
рА(В)=р(В).
Подставив (*) в соотношение (***) предыдущего па
раграфа, получим
Р(А)Р(В)=Р(В)Рв(А).
Отсюда
Рв(А)=Р(А),
т . е. условная вероятность события А в предположении,
что наступило событие В , равна его безусловной вероят
ности. Другими словами, событие А не зависит от со
бытия В.
Итак, если событие В не зависит от события А , то и
событие А не зависит от события В; это означает, что
свойство независимости событий взаимно.
40
Для независимых событий теорема умножения
Р(АВ)=Р(А)РА(В) имеет вид
Р(АВ)=Р(А)Р(В),
(«=*)
т. е. вероятность совместного появления двух независимых
событий равна произведению вероятностей этих событий.
Равенство (**) принимают в качестве определен ия не
зависимых событий.
Два события называют незави симыми, если вероятность
их совмещения равна произведению вероятностей этих
событий; в противном случае события называют зави си
мыми .
На практике о независимости событий заключают по
смыслу задач и. Например, вероятности поражения цели
каждым из двух орудий не зависят от того, поразило
ли цель другое орудие, поэтому события «первое орудие
поразило цель» и «второе орудие поразило цель» неза
висимы.
Пример 1. Найти вероятность совместного поражения цели двумя
орудиями, если вероятность поражения цели первым орудием (собы·
тие А) равна 0,8, а вторым (событие В) -0,7.
Решение. События А и В независимые, поэтому, по
теореме умножения, искомая вероятность
Р(АВ)=Р(А)Р(В)=0,7·0,8=0,56.
3амечание 1.Если события А иВ независимы, тонезави
симы также события А и В, А и В, А и В. Действительно,
А =АВ+АВ.
Следовате.'!ьно,
Р(А)=Р(АВ)+Р(АВ), или Р(А)=Р(АЁ)+Р(А)Р(В).
Оrсюда
Р (АВ)=Р(A) [l-P(В)], или Р (АЁ) =Р (А)Р (В).
т. е. события А и В независимы.
Независимость событий А и В, А и В-следствие доказанного
утверждения.
Несколько событий называют попарно независимыми.
если каждые ·два из них независимы. Например, события
А, В , С попарно независимы, если независимы события
АиВ,АиС,ВиС.
Для того чтобы обобщить теорему умножен ия на не
сколько событий, введем понятие независимости событий
в совокупности.
41
Несколько событ ий называют независи мыми в совокуп
ности (или просто независимыми), если независимы ка
ждые два из них и независимы каждое событие и все
возможные произведения остал ьных. Например, если со
бытия А 1, А 2 , Аз независимы в совокупности, то неза
висимысобытияА1иА2,А1иАз,А2иАз;А1иА1А8,
А1 и А1Аз, А8 и л1А2• Из сказанного следует, что если
события независимы в совокупности, то условная вероят
ность появления любого события из них, вычисленная
в предположении, что наступили какие-либо другие собы
тия из числа остальных, равна его безусловной вероят
ности.
Подчеркнем, что если несколько событий независимы
попарно, то отсюда еще не следует их независимость
в совокупности . В этом смысле требование независимости
событий в совокупности сильнее требования их попарuой
независимости .
Поясним сказанное на примере . Пусть в урне имеется
4 шара, окрашенные : один -в красный цвет (А}, один -
в синий цвет (В}, один-в черный цвет (С) и один-во
все эти три цвета (АВС) . Чему равна вероятность того,
что извлеченный из урны шар имеет красный цвет?
Так как из четырех шаров два имеют �расный цвет,
то Р (А) = 2/4 = 1/2. Рассуждая аналогично, найдем
Р (В) = 1/2, Р (С) = 1/2. Допустим теперь, что взятый шар
имеет синий цвет, т. е . событие В уже произошло. Изме
нится ли вероятность того, что извлеченный шар имеет
красный цвет, т. е . изменится ли вероятность события А?
Из двух шаров, имеющих синий цвет, один шар имеет и
красный цвет, поэтому вероятность событи я А по-преж
нему равна 1/2. Другими словами , условная вероятность
события А, вычисленная в предположении, что наступило
событие В, равна его безусловной вероятности . Следова
тельно, события А и В независимы. Аналогично придем
к выводу, что события А и С, В и С независимы. Итак,
события А, В и С попарно независимы.
Независимы ли эти событи я в совокупности? Оказы
вается, нет. Действительно, пусть извлеченный шар имеет
два цвета , например синий и черный. Чему равна вероят
ность того, что этот шар имеет и красный цвет? Лишь
один шар окрашен во все три цвета, поэтому взятый
шар имеет и красный цвет. Таким образом, до пустив,
что события В и С произошли, приходим к выводу, что
событие А обязательно наступит. Следовательно, это
42
событие достоверное и вероятность его равна единице.
Другими словами , условная вероятность Рвс (А) = 1 собы
тия А не равна его безусловной вероятност.и Р (А) = 1/2.
Итак, попарно независимые события А , В, С не являются
независимыми в совокупности.
'
Приведем теперь следствие из теоремы умножения.
Следств и е. Вероятность совместн.ого появления
нескольких собьипий, независимых в совокупности. равна
проиэведению вероятностей втих событий:
р(А1А1. • •Ап) =р(А1)р(А.>•••р(Ап>•
Док азательств о . Рассмотрим трк события: А,
В и С. Совмещение событий А, В и С равносильно сов
мещению событий АВ и С, поэтому
Р(АВС)=Р(АВ·С).
Так как события А, В и С независимы в совокуп
ности, то независимы, в частности, события АВ и С,
а также А и В. По те орЕ:ме умножения для двух неза-
висимых событий имеем:
·
Р(АВ·С)=Р(АВ)Р(С) и:Р(АВ)==Р(А)Р(В}.
Итак, окончательно получим
Р(АВС)=Р(А)Р(/!)Р(С).
Для произвольного п доказательство проводится ме
тодо м математической индукции.
3амечание. Если события Ai, А1, •••, Апнезависимы в со
Еjокупuости , то и противоположные им собьtтия .A't, А;, .
•
.,А;.так.же
и-езависимы в совокупности.
·
Пример 2. Найти вероятнос·rь совместноrо появления герба при
Одном бросании двух монет.
,
Реше н и е. Вероятность 11оявления rерба первой монеты (со-
быт11е А)
р(..4)=1/2.
Вероятность появления rерба второй монеты (событие В)
P(B) = l/2.
События А и В независимые, поэтому искомая вероятIIость по
теореме у_,ножевия рана
Р (АВ)=Р (А)Р(В)=1/2·1/2=1/4•
.··
Пpll
lleP
3. Имеетс:J
J
З ящика, со.аерzащв1
1
по 10 деталей. В пер
вом ящике 8, во втором 7 и в третьем 9 стандартных деталей.
Из каждого ящика наудачу вы11имают по одной детали. Найти веро
ятность того, что все три вы11утые детали окажутся стан.1
1
артными.
:48
Реш е н и е. Вероятность того, что из первого ящика вынута
стандартная деталь (событие А),
Р (A) =8/l0=0,8.
Вероятность того, что нз второго ящика вынута стандартная
деталь (событие В),
Р (В) =7/ 10=0,7 .
Вероятность того, что из третьего ящика вынута стандартная
деталь (событие С),
Р (С) = 9/10=0,9 .
Так как события А, В и С независимые в совокупности, то ис
комая вероятность (по теореме · умножения) равна
Р (АВС)=Р (А)Р (8)Р (С) =0,8·0,7·0,9 =0,504.
Приведем пример совместного применения теорем сложения и
умножения.
Пример 4. Вероятности появления каждого нз трех независимых
событий А1, А2, А3 соответственно равны р1, р2, р3• Найти вероят
ность появления только одного из этих событий.
Реш е н и е. Заметим, что, например, появление тол ь к о первого
С()бытня А1 равносильно появлению события A1A°;iAa (появилось пер
вое и не появились второе и третье события). Введем обозначения:
В1- появилось только событие А1, т. е. 81 = А1А2А3;
82 - появилось только событие А2, т. е. В2 = А2А;А8;
В3 - появилось только событие А3, т. е. В3 = А3А1А2 .
Таким образом, чтобы найти вероятносrь появления только
одного из событий А1, А2, А3, будем искать вероятность Р (В1 + В2+
+В3) появления одного, безразлично какого из событий 81, 82, 83•
Так как события 81, В2, 88 несовместны, то применима теорема
сложения
(*)
Остается найти вероятности каждого нз событий В1, В2, 83•
/
События А1, А2, А3 независимы, следовательно, независиl'i'ьl
события А1, А2, А з , поэтому к ним применима теорема умножею� Я
Р (81) =Р <А1А2Аз) =Р (А1) Р (А2) Р (Аз) = P1q2qa.
Аналоги чно,
Р (82) =Р (A2A1As) =Р <А2) Р Й1) Р Йз) =P2q1q3;
Р (Вз) =Р(АаА1А2) = Р (Аз) Р (А1) Р (А2) = Psq1q2.
Подставив эти вероятности в (*) , найдем искомую вероятность появ
ления только одного из событий А1, А2, А3:
р (В1+в2+8з) =P1q2q3+P2q1q3+p3q1q2.
§ 5. Вероятнос'fь пояВJ
J
ения хотя бы одноrо
события
Пусть в результате испытания могут появиться п
событи й , независимых в совок у пности , л и бо некоторые
из них (в частности , только одно или н и одного), п риче м
:44
вероятности появления каждого из событий известны.
Как найти вероятность того, что наступит хотя бы одно
из этих событий? Например, если в результате испытания
могут появиться три события, то появление хотя бы
одного из этих событий означает наступление либо одного,
либо двух , либо трех событий. Ответ на поставленный
воп рос дает следующая теорема.
Теорема. Вероятность появления хотя бы одного из
событий А1, А2,
•••, А ", независимых в совокупности,
равна разности между единицей и произведением вероят-
ностей противоположных событий А1, А2, • • • , Л" :
Док азательств о. Обозначим через А событие,
состоящее в появлении хотя бы од ного из событий А 1,
А2, •••, А". События А иА1А2 •• •
А" (ни одно из
событий не наступило) противоположны, следовател ьно,
сумма их вероятностей равна еди нице :
Р(А)+Р(А1А2 •••
А")=1.
Отсюда, пользуясь теоремой умножения, получим
Р (А) = 1 -Р(А1А2 •••
An) = 1 -Р(А1) Р (А2) ••• Р (А"),
или
Р(А)=l -q1q2 ••• q".
Ч астный случай. Если события Ai, А2, • ••, А "
имеют одинаковую вероятность, равную р , то вероят
ность появления хотя бы одного из этих событ ий
Р (А)= 1-q".
Пример 1. Вероятности попадания в цель при стре,льбе из трех
орудий таковы: р1 = 0,8; p2=0,'l ; р3 = 0,9. Найти вероятность хотя
бы одного попадания (событие А) при одном залпе из всех оруди й.
Решение. Вероятность попадания в цел ь каждым из орудий
не зависит от результатов стрельбы из других орудий, поэтому рас
сматриваемые события А1 (попадание первого орудия) , А2 (попадание
второго орудия) и Аз (попадани4� третьего орудия) независимы в со
вокупности.
Вероятности событий, противоположных событиям А1, А2 и Аз
(т. е . вероятности промахов), соответственно равны:
Ч1=l -P1=1 -0,8=0,2; q8=l-p8=1 -0,7=0,3;
qз=1-рз=1 -�,9=0,1.
Искомая вероятность
Р (А) = 1 - Ч1Ч2Чз = 1-0 ,2 ·0,3·0,l =0,994.
45
Пример 2. В типографии имеется 4 москопечатных машины.
Для каждой машины вероятность того, что она работает в данный
момент, равна 0,9. Найти вероятность того, что в данны� момент
работает хотя бы одна машина (событие А).
,
Реше н и е. Событи я смашина работает» и смашина не рабо
тает» (в данный момент) -противоположные, поэтому сумма их веро
ятностей равна единице:
Отсюда вероятность того, что машина в данный момент не работает,
равна
q=1-Р=1 -0,9=0,1.
Искомая вероятность
Р(А) = 1 -tt'=1 -0,1'=0,9999.
Так как полученная вероятность весьма близка к единице, то на
основании следствия из принципа практической невозможности мало
вероятных событий мы вправе заключить, что в данный момент
работает хотя бы одна из машин.
Пример 3. Вероятность того, что при одном выстреле стрелок
попадает в цель ,·равна 0,4. Сколько выстрелов должен произвести
стрелок, чтобы с вероятностью не менее 0,9 он попал в цель хотя
бы один раз?
Реш е н и е. Обозначим через А событие спри п выстрелах
стрелок попадает в цель хотя бы един раз». События, состоящие в
попадании в цель при первом, втором выстрелах и т. д ., независимы
в совокупности, поэтому применима формула (•*)
Р(А)=l-q11• ,
Приняв во внимание, что, по условию, Р (А) �0,9, р =0,4 (следова-
тельно, q=1-0,4 = 0,6), получим
,
1-0,611 � 0,9; отсюда 0,611 <;0,1.
Прологарифмируем это неравенство по основанию 10:
п lg0,6 <; lgO,l.
Отсюда, учитывая, что Jg 0,6 <О, имеем
п�Jg0,1/Jg 0,6 = - 1/I,7782 = -Щ-О,22f8) ==4,5.
Итак, n�5. т. е. стрелок должен произвести не менее 5 вы
стрелов.
Пример 4. Вероятность тоrо , что событие появится хотя бы один
раз
в трех независимых в совокупн9сти испытаниях, равна 0,936.
Н а йти вероятность поямения события в одном испытании (предпо
о1
1
агается, что во всех испытаниях вероятность по�мения события
одна и та же).
-
Реш е и и е. Так как рассматриваем.ые события независимы в
совокуп ности , то применима формуо1
1
а (••)
Р(А)=l ..
.-
q11•
-46.
По условию, Р (А) = О,936; n=3. Следовательно,
0,936=1-q 3, или q3 =1 -0 ,936 =0 ,064.
Отсюда q= vo.064 -0,4.
Искомая вероятность
p=l -q =l -0,4 =0,6.
Задачи
1. Вероятность того, что стрелок при одном выстреле по
падает в мишень, равна р = 0,9. Стрелок произвел 3 выстрела. Найти
вероятность того, что все 3 выстрела дали Попадание.
Отв. 0 ,729.
2. Брошены монета и игральная кость. Найти вероятность сов
мещения событий: «ПОЯВИЛСЯ «Герб», «ПОЯВИЛОСЬ 6 ОЧКОВ».
Отв. 1/12.
3. В двух ящиках находятся детали: в первом -10 (из них
З стандартных) , во втором- 15 (из них 6 стандартных). Из каждого
ящика наудачу вынимают по одной детали. Найти вероятность того,
что обе детали окажутся стандартными.
Отв. 0,12.
4. В студии телевидения 3 телевизионных камеры. Для каждой
камеры вероятность того, что она включена в данный момент, равна
Р=О,6. Найти вероятность того, что в данный момент вклю'!ена
хотя бы одна камера (событие А).
Отв. 0,936.
5. Чему равна вероятность того , что при бросании трех играль
ных костей 6 очков появится хотя бьi на одной из костей (событие А)?
Отв. 91/216.
6. Предприятие изготовляет 95% изделий станда ртных, причем
из них 86%-первого сорта. Найти вероятность того, что взятое
наудачу изделие , изготовленное на этом предп риятии, окажется пер
вого сорта .
Отв. 0 ,817.
7. Монета бросается до тех пор, пока 2 раза подряд она не вы
падет одной и той же стороной . Найти вероятности следующих собы
тий: а) опыт окончится до шестого бросания; б) потребуется четное
число бросаний.
·
Отв. а) 15/16; б) 2/3.
8. Из цифр 1, 2, З, 4, 5 сначала выбирается одна , а затем из
оставшихся четырех -вторая цифра. Предполагается, что все 20 воз
можных исходов равновероятны. Найти вероятность того, что будет
выбрана нечетная цифра: а) в первый раз; б) во второй раз; в) в
оба раза.
Отв. а) 3/5; б) 3/5; в) 3/ 10.
9. Вероятность того , что при одном выстреле стрелок попадет в
десятку, равна 0,6. Сколько выстрелов дол жен сделать стрелок, чтобы
с вероятностью не менее 0,8 он попал в десятку хотя бы один раз?
Отв. п �2.
10. Три электрические лампочкtt: последовательно включены в
цепь. Вероятность того, что одна (любая) лампочка перегорит, если
напряжение в сети превысит номинальное, равна 0,6. Н айти вероят
ность того, что при повышенном напряжении тока в цепи не будет.
Отв. 0,936.
47
11. Вероятность того, что событие А появится хотя бы один раз
при двух независимых испытаниях, равна 0,75. Найти вероятность
появления события в одном испытании (предполагается, что вероят
ность появления события в обоих испытаниях одна и та же).
Отв. 0,5.
12. Tp!i команды А1, А2, А3 спортивного общества А состязаются
соответственно с тремя командами общества В. Вероятности того, что
команды общества А выиграют матчи у команд общества В, таковы:
при встрече А1 с В1 -О,8; А2 с В2-0,4; А3 с В3 -0,4. Для победы
необходимо выиграть не менее двух матчей из трех (ничьи во вни
мание не принимаются). Победа какого из обществ вероятнее?
Отв. Общества А (РА = О,544 > 1/2) .
13. Вероятность поражения цел и первым стре.11ком при одном
выстреле равна 0,8, а вторым·стрелком -0,6. Найти вероятность
того , что цель будет поражена тол ько одним стрелком.
Отв. 0,44 .
14. Из последовательности чисел 1, 2, . . . , п наудачу одно за
другим выбираются два числа. Найти вероятность того, чrо одно из
них меньше целог9 положительного числа k , а другое больше k, где
1<k<п.
Отв. [2[k-1)(n-k)J/[n(n-l)J.
У к азани е. Сделать допущения: а) первое число < k, а второе
>k;б)первоечисло>k,авторое<k.
"'15. Отдел технического контроля проверяет изделия на стандарт
ность . Вероятность того, что изделие нестандартно, раJ!на 0,1. Найти
вероятность того, что: а) из трех проверенных изделий только одно
окажется нестандартным; б) нестандартным окажется только четвертое
по порядку проверенное изделие.
Отв. а) 0,243; б) 0,0729.
Глава четвертая
СЛЕДСТВИ.Я ТЕОРЕМ СЛОЖЕНИЯ И УМНОЖЕНИЯ
§ 1. Теорема сложения вероятностей совместных
событий
Была рассмотрена теорема сложен ия для несов
местных событий. Здесь будет изложена теорема сложения
для совместных событи й.
Два с9бытия называют совмест ными, если появление
одного из них не исключает появления другого в одном
и том же �пытании.
·
Пр"мер 1. А -появление четырех очков при бросании играль
ной кости ; В-появление четного числа очков. События А и В-
совм�стные.
.
Пусть события А и В совместны, причем даны веро
ятности этих событий и вероятность их ..совместного по
явления. Как найти вероятность событ ия· А + В, состоя
щего в том, что роявитс� хотя бы одно из событий А и
В? Ответ на этот вопрос дает теор ема сложен ия вероят
ностей совместных событий.
48
Теорема. Вероятность появления хотя бЬl одного из
двух совмест ных событ ий равна сумме вероятностей эт их
событ ий без вероятности их совм ест ного появлен ия:
Р(А+В)=Р(А)+Р(В)-Р(АВ).
Доказател ьство. Поскольку события А и В , по
условию, совместны, то событие А + В насту п �т, если
насту пит одно из следующих трех несовместных событий:
А В, АВ или АВ. По теореме сложения вероятностей
несовместных событий,
Р(А+В)=Р(АВ)+Р(АВ)+Р(АВ).
(*)
Событие А произойдет, ес ли насту пит одно из дву х
несовместных событий: АВ или АВ. По теореме сложения
вероятностей несовместных событий имеем
Р(А)=Р(АВ)+Р(АВ).
Отсюда
Р (АВ) = Р (А)-Р(АВ).
Аналогично имеем
•
Р (В)=Р (АВ) + Р (АВ).
Отсюда
Р (АВ) = Р (В)-Р(АВ).
Подставив (**) и (***) в (*), о кончательно пол учим
Р (А +В)=Р (А) +Р(В) -Р (АВ).
(****)
3 а мечани е 1. При использовании полученной формулы сле
дует иметь в виду, что события А и В могут быть I{aK независимыми,
так и зависимыми.
Для независимых событий
Р (А+В)=Р (А)+Р(В)-Р(А) Р (В);
для зависимых событий
Р (А+В)=Р(А)+Р(В) -Р(А) РА (В).
3амечание 2.Если событияА иВ несовместны,тоихсов
мещение есть невозможное событие и, следовательно, Р (АВ) =0.
Формула (****) для несовместных событий п ринимает вид
Р (А +В)=Р (А) +Р (В).
Мы вновь получили теорему сложения для несовместных собы
тий. Таким образом, формула (****) справедлива I{aK для совмест
ных, так и для несовместных событий.
Пример 2. Вероятности попадания в цель при стрельбе первого
и второго орудий соответственно равны: р1=0,7; р2 =0,8. Найти
'
49
вероятность попадания при одном· · за лп е (из обоих орудий) хотя бы
одним из орудий.
.
Р е ш е н и е. Вероятность попадания в цель каждым из орудий
не зависит от результата стреЛьбы из другого орудия, поэтому собы
тия А (попадание первого орудия) и В (попадание второго орудия)
независимы.
Вероятность события АВ (оба орудия дали попадание)
Р (АВ) =Р (А) Р (В) =О,7·0,8 = 0,56.
Искомая верG-ят ность
Р (А+В)=Р (А)+Р (В)-Р (АВ) =О,7+0,8-0,56 =0,94.
3 а мечани е 3. Так как в настоящем примере события А и В
независимые, то можно было воспользоваться формулой Р=l -
- q1q2 (см. гл . 111, § 5). В самом деле, вероятности событий, про
тивоположных событиям А и В, т. е . вероятности промахов, таковы:
qi =l-P1 = 1 -0,7=0,3; q2 =l-p2=1 -0,8 =0,2.
Искомая вероятность тог�. что при одном за.rше хотя бы одно
орудие даст попадание, равна
Р = l-q1q2 = 1-0,3·0.2 =0,94.
Как и следовало ожидать, получен тот же результат.
§ 2. Формула полной вероятности
Пусть событие А может наступить при условии
появления одного из несовместных событий В1, 8 2 , ••• •, В п,
которые образуют пол ную группу. Пусть известны веро
ятности этих событий и усл овные вероятности Рв, (А),
Р82 (А), . .., Рвп (А) событи я А. Как найти вероятность
событи я А ? Ответ на , этот вопрос дает следующая
теорема .
Теорема . Вероятность событ ия А , которое может
наступ ить лишь при условии появления одного из несо
вместных событ ий В1, В2 , •••, Вп • образующих полную
группу, равна сумме произведений вероятностей каждого
из этих событ ий на соответствующую условную вероят
ность событ ия А:·
Р(А)=Р(81)Рв, (А)+Р(В2)Рв. (А)+...
. . . + Р(Вп)Рвп(А).
Эту формул у называют «формулой пол ной вероятности».
Доказательство. Поусловию, событие А может
наступить , есл и наст упит одно из несовместных событий
Bi, В2, •••, В п. Другими сл овами, появл ение события А
означает осуществл ение ' одного, безразл ично какого, из
несовместных событий В1А , В1А , . . ., ВпА . Пользуясь
50
дпя вычисления вероятности события А теоремой сложе·
ния, пол учим
Р(А)=Р(В1А)+Р(В2А)+ ...+Р(ВпА). .
(•)
Остается :вычисл ить каждое из слагаемых . По теореме
умножения вероятностей зависимых событий имеем
Р(В1А)=Р(В1)Рв1 (А); Р(В1А)=Р(81)Рв,(А); ..• ;
Р (ВпА) = Р (Вп) Рв" (А).
Подставив правые части этих равенств в соотноше
ние (*), получим формулу полной вероятности
Р (А)= Р (В1) Рв1 (А)+Р (82) Рв, (А)+...
. . . +Р(Вп)Рвп"<А).
Пример 1. Имеется дм вабора деталей. Вероятность тоrо , что
деталь первого набрра стандартна, равна 0,8, а второrо-0,9. Найти
вероятность тоrо, что взятая наудачу деталь (из наудачу взятоrо
набора) - стандартная.
·
·
Ре
w е н и е. Обозначим через А событие снзвлеченная деталь
стандартна:..
Деталь может быtь извлечена либо из первого набора (собы
тие /J1), либо из второго (событие 81) .
Вероятность того, что деталь вынута из первого набора,
Р(Bi)=1/2.
Вероятность тоrо, что деталь вынута из второго набора,
Р (В1!
= 1/2.
� словная вероятность того, что из первого набора будет извле·
чена стандартная деталь, Рв, (А) = 0,8.
Уславная вероятность того, чrо из ·Второго набора будет извле
чена стандартная деталь, Р81 (А) =�,9.
Искомая вероятность того, что извлеченная наудачу деталь -
стандартная, по формуле полной вероятности равна
Р (А)=Р (81) Рв1 (А) + Р (81) Рв1 (А)=
= 0,5·0,8+0,5·0,9=0,85.
Пример 2. В · первой коробке соде ржится 20 радиоламп, 11з них
18 стандартных; во второй коробке -10 ламп, из них 9 стандарт
ных. Из второй коробки наудачу взята лампа и переложена в пер
вую. Найти вероятность того, что лампа, наудачу извлеченная из
первой коробки, будет стандартной.
Реw е н не. Обозначим через А событие сиз первой коробки
извлечена стандартная лампа:..
Из второй коробки могла быть извлечена либо стандартная
пампа (событие 81), либо нестандартная (событие 81) .
Вероятность тоrо, что из второй коробки извлечена стандартная
лампа, Р (В1) = 9/10.
Вероятность тоrо, что из второй коробки извлечена нестандарт.
вая пампа, Р (В.) = 1/10.
51
Условная вероятность того, что из первой коробки извлечена
стандартная лампа, при услории, что из второй коробки в первую
была переложена стандартная лампа. равна Р8, (А) = 19/21.
Условная вероятность того, что из первой коробки извлечена
стандартная лампа, при условии, что из второй коробки в первую
была переложена нестандартная лампа, равна Рв, (А)=18/21 .
Искомая вероятность того, что нз первой коробки будет извле
чен� стандартная лампа, по формуле по.'I ной вероятности равна
Р (А) = Р (В 1) Рв, (А)+Р(В2) Рв. (А) = (9/10)·(19/21)+
+(1/10).(18/21)=0,9.
§ З. Веро ятность гипотез. Формулы Бейеса
Пусть событие А может наступить при условии
появления одного из несовместных событий В1, В2 , •• •, Вп •
образующих полную группу. Поскольку заранее не из
вестно, какое из этих событий наступит, их называют
гипотезами . Вероятность появления события А опреде
ляется по формуле полной вероятности (см. § 2):
Р(А)=Р(В1)Рв,(А)+Р(В2)Рв.(А)+...
... +Р(Вп) Рвп (А) .
(*) ·
Допустим, что произведено испытание, в результате
которого появилось событяе А. Поставим своей задачей
определ ить, как измен ились (в связи с тем, что собы
тие А уже наступило) вероятности гипотез. Другими
словами, будем искать условные вероятности
РА(В1), РА(В2), • • •• РА(Вп)•
Найдем сначала условную вероятность РА (В1). По
теореме умножен ия имеем
Р(АВ1)=Р(А)РА(В1)=Р(В1)Рв,(А).
Оrсюда
р'
(В)
_ Р(В1)Рв,(А)
Аi-.
р(А) •
Заменив здесь Р (А) по формуле (*) , получим
.
Р (В1) Рв, (А)
р
А(В1)=р(В1)Рв,(А)+Р(В2)Рв,(А)+• • • +Р(Вп)Рвп(А)•
Аналогично выводятся формулы, определ яющие усJiов
ные вероятности остальных гипотез, т. е . условная веро
ятность любой гипотезы В1 (i = 1,2, ..• , п) может быть
52
вычислена по формуле
Р (В·;) Рв ;(А)
рА (В;)=Р (В1) Рв, (А)+Р(В2) Рв. (А)+•..+Р (Вп) Рвпl(А) •
Полученные формулы называют формулами Бейеса
(по имени английского математика, который их вывел ;
опубликованы в 1764 г.) . Формулы Бейеса позволяют
переоценить вероят,ности гипотез после того, как ста
новится извест ным резул ьтат испытания, в итоге кото
рого появилось событие А.
Пример. Детали, изготовляемые цехом завода, попадают для
проверки их на стандартность к одному из двух контролеров. Веро
ятность того, что деталь попадает к первому контролеру, равна 0,6,
а ко второму -0,4. Вероятность того, что годная деталь будет приз
нана стандартной первым контролером, равна 0,94, а вторым-0,98.
Годная деталь при проверке была признана стандартной. Найти
вероятность того, что эту деталь проверил первый контролер.
Решение. Обозначим через А событие, состоящее в том, что
годн ая деталь признана стандартной. Можно сделать два предполо
жения:
1) дета ль проверил первый контролер (гипотеза В1);
2) деталь проверил второй контролер (гипотеза В2).
Искомую вероятность того, что деталь проверил первый контро
лер, найдем по формуле Бейеса:
Р (В1) Рв, (А)
рА <81> =
р (В1) Рв, (А)+р (82) Рв. (А) •
·
По условию задачи имеем:
Р (81) = 0,6 (вероя'Гность того, что деталь попадает к первому конт
ролеру);
Р (82) = 0,4 (вероятность того, что деталь попадет ко второму конт
ролеру);
Рв, (А) = 0,94 (вероят1;юсть того, что r·одная деталь будет признана
первым контролером станда ртной);
Рв , (А) =0,98 (вероятность того, что годная деталь будет признана
вторым контролером стандартной).
Искомая вероятность
рА (81) = (0, 6 · 0,94)/(0,6 · 0,94+0,4 ·0,98) � 0,59,
Как видно, до испытания вероятность гипотезы 81 равнялась 0,6,
а после того, как стал известен результат испытания, вероятность
этой гипотезы (точнее, условная вероятность) изменилась и стала рав
ной 0,59. Таким образом, использование формулы Бейеса позволило
переоценить вероятность рассматриваемой гипотезы.
Задачи
1. Два стрелка произвели по одному выстрелу. Вероят
ность попадания в мишень первым стрелком равна 0,7, а вторым -
0,6. Найти вероятность того, что хотя бы один из стрелков попал ·
в мишень.
Отв. 0,88.
53
2. У сборщика имеется 1� деталей, изгоrовпенных заводом Ni 1,
и 4 детали завода М 2. Наудачу взяты 2 детали. Найти вероятность
того, что хотя бы одна из ни1С окажется изrоторленной заводом М 1.
Отв. 92/95.
,
3. В группе спортсменов 20 лыжников, 6 велосипедистов и 4 бе
гуна. Вераятность выполнить квалификационную норму такова: для
лыжника -0,9, для велосипедиста-0,8 и для бегуна- 0,75. Найти
вероятность того , что спорrсмен, выбранный наудачу, выполнит
норму.
Отs. 0,86•
i
4. Сборщик получил 3 iКОробкн деталей, изrотов.чеиных заво
дом N!! 1, и 2 коробки детал�й, изготовленных заводом М 2. Вероят·
иость того, что деталь завода N11 1 стандартна, равна 0,8, а завода
М 2-0,9, Сборщик наудачу извлек детал ь из наудачу взятой ко
робки . Найти вероятность tого , что извлечена стандартная деталь.
Отв. 0,84.
:
5. В первом ящике содержится 20 деталей, из них 15 стандарт•
ных; во втором -30 деталей, из них 24 стандартных; в третьем -
10 деталей, из них 6 стандартных. Найти вероятность того, что
наудачу извлеченная деталь !из наудачу взятого ящика-стандартная.
Отв. 43/60.
•
8. В телевизионном ателье имеется 4 кинескопа. Вероятности
тоrо, что кинескоп выде ржит гарантнй11ый срок службы, соответст
венно равны 0,8; 0,85; 0,9; Q,95. Найти вероятность того, что взятый
наудачу кинескоп вы.nержит ,гарантийный срок службы.
Отв. 0,875.
•
7. В двух ящиках имеюtся радиолампы. В первом ящике содер·
жится 12 ламп, Из них l нестандарт,ная; во втором 10 ламп, из них
1 нестандартная. Из первоф ящика нау.аачу взята лампа и перело·
жена во второй. Найти вероятность того, что наудачу извлеченная
из второго ящика пампа будет нестандартной.
·
Отв. 13/132.
.
8. Из полного набора· 2� костей домино наудачу извлечена кость.
Найти вероятность того, что втор ую извлеченную наудачу кость
можно приставить к первой.1
Отв. 7/18.
.
9. Сту.аент знает не все экзаменационные билеты . · в каком слу·
чае вероятность вытащить н�известный билет будет для него наимень
шей: когда он берет билет nервым или последним?
011
18
. Вероятности одинаковы в обоих случаях.
10. В ящик, содержащ�,�й 3 оди наковых детали, брошена стан
дартная деталь. а затем нау.а
а
чу извлечена одна деталь. Найти
вероятность того, что извле�еиа стандартная деталь, ее.пи равноверо
ятны все возможные предположения о числе стаи4артвых деталей.
первоначально нахо.АЯЩНхс� в ящике.
Oms. 0 ,625.
,
11. При отклонении от нормального режима работы автомата
срабатывает сигнализатор С-1 с вероятностью о.в. а сиrнапизатор
С-1 1 срабатывает с вероят,остью 1. Вероятности тоrо, что автомат
снабжен сиrнали затором (i:-1 или С-1 1, соответственно равны 0,6
и 0,4. Получен сигнал о разделке автомата. Что вероятнее: автомат
снабжен сигнализатором C·J или С-1 1?
·
Отs. Вероятность того , что автомат снабжен сиrиализатором С- 1,
равна 6/11, а С-11-5/11. '
�
12. Для участия в студенческих отборочных спортивных соревно
ваниях выделено из первой группы курса 4, из второй - 6, из третьей
группы-5 студентов. Вероятности того, что студент первой, второй
и третьей группы попадает в сборную института, соответственно
равны 0,9; 0,7 и 0,8. Науда чу выбранный студент в итоге соревно
вания попал в сборную. К какой из групп вероятнее всего принад
лежал этот студент?
Отв. Вероятности того , что выбран студент первой, второй, тре
тьей групп, соответственно равны: 18/59, 21/59, 20/59.
13. Вероятность для изделий некоторого производства удовлетво
рять стандарту равна 0,96. Предлагается упрощенная система про
верки на стандартность , дающая положительный реэу.пьтат с вероят·
ностью 0,98 для изделий, удовлетворяющих стандарту, а для изде
лий, которые не удовлетворяют стандарту,- с вероятностью 0,05.
Найти вероятность того, что изделие, признанное при проверке
стандартным, действительно удовлетворяет стандарту.
Отв. 0 ,998.
Глава пятая
ПОВТОРЕНИЕ ИСП ЫТАНИЙ
§ 1. Формула Бернулли
Если производится несколько испыт анцй, при
чем вероятность события А в каждом испытании не за
висит от исходов других испытаний, то такие испытания
называют независимыми относительно событ ия А.
В разных независимых испытаниях событие А может
иметь либо различные вероятности, либо одну и ту же
вероятность. Будем далее рассматривать лишь такие
независимые испытания, в которых событие А имеет одн у
и ту же вероятность.
Ниже воспользуемся понятием сложного события, по
нимая под ним совмещение нескольких отдел ьных собы
тий, которые называют простыми .
Пусть производится п независимых испытаний, в каж
дом из которых событие А может появиться либо не
появиться. Условимся считать, что вероятность собы
тия А в каждом испытании одн а и та же, а именно
равна р . Следовател ьно, вероятность ненаступления со
бытия А в каждом испытании также постоя нна и равна
q=l-p.
Поставим перед собой задачу вычислить вероятность
того, что при n испытаниях событие А осуществится
ровно k раз и, следовательно, не осуществится n-k раз.
Важно подчеркнуть, что не требуется, чтобы событие А
повторилось ровно k раз в определенной последователь-
65
ности . Например, если речь идет о появлении события А
три раза в четырех испытаниях , то возможны следующие
сложные события: АААА, АААА, АААА, АЛАА. Запись
АААА означает, что в первом, втором и третьем испы
таниях событие А наступило, а в четвертом испыта нии
оно не появилось, т. е . наступило противоположное со-
быт'Ие А; соответственный смысл имеют и другие записи.
Искомую вероятность · обозначим Рп (k). Например,
символ Р6 (3) означает вероятность того, что в пяти
и:спытаниях событие появится ровно 3 раза и, следова
тельно, не наступит 2 раза .
Поставленную задачу можно решить с помощью так
называемой формулы Бернулли .
Вывод формулы Бернулли. Вероятность од ного слож
ного события, состоящего в том, что в п испытаниях
событие А наступит k раз и не наступит n - k раз, по
теореме умножения вероятностей независимых событий
равна pkq n - k . Таких сложных событий может быть
стол ько, сколько можно составить сочетаний из п эле
ментов по k элементов, т. е. С�. Так как эти сложные
события несовместны, то по теореме сложения вероятно
стей несовместных событий искомая вероятность равна
сумме вероятностей всех возможных сложных· событи й.
Поскольку же вероятности всех этих сложных событий
оди наковы, то искомая вероятность (появления k раз со
бытия А в п испытаниях) _ равна вероятности однщ·о
сложного события, умноженной на их число : ·
рп (k) = C1j,pkqn-k
-
ил�
рп(k)=kl (n
n
'_k)Ipkqn-k
.
Полученную формулу называют формулой Бернулли .
Пример. Вероятность того, что расход электроэнергии в продол
жение одних суток не превысит установленной нормы, равна р=О,75.
Найти вероятность того, что в ближайшие 6 суток расход электро
энергии в течение 4 суток не превысит нормы.
Реш е н и е. Вероятность нормального расхода электроэнергии
в продол жение каждых из 6 суток постоянна и равна р=О,75. Сле
довательно, вероятность перерасхода электроэнергии в каждые сутки
также постоянна и равна q =l-p =l-0 ,75 =0,25.
Искомая вероятность по формуле Бернулли равна
Р8 (4) =C:p4q2 =C=p4q2 =�:;(О,75)4. (0 ,25)11 =0,30.
56
§ 2. Локальная теорема Лапласа
Выше была выведена формула Бернулли , позво
ляющая вычислить вероятность того, что событие появится
в п испытаниях ровно k раз. При выводе мы предпола
гали, что вероятность появления событи я в каждом
ис пытании постоянна. Легко видеть, что пользоваться
формулой Бернулли при больших · значениях п достаточно
трудно, так как формула требует выполнения действий
над громадными числами. Например, если п = 50 , k = 30,
р = О , 1, то для отыс кания вероятности Р6 0 (30) надо
вычислить выражение Р00 (30) = 501/(30!20!) . (О, 1 )з0 • (О, 9)20,
где
501=30414093·10�7,
30! =26525286· 1026,201 =
= 24329020·1011
•
Правда, можно несколько упростить
вычисления, пользуясь специальными таблицами лога
рифмов факториалов. Однако и этот путь остается
громоздким и к тому же имеет существенный недостаток:
таблицы содержат приближенные значения логарифмов,
поэтому в процессе вычислений накапливаются погреш
ности ; в итоге окончател ьный результат может значи
тельно отличаться от истинного.
Естественно возникает вопрос : нельзя ли вычислить
интересующую нас вероятн ость , не прибегая к формуле
Бернулли? Оказывается, можно. Локальная теорема
Лапласа и дает асимптотическую *> формул у, которая
позволяет приближенно найти вероятность появления
собь1
1:
ия ровно k раз в п испытаниях, если число испы
таний достато чно велико.
Заметим, что для частного случая, а именно для
р = 1/2, асимптотическая формула была найдена в 1 730 г.
Муавром; в 1783 г . Лаплас обобщил формулу Муавра
дл я произвольного р, отличного от О и 1. Поэтому тео
рему, о которой зд есь идет речь, иногда называют
теоремой Муавра - Ла пласа .
Доказательство локальной теоремы Лапласа довол ьно
сложно, поэтому мы приведем лишь формулировку тео
ремы и примеры, иллюстрирующие ее использование.
Локальная теорема Лапласа. Есл и вероятность р появ
ления событ ия А в каждом испытании постоянна и
отлична от нуля и единицы, то вероятность Рп (k) того,
*1 Функцию ер (х) называют асимптотическим приближением
функции f(x) , если lim f (х) = 1.
%-+ � ср(х)
57
что событие А появится в п испытаниях ровно k раз,
пр иближенно равна (тем точнее , чем больше п) значению
функции
у=
1•
_1_
е
-
х•/2
-
1 •q>(х)
Уnpq У2n
-
уnpq
при x =(k -np)/Vnpq.
Имеются таблицы, в которых помещены значения
1
функции q> (х)
=
"r-
е - х•12 , соответствующие положитель-
r
2n
ным значениям аргумента х (см. приложение 1). Для
отрицательных значений аргумента польз уются теми же
таблицами, так как функция q>(x) четна, т. е. с:р ( -х) = с:р(х) .
Итак, вероятность того, что событие А появится в п
независимых испытаниях ровно k раз, приближенно равна
1
Рп(k)�у
· с:р(х),
npq
где X = (k-np)/ynpq.
.
Пример 1. Найти вероятность того, что событие А наступит
ровно 80 раз в 400 испытаниях, если вероятность появления этого
события в каждом испытании равна 0,2.
Решение. По условию, n=400; k=80; р =О,2; q=0,8. Вос
пользуемся асимптотической формулой Лапласа:
р (80'::
::
:
1
()1()
400 '
у400.о,2 .о,8 ·<i>
х =-в·<�>
х
.
Вычислим определ яемое данными задачи значение х:
x=(k-np)/ У npq =(80 - 400 .0,2)/8 =0.
По таблице приложения 1 находим <р (О) =0,3989.
Искомая вероятность
Р400 (80)=(1/8) · 0 ,3989 =0,04986 .
Формула Бернулли приводит примерно к такому же резу..nьтату
(выкладки ввиду их громоздкости опущены):
Р,00 (80) =0,0498.
Пример 2. Вероятность поражения мишени стрелком при одном
выстре.пе р =0,75. Найти вероятность того, что при 1О выстрелах
стрелок поразит мишень 8 раз.
Решение. По условию, n=IO; k=8; р=О,75; q=0,25.
Воспользуемся асимптотической формулой Лапласа:
58
1
Р19 (8) ::
::.
.
у
• ер (х) =0,7301 ·ср (х).
10.0,75 ·0,25
Вычис.1 им оп ределяемое данными задачи значение х:
k- пр
х
Jfnpq
8-10-0,75 ::>=О 36.
YI0-0,75 -0 ,25
'
По таблице при,1ожения 1 находим <р (0,36) =0,3739.
Искомая вероятность
Р10 (8) =0,730 1 -0,3739 = 0,273.
Формула Бернулли приводит к иному результату, а, именно
Р10 (8) = 0 ,282. Столь значительное расхождение ответов объясняется
тем , что в настоящем п римере п имеет малое значение (формула
Лапласа дает достаточно хорошие п риближения лишь при достаточно
больших значениях п).
§ 3. Интеrра.льная теорема Лап.ласа
Вновь предположим, что производится п испы
таний, в каждом' из которых вероятность появления
события А посто янна и равна р (О < р < 1). Как вычис·
лить вероятность Рп (k1, ka) того, что событие А появится
в п испытаниях не менее ki и не более ka раз (для крат·
кости будем говорить «от k1 до ka раз»)? На этот вопрос
отвечает интегральная теорема Лапласа, которую мы
пр1tводим ниже, опустив доказательство.
Теорема. Есл и вероятность р наступления события А
в каждом испытании постоянна и отлична от нуля и
единицы, то ве роятность Рп (k1, k2) того , что событ ие А
появится в п испытаниях от k1 до k2 раз, приближен но
равна определенному интегралу
1('
Рп(k1, k,.)�..}
2n
Se-z•/2 dz,
Х'
где х' =(ki-np)/V npq и Х' =(k2 - пp)/Vfijiq.
При решении задач, требующи·х применения интеграль- ·
ной теоремы Лапласа, пользуются специальными табл и-
цами, так как неопредеЛенный интеграл S e-z•12 dz не
выражается 11ерез элементарные функции. Таблица для
1'
.
1
r
интеграла Ф (х) = у2
п
J
e-z•12 dz приведена в конце книги
(см. приложение 2). В таблице да�ы значения функции
Ф (х) для положительных значений х и для х =О; для
;& < О пользуютс я той же таблицей [функция Ф (х) не-
.59
четна, т. е. Ф(-х)= - Ф(х)]. В таблице приведены
значения интеграла лишь до х = 5, так как для х > 5
можно принять Ф (х) = 0,5. Функцию Ф (х) часто называют
функцией Лапласа .
Для того чтобы можно было пользоваться таблицей
функции Лапласа, преобразуем соотн ошение (*) так:
о
)('
рп(kн kз)!:
::
:!
})2nsе-z•/зdz+ Jf,.
.12
n sе-z•/зdz=
х'
О
Х"
х'
=-
1 - s e-z•12 dz--1-s e-z•;z dz = Ф (х")-Ф (х').
V2n
V2n
о
о
Итак, вероятность того, что событие А появится в п
независимых испытан иях от k1 до k2 раз.
Рп (k1, k2) !:
::
:!
Ф (х")-Ф (х' ),
где х' = (k1 - np)/Vnpq и х" = (k2 - np)/Vnpq.
Приведем примеры, иллюстрирующие применение ин
тегральной теоремы Лапласа.
Пример. Вероятность того, что детал ь не прошла проверку ОТК,
равна р = О,2. Найти вероятность того, что среди 400 случайно ото
бранных деталей окажется непроверенных от 70 до 100 деталей.
Р ешение. По условию, р=О,2; q=0,8; n=400; k1 =70;
k2 = 100. Воспользуемся интегральной теоремой Лапласа:
Р400 (70, 100) � Ф (х") -Ф (х').
Вычислим нижний и верхний предел ы интегрирования:
х' k1-np _ 70 -400 .О,2
_
1,25;
уnpq
-
у400.о,2 .о,8
"_ k2-np
100-400 .О,2 _2 5
Х-
-
t•
упрq у400.0,2.0,8
Таким образом, имеем
Р400(70, 100)=Ф (2,5)-Ф(-1,25)=Ф (2,5)+Ф(1,25)•
.
По таб.пице приложения 2 находим:
ф (2,5) = 0,4938; ф (1 ,25) = 0,3944.
Искомая вероятность
Р400 (70, 100) =0,4938 +0,3944 =0,8882 .
3 а м е ч а н н е. Обозначим через т число появлений события А
при п независимых испытаниях, в каждом из которых вероятность
наступления события А постоянна и равна р. Если число т изме-
няется от ki до k2 , то дробь (т-пр)/ У npq изменяется от
(k1- np)/Jfnpq =x' до (k2-пр)/ У npq =x" . Следовательно, интег-
60
ральную теорему Лапласа можно записать и так:
1('
Р(х' <;
;
т-
п
р.s;
;;
;;
x" ) �_.!_fe-z•/1dz.
У npq
Y2n
х'
Эта форма записи используется ниже. ·
§ 4. Вероятность отклонения относительной
частоты от постоянной вероятности
в независимых испытаниях
Вновь будем считать, что производится п неза
висимых испытаний, в каждом из которых вероятность
появления события А постоянна и равна р (О < р < 1 ).
Поставим перед собой задачу найти вероятность того,
что отклонение относительной частоты m/n от постоя нной
вероятности р по абсолютной вел ичине не превышает
заданного числа е > О. Другими словами, найдем веро
ятность ос уществления неравенства
lm/n-pl�e.
(*)
Эrу вероятность будем обозначать так: Р (1 m/n -p 1 � е).
Заменим неравенство (*) ему равносильными :
- e � m/n-p�e или -е�(т -пр)/п �е.
Умножая эти неравенства на положител ьный множитель
Vn/(pq), получим неравенства, равносильные исходному :
- е V n/(pq)� (т - пр)/Vnpq� е Vn/(pq).
Воспользуемся интегральной теоремой Лапласа в фор
ме, указанной в замечании (см. § 3). Положив х' =
= - еVn/(pq) и х" = еVn/(pq), имеем
Р (- е Vn/(pq)�(m-np)/Vfi'P(i�еVn/(nq))�
е У n/(pq)
е У n/(pq)
�--
s e- z •/2dz=-2
-
s e-z•/2dz =
Y2n
У2П
- eY'i
i/(j
j'q)
о
= 2Ф (е Vn/(pq)).
Наконец, заменив неравенства, заключенные в скобках ,
равносильным им исходным неравенством, окончательно
пол учим
P(lm/n -p l�e) � 2Ф (е V n/(pq)).
61
Итак, вероятность осуществления неравенства lm/n-pl�e
приближенно равна значению удвоенной функции Лапласа
2Ф (х) при х = eV n/(pq).
Пример 1. Вероятность того , что деталь не стандартна, р=О,1.
Найти вероятность того, что среди случайно отобранных 400 деталей
относительная частота появления нестандартных деталей отклонится
от вероятности P=O,l по абсолютной величине не более чем на 0,03.
Реш.е ние. По условию, n =400; p=O,l; q=0,9; 8 =0,03. Тре
буется найти вероятность Р ( 1 m/400-0,I I <;О,03). Пользуясь форму
лой P(jm/n-p\<;8) � 2Ф (8 Yn/(pq>), имеем
Р (/ m/400-0,I f <; 0,03) � 2Ф (0,03 У400/(0,l ·0,9))=2Ф (2).
По таблице приложения 2 находим Ф (2) =0,4772. Следовательно,
2Ф (2) =0,9544.
Итак, искомая вероятность приближенно равна 0,9544.
Смысл полученного результата таков: · если взять достаточно
большое число проб по 400 деталей в каждой, то примерно в 95,44%
зтнх проб отклонение относительной частоты от постоянной вероят
ности р=О,1 по абсолютной величине не превысит 0,03.
Пример 2. Вероятность того, что деталь не стандартна, р=О,1.
Найти, сколько деталей надо отобрать, чтобы с вероятностью, равной
0,9544, можно бЬ1Ло утве рждать, что относительная частота появления
нестандартных деталей (среди отобранных) отклонится от постоянной
вероятности р по абсолютной величине не более чем на 0,03.
Решение. По условию, p=O,l; q=0,9; 8 =0,03; P(lm/n -0, I 1<
<;О,03) =0,9544. Требуется найти n.
Воспользуемся формулой
Р(1m/n-p1.<8) ::
::
:
2Ф (8 Уn/(pq>) .
в сипу условия
2Ф (0,03 Уn/(0,l · 0 ,9)} =2Ф (0,1 Yn) =;О,9544.
Следовател ьно, Ф (0,1 Yn) = 0,4772.
.
По таблице прИJ
J
ожения 2 находим Ф (2) = 0,4772.
.
Дпя отыскания ·числа п получаем уравнение 0,1 Yn==2. Оrсюда
искомое число деталей n=40
0
.
Смысл полученного результата таков: если взять достаточно
большое число проб по 40
0
деталей, то в 95,44% зтих проб относи
тельная частота появления иеставдартных деталей будет отличаться
от постоянной вероятности р = 0, 1 по абсолютной величине не более
чем на 0,03, т. е . относительная частота заключена в границах от
0,07 (0,1 -0 ,03==0,07) до О,IЗ (О. 1 +0.оз -о, 1з). Друrн11и словами,
число неста ндартных деталей в 95,44% проб будет заключено между
.28(7%от40
0
)и52(13%от40
0
).
'
Если взять лишь одн у пробу из 40
0
деталей, то с большой
уверенносТью можно ожвдать, что в зтой пробе будет нестандартных
АеТ&1
1
ей 11е менее 28 и не более 52. Возможно, хотя и маловероятно,
что нестандартных Аета.пей окажется меньше 28 либо бопьше 52.
62
Задачи
1. В цехе 6 моторов. Для каждого мотора вероятность
того, что он в данный момент включен, равна 0,8. Найти вероятность
того , что в данный момент: а) включено 4 мотора; б) включены все
моторы; в) выключены все моторы.
Отв. а) Ре (4)=0,246; б) Ре (6)=0,26; в) Ре (0)=0,00
0064
.
2. Найти вероятность того, что событие А появится в пяти не
зависимых испытаниях не менее двух раз, если в каждом испытании
вероятность появления события А равна 0,3.
Отв. Р= l-[P6 (О) + Р11 (1)] =0,472.
з. Событие В появится в случае, если событие А появится не
менее двух раз. Найти вероятность того, что наступит событие В,
если будет произведено 6 независимых испытаний, в каждом из
которых вероятность появления события А равна 0,4.
Отв. Р= 1 - [Ре (О)+Ре (1)] = 0,767.
4. Произведено 8 независимых испытаний, в каждом из которых
вероятность появления события А равна 0,1. Найти вероятность того,
что событие А появится хотя бы 2 раза.
Отв. P=l - [P8 (0)+P8 (1)] =0, 19.
5. Монету бросают 6 раз. Найти вероятность того, что герб вы
падет: а) менее двух раз; б) не менее двух раз.
Отв. а) Р=Ре (О)+Ре(1) =7/64; б) Q=l -[P 8 (О) +Р8(1)} = 57/64.
6. Вероятность попадания в цел ь при одном выстреле из оруди я
р =О,9. Вероятность поражения цели при k попаданиях (k ;;
;;
;,
1 ) равна
1-qk. Найти вероятность того, что цель будет поражена, если сд�
лано два выстрела.
У к а з а н и е. Воспользоваться формулами Бернулли и полной
вероятности.
Отв. 0,9639.
7. Найти приближенно вероятность того, что при 400 испыт�ниях
событие наступит ровно 104 раза, если вероятность его появления в
каждом испытании равна 0,2.
Отв. Р400 (104) =0, 0006.
8. Вероятность поражения мишени стрелком при одном выстреле
равна 0,75. Найти вероятность того, что при 100 выстрелах мишень.
будет поражена: а) не менее 70 и не более 80 раз; б) не более 70 раз.
Отв. а) Р100 (70,80) =2Ф (l,15)=0 ,7498 ;
б) Р100 (0; 70)= -Ф(l , 15)+0,5 =0,1251 .
9. Вероятность появления события в каждом из 10ООО независи
мых испытаний р =О,75. Найти вероятность того, что относительная
частота появления события отклонится от его вероятности по абсо
дютной величине не более чем на 0,001.
Отв . Р=2Ф(О,23) =0, 182.
10. Вероятность появления события в каждом из независимых
испытаний равна 0,2. Найти, какое отклонение относительной частоты
появления события от его вероятности можно ожидать с вероятностью
0,9128 при 5000 испытаниях.
Отв. е =О,00967 .
11. Сколько раз надо бросить монету, чтобы с вероятностью 0,6
можно бЫJiо ожидать , что отклонение относительной частоты появле
ний герба от вероятности Р =О,5 окажется по абсолютной величине
не более 0,01?
Отв. п =1764.
ЧАСТЬ ВТОРАЯ
СЛУЧАЙНЫЕ ВЕЛИЧИНЫ
Глава шестая
В ИДЫ СЛУЧАЙНЫХ ВЕЛИЧИН. ЗАДАНИЕ
ДИСКРЕТНОЙ СЛУЧАЙНОЙ ВЕЛИЧИНЫ
§ 1. Случайная величина
Уже в первой части приводились события, со
стоящие в появлении того или иного ч и ела. Например,
при бросании игральной кости могли появиться числа 1,
2, 3, 4, 5 и 6. Наперед определить число выпавших очков
невозможно, поскол ьку оно зависит от многих случайных
причин, которые полностью не могут быть учтены. В этом
смысле число очков есть величина случа йная; числа 1,
2, 3, 4, 5 и 6 есть возможные значения этой величины.
Случ ай ной называют величи ну, которая в результате
испытания примет одно и только одно возможное зна'9:е
ние, наперед не известное и зависящее от случайных
причин, которые заранее не могут быть учтены.
Пример 1. Ч исло родившихся мальчиков среди ста новорожден
ных есть с.11учайная величина, которая имеет следующие возможные
значения: О, 1, 2, .•., 100.
Пример 2. Расстояние, которое пролетит снаряд прн выстреле из
орудия , есть сл учайная величина. Действительно, расстояние зависит
не тол ько от установки прицела, но и от многих других причин
(силы и направления ветра , температуры и т. д.), которые не могут
быть полностью учтены. Возможные значения этой величины принад·
лежат некоторому промежутку (а , Ь).
·
/
Будем далее обозначать случайные величины пропис
ными буквами Х, У, Z , а их возможные значен ия - соот
ветствующими строчными буквами х, у, z. Например,
если сл учайная величина Х имеет три возможных значе
ния, то они будут обозначены так : х1, х2, Х8•
64
§ 2. Дискретн ые и непрерывные случайные
величины
Вернемся к примерам, приведенным выше. В пер
вом из них случай ная величина Х могла принять одно
из следующих возможных значений: О, 1, 2, ... , 100.
Эти значени я отделены одно от другого промежутками,
в которых нет возможных значений Х . Таким образом,
в этом примере случайная величина принимает отдел ьные,
изолированные возможные значения. Во втором примере
случайная вел ичина могла прин ять любое из значений
промежутка (а, Ь). Здесь не.пьзя отделить одно возможное
значение от другого промежутком, не содержащим воз
можных значений случай ной величины.
Уже из сказанного можно заключить о целесооб разно
сти различать случайные величины, прини мающие лишь
отдел ьные, изолированные значения, и случайные вели
чины, возможные значения которых сплошь заполняют
некоторый промежуток.
Дискретной (прерывно й) называют случа йную вели
чину, кото рая принимает отдельные, изоли рованные воз
можные значен ия с оп ределенными вероятностями. Число
возможных значений диск ретной случа йной величины
может быть конечным или бесконечным.
Непрерывно й на зывают случайную величин у, кото рая
может принимать все значения из некоторого конечного
и л и бесконечного промежутка . Очевидно, число возмож
ных значений непрерывной случайной величины беско
нечно.
3 а меч ани е. Настоящее епределение непрерывной сл учайной
вел и чины не является точным. Более строгое определение будет дано
позднее.
§ 3. Закон распределения вероятностей
дискретной случайной вели чины
На первый взгляд может показаться, что дл я
задания дискретной случайной величины доста точно пере
числить все ее возможные значения . В действительности
это не так: сл учайные веJшчины могут иметь оди н а к о
в ы е перечни возможных значени й, а вероятности их -
разл и ч н ы е. Поэтому для задания диск ретной сл учай ной
величины недостаточно перечислить все возможные ее
значения, нужно еще указать их вероятности.
3-2 10
65
Законом распределен ия дискретной случайной ееличины
называют соответствие между возможными значениями и
их вероятностя ми; его можно задать таблично, анал ити
чески (в виде формулы) и графически.
При табличном задании закона распредел ения дискрет
IJОЙ случайной вел ичины первая строка таблицы содержит
возможные значен ия, а втора я-их вероятности :
ХХ1Х2
Хп
РР1Р2·
·· Рп
Приняв во внимание, что в одном испытании случайная
величина принимает- одно и только одно возможное зна
чение, заключаем, что события Х =х1, Х =х2, •••, Х =Хп
образуют полную группу; следовател ьно, сумма вероят
ностей этих событий, т. е. сумма вероятностей второй
строки таблицы, равна единице:
Р1+Р2+·· ·+Рп=1.
Если множество возможных значен ий Х бесконечно
(счетно), то ряд р1 + р2 + ... сходится и его сумма равна
еди нице.
Пример. В денежной лотерее выпущено 100 билетов. Разыгры
вается один выигрыш в 50 руб. и десять выигрышей по 1 руб. Найти
закон распределения случайной величины Х -стоимости возможного
выигрыша для владельца одного лотерейного билета.
Решение. Напишем возможные значения Х: х1 = 50, х2 = 1,
х3 = О. Вероятности этих возможных значений таковы: р1=0,01 ,
Р2 =0,01 , Рз= 1 -(Р1+Р2) =0,89.
Напишем искомый закон распределения:
х50
10
о
р 0,01 О,1 0,89
К:онтроль: 0,01 +0,1 +0,89 =1.
Для наглядности закон распредел ения дискретной
случайной величины можно изобразить и графически,
для чего в прямоугольной системе коорди нат строят
точ ки (x i, pJ, а затем соединяют их отрезками прямых.
Полученную фигуру называют многоугольни ком распре
деления.
§ 4. Биномиальное распределение
Пусть производится п независимых испытаний,
в каждом из которых событие А может появиться либо
не появиться. Вероятность настуш1ения события во всех
66
испытаниях постоянна и равна р (следовательно, uероят
ность непоявления q = 1 -р). Рассмотрим в качестве
дискретной случайной величины Х число появлений со
бытия А в этих испытаниях.
Поставим перед собой задачу: найти закон распреде
ления величины Х . Дл я ее решения требуется определить
возможн ые значения Х и их вероятности. Очевидно,
событие А в п испытаниях может либо не появиться,
либо появиться 1 раз, либо 2 раза, ..., либо п раз.
Таким образом, возможные значения Х таковы: х1 = О ,
х2 = 1, х3 = 2, ... , хп+� = п. Остается найти вероятности
эти х возможных значений, для чего достаточно восполь
зоваться формулой Бернул ли:
гдеk=О, 1,2, ..., п.
Формула (*) и является аналитическим выражением
искомого закона распределения.
Биномиальн ым называют распределение вероятностей,
определяемое формулой Бернулли. Закон назван «бино
миальным» потому, что правую часть равенства (*) можно
рассматривать как общий член разложен ия бинома
Ньютона:
(р + q)п = С�рп + C�-1pn-1q + ...+ C�pkqn-k+ ..
. +С�qп
.
Таким образом, первый член разложения pn опреде
ляет вероятность наступления рассматриваемого события
п раз в п независимых испытаниях; второй член пpn
-
1q
определ яет вероятность наступления события п- 1 раз;
. ..; последн ий член qn определ яет вероятность того, что
событие не появится ни разу.
Напишем биномиальный закон в виде табл ицы:
Хпп-1
р pn пpn-lq
о
Пример. Монета брошена 2 раза. Написать в виде таблицы закон
распределения случайной величины Х - числа выпадений «герба».
Реш е н и е. Вероятность появления «герба» в каждом бросании
монеты р = 1 /2 , следовательно, вероятность непоявления «Герба.»
q=1 -1/2==1/2.
При двух бросаниях монеты «герб» может появиться либо 2 раза,
либо 1 раз, либо совсем не появиться. Таким образом, возможные
значения Х таковы: х1 =2, х2 = 1, х3 =О. Найдем вероятности этих
67
возможных значений по формуле Бернулли:
Р2 (2) = С�р2 = (1/2) 2 =0,25,
Р2 (1) =C�p q=2· (1/2) · (1/2) = 0,5,
Р2 (0) =C�q2 =(1/2) 2 =0,25.
Напишем искомый закон расп ределения:
х
2
1
о
р 0,25 0,5 0,25
К онт роль: О,25+о,5+ О,25 = 1.
§ 5. Распределение Пуассона
Пусть производится п независимых испытаний,
в каждом из которых вероятность появления события А
равна р. Для определения вероятности k появлений со
бытия в этих испытаниях используют формулу Бернулли.
Если же п велико, то пользуются асимптотической фор
мулой Лапласа . Однако эта формула непригодн а, если
вероятность события мала (р �О, l). В этих случаях
(п велико, р мало) прибегают к асимптотической формуле
Пуассона.
Итак, поставим перед собой задачу найти вероятность
того, что при очень большом числе испытаний, в каждом
из которых вероятность события очень мала, событие
наступит ровно k раз. Сделаем важное допущен ие: про
изведение пр сохраняет постоянное значение, а именно
nр ='Л . Как будет следовать из дальнейшего (см. гл . Vll,
§ 5), это означает, что среднее число появлений события
в различных сериях испытаний, т. е . при различных
значениях п, остается неизменным.
Воспользуемся формулой Бернулли для вычисления
интересующей нас вероятности :
.
рп(k)=
п(п-1)(n-2�j ..[n-(k-1)]pk(l-p)n-k,
Так как рп = Л, то р = 'Л/п. Следовательно,
Рп(k)=
п(п-1)(п-�
1
•••[n-(k- 1)) (�У(l-�y-k
.
Приняв во вн иман ие, что п имеет очень большое значе
ние, вместо Рп (k) найдем lim Рп (k). При этом будет най-
п-""
депо лишь приближенное значение отыс киваемой вероят-
ности: п хотя и велико, но конечно, а при отыскании
68
предела мы устремим п к бесконечности . Заметим, что
поскольку произведение пр сохраняет постоянное значе
ние, то при п--+ оо вероятность р-+О.
Итак,
р (k)�lim п(п-1)(ri-2)...[n-(k-1)].
J.
.,
k
(l-�)n -
k
=
п
-
n-+oo
kl
nk
n
=
��!�ао[1·(1-�)(1-�)... (1-k
n
I )(1-�)n -k
]=
= Лk lim (1-�)п · lim (t-�)-k
=
Лk
·
е-"'·1.
kl n->-oo
n
n->-oo
n
kl
Таким образом (для простоты записи знак приближен
ного равенства опущен),
рп(k)=/.
.,
k e-Л/k !
Эта формула выражает зако н распределения Пуассона
вероятностей массовых (п велико) и редких (р мало)
событий.
3 а м е ч ан и е. Имеются специальные таблицы, пользуясь кото
рыми можно найти Рп (k), зная k и Л.
Пример. Завод отправил на базу 5000 доброкачественных изде
.т�ий. Вероятность того , что в пути изделие повредится, равно 0,0002.
Найти вероятность того, что на базу прибудут 3 негодных издел ия.
Решение. По условию, п = 5000 , р = 0,0002 , k = 3. Найдем Л:
•
Л=nр =5000 ·0,0002 = 1.
По формуле Пуассона искомая вероятность приближенно равна
Р5000 (3) =Лke -
д/kl=е-
1
/3!=1/6е::
::
:.
..
0,06.
§ 6. Простейший поток событий
Рассмотрим события, которые наступают в слу
чайные моменты времени.
Потоком событий называют последовательность со
бытий, которые наступают в случайные моменты времен и.
Примерами потоков служат: поступление вызовов на
АТС, на пункт неотложной медицинской помощи, при
бытие самолетов в аэропорт, клиентов на предприятие
бытового обслуживан ия, последовательность отказов эле
ментов и многие другие.
Среди свойств, которыми могут обладать потоки, вы
дел им свойства стап.ионарности, отсутствия последействия
и ординарности .
Свойство ст ационарности характеризуется тем, что
вероятность появления k событий на любом промежутке
69
времени зависит только от числа k и от длительности t
промежутка и не зависит от начала его отсчета; при этом
различные промежутки времени предполагаются непере
секающимися. Например, вероятности появления k собы
тий на промежутках времени (1; 7), ( 10; 16), (Т; Т+б)
оди наковой дл ител ьности t = 6 ед. времени равны между
собой.
Итак, есл и поток обладает свойством стационарности ,
то вероятность появления k · событий за промежуток
времени длительност и t есть функция, зависящая только
отkиt.
Свойство отсутствия последействия характеризуется
тем, что вероятность появления k событий на любом
промежутке времени не зависит от того, появлялись или
не появлялись события в моменты времен и, предшествую
щие началу рассматриваемого промежутка. Другими сло
вами, условная вероятность появления k событий на
любом промежутке времени, вычисленная при любых
предположениях о том, чтб происходило до начала рас
сматриваемого промежутка (сколько событий появилось,
в какой последовател ьности), равна безусловной вероят
ности . Таким образом, предыстория потока не сказывается
на вероятности появления событий в ближайшем будущем.
Итак, есл и поток обладает сво йством отсутств ия
последействия , то имеет место взаимная незав исимость
появлений того или иного числа событий в непересекаю
щиеся промежутки времени.
Свойство ординарности характеризуется тем, что По
явление двух и более событий за малый промежуток
времени практически невозможно. Другими словами,
вероятность появлен ия более одного события пренебре
жимо мала по сравнению с вероятностью появления толь
ко одного события.
Итак, если поток обладает свойством ординарности,
то за бесконечно малый промежуток времени может
появиться не более одного событ ия.
Простейшим (пуассоновск им) называют поток собы
ти й, который обладает свойствами стационарности , отсут
ствия последействия и ординарности .
3 а мечани е. Ч асто на практике трудно установить, обладает
ли поток перечисленными выше свойствами. Поэтому были найдены
и другие условия, при соблюдении которых поток можно считать
простейшим или близким к п ростейшему . В частности , установлено,
что если поток представляет собой сумму очень большого числа н.еэа-
70
висимых стационарных потоков, вл ияние каждого из которых н.а
всю сумму (суммарный поток) ничтожно 1rt aлo, то суммарный
поток (при условии его ординарности) близок к простейшему.
Интенсивностью потока Л называют среднее число
событи й, которые появляются в единицу времени .
Можно доказать, что если постоянная интенсивность
потока известн а, то вероятность появления k событий про
стейшего потока за время длительностью t определ яется
формулой Пуассона
Pt(k)=(Лt)k.e -Л1/k!.
Эта формула отражает все свойства простейшего потока .
Действительно, из формулы видно, что вероятность
появления k событий за время t, при заданной интен
сивности является функцией k и t, что характеризует
свойство стационарности .
Формула не ис пользует информации о появлении собы
тий до начала рассматриваемого промежутка, что харак
териз ует свойство отсутствия последействи я.
Убедимся, что формула отражает свойство ординар·
ности . Положив k =О и k = 1, найдем соответс.твенно
вероятности непоявления событий и появления одного
события:
Pt(O)=e -лt, Pt (l)= Лte-лt .
Следо вательно, вероятность появления более одного со�
бытия
Pt(k>1)=1 -[Pt(О)+Pt(1)]=1-[е-м+Лtе-Лt].
Пользуясь разложением
е-лt = 1 -лt+(Лt)2/2!- . ..,
после элементарных преобразований получим
Pt(k>1)=(Лt)2/2+. . ..
Сравнивая Pt ( 1 ) и Pt (k > 1), заключаем, что при
малых значен иях t вероятность появления более одного
события пренебрежимо мала по сравнению с вероятностью
наступления одного событи я, что характеризует свойство
ординарности .
Итак, формулу Пуассона можно считать математи
ческой моделью простейшего потока событий.
Пример. Среднее число вызовов, поступающих на АТС в одну
минуту, равно двум . Найти вероятности того, что за 5 мин nосту
пит: а) 2 вызова; б) менее двух вызовов; в) не менее двух вызовов.
Поток вызовов предполагается простейшим .
71
Решение.Поусловию, Л=2, t=5,k=2.Воспользуемсяфор
мулой Пуассона
Pt(k)=('At)k.e-'J.
..
t/k l
а) Искомая вероятность того , что за 5 мин поступит 2 вызова ,
Р6 (2) = 102.е- 1012 1 = I00.0 ,000045/2 =0,00225.
Это событие практически невозможно.
б) События «Не поступило ни одного вызова» и «поступил один
вызов» несовместны , поэтому по теореме сложения искомая вероят
ность того, что за 5 мин поступит менее двух вызовов, равна
Р"(k < 2)=Р6(О)+Р11(1)=e-10+(10.e-
1
0) /I: =0,000495 .
Эrо событие практически невозможно .
в) События «поступило менее двух вызовов» и «поступило не
менее двух вызовов» противоположны, поэтому искомая вероятность
того, что за 5 мин поступит не менее двух вызовов,
Р"(k;;
;;
;.
2) = l -P0 (k < 2) = 1 -0,000495 =0,999505.
Это событие практически достоверно.
§ 7. Геометрическое распределение
Пусть производятся независимые испытания,
в каждом из которых вероятность появления события А
равна р (О < р < 1) и, сл едовател ьно, вероятность его
непоявления q = 1 -р. Испытания заканчиваются, как
только поя вится событие А. Таким образом, если собы
тие А появилось в k-м испытании, то в предшествующих
k- l испытан иях оно не появлялось.
Обозначим через Х дискретную случайную велич ину
число испытаний, которые нужно провести до пер вого
появлен ия события А. Очевидно, возможными значе
ниями Х ЯВЛЯЮТСЯ натуральные ЧИСЛа : Х1 = 1, Х2 = 2, ...
Пусть в первых k- 1 испытаниях событие А не насту
пило, а в k-м испыта нии появилось. Вероятность этого
«сложного событию>, по теореме умножения вероятностей
независимых событи й,
р(Х=k)=qk-ip.
Полагая k=1,2, .
.
.
в формуле (*), получим геометри
ческую прогрессию с первым членом р и знаменателем q
(О<q<1):
р, qp, q2p, ...' qk-lp, ..
•
По этой причине распредел ение (*) называют геометри
ческим.
72
Легко убеди ться, что ряд (**) сходится и сумма его
равна ед инице. Действительно, сумма ряда (**)
p/(1- q)=p/p = 1 .
Пример. Из орудия производится стрельба по цели до первого
попадания. Вероятность попадания в цель р=О,6. Найти вероятность
того , что попада ние произойдет при третьем выстреле.
Решение. По условию, р=О,6, q =0,4, k=З. Искомая вероят
ность по формуле (:i<)
P = qk-l . p=0,42·0,6=0,096,
§ 8. Гипергеометри ческое распределение
Прежде чем дать определение ги пергеометричес
кого распределения, рассмотрим задачу. Пусть в партии
из N издел ий имеется М стандартных (М < N). Из пар
тии случайно отбирают п издел ий (каждое изделие может
быть извлечено с од инаковой вероятностью), причем
отоб ранное издел ие перед отбором следующего н е в о з
вращается в партию (поэтому формула Бернулли
здесь неприменима). Обоз начим через Х случайную вели
чину-число т стандартных изделий среди п отоб ран
ных . Очевидн о, возможные значения Х таковы: О, 1, 2,
••.• min (М, п).
Найдем вероятность того, что Х = т, т. е. что среди
п отобранных издел ий ровно т стандартных . Используем
для этого классическое определение вероятности .
Общее число возможных элементарных исх одов испы
тан ия равно числу способов, которыми можно извлечь п
издел ий из N издел ий, т. е. числу сочетаний C'J.;.
Найдем число исходов, благопри ятствующих событию
Х = т (среди взятых п изделий ровно т стандартных );
т стандартных издел ий можно извлечь из М стандарт
ных изделий С% способами; при этом остал ьные п-т
изделий должны быть нестандартными ; взять же п-т
нестандартных изделий из N-m нестандартных издел ий
можно C'Ji".!
!'
м способами . Следовательно, число благоприят
ствующих исходов равно C%C'lv-.!
!'
м (см. гл. I, § 4, правило
умножения).
Искомая вероятность равна отношению числа исхо
дов, благоприятствующих событию Х = т, к числу всех
элементарных исходов
р(Х=m)=С%�-.:
:�
м
•
(*)
73
Формула (*) определяет распределение вероятност ей,
которое называют гипергеометрически м.
Учитывая, что т-случайная величина, заключаем,
что ги пергеометрическое распределение определ яется
тремя параметрами : N, М , п. Иногда в качестве пара
метров этого распределения рассматривают N, пиp=M/N,
где р-вероятность того, что первое извл еченное издел ие
стандартное.
Заметим, что если п значительно меньше N (практи
чески есл и п < О, lN), то гипергеометрическое распреде
ление дает вероятности , бл изкие к вероятностя м, найден
ным по биномиальному закон у.
Пример. Среди 50 изделий 20 окрашенных. Найти вероятность
того, что среди наудачу извлеченных 5 изделий окажется ровно
З окрашенных.
Решение. По условию, N=БО, М = 20 , n=5, m=З. Иско-
мая верояпюсть
Задачи
1. В озможные значения случайной величины таковы: х1 =2,
х2 =5, х8 =8. Известны вероятности первых двух возможных зна
чений: р 1 =0,4, & =0,15. Найти вероятность х3 •
Отв. р8 =0,4::>.
2. Игральная кость брошена 3 раза. Написать закон распреде
ления числа появлений шестерки.
Отв. Х
3
2
О
р l/216 15/2 16 75/2 16 125/216
3. Составить закон распределения вероятностей числа появлений
события А в трех независимых испытаниях, если вероятность появ
ления события в каждом испытании равна 0,6.
Отв. k
О
1
2
3
р 0,064 0 ,288 0,432 0,216
4. Прядильщица обслуживает 1000 веретен. Вероятность обрыва
нити на одном веретене в течение 1 мин равна О,004. Найти вероят
ность того, что в течение l мин обрыв произойдет на пяти веретенах.
Отв. P1000 (5)=0,l562 .
5. Найти среднее число опечаток на странице рукописи, если
вероятность того , что страница рукописи содержит хотя бы одну
опечатку, равна 0,95. Предполагается , что число опечаток распре
делено по закону Пуассона.
·
Указани е.
Задача сводится к отысканию параметра Л из
уравнения е-д.
=0,05.
Отв. З.
6. Коммутатор учреждения обслуживает 100 абонентов. Вероят
ность того, что в течение 1 мин абонент позвонит на коммутатор,
равна 0,02. Какое из двух событий вероятнее: в течение 1 мин
позвонят 3 абонента; позвонят 4 абонента?
Отв. Р1оо (3) =О,18; Р100 (4) =0,09,
74
7. Рукопись объемом в 1000 страниц машинописного текста содер
жит 1000 опечаток. Найти вероятность того , что наудачу взятая
страница содержит: а) хотя бы одну опечатку; б) ровно 2 опечатки;
в) не менее двух опечаток. Предполагается, что число опечаток рас
пределено по закону пrассона .
Отв. а) Р= 1-е- =0,6321 ; б) Р1000 (2)=0,18395; в) Р = О,2642.
8. Среднее число вызовов , поступающих на АТС в 1 мин, равно 5.
Найти вероятность того, что за 2 мин поступит: а) два вызова;
б) менее двух вызовов; в) не менее двух вызовов.
Указани е. е- 10
= 0,000045 .
Отв. а) 0,00225; б) 0,000495; в) 0,999505 .
9. Производится бросание игральной кости до первого выпадения
шести очков. Найти вероятность того, что первое выпадение «шес
терки» произойдет при втором бросании игральной кости.
Отв. Р(Х=2)=5/36.
10. В партии из 12 деталей имеется 8 стандартных. НайтИ вероят
ность того, что среди 5 взятых наудачу деталей окажется 3 стан·
дартных.
Отв. Р(Х=3)= 14/33.
Глава седьмая
МАТЕМАТИ ЧЕСl(ОЕ ОЖИДАНИЕ ДИС КРЕТНОЙ
СЛУЧАЙНОЙ ВЕЛИЧИНЫ
§ 1. Числовые характеристики дискретны�
случайных величин
Как уже известно, закон распредел ения пол
ностью характеризует случайную величину. Одн ако часто
закон распредел ения неизвестен и приходится ограничи
ваться меньшими сведен иями. Иногда даже выгоднее
пользоваться числами, которые описывают случайную
величину суммарно; такие числа называют числовыми
характерист иками случайной вел и чины. К числу важных
числовых характеристик относится математическое ожи
дание.
Математическое ожидание, как будет показано далее,
приближенно равно среднем у значению сл учайной вел и
чины. Для решен ия многих задач достаточно знать мате
матическое ожидание. Например, если известно, что мате
матическое ожидание числа выбиваемых очков у первого
стрелка больше, чем у второго, то первый стрелок в сред
нем выбивает больше очков, чем вт орой , и, следова
тельно, стреляет лучше второго. Хотя математическое
ожидание дает о случайной величине значительно меньше
75
сведений , чем закон ее распределения, но дл я решения
задач, подобных привед енной и многих других, знание
математического ожидания оказывается достаточным .
§ 2. Математическое ожидание дис кретной
случайной величины
Математическ им ожиданием дискретной сл у
чай ной вел ичины называют сумму произвед ений все х ее
возможных зн ачений на их вероятности.
Пусть сл учайная вел ичина Х может приним ать тол ько
значения х1 , х2 , • ••, хп , вероятности которых соответ-
ственно равны р1 , р2 , •••, р11• Тогда математическое ожи-
да ние М (Х) сл учайной вел ичины Х определ яется равен
ством
М(Х)=Х1Р1+Х2Р2+ •••+Х"Рп·
Есл и дискретная сл учайная вел ичина Х приним ает
счетное множество возможных значен ий, то
причем математическое ожидание существует , есл и ряд
в правой части равенства сходится абсолютно .
3 а мечани е. Из определения следует, что математи ческое
ожидание дискретной случайной величины есть н е с л у ч а й н а я
(постоянная) величина; Рекомендуем запомнить это утверждение, так
как далее оно используется многократно. В дальнейшем будет пока
зано, что математическое ожидание непрерывной случайной величины
также есть постоянная величина.
Пример 1. Найти математическое ожидание случайной вели
чины Х, зная закон ее распредеJ1ения:
х3
52
р 0,1 0,6 0,3
Решени е. Искомое математическое ожидание равно сумме
произведений всех возможных значений случайной величины на их
вероятности:
м (Х) =З-0,1 +s.o,6+2.0,3 =3,9.
Пример 2. Найти математическое ожидание числа появлений
события А в одном испытании , если вероятность события А равна р.
Решение. Случайная величина Х -число появлений события
А в одном испытании - может принимать только два значения: х1 = 1
(событие А наступило) с вероятностью р и х2 =О (событие А не
наступило) с вероятностью q = 1 - р. Искомое матема·ги ческое ожидание
M(X)=l·p+O·q =p.
76
Итак , математическое ожидание числа появлений собы
тия в одном испытании равно вероятности этого собы
тия. Этот результат будет использован ниже .
§ 3. Вероятн остн ый смысл математического
ожидания
Пусть произведе но п испытаний, в которых слу
чайная величина Х приняла т1 раз значение х1 , m1 раз
значен ие х2 , • ••, тk раз значение xk, причем т1+m1+ ...
. . . +mя = п. Тогда сумма всех значен ий, принятых Х.
равна
X1m1+X2m2+ . ..+xkm".
Найдем среднее арифметическое Х всех значений, при
нятых. случайной вел ичиной, для чего раздел им найден
ную сумму на общее число испытан ий:
или
Х=(х1т1+х1т1+ ...+хятя)/n,
X =x1 (m1/n)+x2 (m2/n) + ... +xя (mk/n).
(*)
Заметив;· что отношение m1/n -относительная частота
W1 значения х1, т,jп -относительная частота W2 значе
ния х2 и т. д. , запишем соотношение (*) так:
Х==Х1W1+Х2W2+ . ..+XkWk·
(**)
Допустим, что число испытаний достаточно велико.
Тогда относительная частота приближенно равна вероят
ности появления события (это будет доказано в гл . IX,
§ 6):
W1�Р1• W1�Ра• ···• WЯ�Pk•
Заменив в соотношении (**) относительные частоты
соответствующими вероятност ям и, получим
Х�Х1Р1+хаРа+ · · ·+хkРя·
Правая часть этого приближенного равенства есть М (Х).
Итак,
Х�м(Х).
Вероятностный смысл полученного результата таков:
матеАtатическое ожидание приближенно равно (тем точ-
77
нее. чем больше число испытаний) среднему арифмети
ческому наблюдае.мых значен ий случайной величины .
3 а мечани е l. Легко сообразить, что математическое ожида
ние больше наименьшего и меньше наибольшего возможных значе
ний. Другими словами , на числовой сси возможные значения распо
ложены слева и справа от математического ожидания. В этом смысле
математическое ожидание характеризует р а спо л о жени е р а с
п р едел е н и я и поэтому его часто называют центром распреде
ления.
Этот термин заимствован из механики: если массы р1, Р2· . . ., Рп
расположены .в точках с абсциссами х1, х2 , • • • , Хп , причем �Pi=l,
то абсцисса центра тяжести
Хе =(� XiPi)f�Pi·
Учитывая, что �XiPi=M(X) и �Pt=l , получим М(Х)=хс.
Итак , математическое ожидание есть абсцисса центра тяжести
системы материальных точе к, абсциссы которых равны возможным
значениям случайной величины, а массы -их вероятностям.
3 а меча н и е 2. Происхождение те рмина «Математическое ожи
дание» связа!jо с начальным периодом возникновения теории вероят
ностей (XVz-xvII вв.), когда область ее применения ограничива
лась азартн; 1ми играми . Игрока интересовало среднее значение ожи
даемого выигрыша , или, иными словами, математическое ожидание
выигрыша.
§4
.
Свойства математическо го ожидания
С в о й с тво 1. Математическое ожидание по
стоянной величины равно са мой постоянной :
М (С)=С.
Док аз ател ь с тво. Будем рассматривать постоян
ную С как дискретную случайную величину. которая
имеет одно возможное значение С и принимает его
с вероятностью р = 1 . Следовательно,
М(С)=С·1 =С.
3 а мечани е l. Определим произведение постоянной вел ичины
С на дискретную случайную величину Х как дискретную случайную
СХ, возможные значения которой равны произведениям постоянной С
на возможные значения Х; вероятности возможных значений СХ
равны вероятностям соответствующих возможных значений Х. Напри
мер, если вероятность возможного значения х1 равна р1 , то вероят
ность того, что величина СХ примет значение Сх1, также равна р1•
С в о й ств о 2. Постоянный множитель можно выно
сить за знак математического ожидания:
М(СХ)=СМ(Х).
78
Док а затель ств о. Пусть случайная величина Х
задана законом распределения вероятностей:
ХХ1Х2
Хп
РР1Р2
Рп
Уч итывая замечание 1, напишем закон распредел ения
сл учайной величины СХ:
СХ Сх1 Сх2
Схп
Р
Р1 Ра
Рп
Математическое ожида ние случайной вел ичины СХ :
Итак,
М(СХ)=Сх1р1+Сх2р2+ ...+СхпРп =
= С(Х1Р1+Х2Р2+ • • •+ХпРп) =СМ(Х).
М(СХ)=СМ(Х).
3 а мечани е 2. r_:Iрежде чем перейти к следующ;му свойству,
укажем , что две случаиные величины называют независимыми, если
закон распределения одной из них не зависит от того, какие воз
можн ые :шачения приняла другая величина. В противном случае
случайные величины за висимы. Несколько случайных величин назы
вают взаимно независимыми, если законы распределения любого числа
из них не зависят от того, какие возможные значения приняли
остальные величины.
3 а м е ч а н и е 3. Определим произведение независимых случай
ных величин Х и У как случайную величину ХУ, возможные зна
чения которой равны произведениям каждого возможного значения
Х на каждое возможное зн ачение У; вероятности возможных значе
ний произведения ХУ равны произведениям вероятностей возможных
значений сомножителей. Например, если вероятность возможного
значения х1 равна р1, вероятность возможного значения у1 равна g1,
то вероятность возможного значения х�и1 равна p1g1•
Заметим, что некоторые произведения хш1 могут оказаться рав
ными между собой. В этом случае вероятность возможного значения
произведения равна сумме соответствующих вероятностей. Например,
если х1у2 = х3у5, то вероятность х1у2 (или, что то же, ХзУ6) равна
P1g2 -t-Pзg5 .
С в ойств о 3. Математическое ожидание произведе
ния двух независи J.t ых случайных величин равно произведе
нию их математических ожиданий:
М(ХУ)=М(Х)М(У).
Док азательств о. Пусть независимые случайные
величины Х и У задань1 своими законами распредел ения
79
вероятностей *);
Х Х1Х2 у У1У2
Р Р1Р2 g g1g2
Составим все значения, которые может принимать
случайная величина ХУ . Для этого перемножим все воз
можные значения Х на каждое возможное значение У;
в итоге получим х1у1, х 2у1, х 1у2 и х2у2 • Учитывая заме
чание 3, напишем закон распределения ХУ, предполагая
для простоты, что все возможные знач ения произвед ения
различны (если это не так, то доказательство проводится
аналогично) :
ХУ
р
Математическое ожидание равно сумме произвед ений
всех возможных значен ий на их вероятности :
м(ХУ)=Х1У1.P1g1+Х2У1.P2g1+Х1У2
.
P1g2+Х2У2 .P2g2,
или
м (ХУ) = Y1g1 (Х1Р1 + Х2Р2) + Y2g2 (Х1Р1 + Х2Р2) =
= (Х1Р1+ Xv.P2) (y1g1 +Y2g2) =М (Х)·М (У).
Итак, М (ХУ) = М (Х)·М(У).
След ствие. Математическое ожидание произведе
ния нескольких взаимно независимых случайных величин
равно произведен ию их математических ожидан ий.
Например, для трех случайных величин имеем :
М(XYZ)=М(ХУ·Z)=М(ХУ)М(Z)=М(Х)М(У)М(Z).
Для произвольного числа случайных величин дока
зательство проводится методом математической индукци и.
Пример 1. Независимые случайные величины Х и У заданы
следующими законами распределения:
х
5
2
4
у
7
9
р 0,6 0,1 0,3
р
0,8 0,2
Найти математическое ожидание случайной величины ХУ .
Решение. Найдем математические ожидания I{аждой из данных
величин:
М (Х) =5·О,6 +2·0,1 +4·0,3 = 4,4;
м (У)=7·0,8+9·0,9 =7,4.
* ' Для упрощения выкладок мы ограни чились малым числом
возможных значений. В общем случае доказательство аналогичное.
80
Случайные величины Х и У независимые, поэтому искомое ма
тематическое ожидание
М (ХУ) =М (Х) М (У) =4,4 ·7 ,4 =32,56.
3 а мечани е 4. Определим сумму случайных величин Х и У
как случайную величину Х +У, возможные значения которой равны
суммам каждого возможного значения Х с каждым возможным зна
чением У; вероятности возможных значений Х +У для независимых
величин Х и У равны произведениям вероятностей слагаемых; для
зависимых величин - произведениям вероятности одного слагаемого
на условную вероятность второго.
Заметим, что некоторые суммы х +у могут оказаться равными
между ссбой. В этом случае вероятность возможного значения суммы
равна сумме соответствующих вероятностей. Например , если х1 + У2 =
= х3 + у0 и вероятности этих возможных значений соответственно
равны р12 и р85, то вероятность х1 + х2 (или, что то же, хз +Уь)
равна Р12+Рзъ·
Следующее н иже свойство справедл и во как для неза
висимых , так и для зависи мых случайных величин.
С в ойст в о 4 . Математическое ожидание суммы двух
случайных величин равно сумме математических ожиданий
сл агаемых:
•
М(Х+Yj=М(Х)+М(У).
Док азательств о. Пусть случайные вел и ч и ны
Х и У заданы следующи м и законам и распределен и я *1:
Составим все возможные значения величины Х +У.
Для этого к каждому возможном у значению Х прибавим
каждое возможное значение У; получим х1 +у1, х1+у2,
х2 +у1 и х2 +у2• Предположим для простоты, что эти
возможные значения различны (если это не так, то дока
зательство проводится аналогично}, и обозначим их ве
роятности соответственно через р11, р12, р21 и р22•
Математическое ожидание вел ичи ны Х + У равно сумме
произведений возможных значений на их вероятности :
М(Х+У)=(х1+У1)Р11+(х1+У2}Р12+(х2+У1)P2i+
+(х2+У2)Р22•
*> Чтобы упростить вывод, мы ограничились лишь двумя возмож
ными значениями каждой из величин. В общем случае доказатель
ство аналогичное.
81
и.пи
М(Х+У)=Х1(Р11+Р12)+Ха (Р21+Р22)+У1(Pi1+Р21)+
+Y:i(Pi2+Р22)·
(*)
Докажем, что Pii + Pis = р 1• Событие, состоящее в том,
что Х примет значение х 1 (вероятность этоrо события
равна р1) , влечет за собой событие, которое состоит в том,
что Х + У примет значение х1 + у1 или х1 + у2 (вероятность
этого события по теореме сложения равна р11 + р12), и
обратно. Отсюда и следует, что р 11 + р12 = Pi· Аналогично
доказываются равенства
Р21+Р22=Р2• Pi1+P2i=gi и Р12+Р22=gs.
Подста вляя правые части этих равенств в соотноше
ние ( *), получим
м (Х+ У)=(X1Pi + Х2Р2) +(y1gi + Y2g2),
или окончательно
М(Х+У)=М(Х)+М(У).
С л едств и е. М атематическое ожидание суммы
неско льких случайных величин равно сумме математичес
ких ожиданий слагаемых.
Например, для трех слагаемых величин имеем
М(Х+У+Z)=M[(X+Y)+Z]=
= М (Х+У)+М(Z)=M (Х)+М(Y)+M(Z).
Для произвольного числа слагаемых величин доказа
тельство проводится методом математической индукци и.
Пример 2. Производится 3 выстрела с вероятностями попадания
в цель, равными р1 =0,4; р2 = 0,3 и р3 = 0,6. Найти математическое
ожидание общего числа попаданий.
Р е ш е ние. Число попаданий при первом выстреле есть слу
чайная величина Х1 , которая может принимать только два значения:
1 (попадание) с вероятностью р1 =0,4 и О (промах) с вероятностью
q=1 -0,4 =0,6.
Математическое ожидание числа попаданий при первом выстреле
равно вероятности попадания (см. § 2, пример 2) , т. е. М (Х1) =0,4.
Аналогично найдем математические ожидания числа попаданий при
втором и третьем выстрелах: М (Х2) �о.з , М (Х3) =0,6 .
Общее число попаданий есть также случайная величина, состоя
щая из суммы попаданий в каждом из трех выстрелов:
Х = Х1 +Х2+Хз.
82
Иском�. е математическое ожидание находим по теореме о мате
матическо�' ожидании суммы:
М (X)=M(Xi+X11+X8) =M (Х1)+М(Х2)+М(Хз) =
=0,4+ о,з+о,6 = 1 ,3 (попаданий).
Пример 3. Найти математическое ожидание суммы числа очков,
которыf; могут выпасть при бросании двух игральных костей.
Ретu е ние. Обозначим число очков, которое может выпасть на
первой кости , через Х и на второй - через У. Возможные значения
этих величин одинаковы и равны 1 , 2, 3, 4, 5 и 6, причем вероят
ность каждого из этих значений равна 1/6.
Найдем математическое ожидание числа очков, которые могут
выпасть на первой кости:
М (Х) = 1 ·(1/6)+2·(1/6)+з (1/6)+4·(1/6)+5·(1/6)+6· {1/6) =7/2.
Очевидно, что и М (У) =7/2.
Ис1<омое математическое ожидание
М (Х +У)=М (Х) +М (У) =7/2+7/2 =7.
§ 5. Математическое ожидание числа появлений
события в независимых испытаниях
Пусть производится п независимых испытаний,
в каждом из которых вероятность появления события А
постоянна и равна р. Чему равно среднее число появле
ний события А в эти х испытаниях? Ответ на этот вопрос
дает следующая теорема .
Теорема. Математическое ожидан ие М (Х) числа по
явлений события А в п независимых испытаниях равно
произведению числа испытаний на вероятность появления
события в каждом испытании:
М(Х) =пр.
Док азательс тв о. Будем рассматривать в качестве
случайной величины Х число наступления события А в п
независимых испытаниях . Очевидно, общее число Х появ
лений события А в этих испытаниях складывается из
чисел появлений события в отдел ьных испытаниях . Поэ
тому если Х1 - число появлений события в первом испы
тании, Х2 -во втором, ..., Хп -в п-м, то общее число
появлений события Х=Х1+Х2+ . . . +Хп.
По третьему свойству математического ожидания,
М (Х)=М(Х1)+М(Х2)+. ..+М(Хп).
(*)
Каждое из слагаемых правой части равенства есть
математическое ожида ние числа появлений события
в одном испытании: М (Х1) -в первом, М (Х2)-во вто-
83
ром и т. д. Так как математическое ожида ние числа появ
лений события в одном испытании равно вероятности
события (см.§2, пример 2), тоМ(Х1) =М(Х2)=М(Хп)=р .
Подста вл яя в правую часть равенства ( *) вместо каждого
слагаемого р, . получим
М(Х)=пр.
(**)
3 а мечани е. Так как величина Х распределена по биноми
альному закону, то доказанную теорему можно сформулировать
и так: математическое ожидание биномиального распределения с па
раметрами п и р равно произведению пр.
Пример. Вероятность попадания в цель при стрельбе из орудия
р-=0,6. Найти математическое ожидание общего числа попаданий,
если будет произведено 10 выстреJJов.
Решени е. Попадание при каждом выстреле не зависит от ис
ходов других выстрелов, поэтому рассматриваемые события незави
симы и, следовательно. искомое математическое ожиданне
М (Х) = пр=10·0,6 =6 (попаданий).
Задачи
1. Найти математическое ожидание дискретной случайной
величины, зная закон ее распределения:
Отв. 2,6.
х
6
31
р 0,2 0,3 0,5
2. Производится 4 выстрела с вероятностью попадания в цель
р1 =0,6, р2 =0,4, р3 =0,5 и р4 =0,7. f-\айти математическое ожидание
общего числа попаданий.
Отв. 2,2 попадания.
3. Дис1{ретные независимые случайные веJJичины заданы законами
распределения:
х
2
р 0,2 0,8
у
р
0,5 1
0,3 0;7
Найти математическое ожидание произведения ХУ двумя способами:
а) составив закон распределения ХУ; б) пользуясь свойством 3.
Отв. 1,53.
4. Дискретные случайные величины Х и У заданы законами
распределения, указанными в задаче 3. Найти математическое ожи
дание суммы Х +У двумя способами: а) составив закон распределения
х +у; б) пользуясь свойством 4.
Отв. 2,65.
5. Вероятность отказа детали за время испытания на надежность
равна 0,2. Найти математическое ожидание числа отказавших деталей,
если испытанию будут подвергнуты 10 деталей.
Отв. 2 детали.
6. Найти математическое ожидание произведения числа очков,
которые могут выпасть при одном бросании двух игральных костей.
Отв. 12,25 очка.
84
7. Найти математическое ожидание числа лотерейных билетов,
на которые выпадут выигрыши, если приобретено 20 билето в, причем
вероятность выигрыша по одному билету равна 0,3.
Отв. 6 билетов.
Глава восьмая
ДИСПЕРСИ Я ДИСК РЕТНОЙ СЛУЧАЙНОЙ
ВЕЛИЧИНЫ
§ 1. Целесообразност ь введения числово й
характеристики рассеяния случа йной величины
Легко указать такие сл учайные величины, кото
рые имеют од инаковые математические ожидан ия, но раз
личные возможные значения. Рассмотрим, например,
дискретные случай ные величины Х и У , заданные �ле�
дующими законами распределен ия:
х -0 ,0l 0,01
у -100
р
0,5 0,5
р 0,5
100
0,5
Найдем математические ожидания этих величин:
М(Х)= -O,Ol·0,5+0,01·0,5=0,
м (У)=-1 00 ·0,5+ 100·0,5 =0.
Здесь математические ожидания обеих величин од ина ковы,
а возможные значения разJrичны, причем Х имеет воз
можные значения, близкие к математическому ожиданию,
а У -далекие от своего математического ожидания . Таким
образом, зная лишь математическое ожида ние случайной
величины, еще нельзя судить ни о том, какие возможные
значения она может принимать, ни о том, как они рас
сеяны вокруг математического ожидания. Другими сло
вами, математическое ожидание полностью случайную
вел ичину не характеризует.
По этой причине на ряду с математичес ким ожиданием
вводят и другие числовые характеристики. Так, например,
дл я того чтобы оценить, как рассеяны возможные зна
чения случайной величины вокруг ее математического
ожидания , пользуются, в частности, числовой характе
ристикой , которую называЮт дисперсией .
Прежде чем перейти к определению и свойствам дис
персии , введем понятие отклонения случайной вел ичины
от ее математического ожидания .
85
§ 2. Отклонение случайной величины
от ее математического ожидания
Пусть Х -случайная величина и М (Х)-ее ма
тематическое ожида ние. Рассмотрим в качестве новой
случайной величины разность Х-М (Х).
Отклонен ием называют разность между случа йной ве
личиной и ее математическим ожиданиям.
nусть закон распределения х известен:
ХХ1Х2•••Хп
РР1Р2···Рп
Напишем закон распределен ия отклонения. Для того
чтобы отклонение приняло значение х1 - М (Х). доста
точно. чтобы случайная величина приняла значение Х�
Вероятность же этого события равна р1; следовательно.
и вероятность того, что отклонение примет значение
х1 - М (Х), также равна р1 • Аналогично обстоит дело
и для остальных возможных значений отклонен ия.
Таким образом, отклоне ние имеет следующий закон
распредел ени я:
Х-М(Х) Х1-М(Х) Х2-М(Х). . . Хп-М(Х)
Р
Р1
Р2
Рп
Приведем важное свойство отклонения, которое исполь
зуется далее.
Теорема . Математическое ожидание отклонения равно
нулю:
М[Х-М(Х)]=О.
Док азательств о. Польз уясь свойствами матема
тического ожидания (математическое ожида ние разности
равно разности математических ожиданий, математическое
ожида ние постоянной равно самой постоянной) и приняв
во внимание, что М (Х) - постоянная величина, имеем
М[Х-М(Х)]=М(Х)-М[М(Х)]= М(Х)-М(Х) =О.
Пример. Задан закон распределения дискретной случайной вели
чины Х:
хl
2
р 0;2 0,8
Убедиться ,, что математическое ожидание откл онения равно нулю.
Решение. Найдем мате матическое ожидание Х:
М(Х)=l ·0,2+2·0,8=1 ,8.
86
Найдем возможные значения отклонения, для чего из возможных
значений Х вычтем математическое ожидание М (Х) : 1 - 1 ,8=- 0,8;
2- 1,8=0,2.
Напишем закон расп ределения отклонения:
Х-М(Х) -0,8 0,2
р
0,2 0,8
Найдем математическое ожидание откло нения:
М [Х-М (Х)]=(-0,8)·0,2+0,2·0,8 =0.
Ита к, математическое ожидание отклонения равно нулю, как и
должно быть.
3 а м е чани е. Наряду с термином «отклонение» используют
термин «центрированная величина». Центрированной случайной вели
чиной Х называют разность между случайной величиной и ее мате
матическим ожиданием:
Х=Х-М(Х).
Название «центрированная величина» связано с тем, что математиче
ское ожидание есть центрраспределения (см. гл . VII, § 3, замечание).
§ 3. Дисперсия дискретной случа йной величины
На практике часто требуется оценить рассеяние
возможных значений случайной вел ичины вокруг ее сред
него значения. Например, в артиллерии важно зна'Iь,
насколько кучно лягут снаряды вблизи цел и, которая
должна быть поражена.
На первый взгляд может показаться, что для оценки
рассеяния проще всего вычислить все возможные значения
отклон ения случайной величины и затем найти их сред
нее значение . Одн ако такой путь ничего не даст, так как
среднее значение отклонения, т. е . М [Х - М (Х)], дл я
любой случайной величины равно нулю. Это свойство
уже было доказано в предыдущем параграфе и объясняется
тем, что одни возможные отклонения положительны, а
другие - отрицательны; в рез ультате их взаимного пога
шения среднее значение отклонения равно нулю. Эти со
ображен ия говорят о целесооб разности заменить возмож
ные отклонения их абсолютными значениями или их
квадратами . Так и поступают на деле. Правда, в случае,
когда возможные отклонения заменяют их абсолютными
значен иями , приходится оперировать с абсолютными ве
личинами , что приводит иногда к серьезным затруднен иям.
Поэтому чаще всего идут по другому пути , т. е. вычисляют
среднее значение квадрата отклонения, ко'Iорое и назы
вают дисперсией.
87
Дисперсией (рассеянием) дискретной случайной вели
чины называют математическое ожидание квадрата откло
нения случайной величины от ее математического ожидания:
D(Х)=М[Х-М(Х)]2•
Пусть случайная величина задана законом распреде
ления
Х2•••Хп
Ра•••Рп
Тогда квадрат отклонения имеет следующий закон рас
пределен ия:
[Х-М(хн� [х1-М (Х)]2 [xz-M(Х)]2••• [хп-М(X)J2
Р
Р1
Р2
Рп
По определению дисперсии,
D(X) =M[Х - М (Х)]2 =
= [х1-М(Х)]2р1+[х2-М(Х)]2р2+ ... +[хп-М(Х)]2Рп
•
Таким образом, для того чтобы найти дисперсию, до
статочно вычислить сумму произведений возможных зна
чений квадрата отклонения на их вероятности .
3 а мечани е. Из определения следует, что дисперсия дискрет
ной случайной величины есть неслучайная (постоянная) величина.
В дальнейшем читател ь узнает, что дисперсия непрерывной случайной
величины также есть постоянная величина.
Пример. Найти дисперсию случайной величины Х, которая задана
следующим законом распределения:
х1
2
5
р 0,3 0,5 0,2
Решение. Найдем математическое ожидание:
М(Х)=l ·0,3+2·0,5+5·0,2 =2,3.
Найдем все возможные значения квадрата отклонения:
(х1-М (Х)]2 =(1 -2,3)2 = 1 ,69;
[х2 -М (Х)]2 =(2-2,3)2 =0,09;
[х3-М (Х)]2 = (5-2 ,3)2 = 7 ,29.
Напишем закон распределения квадрата отклонения:
[Х-М (Х)]2 1,69 0,09 7,29
р
0,3 0,5 0,2
По определению,
D (Х)= 1 ,69 ·0,З+О,09·0,5+7,29 ·0,2=2,01.
Вычисление, основанное на определении дисперсии, оказалось
относительно громоздким. Далее будет указана формула, которая
приводит к цели значительно быстрее.
88/
§ 4. Ф ормула для вычисления дисперсии
Для вычисления дисперсии часто бывает удобно
пользоваться следующей теоремой.
Теорема. Ди сперсия равна разности между математи
ческим ожиданием ква драта случайн-ой вел ичины Х и
квадратом ее математического ожидания:
D(Х) =М (Х2) -[М(Х)]2.
Док а з атель с т в о. Математическое ожидание М (Х)
есть постоянная величина, следовательно, 2М (Х) и М1 (Х)
есть такж� постоя нные величины. Приняв это во внима
ние и пользуясь свойствами математического ожидания
(постоянный множитель можно вынести за знак матема
тического ожидания, математическое ожидание суммы
равно сумме математических ожиданий слагаемых), упро
стим формулу, выражающую определение дисперсии :
D(Х)=М[Х-М(Х)]2 =М[Х2-2хм(Х)+М2(Х)]=
=
М(Х2)-2М(Х)М(Х)+М2(Х)=
Итак,
=М(Х2)-2М2(Х)+м2(Х)=М(Х2)-М2(Х).
.
.
D (Х) =М (Х2) -[М(Х)]2.
Квадратю1я скобка введена в запись формулы для удоб
ства ее запоминания.
Пример 1. Найти дисперсию случайной величины Х, которая
задана следующим законом распределения:
х
2
3
5
р
O,l 0,6 0,3
Реш е н и е. Найдем математическое ожидание М (Х):
М (Х) =2·0 ,1 +З·О,6 +5·0 ,3 =3,5 .
Напи шем закон расп ределения случайной величины Х2:
х24
9
25
р
O,l 0,6 0,3
Найдем математические ожидания М (Х2):
М (Х2)=4 ·0,1 +9·0,6+25·0,3 = 13,3.
Искомая дисперсия
D(X) =М(Х2)-[М (Х)]2 = 13,3-(3,5)2 = 1 ,05.
3 а меча н и е. Казалось бы, если Х и У имеют одинаковые воз-
11.южные значения и одно и то же математическое ожидание, то и
дисперсии этих величин равны (ведь возможные значения обеих ве·
89
личин одинаково рассеяны вокруг своих математических ожиданий!).
Однако в общем случае это не так. Дело в том , что одинаковые воз
можные значения рассматриваемых величин имеют, вообще говоря,
раЗJiичные вероятности , а величина дисперсии опредzлмтся не только
самими возможным и значениями, но и их вероятностями. Напри мер,
если вероятности «далеких» от математического ожидания возможных
значений Х больше, чем вероятности этих же значений У, и ве роят
ности «близких» значений Х меньше, чем вероятности тех же значе
ний У, то, очевидно, дисперсия Х больше дисперсии У.
Приведем иллюстр ирующий при мер.
Пример 2. Сравнить дисперсии слу чайных величин, заданных
законами распределения:
х-1
1
р 0,48 0,01
2
3
0,09 0,42
у-1
1
р О,19 0,51
Решение. Легко убедиться, что
2
3
0,25 0 ,05
М (Х)=М (У)=О,97; D(Х)::
::
:.
.
3,69, D(У)::
::
:.
.
1,21 .
Таким образом, возможные значения и математические-о жидания
Х и У одинаковы, а дисперсии различны , причем D (Х) > D (У). Этот
результат можно было предвидеть без вычислений, глядя лишь на
законы распределений.
§ 5. Свойства дисперсии
Св о·й с т в о 1. Дисперсия постоянной величины
С равна нулю:
D(C)=O.
Док аза т ель с т в о. По определению дисперсии,
D(С)=М{[С-М(С)]2}.
Пользуясь первым свойством математического ожида
ния (математическое ожидание постоянной равно самой
постоянной), получим
D(C) = М [(С-С)2]=М (0) = О.
Итак,
D(C) =O.
Свойство становится ясным, если учесть, что постоян
ная величина сохраняет одн о и то же значение и рассея
ния, конечно, не имеет.
С в ойс т в о 2. Постоянный множитель можно выно
сить за знак дисперси и, возводя его в квадрат:
D (СХ) = C2D (Х).
90
Д о к азател ь ств о. По определению дисперсии
имеем
D(CX) =M{[СХ-М (СХ)]2} .
Пользуясь вторым свойством математического ожида
ния ( постоянный множитель можно выносить за знак
математического ожидания), пол учим
D(СХ)=М{[СХ-СМ(Х)]2} =М{С2[Х-М(Х)]2} =
= С2М {[Х-М (Х)]2} =C2D (Х).
. Итак,
D (СХ) = C2D (Х).
Свойство становится ясным, если принять во внима
ние, что при 1С1> 1 . величина СХ имеет возможные зна
чения (по абсолютной величине), большие, чем величина
Х. Отсюда следует, что эти значения рассеяны вокруг
математического ожидания М (СХ) больше, чем возмож
ные значения Х вокруг М(Х), т. е. D (СХ) > D (Х). На
против, если О<1С1<1, то D(СХ)<D(Х).
С в ойств о 3. Дисперсия суммы двух независимых
случайных величин равна сум,и е дисперсий этих величин :
D(Х+У)=D(Х)+D(У).
Док азательств о. По формуле для вычисления
дисперсии имеем
D(Х+У)=М[(Х+У)2]-[М(Х+У)]2.
Раскрыв скобки и пользуясь свойствами математиче
ского ожидания суммы нескольких вел ичин и произведе
н ия двух независимых случай ных вел ичин, получим
D(X +У)=м [Х2+ 2ХУ+У2]-[М(Х)+М (У)]2=
= М(Х2)+2М(Х)·М(У)+М(У2) -М2(Х)
-
2М (Х)·М (У)-М2(У) ={М(Х2) -[М(Х)]2}+
+{М(У2) -[М(У)]2} =D(Х)+D(У).
Итак,
D(X + Y) =D(X)+D(Y) .
С лед ств и е 1. Дисперсия суммы нескольких взаимно
независимых случайных величин равна сумме дисперсий
этих вел ичин .
91
Например, для трех слагаемых имеем
D(X + У +Z)=D[X +(У +Z)] =D(X) +D(Y + z) =
= D(X) +D (Y)+D(Z).
Для произвольного числа слагаемых доказательство
проводится методом математической индукции.
Сл едствие 2. Дисперсия суммы постоя.нной вели
чины и случайной равна дисперсии случа йной вел ичины:
D (С +Х) =D(X).
Док аза тель ств о. Величины С и Х независимы,
поэтом у, по третьему свойству,
D (C +X)=D(С) +D (Х).
В силу первого свойства D (С) = О . Следовател ьно,
D(C+X) =D(Х).
Свойство становится понятным, если учесть, что ве
личины Х и Х +С отличаются лишь началом отсчета и,
значит, рассеяны вокруг своих математических ожиданий
одинаково.
С в ойств о 4 . Дисперсия разности двух независимых
случайных вел ичин равна сумме их дисперсий:
D(X - Y) =D(X) +D(Y).
Док азательств о. В сил у третьего свойства
D(Х--
-:
У)=D(Х)+D(-У).
По второму свойству,
D(X-Y)= D(X)+(- l)2 D(Y),
или
D(X-Y)=D (X) +D (У) .
§ 6. Дисперси я
.
числа появлений события
в независимых испытаниях
Пусть производится п независимых испытани й,
в каждом из которых вероятность появлен ия события А
постоянна. Чему равна дисперсия числа появлен ий со
бытия в этих испытаниях? Ответ на этот вопрос дает
следующая теорема.
Теорема. Дисперсия числа появлений события А в п flе
зави симых испытаниях, в каждом из которых вероятность
92
р появления события пост оянна , равна произеедени ю числа
исп ытаний на вероятн ости появления и непоявления со
бытия в одн ом испытании :
D(X) =npq.
Док азат�л ь ств о. Рассмотрим случайную вели
чину Х-число появлений события А в п независимых
испытаниях. Очевидно, общее число появлений события
в :этих испытан иях равно сумме появлений события в от
дел ьных испытаниях:
Х =Х1+Х2+ ... +Хп•
где Х 1 - число наступлений события в первом испытании,
Х2-во втором, ..., Хп- в п-м.
Величины Х1, Х 2 , •• •, Хп взаимно независимы, так как
исход каждого испытания не зависит от исходов осталь
ных, поэтому мы вправе воспользоваться следствием 1
(см. § 5):
D(X) = D(X 1)+D(X 2)+ .. . +D(Хп) .
(*)
Вычислим дисперсию Х1 по формуле
D (Х1) = М (Х:) -[М (Х1Н1
•
Величи на Х 1 - число появлений события А в первом
испытании, поэтому (см. гл. VII, § 2, пример 2) М (Х1) =р.
Найдем математическое ожида ние величины Х�. кото
рая ·может принимать только два значения, а именно: 1 а
с вероятностью р и 02 с вероятностью q:
М(Х�)=l2·p+02·q=р.
Подставляя найденные результаты в соотношение (**),
имеем
D(Х1)=р-р2=р(1-р)=pq.
Очевидно, дисперсия каждой из остальных случайных
величин также равна pq. Заменив каждое слагаемое пра
вой части ( *) через pq, окончательно получим
D(X) =пpq.
3 а мечани е. Так как величина Х распределена по биномиаль
ному закону, то доказанную теорему можно сформулировать и так:
дисперсия биномиального распределения с параметрами п и р равна
произведению npq.
Пример. Производятся 10 независимых испытаний, в каждом из
которых вероятность появления события равна 0,6. Найти дисперсию
случайной величины Х - числа появлений события в этих испытаниях.
93
Решение. По условию , n= 10, р =0,6. Очевидно, вероятность
непоявления события
q-=
=
1 -0,6=0,4.
Искомая дисперсия
D (Х) =npq= 10·0,6 ·0,4 = 2 ,4.
§ 7. Среднее квадратическое отклонение
Для оцен ки рассеяния возможных значений слу
чайной величины вокр уг ее среднего значения кроме дис
персии служат и некоторые другие характеристи ки. К их
числу относится среднее квадратическое отклонен ие.
Средним квадратическ им откл онением случайной ве
личины Х называют квадратный корень из дисперсии:
(j(Х)=VD(Х).
Легко показать, что дисперсия имеет размерность,
равную квадрату размерности сл учайной величины. Так
как среднее квадратическое отклонение равно квадратному
корню из дисперсии, то размер ность а (Х) совпадает
с размерностью Х. Поэтому в тех случаях, когда жела
тельно, Чтобы оценка рассеяния имела размерность слу
чайной величины, вычисляют среднее квадратическое от
клонен ие, а не дисперсию. Например, если Х выражается
в линейных · метр ах, то а (Х) будет выражаться также
в линейных метрах, а D (Х)-в квадратных метрах .
Пример. Случайная величина Х задана законом распределения
х2
3
10
р 0,1 0,4 0,5
Найти среднее квадратическое отклонение а (Х).
Решение . Найдем математическое ожидание Х:
М (Х) =2·0, 1 +3·0,4 + 10·0,5=6,4.
Найдем математическое ожидание Х2:
м (Х2) =22.о,1 +з2 . о,4 +102.0,5 =54.
Найдем дисперсию:
D (Х) =М (Х2)-[М (Х)]2 =54 -6,42 = 13,04.
Искомое среднее квадратическое отклонение
о(Х)=VD(X)=VI3,04::
:.
.
3,61.
94
§ 8. Среднее квадратическое отклонение суммы
взаимно независимых случайных величин
Пусть известны средние квадратические откло
нения нескольких взаимно независимых сл учайных вели
чин . Как найти среднее квадратическое отклонение суммы
этих величин? Ответ на этот вопрос дает следующа я
теорема.
Теорема. Среднге квадратическое откл онение суммы
конечного числа взаимно независимых случайных величин
равно квадратному корн ю из суммы квадратов средн их
квадратических отклонений этих величин :
<1(Х1+Х2+ ...+Хп)=v<12 (Х1)+<12(Х2)+...+02 (Хп)·
Док азатель ст в о. Обозн ачим через Х сумму рас
сматриваемых взаимно независимых величин:
Х=Х1+Х:.1+ ...+Хп.
Дисперсия суммы нескольких взаимно независимых
случайных величин равна сумме дисперсий слагаемых
(см. § 5 , следствие 1), поэтому
D(X)=D(X1) + D(X2) + .. .+D(Хп) .
Отсюда
или окончательно
§ 9. Одинаково распределенные взаимно
независимые случайные величины
Уже известно, что по закону распределения можно
найти числовые характеристики случайной величины.
Отсюда следует, что если несколько случайных величин
имеют од инаковые распределения, то их числовые харак
теристи ки од инаковы .
Рассмотрим п взаимно независимых случайных величин
Х1, Х
2
, ••• , Хп, которые имеют оди наковые распредел ения,
а следовател ьно, и од инаковые характеристики (матема
тическое ожидание, дисперсию и др.). Наибольший ин
терес предста вляет изучение числовых характеристик
95
среднего арифметического этих величин, чем мы и зай
мемся в настоящем параграфе.
Обозначим среднее арифметическое рассматри ваемых
случайных величин через Х:
Х=(Х1+Х2+ ... +Хп)fп.
Следующие ниже три положения ус тан авливают связь
между числовыми характеристиками среднего арифмети -
ческого Х и соответствующими характеристиками каждой
отдельной вел ичины.
1. Математическое ожидание среднего арифмети ческого
одинаково распределенных взаимно независи мых случайных
величин равно математическому ожиданию а каждой из
величин:
М (Х)=а.
Док а зат е л ь ств о. Пользуясь свойствами матем а
тического ожидан ия (постоя нный множитель можно вы
нести за знак математического ожидания; математическое
ожида ние суммы равно сумме математических ожи).J.а н и й
слагаемых ), имеем
М(Х)=М (Х1+Х2�··· +Хп) =
М (Х1)+М(Х2)+. . . +М(Хп)
-
п
Приняв во внимание, что математическое ожидание
каждой из величин по условию равно а , пол учим
М(Х)=па/п=а.
2 . Дисперсия среднего арифмет ического п одинакоrю
распределенных взаимно независимых случайных велич ин
в п раз меньше дисперсии D каждой из вел ичин:
D(X)= D/п.
Док аза т ель с т в о. Пользуясь свойствами диспер
сии (постоянный множитель можно вынести за знак дис
персии, возведя его в квадрат; дисперсия суммы неза ви�
симых величин равна сумме дисперсий слагаемых ) , имеем
96
D(Х)=D(Х1+Х2�...+хп)
=
D (X1)+D(Х2)+... +D (Хп)
=
п2
Приняв во внимание, что дисперсия каждой из вели
чин по условию равна D , получим
D(Х)=nD/n2=D/n.
3. Среднее квадрати ческое отклонение среднего ариф
метического п одинаково распределенных взаимно незави -
симых случайных величин в Vn раз меньше среднего квадра
тического отклонения о каждой из величин:
о(Х)=о/Vn.
Доказат ельст во. Так как D (X) = D;п, то сред
нее квадратическое от клонение Х равно
(J (Х)=vD(Х)=VD;n =VD!Vn= o/Vn.
Общий вывод из формул (*) и (**) : вспоминая, что
дисперсия и среднее квадратическое отклонение сл ужа т
мерами рассеяния случайной величины, заключаем, что
среднее арифметическое достаточно большого числа вза
имно независимых случайных величин имеет значительно
меньшее рассеяние, чем каждая отдельная величина .
Поясним на примере значение этого вывода для прак
тики .
Пример. Обычно для измерения некоторой физической величины
производят несколько измерений, а затем находят среднее арифме
тическое полученных чисел , которое принимают за приближенное
значение измеряемой величины. Предполагая, что измерения произ
водятся в одних и тех же условиях, доказать:
а) среднее арифметическое дает результат более надежный, чем
отдельные измерения;
б) с увеличением числа измерений надежность этого результата
возрастает.
Реш е н и е. а) Известно, что отдельные измерения дают неоди
наковые значения измеряемой величины. Результат каждого измере
ния зависит от многих случайных причин (изменение температуры,
колебания прибора и т. п.), которые не могут быть заранее полностью
учтены.
Поэтому мы вправе рассматривать возможные результаты пот
дельных измерений в качестве случайных величин Х1, Х2, •••, Хп
(индекс указывает номер измерения). Эти величины имеют одинако
вое распредгление вероятностей (измерения производятся по одной
и той же методике и теми же приборами), а следовательно , и одина
ковые числовые характеристики; кроме того , они взаимно независимы
(результат каждого отдельного измерения не зависит от остальных
измерений).
·
Мы уже знаем, что среднее арифметическое таких величин имеет
меньшее рассеяние, чем каждая отдельная величина . Иначе говоря ,
среднее арифметическое оказывается более близким к истинному зна-
4-210
97
чению измеряемой величины, чем результат отдельного измерения.
Эrо и означает, что среднее арифметическое нескольких измерений
дает более надежный результат, чем отдельное измерение.
б) Нам уже известно , что при возрастании чис.1а отдельных слу
чайных величин рассеяние среднего арифметического убывает. Эrо
значит, что с увеличением числа измерений среднее арифметическое
нескольких измерений все менее отличается от истинного значения
измеряемой: величины. Таким образом, увеличивая число измерений,
получают более надежный результат.
Например, если среднее квадратическое отклонение отдельного
измерения CJ=6 м, а всего произведено n=36 измерений, то среднее
квадратическое отклонение среднего арифметического этих измерений
равно лишь 1 м. Действительно,
G(X)=a/Yn=6/У36= 1.
Мы видим, что среднее арифметическое нескольких измерений,
как и следовало ожидать, оказалось более близким к истинному зна
чению измеряемой: величины, чем результат отдельного измерения.
§ 10. Начальные и централь ные
теоретические моменты
Рассмотрим дискретную случайную величину Х,
заданную законом распредел ения:
х
р
1
2
5
0,6 0,2 0, 19
Найдем математическое ожидание Х:
100
0,01
М (Х)= 1·О,6+2·0,2+5·0,19+ 100-0,01 = 2,95.
Напишем закон распределения Х 2:
х21425
р 0,6 0,2 о,19
10 000
0, 01
Найдем математическое ожида ние Х2:
М (Х2) = l ·0,6+4·0,2+ 25 -0,19+10000 - 0,01 = 106,15.
Видим, что М (Х2) значительно больше М (Х). Это
объясняется тем, что после возведения в квадрат возмож
ное значение величины Х2, соответств ующее значению
х = 100 величины Х, стало равным 10 ООО, т. е . значи
тельно увеличилось; вероятность же этого значения мала
(0 ,01).
Таким образом, переход от М (Х) к М (Х2) позволил
лучше учесть вл ияние на математическое ожидание того
возможного значения, которое велико и имеет малую ве-
98
роятность. Разумеетс я, если бы величина Х имела не
сколько больших и маловероятных значений, то переход
к величине Х 2
, а тем более к величинам Х
3
,Х4ит.д.,
позволил бы еще больше «усилить роль» этих больl!Iих,
но маловероятных возможных значений . Вот почему
оказывается целесообразным рассматривать математичес
кое ожидание целой положительной степени случайной
величины (не только дискретной, но и непрерывной).
Начальным моментом порядка k случайной величины Х
называют математическое ожидание величины Xk:
v1
e
= M (Xk).
В частности,
v1=М(Х), v2=М(Х2).
Пользуясь этими моментами, формулу для вычисления
дисперсии D (Х) = М (Х�)-[М (Х)]2 можно записать так:
D (Х) = v1-vi.
(*)
Кроме моментов случайной величины Х целесообразно
рассматривать моменты отклонения Х -М (Х).
Центральным моментом порядка k случайной вел и
чины Х называют математическое ожидание величины
(Х -М (X))k:
В частности,
μk = М [(Х-М (X))k].
μ1 =М[Х-М (Х)] =О,
μ2 =М[(Х -М (X))2]=D(X).
Легко выводятся соотношен ия, связывающие началь
ные и центральные моменты. Например, сравнивая (•)
и ( ***), получим
J.t2=V2-Vf.
Нетрудно, исходя из определения центрального мо
мента и пользуясь свойствами математического ожидания,
получить формулы:
μ3 = V3 - 3V12V1 +2vf,
μ4 = V4 � 4v3v1 +6v2vf -Зvf.
Моменты более высоких порядков применяются редко.
3 а мечани е. Моменты, рассмотренные здесь, называют теоре
тическим и. В отличие от теоретических моментов, моменты , которые
вычисляются по данным наблюдений, называют эмпирическими. Опре
деления эмпирических моментов даны далее (см. гл. XVII, § 2).
99
Задачи
1. Известны дисперсии двух независимых случайных вели
чин: D (Х) = 4, D (У) = 3. Найти дисперсию суммы этих величш1.
Отв. 7.
2. Дисперсия случайной величины Х равна 5. Найти дисперсию
следующих величин: а) Х- 1; б) -2Х ; в) ЗХ+6.
Отв.а)5;б)20;в)45.
3. Случайная величина Х принимает только два значения: +с
и -С, каждое с вероятностью 0,5. Найти дисперсию этой величины.
Отв. С2•
4. Найти дисперсию случайной величины, зная закон ее распре
деления
Отв. 67 ,6404.
х 0,1
2
р 0,4 0,2
10
0,15
20
0,25
5. Случайная величина Х может принимать два возможных зна
чения: х1 с вероятностью 0,3 и х2 с вероятностью 0,7, причем х2 > х1•
Найти х1 и х2, зная, что М(Х)=2,7 и D(X) =0,21.
Отв. х1=2, х2=3.
6. Найти дисперсию случайной величины Х - чисщ1 появлений
событий А в двух независимых испытаниях, если М (Х) =О,8.
У к аза н и е. Написать биномиальный закон распределения ве
роятностей числа появлений события А в двух независимых испыта
ниях.
Отв. 0,48 .
7. Испытывается устройство , состоящее нз четырех независимо
работающих приборов. Вероятности отказа приборов таковы: р1 =0,3;
р2 =0,4; р3 =0,5; р4 = 0,6. Найти математическое ожидание и дис
персию числа отказавших приборов.
Отв. 1,8; 0,94 .
8. Найти дисперсию случайной величины Х - числа появлений.
события в IOO независимых испытания_х , в каждом из которых вероят- .
ность наступления события равна 0,7.
Отв. 21 .
9. Дисперсия с,,1учайной веJiнчины D (Х) = 6,25. Найти среднее
к:nадратнческое отклонение <1 (Х).
Отв. 2,5.
10. С .'lrчайная веJiичина задана законом распределения
х
р
2
0,1
4
8
0,5 0,4
Найти среднее квадратнческое отклонение этой величины.
Отв. 2,2.
11. Дисперсия каждой из 9 оди наково распределенных взаимно
независимых случайных величин равна 36. Найти дисперсию среднего
арифметического этих величин.
Отв. 4.
12. Среднее квадратическое отклонение каждой из 16 одинаково
распределенных взаимно независимых случайных ве.'lичин равно 10.
Найти среднее квадрати•1еское отк.11онение среднего арифметического
этих величин.
Отв. 2,5.
100
Глава девятая
ЗАКОН БОЛЬШИХ Ч ИСЕЛ
§ 1. Предварительные замеча ния
Как уже известно, нельзя заранее уверенно пред
видеть, какое из возможных значений примет случайная
величина в итоге испытания ; это зависит от многих слу
чайных причин, учесть которые невозможно. Казалось
бы, поскольку о каждой случайной ве.1
1
ичине ·мы распо
лагаем в этом смысле весьма скромным и сведениями, то
вряд ли можно установить закономерности поведен ия
и суммы достаточно большого числа случайных велич ин.
На самом деле это не так. Оказывается, что при некото
рых сравнительно широких условиях суммарное поведе
ние достаточно большого числа сл учайных величин почти
утрачивает s:лучайный характер и становится законо
мерным.
Для практики очень важно знание условий, при вы
полнении которых совокупное действие очень многих слу
чай ных причин приводит к результату, почти не завися
щему от случая, так как позволяет предвидеть ход явле
ний. Эти условия и указываются в теоремах, носящих
общее название закона больших чисел. К ним относятся
теоремы Чебышева и Бернулли (имеются и другие теоремы,
которые здесь не рассматриваются ) . Теорема Чебышева
является наиболее общим законом больших чисел, теорема
Бернулли-простейшим. Для доказательства этих теорем
м ы воспользуемся неравенством Чебышева.
§ 2. Неравенство Чебышева
Неравенство Чебышева справедливо для дискрет
ных и непрерывных случайных величин. Для простоты
ограничимся доказательством этого неравенства для диск
ретных величин.
Рассмотр им дискретную случайную величину Х, задан
ную таблицей распределения:
ХХ1Х2•••Хп
РPiР2
•••Рп
Поставим перед собой задачу оценить вероятность того,
что отклонение случайной величины от ее математического
.101
ожидания не превышает по абсолютной величине поло
жительного числа е. Если е достаточно мало, то мы оце
ним, таким образом, вероятность того, что Х примет
значения, достаточно близкие к своему математическому
ожиданию. П. Л . Чебышев доказал неравенство, позволяю
щее дать интересующую нас оцен ку.
Неравенство Чеб ышева. Вероятность того, ч то
отклонение случайной величины Х от ее математического
ожидания по абсолют ной величине меньше положитель
ного числа е, не 1rtен ьше, чем l-D (Х)/е2 :
P(IX-M (X)I <в)�l -D (X)/e2•
Док азательств о. Так как событи я, состоящие в
осуществлении неравенств / Х-М (X)I <виl Х-М (X)l�e,
противоположны, то сумма их вероятностей равна еди
нице, т. е.
P(IX-M (Х)\ < 8)+P(IX-M (X)j�e) = 1 .
Отсюда интересующая нас вероятность
P(IX-M(X)I< е) = 1 -P(IX-M(X)l;;
;:
::
:
e). (*)
Таким образом, задача сводится к вычислению вероят
ности Р(1Х-М(Х)1�8).
Напишем выражение дисперсии случайной величины Х : ·
D(Х)=(х1-М(Х)]2р1+[х2-М(Х)]2р2+ ...
• · · +[хп-М(Х)]2Рп
·
Очевидно, все слагаемые этой суммы неотрицательны.
Отбросим те слагаемые, у которых / х1 -М (Х) / < 8
(дл я оставшихся слагаемых lxi -M (Х) 1 � 8), вследствие
чего сумма может только уменьшитьс я. Условимся счи
тать для определенности , что отброшено k первых сла
гаемых (не нарушая общности, можно считать, что в таб
лице распределения возможные значения занумерованы
именно в таком порядке). Таким образом,
D(Х)�[xk+1-M(Х)]2Рkн+[хkн-М(Х)]2Рkн+ ...
•
•
·
+[хп - М (Х)]2 Рп
•
Заметим, что обе части неравенства 1 xi-M (Х) / � 8
(j= k + 1, k + 2, . .., п) положительны, поэтому, возведя
их в квадрат, пол учим равносильное неравенство / х1 -
- М (Х) /2 � е2 • Воспользуемся этим замечанием и, заменяя
в оставшейся сумме каждый из множителей 1 х1 -М (Х) 12
числом 82 (при этом неравенство может лишь усилиться),
102
получим
D(Х)�82(Pk+1+Рkн+ ·· ·+Рп).
По теореме сложения, сумма вероятностей Pk+i+Pk+ 2 + . . .
. . . +Рп есть вероятность того, что Х примет одно, без
различно какое, из значений Xk+i• Xk+2, • ••, Хп, а при
любо м из них отклонение удовлетворяет неравенству
1 xj-M (Х) 1�8. Отсюда следует, что сумма Pk+i+Pk н-Г-· • •
.
. . +Рп выражает веро ятность
P(IX-M (X)j�8).
Это соображение позво ляет переписать неравенство ( **)
та к:
D(Х)�82 Р(1Х-М(Х)1�8),
или
Р (lX -М (Х)1�8)�D (Х)/82•
Подставляя (***) в
_
(*) , окончательно получим
Р.(1Х-М(Х)1< 8)� 1-D(Х)/е2,
что и требовалось доказ�: ь.
3 а м е ч ани е. Неравенство Чебышева имеет для практики огра
ниченное значение) поскольку часто дает грубую, а иногда и три
виальную (не представляющую интереса) ·оценку. Например, если
.О(Х):;:
:.
.
. е2 и, следовательно, D (Х)/е2 > 1, то 1-D (Х)/е2 < О;
таким образом, в этом случае неравенство Чебышt:ва указывает лишь
на то, что вероятность отклонения неотрицательна, а это и без того
очевидно, так как любая вероятность выражается неотрицательным
числом.
Теоретическое же значение неравенства Чебышева весьма велико.
Ниже мы воспользуемся этим неравенс1 вом для вывода теоремы
Чебышева.
§ 3. Теорема Чебышева
Теорема Чебышева. Если Х1, Х2, •••, Хп •
п о парно независи мые случайные величины, причем диспер
сии их равномерно ограничены (не превышают постоян
ного числа С) , то , как бы мало ни было положительное
число в, вероятность неравенства
1Х1+Х2� ...+хп _ м (Х1)+М(Х2�+ . ..+м(Хп)! < 8
будет как угодно близка к единице, есл и число случайных
величин достаточно велико .
103
Другими словами , в условиях теоремы
lim р (1Х1+х2 + ...+ х"
n-+оо
n
_ М(Х1)+М(Х2�+. . . +М(Х")1<8)=l.
Таким образом, теорема Чебышева утверждает, что
ecJIИ рассматри вается достаточно большое число незави
симых с�учайных величин, имеющих ограниченные ди
сперсии, то почти достоверным можно считать событие,
состоящее в том, что отклонение среднего арифметического
сл учайных величин от среднего арифмет ического их ма
тематичес ких ожиданий будет по абсолютной величине
сколь угодно малым.
Док азател ь ств о. Введем в рассмотрен ие новую
случайную величину- среднее арифметическое сл учайных
вел ичин
X=(X1 +Xs+ ...+ Хп)/n .
Найдем математическое ожидание Х. Пол ьзуясь свой
ствами математического ожидан ия (постоянный множи
тель можно вынести за знак математического ожидания,
математическое ожидание суммы равно сумме математи
ческих ожиданий слагаемых), получим
м(х.+Х2+. ..+х") =м(Х1)+М(XJ+. . . +м(Х") . (*)
п
п
Применяя к величине Х неравенство Чебышева, имеем
.P (jx1+x2 �". +x " _
м (х1+х2-:· ··+хп)I<е)�
D (Х1+Ха:···+Хп)
�1-
e:t
'
или, учитывая соотношение (*) ,
Р(1Х1 +Х2� ...+Хп _
М(Хi)+М(Х�+...+М(Хп)1<8)�l_
v(Х1 +Х2-: · ··+Хп)
е2
-
Пол ьзуясь свойствами дисперсии ( постоянный r.шожи
те.1ь можно еынести за знак дисперсии, возведя егQ
104
в квадрат; дисперсия суммы независимых случайных ве
личин равна сумме дисперсий слагаемых), пол учим
D(Х1+хз+ . ..+Хп) = D(X1)+D(Х2)+...+D(Хп)
п
�
•
По условию диспе рсии всех сл учайных величин огра
ничены постоянным числом С, т. е . имеют место нера
· ве нства : D (Х1)�С; D(X2)�C; .. .; D(Хп) �С, поэтому
(D(X 1)+D (X2 )+ .. .+D(Х п))/п 2 �(С+С+ . ..·+ C)/n2 =
=
nC/n2 = С/п.
Итак,
Подставляя правую часть (***) в неравенство ( **)
(отчего последнее может быть лишь усилено), имеем
Р(1Х1+Х21:· ..+Хп
_
_
М(Х1) + М(Х2�+ . ..+ М(Хп) I <г);> I _ п:2•
Отсюда , переходя к пределу при п - оо, пол учим
lim р (jХ1+Х1+...+хп
п..
..
.
оо
п
- м (Х1)+М (Х�+ ...+м (Хп)1 <г);>1.
Наконец, учитывая, что вероятность не может пре
вышать единицу, окончате.11ьно можем написать
lim Р(/Х1+Х2+ ...+х"
п..
..
ао
n
_ М(Х1)+М(Х2�+... +М(Хп)\ <8) =1.
Теорема доказана.
Выше, формулируя теорему Чебышева , мы предпол а
гали, что случайные величины имеют различные матема
тические ожидания. На практике часто бывает, что сл у
чайные вел ичины имеют одно и то же математическое
ожида ние. Очевидно, что если вновь допустить, что диспер
сии этих величин ограничены, то к ниы будет применима
теорема Чебышева .
Обозначим математическое ожидание каждой из слу
чайных вел ичин через а; в рассматриваемом случае сред-
105
нее арифметическое математических ожида ний, как легко
видеть, также равно а. Мы можем сформулировать тео
рему Ч2бышева для рассматриваемого частного случая.
Если Х1, Х2, •••, Хп , • ••- попарно независимыеслучай
ные величины, имеющие одно и то же математическое
ожидание а, и есл и дисперсии эти х вели чин равномерно
ограничены, то, как бы мало ни было число в > О, ве
роятность неравенства
/Х1+Х2�···+Хп
_а/<8
будет как угодно близка к единице, если число случай
ных вели чин достато чно велико .
Другими словами, в условиях теоремы будет иметь
место равенство
:��р(!Х1+Х2�•••+Хп
-а1<8)=l.
§ 4. Сущность теоремы Чебы шева
Сущность доказанной теоремы такова : хотя ОТ··
дельные независимые сл учайные вел ичины могут прини
мать значения, далекие от своих математических ожиданий,
среднее арифметическое достаточно большого числа елучай
ных величин с большой вероятностью принимает значе
ния, близкие к определенному постоянному числ у, а именно
к числу(М(Х1)+М(Х2)+. ..+М(Хп))/п(или к числуа
в частном случае). Иными словами, отдел ьные сл учайные
величины могут иметь значительный разброс, а их среднее
арифметическое рассеянно мало.
Таким образом, нельзя уверенно предсказать, какое
возможное значение примет каждая из случайных вели
чин, но можно предвидеть, какое значение примет их
среднее арифметическое .
Итак, среднее арифметическое достато чно бол ьшого
числ а независимых случ ай ных вел ичин (дисперсии которых
равномерно ограничены) утр ачивает хара ктер случайной
величины . Объясняется это тем , что откл онения каждой
из величин от своих математических ожиданий могут
быть как положительными, так и отрицательны ми, а в
среднем арифметическом они взаимно погашаются.
Теорема Чебышева справедл ива не толькь для дискрет
ных, но и для непрерывных сл учай ных величин; она
106
является ярким примером, подтверждающим справедл и
вость учения диалектического материализма о связи между
случайностью и необходимостью.
§ 5. Значе ние теоремы Чебышева для практики
Приведем примеры применения теоремы Чебышева
к решению практических задач.
Обычно для измерен ия некоторой физической величины
производят несколько измерений и их среднее арифме
тическое принимают в качестве искомого размера. При
каких условиях этот способ измерения можно считать
правильным? Ответ на этот вопрос дает теорема Чебы
шева (ее частный случай).
Действительно, рассмотрим результаты каждого из
мерения как случайные величины Х1, Х2, ••• , Хп . К этим
величинам можно применить теорему Чебышева , если :
1 ) они попарно независимы, 2) имеют одно и то же ма
тематическое ожидание, 3) дисперсии их равномерно огра
ничены.
Первое требование выполн яетс я, если результат каж
дого измерения не зависит от результатов остал ьных.
Второе требование выполняется, если измерения произ
ведены без систематических (одного знака) ошибок. В этом
случае математические ожидания всех случайных величин
оди наковы и равны истинному размеру а. Третье требо
вание выполняется, если прибор обес печивает определен
ную точность измерений. Хотя при этом резул ьтаты
отдельных измерений различны, но рассеяние их огра
ничено.
Если все указанные требования выполнены, мы вправе
применить к результатам измерений теорему Чебышева:
при достаточно большом п вероятность неравенства
1(Х1+Х2+. · · +Хп)/п-а\<8
как угодно близка к единице. Другими словами, при
достаточно большом числе измерений почти достоверно,
что их среднее арифметическое как угодно мало отл и
чается от истинного значения измеряемой величины.
Итак, теорема Чебышева указывает условия. при ко
торых описанный способ измерен ия может быть приме
нен . Однако ошибочно думать, что, увел ичивая число
измерен ий, можно достичь сколь угодно большой точ
ности. Дело в том, что сам прибор дает показания лишь
107
с точностью ±а; поэтому каждый из результатов изме
рений, а следовател ьно, и их среднее арифметическое
будут получены лишь с точностью, не превышающей
точности прибора.
На теореме Чебышева основан ши роко применяемый
в статистике выборочный метод, суть которого состоит
в том, что по сравнительно небольшой случайной выборке
судят о всей совокупности (генеральной совокупности)
исследуемых объектов. Например, о качестве кипы хлопка
заключают по небольшому пучку , состоящему из волокон ,
наудачу отобранных из разных мест кипы. Хотя число
волокон в пучке значительно меньше, чем в кипе, сам
пучок содержит достаточно большое количество волокон ,
исчисляемое сотня ми .
В качестве другого примера можно указать на опре
деление качества зерна по небольшой его пробе. И в этом
сл учае число наудачу отобранных зерен мало сравни
тельно со всей массой зерна, но само по себе оно доста
точно велико.
Уже из при веденных примеров можно заключить, что
для практики теорема Чебышева имеет неоценимое зна
чение.
§ 6. Теорема Бернулли
Пусть производится п независимых испытаний ,
в каждом из которых вероятность появления события А
равна р. Можно ли предвидеть , какова примерно будет
относител ьная частота появлений события? Положитель
ный ответ на этот вопрос дает теорема , доказанная Я:ко
бом Бернулли (опубликована в 1713 г.). которая полу
чила название «закона больших чисел» и положила начало
тео рии вероятностей как науке. Доказательство Бернулли
было сложным; простое доказательство дано П. Л . Чебы
шевым в 1846 г.
Теорема Бернулли . Есл и в каждом из п независимых
испытаний вероятность р появления события А постоянна,
то как угодно близка· к единице 'в ероятноспiь того, что
отклонение относительной частоты от вероятно сти р
по абсолютной величине будет скол ь угодно малы.м , · есл и
число испытан ий достаточно велико.
Другими словами , если 8-сколь угодно малое· поло
жительное число, то при соблюдении условий теоремы
108
имеет место равенство
lim P(\m/n - pl<e)=l.
п-""
Док азательс т в о. Обозначим через Х 1 дискретную
слу чайную величи ну-- число появлений события в первом
испытании, через Х2 -во втором, ..., Х п -в п-м испы
тании. Ясно, что каждая из величин может принять
лишь два значен ия: 1 (событие А наступило) с вероят
ностью р и О (событ ие не появилось) с вероятностью
l-p =q.
Можно ли прю.1енить к рассматриваемым величинам
тео рем у Чебышева? Можно, если случайные величины по
парно независимы и дисперсии их ограничены. Оба усло
вия выпо,'l няются. Действительно, попарная IJезависимость
величин Х1, Х2, .••, Хп следует из того, ч'то испытания
независимы. Дисперсия любой величины Х 1 (i = 1 , 2, ..., п )
равна произведению pq *>; так как р + q = l , то произве
дение pq не превышает * *> 1/4 и, следовател ьно , дисперсии
всех ве.п ичин ограничены, например, числом С = 1/4.
Примен яя теорему Чебышева (частный случай) к рас
сматриваемым величи нам, имеем
lim Р(/(Х1+Х2+ ...+Хп)/п -а/ < е) = 1.
11-Ф":Х1
Приняв во внимание, что математическое ожида ние а
каждой из величин Х 1 (т. е . математическое ожидание
числа появлен ий события в одном испытании) равно ве
роятности р наступления события (см . гл . VI I, § 2,
пример 2), пол учим
lim P(/(X1 +X2+ . . . +X11)/n -p /<e)=l.
п-"'
Остается показать, что дробь (Х1 + х�+ ...+ Х11)/п
равна относительной частоте m/n появлений события А
в испытаниях . Действител ьно, каждая из величин Х 1,
Х,н .. ., Хп при появлен ии события в соответствующем
испытании принимает значение, равное еди нице; следо-
"'> Это следует из § 6 гл. VIII, ес:ш принять n=I.
"'*) Известно , что произведение двух сомножителей, сумма ко
торых есть величина постоянная, имеет наибольшее значение при ,ра
венстве сомножителей. Здесь сумма Pi+q1= 1, т. е . постоянна, поэто
му при Pi = qi = 1 /2 произведение Ptqi имеет наибольшее з начение и
равно 1/4.
109
вательно, сумма Х1 + х2 + ...+Хп равна числу т по
явлений события в п испытаниях, а значит,
(Х1+Х2 + ...+Xn)/n = m/n.
Учитывая �то равенство, окончательно получим
lim Р<1m/n-p1<е)=1.
n -+-«>J
З а меча н и е. Было бы неправильным на основании теоремы
Бернулли сделать вывод , что с ростом числа испытаний относитель
ная частота неуклонно стремится к вероятности р; другими словами,
из теоремы Бернулли не вытекает равенство lim (m/n) = р. В тео-
.
п..
.:,.
со
реме речь идет лишь о вероятности того, что при достаточно
большом числе испытаний относительная частота будет как угодно
мало отличаться от постоянной вероятности появления события в каж
дом испытании.
Таким образом, сходимость относительной частоты m/n к в�о
ятности р отличается от сходимости в смысле обычного анализа. Для
того чтобы подчеfкнуть это различие, вводят понятие ссходимости
по вероятности» >. Точнее, различие между указанными видами
сходимости состоит в следующем: если m/n стремится при п --
-+
оо
к р как пределу в смысле обычного анализа, то начиная с некото
рого п = N и для всех последующих значений п неуклонно выпол
няется неравенство 1 m/n -p 1 < е; если же m/n стремится по веро
ятностикр прип--
-+
оо , то для отдельных значений п неравенство
может не выполняться.
Итак, теорема Бернулли утверждает, что при п --
-+
оо относи
тельная частота стремится no вероятности кр. Коротко теорему
Бернулли записывают так:
т вер
п;;.=;:р.
К:ак видим, теорема Бернулли объясняет, почему относительная
частота при достаточно большом числе испытаний обладает свойством
устойчивости и оправдывает статистическое определение вероятности
{см. гл. 1, § 6-7).
Задач и
1. Сформулировать и записать теорему Чебышева, исполь
зуя понятие ссходимости по вероятности».
2. Используя неравенство Чебышева, оценить вероятность того,
что 1 Х-М(Х) 1 < 0,1, если D (Х)=О,001.
Отв.Р;;
;а.
0,9 .
З.Дано: Р(1Х-М(Х)1<е);;
;а.
0,9; D (Х) =0 ,004 . Используя
неравенство Чебышева, найти г.
Отв. 0,2.
•> Последовательность случайных величин Х1, Х1 , • • •
сходится
по вероятности к случайной величине Х, если для любого е > О
вероятность неравенства 1 Хп -Х 1 < е при n --
-+
oo стремится
к единице.
110 /
Глава десятая
ФУНl(ЦИЯ РАСП РЕДЕЛЕН ИЯ ВЕРОЯТНОСТЕЙ
СЛУЧАЙНОЙ В ЕЛИЧИНЫ
§ 1. Определение функции распределения
Вспомним, что дискретная случайная величина
может быть задана- перечнем всех ее возможных значений
и их вероятностей. Такой способ задания не является
общи м: он неприменим, например, дл я не прерывных
сл учайных величин.
Действительно, рассмотрим сл учайную величину Х,
возможные значен ия которой сплошь заполняют интервал
(а, Ь). Можно ли состав ить перечень . всех возможных
значений Х? Очевидно, что этого сдел ать нельзя . Этот
пример указывает на целесооб разность дать общий спо
соб задания любых типов сл учайных вел ичин. С этой
целью и ВВ<?дят функции распредел ения вероятностей
сл учайной величины.
Пусть х-действительное число. Вероятность события,
состоящего в том, что Х примет значение, меньшее х, т. е .
вероятность событ ия Х < х, обозначим через F (х) . Разу
меетс я, если х изменяется, то, вообще говоря, изменяется
и F(х), т. е. F(х)-функция от х.
Функцией распределения называют функцию F (х) , опре
деляющую вероятность того, что случайная величина Х
в результате испытан ия примет значение, меньшее х, т. е.
F(х)=Р(Х<х).
Геометрически это равенство можно истолковать так:
F (х) есть вероятность того, что сл учайная вел ичина
примет значение, которое изображается на числовой оси
точ кой , лежащей левее точки х.
Иногда вместо те рмина «фу нкция распределения»
используют термин «интегральная функци я».
Теперь можно дать более точное определение непре
рывной случайной вел ичины: сл учайную вел ичину назы
вают непрерывной, если ее функция распределения есть
непрерывная, кусочно-дифференцируемая функция с не
прерывной производной .
111
§ 2. Свойства функции распределени я
С в ойств о 1 . Значения функции распредел ения
принадлежат отрезку [О, 1 ] :
O�F(x)�1.
Док азател ь ств о. Свойство вытекает из опреде
ления функции распределения как вероятности : вероят
ность всегда есть неотрицательное число, не превышающее
единицы.
Свойство 2 . F(х) -неубывающая функция, т . е .
F(х2)�F(х1), если х2 > х1•
Доказател ьств о. Пусть х2 > х1 • Событи е, состоя
щее в том, что Х примет значение, меньшее х2, можно
подраздел ить на следующие два несовместных события :
1 ) Х примет значение, ·меньшее х1, с вероятностью
Р (Х < х1); 2) Х примет значение, удовлетворяющее не
равенству х1�Х <х2, с вероятностью Р(х1�Х <х2).
По теореме сложен ия имеем
Р (Х <х1)=Р(Х <х1) + Р (х1�Х <х2).
Отсюда
или
Так как любая вероятность есть число неот рицатель
ное, то F(x2)-F(х1)�О, или F(х2)�F(х1), что и тре
бовалось доказать.
Сл едствие 1 . Вероятность того, что случа йная
вел ичина примет значение, заключенное в интервале (а, Ь),
равна приращению функции распределения на этом ин
тервале:
Р (а�Х< Ь) = F (b)-F(а).
Эrо важное следств ие вытекает из формулы (*), если
ПОЛОЖИТЬХ2=Ь ИХ1=а.
Пример. Случайная вел11чина Х задана функцией распределения
{О
при
х<;-1;
F(x)= х/4+1/4 при -1<х..;
;;
;;
3;
1
при
х>З.
112
Найти вероятность того, что в результате испытания Х примет зна
чение, принадл ежащее интервалу (О, 2):
то
Р(О<Х<2)=F(2)-F(О).
Решеи и е. Так как на интервале (О, 2), по условию,
F(х) =х/4+1/4,
F(2)-F(О)=(2/4+ 1/4)-(0/4+1/4)= 1/2.
Итак,
Р(О<Х<2)=t/2.
Следств и е 2. Вероятность того, что непрерывная
случайная ееличина Х примет одно определенное значение,
равна нулю.
Действительно, положив в формуле (**) а=х1 , Ь = х1+
+ Лх, имеем
Р(х1�Х<х1+Лх)=F(х1+Лх)-F(х1).
Устремим Лх к нулю. Так
..
..
.
как Х-непрерывная сл учай
ная вел ичина, то функция F (х) непрерывна . В силу
непрерывности F (х) в точке х1 разность F (х1 + Лх) -F (х1)
также стремится к нулю; следовательно, Р (Х = х1) = О .
Используя это положение, легко убедиться в справедли
вости равенств
Р(а�Х<Ь)=Р(а<Х<Ь)=
= Р(а <Х�Ь) =Р(а�Х�Ь).
'
(***)
Например, равенство Р(а<Х�Ь)=Р(а<Х<Ь)
доказывается так:
Р(а<Х�Ь)=Р(а<Х<Ь)+Р(Х=Ь)=Р(а<Х<Ь).
Таким образом, не представляет интереса говорить
о вероятности того, что непрерывная случайная величина
примет одн о определенное значение, но имеет смысл рас
с матривать вероятность попадания ее в интервал , пусть
даже сколь угодно малый. Этот факт полностью соответ
ствует требованиям практических задач. Например, инте
ресуются вероятностью того, что размеры де талей не
выходят за дозволенные границы, но не ставят вопроса
о вероятности их совпадения с проектным размером.
Заметим, что было бы неправильным думать, что ра
венство нулю вероятности Р (Х = х1) означает, что событие
Х = х1 невозможно (если, конечно, не ограничиваться
классическим определением вероятности). Действител ьно,
в результате испытания случайная величина обязательно
113
примет одно из возможных значений; в частности , это
значение может оказаться равным х1 •
С в ойств о 3. Если возможные значения слу чайной
величины принадлежат интервалу (а, Ь), то: 1) F (х) =О
при х�а; 2) F(х)=1 при х�Ь.
Доказател ьство. 1) Пусть х1 �а. Тогда событие
Х < х1 невозможно (так как значений, меньших х1 , вели
чина Х по условию не принимает) и, следовател ьно,
вероятность его равна нулю.
2) Пусть х2 � Ь. Тогда событие Х < х2 достоверно
(так как все возможные значения Х меньше х2) и, сле
довательно, вероятность его равна еди нице.
След ств и е. Если возможные значения непрерывной
случайной величины расположены на всей оси х, то спра
ведл ивы следующие предельные соотношения:
lim F(х)=О; limF(х)=1.
§ 3. График функции распределения
Доказанные свойства позволяют представить, как
выглядит график функции распределения непрерывной
случайной величины.
График расположен в полосе, ограниченной прямыми
у=О, У = 1 (первое свойство).
При возрастании х в интервале (а, Ь), в котором за
ключены все возможные значен ия случайной величины ,
график << Поды мается вверх» (второе свойство) .
F(x)
Рис. 2
При х �а ординаты графика равны нулю; при х � Ь
ордин аты графика равны единице (третье свойство) .
График функции распределения непрерывной случай
ной вел ичины изображен на рис. 2 .
3 а м е·ч а ние. График функции распределения дискретной слу
чайной величины имеет ступенчатый вид. Убедимся в этом на примере.
114
Пример. Дискретная случайная величина Х задана таблицей
распределе ния
х1
4
8
р 0,3 0,1 0,6
Найти функцию распределения и вычертить ее график.
Решение. Если х.;
;;
;:;
1, то F (х)=О (третье свойство).
Если1<х,,;
;;
;;
;
4, то F(x)=
=0,3. Действительно, Х может
принять значение 1 с вероятно
стью 0,3'.
Если4<х�В. то F(x)=
=0,4. Действительно, если Xi
F(x)
Рис. 3
удовл етворяет неравенству 4 <
<х1<;
;
8, то F (х1) равно веро
ятности события Х < x:i:, кото
рое может быть осуществлено,
когда Х примет значение 1 (ве
роятность этого события равна
0,3) или значение 4 (вероятность
этого события равна 0,1). Поскольку эти два события несовместнн,
то по теореме сложения вероятность события Х < Xi равна сумме
вероятностей 0,3 +0,1 =0,4 .
Если х > 8, то F (х) = 1. Действительно, событие Х <:
:
8 досто
верно, следовательно, его вероятность равна единице.
Итак, функция распределения аналитически может быть запи
сана так:
при
при
при
х,,;
;;
;;
;
1,
1<х<;
;
4,
4<х.;
;;
;;
8,
х>8.
при
График этой функции приведен на рис. 3.
,
Задач и
1. Случайная величина Х задана функцией распределения
{о
при
х<;
;
-1,
F(х)= x
1
J3+1/3 при -1 <х..
.;
;
2,
при
х>2.
Найти вероятность тоrо, что в результате испытания Х примет зна
чение, заключенное в интервале (О, 1).
Отв. 1/3.
2. Случайная величина Х задана функцией: распределения
{О
при
F(х)= (
1
х/2) -1 при
при
х..
..;
2,
2 <х<:
:
4,
х>4.
Найти вероятность того, что в результате испытания Х примет зна
чение, заключенное в интервале (2, 3).
Отв. 1/2.
115
3. Дискретная случайная величина Х задана законом распре
.целения
х2
р 0,5
6
10
0,4 0,1
Построить график фун1щии распределения это й величины.
Глава одиннадцатая
П ЛОТНОСТЬ РАСПРЕДЕЛЕНИЯ ВЕРОЯТНОСТЕЙ
Н ЕПРЕРЫВНОЙ СЛУЧ АЙНОЙ ВЕЛИ Ч ИН Ы
§ 1. Определение плотности распределения
Выше непрерывная случайная величина зада ва
лась с помощью функции распределени я. Этот способ
задания не является еди нственным. Непрерывную сл у
чайную величину можно также задать , ис по.11ьзуя другую
функцию, которую называют плотностью распределении
или плотностью вероятности (иногда ее называют диф
ференциальной функцией).
Плотностью распределения вероятностей непрерывноii
случайной величины Х называют функцию f (х) - первую
производную от функции распределен ия · F (х) :
f(х)=F'(х).
Из этого определения следует, что функция распре
деления является первообразной д.11 я плотности распре
делен ия.
Замети м, что для описания распределения вероятно
стей дискретной случайной вел ичины плотност ь распре
деления неприменима.
§ 2. Вероятность попадания непрерывной
случа йной вели чины в задан ный интервал
Зная плотность распределения, можно вычислить
вероятность того, что непрерывная случайная величина
примет значение, принадлежащее заданному интерваJIУ.
Вычис.аение основано на следующей теореме.
Теорема. Вероятность того, что непрерьшная случа й
ная вел ичина Х п римет зн ачение, принадлежащее интер
валу (а , Ь), равна определенно.�t у инт егралу от плотност и
116
распределения, взятому в пределах от а до Ь:
ь
Р(а<Х<Ь)=Sf(х)dx.
а
Док азательств о. Используем соотношение (**)
(см.гл.Х,§2)
Р(а�Х < b) =F(b) -F(a) .
По формуле Ньютона- Лейбниц а,
ь
ь
F(b)-F(а)=SF'(х)dx= Sf(х)dx.
Таким образом,
а
а
ь
Р(а�Х<Ь)=Sf(х)dx.
а
Так как Р(а�Х<Ь)=Р(а<Х<Ь), то оконча-
тельно получим
ь"
Р(а<Х<Ь)=Sf(х)dx.
а
Геометрически полученный результат можно истолко
вать так: вероятность того, что непрерывная сл учайная
величина пр имет значение, принадлежащее интервалу
(а, Ь), равна площади криволинейной трапеции, ограни
ченной осью Ох, кривой распределения f (х) и прямыми
х=аи х=Ь.
3амечание. В частности, если f(х)-четнаяфункция и концы
интервала симметричны относительно начала координат, то
а
Р(-а< Х < a)=P(jX/< а) =2Sf(x)dx.
о
Пример. Задана плотность вероятности случайной вели чины Х
f (х)={�х
при
х<;
;;
О,
при О<х о;
;;
;;
l,
при
х>1.
Найти вероятность того, что в результате испытания Х примет зна
чение, принадлежащее интервалу (0,5; 1).
Р е ш е н и е. Искомая вероятность
1
Р(О,5<Х<1)=2 S xdx=x2 1�.� =1-0 ,25 =0,75.
0,5
117
§ 3. Нахожде ние функции распределения
по известной плотности распределения
Зная плотность распределения f (х) , можно найти
функцию распределен ия F (х) по формуле
х
F(х)=Sf(х)dx.
-Ф
Действительно, мы обозначили через F (х) вероятность
того, что случайная величина примет значение, мень
шеех,т.е.
F(х)=Р(Х<х).
Очевидно, неравенство Х < х можно записать в виде
двойного неравенства - оо < Х < х, следовательно,
F(х)=Р(-оо<Х<х).
(*)
Полагая в формуле (*) (см. § 2) а= -оо, Ь=х, имеем
х
Р(-оо<Х<х)=Sf(х)dx.
_..,
Наконец, заменив Р(-оо < Х <х) наF(х), в силу(*),
окончательно получим
х
F(х)=Sf(х)dx.
_..,
Таким образом, зная плотность распределения, можно
найти функцию распределен ия. Разумеется, по известной
функции распределения может быть найдена плотность
распределения, а именно :
f(х)=Г'(х).
Пример. Найти функцию распределения по данной ПJiотности
распредеJiения:
f(х)� {1/(Ь-а1
при х.е;
;
а,
при а<х<.Ь,
при х>Ь.
Построить график найденной функции.
00
Решение. Воспользуемся формулой F (х) = S f (х) dx.
-ао
118
Если х,.;
;;
;;
;
а, то f (х)=О, следовательно, F(х)=О. Если а < х,.;
;;
;;
;
Ь,
то f (х) = 1 /(Ь - а) , следовательно,
ею
а
х
F(х)=Sf(х)dx= SОdx+SЬ
1
а
dx=��.
Еслих>Ь,то
-оо
-с.о
а
F(х)=SОdx+SЬ
dx
а+SОdx=:�=1.
-оо
а
Ь
Итак, искомая функция распределен ия
{Опри
F(x) = (х -а)/(Ь-а) при
1 при
х.;
;;
;;
а,
а<х .,;
;;
;;.
Ь,
х>ь.
График этой функции изображен на рис. 4.
§ 4 . Свойства плотности распределения
С в о й с т в о 1 . Плотность распределения-не
отрицательная фун кция:
f (х) �О.
До к азательств о. Функция распределения - не
убывающая функция , следовательно, ее производная
F' (х) = f (х) -функция не-
F(х )
отрицател ьная .
Геометрически
это
свойство означает, что точ
ки, принадлежащие гра
фику плотности распреде
ления, расположены либо
над осью Ох , либо на этой
оси .
1 --------·.-
--
--
--
1
1
1
1
1
--
-j
-
---'--ь
-'-
--
-
-- -----Х
,о
Q
Рис. 4
График плотности распределе ния называют кривой
распредел ения.
.
.
С в ойств о 2 . Несобственный интеграл от плотности
расп ределения в пределах от - оо до оо равен единице:
00
�f(х)dx=1.
-00
Доказательство.
Несобственный
интеграл
""
S f (х) dx выражает вероятность события , состоящего в
-00
119
том, что сл учайная величина примет значение, принад
лежащее ин rервалу ( - оо, оо ) . Очевидно, такое событие
достоверно, следовательно, вероятность его равна еди нице.
Геометрически это означает, что вся площадь криво
линейной трапеци и, ограниченной осью Ох и кривоii
распределения, равна единице.
В частности, если все возможные значения c.riyчaй нoii
величины принадлежат интервалу (а , Ь), то
ь
�f(х)dx=1.
а
Пример. Плотность распределения случайной ве.111ч11ны Х задана:
а
f(;�)= --.
.,.
..
е-х+ ех
Найти постоянный па раметр а.
Р ешен11 е. Плотность расп ределения до:1жна удовJiетворять у<.:·
..
.
лозию � f (х) dx = 1, поэтому потребуем, чтобы выподнялось ра-
-ао
оеиство
О'Гсюда
,.,
Sdx
а
_
е
___
х_
+
_е_х_ = 1•
а=<:»
sdx
Найдем неопределенный ннтеrрал:
Sdx
s le_:
d
e:x = arctg е-1:
.
е
-
х
+е
х
,
Вычисли� несобственный интеграл:
о
с
limS-
-:-
d_x
_,,.
.
+
нш S-
-
d_x
__
е-
х
+
ех
е--\: +ех
ь--"" ь
с-+" о
= lim (- arctgеЬ) + llm (arctg ее) = n/2.
Ь-+ -оо
с-
·
»
Таким образо�1. искомый па раметр
(20
1
2
а= n/2 =п·
§ 5. Вероятностн ый смысл плотности
распределения
Пусть F (х) -функция распределен ия непрерыв
ной случайной вел ичины Х . По определению плотности
распределения, f (х) = F
'
(х), или в иной форме
f()_1
.
F(х+Лх)-F(х)
х-л/�о
Лх
•
Как уже известно, разность F (х + Лх) - F (х) опре
де.1 яет вероятность того, что Х примет значение, при
над.1ежащее интервалу (х, х + Лх). Таким образом, пре
де.r1 отношен ия вероятности того, что непрерывная слу
чайная величина примет значение, принадлежащее интер
ва.1 у (х, х + Лх), к д.11ине этого интервала ( при Лх - 0)
раве н значению плотности распределения в точке х.
По аналогии с оп ределением плотности массы в точке *1
це.1есообразно рассматривать значение функции f (х) в
точке х как плотность вероятности в этой точке.
Итак, функция f (х) определяет плотность распределе
ния вероятности для каждой точки х.
Из дифференциального исчисления известно, что при
ращение функции приближенно равно дифференциал у
функции, т. е.
F(х+Лх)-F(х) �dF(х),
или
F (х+ Лх)-F(х) � F' (х)dx.
Так как F'(х)=f(х) и dx=Лх, то
F(х+Лх)-F(х)�f(х)Лх.
Вероятностный смысл этого равенства таков : вероят
ность того, что сл учайная величина примет значен ие,
принадлежащее интервалу (х, х + Лх), приближенно равна
(с точностью до бесконечно малых высшего порядка от
нос нтел ьно Лх) произведению плотности вероятност и в
точке х на дл ину интервала Лх.
•) Ес.'! И масса непрерывно распредЕ'.'lена вдо.1ь ос_н х по некото
рому закону, например F (х), то плотностью р (х) массы в точке х
называют предел отношения массы 11нтерваJ1а (х, х+Лх) к дли не
л_
0
() 1. F(х+Лх)-F(х)
шперва.'lапри�-+ ,т.е.рх=ш1
Л
•
Ах-+0
х
121
Геометрически этот результат можно истолковать так :
вероятность того, что сл учайная величина примет значе
ние, принадлежащее интервалу (х, х + Лх), приближенно
f(x)
равна площади прямоуголь
ника с основанием Лх и вы
сотой f (х) .
На рис. 5 видно, что пло
щадь заштрихованного пря
мо угольн ика, равная произве
дению f (х) Лх, лишь прибли-
-;:-
-1
г-
--==='-
-
----х
женно равна площади криво-
о
х
х+дх
линейной трапеции (истинной
х+дх
Рис. 5
вероятности,
определяемой
оп ределенным
интегралом
� f (х) dx) . Допущенная при этом погрешность равна
х
площади криволинейного треугольника АВС.
§ 6. Закон равномерного распределения
вероятностей
При решении задач, которые выдвигает практи
ка, приходится стал киваться с различными распределе
ниями непрерывных случайных величин. Плотности рас
пределений непрерывных случайных величин называют
также законами распределен ий . Часто встречаются, на
пример, законы равномерного, нормального и показатель
ного распределен ий. В настоящем параграфе рассматри
вается закон равномерного распределения вероятностей .
Нормальному и показательному законам посвящены сле
дующие две главы.
Распределение вероятностей называют равномер ным,
если на интервале, кото рому принадлежат все возможные
значен ия случай ной вел ичины, плотность распределен ия
сох раняет посто янное значен ие.
Приведем пример равномерно распределенной непре
рывной случайн ой величины .
Пример. Шкала измерительного прибора проградуирована в не
которых единица х . Ошибку при округлении отсчета до б лижайшего
целого деления можно рассматривать как случайную величину Х,
которая может принимать с постоянной п лотностью вероятности лю
бое значение между двумя соседними целыми делениями , Таким об
разом, Х имеет равномериое распределение.
122
Найдем плотность равномерного распределения f (х) , считая, что
все возможные значения случайной величины заключены в интерва.
ле (а, Ь), на котором функция f (х) сохраняет постоянные значения:
По условию, Х не принимает значений вне интервала (а, Ь),
поэтомуf(х)=Оприх<аи х>Ь.
Найдем постоянную С. Так как все возможные значения слу
чайной величины принадлежат интервалу (а, Ь), то должно выпол
няться соотношение
Отсюда
ь
St(x) dx= l,
а
ь
или
ь
sCdx= l.
а
С=1/Sdx=1/(Ь-а).
а
Итак, искомая плотность вероятности равномерного распределе
ния
f(x)={1/(Ь:а)
График плотности равномер-
при
при
при
деления- на рис. 4.
3 а мечани е. Обозначим че- Ь-а
рез R непрерывную случайную ве-
хое;
;;
;;
а,
а<х�Ь,
Х>Ь.
ного распределения изображен на
/
(
1
11>1
рис. 6, а график функции распре-
личину, распределенную равномер-
--:0:-t-���
-�.:-
-
����
ь
�
·
,_
_
��
-
..
.,
х
но в интервале (О, 1), а через
r- ее возможные значения . Ве
роятность попадания величины R
Рис. 6
(в результате испытания) ·в интервал (с, d), принадлежащий интер
валу (О, 1), равна его длине:
Р(с<R<d)=d-c.
Действительно, плотнm;ть рассматриваемого равномерного рас
пределения
f(r)=1/(1,-0)=1 .
Следовательно, вероятность попадания случайной величины R в ин
тервал(с,d)(см.гл.XI,§2)
d
d
Р(с<R<d)=Sf(г)dr=Sl·dr=d-c.
с
с
Далее случайная величина R испо.'I ьзуется неоднократно (см. гл . XXI).
.123
Задачи
1. Случайная величина задана плотностью распределения
(О
при
х.=:;
;;
;;
- n/2,
f(х)=�аc
0
osх ыри
- n/2<х.=:;
;;
;;
л/2 ,
�
при
х>n/2.
Найти коэффициент а.
Отв. а = 1/2.
2. Сл учайная вели чина задана плотностью распределения
{О
при
х.=:;
;;
О,
f(х)= (sin
0
x)/2 при О<х.=:;
;;
;;
л,
при
х>л.
Найти: а) функцию распределения; б) вероятность того, что в резуль
тате испытания случайная вели чина примет значение, заключенное
в интервале (О, n /4).
{О
при
х.=:;
;;
О,
Отв. F(х)= (1-c
1
osх)/2 при О<х.=:;
;;
;;
л,
при
х>n.
S. Случайная вели чина Х задана функцией распределения
{О при
F(х)= х
1
при
при
х�о.
О<хо;
;;
;
1,
х>1.
Найти плотность распределения.
Отв. f(х)= 1 в : интервале (О, 1); вне этого интервала f (х) =О.
4. Случайная величина Х задана функцией распределения
{О
при
х=О ,
F(х)= (1-c
1
osх)/2 при О<хс;
;;
n,
при
х>n.
Отв. f (х) =(sin х)/2 в интервале (О, n); вне этого интервала
f (х) =0.
Глава двенадцатая
НОРМАЛЬНОЕ РАСПРЕДЕЛЕНИЕ
§ 1. Числовые характеристики непрерывных
случайных вели чин
Распространим определения числовых характе
ристик дискретных величин на величины непрерывные.
Начнем с математического ожидания.
Пусть непрерывная случайная величина Х задана плот
ностью распределения f (х) . Допустим, что все возможные
124
значения Х принадлежат отрезку [а , Ь]. Разобьем этот
отрезок на п частичных отрезков дл иной Лх1 , Лх2 , • • • , Лхп
и выберем: в каждом из них произвольную точку х1
(· = 1 , 2, . . . , п). Нам надо определить математическое
ожидание непрерывной ве.11ичины по аналогии с дискрет
ной ; составим сумму произведений возможных значений
х1 на вероятности попадания их в интервал Лх1 (напом
ним, что проl!зведение f (х) Лх приближенно равно вероят
ности попадания Х в интервал Лх) :
�x1f (х;) Лх1 •
Перейдя к пределу при стремлении к нулю дл ины наи
большего из частичных отрезков, получим определенный
ь
интегра.11 S xf (х) dx.
а
Математическим ожиданием непрерывной случайной
величины· Х. возможные значения которой принадлежат
отрезку rа. ь]. называют определенный интеграл
ь
М(Х)=Sxf(x)dx.
а
Если возможные значения принадлежат всей оси Ох , то
".
М(Х)=S xf(x)dx.
Предполагаетс я, что несобственный интеграл сходится абсо-
.,.
.г�ютно" т. е . существует интеград S 1х1f (х) dx. Если бы
-ао
это требование не выполнялось, то значение интеграла
зависело бы от скорости стремления (в отдел ьности) ниж
него предела к -оо, а верхнего -к +оо.
По аналогии с дисперсией дискретной величины опре
деляется и дисперсия непрерывной величины.
Дисперсией непрерывной случайной величины называют
математическое ожидание квадрата ее отклонения.
Если возможные значения Х принадлежат отрезку
[а, Ь], то
ь
D(X)=S[х-М(X)]2f(x)dx;
а
.
125
если возможные значения принадлежат всей оси х , то
ао
D(X) = S [x-M(XH1f (x) dx.
-оо
Среднее квадратическ.ое отклонение непрерывной слу
чайной величины определяется , как и для величины диск
ретной, равенством
о(Х)=VD(Х).
Зам е ч а н не 1. Можно доказать, что свойства математического
ожидания и дисперсии дискретных величин сохраняются и для непре
рывных величин.
3 а м е ч а н и е 2. Легко получить д.пя вычисления дисперсии
более удобные формулы:
ь
D(Х)=sx2f(х)dx-[M(ХН1,
а
ао
D(X) = s x8/ (x) dx-[M (X)]1•
-ао
Пример t. Найти математическое ожидание и дисперсию случай
ной величины Х, зада нной функцией распределения
{О при
х<:;О,
F(х)= х
1
при О<х.,.;
;;
;;
;
1,
при
х>1.
Ре ш е н и е. Найдем плотность распределения:
{О при
х<:О,
f(х)=рл(х)= 1
при О<х<1.
О при
х>1.
Найдем математическое ожидание по формуле (*):
1
1
М(Х)=� x-1 -dx=x2/2!=1/2.
Найдем дисперсию по формуле (11с11с):
1
1
D (Х) =� х2 . 1 .dх-[1/2]2=хз;з!- 1/4=1/12.
Пример 2. Найти математическое ожидание и дисперсию непре
рывной случайной вели чины Х, распределенной равномерно в интер
вале (а, Ь).
Решеи и е. Найдем математическое ожидание Х по формуле (•),
учитывая, что мотность равномерного распределения f (х) = 1/(Ь -а)
126
(см.гл.XI,§6):
ь
ь
М(Х)=Sxf(х)dx=
Ь
1
а
Sхdx.
а
а
Выполнив элементарные выкладк и, получим
М (Х) =(а+Ь)/2.
Найдем дисперсию Х по формуле (**):
ь
ь
D(X)=S x2f (х) dх -[М (Х)]2 =
ь
1
aSx2dx-[
a
tb] 2
•
а
а
Выполнив элементарные выкладки, получим
D(Х)=(Ь-а)2/12.
3 а м е ч а н и е 3. Математическое ожидание и дисперсия случай
ной величины R, распределенной равномерно в интервале (О, 1),
т. е . если а = О, Ь= 1 , как следует из примера 2, соответственно
равны М (R) = 1/2, D (R) = 1/12. Эгот же результат мы получили
в примере 1 по заданной функции распределения случайной вели
чины R.
§ 2. Нормальное расп ределе ние
Нормальным называют' распределение вероятно
стей непрерывной сл учайной вел ичины-, которое описы
вается плотностью
f (х) = �е-<х-а)1/2а• .
а f2л
Мы видим, что нормальное распределен ие определяется
двумя параметрами: а и cr. Достаточно знать эти пара
метры, чтобы задать нормальное распределение. Покажем,
что вероятностный смысл этих параметров таков : а есть
математическое ожидание, а-среднее квадратическое
отклонение нормального распределения.
а) По определению математического ожидания непре
рывной случайной величины,
""
""
М(Х)=S xf(х)dx-= -
1- S хе-<х-а)•/2а• dx.
О'ffn
-Ф
-Ф
Введем новую переменную Z = (x -a)/o. Оrсюда x = oz +a.
dx = о dz. Приняв во внимание, что новые пределы инте-
127
грирования равны старым, получим
ф
М(Х)=
0
S(az+a)e-2•12dz=
oV2n
-«>
ф
ф
,
=__!_
_
Saze-2212dz+-а
-
Sе-2•12 dz.
r2n
У2п
-ао
-Ф
Первое из слагаемых равно нулю (под знаком интеграл а
нечетная функция ; пределы интегрирования симметричны
относительно начала координат) . Второе из слагаемых
равно а ( интеграл Пу ассона }
00
е-2•12dz= Jf2n).
Итак, М (Х) =а, т. е. математическое ожидание нор
мального распределения равно параметру а.
б) По определению дисперсии непрерывной случайной
величины, учитывая, что М (Х) =а, имеем
ф
D(Х)= -
1
-
5(х-а)2 е-<х-а)•12 а• dx.
оV23t-«>
-
Введем новую переменную Z=(x-a)/a. Отсюда x-a =az ,
dx =оdz. Приняв во внимание, что новые пределы инте
грирования равны старым, получим
со
02s
D(X)= --
z·ze-2112 dz.
Y2n-со
Интегрируя по частям, положив и= z, dv = ze-2•12 dz,
найдем
D(Х)=02
•
Следов ател ьно,
о(Х)=VD(Х)=Jl(J2 =а.
Ита к, среднее квадрати ческое откл онение ЩJрмального
распределения равно параметру о.
3 а мечани е 1. Общим называют нормальное распределение
с произвольными параметрами а и о (о > О).
Нормированным называют нормальное распределение с парамет
рами а=О и o = l. Например, <>ели Х-нормальная величина с пара
метрами а и о, то 'U= (Х - а)/о - нормированная нормальная вели
чина, причем М (V) =0, о (U)= 1.
128
Плотность нормированного распределения
()__1
_
-х•/2
q>х-"r-
e
.
"
2л
Эта функция табулирована (см. приложение 1).
3 а м е ч а н и е 2. Функция F (х) общего нормального распреде
ления (см. гл. XI, § З)
х
F(x) =
Q
� s-оо
e-<z-a)•/(20•) dz,
а функция нормированного распределения
х
Fo(х)= -1
-
s e-z•/
2
dz.
ffn-ао
Функция F0 (х) табулирована. Легко проверить, что
F (x) =F0 ((х- а)/<1).
3 а м е ч а н и е 3. Вероятность попадания нормированной нор
мальной величины Х в интервал (О, х) можно найти, пользуясь
х
функцией Лапласа Ф (х) = -1
-
S e-z•12 dz. Действительно (см.
ytEtо
гл. XI,§2),
х
х
Р(О<Х<х)=Sq>(x)dx= .� S e-z•/2dz=Ф(x).
о
"
2nо
00
3амечание 4.Учитывая, что Sq>(х)dx=1 (см. гл. XI,§4,
-ао
свойство 2), и, следовательно, в силу симметрии q> (х) относительно
нуля
о
Sq>(х)dx=0,5, а значит, и Р(-оо <Х<О)=0,5,
-ао
легко получить , что
F0 (х) =О,5+ Ф (х).
Действ ительно,
�ОО=Р � � <Х<�=Р�оо < Х <�+Р� <Х <�=
=0,5+Ф (х).
ИlО
129
§з.н
.
ормальная кривая
График плотности нормального распределения
называют н ормально й кривой (кривой Гаусса ).
Исследуем функцию
у = __1_ е -(х-а)2/12а2)
оу'21&
методами дифференциального исчислен.и я.
1 . Оч евидно, функция определена на всей оси х.
/(х)
--с=+--
---�
,
---- �---,Х
Рис. 7
2 . При всех значен иях х функция принимает поло�
жительные значен ия, т. е . нормальная кривая располо
жена над осью Ох.
3 Предел функции при нео граниченно м возрастании х
(по абсолютной величине) равен нулю: lim у=О, т. е.
\Х1-+оо
ось Ох служит горизонтальной асимптотой графика.
4. Исследуем функцию на экстрему м. Найдем первую
производную:
'.
х-а
у'=
-
е-(х-а)2/(20'2) .
оз v2n
Легко видеть, что у'=О при х=а, у'>О при х<а,
у'<Оприх>а.
Следовательно, при х = а функция имеет максимум,
равный l/(<J V2n).
5. Разность х-а содержится в аналитическом выра
жении функции в квадрате, т. е. график функции сим
метричен относительно прямой х = а.
6. Исследуем функцию на точки перегиба. Найдем
вторую производную:
130
у"=-
1
е-<х-а)•/(20'') [1 _(х-а)2]
о3 Y2n
02
•
Легко видеть, что при х =а+О' и х=а-о вторая
производная равна нулю, а при переходе через эти точки
она меняет знак (в обеих этих точках значение функции
равно 1 /(о V2Л е)). Таким образом, точки графика (а -О',
l/(O' V2ne)) и (а +о, l /(o V2ne)) являются точками пе·
региба.
На рис. 7 изображена нормальная кривая при а= 1
и О'=2.
§ 4. Влияние параметров нормал ьного
распределения на форму нормальной кривой
Выясним, как влияют на форму и расположение
нормальной кривой значения параметров а и о.
Известно, что графики функций f (х) и f (х-а) имеют
оди наковую форму; сдвинув график f (х) в положитель·
ном направлении оси х на а
единиц масштаба при а > О
или в от рицател ьном направ
лении при а < О, полу чим
график f (х -а). Отсюда сле·
дует, что изменение вел и чины
параметра а (математиче
ского ожидания) не изменяет
формы нормальной кривой, а
приводит лишь к ее сдвигу
вдоль оси Ох : вправо, если а
возрастает, и влево , если а
убывает .
f(x)
IS=I
Рис. 8
По- иному обстоит дел о,
если изменяется параметр о
(среднее квадратическое отклонение). Как было указано
в предыдущем параграфе, максимум дифференциальной
функции нормального распределения равен 1/(о J/2Л).
Отсюда следует, что с возрастанием о максимальная орди·
ната нормальн ой кривой убывает, а сама кривая стано
вится более пологой, т. е. сжимается к оси Ох; при
убывании о нормальная кривая стан овится более «остро
вершинной» и растягивается в положительном направле
нии оси Оу.
Подчеркнем, что пр�� любых значениях параметров а
и о площадь, ограниченная нормальной кривой и осью х,
остается равной еди нице (см. гл . XI, § 4, второе свойство
плотности распределе ния).
131
На рис. 8 изображены нормальные кривые при раз
личных значен иях а и а=О . Чертеж наглядно иллюстри
рует, как изменение параметра а сказывается на форме
нормальной кривой .
Заметим, что при а=О и а = 1 нормальную кривую
1
q>(х)=
-- е -х•12 называют нормирова нной .
ffn
§ 5. Вероятность попадания в задан ный
интервал нормальной случайной величины
Уже известно, что если сл учайная вел ичина Х
задана плотностью распредел ения f (х) , то вероятность
того, что Х примет значение, принадлежащее интервалу
(а, р), такова:
�
Р(а<Х<Р)=�f(х)dx.
.
а
Пусть случайная вел ич ина Х рас предел ена по нор
мальному закону. Тогда вероятность того, что Х примет
значение, принадлежащее интервалу (а, �), равна
�
Р(а.< х < Р>=�5е-<х-а>•1<2а•> dx.
а Y2n
а;
Преобразуем эту формулу так, чтобы можно было
пол ьзоваться готовыми таблицами . Введем новую пере
менную Z=(x - a)/a. Отсюда X =az +a, dx =adz. Найдем
новые пределы интегрирован ия. Есл и х=а, то z =(a-a)/a;
если Х=�. то Z=(�-a)/cr .
132
Таким образом, имеем
(�-a)/cr
Р(а<Х<�)= 1
_
S e-z•/2 (crdz) =
а Jf2n
(а-а)/а
О
(�- a)/cr
=--
s e-z•/2 dz+ 1_ s e-z•/2dz=
ffn(а
-
а )/а
Jf2n
О
1
=
r2n
(� - а)/а
(а- а)/а
s e-z•12 dz- 1
_
s e-z•12 dz.
о
Jf2n о
Пользуясь функцией Лапласа
х
Ф (х)
=
;2n S
е-2•12 dz,
о
ОIЮНЧателыю получим
Р(а<Х<�)=Ф(
f}
0а)-Ф(а0а). (*)
Пример. Случайная величина Х распределена по нормальному
закону. Математическое ожидание и среднее квадратическое откло
нение этой величины соответственно равны 30 и 10. Найти вероят
ность того, что Х примет значение , принадлежащее интервалу ( 10, 50).
Реше н и е. Воспользуемся формулой (*). По условию, а= 10.
f}=50 ,
а
=ЗО, <J= 10, следовательно,
р(10<Х<50)=Ф(
50
10
30
)-Ф (
10
10
30
) = 2Ф(2).
По таблице приложения 2 находим Ф (2) = 0,4772. Отсюда, иско
мая вероятность
P ( IO < Х < 50)=2·0,4772 =0,9544.
§ 6. Вычисление веро ятности заданного отклонения
Часто требуется вычислить вероятность того, что
отклонение нормально распределенной случайной вели
чины Х по абсолютной вел ичине меньше заданного по
ложительного числа б, т. е . требуется на йти вероятность
осуществления неравенства / Х-а / < б.
Заменим это неравенство равносильным ем у двойным
неравенством
- 6 <Х- а<6, или а-6<Х<а+6.
Пользуясь формулой (*) (см . § 5), пол учим
Р(1Х-а/<6)=Р(а-6<Х <а+6)=
= Ф[<а+�)-а] -Ф[<а-�)-а]=ф(�)-Ф(-�).
Приняв во внимание равенство
Ф(-6/о)= - Ф(б/а)
(функция Лапласа - неяетная), окончательно имеем
Р ( 1Х-'а 1<6) =2Ф (6/а).
В часнюсти, при а = О
P(IXI < 6) =2Ф (б/о).
133
На рис. 9 наглядно показано, что если две случай ные
величины нормально распредел ены и а = О, то вероятность
принять значение, принадлежащее интервалу (- б , б),
/(х)
Рис. 9
больше у той величины, кото
рая имеет меньшее значение <f.
Этот факт полностью соответ
ствует вероятностному смысл у
параметра С1 (о есть среднее
квадратическое отклонен ие; оно
характеризует рассеяние слу
чайной величины вокруг ее
математического ожидания).
3амечание.
Очевидно , со-
быти я, состоящv.е в осуществлении
неравенств 1Х-а\<6 и \Х-а1�
:;
;:,
,
6, - противоположные. Поэтому ,
если вероятность осуществления неравенства 1 Х - а 1 < б равна р, то
вероятность неравенства 1 Х-а 1 :;
;:,
,
6 равна l-p .
Пример. Случайная величина Х распределена нормально. Мате
матическое ожидание и среднее квадратическое отклс нение Х соот
ветственно равны 20 и 10. Найти вероятность того, что отклонение
по абсолютной величине будет меньше трех.
Р е ш е н и е. Воспользуемся формулой
Р(\Х-а / < 6) =2Ф (6/о).
По условию, 6 = 3, а=20, О'= 10. Следовател ьно,
Р (1Х-201 <3)=2Ф(3/10)=2Ф(0,3).
По таблице приложения 2 находим Ф (0,3) =О, 1179.
Искомая вероятность
Р(1Х-201<3)=0,2358.
§ 7. Правило трех сигм
Преобразуем формулу ' (см . § 6)
Р(1Х-а1<б)=2Ф(б/G),
положив б = <f� . В итоге получим
Р(\Х-а\<Gt)=2Ф(t).
Если t = 3 и, следовательно, Gt = Зо, то
• Р(\Х-а1<Зсr)=2Ф(3)=2 ·0,49865=0,9973,
т. е . вероятность того, что отклонение по абсолютной
величине будет меньше утроенного среднего квадратиче
ского отклонен ия, равна 0,9973.
134
Другими словами , вероятность того, что абсолютная
величина отклонения превысит утроенное среднее
квадратическое отклонение, очень мала, а именно равна
0,0027. Это означает, что лишь в 0,27% случаев так может
произойти. Такие события исходя из принципа невозмож
ности маловероятных событий можно считать практически
невозможным и. В этом и состоит сущность правила трех
сигм : есл и сл учайная вели чина распределена нормально,
то абсолютная величина ее отклонения от мате.матиче
ского ожидания не превосходит утроенного ср еднего квад
ратического отклонения.
На практи ке правило трех сигм применяют так: если
распределение изучаемой случайной величины неизвестно,
но ус.тювие, указанное в приведенном правиле, выпол
няетс я, то есть основание предполагать, что изучаемая
величина распределена нормально; в противном случае
она не распредел ена нормально.
§ 8. Пон ятие о теореме Ляпунова. Формулировка
центральной предельной теоремы
Известно, что нор�льно распределенные случай
ные величины ши роко распространены на практике. Чем
это объясняется? Ответ на этот вопрос был дан выдаю
щимся русским математиком А. М . Ляпуновым (централь
ная предельная теорема): если случайная вел ичина Х пред
ставляет собой сумму очень большого числа вза имно неза
виси.мых случайных величин, влияние - каждой из которых
на всю су.м.му ничтожно мало, то
Х имеет распределение,
близкое к нормальному.
Пример. Пусть производится измерение некоторой физической
величины. Любое измерение дает лишь приближенное значение изме
ряемой величины, так как на результат измерения влияют очень многие
независимые случайные факторы (температура, колебания прибора,
в.11ажность и др.) . · Каждый из этих факторов порождает ничтожную
«частную ошибку». Однако, поскольку число этих факторов очень
велико: их совокупное действие порождает уже заметную «суммар
ную ошибку».
Рассматривая суммарную ошибку как сумму очень большого
числа взаимно независимых частных ошибок , мы вправе заключить,
что суммарная ошибка имеет распределение, близкое к нормальному.
Опыт подтверждает справедливость такого заключения.
Приведем формулировку центральной предельной тео
ремы, 1юторая устанавл ивает условия, при которых сумма
135
большого числа нез ависимых слагаемых имеет распреде
ление, близкое к нормальному.
Пусть Х1, Х 2 , •••, Хп, ...- п осJ1едовател ьность неза
висимых случайных величин, каждая из которых имеет
конечные математическое ожидание и дисперсию:
М(Xk)=ak, D(Xk)=bi.
Введем обозначен ия:
Обозначим функцию распределен ия норми рованной суммы
через
Говорят, что к последовате.11 ьности Х1, Х 2 , •• • приме
нима центральная предел ьная теорема, если при любом
х функция распределен ия нормированной суммы при п -.
.
оо
стремится 'к нормальной функции распределения :
х
limр[S"-A"<х] = I s e-z•/2dz.
п�rr>
В"
Jf2n
-00
В частности, если все сл уч айные величины Х1, Х 2 , •••
оди наково распределены, то к этой последовательности
применима центральная предельная теорема, если диспер
сии всех величин Хi(i=1 , 2, ...) 1юнечны и отличны от
нуля. А. М. Ляпунов доказал , что если дл я б >О при
п-+ оо отношение Ляпунова
п
Ln =Cn!B�+ 6
, где Сп =�М!Xk-akj2+6,
k=I
стремится к нулю (условие Ляпунова) , то к последова
тельности Х 1, Х 2 , ••• применима централнная предел ьная
теорема.
Сущность условия Ля пунова состоит в требовании,
чтобы каждое слагаемое суммы (Sп -Ап)!Вп оказывало на
сумму ничтожное вл ияние.
З а м е ч а н и е. Для дои;азательства центральной предельной тео
ремы А . М. Ляпунов использовал аппарат характеристических функ
ци й. Характеристиче�кой функцией случайной величины Х называют
функцию <р (/) = М (etfX].
136
Для дискретной случайной величины Х с возможными значениями
Xk и их вероятностями Pk хара1<теристическая функция
<р(t) =� eitxkPk·
k
Для непрерывной случайной величины Х с плотностью распре
деления f (х) характеристическая функция
"'
<р(t)=� eifxf(х)dx.
-оо
МоЖно доказать, что характеристическая функция суммы неза
·в ис имых случайных величин равна произведению характеристических
функций слагаемых.
§ 9. Оценка отклонения теоретического
распределения от нормального.
Асим!\1етри я и эксцесс
Эмпирическим называют распределен ие относи
-гелъных частот. Эм пирические рас пределения изучает
математичес кая статистика.
Теоретическим называют распредел ен ие вероятностей.
Теоретические распределения изучает теория вероятностей.
В этом параграфе рассматриваются теоретичес кие распре
делен ия.
При изучен ии распределен ий, отличных от нормаль
ного, возникает необходимость количественно оценить это
различие. С этой це.1ью вводят специальные характери
стики, в частности асиммет рию и эксцесс. Дл я нормаль
ного распредел ен ия эти характеристи ки равны нулю.
Поэтому есл и для изучаемого распределен ия аси мметр ия
и эксцесс имеют небол ьш ие значен ия, то можно предпо
ложить бл изость этого распределен ия к нормальному.
Наоборот, большие значения асимметрии и эксцесса ука
зывают на значительное отклонение от нормального.
l(ак оцен ить асимметрию? Можно доказать, что для
симметричного распределения (граф ик такого распреде
ления симметричен от носительно прямой х = М (Х)) каждый
центральный момент нечетного поряю<а равен нулю. Для
несимметричных распределен ий центра.пьные моменты не
четного порядка от.тrичны от нуля. Поэтому любой из этих
моментов (кроме момента первого порядка , который равен
нулю для JIIoбoro распределен ия) может сл ужить для
оценки асимметри и; естественно выбрать простей ший из
них, т. е. момент третьего порядка μ3• Одн ако принять
этот момент для оценки аси мметр ии неудобно потом у, что
137
его величина зависит от единиц, в 1юторых измеряется
случайная величина. Чтобы устранить этот недостаток,
μ3 дел ят на cr 3 и таким образом получают безразмерную
характеристику.
Асимметрией теорети ческого распределения называют
отношение центрального момента третьего порядка к кубу
среднего квадратичес1юго отклонен ия :
As = μ3/О"з.
Асимметрия положительна, если «длинная часть» кри
вой распределения расположена справа от математического
f(X)
о)
Mo fXJ
Рис. 10
х
ожидания; аси мметрия отр и
цательна, если
«длинная
часть» кривой расположена
слева от математического
ожидания .· Практически оп
ределяют знак асимметрии
по расположению кривой рас
пределен ия относительно мо
ды (точки максимума диффе
ренциальной функции): если
«длинная часть» кривой рас
положена правее моды , то
асимметрия
положительна
(рис. 10, а), если слева
отрицательна (рис. 1 О, 6) .
Для оценки «крутости», т. е . большего или меньшего
подъема кривой теоретического распределения по сравне
нию с нормальной кривой,
польз уются
характеристи
кой - эксцессом.
Эксцессом теорети ческого
распределения называют ха
рактеристи ку, которая опре
деляется равенством
Ek
= (μ4/cr 4)-3.
Для нормального рас
пределения μ4/cr 4 = 3; сле
довательно, эксцесс равен
нулю. Поэтому если экс
цесс некоторого
распре
делен ия отличен от нуля,
то кривая этого распределе-
138
/(х)
а)
Норм аАьная
1<риван '(
__
..
..
/
/
1
1
1
о�-
--
--
--
-�
х
f(x)
б)
Нор маА ъная .-.
.
-/\
кри
ва1<
�
Ctt <О
�/
\<�
�о+-
--
--
--
--
-х
Рис. 1t
ния отличается от нормальной кривой: если эксцесс
положительный, то кривая имеет более высокую и «острую»
вершину, чем нормальная кривая (рис. 11, а); если эксцесс
отрицательный, то сравниваемая кривая имеет более низ
кую и «плоск ую» вершину, чем нормальная кривая
(рис. 11, 6). При этом предполагается, что нормальное и
теоретическое распределения имеют од инаковые матема
тические ожидания и дисперсии .
§ 10. Функци я одного случайного аргумента
и ее распределение
Предварительно заметим, что далее, вместо того
чтобы говорить «закон распределения вероятностей>>. бу
дем часто говорить кратко -«распределение».
Если каждом у возможному значению случайной вели
чины Х соответствует одно возможное значение случайной
величины У, то У называют функцией случай ного аргу
мента Х:
у=<р(Х).
Далее показано, как найти распределение функции по
известному распределению дискретного и непрерывного
аргумента.
l. Пусть аргумент Х-дискретная слу
чайная величина.
а ) Если различным возможным значениям аргумента
Х соответствуют различные возможные значения функции
У, то вероятности соответствующих значений Х и У между
собой равны.
Пример 1. Дискретная случайная величина Х задана распреде
лением
х2
3
р 0,6 0,4
Найти распределение функции У=Х2 •
Решени е. Найдем возможные значения У :у1 =22 = 4; у2 = 32 =
= 9. Напишем искомое распределение У:
у
4
9
р 0,6 0,4
б) Если различным возможным значениям Х соответ
ствуют значен ия У, среди которых есть равные между
собой, то следует складывать вероятности повторяющихся
значений У.
139
Пример 2. Дискретная случайная величина Х задана распреде
лением
х-22з
р 0,4 0,5 0,1
Найти распределение функции У=Х 2•
Решен и е. Вероятность возможного значения у1 =4 равна сумме
вероятностей несовместных событий Х = - 2, Х = 2, т. е. 0,4+О,5=
= 0,9. Вероятность возможного значения у2 =9 равна 0, 1. Напишем
искомое распределение У:
у4
9
р 0,9 0,1
2 . Пусть аргумент Х-неп рерывна я слу
чайная вел и чина. Как найти распредел ение функ
ции У = <р (Х), зная плотность распредел ения случайного
аргумента Х? Доказано: есл и у=<р (х) - диффе ренцируе
ма я строго воз растающа я или строго убывающая функци я.
обратная функция кото рой х = ф (у) , то плотность рас
пределения g(y) случайной величины У находится с по
мощью равенства
g(y)=f[Ф(у)]IФ'(у)1·
Пример 3. Случайная величина Х распределена нормально, при
чем ее математическое ожидание а=О. Найти распределение функ
ции У =Х3•
Реше н и е. Так как функция у=х3 дифференцируема и строго
возрастает, то можно применить формул у
g(у)=f['\'(у)]1'Ф'(у)1.
Найдем функцию, обратную функции у=х3;
'\' (у) =х=у1fз.
Найдем f ['Ф(у)]. По условию,
I
f(х)=
o
_
"V2Л
_2_:rt_
e-
x•/ 2
0•'
поэтому
f[-ф(у)]=f(у1/з]=
I
е-У2/зf20• •
о у2п
Найдем производную обратной функции по у:
,()(�/з)'
l
'Фи=и
=
3у21з·
Найдем искомую плотность распределения, для чего подставим (•*)
и (•••) и (•):
_140
1
2/8/
g(у)=--,.
..
.-
-==-
е-и
20•
З сrу2/3 Y2n
3 а м е ч а н и е. Пользуясь формулой (*), можно доказать, что
линейная функция У=АХ + В нормально распределенного аргумен
та Х также распределена нормально, причем для того чтоб ы найти
математическое ожидание У, н адо в выражение функции подставить
вместо аргумента Х его математическое ожидание а:
М (У )=Аа+В;
для того чтобы найти среднее квадратическое отклонение У, н адо
среднее квадратическое отклонение аргумента Х умножить на модуль
коэффи циента при Х:
а(У)=/А1cr(Х).
Пример 4. Найти пло1 ность распределения линейной функции
У=ЗХ + 1, если аргумент распределен нормально, причем математи
ческое ожидание Х равно 2 и среднее квадратическое отклоне ние
равно 0,5.
,-
Решение. Найдем математическое ожида ние У;
м(У)=3.2+1=7.
Найдем среднее квадратическое отклонение У:
О' (У)=3 .0,5=1,5.
Искомая плотность распределения имеет вид
(у)
1
e-<u-7)'/[2 ·0 ,511)
g=
1.5У2п
§ 11. Математическое ожидание функции одного
случа йного аргумента
Задана функция У = (р (Х) случайного аргумента
Х. Требуется найти математическое ожидание этой функ
ции, зная закон распределения аргумента .
1. Л у сть аргумент Х -д иск ретная сл учай
на я вел ичина с возможными значениями х1, х2, •••, хп,
вероятности кото рых соответственно равны р1, р2 , • ••, Рп·
Очевидн о , У -также диск ретн ая случайная вел ичина
с возможными значениями у1 =ер(х1 ) , У2 = q:> (х2), •••, Уп =
= ер(хп ). Так и:ак событие «величина Х приняла значе
ние Х;» ВJiечет за собой событие «величина У приняла
значение ер (х;)», то вероятности во зможных значений У со
ответственно равны р1 , р 2 , •••, Рп · Сдедовательно, мате
матическое ожидание функции
п
М[ер(Х)]=�ер(х;)р1•
i=1
Пример !.Дискретна я СJ1учайная величина Х задана распределением
х1
3
5
р 0,2 0,5 0,3
141
Найти математическое ожидание функции У=q> (Х)= Х2 + 1.
Решение. Найдем возможные значения У:
ч> (1)=1 2+1 =2; q> (3)=32+1=10;
ч> (5) =52+1 =26.
Искомое математическое ожидание функции У равно
м rx2+I]=2.o,2+ ю.о,5+2в.о,з= 13,2.
2. Пусть аргумент Х-непрерывная слу
ч а й н а я вели ч и н а, заданная плотностью распределе
ния f (х). Для отыскания математического ожидания
функции У = ер (Х) можно сначала найти плотность рас
пределения g (у) величины У, а затем воспользоваться
формулой
00
м(У)= s yg(y)dy.
-оо
Однако ес.тrи отыс кание функции g (у) является затруд
нительным, то можно непосредственно найти математиче
ское ожидание функции <р (Х) по формуле
00
М[ер(Х)]=S ер(х)f(х)dx.
В частности, если возможные значения Х принадлежат
интервалу (а, Ь), то
ь
М[<р(Х)]=S<р(x)f(х)dx.
(**)
а
Опуская доказательство, заметим, что оно аналогично
доказательству формулы ( *) , если заменить суммирова
ние интегрированием, а вероятность - элементом вероят
ности f (х) Лх.
Пример 2. Непрерывная случайная величина Х задана плот
ностью распределения f (х) = siп х в интервале (О, л/2); вне этого
интервала f (х) =О. Найти математическое ожидание функции
Y=q> (X)=X2.
Решение. Воспользуемся формулой (**)· По условию, f (х) =
= sin х, ч>(х)=х2, а=О, Ь =n/2. Следовательно,
n,/2
М[q>(Х)]=S х2sinxdx.
о·
Интегрируя по частям, получим искомое математическое ожидание
М [X2]=n-2.
142
§ 12. Функция двух случайных аргументов.
Расп ределе ние суммы независимых слагаемых.
Устойчивость нормального распределения
Если каждой паре возможных значений случай
ных величин Х и У соответствует одно возможное зна
чен ие случайной величины Z, то Z называют фун кцией
двух случайных аргументов Х и У:
Z=1Р(Х,У).
Далее на ·примерах будет показано, как найти рас
пределение функции Z = Х +У по известным распреде
лениям слагаемых. Такая задача часто встречается на
практи ке. Например, если Х - погрешность показаний
измерительного прибора (распредел ена нормально) , У -
погрешность округлен ия показаний до ближайшего деле
ния шкалы (распределена равномерно), то возникает
задача - найти закон распределения суммы погрешностей
Z =X+Y.
1. Пусть Х и У�дискретные независимые
с л уча й н ы е вели чины. Для того чтобы составить
закон распределения функции Z = Х +У, надо найти все
возможные зн ачения Z и их вероятности .
Пример t. Дискретные независимые случайные величины заданы
распределениями:
х1
2
у3
4
р 0,4 0,6
р 0,2 0,8
Соста вить расп ределение случайной величины Z = Х + У.
Реше н и е. Возможные значения Z есть суммы каждого возмож
ного значения Х со всеми возможными значениям11 У:
Z1=1+3=4; z2=1+4=5; Zз
=2+3:-
-с
5; Z4 =2+4=6.
Найдем вероятности этих возможных значений. Для того чтобы
Z = 4, достаточно, чтобы величина Х приняла значение х1 = 1 и
величина У -значение у1 =3. Вероятности этих возможных значе
ний, как СJiедует из данных законов распределения, соответственно
равны 0,4 и 0,2.
Аргументы Х и У независимы , поэтому события Х = 1 и У = 3
независимы и, следовательно , вероятность их совместного наступле
ния (т. е . вероятность события Z = 1 + 3 = 4) по теореме умножения
равна 0,4-0,2 =0,08 .
Аналогично найдем:
Р(Z=1+4=5)=0,4 .О,8 =0,32;
Р (Z=2+ 3=5) =0,6 .О,2 =0, 12;
Р (Z'-'2-r 4=6)=0 ,6 -0,8 = 0 ,48.
143
Напишем искомое расп ределение, сложив предварятельно вероят
ности несовместных событий Z=z2, Z=z3 (0,32 + 0,12=0,44):
z4
5
6
р 0,08 0,44 0,48
коИ троль: о,о8+о,44+о,48=1.
2.Пусть Х и У-непрерывные случайные
вели ч и н ы. Доказано: если Х и У независимы, то
плотн ость распределения g (z) суммы Z = Х + У (при
услови и, что плотность хотя бы одн ого из аргументов
задана на интервале (-ею, ею ) одн ой формулой) может
быть найдена с помощью равенства
ф
g(z)= � f1(х)f2(z-x)dx
либо с помощью равносильного равенства
ф
g(z)= � /1(z-y)f2 (y)dy,
(**)
где f 1 , f 2 - плотности распределения аргументов.
Если возможные значения аргументов неотрицательны,
то g (z) находят по формуле
:z
g(z)=�f1(х)f2(z-x)dx,
о
либо по равносильной формуле
:z
g(z)=�f1(z-y>f2(y)dy.
о
Плотность распределения суммы независимых случай
ных величин называют композиц ией .
Закон распределения вероятностей называют устой
чивым, если композиция таких законов есть тот же закон
(оrличающийся , вообще говоря, параметрами ) . Нормаль
ю�1й закон обладает свойством устойчивости : композиция
нормальных законов также имеет нормальное распреде
ление (математическое ожида ние и дисперсия этой ком
позиции равны соответственно суммам математических
ожиданий и дисперсий слагаемых). Например, если Х и
У - независимые случайные вел ичины, распределенные
нормально с математическими ожида ниями и диспер-
144
сиями , соответственно равными а1 =3, а2 = 4, D1 = 1 ,
D2 = 0,5, то композиция этих величин (т. е. плотность
вероятности суммы Z = Х +У) также распределена нор
мально, причем математическое ожида ние и дисперсия
композиции соответственно равны а=3 + 4 = 7; D = 1 +
+0,5 = 1,5.
Пример 2. Независимые случайные величины Х и У заданы
плотностями распределений:
f(x)=� e-xfз (О�х< оо);
f(у)={ е-У14 (О�у< оо).
Найти композицию этих законов , т. е. плотность распределения слу-
чайной величины Z = Х +У.
.
Решение. Возможные значения аргументов неотрицательны,
поэтому воспользуемся формулой (***)
z
z
g(z)=J/1(х)/2(z-x)dx=�[+е-х;з
•
][�e-<z-x)/4] dx=
z
=1�e-z/4Sе-х/12dx=e-z/4(I_e
-
z/12) .
о
Заметим, что эдесь z �О, так как Z = Х +У и, по условию, воз
можные значения Х и У неотрицате.'lьны .
Рекомендуем читателю для контроля убедиться, что
00
�g(z) dz=
1
.
о
В следующих далее параграфах кратко описаны рас
пределения, связанные с нормал ьным, которые будут
использованы при изложении математической статистики .
§ 13. Распределение «ХН квадрат»
Пусть Х;(i = 1,2, . .., п)-нормальные незави
симые случайные величины, причем математическое ожи ·
дание каждой из них равно нулю, а среднее квадрати
ческое отклонение - еди нице. Тогда сумма квадратов
этих вел ичин
145
распределена по закону х2 («хи квадрат») с k = п степе
нями свободы; если же эти величины связаны одн им ли-
нейным соотношением, например � Хi = пХ, то число
степеней свободы k = п-1 .
Плотность этого распределения
f(х)={ ? е-х/2 x<kf2>-1
2kl2 r (k/2)
00
при х�О,
при х >О,
где Г (х) = S tx-i e-t dt - гамма-функция; в частности,
о
Г(п + l )=п!.
Отсюда видно, что распределение «ХИ квадрат» опре
дел яется од ним параметром- числом степеней свободы k .
С увел ичением числа сте пеней свободы распределение
медленно приближается к нормальному.
§ 14. Распределение Стьюдента
Пусть Z-нормальная случайная величина, причем
М (Z) =О, <J (Z) = 1, а V-независимая от Z веJiичина,
которая распределена по закону х2 с k степенями сво
боды . Тогда величина
z
Т-
-
-
YV/ k
имеет распределение, которое называют /-распределен ием
или распределением Стьюдента (псевдон им английского
статистика В. Госсета), с k степенями свободы .
Итак, отношение нормированной нормальной величины
к квадратному корню из независимой случайной вели
чины, распределенной по закону «хи квадрат» с k степе
нями свободы , деленной на k , распредел ено по закону
Стьюде нта с k степенями свободы .
С возрастанием числа степеней свободы распределение
Стьюдента быстро прибл ижается к нормальному. Допол
нительные сведен ия об этом распределении приведены
далее (см. гл. XVI, § 16).
146
§ 15. Распределение F Фишера - Снедекора
Если U и V - независимые случайные величины,
распределенные по закон у х,2 со степенями свободы k1 и k2,
то вел ичина
имеет распределен ие, которое называют распределен ием F
Фишера - Снедекора со степенями свободы ki и k 2 (иногда
его обоз начают через V2).
где
Плотность этого распределен ия
при х<О,
f(х)={
С
х
<�-2)/2
о
k k>! прих>О,
(k2+k1x)< ,+ • 2
г (ki+k2) kk,/2 kk,/2
2
1
2
Со=
г (k1/2) г (k2/2)
•
Мы видим, что распределен ие F определяется двумя пара
метрами - числами степеней свободы . Дополнительные
сведения об этом распредел ении приведены далее (см.
гл. XIX, § 8).
Задачи
1. Найти математическое ожидание и дисперсию случайной
величины Х, зная ее плотность распределения:
r1
а) f(х)
"r
при -1<х<1, f(х) =О при остальных
:п;уl-x2
значениях х;
l
б) f(х)=2Т
при a-1..;
;;
;;
x..;
;;
;;
a+l, f(x) =O при остальных зна-
чениях х.
Отв. а) М(Х) =О, D(X)=l/2; б) М(Х) = а , D(X) =l2/3.
2. Случайная· величина Х распределена нормально. Математи
ческое ожидание и среднее квадратическое отклонение этой величины
соответстве нно равны 6 и 2. Найти вероятность того, что в резуль
тате испытания Х примет значение, заключенное в интервале (4,8).
Отв. 0,6826 .
3. Случайная величина распределена нормально. Среднее квад
ратическое отклонение этой величины равно 0,4. Найти вероятность
того, что отклонение случайной ве.1ичины от ее математического ожи
дания по абсолютной ве.'Jичине будет меньше 0,3.
Отв. 0,5468.
147
4. Случайные ошибки измерения подчинены нормальному закону
со средним квадратически111 отклонением а = l мм и математическим
ожиданием а=О. Найти вероятность того , что из двух независимых
наблюдений ошибка хотя бы одного из них не превзойдет по абсо
лютной величине 1,28 мм.
Отв. 0,96.
5. Валики, изготовляемые автоматом, считаются стандартными ,
если отклонение диаметра ваJшка от проектного размера не превы
шает 2 мм. ()1учаi! ные отклонения диаметра валиков подчиняются
нормальному закону со средним квадратическнм отклонением а=1,6 мм
и математическим ожиданием а=О. Сколько процентов стандартных
валиков изготовл яет автомат?
Отв. Примерно 79%.
6. Ди скретная слу<1айная величина Х задана законом распреде
ления:
а)Х
р
1
2
0,2 0,1
3
0,7
б)х
р
-1
о,1
1
2
0,2 0,7
Найти закон распределения слу•1айной вели чины У=Х4•
Отв.а)У1 1681
б)УJ16
р 0,2 О,1 О,7
р 0,3 О,7
7. Неп рерывная случайная величина Х задана плотностью рас
пределе ния f (х). Найти дифференциальную функцию g (у) случайной
величины У, если:
а)У=Х+1(-оо<х<оо);б)У=2Х(-а<х<а).
Отв. а) g(y)=f(y-1)(- оо <у<оо);
б)g(у)={-f(�)(-2а<у<2а).
8. Независимые дискретные случа йные величины заданы следую
щими законами распреде.1е ния:
х235
р 0,3 0,5 0,2
у
4
р 0,2 0,8
Найти заксны распределения функций: а) Z=X+Y; б) Z=XY.
9
Отв.а)Z 3
4
6
7
р 0,06 О,10 0,28 0,40
б)z 2
3
5
8
р 0,06 0,10 0,04 0,24
О, 16
12 20
0,40 О, 16
9. Независимые случайные величины Х и У заданы плотностямlf
расп ределений
f1(х) =..!_e-x/:i
3
f()-
1
�{1/5
2х-5е
(О..:;
;;
;
х< оо);
(О..;
;;
;
у<оо).
Найти композицию этих законов, т. е . плотность распределения
случайной величины Z = Х + У.
148
{..!_e-zfь (1 - e -2z/15) при z�О;
Отв. g(z) = 2
О
.
при z <О.
Глава тр инадцатая
1101(АЗАТЕЛЬН ОЕ РАСПРЕДЕЛЕНИЕ
§ 1 . Определение показател ьного распределения
Показател ьным (экспо ненц иальным) называют
распредел ение ве роятностей непрерывной сл учайной вел и
чины Х . которое описываетс я плотностью
{О
при х <О,
f(х)= Ле-Лх при х�О,
где Л- постоянная положи тел ьная величина.
Мы видим, что показательное распределен ие опреде
ляется одн им параметром Л. Эта особенность показа
тельного распределения указывает на его преимущество
f( x)
F(x)
'\_
__
1
.1о
Рис. 12
по сравнению с распределениями , зависящими от боль
шего числа параметров. Обычно параметры неизвестны
и при ходится на ходить их оценки (приближенные значе
н и я); разу меется, проще оценить один па раметр, чем два
ил и три и т. д. Примером непрерывной случайной вел и
ч и ны, распределенной по показательному закону, может
служить время между появлен иями дву х последовател ь
ных событий простейшего потока (см. § 5) .
Найдем функцию распределен ия показательного закона
(см. гл. XI,§3):
х
о
х
F(х)=�f(х)dx= � Odx+').
.,
�е-Лхdx= 1-е
-
Лх.
-оо
-оо
о
•.
Итак,
F(х)={ 1-е
О
-лх
при х <О,
при х�О.
149
Ivlы определ или показательный закон с помощью плот
ности распределения; ясно, что его можно оп редел ить,
использу я функцию распредел ени я.
Графи ки плотности и фу нкции распределен ия показа
тельного закона изоб ражены на рис. 12 .
Пример. Написать плотность и функцию распределения показа
тельного закона, если параметр Л=8.
Решение. Очевидно, искомая плотность распределения
f(х)=Ве-вх при х;:;,О; f(х)=О при х<О.
Искомая функция распределения
F(x)=I-e -вx при х ;:;,О; F(x) =O при х <О.
§ 2. Вероятность попадания в задан ный
интервал показател ьно распределенной
случайной величины
Найдем ве р оятность попадания в интервал (а, Ь)
непрерывной случайной величины Х. которая распреде
лена по показател ьному закону, заданному функцией
распределен ия
F(х)=1-е -Лх (х�О).
Используем формулу (см. гл . Х, § 2, следствие 1 )
Р(а<Х <b)=F(b)-F(a).
Учитывая, что F(a) = l-e-Лa, F(Ь) = l-е -ль , получим
Р(а<Х<Ь)=е-Ла_е-ль.
Значен ия функции е-х находят по таблице .
Пример. Непрерывная случайная величина Х распределена по
показательному закону
f(x)=2e-2x при х�О; f(x)=O при х <О.
Найти вероятность того, что в результате испытания Х попадает
в интервал (0,3, 1).
150
Решение. По условию, Л = 2. Воспользуемся формулой (*):
р(0,3<Х<l)=е
- <2·0,З) _е
- <2· 1)=е
-
О,6_е
-
2=
=0 ,54881 -0, 13534 ::
:,
,,
,
0,41 .
§ 3. Числовые характеристики показательного
распределе н ия
Пусть неп рерывная сл учайная вел ичина Х рас
пределена по показател ьному закону
{О
при х<О,
f(х)= Ле-Л.х при х�О.
Найдем математическое ожидание (см . гл . Х II, § 1):
00
00
М(Х)=� xf(х)dx=Л�хе-Лхdх.
о
о
Интегрируя по част·ям, получим
М(Х)=1/Л.
Таким об разом, htате.матическое ожидание показатель
ного распределения равно обратной вел ичине параметра Л .
Найдем дисперсию (см. гл . XII, § 1):
00
00
D(Х)=�x2f(х)dx-[M(Х)]2= Л�х2е-Лхdх-1/Л.2•
о
о
Интегрируя по частям, получим
Следовател ьно,
00
Л �х2е-лхdх =2/Л2•
о
D(Х)= l/Л2•
Найдем среднее квадратическое отклонение, для чего
извлечем квадратный корень из дисперси и:
а(Х)=1/Л.
Сравнивая (*) и (;.,:.;.:.), заключаем, что
. М(Х)=а(Х)=1/Л,
т. е. мате.�tатическое ожидание и среднее квадрат ическое
отклонение потсазательного распределения равны между
собой.
Пример. Непрерывная сл учайная величина Х распределена по
показател ьному закону
f(x)=5e-�x при х:;?-:0; f(Х)=О при х<О.
151
Найти математическое ожидание , среднее квадратическое отклонение
и дисперсию Х.
Р ешени е . По ус.11 uвию, Л = 5. Следовательно,
М (Х) =cr (Х) = l/Л = l/5=0,2;
D (Х) = 1/).2 = 1/52 =0,04.
3 а м е ч а н и е 1. Пусть на практике изучается показательно
распредел енная с,1учаi\ная величина, причем параметр Л неизвесте н.
Если математическое ожидание также неизвестно, то находят его
оценку (прибл иженное значение), в качестве которой принимают
выборочную среднюю х (см. гл . XVI, § 5). Тогда приближенное зна
чение параметра Л на ходят с помощью равенства
Л*=!/Х.
3 а мечани е 2. Допустим, имеются основания предположить,
что изучаемая на практике случайная величина имеет показательное
расп ределение. Для того чт сбы проверить эту гипотезу, на ходят
оценки математического ожидания и среднего квадрати ческого откло
нения, т. е . находят выборо чную среднюю и выборочное среднее
квадратическое отклонение (см. гл. XVI, § 5, 9). Математическое
ожидание и среднее квадратическvе отклонение показательного рас
пределения равны между собой, поэтому их оценки должны разли
чаться не-значительно. Если оценки окажутся близкими од на к дру
гой, то данные наблюдений подтвер ждают гипотезу о показательном
распределении изучаемой величины; если же оценки разл ичаются
существенно, то гипотезу следует отвергнуть.
Показательное расп ределение широко применяется в
приложен иях, в частности в теории надежности, одн им
из основных понятий которой является функция надеж
ности .
§ 4. Функци я н адежности
Будем называть элел1енто.м некоторое устройство
не::iависимо от того, «простое» оно или «сложное».
Пусть элемент начинает работать в момент времени /0 =0,
а по истечении времени длительностью t происходит отказ.
Обозначим через Т неп рерывную сл учайную величину -
длител ьность времени безотказной работы элемента . Если
э.1емент про работал безотказно (до насту плен ия от каза)
время . меньшее t, то, следовател ьно. за время длител ь
ностью t наступит отказ .
Та ким образом, функция распределения F (t)= Р(Т< t)
оп реде.п яет вероятность отк аза за время длитель
ностью t. Следовател ьно, вероятность безотказной работы
за это же время дл ительностью t, т. е . вероятность про
тивоположного события Т > t, равна
152
R(t) ==P(T >t) = l -F (t).
(*)
Функцией надежности R (t) называют функщ1ю, опре
деляющую вероятность безотказной работы элемента за
время длительностью t:
R(t)=Р(Т>t).
§ 5. Показательный закон надежности
Часто длительность времени безотказной работы
элемента имеет показател ьное распределе ние, функция
распределен ия которого
F(t)=1 -e-"-t.
Следовательно, в силу соотношения (·*) предыдущего па
раграфа функция надеж ности в случае показательного
распределения времени безотказной работы элемента
и меет вид
R(t)=1 -F(t)=l -(I-e-"-1)=е-"-1•
Показател ьным законом надежности называют функ
цию надежности, определ яемую равенством
R(t).е-л.1,
где Л - интенсивность отказов.
Как следует из определения функции надежности
(см. § 4), эта формула позволяет найти вероятность без
отказной работы элемента на интервале времени длитель
ностью t, еСJ1И время безотказной работы имеет. показа
тельное распредел ение.
Пример. Время безотказной работы элемента распределено по
показательному закону f (t) = 0,02e -o,02t при t �О (t - время). Найти
вероятность того, что элемент проработает безотказно 100 ч.
Решение. По условию, постоянная интенсив ность отказов
Л=О,02. Воспользуемся формулой (*):
R(100)=е -0
·
02·1 °0 =е-2 =0,13534.
Искомая вероятность того , что элемент проработает безотказно
100 ч, приближенно {.>авиа 0,14.
3 а м е ч а н и е. Если отказы элементов в случайные моменты
времени образуют простейшиii поток, то вероятность того , что за
время длительностью t не наступит ни одного отказа (см. гл. VI , § 6),
Pt (О)=e-A.t,
что согласуется с равенством (*), поскольку Л в обеих формулах
имеет один и тот же смысл (постоянная интенсивность отказов).
153
§ 6. Характеристи ческое свойство показательного
закона надежности
Показател ьный закон надежности весьма прост
и удобен для решения задач , возникающ их на практи ке.
Очень многие формулы теории надеж ности значительно
упрощаются. Объ ясняется это тем, что этот закон обла
дает следующим важным свойством: вероятность безот
казной работы элемента на интервале вре.1tt ени длитель
ностыо t не зависит от времени предшествующей работы
до начала рассматриваемого интервала, а зависит только
от длительност и времени t ( при заданной интенсивно
сти отказов Л.).
Для доказательства свойства введем обо значения со
бытий :·
А - безотказная работа элемента на интервале (О, t0)
длительностью t0; В-безотказная работа на интервале
(t0, t0 +t) длительностью t. Тогда АВ-безотказная ра
бота на интервале (О, t0 + t) длительностью t0 + t.
Найдем вероятности этих событ ий по формуле (*)
(см. § 5):
Р(А)=е-л.tо, Р(В)=е -м,
Р(АВ)=е-л<to+t> =е-Мое-'Лt.
Найдем условную вероятность того, что элемент будет
работать безотказно на интервале (t0, t0 + t) при условии ,
что он уже проработал безотказно на предшествующем
интервале (О, t0) (см. гл . III, § 2):
р (В)- Р (АВ)
А
-
Р(А)
Полученная формула не содержит t0, а соде ржит
только t. Это и означает, что время работы на предшест
вующем интервале не сказывается на величине вероятно
сти Ссзотказной работы на последующем интервале, а
зависн г только от длины последующего интервала, что
и треGовалось до казать.
Полученный результат можно сфор мули ровать несколь
ко иначе. Сравнив вероятности Р (В) = е -М и РА (В)=е- лt ,
заключаем: условная вероятность безотказной работы эле
мента на интервале дл ительностью t, вычисленная в пред
положении, что элемент проработал безотказно на пред
шествующем интервале, равна безусловной вероятности .
154
Итак, в случае показательного закона надежности
безотказная работа элемента «В прошлом» не сказывается
на величине вероятности его безотказной работы «в бл и
жайшем будущем».
3 а м е ч а н и е. Можно доказать , что рассматриваемым свойством
обладает тол ь к о показательное распределение. Поэтому если на
пракrике изучаемая случайная величина этим свойством обладает, то
она распределена по показательному закону. Например, при допу
щении , что метеориты распределены равномерно в пространстве и во
времени, вероятность попадания метеорита в космический коμабль
не зависит от того , попадали или не попадали метеориты в корабль
до начала рассматриваемого интервала времени. Следовател ьно, слу
чайные моменты времени попадания метеоритов в космический корабль
распределены по показательному закону.
Задачи
1. Написать функцию распределения F (х) и плотность
вероятности f (х) непрерывной случайной величины Х, распределен
ной по показательному закону с параметром Л = 5 .
Отв. f (х) =5е-5х при х�О; f(x) =O при х <О; F(x)=I-e-5x.
2. Непрерывная случайная величина Х распределена по пока
зательному закону: f (х) =5е- 5х при х�О, f (Х) =О при х <О. Найти
вероятность того, что в результате испытания Х попадет в интер
вал (0,4, 1 ).
Отв. Р (0,4 < Х < 1)=0,13.
3. . Непрерывная случайная величина Х распределена по показа
тельному закону f (х) = 4е -4Х (х > О). Найти математическое ожида
ние, среднее квадμатическое отклонение и дисперсию Х .
Отв. M(X) = u.(X) =0,25; D(X) = 0,0625.
4. Время безотказной работы элемента распределено по показа
тельному закону f(t)=0,01 e- o,olt (t >О), где !-время, ч. Найти
вероятность того, что элемент проработает безотказно 100 ч.
Отв. R (100) =0,37 .
Глава четырнадцатая
СИСТЕМА ДВУ Х СЛУЧАЙНЫХ ВЕЛИЧИН
§ 1. Понятие о системе нескольких случайных
величин
До сих пор рассматривались случайные вели
чины, воз можные значения которых определ ялись одн им
числом . Такие величины называют одномерны ми . Н апри
мер, число очков, которое может выпасть при бросании
игральной кости, - дискретная одномерная вел ичина; рас-
155
стояние от орудия до места падени я снаряда - непрерыв
ная одн омерная случайная величина.
Кроме одномерных сл учайных вел ичин изучают вели
чины, возможные значения которых определ яются двумя,
т.ремя, . . . , п чис.пами. Такие величины называются соот
ветственно двумерными , трехмерными, ..., п-мерными .
Будем обозначать через (Х, У) двумерную случайную
величину. Каждую из величин Х и У называют состав
ляющей (компонентой); обе вел ичины Х и У, рассматри
ваемые одн овременно, образуют систему двух сл учайных
величин. Аналогично п-мерную величину можно рассмат
ривать как систему п случайных ве.'l ичин. Например,
трех мерная величина (Х , У, Z) определяет систему трех
сл учайных величин Х, У и Z.
Пример. Станок-автомат штампует стальные шштки. Если конт
ролируемыми размерами яв.1яются дл ина Х и ширина У, то имеем
двумерную случайную величину (Х, У); если же контролируется
и высота Z, то имеем трехмерную величину (Х, У, Z).
Двумерную случайную величину (Х , У) геометрически можно
истолковать либо как случайную точку М (Х, У) на плоскости (т. е.
ка1{ точку со случайными координатами), либо как сл учайный век-
тс р ОМ. Трехмерную случайную величину геометри чески можно ис
толковать как точку М (Х, У, Z) в трехмерном пространстве или
как вектор ОМ.
Целесообразно различать дискретные (составляющие этих вели
чин дискретны) и неп рерывные (составл яющие этих величин неп ре
рывны) многомерные случайные величины.
§ 2. Закон распределения вероятностей
дискретной двумерной случайной величины
Законом распреде.ления д и ск ретн ой двумерной сл у
чайной величины называют перечень возможных Значений
этой вел ичины, т. е . пар чисел (х;, Yi) и их вероятно
стей p(xi, Yi)(i=l , 2, ..., п; j=l , 2, ..., т). Обычно
закон распределения задают в виде таблицы с двойным
вх одом (табл . 2).
Первая строка табл ицы содержит все возможные зна
чения состаВJ1яющей Х, а первый столбец- все возможные
значения соста1тяющей У. В клетке, стоящей на пере
сечении «столбца xi» и «строки Yi», указана вероятность
р (х;, yj ) того. что двумерная случайная величина примет
значение (х;, yi).
Так как события (X =xi, Y=y1)(i= 1, 2, . . . ,
п;
j=1, 2, . . . , т) образуют полную группу(см. гл. II,§2),
156
то сумма вероятностей , помещенных во вс ех клетках таб
лицы, равна един ице .
у
У1
...
У/
..
.
Ут
11
1
1
1
х,
Р(х1, У1)
...
Р (х1. У1)
...
Р (х1, Ут)
1
1
1
1
1
1
х.
р (Х2, У1)
.
.
.
р(х2 . У1)
..
.
Р (х2, Ут)
х
1·.·1
1·
.
·
1
1·
.
·
1
1·. ·1
1 ·.·
1
Х;
Р(х;, У1)
.
.
.
Р (х;, Yj)
...
Р (х;, Ут)
Таблица 2
1·.·1
хп
Р(Хп, У1)
1·
.
·1
...
1·.·1 Р(хп. Yj)
1·
.
·
1 ...
1·
.
·
1Р(Хп, Ут)
Зная закон распредел ения двумерной дискретной слу
чайной величины, можно найти законы расп ределения
каждой из составляющи х. Действител ьно, например, со
бытия (Х=Х1; У=у1), (Х=х1; У=у2), • • • , (Х=х1; У=Ут)
несовместны, поэтому вероятность Р (х1) то�о, что Х при
мет значение х1 , по теореме сложения такова :
Р(х1)=Р(х1, У1)+Р(хр У2)+· · · +Р(Х1, Ут)·
Таким образом, вероятность того, что Х примет зна
чение х1 , равна сумме вероят ностей «столбца х1». В об
щем случае, для того q тобы найти вероятность Р (Х = Х;),
надо просумми ровать вероятности столбца Х; . Аналогично
сложив вероятности «ст роки У/» получим вероятность
Р(У = у1).
Пример. Найти законы распределения составляющих двумерной
случайной велИ'!ИНЫ, заданной закон::>м распределения (табл . 3).
Реш е н и е. Сложив вероятности по столбцам, получим вероят
ности возможных значений Х:Р(х1) =О, 16; Р (х2) = 0,48; Р (х3) =0,35.
Напишем закон распределения составляющей Х:
ХХ1
р 0,16
Х2
Х3
0,48 0,36
157
Таблица 3
1
х
у
1
1
х,
х.
х.
Yi
1 0,10
1 0,30
1 0,20
У2
1 0,06
1 0,18
1 О,16
I< онтроль: о,16+0,4s+о.з6 =1.
Сложив вероятности по строкам, получим вероятности возможных
значений У: Р (у1) = 0,60; Р (у2) = 0,40. Напишем закон распределения
составляющей У:
УYi
У2
р 0,60 0,40
I< онт роль: 0,60+0,40 = 1.
§ 3. Функция распределения двумерной случайной
величины
Рассмотрим двумерную случайную величину
(Х, У) (безразлично, дискретную или непрерывную).
Пусть х, у-пара действи-
У
тельных чисел. Вероятность
событи я, состоящего в том,
что Х примет значение, мень
шее х, и при этом У примет
значение, меньшее у, обоз
��>.;1-
--
--
Х начим через F (х , у). Если
х и у будут изменяться, то,
вообще говоря. будет изме
няться и F(х.у). т. е.
F (х, у) есть функция от х
иу.
Рис. 13
Функцией распределения
двумерной случайной вели
чины (Х, У) называют функцию F (х. у), определяющую
для каждой пары чисел х, у вероятность того, что Х
примет значение, меньшее х, и при этом У примет зна
чение, меньшее у:
F(х,у)=Р(Х<х, У<у).
Геометрически это равенство можно истолковать та к:
F (х, у) есть вероятность того, что случайная точка (Х, У)
158
попадет в бесконечный квадрант с вершиной (х, у) , рас
положенный левее и ниже этой вершины (рис. 13).
Пример. Найти вероятность того, что в результате испытания
составляющая Х двумерной случайной величины (Х, У) примет зна
чение Х < 2 и при этом составляющая У примет значение У<3,
если известна функция распределения системы
F(х, у)=(�arctg ;+;)•(�arotg �+;).
Р е ш е н и е. По определению функции распределения двумерной
случайной величины,
F(х,у)=Р(Х<х,У<у).
Положив х = 2, у=3, получим искомую вероятность
Р(Х<2, У<3)=F(2,3)=(�arctg;+;)Х
Х(..!.
..
arctg �+_!_)=(..!.
.
. �+..!.
..
).(..!.
..
. �+..!.
..
)=� .�=�.
n
32
n4
2
n42
4416
§4
.
Свойства функции распределе ния двумерной
случа йной величины
С в ойств о 1. Значения функции распределен ия
удовлетворяют двойному неравенству
O<F(х, у)< 1.
Док а затель ств о . . Свойство вытекает из определе
ния функции распределения как вероятности : вероят
ность - всегда неотрицательное число, не превышающее
единицу.
С в ойств о 2. F (х, у) есть неубыва ющая функиия по
каждо.му аргументу, т. е .
F(х2, у)�F(х1, у), если х2 >х1;
F(х,у2)�F(х,у1), если у2>УР
Доказательство. Докажем, что F(x, у) - неубы
вающая функция по аргументу х . Событие, состоящее
в том, что составляющая Х примет значение, меньшее х 2 ,
и при этом составляющая У<у, можно подразделить на
следующие два несовместных событи я:
1) Х примет значение, меньшее х 1 , и при этом У<у
с вероятностью Р (Х < х1, У<у);
2) Х примет значение, удовлетво ряющее неравенству
х1<Х<х2, и при этом У<усвероятностью Р(х1<
<Х<Х2),У<у).
.1 59
По теореме сложен ия,
Р(Х<х2, У<у)=Р(Х<х1, У<у)+Р(х1�Х <х2, У<у).
Отсюда
Р(Х<х2, У<у)-Р(Х<х1, У<у)=Р(х1�Х<х2, У<у),
или
F(х2, y)-F(х1, у)=Р(х1�Х<х2, У<у).
Любая вероятность есть число неотр ицательное, поэтому
F(х2, y)-F(х1, у)�О, или F(х2, у)�F(х1, у),
что и требовалось доказать.
Свойство становится наглядно ясным, если восполь
зоваться геометрическим истол кованием функции распре
деления ка к вероятности попадания случа йной точ ки
в бесконеч ный квадрант с вершиной (х; у) (рис. 13). При
возрастании х правая граница этого квадранта сдвигается
вп раво; при этом ве роятность попадания случа йной точки
в «Новый» квадрант, очевидно, не может уменьшиться.
Аналогично доказывается, что F (х , у) есть неубыва
ющая фу нкция по аргументу у.
С в ойств о 3. И.,неют .место предельные соотношения:
1) F(-oo,у)=О,
2) F(x, -оо) =О,
3) F(-oo, -оо)=О, 4) F(oo, оо)=1.
Доказател ьство. 1) F(-oo, у) есть вероятность
события Х < - оо и У < у; но такое событие невозможно
(поскольку невозможно событие Х < - оо ) , следовательно,
вероятность этого события равна нулю.
Свойство становится наглядно ясным, если прибегнуть
к геометрической интерпретации: при х - - оо правая
граница бесконечного квадранта (рис. 13) неограниченно
сдв игается влево и при этом вероятность попадания слу
чай ной точ ки в квадрант стремится к нулю.
2)Событие У< - оо невозможно,.поэтому F (х, - оо )=О.
3) Событие Х <-оо и У<-оо невозможно, поэтому
F(-oo,-оо)=О.
4) Событие Х < оо и У < оо достоверно, следовательно,
вероятн Jсть этого события F(oo, оо ) = 1.
Свойство становится наглядно ясным , если принять
во внимание, что при х -+ оо и у -+ оо бес1юнечный квад
рант (рис. 13) превращается во всю плоскость хОу и,
следовател ьно, попадание сл учайной точки (Х ; У) в эту
плоскость есть досто верное событие.
160
С в ойств о 4. а) При у = оо функция распределения
системы становится фу нкцией распределения составляю
щей Х:
F(x, oo) = F1(x).
б) При х = оо функция распределения системы ста но
вится функц ией распределения составляющей У :
F(оо,у)=F2(у).
Доказательство. а) Так как событие У< оо досто
верно, то F (х, оо ) определ яет вероятность события Х < х,
т. е . представляет собой функцию рас пределения состав
ляющей Х .
б) Доказывается аналогично.
§ 5. Вероятность попадания СJ
J
учайной точки
в полуполосу
Испол ьз уя функцию расп ределения системы сл у
чайных величин Х и У, легко найти вероятность того,
что в результате испыта- r;i) ,
ния случайная точка попа-
У
дает в полуполосу х1 < Х <
<Х2 и У<у (рис. 14,а)
Или в полуполосу Х <х и
У1<У<у2 (рис. 14, б).
Вычитая из вероятности
попадания случайной точки
в квадрант с
вершиной
(х2; у) вероятность попада
ния точки в квадрант с вер
шиной (х1; у) (рис. 14 , а), по
лучим
р(Х1�Х<Х2, У<у)=
= F(Х2, y)-F(Х1, у).
Аналогично имеем
Р(Х<х, У1�У<У2)=
= F(х,y2)-F(х, у1).
____ х
_ J�·;y)
о
б)у
у,'
--�
о..
._
___,/(
.___х
Рис. 14
Таким образом, вероятность попадания случайной
точки в полуполосу равна приращению функци и распре
деления по одному из аргументов.
6-2 10
J61
§ 6. Вероятность попадан ия случайиой точки
в прямоуго.пькик
Рассмот рим прямоугольник ABCD со сторонами ,
параллельными координатным осям (рис. 15). Пусть урав
нения сто рон та ковы :
у
>'2
- --�J� 1:Y2 )
у,
-ё(;;;
;;
-
о
Х1
Рис. 15
B(J12:Y2)
D(J12:Y1
"2
Найдем вероятн ость по
падания случа йной точки
(Х; У) в этот прямоуголь
ник. Искомую вероятность
можно найти , например ,
так : из вероятности по
падания случайной точ
ки в полу полосу АВ с
х вертикальной штриховкой
(эта вероятность равна
F (х2, y2)-F (xl' у2)) вы
честь вероятность попада
ния точки в лолуполосу
CD с горизонтальной
штриховкой (эта вероят
ность равна F(х2, у1) - F (х1, у1)):
Р(х1�Х<Х2• У1�У<У2) =[F(х2, Y2)-F(х1, Y2>J-
- [F (Х2, Y1) -F(х1, У1)].
(*)
Пример. Найти вероятность попадания случайной точки (Х; У)
в прямоугольник, ограниченный прямыми х = л/6 , х = л/2, у=л/4,
у=n/3, если известна функция распределения
F(х, у)=sinхsinу(О..;
;;
;
х.;
;;
;;
;
n/2,О..;
;;
;
у.;
;;
;;
;
л/2).
Решение. Положив х1 =n/6, х2 =n/2, у1 =n/4, у2 =n/3
в формуле (*) , получим
i62
Р(n/6<Х<n/2, л/4<У<л/3)=[F(п/2, n/3)
- F (n/6, л/3)]-[F (л/2, n/4) -F(л/6, л/4))=
= (sin (л/2) sin (л/3) -sin (л/6) sin (л/З)]- [siп (n/2) sin (л/4) -
- sin (n/6) sin (л/4)] =[ уЗ/2 - J!З/4] -[у2/2 - у2/4] =
=( J!З- у2)/4 =0,О8 .
§ 7, Плотность совместноFо распределения
вер.оятоостей непреры вной двумерной случа й.ной
величи ны (двумерная плотность вероятности)
Двумерная случайная величина задавалась с по-
мощью функции распределения. Непрерывную двумерную
величину можно также задать, пользуясь плотностью
распределения. Здесь и далее будем предполагать, что
функция распределения· F (х, у) всюду непрерывна и И!'fеет
всюду (за исключением, быть может, конечного числа
кривых) непрерывную частную производную второго
порядка.
Плотностью совместного распределения вероятностей
f (х, у) двумерной непрерывной случайной величины (Х, У)
называют вторую смешанную частную производную от
функции распределения:
f()
- д2F(х, у)
х,у -дх·ду
•
Геометр ически эту функцию можно истолковать как по
верхность, которую называют поверхностью распределения.
Пример. Найти плотность совместного распределения f (х, у)
системы случайных величин (Х, У) по известной функции распреде
ления
F(х, у)=sinхsiпу(О<;х.;
;;:;
;
n/2, О.;
;;
;;
у.;
;;:;
;
n/2).
Реш е н и е. По определению плотности совместного распределения,
д2F
f(x, и>=ахау·
Найдем частную производную по х от функции распределения:
дF
.
дх
=COS XSIЛ y.
Найдем от полученного результата частную производную по у,
в итоге получим искомую плотность совместного распределения:
а2р
f(x, у)=дхду
=соsx.cosу(0<,х.;
;;
;;
n/2, О<;у<;n/2).
§ 8. Нахождение функции распределе ния системы
по известной плотности распределения
Зная плотность совместного рас пределения f (х, у).
можно найти функцию распределения F (х, у) по формуле
ух
F(x,у)=. S
S f (х, y)dxdy,
-oci -ао
163
что непосредственно следует из определения плотности
распределения двумерной неп рерывной случайной вели
чины (Х, У).
Пример. Найти функцию распределения дв умерной случайной
величины по данной плотности совместного распределения
1
f(х, У)=nz (1+xz)(1+у2) ·
Ре ш е н и е. Воспользуемся формулой
Поло жив
ух
F(x,11)=� � f(x, y)dxd.y.
-Ф -ао
1
f(х, у)=nt(1+х2)(I+yz)
, получим
у
х
F(x, у) =�25
00
(1�у25
00
1�x2)dy=
g
у
=n1 S 1�11, (arotg x +�)dy=(�arctg x+i) � 5 l:yz =
-со
-со
§ 9. Вероятностный смысл двумерной плотности
вероятности
Вероятность попадания случайной точки (Х; У)
в прямоугольник ABCD (рис. 16) равна (см. § 6)
Р(Х1<Х <Х1, у1<У<У2)=[F(х1, Y2)-F(Х1, у1)]�
-[F (x1, Y1) -F(x1, У1)].
Обозначив для краткости левую часть равенства через
РАвсо и применив к правой части теорему Лагранжа ,
получим
РАвсо = F;11 (;, Т)) ЛхЛу,
где
Х1 <;<Ха, Лх=Х11-Х1; !11 <Т) <У1• Лу=у1-У1·
Оrсюда
) pABCD
F'xg(�,Т) =АхЛу'
164
или
f(f: )
рABCD
"''
fJ=Лхду.
Приняв во внимание, что произведение Лх Лу равно
площади прямоугольника A BCD, заключаем: f (s, fJ) есть
отношение
вероятности
попадания случайной точ- У
АCD
А(r,;у1+ду)
В(х1+дх;у,+ду)
ки в прямоугольник В
у2 ______0
к площади этого прямо -
ду
угольника.
·
Перейдем теперь в ра- У, --c(-;,:-y-)i
дк
1D(к1+дх; у,)
венстве (**) к пределу при
'
':
1
Лх-+О и Лу-+О. Тогда --
0
+-
--
----'"-
, ____x
..
..
.--- ;r
s-+ х, У\-+у и, следова
тельно, f(s,ri)-f(х, у).
Рис. 16
Итак, функцию f (х, у) можно рассматривать как пре
дел отношения вероятности попадания случайной точки
в прямоугольник (со сторонами Лх и Лу) к площади этого
пр�моугольника, когда обе стороны прямоугольника стре
мятся к нулю.
у
•
ду
t
о
§ 10. Вероятность попадания случайной точ ки
в произвольную область
Перепишем .соотношение (**) § 9 так:
/
i"'-.
-дк
f<s. ri)лхЛу=РлвсD·
-.
..
..
D
-
Рис. 17
�
/
Отсюда заключаем: про
изведение f (s, ri) Лх Лу
есть вероятность попада
ния случайной точки в
прямоугольник со сторо
нами Лх и Лу.
� зад�Jаст
�;������:�
х
2
ласть D. Обозначим собы-
тие, состоящее в попада
нии случайной точки в эту область, так : (Х, У) с: D.
Разобьем область D на п элемента рных областей пря
мыми, параллельными оси Оу , находящимися на расстоя
нии Лх одна от другой, и прямыми, па раллельными оси Ох ,
находящимися на расстоянии Лу одна от другой (рис . 17)
(для простоты предпола гается, что эти прямые пересекают
конту р области не более чем в двух точках). Так как
J65
события, состоящие в попадании случайной точки в эле
ментарные области , несовместны, то вероятность попада
ния в область D приближенно (сумма элемента рных об
ласт,ей приближенно равна области D!) равна сумме
вероятностей попаданий точки в элементарные области :
п
Р((Х, Y)cD)��f(�i• tJi)ЛхЛу.
i=1
Переходя к пределу при Лх -+ О и Лу -+ О, получим
Р((Х, Y)cD)=��f(х, у)dxdy.
(*)
(D)
Итак, для того чтобы вычислить вероятност_ь попада
ния случайной точки (Х; У) в область D, достаточно
у
найти двойной интеграл по
области D от функции
f (х, у).
Геометрически равенство
(*) можно истолковать так:
вероятность попадания сл у
чайной точки (Х; У) в область
-0
-1----
м_j
<
""'
r;
o
� )==
н""'c""
""
Y.f:
;:;:
:
;
:-
oJ
�x
D равна объему тел а, огра
Рис. 18
ниченного све рху поверхно
стыо z=
f (х, у), основанием
которого служит проекция
этой поверхности на плоскость х Оу .
3 а м е ч а н и е. Подынтегральное выражение f (х, у) dx dy назы
вают элементом вероятности. Как следует из предыдущего, элемент
вероятности определяет вероятность попадания случайной точки в эле
ментарный прямоугольник со сторонами dx и dy.
Пример. Плотность распределения двумерной случайной величины
1
f(х, у)=n2(1+х2)(1+у2).
Найти вероятность попадания случайной точки в прямоугольник
(рис. 18) с вершинами К(1; 1), L(JIЗ; 1),М(l;О)и N(JIЗ;О).
166
Реш е н и е. Искомая вероятность
Р((Х, Y)cD)=S S n2(l+x�)(l+y2)
dxdy=
(D)
1Г
УЗ
1
1-гЗ 1
= �2SJ1�у2 S 1�\21dy=�2 arctgх
1 S1�у2 =
о'-
1
_J
1о
1
= �2(�-:)•arctgУ1=�2 • � •: =4�·
о
§ 11. Свойства двумерной плотности вероятности
Св о й с т в о 1. Двумерная плотность вероятно
сти неотрицательна:
f(х, у)�О.
Док азательств о. Вероятность попадания случай
ной точки в прямоугольник со сторонами Лх и Лу есть
неотрицательное число; площадь этого прямоугольника -
положительное число . Следовател ьно, отношение этих двух
чисел, а значит, и их предел (при Лх__,.О и Лу-+О),
1юто рый равен f (х, у) (см . § 9), есть неотрицательное
число, т. е.
f(х, у)�О.
Замети м, что свойство непосредственно следует из того,
что F (х, у) - неубывающая функция своих аргументов
(§ 4).
С в ойств о 2. Дво йной несобственный интеграл с бес
конечными пределами от двумерно й плотности равен.
единице:
� �f(х, у)dxdy=1.
-оо -оо
До к азат ел ь ст в о. Бесконечные пределы интегри
рован ия указывают, что областью интегри рования служит
вся_ плоскость хОу; поскольку событие, состоящее в том,
что·· случайная точка попадет при испытании на плоскость
хОу , достоверно, то вероятность этого события (она и
определяется двойным несобственным интегралом от дву
мерной плот ности) равна единице, т. е.
"'
"'
��f(х, у)dxdy=1.
-� -ею
Пример. Задана плотность совместного распределения непрерыв
ной двумерной случайной величины (Х, У): f(х, у) = С cos х cos у в
квадрате О -=;
;;
х-=;
;;
л/2. О�у,.;
;;
;;
л/2; вне этого квадрата f (х, у) = О.
Найти постоянный параметр С.
Р е ш е н и е. Воспользуемся свойством 2, учитывая, что х и у
изменяются от О до л/2:
ф"'
С ��cosхcosуdxdy=1.
-Ф -(1:)
167
Оrсюд а
С t/(пi2 cosхdx}2 cosуdy).
В ыполнив интегрирование, получим искомое значение парамет
раС=1.
§ 12. Отыскание плотностей вероятности
составляющих двумерной случайной величин ы
Пусть известна плотность совместного распреде
лен ия вероятностей системы двух случайных величин.
Найдем плотности распределен ия каждой из состав
ляющих.
Найдем сначала плотность распределения составляю
щей Х. Обозн ачим через F1 (х) функцию распределения
составляющей Х. По определению плотности распределе
ния одн омерной случайной величины,
f()-dF1(х)
1Х-dx•
Приняв во внимание соотношения
н айдем
А
11
F(х, у)= S S f(х, у)dxdg
-aD -ext
F1(х)=F(х, оо)
х"
F1(x)= S Sf(x, y)dxdy.
-ао -ао
(см. § 8),
(см. § 4),
Продифференцировав обе части этого равенства по х,
получим
.
"
rxl = s f(х, y)dy,
_..,
или
""
f1(х)= S f(х,- y)dy.
_..,
168
Аналогично находится плотность распределения состав
ляющей У :
1О
fs(у)= S f(х, у)dx.
-ао
Итак, плотность распределения одной из составляю
щих рШJна несобственному интегралу с бесконечными пре
делами от плотности совместного расп ределения системы ,
п ричем переменная интегрирования соответствует другой
СОСmШJЛЯЮЩей.
Пример. Двумерная случайная величина (Х. У) задана плот
ностью совместного распределения
f(х >={ l/(6n) при х1/9+у1/4 < 1,
'у
О при х1/9+у1/4 > 1.
Найти плотности распределения составляющих Х и У.
Р е. ш е ние . Найдем плотность распределения составл яющей Х
по формуле (*):
Итак,
2Vt- xa/t
2V1 -x•/9
f1(X)=б� s·
dg=6: s dy=g� Jf9
--
-X
-
1•
-2У1-х•/9
О
при
при
lxl<3,
1х\,;:.
.
3.
·Ан�логично, используя формулу (**)• найдем плотность распре
деления составляющей У:
f2 (у) = { У4-y2/(2n) при 1у1 < 2,
О
при ly!;:.
.
2.
Рекомендуем читателю для контроля самостоятельно убедиться ·
в том, что найденные функции удовлет.воряюr соотношениям
ао
sft(у)dy=1.
-ао
§ 13. Условные закон ы распределени я
составляющих системы дискретных случайных
величин
Известно, что если события А и В зав исимы, то
условная вероятность события В отл ичается от его безус
ловной вероятности . В этом случае (см. гл . lll, § 2)
рА (8) = р (АВ)/р (А).
(*)
169
Аналогичное положение имеет место и дл я случа йных
величин . Для того чтобы охарактеризовать зависимость
между составляющими двумерной случайной величины,
введем понятие условного распределения.
Рассмотрим дискретную двумерную случайную вел и
чину (Х , У) . Пусть возможные значения составляющих
таковы:Х1,Х2, •••, Хп;у1,У2• ···, Ут·
Допустим, что в результате испытан ия величина У
приняла значение У=у1 ; при этом Х примет одно из
своих возможных значений: х1, или х2 , •••, или хп . Обо
значим условную вероятность того, что Х примет, на
пример, значение х1 при условии , что У=у1 , через
р (х1 1 у1) . Эга вероятность, вообще говоря, не будет равна
безусловной вероятности р (х1).
В общем случае условные вероятности составляющей
будем обозначать та к:
р(xi1Yi) (i=1,2, . .., п; j=1,2, ..., т).
Усл овным распределением составляющей Х при У=у1
называют совокупность условных вероятностей р (х1 / у1),
Р (x2 I у1), . •., р (хп 1 у1), вычисленных в предп о.'!ожении,
что событие У=у1 (j имеет одно и то же значение при
всех значениях Х) уже насту пило. Аналогично опреде
ляется условное распределение составл яющей У.
Зная закон распределения двумерной дискретной слу
чайной величины, мож�о, пользуясь формулой (*), вь1-
числить условные законы распределения составляющих.
Например, условный закон распределен ия Х в предпо
ложении, что событие У = у1 уже произошло, может быть
найден по формуле
р(Х·\у1)=Р(х;,Yi) (i=1,2, ..., п).
l
р (У1)
В общем случае условные законы распределения со
ставл яющей Х определ яются соотношением
Аналогично нах одят условные законы распределения
составляющей У:
3 а м е ч а н и е. Сумма вероятностей условного распределения
равна единице. Действительно, так как при фиксированном у1 имеем
170
п
�
(см. §2) �р(xi, у1)=р(У1), то
l=1
п
п
�Р(Xi1Yj)=� Р(х;, Yj)/p(У1)=Р(У;)/р(У1)=1.
i=1
i=1
Аналогично доказывается, что при фиксированном х;
т
�р(YJ1х;)=1.
/=1
Эrо свойство условных распределений используют для контроля вы
числений.
Пример. Дискретная двумерная случайная величина задана табл. 4.
Таблица 4
х
у
11
х,
х.
"•
У1
о, 10
0,30
0,20
У2
0,06
О,18
0, 16
Найти условный закон распределения составляющей Х при ус
ловии, что составляющая У приняла значение у1•
Р е ш е н и е. Искомый закон определяется совокупностью сле
дующих условных вероятностей:
Р(х1/У1), Р(x2IУ1), Р(хз1У1)·
Воспользовавшись формулой (*) и приняв во внимание, что
р (у1) = 0,60 (см. § 2, пример), имеем:
Р (х1 IY1) =p(х1. У1)/р <и1) = 0,10/0,60 = 1/6;
Р(хз 1YlJ=Р(х2, У1)/р<и1)=0,30/0,60=1/2;
Р (хз 1 У1) =р (хз, У1)/р (у1) =0,20/0;60 = 1/3.
Сложив для контроля найденные условные вероятности, убедим
ся , что их сумма равна единице, как и дол жно быть, в соответствии
с замечанием, помещенным выше: 1/б+1/2+ l/3= 1.
§ 14. Условные законы распределения
соста ВJiяющих системы непрерывных
случайных величин
Пусть (Х, У)-непрерывная двумерная случай
ная величина.
Услоеной плотн ост ью <р (х 1 у) распределения состав
ляющих Х при данном значен и и У=у называют отно-
171
шение плотности совместного распределения f (х, у ) си
стемы (Х , У) к плотности распредел ения f 2 (у) состав
ляющей У:
<р(х1у)=f(х, Y)lf2(у).
(*)
Подче ркнем, что отличие условной плотности <р (х 1 у)
от безусловной плотности f 1 (х) состо ит в том, что функ
ция <р (х 1 у) дает распределение Х при услови и, что со
ставляющая У приняла значение У=у; функция же
f1 (х) дает распредел ение Х независимо от того, какие из
возможных значений пр иняла составляющая У.
Аналогично определяется условная плотность состав
ляющей У при данном значении Х = х :
'Ф(у1х)=f(х, Y)lf1(х).
(**)
Если известна плотность совместного распределения
f (х , у), то условные плотности составляющих могут быть
найдены в силу (*) и (**) (см. § 12) по формулам:
00
<р(х1у)=f(х, и>/sf(х, у)dx,
00
'Ф(ylx)=f(x, и>/sf(x, y)dy.
-оо
Запишем формулы (*) и (**) в виде
f(х, У)=f2(у)<р(х1у), f(х, у)=f1(х)'Ф(у1х).
Отсюда заключаем : умножая закон распределения
одн ой из составл яющи х на условный закон распредел е
ния другой соста вляющей , найдем закон распределения
системы случайных вел ичин.
Как и любая плотность распределен ия, условные
плотности обл адают следующими свойствами :
<р(х/у)�О,
'Ф(У1х)�О,
""
5<р(x/y)dx= 1;
-оо
со
,.
.
jф(у/х)dy=1 .
-со
Пример. Двумерная случайная вели чина (Х, У) задана плот
ностью совместного распреде.ления
172
{l/(nr2) при х2+у2 < r2,
f(х 11)-
,
-
О
при х2+у2 > r2
•
Найти условные законы распределения вероятностей
JIЯЮЩИХ.
Р е ш е н и е. Найдем условную плотность составляющей
/ х1 < Jfr2 -y1 по формуле (***):
<р(х1у)
l/(nr2)
Vr•- y•
nr'
sdx
--Vr•-y•
состав-
Х при
Так как f(х, у)=О при х2+у2 > r2, то q>(x/y)=O при Jxl>
> у-,2_у2.
Пользуясь формулой (****), аналогично найдем условную плот
ность составляющей У:
r 1/(2 уг2-х2) при IYI< y,a_xz,
'Ф(У /х) =\
0
при/yl>у,
2
_х
2.
§ 15. У словное математическое ожидание
Важной характеристикой условного расnределе
ния вероятностей является условное математическое ожи
да ние.
Условным математически м ожиданием дискретной
случайной величины У при Х = х (х -оп ределенное воз
можное значение Х) называют произведение возможных
значен ий У на их условные вероятности :
т
М(У/Х=Х)=�У1Р(У1/х).
1=1
Для непрерывных вел ичин
"
М(У1Х=х)= Sуф(у1х)dy,
_..,
где ф (у / х)-условная плотность случайной величины У
при Х=х .
Условное математическое ожидание М (У 1 х) есть функ-
ЦИЯ ОТ х:
М(У1х)=f(х),
кото рую навывают функцией регресси и У на Х.
Аналогично оп редел яются условное математическое
ожида ние сJ1 учайной величины Х и функц ия регресси и
Хна У:
М(Х1у)=q.i(у).
1'73
Пример. Дискретная двумерная слуца.йная вели·чина задана
табл. 5.
Табл ица 5
1
х
у
1
1
1
х1 =1
х,= З
х. =4
х4= 8
Yi=3
0,15
0,06
0 ,25
0,04
U2=6
0,30
0,10
0,03
0,07
Найти условное математическое ожидание составляющей У при
X=x1 =l.
Решение. Найдем р (х1) . для чего сложим вер.оятности , по·
мещенные в первом столбце табл. 5:
р (х1) = 0,15+0,30 =О,45.
Найдем условное распределение вероятностей величины У при
Х=х1=1 (см. § 13):
Р (У1 J Х1) =р (Xi, У1)/р (Х1) =0,15/0,45 = 1/3;
Р (Y2 I х1) =Р (х2, U2)/p (х1) =0,30/0,45= 2/3.
Найдем искомое условное математическое ожидание по фор
муле (*):
2
м(У1Х=Х1) =}�UjP(Uj1Х1)=У1Р<и11X1)+Y2P(Y2IХ1)=
7=1
= 3 ( 1/3)+6 (2/3)=5.
§ 16. Зависимые и независимые случайные
величины
Мы назвали две случайные вел ичины независи
мыми, если закон распределения одной из них не зави
сит от того, какие возможные значения приняла другая
величина. Из этого определения следует, что условные
распределения независимых вел ичин равны их безуслов
ным распределениям.
Выведем необходимые и достаточные условия незави
симости случайных вел ичин.
Теорема. Дл я того чтобы случайные вел ичины Х и У
были независимыми, необх одимо и достаточно , чтобы
функция распределен ия системы (Х, У) была равна про
изведен ию функций распределен ия составляющих:
F(х, у)=F1(х)F2(у).
Док азательств о. а) Необх од имо сть. Пусть
Х и У независимы. Тогда события Х < х и У<у неза-
174
висимы, следовательно, вероят·RОС'F ь совмещения этих
событий равна произведению их 13ероятностей:
Р(·Х<х, У<У)=Р(Х<х)Р(У<у),
или
F(х, у)=F1(х)F2(у).
б) Достаточность. Пусть F(x, y) =F1 (x) F2 (y).
Отсюда
Р(Х<х, У<у)=Р(Х<х)Р(У<у),
т. е. вероятность совмещения собьrrий Х < х и У < у
равна произведению· вероятностей этих событий. Следова
тельно, случайные .иеличины Х и У неэавнсимы.
С л едств и е . Для того чт обы непрерывные случайные
вел ичины Х и У был и независимыми , необходимо и доста
точно, чтобы плотность совместного распределения си
стемы (Х, У) была
равнл
п
р оизведени ю
плотностей рас
пределения составляющих:
f(х, у)=f1(х)f2(у).
Доказател ьство. а) Необходимость. Пусть
Х и У -иезависимые неп рерывные случайные величины.
Тогда (на основании предыдущ�й теоремы)
F(х, у)=F1(х)F2(у).
Дифференцируя это равенство по х, затем по у , имеем
д2F дF1 дF2
дхду=дх ду '
или (по определ ению плотностей распределения двумер
ной и од номерной величин)
f(х, у)=fi(x>f2(у).
б) Достаточность. Пусть
f(х, у)=f1(x)f2(у).
Интегрируя это равенство по х и по у, получим
ух
х
у
SSf(х, у)dxdy= Sf1(х)dx Sf2(у)dy,
-оо -оо
или(см.§8гл.XIVи§3гл.Xl)
F(x, y) =F1(x) F 2(y).
175
Отсюда (на основании предыдущей теоремы) заклю
чаем, что Х и У независимы.
3амечание. Так как приведенные вwше усло11
1
ия являются
необходимыми и достаточными, то можно дать новые определения
независимых случайных величин:
·
1) две случайные величины называют независимыми, если функ
ция распределения системы этих величин равна произведению функ
ций распределения составляющих;
2) две непрерывные случайные величины называют независимы
ми , если плотность совместного распределения системы этих величин
равна произведению плотностей распределениJ1 составляющих.
Пример. Двумерная непрерывная случайная величина (Х, У)
задана плотностью совместноrо распределениJ1
f(х, y)=(.sin х sinу)/4
в квадрате О ..;
;;
;
х<;п, О..;
;;
;
у.s;
;;
;
п; вне квадрата f (х, у) -0. Доказать ,
что составляющие Х и У независимы.
Решение. Используя формулы (*) и (**) § 12, легко найдем
плотности распределения составляющих: f1 (х) = sin х/2, f2 (у) =sin у/2.
Плотность совместного распределения рассматриваемоА системы рав
на произведению плотностей распределения составляющих, поэтому
Х и У независимы.
Разумеется, можно было доказать, что условные законы распре
деления составляющих .равны их беаусJ1овным законам, откуда также
следует независимость Х и У.
§ t 7. Числовые характеристики системы двух
случайных вели чин. l(орреляционныА момент.
l(озффициент корреляции
Для описания системы двух сл учайных величин
кроме математичес ких ожида ний и дисперсий составляю
щих используют и другие характеристики; к их числу
относятся корреляционный момент и коэффициент корре
ляции.
J(орреляционным моментом μxJI случайных вел ичин
Х и У называют математическое ожидание произведения
отклонений этих величин:
μху =М{fX-M{X)][Y-M(У)]}.
Для вычисления коррел яционного момента диск рет
ных величин используют формулу
пт
f.Lxy= -�
-
�[х;-М(Х)][у1-М(У)]Р(xi, у1),
t=1Jz=1
а для неп рерывных вел ичин -формулу
176
""""
f.txJI = S 5[х-М(Х)][у-М(У)]!(х, y)dxdy.
-оо -ао
Корреляционный момент служит для характеристики
связи между величинами Х и У. Как будет показано
ниже, корреляционный момент равен нулю, если Х и У
независимы; следовательно, если корреляционный момент
не равен нулю, то Х и У-зависимые случайные вели
чины .
3 а меча ние l. Учитывая, что отклонения есть центрирован
ные случайные вел ичины (см. гл . VIII , § 2) , к орреляционный момент
можно определить как математическое ожидание произведения uеИ'Г
рированных случайных вели чин:
μxv= м /XYJ.
3 а меча·н и е 2. Легко убедиться, что корреляционный момент
можно записать в виде
�txy=М(ХУ)-М(Х)М(У).
Теорема 1. Коррел яционный момент двух независимых
случайных величин Х и У равен нулю.
Доказател ьство. Так как Х и У - независи мые
случайные величины, то их отклонения Х -М (Х) и
У-М (У) также независимы . Пользуясь свойствами ма
тематического ожидания (математическое ожидание про
изведения независимых ..;лучайных в"личин равно произ
ведению математических ожиданий сомножителей) и
отклонения (математическое ожидание от клонения равно
нулю), получим
μxv = М{[Х-М(Х)][У-М(У)]}=
=М[Х-М (Х)]М[У-М (У)]=О.
Из оп ределения корреляционного момента следует ,
что он имеет размерность, равную произведению размер
ностей вел ичин Х и У. Другими словами, вел ичина
корреляционного момента зависит от еди ниц измерени я
случайных величин . По этой причине для одн их и тех же
двух вел ичин вел ичина кор реляцион ного момента имеет
различные значения в зависимости от того, в каких еди
ницах были измерены величины.
Пусть, например, Х и У были измерены в сантимет
рах и μх = 2 см2; если измерить Х и У в миллиметрах,
то μху = �00 мм . Такая особенность корреляционного мо
мента является недоста тком этой числовой характеристи
ки, поскольку сравнение коррел яционных моментов
различных систем случайных вел ичин становится зат руд
нител ьным. Для того чтобы устранить этот недостаток ,
вводят новую числовую характеристику- коэффициент
коррел яци и.
177
!(оэффи циентом корреляц ии rху случайных величин
Х и У называют отношение корреляционного момента к
произведен ию средн их квадратических отклон-ений этих
величин:
Так как размерность μху равна произведен ию размер
ностей величин Х и У, ах имеет размерность величины
Х, ау имеет размерность величины У (см. гл . VI II, § 7) ,
то rху - без размерная величина . Таким образом, величина
коэффициента корреляци и не зависит от выбора ед иниц
измерения случайных величин . В этом состоит преиму
щество коэффициента корреляции перед корреляционным
моментом.
Очевидно, коэффициент корреляции независимых слу
чайных величин равен нулю (так как μху =О) .
3 а меч ани е 3. Во многих вопросах теории вероятностей це
лесообразно вместо случайной величины Х рассматривать нсрмиро
ванную случайную величину Х', которую определяют как отношение
отклонения к среднему квадратическому_отклонению:
Х'=(Х-М (Х))/ах.
Нормированная величина имеет математическое ожидание, равное
нулю, и дисперсию, равную единице. Действительно, используя
свойства математического ожидания и дисперсии, имеем:
М(Х') =М [Х-
М
,
(Х)]=_!_М[Х-М(X)J=�·0=0;
ах
ах
ах
D(X') =D [X-M (X)]=-\D[X-M(X)]=
D (�) =l.
ах
ах
ах
Легко убедиться, что коэффициент корреляции rху равен корре
ляционному М()Менту нормированных величин Х' и У ':
Гху=
M{[X-M (X)][Y -M (Y)J}
=М
[Х-М (Х) Х-М(У)]=
Ох Оу
Ох
Оу
= М (Х'У')=μХ'У' ·
Теорема 2 . Абсолютная вел ичина корреляционного мо
мента двух случайных вел ичин Х и У не превышает сред
него геометрического их дисперсий:
1μху 1�VDxDy•
Док азательств о. Введем в рассмотрение сл учай
ную величину Z1 =cr Х - ахУ и найдем ее дисперсию
D(Z1) = М [Z1 - тz .]2• 113ыполнив выкладки, получим
D {Z1) = 2а;а� -20'хауμху •
178
Любая дисперсия неотрицательна, поэтому
2o;oz-2ахО'уμху � о.
Отсюда
μxy < (Jx(Jy•
(**)
Введя случайную вел ичину Z2 = cryX + crx Y, аналогич
но найдем
μX!J � -(JX(Jy •
Объединим (**) и <-***):
-<JxOy<μху<ОхОу,
или
Итак,
J.1xy<VDxDy.
Теорема 3. Абсолютная величина коэффициента кор
реляции не превышает единицы:
lrxul< 1.
Док а з а тель ство: Разделим обе части двойного
неравенства (****) на произведение положительных чисел
O'x<Jy:
Итак,
lrxy!<l .
§ 18. Коррелированность и зависимость
СJ
J
учай ных величин
Две случайные величины Х и У называют кор
релированными, есл и их корреляционный момент (или,
что то же., коэффициент коррел яции) отл ичен от нуля;
Х и У называют некоррелированными величинами , если
их корреляционный момент равен нулю.
Две коррелированные величины также и зависимы.
ДействителЫiо, допустив противное, мы должны заклю
чить, что μху = О, а это противоречит условию, так как
для коррелированных величин μху =#= О .
Обратное предположение не всегда имеет место , т. е .
есл и две величины зависимы, то они могут быть как
коррелированными, та к и некоррелированными. Дрvrими
179
словами, корреляционный момент двух зависимых вел и
чин может быть не равен нулю, но может и равняться
нулю.
Убедимся на примере, что две зависимые величины
могут быть некоррелированными .
Пример. Двумерная случай ная величина (Х, У) задана плот
ностью распределения:
.f(x, у) =l/6л внутри эллипса х2/9 +у2/4 =1;
f (х, у) =0 вне этого эллипса.
Доказать, что Х и. У - зависимые некоррелированные величины.
Реш е н и е. Воспользуемся ранее вычисленными плотностями
распредt>ления составл яющих Х и У (см. § 12):
f1 (x) = g� V9-x2, /2 (у) =2� У 4 у2 внутри заданного эл лип-
са и f1 (х)=О, f2 (у)=О вне его.
Так как f(х, у) :;6f1(х)f2(у), то Х и У-зависимые величины
(см. § 16).
Для того чтобы доказать некоррелированность Х и У, доста
точно убедиться в том, что J.Lxy = O. Найдем корреляционный момент
по формуле (см . § 17)
0000
μху= � � [x-M(X))[y-M(Y)Jf(x, y)dx dy.
-оо -QO
Поскольку функция f1 (х) симметрична относительно оси Оу, то
М (Х) =0; аналогично, М (У) =0 в силу симметрии f. (у) относи
тельно оси Ох. Следоваrельно,
"'
00
μху= S � xyf(х, у)dxdy.
-ею -с;ю
Вынося постоянный множитель f (х, у) за знак интеграла, получим
Внутренний · интеграл равен нулю (подынтегральная функция нечЕ>тна,
пределы интегрирования симметричны относительно начала коорди
нат), следовательно, J.Lxu =O, т
.
е . зависимые случайные величины Х
и У некоррелированы.
Итак, из ко ррелиров� нности двух сл учайных вел и чин·
следует их зависимость, но из зависимости еще не вы
текает коррелированность. Из независимости двух вел и
ч ин следует их некоррелированность, но из некоррели
рованности еще нельзя заключить о независимости этих
веJI ИЧИН.
t80
Заметим, однако, что из некоррелированности нор
мально распределенных величин вытекает их независи
мость . Это утверждение будет доказано в следующем
параграфе .
§ 19. Нормальный закон распределения
на плоскости
На практике часто встречаются двумерные сл у
чайные величины, распределение которых нормально.
Нормальным законом распределения на плоскости на
зывают распределение вероятностей двумерной случайной
величины (Х, У), если
хе
1
f(х, у)=
zх
2naxay V 1 -rxy
--
-
+--
-
-2r----
1
[(х-а1)2 (у-а2)2
х-а, у-о•]
2 (1-r�y)
о;
oz
хуох o!I
(*)
Мы видим, что нормальный закон на плоскости опре
деляется пятью параметрами : а1 , а
2
, ах, ау и rху· Можно
доказать, что эти пара метры имеют следующи й вероят
ностный смысл : а1 , а2 - математические ожидани я , ах,
ау - средние квадратические отклонения, r ху - коэффици
ент корреляции вел ичин Х и У .
Убедимся в том, что если составляющие двумерной
нормально распределенной случайной величины некорре
лированны, то они и независимы. Действительно, пусть Х
и У некоррелированиы. Тогда , полагая в формуле ( *) rху = О ,
пол учим
f(х,у)=
1
·
e-o.r; [(х - a,)•jo;+(y -a,)•joz]
=
2naxay
--
-
·
е
-(х- а,>2/( 20;)
.
l
e-(y-az>•/(2oz) =f (x) f ( ).
-0x Jl'2n
u11 Y2n
1
2У
Таким образом, если соста вляющие нормально рас
пределенной случайной величины некоррелированны, то
плотность совместного Р. аспределен ия системы равна
произведению плотностей распределения составляющих,
а отсюда и следует независимость составляющих (см. § 1 6).
Справедливо и обратное утверждение (см. § 18).
Ита к, для нормально распредел енных составляющих
двумерной случа йной величины понятия независимости
и некоррелированности равносил ьны.
181
3 а мечани е. Используя формулы (*) и (**) § 12, можно до
казать, что если двуме рная случайная величина распределена нор
мально с параметрами а1, а
2
, О;р Оу, r ху• то ее составляющие также
распределены нормально с параметрами, соответственно равными а1 ,
Охиа2,Оу·
§ 20. Линейная регрессия. Прямые линии
среднеквадратической регрессии
Рассмотрим ·двумерную случа йную величину
(Х, У), где Х и У -за висимые случайные величины. Пред
ста вим одну из величин как функцию другой. Ограни
чимся пр11ближенным предста влением (точное приближе
ние, вообще говоря, невозможно) величины У в виде
линейнойфункциивеличиныХ:
У�g(x)=aX+Р.
где а и Р-параметры, подл ежащие опреде.11ению. Это
можно сделать различными способами : наиболее употре
бител ьный из них -метод наименьших квадратов.
Функцию g(X) = аХ +Р называют «наилучшим при
ближением» У в смысле метода наименьших квадратов,
если математическое ожидание М [У -g (Х)]2 принимает
наименьшее возможное значен ие; функцию g (х) называют
средн еквадратической регресси ей У на Х .
Теорема. Линейная средняя ква дратическая регрессия У
на Х имеет вид
Оу
g(Х)=ту+rа(Х-тх),
х
где тх=М(Х), ту=М(У), crx=VD(Х), cry=VD(У),
r = μху/(ахау) - коэф{рициент корреляции величин Х и У.
Док а затель ств о. Введем в рассмотрение функцию
двух независимых аргументов а и р:
F(а, Р)=М[У-a-PXJ�.
(*)
Учитывая, что М(Х-тх)=М(У-ту)= О, М[(Х-тх)Х
Х (У - ту)] = μху = Г<1х<1у, и выполнив выкладки, пол.учим
F(а, Р)=crz+p2cri-2raxay�+(ту-а -Ртх)2•
Исследуем функцию F (а, р) на экстремум, дл я чего
приравняем нулю частные производные:
182
{дF
R
0
Jда = -2(ту-а-t'тх) = ,
l��= 2pcr;-2raxay = О.
Отсюда
Легко убедиться, что при этих значениях а и Р рассмат
риваемая функция принимает наименьшее значение.
Итак, линейная средн яя квадратическая регрессия У
и Х имеет вид
или
Оу
Оу
g(X)=а.+�Х=тУ-r -
0
тх+rа-Х,
х
х
о
Коэффициент р = r _!
!_
называют коэффициентом ре-
ох
грессии У на Х, а прямую
Оу
у-т
у
= r-(х-тх)
( **)
Ох
Rазывают прямой среднеквадратическ о й регрессии У на Х.
Подста вив найденные значения а и р в соотношение ( * ),
пол учим минимальное значение функции F (а, �). равное
oz ( l -r2). Величину oz ( l -r2) называют остаточной дис
п ерсией сл уч айной вел ичины У относ ител ьно случайной
величины Х; она характеризует вел ичину ошибки , кото
рую допускают при замене У линейной функцией g (Х)=
= а. + рх . При r = +1 остаточная дисперсия равна нулю;
другими словами , при этих крайних значениях коэффи
циента корреляци и не возникает ошибки при представ
.'l ении У в виде линейной функции от Х .
Итак, если коэффициент корреляции r = ± 1, то У и Х
связаны линейной функциональной зависимостью .
Аналогично можно получить прямую среднеквадрати
ческой регрессии Х на У :
о
х-тх = r_lf._(У-тУ")
( ***)
Оу
(r �= - коэффициент регрессии Х на У) и остаточную
дисперсию о� ( l -r2) величины Х относительно У.
Если r = ± 1, то обе прямые регрессии, как видно
из ( **) и (***), совпадают .
Из уравнени й (**) и ( ***) следует, что обе прямые
регрессии проходят через точку (тх ; ту), которую назы
вают центром совместного распределения велич ин Х и У.
183
§ 21. Линейная корреляция. Нормальная·
коррел яция
Рассмотрим двумерную случайную вел ичину
(Х, У). Если обе функции регрессии У на Х и Х на У
линейны (см. § 15), то говорят, что Х и У связаны ли
нейной корреляционной зависимостью. Очевидно, что гра
фюш линейных функций регресс ии - прямые линии, причем
можно доказать, чт о они совпадают с прямыми средне·
квадратической регрессии (см. § 20). Имеет место следу
ющая важная теорема.
Теорема . Если двумерная случайная величина (Х, У)
распределена н ормально , то Х и У связаны линейной
корреляц ионной зависимостыо .
Док азател ь ств о. Двумерная плотность верQят
ности (см . § 19)
где
f (х, у)=
'>
1
2
e-<иz+v• -2ruv)/(2 (1-r•)),
(*)
�лахоу YI-г
U=(X-a1)/ax, и = (у-а2)/а".
(**)
Плотность вероятности составляющей Х (см. § 19,
замечание)
f()
1
е-и•/2
1х=
,r
·
Охf2л
(***)
Найдем функцию регрессии М (У 1 х), дл я чего сначала
найдем условный закон расп ределен и я величины У при
Х =Х lсм. § 14, формула (**)]:
ф(у1х)=f(х,у).
f1 (х)
Подставив (*) и ( **) в правую часть этой формулы и
выполнив выкладки, имеем
ф(у1х) =
1 e-<v-ru)1/(2 <1-r•н
.
yz:п:av
.
.
Замен ив и и и по формулам (**), окончательно получим
184.
1
ф(у/х) = (o�Yl-r
2
)Y2n
е
Полученное условное расп ределение нормально с ма
тематическим ожиданием (функцией регрессии У на Х)
а
М(У\х)=а1+г_!
!_
(х -а1)
f1x
и дисперсией о; (l -r2 ).
Аналогично можно получить функцию регрессии Х
на У:
М(ХIY)=a1+г
ох
(у-а11)·
ау
Так как обе функции регрессии линейны, то корре
ляция _между вел ичинами Х и У линейная, что и требо
валось доказать.
Принимая во внимание вероятностный смысл пара
метров двумерного нормального расп ределен ия (см. § 19),
заключаем , что уравнения прямых рег рессии
ау
(
·
ах
у-а1 = Г- х -а1), x-a1 = r-(y-a1)
ах
Оу
совпадают с уравнениями прямых среднеквадратической
регрессии (см. § 20).
Задачи
1. Найти законы распределения составл11ющих J{искретной
.-.вуме рной случайной величины, заданной законом распределения
11х1
у
1
1
х,
х.
Ха
У1
0,12
0,18
0.10
Уа
O,IO
0, 11
0,39
Om8. Х Х1
Xz
Ха
УYt
Уа
р 0,22 0,29 0 ,49 р 0,40 0,60
2. Найти вероятность того, что составляющая Х двумерной слу
чайной величины примет значение Х < 1/2 и при этом составляю
щая У примет значение У < 1/3, если известна функция распреде
ления с·истемы
F(x, у)= (�arctg 2х+ �)(�arctg3u+�).
Oms. Р(Х < 1/2, У < 1/3)=9/16.
3. Найти вероятность попадания случайной точки (Х; У) в цря
моуrольник, ограниченный прямыми х =n/4, х =·n/2, g = n/6, g = п./3,
185
если известна функция распределения
F(x, y)=sinхsinу(OE;
;;
;
xE;
;;
;
n/2, ОЕ;
;;
;
уЕ;
;;
;
л/2).
Отв. Р (n/4 < Х < n/2, л/6 < У<л/3)=0,11.
4. Найти плотность распределения системы двух случайных ве
личин по известной функции распределения
F(х, у)=(1-е-2Х)(1-е
-
ЗУ) (х:,;:;
;:.
О, у:,;:;
;:.
О).
а2р
Отв. f (х, у)=а
х
ау=6е - <2Х+зи> .
5. Внутри прямоугольника , ограничен ного прямыми х=О,
X = n/2, у=О, y=n/2, плотность распределения системы двух слу
чайных величин f (х, у) =С sin (х +у); вне прямоугольника f (х, у) =О.
Найти: а) величину С; б) функцию распределения системы.
Отв. а) С=О,5; б) F(x, y) =0,5 [sin x +sin y- sin (x+y)]
(OE;
;;
;
xE;
;;
;
n/2, OE;
;;
;
yE;
;;
;
n/2).
6. Система двух случайных величин расп ределена равномерно:
в прямоугольнике, ограниченном прямыми х=4, х =6, у= 10, у=15,
функция f (х, у) сохраняет постоянное значение, а вне этого прямо
угольника она равна нулю. Найти: а) плотность f (х, у) совместного
распределения; б) функцию распределения системы .
_
{0, 1 внутри прямоугольника,
Отв. а) f (х, У) - О вне прямоугольни ка;
б) F( )- (х-4)(у-10)
х,у-
10
•
7. Плотность совместного распределения системы двух сJ1учайных
величин f (х, у)
(4+x2)�g+y2) . Найти: а) величину С; б) функ
цию распределения системы.
Отв.а)C=6/n2;б)F(х, у)=(�arctg �+;)(�arctg �+;.) .
8. Двумерная с.'!учайная величина задана плотностью совмест
ного распределения
f(х, у)=
3У3 е-4х2-вху-9у2•
n
Найти условные законы распределения составляющих.
( з).
2 - 2х+2У
Отв. ер(х1у)=fn е
Ч АСТЬ ТРЕТЬЯ
ЭЛЕМЕНТЫ МАТЕМАТИ ЧЕСl(ОЙ
СТАТИСТИК И
Глава пятнадцатая
ВЫБОРОЧН Ы Й МЕТОД
§ 1. Задачи математической статистики
Установление закономер ностей , котор ым подчи
нены массовые случайные я вления, основано на изучении
методами теор ии ве ро ятностей статистических данных --
-:
результатов наблюдений.
Пер вая задача математической статистики - указать
способы сбор а и г р уппировки <.;.
.
Татистических сведений,
полученных в результате наблюдений или в результате
специально поставленных экспер иментов .
Втор ая задача математической статистики --:-
-
р азрабо
тать методы анализа статистических данных в зависи
мости от целей исследования . Сюда относятс я:
а ) оценка неизвестной ве роя тности события ; оценка
неизвестной функции р асп ределения ; оценка па раметр ов
расп ределен ия, вид которо го известен; оценка зависи
мости случайной величины от одной или нескольких
случайных величин и др .;
б) проверка статистических гипотез о виде неизвест
ного расп ределения или о величине параметров распре
деления , вид которого известен .
Современная математическая статистика разрабатывает
способы опр еделени я числа необходимых испытаний до
начала исследования ( планир ование эксперимента) , в ходе
исследования (последовател ьный анализ) и решает многие
др угие задачи. Сов ременную математическую статистику
определяют как науку о п ринятии решений в условиях
неопр еделенности .
Итак, задача математической статистики состоит в со
здании методов сбор а и обр аботки статистических данных
для получения научных и п рактических выводов.
187
§ 2. Кратка я историчес кая справка
Математическая ста тистика возникла (XVII в.)
и разви валась па раллельно с тео рией вероятностей. Даль
нейшее развитие математичес кой статисти ки (вторая по
ловина ХIХ- начало ХХ в.) об язано, в первую очередь ,
П.
· Л. Чебышеву, А. А. Маркову, А. М. Ляпунову, а
также К. Гауссу, А. Кетле, Ф. Гальтону, К. Пирсону
и др.
В ХХ в. на иболее существенный вклад в математи
ческую статистику был сдел ан советскими математи ками
(В. И . Романовск ий, Е. Е . Слуцкий, А. Н. Колмогоров,
Н. В . Смирнов), а также английскими (Стьюдент, Р. Фи
ше р, Э. Пирсон) и американскими (Ю. Нейман, А. Вальд)
учеными .
§ 3. ГенерЗJ
J
ьная и выборочная совокупности
Пусть требуется изучить совокупность однород
ных объектов относительно некоторого к а честве н
и ого или количестве н н·о го призиа ка, характе
ризующего эти объекты . Например, если имеется па ртия
деталей , то качественным признаком может служить
станда ртность детал и, а количественным - контролируе
мый размер детали.
Иногда проводят сплошное обследо вание" т. е. обсле
дуют к а ж д ы й из объектов совокупности относительно
пр изнака, которым интересуются . На практике, однако,
сплошное обследо вание применяют сравнител ьно редко.
Например, если совоку пность содержит очень большое
число объектов, то провести сплошное обследование фи
зически невозможно. Есл и обследов ание объекта связано
с его ун ичтожением или требует больших материальных
затрат, то проводить сплошное обследова ние практически
не имеет смысла . В та ких случаях сл учайно отбирают
из всей совокупности ограниченное число объектов и
подвергают их изу чению.
Выборочной совокупност ью или просто выборкой назы
в ают совокупность случайно отобранных объектов.
Генеральной совокупностью называют совокупность
объектов, из которых производится выборка .
Объе мом совокупности (выборочной или генеральной)
называют число объектов этой . совокупности . Например ,
если из 1000 деталей отобрано для обс.ледования 100 де-
188
талей, то объем генеральной совокупности N = 1000, а
объем выборки п = 100.
3 а мечани е . Часто генеральная совокупность содержит ко
нечное число объектов . Од нако если это число достаточно вел ико, то
иногда в целях упрощения вычислений , или дЛЯ облегчения теоре
тических выводоа, доп ускают, что rенеральная совокупность состоит
из бесчисленного множества объектов. Такое допущение оправды
вается тем, что увеличение объема генеральной совокупности (доста
точно большого объема) практически не сказываетс я на результатах
обработки данных вьrборки.
§ 4 . Повторная и бесповторная выборки.
Репрезентат и вная выборка
При аоста влении выборки можно поступать двумя
способами : после того как объект отоб ран и над ним
произведе но н аблюдение, он может быть возвращен либо
не возвращен в ген е ральную совокупность. В соответствии
со сказанным выборки подразделяют на повторные и бес
повторные.
Повторной н азывают выборку , при которой отоб ран
ный объект (пе ред отбором следующего) возвращается
в генеральную совокуп ность.
Бесповторной называют выборку, при кот орой отоб ран
ный объект в г�неральную совокупность не возвращается .
На практике обычно полБЗуются бес повторным слу
ча йным отбором.
Для того чтобы по данным выборки можно было до
статочно уве ренно судить об интересующем признаке
генеральной совокупности, необходимо, чтобы объекты
выборки правильно его предс·rавляли . Другими словам11 ,
выборка должна правильно предста влять пропорции гене
ральной совокупности . Эrо требование коротко формули
руют так : выборка должна быть репрезентативной (пред
ставительной).
В силу закона больших чисел можно утверждать, что
выборка будет ре п резентативной , если ее осуществить
случайно: каждый объект выборки отоб ран случайно из
генеральной совокуп ности , если все объекты имеют оди
наковую вероятность попасть в выборку.
Если объем генеральной совоку пности достаточно ве
лик, а выборка составляет лишь незначительную часть
этой совокупности , то различие между повторной и бес
повторной выборками стираетсЯ ; в предельном случае,
189
когда рассматривается бесконечная генеральная совокуп
ность, а выборка имеет конечный объем, это различие
исчезает.
§ 5. Способы отбора
На практике примен яются р азличные способы
отбор а. Принципиально эти способы можно подразделить
на два вида :
1. Отбор, не требующий расчленения генеральной со
вокупности на части. Сюда относятся: а) простой слу
чайный бесповторный отбор; б) простой случайный по
вторный от бор .
2 . Отбор, при котором генеральная. совоку пность раз
бивается на части . Сюда относятся : а) типический отбор ;
б) механический отбор; в) серийный отбор.
Простым случайным называют такой отб ор , при ко
тором объекты извлекают по одному из всей· генераль
ной совокупности. Осуществить простой отбор можно
различными способами . Например, для извлечения п объ
ектов из генеральной совокупности объема N поступают
так: выписывают номера от 1 до N на карточках , которые
тщательно перемешивают, и наугад вынимают одну ка р
точку; объект, имеющий оди наковый номер с извлеченной
ка рточкой , подве ргают обследованию;· затем карточку
возвращают в пачку и процесс повторяют; т. е . карточки
перемешивают, наугад вынимают одну из них и т. д. Так
поступают п раз; в итоге получают простую случайную
повторную выборку объема п.
Если извлеченные карточки не возвращать в пачку,
то выборка является п р остой случайной бесповторной .
При большом объеме генеральной совокупности опи
санный процесс оказывается очень трудоемким. В этом
случае пользуются готовыми таблицами «слу чайных чисел»,
в которых числа расположены в случайном порядке. Для
того чтобы отобрать, например, 50 объектов из пронуме
рованной генеральной совокупности , открывают любую
стр аницу таблицы случайных чисел и выписывают под
ряд 50 чисел ; в выборку попадают те· объекты, номера
которых сов падают с выписанными случайными числами .
Если бы оказалось, что случайное число таблицы пре
вышает число N, то та кое случайное число пропускают.
При осуществлении бесповторной выборки случайные
числа таблицы, уже встречавшиеся ранее , следует также
пропустить.
190
Типически м называют отбор, при котором объе кты
отби раются не из всей генеральной совокупности, а из
каждой ее «типи ческой» части . Напр име р, если детал и
изготовляют на нескольких станках , то отбор производят
не из всей совокупности деталей, произведенных всеми
станками , а из продукци:и
.к аждого станка в отдм ьности.
Ти пичес ким отбором пользуютс я тогда , когда обследуемый
признак заметно .колеблется в различных тппически х
частях генеральной со вокупности . Например, есл и про
дукци я изготовляется на нескольких машинах, среди
которых есть более и менее изношенные, то здес ь ·ти пи
ческий отбор целесообразен.
Механическим называют отбор, при котором генераль
ную совоку пность «мех анически » дел ят на стол ько групп,
сколько объектов должно войти в выборку , а из каждой
группы отбирают один объект. Например, есл и нужно
отоб рать 20 % изготовленных станком дет алей, то отби
рают каждую пятую дет аль; если требуется отобрать
5% детал ей, то о\fбирают каждую двадцатую дета ль, и т. д.
Сп:едует указать, что иногда механ ический отбор может не
обес печить реп резентативности выборки. Например, есл и
отб и рают каждый двадцаты й обтачиваемый вал ик, п р ичем
сразу же после отбора производят замену резца, то
отоб ранными окажутся все валики , обточенные затуплен
ными резцами . В таком случае следует устранить совпа
дение ритма от бора с ритмом замены резца, для чего
надо отби рать, скажем, каждый десятый вал ик из двад
цати обточенных .
Серийным называют отбор, при котором объекты от
би рают из генеральной совок упности не по од ному , а
«сериями», которые подвергаются сплошному обследова
нию. Например, если издел и я изготовляются большой
группой ст анков-автоматов, то подвергают сплошному
обследованию продукцию тольI<о нескол ьких станков.
Серийным отбором пользуются тогда, когда обследуемый
признак колеблется в различных сериях незначитель
но.
Подче ркнем, что на ·практике часто ·п р именяется ком
бинированный отбор, при котором сочетаются указанные
выше способы . На пример, иногда разби вают гене ральную
совоку п ность н а сери и оди накового объема, затем простым
случайным отбором выбирают :нескол ько серий и, наконец,
из каждой серии простым случайным отбором извлекают
отдельные объекты .
191
§ 6. Статистическое распределение выборки
Пусть из генеральной совокупности извлечена
выборка. причем х1 наблюдалось п1 раз, х2 - п 2 раз,
xk -nk раз и � n; =n- объем выборки. Наблюдаемые
значени я Х; называют вариантами , а последовател ьность
вариант. записанных в воз растающем порядке, - ва риа·
ционным рядом . Числа наблюдений называют частотами .
а их отношения к объему выборки п1/п = W; - относи
тел ьны.ии част ота ми .
Стат ист ическим распределен ием выборки называют пе
речень ва риант и соответствующих им частот или относи·
тельны х частот. Статистическое расп ределение можно за
дать также в виде последовател ьн ости и нтервалов и соответ·
ствующих им частот (в качестве частоты , соответствующей
интервал у, принимают сумму частот , попавших в этот
интервал) .
Заметим, что в теории вероятностей под распределением
пони мают соответствие между возможными значениями
случайной величины и их вероятностями , а в математи
ческой статистике - соответствие ме жду наблюдаемыми
вариантами и и х частотами, или относительными частотами .
Пример. Задано распределение частот выборки объема п = 20:
Х;2612
n;З107
Написать распределение относительных частот.
Решение. Найдем относительные частоты , для чего разделим
ч астоты на объем выборки:
W1= 3/20=0,15, W2 = I0/20=0,50, W8= 7/20=0,35.
Напишем распределение относительных частот:
Xj
2
6
12
W; 0,15 0,50 0,35
Контроль: o,1s+o.so+o,З5=1.
§ 7. Эмпиричеокая функция распределе ния
Пусть известно статистическое распределение ча
стот кол ичественного признака Х . Введем обозначени я:
nх - число наблюдений, при которых наблюдалось значен ие
признака , меньше� х; n - общее число наблюдений (объем
выборки ). Ясно, что относител ьная частота событи я Х < х
равна nx/n. Если х изменяется , то, вообще говоря , из
ме няетс я и относител ьная частота, т. е. относительная
192
частота пх/п есть функция от х. Так как эта функция
находится эмпирическим (опытным) путем, то ее называют
эмпи рической .
Эмпир ическо й функцией распределения (функцией рас
пределения выборки) называют функцию F* (х), опреде
ляющую для каждого значения х относител ьную частоту
события Х < х.
Итак, по определению,
F*(х)= nxfn,
где пх - число вариант, меньших х; п-объем выборки .
Таким образом, для того чтобы найти, например, F*(x2 ),
надо числ о вариант, меньших х2, разделить на объем
выборки :
В отл ичие от эмпирической функции распределения
выборки функцию распредел ения F (х) гене ральной сово
купности называют теоретической функц ией распределе
ния . Разл ичие между эмпирической и теоретической функ
циями состоит в том, что теоретическая функция F (х)
определяет вероятность события Х < х, а эмпирическая
функция F* (х) определяет относител ьную частоту этого
же события. Из теоремы Бернулли следует, что относи
тельная частота события Х < х, т. е. F* (х) стремится по
вероятности к вероятности F (х) этого события . Другими
словами, при больших п числа F* (х) и F (х) мало отл и
чаются одно от другого в том смысле, что lim Р [ 1 F (х)-
п-+ф
-F* (х) 1<е]= 1 (е >О). Уже отсюда следует целесооб
разность использования эмпирической функции расп реде
ления выборки для приближенного представления теоре
тической (интеграл ьной) функции распределения гене
рал ьной совокупности .
Такое заключение подтверждается и тем, что F* (х)
обладает всеми свойствами F (х) . Действител ьно, из оп ре
деления функции F* (х) выте кают следующие ее свойства :
1 ) значения эмпирической функции принадлежат от
резку [О, 1];
2 ) F* (х) - неубывающая фу нкция;
3) если хi - наименьшая варианта, то F* (х) = О при
х�х1; если хk -наибольшая варианта, то F* (x) = 1 при
x>xk.
7-2 10
193
Итак, эмпир ическая функция р асп ределения выбор ки
служит для оценки теоретической функции р асп редел ения
Генер альной совокупности .
Пример. Построить эмпирическую функцию по данному распре
делению выборки:
F*(x)
варианты Xj
261О
частоты ni
121830
Реш е н и е. Найдем объем
выборки: 12+18+30=60.
Наименьшая варианта равна 2,
следовател ьно,
F* (x) =O при х�2.
Значение Х < 6, а именно
х1 =2, наблюдалось 12 раз,
' сл едовательно,
-;
;,+-�г;:
==
=�в�
��,о�
��
��к
Рис. 19
F* (х) = 12/60 =0,2 при
2<х�6.
Значения Х < 10, а именно х1 =2 и х2 = 6, наблюдались 12 +
+ 1 8=30 раз, следовательно,
F* (х) =ЗО/60 =0,5 при 6<х.,.;
;;
10.
Так как Х = 1 0-наибол_�шая варианта, то
F•(х)=1 при х> 10.
Искомая эмпирическая функция
1о
р (Х)={ 0,2
0,5
1
при
при
при
при
х�2.
2<хо;
;;
;;
б,
6<хЕО;
;
IO,
х>10.
График этой функции изображен на рис. 19.
§ 8. Полигон и гистограмма
Для наглядности строят р азличные г рафики ста
тистического распределения и, в частности, п олигон и
гистограмму.
Полигоном частот называют ломаную, отрезки которой
соединяют точки (х1; п1), (х2; п2), •••, (xk; tik). Для -по
строения полигона частот на оси абсцисс откладывают
ва рианты xi • а на оси о рдинат- соответствующие им
частоты ni . Точки (xi; ni) соеди няют отрезками прямых
и получают полигон частот.
Полигоном относительных часпi от называют ломаную,
отрезки которой соединяют точки (х1; W1), (х2 ; W2), •••
194
• .•, (xk ; Wk). Для построения полигона относительных
частот на оси абсцисс откладывают варианты xi , а на
оси ординат - соответствующие им относительные ча
стоты Wi. Точки (xi ; Wi) соеди няют отрезками прямых
и полу чают полигон о rно
сительных частот .
На рис. 20 изобр ажен
полигон относител ьных ча
стот следующего распре
деления:
х 1,5 3,5 5,5 7,5
w о,1 0,2 0,4 0,3
1
1-
-.1-
-
'
�
..i.
..
..->-
'
1
�
·
1
�
·
1�
·
Jfl
о
23,5
678
Рис. 20
В случае непрерывного признака целесо
образно строить гистограмму, для чего интервал, в ко
тором заключены все наблюдаемые значения признака,
разбивают на несколько частичных интервалов дл иной h
7
6
5
3
2
о5··101�2025зоз5'о
Рис. 21
и находят для каждого
частичного интервала
пi - сумму частот вари
ант, попавших в i-й
интервал .
Г истограммой ча-
стот называют ступен
чатую фигу ру, состоя
щую из прямоугольни
ков, основаниями кото
рых служат частичные
интер валы длиною h, а
высоты равны отноше
нию n1/h (плотность ча
стоты).
Для построения гистограммы частот на оси абсцисс
откладывают частичные интервалы, а над ними проводят
отрезки , параллельные оси абсцисс на расстоянии n1 /h.
Площадь i-го частичного прямоугольника равна
hn1 /h = пi -сумме частот вариант i-го интервала; следо
вательно, площадь гистограммы част от равна сумме всех
частот , т. е . объему выборки .
На рис. 21 изображена гистограмма частот распреде
ления объема п = 100, приведенного в табл . 6 .
Гистограммой относительных частот называют сту
пенчатую фигуру, состоящую из прямоугольников, осно
ваниями которых служат частичные интервалы длиною h,
195
а высоты равны отношению Wi/h (плотность относитель
ной частоты).
Для построения гистограммы относительных частот
на оси абсцисс откл ады вают частичные интервалы, а над
Частичный и нтерва.n
частичного интер-
/Сумма частот вариант'
.ц.nиною h=5
ва.nа n;
5-10
4
10-15
6
15-20
16
20-25
36
25-30
24
30-35
10
35-40
4
Таблица 6
П.nотность
частоты n;/h
0,8
1,2
3,2
7,2
4,8
2,0
0,8
ними проводят отрезки, параллельные оси абсцисс на
расстоянии W;/h. Площадь i-го частичного прямоуголь
ника равна hW;/h = W; - относительной частоте вариант,
попавших в i -й интервал . Следовател ьно, площадь гисто
грамм ы относительных частот равна сумме всех отно
сительных частот , т. е . единице.
Задачи
1. Построить график эмпирической функции распределения
Xj571015
n12387
2. Построить полигоны частот и относительных частот распре·
деления
Xt
13579
n11015303312
3. Построить гистограммы частот и относительных частот рас
пределения (в первом столбце указан частичный интервал, во вто
ром -сумма частот вариант частичного интервала)
196
2-5
9
5-8 1О
8-11 25
11-14 6
Глава шестнадца тая
СТАТИСТИЧЕСК И Е ОЦЕНКИ ПАРАМЕТРОВ
РАСПРЕДЕЛЕНИЯ
§ 1. Статистические оценки параметров
распределения
Пусть требуется изучить количественный признак
генеральной совокупности . Допусти м, что из теоретичес
ких соображений удалось установить, какое именно рас
пределение имеет признак . Естественно возникает задача
оценки параметров, кото рыми определяется это распреде
ление. Например , если наперед известно, что изучаемый
признак распределен в генеральной совокупности нормаль
но, то необходимо оценить (приближенно найти) матема
тическое ожидан ие и среднее квадратическое отклонение,
так как эти два параметра полностью определ яют нормаль
ное распределение; если же есть основания считать , что
признак имеет, на пример, распределение Пуассона, то
необходимо оценить параметр Л, которым это распреде
ление определяется .
Обычно в распоряжен ии исследователя имеются лишь
данные выборки, например значения кол ичественного при
знака х1 , х2 , •••, хп , полученные в результате п наблюде
ний (здесь и далее наблюдения предполагаются независимы·
ми). Через эти данные и выражают оцениваемый параметр .
Рассматривая х1, х2 , •• •, хп как независимые случайные
величины Хн Х 2 , •••, Хп, можно сказать, что найти
статистическую оцен ку неизвестного параметра теоретиче
ского распределения - это значит найти функцию от
наблюдаемых случайных величин, которая и дает при
ближенное значение оцениваемого параметр а. Например,
как будет показано далее, для оцен ки математического
ожидания нормального распределения служит функция
(среднее арифметическое наблюдаемых значений призн ака)
Итак, статистической оценкой неизвестного пара
метра теоретического распределения называют "функцию
от наблюдаемых случайных величин.
197
§ 2. Несмещенные, эффективные и состоятельные
оценки
Дл я того чт,обы статистические оценки давал и
«хорошие» приближения оцен иваемых параметров, он и
должны удовлетворять определенным: требованиям. Ниже
указаны эти требования.
Пусть 0"' - статистическая оценка неизвестного пара
метра 0 теоретического распределения. Допустим, что
по выборке объема п найдена оценка 0�. Повторим опыт,
т. е. извлечем из генеральной совокупности другую вы
борку того же объема и по ее данным найдем оценку 0;.
Повторяя опыт многократно, получим числа 0�. 0;, .. ., 0,;,
которые, вообще говоря, различны между собой. Таким
образом, оценку 0"' можно рассматривать как случайную
величину, а числа 0�. 0;, .. ., 0k - как ее возможные
значения.
Предста вим себе, что оценка 0"' дает пр иближенное
значение 0 с избытком; тогда каждое найденное по дан
ным выборок число 0; (i = 1, 2, . ..• k) больше истинного
значения 0. Ясно, что в этом случае и математическое
ожида ние (среднее значение) случайной величины 0"' боль
ше, чем 0, т. е. М(0"')>0. Очевидно, что если 0"' дает
оценку с недостатком, то М (0"') < 0.
Таким образом, использование статистической оцен ки,
математическое ожидание которой не равно оцениваемом у
nараметру, привело бы к систематическим • ) (одного знака)
ошибкам. По этой причине естественно потребовать, чтобы
математическое ожидание оцен ки 0"' было равно оцен ива
емому параметру. Хотя соблюдение этого требован ия не
устр анит ошибок (одни значения 0"' больше, а другие
меньше 0), однако ошибки разных знаков будут встреча1 ь
ся од инаково часто. Иными словами, соблюдение требова
ний М (0*) = 0 гарантирует от получен ия систематически х
ошибок.
Несмещенной называют �татистическую оценку0"', мате
матическое ожида ние которой равно оцениваемому пара
метру 0 при любом объеме выборки , т. е.
м (0*) =0.
*) В теории ошибок измерений систематическими ошибками назы
вают неслучайные ошибки, искажающие результаты измерений в одну
определенную сто рону. Например, измерение длины растянутой рулет
кой систематически дает заниж�нные результаты.
198
Смещенной называют оцен ку, математическое ожидание
1ю торой не равно оцениваемому параметру.
Однако было бы ошибочным считать, что несмещенная
оценка всегда дает хорошее приближение оцениваемого
параметра. Действител ьно, возможные значения 0* могут
быть сильно рассеяны вокруг своего среднего значения,
т. е . дисперсия D (0*) может быть значительной. В этом
случае найденная по данным одной выборки оценка, на
пример 0�, может оказаться весьма удаленной от среднего
значения 0•, а значит, и от самого оцениваемого пара
метра 0; приняв 0� в качестве приближенного значения 0,
мы допустили бы большую ошибку. Если же потребовать,
чтобы дисперсия е• была малой, то возможность допустить
большую ошибку будет исключена. По этой причине к
статистической оценке предъявляется требование эффек
тивности .
Эффективной называют статистическую оценку, которая
(при заданном объеме выборки п) имеет наименьшую воз
можную дисперсию.
При рассмотр ении выборок большого объема (п вели
ко !) к статистическим оценкам предъявляется требование
состоятельности.
Состоятельной называют статистическую оценку, кото
рая при п --+ оо стремится по вероятности к оцениваемому
параметру. Например, если дисперсия несмещенной оцен ки
при п--+оо -стремится к нулю, то такая оценка оказы
вается и состоятельной.
§ 3. Генеральная средняя
Пусть изучается дискретная генеральная совокуп
ность относител ьно кол ичественного признака Х .
Генеральной средней Хг называют среднее арифметичес
кое значений признака генеральной совокупности.
Если все значения х1 , х2 , •••, XN признака генераль
ной совокупности объема N разл и ч ны, то
Хг=(Х1+х2+ ...+xN)/N.
Если же значения признака х1 , х2 , •••, xk имеют
соответственно частоты N1, N 2 , •••, Nk, причем N1 +
+N2+...+Nk=N,то
Хг = (x1N1 +x2N2 + ...+xkNk)/N,
199
т. е . генерал ьная средн яя есть средн яя взвешенная зна
чен ий признака с весами, равны ми соответствующи м ча
стотам .
3 а м е ч а н и е. Пусть генеральная совокупность объема N со
держит объекты с различными значениями признака Х, равными
х1 , х2 , • • • , хм Представим себе , что из этой совокупности наудачу
извлекается один объект. Вероятность того, что будет извлечен сбъект
со значением признака , например х1, очевидно, равна l/N. С этой
же вероятностью может быть извлечен и любой другой объект. Таким
образом, вел ичину признака Х можно рассматривать как случайную
величину, возможные значения которой х1, х2 , •••, Хп имеют одина
ковые вероятности,равные 1 /N. Найдем математи ческое ожидание М(Х):
M (X) =X1 • l/N +x2 ·1/N+ ...+xNol/N =(x1 -t x2 + ...+xN)/N =xг.
Итак, если рассматривать обследуемый признак Х генеральной
совокупности как случайную величину, то математическое ожидание
признака равно генеральной средней этого признака:
М (Х) =хг.
Этот вывод мы получили, считая, что все объекты генеральной
совокупности имеют различные значения признака. Такой же итог
будет получен , если допустить , что генеральная совокупность содер
жит по нескольку объектов с одинаковым значением признака .
Обобщая полученный результат на генеральную совокупность
с непрерывным распределением признака Х, и в этом случае опре
делим генеральную среднюю как математическое ожидание признака:
Хг=М(Х).
§ 4. Выбороч ная средняя
Пусть дл я изучения генеральной совокупности
относител ьно коли чественного признака Х извлечена вы
борка объема п .
Выбор очной средней х0 называют среднее арифмети
ческое значение признака выборочной совокупности .
Если все значения х1 , х2 , •••, хп признака выборки
объема п различны, то
Х8 = (х1+Х2+ ...+хп)/п.
Если же значения признака х1 , х2 , •• •, xk и меют соот
ветственно частоты n1 , n2, •••, nk, причем п1 + п2 + ...
...+nk=n,то
Х8 = (п1х1+п2х2+ . ..+n�k)/n,
или
(k
'
Х8=
-�n;X;)Jn,
•=1
200
т. е . выб орочная средн яя есть средн яя вз вешен ная зна
чений признака с весами, равными соответст вующим ча
стотам.
3 а мечани е. Выборочная средняя, найденная по данным одной
выборки , есть , очевидно, определенное число. Если же извлекать
другие выбо рки того же объема из тсй же гене ральнсй совокупности,
то выбо рочная средняя будет изменяться от выборки к выборке.
Таким сбразом, выборочную среднюю можно рассматривать как слу
чайную величину , а следовательно, можно говорить о распределениях
(теоретическом и эмпирическом) выборочной средней и о числовых
характеристиках этого распределения (его называют выборочным) ,
в частности о математическом ожидании и дисперсии выборочного
распределения.
Заметим, что в теоретических рассужден иях выборочные
значения х1, х2 , •••, хп признака Х, полученные в итоге
неза висимых наблюдений, также рассматривают как слу
чайные величины Х1, Х2, •••, Хп, имеющие то же распре
деление и, следо вател ьно, те же числовые характеристики ,
которые имеют Х .'
§ 5. Оценка генеральной средней по выбороч ной
средней. Устойчивость выборочных средних
Пусть из генеральной совокупности (в резуль-
тате независимых наблюдений над кол ичествен ным при
знаком Х) извлечена повторная выборка объема п со
значениями признака х1, х2, •••, хп . Не уменьшая общ
ности рассуждений, будем считать эти значения признака
различными . Пусть гене ральная средн яя хг неизвестна
и требуется оценить ее по данным выборки. В каче
стве оценки генеральной средней принимают выборочную
среднюю
Убедимся, что Х8 - несмещенная оценка, т. е . покажем,
что математиче<:�_юе ожидание этой оценки равно Х:,. Будем
рассматривать Хв как случайную вел ичину и х1, х2 , •••, хп
как независимые, од инаково распределенные случайные
величины Х1, Х2 , •••, Хп . Поскольку эти величины оди
наково распределены, то они имеют оди наковые числовые
характеристики, в частности оди наковое математическое
ожида ние, которое обозначим через а . Так как матема
тическое ожида ние среднего арифметического оди наково
распределенных случайных вел ичин равно математичес-
201
кому ожиданию каждой из величин (см. гл . VllI, § 9), то
М(Х8) =М[(Х1+Х2+ ...+Xп)fn]=а
(*)
Приняв во внимание, что каждая из величин Х1, Х2, •••
• . . , Хп имеет то же распределение, что и генеральная
совокупность (которую мы также рассматриваем как слу
чайную величину), заключаем, что и числовые характе
ристики этих величин и генеральной совоку пности оди
наковы . В частности , математическое ожидание а каждой
из вел ичин равно математическому ожида нию признака Х
генеральной совокупности , т. е.
М (X) =Xr =а.
Заменив в формуле (*) математическое ожидание а на хг •
окончател ьно получим
М(X8)=Xr•
Тем самым доказано, что выборочная средн яя есть не
смещенная оценка генеральной сред ней .
Легко показать, что выборочная средняя является и
состоятельной оценкой генеральной средней. Действи
тельно, до пуская, что случайные вел ичины Х1, Х 2, •••• Хп
имеют ограниченные дисперсии, мы вправе применить
к этим величинам теорему Чебышева (частный случай).
в силу которой при увеличении п среднее арифметическое
рассматриваемых вел ичин, т. е . Х8, стремится по веро
ятности к математическому ожиданию а каждой из вел и-
чин, или, что то же, к генеральной средн ей Хг (так как
Xr =a).
Итак, при увел ичении объема выборки п выборочная
средняя стремится по вероятности к генеральной сред ней ,
а это и означает. что выборочная средн яя есть состоя тел ь
ная оценка генеральной средней. Из сказанного следует
также, что если по нескольким выборкам достаточно боль
шого объема из одной и той же генеральной совокупности
будут найдены выборочные средн ие, то они будут при
ближенно равны между собой . В этом и состоит свойство
устойчивости выборочных средних.
Заметим, что есл и дисперсии двух одинаково распре
деленных совокупностей равны между собой , то близость
выборочных средних к гене ральным не зависит от отно
шен ия объема выборки к объему генеральной совокуп
ности . Она зависит от объема выборки: чем объем выборки
202
больше, тем меньше выбороч ная средн яя отличается от
генеральной . Например, если из од ной совокупности ото
бран 1 % объектов, а из другой совокуп ности отобрано
4 % объектов , причем объем первой выборки оказался
больши м, чем второй, то первая выборочная средняя бу
дет меньше отл ичаться от соответствующей генеральной
средней, чем вт орая.
3 а мечани е. Мы предполагали выборку повторной. Однако
полученные выводы применимы и для бесповторной выборки, если ее
объем значительно меньше объема генеральной совокупности. Это по
ложение часто используется на практике.
§ 6. Группова я и общая средние
Допустим, что все значен ия кол ичественного при
знака Х совокупности , безразлично-генеральной или вы
борочной, разбиты на несколько групп. Рассматривая
каждую группу как самостоятел ьную совокупность, можно
найти ее среднюю арифметическую.
Групповой средней называют среднее арифметическое
значен ий признака, принадлежащих группе.
Теперь целесообразно ввести специальный термин для
средней всей совокупности .
Общей средней х называют среднее арифметическое
значений признака, принадлежащих всей совокупности .
Зная групповые средн ие и объемы групп, можно найти
общую среднюю : общая средняя равна средней арифмети
ческой групповых средних, взвешенной по объемам групп .
Опуская доказательство, приведем иллюстрирующий
пример.
Пример. Найти общую среднюю совокупности, состоящей из cJie·
дующих двух групп:
Группа ..•. .
Значение признака .
Ч астота .•••..
Объем .
•
.
.• .•
первая
1
•
•
10
• 10+ 15=25
6
15
Реш е н и е. Найдем групповые средние:
х1 =(10· 1+15·6)/25 =4;
'Х2 • (20 · 1 +зо-5)/50 =3,4.
вторая
1
20
20 +30=50
Найдем общую среднюю по групповым средним:
х=(25.4+50.3,4)/(25+50)=3,6.
5
30
3 а м е ч а н и е. Для упрощения расчета общей средней совокуп
ности большого объема целесообразно разбить ее на несколько групп,
найти групповые средние и по ним общую среднюю.
203
§ 7. Отклонение от общей: средней и его свойство
Рассмотрим совокупность, безразлично - гене
ральную или выборочную, значений t<ол ичественного при
знака Х объема п:
значения признака
частоты ..
k
При этом � ni = п . Далее для удобства записи знак cyм
i=I
k
мы � заменен· знаком �
i=1
Найдем общую средн юю :
х=(�nixi)/n.
Отсюда
�nixi = пх.
(*)
Заметим, что поскольку х- постоя нная величина, то
�n;x =х!;n;=nX.
(**)
Отклонением называют разность xi - x между значе
нием признака и общей средней.
Теорема . Сумма произведений отклонений на соответ
ствующие частоты равна нулю:
�ni(xi-x)=О.
Доказательство. Учитывая (*) и (**) , получим
�ni (xi-x) =�nixi-!:nix=пх-пх=о.
Следствие. Среднее значение отклонения равно нулю.
Действител ьно,
(� n; (xi -x))I� пi = 0/п =О.
Пример. Дано распределение количественного признака Х:
х;
123
n;1046
Убедиться, что сумма произведений отклонений на соответствующие
частоты равна нулю.
Решение. Найдем общую среднюю:
х=(10·l+4·2+6·3)/20=1,8.
Найдем сумму произведений отклонений на соответствующие
частоты:
�п; (х;-Х} = 10 (1-1,8)+4(2-1,8)+6(3-1,8)=8-8=0.
204
§ 8. Генеральная дисперсия
Для того чтобы охарактеризе>вать рассеяние зна
чений кол ичественного признака Х генеральной совокуп
ности вок руг своего сред него значен ия, вводят сводную
характеристику - генеральную дисперсию.
Генеральной дисперсией D г называют среднее арифме
тическое квадратов отклонений значений П�JИЗнака гене-
ральной совокупности от их среднего значения ;;. .
Если все значения х1 х2, •••, xN признака генеральной
совокуп ности объема N различны, то
Dг = с�(х1-хг) 2)/N.
Если же значения признака х1 , х11 , •• .
, xk имеют
соответственно частоты N1 , N
2
, ••" Nk, причемN1+
+N1+ ...+Nk=N, то
Dг = (.± N 1(Х1-хг)2)/N,
'""1
т. е. генеральная дисперсия есть средняя взвешенная
квадратов откл онений с весами , равными соответствую
щим частотам.
Пример. Генеральная совокупность задана таблицей распреде
ления
Х{24
N;.89
Найти генеральную дисперсию.
56
103
Решение. Найдем генеральную среднюю (см. § 3):
8·2+9·4+ 10·5+3·6 120
Xr
в+9+1о+з =30
=4•
Найдем генеральную дисперсию;
8·(2-4)11 +9·(4-4)11 + 10 ·(5-4)11+3·(6-4)11
Dr=
ЗО
=54/30= 1,8.
Кроме дисперсии для характе�·шстики рассеяния зна
чений признака генеральной совокупности вокруг своего
среднего значения пользуются сводной характеристикой
средним квадратическим отклонением .
Генеральным средним квадратическим отклонением
(стандартом) называют квадратный корень из генераль
ной дисперсии:
205
§ 9. В ыбороч ная дисперсия
Для того чтобы ох арактеризовать рассеяние
наблюдаемых значений кол ичест�енного признака выборки
вокруг своеr:о среднего значения Х8 , вводят сводную характе
ристику - выборочную дисперсию.
Выборо чной дисперсией Dв называют среднее арифме
тическое квадратов отклонения нао_людаемых значений
признака от их среднего значения Х8 •
Если все значения х1 , х2 , •••, Хп признака выборки
объема п различны, то
Dв = (t(Х;-Х8)
2
)/п .
l=1
Если же значения признака х1 , х2 , •••, xk имеют со
ответственно частоты n1, n8, ..., nk, причем п1 + п2 + . ..
...+nk=n,то
Dв= (in;(Х1-Х8)
2
)Jп ,
i=1
т. е. выборочная дисперси я есть средняя взвешенная
квадратов отклонен ий с весами, равными соответствую
щим частотам.
Пример. Выборочная совокупность задана таблицей распре
деления
Xj
1234
n;2015105
Найти выборочную дисперсию.
Р ешение. Найдем выборочную среднюю (см. § 4):
- _20 .1+15·2+�о.з+5·4 100 _2
Хв-
20 + 15+ 10+5
50- •
Найдем выборочную дисперсию:
20 ( l -2)2 + 15.(2-2)2 + J 0 .(3-2)a +5·(4-2)2
Dв=
50
=50/50 = 1.
Кроме дисперсии для характеристики рассеяния зна
чений признака выборочной совокупности вок руг своего
среднего значения пользуются сводной характеристи
кой - средним квадратическим отклонением.
Выборочным средним квадратическим отклонением
(стандартом) называют квадратный корень из выбороч
ной дисперси и:
<1в = VDв•
206
§ 1 О. Формула для вычисления дисперсии
Вычисление дисперсии, безразлично-выборочной
или генеральной , можно упростить, используя следую
щую теорему.
Теорема. Дисперсия равна среднему квадратов значен ий
признака минус квадрат общей средне й:
D="Х2 - ['Х]11.
Док азательств о. Справедл ивость теоремы выте
кает из преобразований:
D=�n1(х1-х)11
=
�n1(xl - 2x1x+ fX12}
..
..
п
п
�n1xl
- �ri;x1
-
�n1 -
--
-
z:
::z
п
2
х-
п
-
+[х]2 -
п
-=Х2-·2
х·Х+[x]'=-
= xs-[x]s.
Итак ,
D=xs -[x]s,
где х = (� п1хNп , х1 =(�п1х�)/п .
Пример. Найти дисперсию по данному распределенИIСt
Х/
1
234
n12015105
Р е ш е ние. Найдем общую среднюю:
-_
20 .1+ 15.2+ 10.з+5·4
_
100
2
Х-
20 + 15+ 10+5
-
50= •
Найдем среднюю квадратов значений признака:
х
-
2=
20 .12 +1s.22 +10.з2 +5. 42 5
50
=.
Искомая дисперсия
D=x11-r:XJ2=s-22
=1.
§ 11. Групповая , внутригрупповая, межгрупповая
и общая дисперсии
Допустим, что все значен ия количественного
признака Х совокупности , безразлично-генеральной или
выборочной , разбиты на k групп. Рассматривая каждую
группу как самостоя тельную совокупность, можно найти
групповую среднюю (см . § 6) и дисперсию значений при-
207
зн ака, при надлеж ащих группе, относительно групповой
средней.
Групповой дисперсией называют дисперсию значений
признака, принадлежащих группе, относител ьно группо
вой сред ней
Djгp = (�п; (x;-Xi)2)/Ni,
где п ; -частота значения х;; j - номер группы ; хi - груп
повая средняя группы j; Ni = �п ; -объем группы j .
Пример 1. Найти групповые дисперсии совокупности, состоящей
:из следующих двух групп:
Первая группа
Вторая группа
х; п;
2l
47
52
XjЩ
32
83
Ni=�n;=10
N2
=�щ =5
Р е m е н и е. Найдем групповые средние:
х1 =(�n;xi )l�щ=( l ·2+7 ·4+2·5)/10=4;
х2
= (2 ·3+3.8)/5 =6.
Найдем искомые групповые дисперсии:
D1гр = (�ni (x; - xi)2)/N1 =
= ( l .(2-4)2+7·(4-4)2 +2.(5- 4)2)/10=0,6;
D2гр = (2· (3-6)2+3·(8-6)2)/5=6.
Зная дисперсию каждой группы, м ожно найти и х
среднюю арифмети ческую.
Внутригрупповой дисперсией называют среднюю ариф
мети ческую ди сперсий, взвешенную по объем ам групп:
Dвнгр = (� NjDjгp)/п,
k
где Ni - объем группы j; п = � N1-объем всей coвo
i=I
купности .
Пример 2. Найти внутригрупповую дисперсию по данным при
мера 1.
Реш е н и е. Искомая внутригрупповая дисперсия равна
Dвнгр= (N1D1гp +N2D2
гp)/n = (I0.0 ,6+5·6)/15= 12/5.
Зная групповые средние и общую сред нюю, м ожно
найти дисперсию групповых средн их относительно общей
средней .
208
Межгруппово й дисперси ей называют дисперсию груп
повых средн их относите.т�ьно общей средней :
Dмежгр = (� Nj (xj - x)2)/n ,
где хj-гр упповая средняя группы j; Nj - объем группы j;
k
х-общая средняя; п = � Nj - объем всей совоку пности .
i=1
Пример 3. Найти межrрупповую дисперсию по данным при
мера 1.
Решение. Найдем общую среднюю:
_
� n;x;
X=--
-
�n;
1 -2+7· 4+2· 5+2·3+3-8
15
14
=
з·
Используя вычисленные выше вели цины х1 = 4 , Xz = 6 , найдем
искомую межrрупповую дисперсию:
D
-
Ni (X1-x)2+ N2 <X
2
- x)2
межгр -
п
!0 ·(4- 14/3)2 +5·(6- !4/3)2 • 8
15
9·
Теперь цел�сообразно ввести специальный те рмин для
дисперсии всеи совокупности.
Обtцей дисперсией называют дисперси ю значений при
знака всей совокупности относительно общей средней:
Dобщ = (� n; (х; -Х)2)/п,
Где 11;-ЧаСТОТа значения Х;; Х-общая средняя; n-объем
всей совокупности .
Пример 4. Найти сбщую дисперсию по данным примера 1.
Решение. Найдем искомую общую дисперсию, учитывая, что
общая средняя равна 14/3:
1 ·(2- 14/3)2 +7·(4- 14/3)2--j-2 -(5 - 14/3)2
Dобщ =
15
+
+ 2·(3- 14/3)2 +3- (8 -14/3)2 148
15
45.
З амеч а ние. Найденная общая дисперсия равна сумме внутри
групповой и межгрупповой дисперсий:
Dобщ = 148/45;
Dвнгр + Dмежгр=12/5 + 8/9 = 148/45.
В следующем параграфе будет доказано, что такая закономерность
справедлива для любой совокупности.
209
§ 12. Сложение дисперсиА
Теорема. Есл и совокупность состоит из несколь
ких групп, то общая дисперсия равна сумме внутригруп
повой и межгрупповой дисперси й :
Dобщ = Dвнгр + Dмежгр•
Док азательств о. Для упрощения доказательства
предположим, что вся совокупность значений количест
венного признака Х разбита на две следующ ие группы:
Группа
.
.
.
.
.
первая
вторая
Значение признака·
х1 х2
х1 х1
Частота.....
т1 т2
п1 п2
Объем группы
.
.
.
N1 =!!1•+т1
N1 _п1+п1
Групповая средня я
х1
х2
Групповая дисперсия . .
D 1гр
D вгр
Объем своей совокупности п = N
1+N1
2
Далее для удобства записи вместо знака суммы �
i=I
2
пишется знак �· Например, �т1= �т1 = т1 +т1 = N
1•
1=1
Следует также иметь в виду , что если под знаком
суммы стоит постоянная величина, то ее цел есооб разно
выносить за знак суммы. Например, � т 1 (х1 -
х)2 =
=
(х1-х)2�т1=(х1-х)2N
1•
Найдем общую дисперсию :
D06щ = (�т1(х1-х)2+�п1 (х1-х)
2)/п.
(*)
Преобразуем первое слагаемое числител я, вычтя и п р и
бавив х1 :
�т1(х1-х)2 = �т1[(x1-Xi>+(х1-Х}]2 =
=�т1(х1-х
1)2+2(х1-
х)�т1(х1-�)+�т1(х1-Х}2•
Так как
�т1(х1-х
1)2=N
1D1гp
(равенство следует из соотношен ия D1гр = (»1z/(х1-х
1)2)/N1)
ивсилу§7
210
то первое сла гаемое принимает вид
�mi (xi- x1)2 = NiD1гp +N1 <Х1 -х)2
.
(**)
Аналогично можно предс тавить второе слагаемое чи
слителя (*) (вычтя и прибавив х2) :
�ni(xi-x)2 = N2D2гр +N11(х2- х)2
•
Подставим (**) и (***) в (*) :
Dобщ = (N1D1гр +N2D2гp)/n +
+(N1(х1-х)2+N2(х2- Х}2)/п=Dвнгр+Dмеж1·v·
Итак ,
Dобщ = Dв нгр + Dмежгр
•
Пример. ил.Люстрирующий доказанную теорему . приведен
в предыдущем параграфе.
3 а м е ч а н и е. Теорема имеет не только теоретическсе, но и
важное практическое значение. Например, если в результате наблю
дений получены несколько групп значений признака, то для вычис
ления общей дисперсии можно группы в единую совокупность не
объединять. С другой стороны, eCJiи совокупность имеет большой
объем, то целесообразно разбить ее на несколько групп. В том и
другом случаях непосредственное вычисление сбщей дисперсии заме
няется вычислением дисперсий отдельных групп, что сблегчает рас
четы.
§ 13. Оценка генеральной дисперсии
по исправленной выборочной
Пусть из гене ральной совокупности в резуль
тате п независимых наблюдений над количественным при
знаком Х извлечена повторная выборка объема п :
значения признака .
.
.
.
. х1х2
xk
частоты.............п1п2•••nk
Приэтом п1+п2+ ...+nk=n.
Требуется по данным выборки оцен ить (прибл иженно
найти) неизвестную генеральную дисперсию Dг . Если в ка
честве оцен ки генеральной дисперсии принять выборочную
дисперсию, то эта оценка будет при водить к систематиче
ским ошибкам, давая заниженное значение генеральной
дисперсии. Объясняется это тем, что, как можно дока
зать, выборочная дисперсия является смещенной оцен кой
Dг• другими словами , математическое ожидание выбороч
ной дисперсии не равно оцениваемой генеральной дис- _
211
персии, а равно
Легко «исправить» выборочную дисперсию так, чтобы
ее математическое ожидание было равно генеральной
дисперс ии. Достаточно для этого умножить Dв на дробь
n/(n -1). Сделав зто, получим исправленную дисперсию,
кото рую обычно обозначают через 52 :
k
� n1 (х; -х8)
2
52=_
п
_
D=_
п
__
i_
=
_
1
_____
п-1 в
n-1
п
k
�n1(х;-Х8)2
i=1
п-1
Исправленная дисперсия является, конечно, несме
щенной оценкой генеральной дисперсии. Действител ьно,
М[52]=М [ -
n-D]=-
n-M [D ]=-
п
-.
n-ID=D
n-1
8
n-1
в
n-1
п
r
r·
Итак, в качестве оценки генеральной дисперсии при
нимают исправленную дисперсию
52 = (.± п1(х1-Х8)2)/<п-l).
i=l
Для оценки же среднего квадратического отклонения
гене ральной совокупности используют «исправленное»
среднее квадратическое отклонение, которое равно квад
ратному корню из исправленной дисперсии:
Подчеркнем, что 5 не является несмещенной оценкой;
чтобы отразить этот факт, мы написали и будем писать
далее так: «исправленное» среднее квадратическое откло
нение.
3амечание. Сравнивая формулы
Dв(�n1 (х1-хвУЧ!п и s
2
= (�n1(х1-х)2)/(п-1),
видим, что они отличаются лишь знаменателями. Очевидно, при
достаточно больших значениях п объема выборки выборочная и исправ
ленная дисперсии различаются мало. На. практике пользуются исправ
ленной дисперсией, если примерно п <"30.
212
§ 14. Точность оценки , довери тельная
вероятность (надежность). Доверительный
интервал
Точечной называют оценку, которая определяетс я
одн им числ ом. Все оцен ки, рассмотренные выше, -
точечные. При выборке малого объема точечная оценка
может значительно отл ичаться от оцен иваемого параметра,
т. е . привод ить к грубым ошибкам. По этой причине при
небол ьшом объеме выборки следует пользоваться интер
вальными оценками .
Интервальной называют оцен ку , которая оп редел яется
двумя числами-концами интервала. Интервальные
оцен ки позволяют установить точность и надежность
оценок (смысл этих понятий выясняется ниже).
Пусть найденная по данным выборки статистическая
характеристика 0• служит оцен кой неизвестного пара
метра 0. Будем считать 0 постоянным числом (0 может
быть и случайной величиной). Ясно, что 0* тем точнее
определяет параметр 0, чем меньше абсолютная величина
разности l 0-0* 1 • Другими словами, если б >О и
1 0-0* 1 < б, то чем меньше б, тем оценка точнее. Таким
образом, положител ьное число б характеризует точность
оценки .
Одн ако статистические методы не позволяют катего
рически утверждать, что оценка 0* удовлетворяет нера
венству / 0-0* / < б; можно лишь говорить о вероят
ности у, с которой это неравенство осуществл яется.
Надежностью (доверител ьной вероят ност ью) оценки
0 по 0 * называют вероятность у, с кото рой осуществ
ляется неравенство / 0-0* 1 < б. Обычно надежность
оценки задается наперед, причем в качестве 1' берут
число, близкое к ед инице. Наиболее часто задают надеж
ность, равную 0,95; 0,99 и 0,999.
Пусть вероят ность того, что \ 0-0* 1 < б, равна yi
Р[\0-0* 1 < б] =у.
Заменив неравенство / 0-0* 1 < б равносильным ему двой
ным неравенством -б< 0-0* < б, или 0* -б < е <
<е•+б, имеем
Р[0*-б<0<0*+б]=у.
Эго соотношение следует понимать так: вероятность того,
что интервал (0*-б, 0* +б) заключает в себе (покры
вает) неизвестный параметр 0, равна у.
213
Доверительным называют интервал (0* - б , 0• + б),
кото рый покрывает неизвестный параметр с заданной
надежностью -у.
3 а мечани е. Интервал (0*-б, е•+ б) имеет случайные
концы (их называют доверительными границами). Действительно,
в разных выборках получаются раЗJiичные значения е•. Спедова
тельно , от выборки к выборке будут изменяться и концы довери
тельного интервала , т. е . доверительные границы сами являются
случайными величинами- функциями от х1 , х2 , •• •, Хп.
Так как случайно/\ величиной является не оцениваемый пара
метр 0, а доверительный интервал , то более правильно говорить
не о вероятности попадания 0 в доверительный интервал, а о вероят
ности того, что дове рительный интервал покроет 0.
Метод доверител ьных интервалов разработал амери
канский статистик Ю. Нейман, исходя из идей англий
ского статистика Р. Фишера.
§ 1 5. Доверительные интервалы для оценки
математического ожидания нормального
распределения при известном а
Пусть количественный признак Х генеральной .
совокупности расп ределен нормально, причем среднее
квадратическое отклонение о этого распределения известно.
Требуется оuенить неизвестное математическое ожида ние
а по выборочной средней Х. Поставим своей задачей найти
доверител ьные интервалы, покрывающие параметр а
с надежностью -у.
Будем рассматривать выборочную среднюю х как слу- .
чайную величину Х (х изменяется от выборки к выборке)
и выборочные значения признака Х1 , х2 , • ••, хп -как
оди на ково распределенные независи мые случайные вели
чины Х1, Х 2 , •••, Х п (эти числа также изменяются от
выборки к выборке) . Другими словами , математическое
ожидание каждой из �тих величин равно а и среднее
квадратическое отклонен ие -О'.
Примем без доказ ательства, что есл и случайная вел и
чина Х распредел ена нормально, то выборочная средн яя
Х, найденная по ·независимым наблюдениям, также рас
пред елена нормально. Параметры распределения Х таковы
(см. гл. Vlll, § 9):
·
214
м (Х)=а, о (Х)= o/Vn.
Потр ебуем, чтобы выполнялось соотношение
Р(/X-al <б)=у,
где у-задан ная надежность.
Пользуясь формулой (см. г.11 . Х II, § 6)
Р(/Х-а1 <б)=2Ф(б/о),
заменив Х.на Х и а на а(Х)=a/Vn, получим
Р(1Х-а1<б)=2Ф(бVn/a) =2Ф(t),
где t=бVn/а.
Найдя из последнего равенства б = ta/Vn, можем на-
писать
Р(\Х-а1<ta/Vn)=2Ф(t).
Приняв во внимание, что вероятность Р зада на и
равна у, окончател ьно имеем (чтобы получить рабочую
формулу , выборочную среднюю вновь обозн ачим через х)
P(i- ta/Vп <а<x+ta/Vn)=2Ф(t)=y .
Смысл полученного соотношения таков: с надежностью
у можно утверждать, что доверительный интервал
(x- ta/Vп. х + ta/Vn) покрывает неизвестный параметр
а; точность оценки б = ta/V-n .
Итак, поставленная выше задача полностью решен а.
Укажем еще, что число t определ яется из равенства
2Ф (/)=у, или Ф (t) = у/2 ; по таблице функции Лапласа
(см. приложение 2) находят аргумент t, которому соот
ветствует значение функции Лапласа , равное у/2.
3 а меча ние 1. Оценку 1 х- а 1 < ta/ Vn называют классиче
ской. Из формулы {) = ta/ yn, определяющей точность классической
оценки, можно сделать следующие выводы:
1 ) при возрастании объема выборки п число {) убывает и, следо
вательно, точ ность оценки увеличивается;
2) увеличение надежности оценки у=2Ф (t) приводит к увеличе
нию t (Ф (/)-возрастающая функция), следовательно , и к возраста
нию {); другими с.аовами, увеличение надежности классической оценки
влечет за собой уменьшение ее точности.
Пример. Случайная величина Х имеет нормальное распределение
с известным средним квадратическим отклонением а=3. Найти дове
рительные интервалы для оценки неизвестного математического ожи-
дания а по выборочным средним х, если объем выборки п = 36 и
задана надежность оценки у = 0,95.
•
215
Реш е н и е. Найдем t. Из соотноше ния 2Ф (t) = 0,95 получим
Ф (t) = 0,475. По таблице приложения 2 находим t = 1,96.
Найдем точность оценки:
б=tо/ Yn =(1,96 . 3)/ У36=0,98.
Доверительный интервал таков: (х - 0,98; х+О,98). Например, если
х 4,1, то доверительный интервал имеет следующие доверительные
rраницы:
Х-- о,98=4,1-0,98=3,12; x-+ o,98=4,I +о,98 = 5,о8.
Таким образом, значения неизвестного параметра а, согласую
щиеся с данными выборки, удовлетъоряют неравенству 3,12 <а< 5,08.
Подчеркнем, что было бы ошибочным написать Р (3, \ 2 <а < 5,08) = 0,95.
Действительно, так как а- постоянная величина , то либо она заклю
чена в найденном интервале (тогда событие 3,12 < а < 5,08 досто
верно и его вероятность равна единице), либо в нем не заключена
(в этом случае событие 3,12 <а<5,08 невозможно и его вероят
ность равна нулю). Другими словами, доверительную вероятность не
следует связывать с оцениваемым параметром; она связана лишь
с границами доверительного интервала, которые, как уже было ука
зано, измен яются от выборки к выборке.
Поясним смысл, который имеет заданная надежность. Надеж
ность у=О,95 указывает, что если произведено достаточно большое
число выборок, то 95% из них определяет такие доверительные интер
валы, в которых параметр действительно заключен; лишь в 5% слу
чаев он может выйти за границы доверительного интервала.
3 а м е ч а н и е 2. Если требуется оценить математическое ожида
н"е с наперед заданной точностью б и надежностью у, то минималь
ный объем выборки, который обеспечит эту точность, находят по
формуле
n = /2o?.j/j2
(следствие равенства б = ta/ Yn).
§ 16. Доверительные интервалы для оценки
математического ожидания нормального
распределе ния при неизвестном о
Пусть кол ичественный признак Х генеральной
совокупности распредел ен нормально, причем среднее
квадратическое отклонение а неизвестно . Требуется оце
нить неизвестное математическое ожидание а с помощью
доверительных интервалов. Разумеется, невозможно вос
пользоваться результатами предыдущего параграфа , в ко
тором а предполагалось известным.
Оказывается, что по данным выборки можно построить
случайную величину (ее возможные значения будем обо-
216
•
значать через t):
Т=;;у� '
которая имеет распределение Стьюдента с k = п-1 сте
пенями свободы (см . пояснение в конце параграфа) ; здесь
Х -выборочная сред няя, S-«исправленное» среднее
квадратическое отклонение, п-объем выборки.
Плотность распределения Стьюдента
S(t,п)=В
п [1+п
12
1
]-п/2'
в
r (n/2)
где п
=
Уn (п -1) Г((п- 1)/2) •
Мы видим, что распредел ение Стьюдента определяется
параметром п-объемом выборки (или, что то же, чис
лом степеней свободы k = п- 1) и не зависит от неиз
вестных параметров а и а; эта особенность является его
большим достоинством. Поскол ьку S (t. п) - четная функ
ция от t, вероятность осуществлен ия неравенства
1.;
;
v: \ <v определяется так (см. гл. § XI, 2, замечание):
-
'v
р(1�у�1<t'V) =2 ss(t'п)dt=i'.
о
.
Заменив неравенство в круглых скобках равносильным
ему двойным неравенством, получим
Р(X-tvsfVn<а< х+tvSIVп ) =i'·
Итак, пользуясь распределением Стьюдента , мы нашли
дове рител�ньiй интервал (x- tvs !Vп, х + tvsfVn), по
крывающий неизвестный параметр а с надежностью i'·
Здесь случайные величины Х и Sr заменены несл учайными
величинами х и s, найденным и по выборке. По таблице
приложен ия 3 по заданным п и i' можно найти tv·
Пример. Количественный признак Х генеральной совокупности
распределен нормально. По выборке объема п = 16 найдены выбороч-
ная средняя х 20,2 и «исправленное» среднее квадратнческое откло
нение s = 0,8. Оценить неизвестное математическое ожидание при
помощи доверительного интервала с надежностью 0,95.
Ре w е н и е. Найдем t 'V· Пользуясь таблицей приложения 3, по
у=О,95 и n=16 находим t v =2, 13.
217
Найдем доверительные границы:
х- tvs l Yn=20,2-2,13-О,8/YI6= 19,774.
х+ t vs f Yn =20,2 +2,13.0,8/ У16=20 ,626.
Итак, с надежностью 0,95 неизвестный параметр а заключен
в доверительном интервале 19,774 < а<20,626.
3амечание. Из предельных соотношений
limВп= ")
,
lim(1+ 12
1
)-п/ 2
=
e-t•/2,
n-+а>
r
2:rt
n-+<1>
n
следует, что при неограниченном возрастании объема выборки п
распредf'..ление Стьюдента стремится к нормальному. Поэтому прак
тически при п > 30 можно вместо распределения Стьюдента пользо
ваться нормальным распределением.
Одн ако важно подчеркнуть, что д л я м алы х выб о
рок (п < 30), в особенности для малых значений п,
замена распредел ения нормальным привод ит к грубым
ошибкам, а именно к неоправданному сужению довери
тельного интервала, т. е . к повышению точности оценки.
Например, если п = 5 и у-=0,99, то, пользуясь распре
делением Стьюдента, найдем tv = 4,6, а используя функ
цию Лапласа, найдем tv = 2,58, т. е. доверител ьный ин
тервал в последнем случае окажется более узким, чем
найденный по распределению Стьюдента.
То обстоятел ьство, что распределение Стьюдента при
малой выборке дает не впощiе определенные результаты
(широкий доверител ьный интервал), вовсе не свидетел ьст
вует о слабости метода Стьюдента, а объясняется тем, что
малая выборка, разумеется , содержит малую информацию
об интересующем нас признаке.
·
По я снение. Ранее было указано (см . гл . XII, § 14),
что если Z - нормальная величина, причем М (Z) = О ,
а (Z) = 1, а V - независимая от Z величина, распределен
ная по закону х.2 с k степенями свободы , то вел ичина
z
T--
-
YV/k
распредел ена по закону Стьюдента с k степенями свободы .
Пусть количественный признак Х генеральной сово
купности распределен нормально, причем М (Х) =а,
а (Х) =а. Если из этой совокупности извлекать выборки
объема п и по ним находить выборочные средние, то
можно доказать, что выборочная средняя распредел ена
нормально, причем (см. гл . Vl ll, § 9)
М(Х2) =а, а(Х2) =a/Vn.
218
Тогда случайная вел ичина
Z=
Хв-
а
o! Yn
также имеет нормальное распредел ение как линейная
функция нормального аргумента Хв (см. гл. XII, § 10,
замечание) , причем М (Z) =О, о (Z) = 1 .
Доказано, что случайные величины Z и
V=((п- 1) S2)/cr2
(***)
независимы (S2 -исправленная выборочная дисперсия) и
что величина V распределена по закону х2 с k = п-1
степенями свободы .
Следовател ьно, подставив (**) и (***) в (*), получим
величину
Т = ((х8-а ) Vn)/S,
которая распределена по закону Стьюдента с k = п - 1
тепенями свободы .
§ 17. Оценка исти нного значения измеряемой
величины
Пусть производится п независимых равноточных
измерений некоторой физической величины, истинное зна
чение а которой неизвестно. Будем рассмат ривать резуль
таты отдел ьных измерений как случайные величины
Х1, Х 2 , ••• , Хп . Эти величины независимы (измерения
независимы), имеют од но и то же математическое ожида
ние а (истинное значение измеряемой величины), од ина-
. овые дисперсии cr2 (и змерения равноточны) и расп реде
лены нормально (такое допущение подтверждается опы
том) . Таким образом, все предп оложения , которые были
· � �ланы при выводе доверительных интервалов в двух
1едыдущих параграфах, выполняются, и, следовател ьно,
1 вп раве использовать полученные в них формулы.
,J угими словами , истинное значение измеряемой вел и-
. .шы можно оцени вать по среднему арифметическому
результатов отдел ьных измерений при помощи довери
тельных интервалов . Поскол ьку обычно cr неизвестно,
следует пол�зоваться формулами, приведенными в § 16.
Пример. По данным девяти независимых равноточных измерений
физической величины найдены среднее арифметической результатов
219
отдельных измерений х= 42 ,319 и «исправленное» среднее квадрати
ческое отклонение s = 5,0. Требуется оценить истинное значение
измеряемой величины с надежностью у = О ,95.
Реш ени е. Истинное значение измеряемой величины равно ее
математическому ожиданию. Поэтому задача сводится к оценке мате
матического ожидания (при неизвестном cr) при помощи доверитель
ного интервала
х- lyS/Vn< а < х+tyS/Vn,
покрывающего а с заданной надежностью у = О ,95 .
Пользуясь таблицей приложения 3, по у = 0,95 и п = 9 находим
t"=2,31.
Найдем точность оценки:
t"(s/Jfn)=2 ,31.(5/'V9>=3,85.
Найдем доверительные границы:
х- t"s!vп=42,319-3,85 =38,469;
х+lys/Уп =42 ,319+3,85 =46,169.
Итак, с надежностью 0,95 истинное значение измеряемой вели
чины заключено в доверительном интервале
38,469 <а< 46 , 169.
§ 18. Доверительные интервалы для оценки
среднего квадратического отклонения а
нормального распределения
Пусть кол ичественный признак Х генеральной
совокупности распредел ен нормально. Требуется оценить
неизвестное генеральное среднее квадратическое откло
нение а по «исправленному» выборочному средн ему квад
ратическому отклонению s. Поставим перед собой задачу
найти доверител ьные интервалы, покрывающие параметр
cr с задан ной надежностью у.
Потребуем, чтобы выполнялось соотношение
P(lcr- sl< б)= y , или Р (s- б<а<s+б)=у.
Для того чтобы можно было пользоваться готов�
табл ице�. преобразуем двойное неравенство
s-б <cr<s+ б
в равносильное неравенство
s(1-б/s)<(J< s(1+б/s).
Положив б/s = q , получим
s(1-q)<(J<s(1+q).
220
Остается найти q. С этой целью введем в рассмотрение
случайную величину «Х И»:
х=(S/o)Vп-1,
где п-объем выборки.
Как было указано [см. § 16, пояснение, соотноше ние
(***)], величина 82 (п -1)/а2 распределена по закону х2
с п - 1 степенями свободы, поэтому квадратный корень
из нее обозначают через Х·
Плотность распределения х имеет вид (см. пояснение
в конце параграфа)
xn-2e-'Y!/2
R(х. п)=
(1)•
2<п-3)/2 r
п
2
Эrо распределение не зависит от оцениваемого параметра о,
а зависит лишь от объема выборки п.
Преобразуем неравенство (*) так, чтобы оно приняло
видх1<х<х2
• Вероятность этого неравенства (см . гл . XI,
§ 2) равна заданной вероятности у. т. е.
х.
SR<х. п)dx=v.
Х1
Предполагая , что q < 1, перепишем неравенство (*) так :
1
.
1
1
_-
S-
(I
_
+_
q
_).
<а<S(l-q)"
Умножив все члены неравенства на S Vп- 1, получим
-rn=r svn=r vn=r
l+q <
<1
< 1-q
•
или
vп=-r
vп=т
l+q <х< 1-q
•
Вероятн ость того, что это неравенство, а следовательно,
и равносильное ему неравенство (*) будет осуществлено,
равна
Vn- !/(1-q)
S R(x. n)dx=v.
Vп- 1/(1+q)
221
Из этого уравнения можно по заданным п и i' найти q.
Практически для отыскания q пользуются таблицей при·
ложения 4.
Вычислив по выборке s и найдя по таблице q , полу
чим искомый доверительный интервал (*) , покрывающий
<J с заданной надежностью у, т. е. интервал
s(1-q)<(J<s(1+q).
Пример 1. I(оличественный признак Х генеральной совокупности
распределен нормально. По выборке объема п = 25 найдено «Исправ
леннсе:о среднее квадратическое отклонение s = 0,8. Найти доверитель
ный интервал, покрывающи й генеральное среднее квадратическое
отклонение о с надежностью 0,95.
Решен·и е . По таблице приложения 4 по данным у=О,95 и
n=25 найдем q=0,32.
Искомый доверительный интервал (*) таков:
0,8 (1-0,32) <а<0,8 (1+О,32), или 0,544 <о< 1,056.
3 а меч ани е. Выше предполагалось, что q < 1. Если q > 1,
то неравенство (>1<) примет вид (учитывая, что о > О)
О<о < s(l+q),
или (после преобразований, аналогичных случаю q < 1)
Vп-1/(l+q><х<оо.
Следовательно, значения q > 1 могут быть найдены из уравнения
ф
� R(х. п)dx=y.
Yii=Т/O+q>
Практически для отыскания значений q > 1, соответствующиж
различным заданным п и у, пользуются таблицей приложения 4.
Пример 2. I(оличественный признак Х генеральной совокупноств
распределен нормально. По выборке объема n= 10 найдено «исправ
ленное» среднее квадратическое отклонение s=0,16. Найти довери
тельный интервал, покрывающий генеральное среднее квадратическое
отклонение о с надежностью 0,999.
Р е ш е н и е. По таблице приложения 4 по данным у=0,999 и
n= 10 найдем q=1,80 (q > 1). Искомый доверительный интервал
таков:
о < (J <0,16(1+1,80), или о<(J < 0,448.
П о я с н е н и е. Покажем, что плотность распределе
ния х имеет вид (**) .
Если случайная вел ичина Х распределена по закон у
х.2 с k = п-1 степенями свободы, то ее плотность рас
пределен ия (см. гл . XII, § 13)
x<k/2)- 1
е-х/2
f(х)=
2kf2r(�)'
222
шш после подстановки k = п - 1
х<п-э)/2 е -х/1
f(х)=
(1)•
2<n-1)/2г
n
2
Воспользуемся формулой (см. гл. XII, § 1 0)
g(у)=f[Ф(у)]1Ф'(у)\.
чтобы найти распределение функции x =q> (X) ='VX(х> О).
Отсюда обратная функция
х=Ф(х)=х.
2 и Ф'<х>=2х.
Так как х > О, то 1 Ф' (Х) 1 =2х, следовательно,
·
( 2)<п -э)/2 е -'1.8/2
g (x) =f[Ф (x)]·IФ' <x> I =
<
х
>t (n-t)·2х.
2п-1 sr __
.
2
Выполнив элементарные преобразования и изменив
обозначения (g (х,), заменим на R (х. п)), окончательно
получим
R(х. п)=
(1)•
2<п -3)/2 r
n
2
§ t 9. Оценка точности измерений
В теории ошибок принято точность измерений
(точность прибора) характеризовать с помощью среднего
квадратического откJюнен ия а случайных ошибок изме
рений . Для оценки а используют «исправленно�» среднее
квадратическое отклонение s. Поскольку обычно резуль-
. таты измерений взаимно независимы, имеют одно и то же
математическое ожидание (истинное значен ие измеряемой
величины) и од инаковую дисперсию (в случае равноточ
ных измерений), то теория, изложенная в предыдущем
параграфе, .применима для оценки точности измерен ий.
Пример. По 15 равноточным измерениям найдено «исправленное•
среднее квадратическое отклонение s = О , 12. Найти точность измере
ний с надежностью 0,99.
Реш е н и е. Точность измерений хара1{теризуется средним квад
ратическим отклонением cr случайных ошибок, поэтому задача сво
дится к отысканию доверительного интервала (*) , покрывающего cr
с заданной надежностью 0,99 (см. § 18).
223
По таблице приложения 4 по у=О,99 и n= 15 найдем q =0,73.
Искомый доверительный интервал
0,12 (1-0 ,73) <О'<0,12 ( l+0,73), или 0,03 <О'<0,21.
§ 20. Оценка вероятности (биномиального
распределения) по относительной частоте
Пусть производятся независимые испытания
с неизвестной вероятностью р появления события А
в каждом испытании. Требуется оценить неизвестную
вероятность р по относител ьной частоте, т. е. надо найти
ее точечную и интервальную оцен ки.
А. Точеч ная оценка . В качестве точечной оценки не
известной вероятности р принимают относител ьную частоту
W=m/n,
где т-число появлений события А; п-число испыта
ний*>.
Эта оценка несмещенная, т. е . ее математическое ожи
дание равно оцениваемой вероятности . Действительно,
учитывая, что М (т) =пр (см. гл . VII, § 5), получим
М(W)=М[m/n]=М(m)/n=np/n=р.
Найдем дисперсию оцен ки, приняв во внимание, что
D(т)=npq (см. гл. VII,§6):
D(W)=D[т/п]=D(m)/n2= npq/n2 = pq/n.
Отсюда среднее квадратическое отклонение 1
aw= VD(W)=Vpq/n.
Б. Интервал ьная оценка. Найдем доверительный ин
тервал для оценки вероятности по относител ьной частоте.
Напомним, что ранее (см . гл . XII, § 6) была выведена
формула, позволяющая найти вероятность того, что аб
солютная вел ичина отклонения не превысит положитель
ного числа б :
P(\X-a j < б) =2Ф (б/а),
*> Напомним, что случайные величины обозначают прописными,
а их возможные значения-строчными буквами. В различных опытах
чис.110 т появлений события будет изменяться и поэтому является
сл учайной величиной М . Однако, поскольку через М уже обозначено
математическое ожидание, мы сохраним для случайного числа появ
лений события обозначение т.
224
где Х -нормальная случайная величина с математи
ческим ожиданием М (Х) = а .
Если п достаточно вел ико и вероятность р не очень
близка к нулю и к еди нице, то можно считать, что от
носительная частота распределена приближенно нор
мально, причем, как показано в п. А, М (W) = р.
Таким образом, заменив в соотношении (*) случайную
величину Х и ее математическое ожидание а соответ
ственно случайной величиной W и ее математическим
ожиданием р, получим приближенное (так как относи
тельная частота расп ределена приближенно нормально)
равенство
Р(1W-pJ<б)=2Ф(б/(Jw).
Присту пим к построению доверительного интервала
(р1, р2), который с надежностью у покрывает оцениваемый
параметр р, для чего используем рассуждения, с помощью
которых был построен доверительный интервал в гл . XVJ.
§ 15. Потребуем, чтобы с надежностью v выполнялось
соотношение (**):
Р ( 1W-р 1 <б)=2Ф (б/(J) =у.
Заменив (Jw через Vpq/n (см. п. А}, получим
Р(/ W-p/< б)= 2Ф (б Vfi/VIЩ) =2Ф(t) = y,
где t=бVti/Vp q .
Отсюда
и, следовател ьно,
P(I W-p l < tV pq/n) =2Ф(t) =y.
Таким образом, с надежностью у выполняется нера
венство (чтобы получить рабочую формулу, случайную
вел ичину W заменим неслучайной наблюдаемой относи
тельной частотой w и подставим 1-р вместо q) :
\w- p l < tVp(1-p)fn .
Учитывая, что вероятность р неизвестна, решим это
неравенство относительно р. Допустим, что w > р. Тогда
w-p < tVр(1-р)/п.
8-2 10
225
Обе части неравенства положительны; возведя их в квад
рат, получим равносильное квадратное неравенство от
носител ьно р:
[(t2;п)+l)]p2
- 2 [w +(t=/n)] p+w2 <О.
Дискриминант трехчлена положител ьный,
корни действительные и различные:
поэтому его
меньший корень
п
[/2
Р1 =,2+ п w+2n-t
больший корень
п
[/2
Р2=12+п w+2п +t
Итак, искомый доверительный интервал р1 < р < р1,
где р1 и р1 находят по формулам (***) н (****) .
При выводе мы предположили, что w > р; тот же ре
зультат получим при w < р.
Пример. Производят независимые испытания с одинаковой, но
неизвестной вероятностью р появления события А в каждом испыта
нии. Найти доверительный интервал для оценки вероятности р с на
дежностью 0,95, если в 80 испытаниях событие А появилось 16 раз.
Решение. По условию, n=80, m =l6, у=О,95. Найдем от
носительную частоту появлен ия события А:
w=m/n = 16/80 =0,2.
Найдем t из соотношения Ф (t)=y/2 = 0,95/2 =0,475; по таблице
функции Лапласа (см. приложение 2) находим t = 1,96 .
Подставив n=80, w=0,2, t= 1,96 в формулы (***) и (****) ,
получим соответственно р1 =0, 128, р2 =0,299:
Итак, искомый доверительный интервал 0,128 < р < 0,299.
3 а мечани е l. При больших значениях п (порядка сотен)
слагаемые t2/(2n) и (t/(2n))2 очень малы и множитель n/(t1+ n) ::
::.
.
l,
поэтому можно принять в качестве приближенных границ довери
тельного интервала
p1 =w-t Jfw(l-w)/n и p2 =w +t Yw(l-w)/n.
3 а мечани е 2. Чтобы избежать расчетов концов доверитель
ных интервалов, можно использовать табл. 28 книги: Янк о Я.
Математико-статистические таблицы. М. , Госстатиздат, 1961.
§ 21 . Метод моментов для точеч ной оценки
параметров расп ределения
Можно доказать, что начальные и центральные
емпирические моменты являются состоятел ьными оценками
соответственно начальных и центральных теоретических
226
моментов того же порядка . На этом основан метод момен
тов, предл оженный К. Пирсоном. Достоинство метода
сравнител ьная его простота . Метод моментов точечной
оценки неизвестных параметров заданного распределения
состоит в при равнивании теоретических моментов рас
сматриваемого расп ределения соответствующим эмпириче
ским моментам того же порядка .
А. Оценка одного п араметра. Пусть задан вид плот
ности распределения f (х, 0) , определяемой одним неиз
вестным параметром 0 . Требуется найти точеч ную оценку
параметра е.
Для оценки одного параметрадостаточноиметь
одн о у равнение относител ьно этого параметра. Следу я
методу моментов , при равняем, например, начальный тео
ретический момент первого порядка начальному ·эмпири
ческому моменту первого порядка: '' i = М1 • Учитывая,
что v1= М(Х)(см. гл.VIII,§ 10),М1=х0(см. гл. XVII,
§ 2), получим
М(Х)=хв.
Математическое ожидание М (Х), как видно из соотно
шения
QO
М(Х)= � xf(x; 0)dx=q>(0),
-со
есть функция от 0, поэтому (*) можно рассматривать как
уравнение с одним неизвестным е. Решив это уравнение
относительно параметра 0 , тем самым найдем его точеч
ную оценку 0*, которая является функцией от выбороч
ной средней, следовательно, и от вариант выборки:
0* = 'Ф(Х1, Х1, •••, Хп)•
_
Пример t. Найти методом моментов по выборке Xi, х2 , •• •, х"
точечную оценку неизвестного параметра А. показательного распреде
ления, плотность распределения которого f (х) =Л.е-hх (х �О).
Решение. Приравняем начальный теоретический момент пер
вого порядка начальному эмпирическому моменту первого порядка:
v1 =M1• Учитывая, что v1 = M (Х), М1 =Х8, получим
М (Х)=хв.
Приняв во внимание, что математическое ожидание покаэатеJiьного
распределения равно 1/Л (см. гл. XIII, § 3), имеем
1/Л=хв.
S!27
Отсюда
Л=1/х8•
Итак, искомая точечная оценка параметра А. показательного рас
пределения равна величине, обратной выборочной средней:
Л*= 1/i8.
Б. Оценка двух параметров. Пусть задан вид плотности
распределен ия f (х; 01 , 02), определяемой неизвестными
параметрами 01 и 02 • Для отыскания д в у х п ара метров
необходимы два уравнен ия относительно этих параметров .
Следу я методу моментов, приравняем, например, началь
ный теоретический момент первого порядка начальному
эмпирическому момецту первого порядка и центральный
теоретический момент второго порядка центр альному эм
пирическому моменту второго порядка :
"'1=мl. μ2=т2.
Учитывая, что v1=M(X), μ2=D(X) (см. гл . Vlll, § 10),
М1=Х8, m2=Dв (см. гл. XVII, § 2), получим
М(Х)=хв, }
(**)
D(X)=D8•
Математическое ожидание и дисперсия есть функции от
01 и 02 , поэтому (**) можно рассматривать как систему
двух уравнений с двумя неизвестными 01 и 02 • Решив
эту систему относительно неизвестных параметров, тем
самым получим их точечные оценки 0; и 0;. Эти оценки
явл яются функциями от вариант выборки:
0�='Ф1(Хн Х2, • ••, Хп),
О;=-ф1(Х1, Х11, •••, Хп)·
Пример 2. Найти метод.ом моментов по выборке х1, х2 , ••• , Хп
точечные оценки неизвестных параметров а и о нормального рас
пределения
Р е ш е н и е . Приравняем начальные теоретические и эмпиричес
кие моменты первого порядка, а также центральные и эмпири ческие
моменты второго порядка:
V1=M1,
f.Ls =mi.
Учитывая, что v1 =M(X), f.Lt=D(X), М1 Х8 , m11 = D8, получим
М(Х)=х;,, D(Х)=D8•
228
Приняв во внимание, что математическое ожидание нормального рас
пределения равно параметру а, дисперсия равна о2 (см. rл. XII, § 2),
имеем:
а=х8,
Итак , искомые точечные оценки параметров нормального рас
пределения:
а• =х8,
о• = YD8•
Заме ч а ние 1. Дл я оценок неизвестных параметров можно
приравнивать не только сами моменты, но и функции от моментов.
В частности , этим путем получают состоятельные оценки характе
ристик распределений, которые являются функциями теоретических
моментов . Например, асимметрия теоретического распределения
(см.гл.ХП,§9)
есть функция от це:нтральных моментов второго и третьего порядков.
Заменив эти теоретические моменты соответствующими эмпирическими
моментами, получим точечную оценку асимметрии
As=m3/(Уm2)3•
Замечание 2. Учитывая, что Уm2 =УD8 =<J8 ,последнюю
формулу можно записать в виде
As =malo: .
Далее эта оценка будет принята в ка честве определения асиммет
рии эмпирического распределения (см. гл . XVII, § 9).
§ 22. Метод наибопьшеrо правдоподобия
К роме метода моментов, который изложен в пре
дыду щем параграфе, существуют и другие методы точеч
ной оценки неизвестных параметров распределени я. К ним
относится метод наибольшего правдоподобия , предл ожен:.
.
ный Р. Фишером.
А. Дискретн ые СJ
J
уч айные величи ны. Пусть Х-диск
ретная случайная величина, которая в результате п ис
пытаний приняла значения х1' х2, • •
• , хп . Допустим, что
вид закона распредел ения вел ичины Х задан, но неиз
вестен параметр 0, кото рым определяется этот закон.
Требуется найти его точечную оцен ку .
Обозначим вероятность того, что в результате испы
тания вел ичина Х примет значение x i (i = 1, 2, ..., п), через
р (xi; 0).
Функцией правдоподобия дискретной случайной вел и
чины Х называют функцию аргумента 0:
L(Х1, Х2, •••, хп; 0)=р(х1; 0)р(х2; 0) . • . р(хп; 0).
гдех1,х2,•••,х
п
-фиксированные числа.
229
В качестве точечной оцен ки параметра 0 принимают та
кое его значение 0* = 0*(х1, х2, • • •
, хп ) , при котором фун
кцщ1. правдоподоб ия достигает макси му ма . Оценку 0* на
зывают оценкой наибол ьшего правдоподобия .
Функции L и ln L дост игают максимума при од ном
и том же значении 0, поэтому вместо отыскания максимума
функции L ищут (что удобнее) максимум функции ln L.
Логарифмическ ой функц ией правдоподобия называют
функцию ln L. Как известно, точку максимума функции
ln L аргумента 0 можно искать, например, так:
1) найти производную d��L ;
2) приравнять производн ую нулю и найти критическую
точку - корень полученного уравнения (его называют
уравнением правдоподобия) ;
d2lnL
3) найти вто рую производную dег- ; есл и вторая
производная при 0 = 0* отрицател ьна, то 0* -точка мак
симума.
Найденную точку максимума 0* принимают в качестве
оценки наибольшего правдоподоб ия параметра 0.
Метод наибольшего правдоподобия имеет ряд досто
инств: оценки наибольшего правдоподобия, вообще говоря ,
состоятел ьны (но они могут быть смещенными), распреде
лены асимптотически нормально (при больших значен иях п
приближенно нормальны) и имеют наименьшую дисперсию
по сравнению с другими асимптотически нормальными
оценками ; есл и для оцениваемого параметра 0 существует
эффективная оценка 0* , то уравнение правдоподобия имеет
единственное решение 0*; этот метод наиболее полно ис
пользует данные выборки об оцен иваемом параметре,
поэтому он особенно полезен в случае малых выборок.
Недостаток метода состоит в том, что он часто требует
сложных вычислен ий.
Замечание 1 . Функция правдоподобия-функция от аргу
мента 0; оценка наибольшего правдоподобия-функция от независи
мых аргументов х1, Х2, • ••, Хп.
Замечание 2. Оценка наибольшего правдоподобия не всегда
совпадает с оценкой, найденной методом моментов.
Пример 1. Найти методом наибольшего правдоподобия оценку
параметра Л распределения Пуассона
Дхiе-'А
Рт (Х=хi)
!
-
Xj
где т-число произведенных испытаний; Хi -число появлений собы
тия в i-м (i = 1 , 2, •.., n} опыте (опыт состоит из т испытаний).
230
Решение. Составим функцию правдоподсбия, учитывая, что
0=Л:
L=Р(х1; Л)р(х2; Л) ... р(хп; Л)=
л.х• .е -Л. л.х•.е-Л.
лхп.е-л.
л�х; . е-пл.
-
X1J
X2f
Хпf
X1!X2f ..• Хпf •
Найдем логарифмическую функцию правдоподобия:
lnL=(�х;) lnЛ-пЛ-ln(х1!х2! ... Хпl).
Найдем первую производную по Л:
dlnL � х;
-;п:-
=-
л
-
-п.
Напишем уравнение правдоподобия, для чего приравняем пер
вую производную нулю:
(� х;/Л) -n=О.
Найдем критическую то чку, для чего решим полученное уравне
ние относительно Л:
Л=� x;/n =x8•
Найдем вторую производную по Л:
d2lnL
�Xi
df:Г=
--хг
Легко видеть, что при Л=Хв вторая производная отрицательна;
следовательно, Л=Хв -точка максимума и, значит, в качестве оценки
наибольшого правдоподобия параметра Л распределения Пуассона
надо принять выборочную среднюю д•=х8 •
Пример 2. Найти методом наибольшего правдоподобия оценку
па раметра р биномиального распределения
Рп(k)=C�k(l-p)n
-k,
если в п1 независимых испытаниях событие А появилось х1 = m1 раз
и в п2 независимых испытаниях событие А появилось х2 = m2 раз.
Решение. Составим функцию правдоподобия, учитывая,
что 0=р:
L=P (т )Р (m )=Cm1cm•pm1+m2 (t -p)[(n1 +n1)-(m1+m1))0
п1
1п1
2
п1 п.
Найдем логарифмическую функцию правдоподобия:
ln L=ln (с:.•с::)+ (m1 +m2) ln P+Hn�+n2) -(m1 +m2)] ln (l -p).
Найдем первую производную по р:
dInL rrti+т2 (n1+п2)-(m1+m2)
dp
р
l-p
Напишем уравнение
производную нулю:
правдоподобия, дJIЯ чего приравняем первую
m1+m2
р
(п1 +n2) -(m1 +m2)
l-p
о.
231
Найдем критическую точку, для чего решим полученное урав
нение относительно р:
р=(m1+m2)/(n1+n2).
Найдем вторую производную по р:
d21пL
=
-
m1 +m2
+ (n1+n2) -(m1+m2)
dp2
р2
( 1-р)2
Легко убедиться, что при р = (m1 + m2)/(n1 + n2) вторая произ
водная отрицательна; следовательно, р = (m1+ m2)/(n1 + n2) -точка
максимума и, значит, ее надо принять в качестве оценки наиболь
шего правдоподобия неизвестной вероятности р биномиального рас
пределения:
р* = (m1 +m2)/(n1 +п2).
Б. Непрерывные СJiучайные величины. Пусть Х - не
прерывная случайная величина, которая в ре
зультате п испытаний приняла значения Х1 , х2
,•••,Хп.
Допустим, что вид плотности расп редел ения f (х) зада н, но
не известе н параметр 0, которым определ яется эта
функция.
Функцией правдоподобия непрерывной случа йной вел и
чины Х называют функцию аргумента 0:
L(xl, Х2, ..., хп; 0)=f(х1; 0)f(х2; 0) ...f(хп; 0),
где х1, х
2
, • • • , хп -Фиксированные числа.
Оценку наибольшего правдоподоб ия неизвестного па
раметра распределения непрерывной случайной вел ичины
ищут так же, как в случае дискретной величины.
Пример 3. Найти методом наибольшего правдоподобия оценку
параметра Л показательного распределения
f(x)='J.
.
e-'i.x
(О<х<оо),
если в результате п испытаний случайная величина Х, распределен
ная по показательному закону, приняла значения х1, х2 , •••, Хп.
Реше н и е. Составим функцию правдоподобия, учитывая ,
что 6=Л:
L =f(xi; Л) f(х2; 'J.
.
) ••. f(хп; Л) = (Ле-'i.х1) (ле -дх•) .
.
.
(ле -'i.х1) .
232
Отсюда
Найдем логарифмическую функцию правдоподобия:
lnL=nlnЛ-Л�Х/.
Найдем первую производную по Л:
dlnLп�
{JГ"=л- � Х/.
Напишем уравнение правдоподобия, для чего приравняем первую
производную нулю:
(п/Л) - �Xj=O.
Найдем критическую точку, дл я чего решим полученное уравне
ние относительно Л:
'Л=n/�x i = t/(�xi /n) = t/"Хв.
Найдем вторую производную по Л:
d2lnL
п
�=
-л2·
Легко видеть , что при Л= 1JX0 вторая производная отрицательна;
следовательно, Л= 1/°Хв-точка максимума и, значит, в качестве
оценки наибольшего правдоподобия параметра Л. показательного рас
пределения надо принять величину, обратную выборочной средней:
Л*=l/хв.
3 а м е ч а н и е. Если плотность распределения f (х) непрерывной
случайной величины Х определяется двумя неизвестными парамет
рами 01 и 02 , то функция правдоподобия является функцией двух
независимых аргум�нтов 01 и 02
:
L=f(х1; 81, 82>f(х2; 01, 82) • .• f (хп; 81, 02),
где х1, х2, •••, Хп -наблюдавшиеся значения Х. Далее находят ло
гарифмическую функцию правдоподобия и для отыскания ее макси
мума составляют и решают систему
Пример 4. Найти методом наибольшего правдоподобия оценки
параметров а и о нормального распределения
1
f(х) __
__
е-<х-а)"/
2
а•,
=
(J Jf2:rt
если в результаге п испытаний величина Х приняла значения
Х1, Х2, •••
' Хп•
Решение. Составим функцию правдоподобия, учитывая, что
01=а и 02=о:
Отсюда
Найдем лога рифмическую функцию правдоподобия:
J
� (Xj-a)2
lnL=- nlna+ln ( Y2n)n
2cr2 .
•
Найдем частные производные по а и по а:
дlnL �х;-па
.
дlnL
п �(х;-а)2
--
-а;
;-
=
cr2
' if(J=-а+ аз
•
Приравняв частные производные нулю и решив полученную си
стему двух уравнений относительно а и cr2, получим:
а=�х;/n =хв; cr2 = (�(xi - Xo)2)/n =Dв.
Итак , искомые оценки наибольшего правдоподобия: а* =х8 ;
а* = YD8• Заметим, что первая оценка несмещенная, а вторая сме
щен ная.
§ 23. Другие характер истики вариационного ряда
Кроме выборочной средней и выборочной диспер
сии применяются и другие характеристики вари ационного
ряда . Укажем главные из них.
Модой М0 называют вари анту , которая имеет наиболь
шую частоту. Например, для ряда
ва ри анта
.
.J479
частота
.
.
.
.51206
мода равна 7.
Медианой те называют варианту , которая дел ит ва
риационный ряд на две части , равные по числу вариант.
Если число вариант нечетно, т. е. п = 2k+ 1, то те = Хн1;
при четном п = 2k медиана
те = (xk +Хн1)/2.
Например, для ряда 2 З 5 6 7 медиана равна 5; для
ряда 2 3 5 6 7 9 медиана равна (5+6)/2=5,5.
Размахом варьирования R называют разность между
наибольшей и наименьшей вариантами :
R = Xmax-Xmtn•
Например, для ряда 1 З 4 5 6 10 размах равен 10-1 =9.
Размах является просте йшей характеристикой рассея
ния ва риационного ряда .
Средн им абсолютным отклонением 0 называют среднее
арифметическое абсолютных отклонений :
234
Например, дл я ряда
имеем:
Х;1
п,4
3616
1051
-
=
4 . 1+10·3+5·6+ 1·16
=
80
=
4·
Хв
4+ 10+5+ 1
20'
0-4 · \I-4l+!O·l3-4\+5·\6-4\+I·l16-4l_22
-
20
-
'
.
Среднее абсолютное отклонение служит для характерис
тики рассеяния вариационного ряда.
Коэффициентом вариации V назq�вают выраженное в
процентах отношение выборочного среднего квадратичес
кого отклонения к выборочной средн ей:
V= G8/X8 • 100%.
Коэффициент вариации служит для сравнения величин
рассеяния по отношению к выборочной средней двух
вариационных рядов : тот из рядов имеет большее рас
сеяние по отношению к выборочной сред ней, у которого
коэффициент ва риации больше . Коэффициент вариации
безразмерная вел ичина, поэтому он пригоден для срав
нения рассеяний вариационных рядов, варианты которых
имеют различную размерность, например если варианты
одн ого ряда выражены в сантиметрах , а другого -в грам
мах .
3 а мечани е. Выше предполагалось, что вариационный ряд
составлен по данным выборки, поэтому все описанные характерис
тики называют выборочными; если ва риационный ряд составлен по
данным генеральной совокупности, то характеристики называют гене
ральными.
Задачи
1
1. Найти групповые средние совокупности, состоящей из
двух групп:
первая группа
х; О,1 0,4 0,6
п;
3
2
5
вторая группа
•
•х;О,10,30,4
п;
1О4
6
Отв. х1 =0,41 ; х2 =0,23.
2. Найти общую среднюю по данным задачи 1 двумя способами:
а) объединить обе группы в одну совокупность; б) использовать най
денные в задаче 1 групповые средние.
Отв. х= 0,29.
235
3. Дано распределение статистической совокупности:
Xil
п;6
4
11
5
3
Убедиться, что сумма произведений отклонений на соответствующие
частоты равна нулю.
4. Дано распределение статистической совокупности:
Х/4
71015
п,ю15205
Найти дисперсию совокупности: а) исходя из определения диспер
сии; б) пользуясь формулой D=x2 -(x]2.
Отв. D =9,84.
5. Найти внутригрупповую, межгрупповую и общую дисперсии
совокупности, состоящей из трех групп:
первая группа
х;1
28
п;30155
втораягруппа•• •Х/..1
6
п;1015
третья группа
х;38
ni205
Отв. Dвнrр =4,6; Dмежrр = 1; Dобщ =5,6.
6. Найти внутригрупповую, межгрупповую и общую дисперсии
совокупности, состоящей из двух групп:
первая группа
Х/27
ni64
вто рая группа
х127
п;28
Отв. Dвнrp = 5;-Dмeжrp =I; Dобщ =6.
7. Найти выборочную и исправленную дисперсии вариационного
ряда, составленного по данным выборкам:
варианта •
.
.
12589
частота .
•
•
34643
Отв: u: =8,4; s2 =8,84 .
В задачах 8-9 даны среднее квадратическое отклонение, выбо
рочная средняя и объем выборки нормально распределенного приз
нака. Найти доверительные интервалы дл я оценки неизвестного мате
матического ожидания с заданной надежностью.
8. U=2, х8 = 5,40, n=10, у=О,95.
Отв. 4,16 < а < 6,64.
9. U=3, х8 =20,12, n=25, у=О,99.
Отв. 18,57 < а<21,67.
10. Найти минимальный объем выборки, при котором с надеж
ностью 0,95 точность оценки математического ожидания нормально
распределенного при.знака по выборочной средней будет равна 0,2,
если среднее квадратнческое отклонение равно 2.
Указание. См. замечание 2,§15.
Отв. n=385.
В задачах 11-12 даны «исправленное» среднее квадратическое
отклонение, выборочная средняя и. объем малой выборки нормально
распределенного признака. Найти, пользуясь распределением Стью-
236
дента, доверительные интервалы для оценки неизвестного математи
ческого ожидания с заданной надежностью.
11. s=l,5, х8 =16,8, n=l2, у=О,95.
Отв. 15,85 < а<17,75.
12. s=2,4, Хв = 14,2, n=9, у=О,99.
Отв. 11,512 <а< 16,888.
13. По данным 16 независимых равноточных измерений физичес-
кой величины найдены х8 =23, 161 и s = 0,400. Требуется оценить
истинное значение а измеряемой величины и точность измерений о
с надежностью 0,95.
Отв. 22,948 <а< 23,374; 0,224 <о<0,576.
14. Найти доверительный интервал для оценки неизвестной ве
роятности р биномиального распределения с надежностью 0,95,
если в 60 испытаниях событие появилось 18 раз.
Отв. 0,200 < р < 0,424.
15. Найти методом моментов точечную оценку эксцесса E1i =
= m4/o4-3 теоретического расп ределения.
Отв. ek = т4/о� -3.
16. Найти методом моментов точечные оценки параметров а и /3
гамма-распределения
f(x)=j3
a.+ir�a+l)
xae -x
flJ(a>-1,/3>0,х�О).
Указани е. Сделать подстановку y=xf/3 и, используя гамма
..,
функцию Г(n)=Sxп-1
e-x dx, найти сначала М(Х) =(а.+ 1) /3,
о
D (Х) =(а+ 1)/32, а затем приравнять М (Х) =х8, D (X)=D8•
Отв. а.* = (x:/D8)- 1; /3* = D8/X8•
17. Найти методом наибольшего правдоподобия по выборке х1,
х2, •••, Хп точечную оценку неизвестного параметра /3 гамма-рас
пределения, если параметр а известен.
Указани е. Использовать плотность гамма-распределения.
приведенную в задаче 16.
Отв. /3* =Х8/(а.+ 1).
Глава семнадцатая
МЕТОДЫ РАСЧЕТА СВОДНЫХ ХАРАКТЕРИСТИК
ВЫБОРК И
§ 1 . Условные варианты
Предположим, что варианты выборки располо
жены в возрастающем порядке, т. е . в виде вариацион
ного ряда .
Равноотстоящими называют варианты, которые обра
вуют арифметическую прогрессию с разностью h.
237
Условными называют варианты, оп ределяемые равен-
ством
U;= (X;-C)/h,
где С-ложный нуль (новое начало отсчета) ; h-шаг,
т. е. разность между любыми двумя соседн ими первона
чальными вариантами (новая единица масштаба) .
Упрощенные методы расчета сводных характеристик
выборки основаны на замене первоначальных вариант
условнымР.
Покажем , что есл и вариационный ряд состоит из равно
отстоящих вариант с шагом h, то условные варианты
есть целые ч и с л а. Действител ьно, выберем в качестве
ложного нуля произвольную варианту, например хт.
Тогда .
Xf-Xm
x1+(i- l)h-[x1+(m -l) h] .
U;=
h=
h
= t-m.
Так как i и т -целые числа, то их разность i-m =
= и;-также целое число.
3 а меч ани е l. В качестве ложного нуля можно принять лю
бую варианту. Максимальная простота вычислений достигается, если
выбрать в качестве ложного нуля варианту, которая расположена
примерно в середине вариационного ряда (часто такая варианта
имеет наибольшую частоту).
З а меча н и е 2. Варианте, которая принята в качестве лож
ного нуля, соответствует условная варианта, равная нулю.
Пример. Найти условные ва рианты статистического распределения:
варианты • •
• 23,6 28,6 33,6 38,6 43,6
частоты .
.
•5
20
50
15
10
Решение. Выберем в качестве ложного нуля варианту 33,6
(зта варианта расположена в середине вариационного ряда).
Найдем war:
h=28,6-23,6 =5.
Найдем условную ва рианту:
Щ=(Х1 -С)/h =(23,6 -33 ,6)/5 = - 2.
Аналогично получим: и2 = - 1, и3 =О, и4 = 1, и5 = 2. Мы видим,
11
1Т
о условные варианты - небо.1
1
ьшие целые числа. Разумеется, опе
рировать с ними проще, чем с первоначальными вариантами.
§ 2. Обычные, начальные и центральные
зм пирические моменты
Для вычисления сводн ых характеристик выборки
удобно пользоваться эмп ириче�кими моментами, оп ре.де
ления которых аналогичны определениям соответствую·
238
щих теоретических моментов (см. гл . VIII, § 10) . В от
личие от теоретических эм пирические моменты вычисляют
по данным наблюдений.
,
Обычным эмп ирическим моментом порядка k называют
среднее значение k-x степеней разностей Х; -С:
Mk = (�п; (х; - С)k)/п,
где Х;-наблюдаемая ва рианта, n;-частота варианты,
п =�п;- объем выборки, С-произвольное постоянное
число (ложный нуль).
Начальным эмпирическим моментом порядка k назы
вают обычный момент порядка k при С = О
Mk = (�n;xf)/п .
В частности,
М1 = (�n;Х;)/п = Х8,
т. е. начальный эмпирический момент первого порядка
равен выборочной сред ней .
Центральным эмп ирическим моментом порядка k на-
зывают обычный момент порядка k при С = Х8
тk = (�n; (х; - х:)k)/п .
В частности ,
т. е . центральный эмпирический момент второго порядка
равен выборочной дисперсии.
Легко выразить центральные моменты через обычные
(рекомендуем читателю сделать это самостоятел ьно) :
та = м;-(ма2
,
(**)
т3 =М;-ЗМ�М�+2(Ма3,
}
т, = м�-4м;м� + бм; (М�)2-з(Ма".
<***>
§ 3. Условн ые эмпирические момен ты.
Отыскание цен тральных момен тов по условным
Вычисление центральных моментов требует до-
вольно громоздких вычислен ий. Ч тобы упростить рас
четы, заменяют первоначальные варианты условными .
Условным эмпирическим момент ом порядка k называ
ют началJ,ный момент порядка k, вычисленный для ус-
239
ловных вариант:
Отсюда
�
(x; -C)k
MZ=� n;uf
=
�
п; -h
-
n
п
Таким образом, дл я того чтобы найти выборочную сред
нюю, достаточно вычислить условный момент первого
порядка, умножить его на h и к результату прибавить
ложны\% нуль С.
Выразим обычные моменты через условные :
Отсюда
М*
l � n; (x;-C)k Mk
k=hk
п
=
м·
Mk=Mkhk.
Таким образом, ){ЛЯ того чтобы найти обычный момент
порядка k, достаточно условный момент того же порядка
умножить на h k .
Найдя же обычные моменты, легко найти централь
ные моменты по равенствам (**) и (***) предыдущего
параграфа. В итоге получим удобные для вычислен ий
формулы, выражающие центральные моменты через ус
ловные:
т
2
= (M;-(M;)2]h2,
(**)
тз = [М;-зм�м;+2(М�)3] hз,
}
m4 = [М: -4м;м;+6М;(М�)2-З (M;)4)h4•
(***)
В частности, в силу (**) и соотношения (*) предыду
щего параграфа получим формулу для вычислен ия выбо
рочной дисперсии по условным моментам первого и вто
рого порядков
Техника вычислений центральных моментов по услов
ным описана далее.
240 .
§ 4. Метод произведен ий для вычисле н ия
выбороч н ы х средней и дис персии
Метод произведений дает удобный способ вычис
лен ия условных моментов различных порядков вариаци
онного ряда с равноотстоящими вариантами . Зная же
условные моменты, нетрудно найти интересующие нас
начальные и центральные эмпирические моменты. В част
ности, методом произведен ий удобно вычислять выбороч
ную среднюю и выборочную дисперсию. Целесообразно
пользоваться расчетной табл ицей , которая составляется
та к:
1) в первый столбец таблицы записывают выборочные
(первоначальные) варианты, располагая их в возрастаю
щем порядке;
2) во второй столбец записывают частоты вариант;
скл адывают все частоты и их сумму (объем выборки п)
помещают в нижнюю клетку столбца;
3) в третий столбец зап исывают условные варианты
ui = (xi -C)/h, причем в качестве ложного нуля С выби
рают варианту , которая расположеt�а примерно в сере
дине вариационного ряда, и полагают h равным разности
между любыми двумя соседн ими вариантами ; практически
же третий столбец заполняется так: в клетке ст роки,
содержащей выбранный ложный нуль, пишут О; в клет
ках над нулем пишут последовател ьно -1, -2, -3 и
т.д., а поднулем-1,2,3 и т.д.;
4) умножают частоты на условные варианты и запи
сывают их произвед ения niui в четвертый столбец; сло
жив все полученные числа, их сумму � niui помещают
в нижнюю клетку столбца;
5) умножают частоты на квадраты условных ва риант
и зап исывают их произведения n;u� в пятый стол�ец;
сложив все полученные числа, их сумму � niu' поме
щают в нижнюю клетку столбца;
6) умножают частоты на квадраты условных вариант,
увеличенных каждая на еди ницу, и зап исывают произве
дения ni (и; + 1 )2 в шестой контрольный столбец; сложив
все полученные числа, их сумму � n; (иi + 1 )2 помещают
в нижнюю клетку столбца . .
3 а м е ч а н и е 1. Целесообразно отдельно складывать отрица
тельные числа четвертого столбца (их сумму А1 записывают в клет
ку строки, содержащей ложный нуль) и отдельно по.'!ожительные
241
числа (их сумму А2 записывают в предпоследнюю клетку столбца );
тогда � niЩ=A1+A_ .
2
3 а м е ч а н и е 2. При вычислении произведений n1ut пятого
столбца целесообразно числа щщ четвертого столбца умножать на щ.
3 а мечани е 3. Шестой столбец служит для контроля вычис-
лений: если сумма � n1(щ+ 1)2
окажется равной сумме � n;u
2
t+
+ 2 � п1щ + п (как и должно быть в соответствии с тождеством
�n1(Uf + 1)2
= � n1и�+2� п1щ+ п), то вычисления проведены
правильно.
После того как расчетная таблица заполнена и про
верена правильность вычислен ий, вычисляют условные
моменты :
М�=(�n1U;)/n, М; =(�n;u�)/n.
Наконец, вычисляют выборочные среднюю и диспер
сию по формулам (*) и (****) § 3 :
Х8 = M�h+с, Dв
= [М;-(М�)2] h2
.
Пример. Найти методом произведений выбо.рочные среднюю и
дисперсию следующего статистического распредЕ.>ления:
варианты 10,2 10,4 10,6 10,8 11,0 11,2 11 ,4 11,6 11,8 12,0
частоты
238132520121061
Р е ш е н и е. Составим расчетную таблицу, для чего:
1) запишем варианты в первый столбец;
2) запишем частоты во второй столбец; сумму частот (100) по
местим в нижнюю клетку столбца;
3) в качестве ложного нуля выберем варианту 11,0 (эта вариан
та расположена примерно в середине вариационного ряда); в клетке
третьего столбца, которая принадлежит строке, содержащей выбран
ный ложный нуль, пишем О; над нулем записываем последовательно
-1,-2,-3, -4,аподнулем-1,2,3,4,5;
4) произведения частот на условные варианты записываем в чет
вертый столбец; отдельно находим сумму (-46) отрицательных и от
дельно сумму (103) положительных чисЕ.>л; сложив эти числа , их
сумму (57) помещаем в нижнюю клетку столбца;
5)
произведения частот на квадраты условных вариант за пишем
в пятый столбец; сумму чисел столбца (383) помещаем в нижнюю
клетку стоJiбца;
_
6) произведЕ.>ния частот на квадраты условных вариант, увели
ченных на единицу, запишем в шестой контрольный столбец; сумму
(597) чисел столбца помещаем в нижнюю клетку столбца .
В итоге получим расчетную табл. 7 .
Контроль: � п1и�+2� n;щ+n=383 +2-57+ 100=597 .
�щ(щ+1)2 = 597 .
Вычисления произведены правильно.
242
Таблица 7
1
121
з
141
5
16
"i1
ni1
ui
1 niui
1 niuf 1 п1(и1+ 1)2
10.2
121
-4
1-8
1321
18
10,4 ,
3 \-3
1-9 1
27
112
10,6 ,
8l-21-161
32
18
10,в I
13 l-1
1 -13
1131
о
11,0
1251
о1А1=-46J
125
11,21 201
1
1201
20
180
11,41 121
2
1241
48
1 108
11,61 101
3
1301
90
1 160
11,8 1
6
141241
96
1 150
12,0
111
51
5
1251
36
1 1 1А2=103 1
1
1п=100
1 \ �щщ =57 ,�щи� =383
1�п1(щ+1)2=597
Вычислим условные моменты первого и второго порядков:
м; = (� niщ)/n = 571 100=0,57;
м; =(� niu�)/n=383/l00 =3,83 .
Найдем шаг: h = 10,4- 10,2 = 0,2.
Вычислим искомые выборочные среднюю и дисперсию:
x8 =M�h-F-C=0,57 ·0,2 + 11,0= 11 ,1;
D8 = [м; -(м;)2] h2 = [3,83 - (0 ,57)2]·0,22 =0,l4.
§ 5. Сведен ие первоначальных вариант
к рав ноотстоящим
Выше изложена методи ка расчета выборочных
характеристик для равноотстоящих в ариант. Н <! прак
тике, как правило, данные наблюдений не являются рав-
2'13
ноотстоящими числами . Естественно, возникает воп рос :
нельзя ли соответствующей обработкой наблюдаемых
значен ий признака свести ·вычис.пения к случаю равноот
стоящих вариант? Оказывается, можно . С этой целью
интервал , в котором заключены все наблюдаемые значе
ния признака (первоначальные варианты), делят на не
сколько равных частичных интервалов. (Практически в
каждый частичный интервал должно попасть не менее
8- 10 первоначальных вариант.) Затем нах одят середины
частичных интервалов, которые и образ уют последователь
ность равноотстоящих вариант.
В качестве частоты каждой «новой» вар ианты (середины
частичного интервала) принимают общее число первона
чальных вариант, попавших в соответствующий частичный
интервал.
Ясно , что замена первоначальных вар иант середи нами
частичных интервалов сопровождается ошибками (перво
начальные варианты левой половины частичного интер
вала будут увеличены, а варианты правой половины
уменьшены), одн ако эти ошибки будут в основном пога
шаться, поскольку они имеют разные знаки .
Пример. Выборочная совокупность объема n= 100 задана табл. 8.
Составить распределение равноотстоящих вариант.
Решен и е. Разобьем интервал 1,00-1,50, например, на сле
дующие 5 частичных интервалов:
1 ,00-1,10; 1,10- 1,20; 1,20-1,30; 1 ,30-1,40; 1,40 - 1,50.
Таблица 8
х;
1ni
1xi
1ni
1Xi
1ni
1,00
1
1,19
2
1,37
6
1,03
3
1,20
4
1,38
2
1,05
6
1,23
4
1,39
1
1,06
4
1,25
в
1,40
2
1,08
2
1,26
4
1,44
3
1,10
4
1,29
4,
1,45
3
l,12
3.
1,30
6
1,46
2
1,15
6
1,32
4
1,49
4
l,16
5
1,33
5
1,50
2
Приняв середины частичных интервалов. в качестве новых вариант у;,
получим равноотстоящие варианты: у1= 1,05; у2 = 1,15; Ya =l,25;
114=l,35i у6=1,45.
244
Найдем частоту варианты у1:
n1 = 1 +з+в+4+2+4/2 = 18.
(Поскольку первоначальная варианта 1,10 ьдновременно является
концом первого частичного интервала и началом второго, частота 4
этой варианты поровну распределена между обоими частичными ин
тервалами.)
Найдем частоту варианты у 2:
п2= 4/2+3+6+5+2+4/2=20.
Аналогично вычислим ча стоты остал ьных вариант: n3 = 25; n4 = 22:
n11 =15.
В итоге получим следующее распределение равноотстоящих ва
риант:
Yi 1,05 1,15
п;1820
1,25 1,35
25
22
1,45
15
Рекомендуем читателю убедиться, что выборочные средние и дис
персии, вычисленные по первоначальным и равноотстоящим вариан
там, окажутся соответственно равными:
Х8 = 1 ,250; Ув = 1,246; Dx =0,0\8; D11 =0,0l7.
Как видим, замена первоначальных вариант равноотстоящими не при
вела к существенным ошибкам; при этом объем вычислительной
работы значител ьно уменьшается.
§ 6 . Эмпирические и выравнивающие
(теоретические) частоты
А . Дискретное распределение. Рассмот рим дис
кретную случайную величину Х, закон распределения
которой неизвестен . Пусть произведено п испытаний, в
которых величина Х приняла n1 раз значение xi; n2 раз
значение х2 , •••, nk раз значение xk , причем � n; = п.
Эмпир ическими частотами называют фактически на
блюдаемые частоты п 1•
Пусть имеются основания предположить, что изуча
емая величина Х распределена по некоторому определен
ному закону . Чтобы яроверить, согласуется ли это предо
положение с данными наблюдений, вычисляют частоты
наблюдаемых значений, т. е. находят тео рети ческ и
частоту п.; каждого из наблюдаемых значений в предпо
ложении, что величина Х распределена по предполагае
мому закону.
Выравн ивающими (теорет ическ ими) в отличие от фак
тически наблюдаемых эмпи р ических частот называют
частоты n i , найденные теоретически (вычислением). Вы-
245
равнивающие частоты находят с помощью равенства
п; =пР1,
где п-число испытаний; Р1 -ве роятность наблюдаемого
значения х 1, вычисленная при допущении, что Х имеет
предполагаемое распределение.
Итак, выравнивающая частота наблюдаемого значения
х1 дискретного распределения равна произведению числа
испытаний на вероятность этого наблюдаемого значения.
Пример. В результате эксперимента, состоящего из n=520 испы·
таний, в каждом из которых регистрировалось число Х/ появлений
некоторого события, получено следующее эмпирическое распределение:
набл. значения .
•х1О
1234567
эмп. частота
.•n11201671306927511
Найти выравнивающие частоты п; в предположении, что случайная
величина Х (генеральная совокупность) распределена по закону
Пуассона.
·
Решение. Известно, что параметр Л, которым определяется
распределение Пуассона, равен математическому ожиданию этого
распределения. Поскольку в качестве оценки математического ожи
дания принимают выборочную среднюю (см. гл . XVI, § 5), то и в
качестве оценки Л можно принять выборочную среднюю х8 • Легко
найти по условию, что выборочная средняя равна 1,5, следовательно,
можно принять Л = 1,5
.
Таким образом, формула Пуассона
Р" (k) = (Лke-
1)/kl
принимает вид
Р62о (k)=(l,5k ·e-1
·�)/k\
Пользуясь этой формулой , найдем вероятности Р620 (k) при k=O, 1,
2, 3, 4, 5, 6, 7 (для простоты записи индекс 520 далее опущен):
Р(О) =О,223 13, P(l)=0,33469, Р(2) =0 ,25 1021, Р(3) =0, 12551 1,
Р(4) = 0,047066, Р(5) = 0,014120, Р(6) = 0 .ОО3530, Р(7) =0,000755.
Найдем выравнивающие частоты (результаты умножения округ
лены до единицы):
n� =nP (0) =520 ·0 ,22313= l16 ,
п;= пР(1)=520 ·0,33469=174.
Аналогично находят и остальные выравнивающие частоты. В ито
ге получим:
эмn.частота••1231671306927511
выр. частота •
•
116174131652572О
Сравнительно небольшое расхождение эмпирических и выравни
вающих частот подтверждает предположение, что рассматриваемое
расп ределение подчинено закону ТТуассона.
З
аметим, что если подсчитать выборочную дисперсию по данному
распределению, то окажется, что она равна выборочной средней,
т. е. 1,5. Это служит еще одним подтверждением сделанного предпо
.�южения, поскмьку для распределения Пуассона Л = М (Х) = D (Х).
246
Сравнения эмпирических н теоретических частот сна глаз», ко
нечно, недостаточно. Чтобы сделать это более обоснованно, надо
испо.пьзовать, например, критерий Пирсона (см. гл . XIX, § 23).
Проверка гипотезы о распределении случайной величины по закону
Пуассона изложена в книге: Гму р м ан В. Е . Руководство к реше
нию задач по теории вероятностей и математической статистике.
М. , «Высшая школа », 1972 (см. гл. XIII , § 17).
Б. Непрерывное распределе ние. В случае непрерывного
распределения, ве роятности отдельных возможных значе
ний равны нулю (см. гл . Х, § 2, следствие 2). Поэтому
весь интервал возможных значений делят на k непересе
кающихся интервалов и вычисляют вероятности Рi попа
дания Х в i-й частичный интервал, а затем, как и для
дискретного распределения, умножают число испытаний
на эти вероятности .
Итак, выравнивающие частоты непрерыв
ного распределения находят по равенству
nt =nPi,
где п-число испытаний; Р1- вероятность попадания Х
в i-й частичный интервал, вычисленная при допущении.
что Х имеет предполагаемое распределение.
В частности, если имеются основания предположить,
что случайная величина Х (генеральная совокупность)
распределена нормал ь но, то вы равни вающие частоты
могут быть найдены по формуле
п;=nhер(и1),
Ов
где п-число испытаний (объем выборки), h-длина час
тичного интервала, <J8 - выборочное среднее квадрати
ческое отклонение, u i = (x1-x
8)/<J8 (х1 - середина i-го
частичного интервала),
1
ер(и)=--е
- и•12.
r'2n
Пример на применение формулы (*) приведен в § 7.
Поя снение. Поясним происхождение формулы {*).
Напишем !1 лотность общего нормального распределения:
f(х)=о� е-<х-а)"/(211».
.247
При а = О и G = 1 получим плотность нормированного
распределения:
<р(х)= ..}
е-х•/2
,
r2n
или, изменив обозначение аргу мента ,
1
<р(и)="r- е-и•/2.
r2n
Положив и = (х -а)/а, имеем
1
<р (и)= "r- е - (x-a)1/(2<J2)
.
r2n
Сравнивая (**) и (***), заключаем, что
1
f(х) =а<р (и).
(***)
Если математическое ожидание а и среднее квадрати
ческое отклонение G неизвестны, то в качестве оценок
этих параметров принимают соответственно выборочную
среднюю Х8 и выборочное среднее квадратическое откло
нение 08 (см. гл. XVI, § 5,9). Тогда
1
f(х)=0ер(и),
в
где и = (Х-Х8)/<1в·
Пусть х;-середина i-го интервала (на которые раз
бита совоку пность всех наблюдаемых значений нормально
распределенной случайной величины Х) длиной h . Тогда
вероятность попадания Х в этот интервал приближенно
равна произведен ию длины интервала на значение плот
ности распределения f (х) в любой точке интервала и, в
частности, при х = Х; (см. гл. XI, § 5):
1
P; = hf (х;) =h0<р(и;).
в
Следов ательно, выравнивающая частота
п;=пР1=
n
h <р (и;),
Ов
где и1 = (x1 -Xs)/G8• Мы получили формулу (*) .
248
§ 7 . Построение нормальной кривой
по опытным да нным
Один из способов построения нормальной кривой
по данным наблюдений состоит в следующем:
1) находят Х8 и 0'8, например, по методу произведений;
2) находят ординаты Yi (выравнивающие частоты)
теоретической кривой по формуле Yi = пh • q> (и;) , где п -
О"в
сумма наблюдаемых частот, h-разность между двумя
соседни ми вариантами :
ui = (хi -хв)/0'8 и
q> (и)=
= (1/V2n)е-и•12;
3) строят точки (xi , Yi) в пря моугольной системе ко
ординат и соединяют их плавной кривой .
Близость вы равнивающих частот к наблюдаемым под
тверждает правильность допущения о том, что обследу е
мый признак распределен нормально.
Пример. Построить нормальную кривую по данному распределе
нию:
варианты•••Xi152025303540455055
частоты •
.
•ni61338741068530104
Решение. Пользуясь методом произведений (см. § 4), найдем
Х8 =34,7 , 0'8 =7,38.
Вычислим выравнивающие частоты (табл. 9).
х;
ni
хi -хв
15
6 -19,7
20
13 -14 ,7
25
38
-9 ,7
30
74
-4,7
35
106
0,3
40
85
5,3
45
30
10,3
50
10
15,3
55
4
20 ,3
lп=
366
11
-
U·=
Х;-ХВ
l
(JB
-2 ,67
-
1,99
-1 ,31
-0 ,63
0,05
0,73
1,41
2,09
2,77
q> (";)
0,01 13
0,0551
о, 1691
0,327 1
0,3984
0,3056
О,1476
0,0449
0,0086
1
Таблица 9
nh
11;=сг· q> (";)=
в
= 248·q> ("i)
3
14
42
82
99
76
37
11
2
1 �У1=366
" 249
На рис. 22 построены нормальная (теоретическая)
кривая по выравнивающим частотам (они отмечены круж
ками) и поли гон наблюдаемых частот (они отмечены
Yt
100
80
60
.:о
20
крестиками) . Сравнение
графиков наглядно по
казывает , что построен
ная теоретическая кри
вая удовлетворительно
отражает данные на
блюден ий .
Для того чтобы бо
лее уверенно считать,
что данные наблюдений
свидетел ьствуют о нор-
� мальном распределении
Xi признака, польз уются
специальными правила
ми (их называют кри
териями согласи я), понятие о которых можно найти
далее (см. гл . XIX, § 23).
о
10zo30<1\0
Рис. 22
50 60
§ 8. Оценка отклонен и я эмпирического
распределения от нормального.
Асимме три я и эксцесс
Для оценки отклонения эмпир ического распре
деления от нормального используют различные характе
ристики , к числу которых относятся асимметрия и эксцесс .
Смысл этих характеристик аналогичен смыслу асимметрии
и эксцесса теоретического распредел ения (см. гл . XII, §.9) .
Асимметрия эмп ирического распределен ия определяется
равенством
а8=та/а:,
где та- центральный эмп ирический момент третьего
порядка (см. § 2).
Эксцесс эмпири ческого распределения определяется ра
венством
ek = т4/а� -3,
где т4- центральный эмпирический момент четвертого
порядка .
Моменты та и т4 удобно вычислять методом произ
ведений (см. § 4), используя формулы (***) § 3.
250
Пример. Найти асимметрию и эксцесс эмпирического распреде·
пения:
"
варианта 10,2 10,4 10,6 10,8 11,0 11,2 11,4 11,6 11,8 12,0
частота
23
8
132520121061
Реш е н и е. Воспол�зуемся методом произведений, для чего со
ставим расчетную табл. 10. Поскольку в § 4 указано, как заполня
ются столбцы 1-5 таблицы, ограничимся краткими пояснениями: для
заполнения столбца 6 удобно перемножать числа каждой строки
столбцов 3 и 5; для заполнения столбца 7 удобно перемножать числа
каждой строки столбцов 3 и 6. Столбец 8 служит дл я контроля
вычислений по тождеству:
�п; (щ+1)4= � n;uf+4�щиf+6�п,и:+4�п;щ+п.
Контроль: � п;(щ+ 1)4= 9141;
1
12
Х;
1n;
10,2I 2
10,4
13
10,6
18
10,8 \ 13
11,0
125
11,2
120
11.4 J 12
11,6
110
11,8I 6
12,0
11
1
�п;иf+4� n;uf+6·�;цщ2+4�n;u;+n=
=4079 + 4·609 + 6·383 + 4·57 + 100=9141 .
Таблица 10
131
4
151
6
171
8
1"i 1 п1и1
1n;uf1п1иf1 п1иf 1
n;(и;+1)4
1-4/ -8
1321
-1 28
15121
162
l-3
1-9
1271
-81
12431
48
l-2
1 -16
1321
-64
11281
8
\-1
1 -13
1131
-13
1131
-
1о\ -46
1 1-286
1125
111
20
1201
20
1201
320
121
24
1481
96
11921
972
13\
30
1901
270
1810.
1 2560
141
24
196
1384 115361
3750
15\
5
1251
125
16251
1296
111031 1
895
11
1�
1
�01 1� п,и, �1�n;ul �1�п,и/ �1�n1uf �1 �п; (щ +
=57
=383
=60 9
= 4079 + 1)4=9141
251
Совпадение сумм свидетельствует о том, что вычисления произведены
правильно.
В примере § 4 для рассматриваемого распределения было най-
•
•
,г--
--
дено: М1 =0,57; М2 =3,83; D8 =0,14, следовательно, 08 = у 0,14.
Найдем условные моменты третьего и четвертого порядка:
м; = (� n;uf)/n =609/l00 = 6,09; м:= (� niuf)/n=4079/ l00=40,79 .
Найдем центральные эмпирические моменты третьего и четвер
того порядка:
Найдем асимметрию и эксцесс:
3 а меча н и е. В случае малых выборок к оценкам асимметрии
и эксцесса следует относиться с осторожностью и определить точ
ность этих оценок (см .: Сми рно в Н. В. и Дунин- Барк о в
с кий И. В. }( у рс теории вероятностей и математической статистики.
М. , «Наука», 1965, с. 277).
Задачи
В задачах 1-2 да ны выборочные варианты и их частоты. Найти,
пользуясь методом произведений, выборочные среднюю и дисперсию.
1.
Х{
п;
252
10,3 10,5 10,7 10,9 ll'1 11 ,З ll,5 ll ,7 ll,9 12'1
4
7
8
10251512104
5
Отв. Х8 = 11,19, D8 =0,19.
2.
Xj838587899193959799101
п;67121530108642
Отв. i;=90,72, D8 = 17,20.
8. Найти асимметрию и эксцесс эмпирического распределения
Х/ 10,6 10,8 11,0 11,2
n15
101730
Oms. а8 = -0,0006, ek = 0,00004.
ll,4 11, 6
20 12
11,8
6
Глава восе мнадr•атая
ЭЛЕМЕНТЫ ТЕОРИИ l(ОРРЕЛЯЦИИ
§ 1. Функциональная, статистическая
и корреляционная зависимости
Во многих задачах требуется установить и оце
нить зависимость изучаемой случайной величины У от
одной или нескольких других величин. Рассмотрим сначала
зависимость У от одн ой случайной (или неслучайной)
величины Х, а затем от нескольких величин (см . § 15) .
Две случайные величины могут быть связаны либо
функциональной зависимостью (см. гл . XII, § 10) , либо
зависимостью другого рода, называемой ·статистической,
либо быть независимыми.
Строгая функциональная зависимость реализуется ред
ко, так как обе величины или одна из них подвержены еще
действию случайных факторов , причем среди них могут
быть и общие для обеих величин (под «общи ми» здесь
подразу меваются такие факторы, которые воздействуют
и на У и на Х). В этом случае возникает статистическ ая
зависимость.
Например, если У зависит от случайных факторов Z1,
Z2, V1, V2, а Х зависит от случайных факторов Z1 , Z2 , U1,
то между У и Х имеется статистическая зависимость,
так как среди случайных факторов есть общие, а имен
но:Z1иZ2•
Статистической называют зависимость, при которой
изменение одной из величин влечет изменение расп реде
ления другой. В частности, статистическая зависимость
проявляется в том, что при изменении одной из величин
изменяется сред нее значение другой; в этом случае ста
тистическую зависимость называют корреляционной.
Приведем пример случайной величины У, которая не
связана с величиной Х функционально, а связана кор
реляционно. Пусть У-урожай зе рна, Х-кол ичество
удоб рений. С оди наковых по площади участков земл и
при равных количествах внесенных удобрений снимают
различный урожай, т. е. У не является функцией от Х.
Это объясняется влиянием случайных факторов (осадк и,
температура воздуха и др.). Вместе с тем, как показы
вает опыт, средний урожай явл яется функцией от количе
ства удобрений , т. е. У связан с Х корреляционной зависи
мостью.
253
§ 2. Условные средние
В качестве оценок условных математических
ожиданий (см. гл . XIV, § 15) принимают условные сред
ние, которые находят по даннь1м наблюдений (по выборке).
Условным средним Ух называют среднее арифметиче
ское наблюдавшихся значений У, соответствующих Х = х.
Например, если при х1 = 2 величина У приняла значе-
ния у1=5, у2=6, Уэ=10, то условное среднееУх, =
= (5+6+10)/3=7.
Аналогично оп ред�яется ус,J
J
овное среднее Ху .
Условным средниJ.t ху называют среднее арифметическое
наблюдавшихся значений Х, соответствующих У = у.
§ 3 . Выборочные уравнения регрессии
В гл . XIV, § 15 были введены уравнения регрес
сииУнаХиХнаУ:
М(У1х)=f(х), М(Х1у)=q>(у).
Условное математическое ожидание М (У 1 х) является
функцией от х, следовател ьно, его оцен ка, т. е . услов-
ное среднее Ух • также функция от х; обозначив эту функ
цию через f• (х) , получим уравнение
Ух = f•(х).
Это уравнение называют выборочным уравнением регрес
сии У на Х; функцию f• (х) называют выборочной регрес
сией У на Х, а ее г рафик - выборочной линией регрес
сии У на Х. Анал огично уравнение
хи =q>*(у)
называют вьЮорочны.м уравнением регрессии Х на У; функ
цию q>* (у) называют вы6орочной регрессией Х на У, а
ее графи к -выборочной линией регрессии Х на У.
Как найти по данным наблюде ний параметры функ
ций f• (х) и q>* (у), есл и вид их известен? Как оценить
сил у (тесноту) связи между вел ичинами Х и У и устано
вить, коррел ированы л и эти величины? Ответы на эти
вопросы изл ожены н иже .
264
§ 4. От ыскан ие параметров выборочн ого ура внения
Прямой ли нии среднек вадратичной регрессии
по несrруппированным да нным
Пусть изучается система количественных приз
наков {Х, У). В результате п независимых опытов полу
чены п пар чисел (х1, у1), (Х2 Ys), . .., (хп, Уп).
Найдем по данным наблюдений выборочное уравнение
прямой линии среднек вадратичной регресс ии (см . гл . XIV,
§ 20). Для определенности будем искать уравнение
Yx=kx + b
регрессии У на Х.
Поскольку различные значения х признака Х и соот
ветствующие им значения у признака У наблюдались
по одному разу, то группировать данные нет необходи
мости. Также нет надобности использовать понятие услов
ной средней , поэтому искомое уравнение можно записать
так:
у=kх+ь.
Угловой коэффициент прямой линии регрессии У на Х
называют выборочным коэффициентом регрессии У на . Х
и обозначают через Рих ; он является оценкой коэффици
ента регрессии � (см . гл . XIV, § 20).
Итак, будем искать выборочное уравнение прямой
линии регрессии У на Х вида
У=Рухх+Ь.
(*)
Подберем параметры Рих и Ь так, чтобы точки
(х1; у1) (х2; у2), ••• , (хп; Уп) , построенные по данным наб
людений, на плоскости хОу лежали как можно ближе
к прямой (*) · Уточним смысл этого требования. Назовем
отклонением разность
У;-У; (i= 1, 2•..., п),
где У;-вычисленная по уравнению (*) ордината, соответ
ствующая наблюдаемому значению х;; У; -наблюдаемая
ордината , соответствующая Х; .
Подберем параметры Pvx и Ь так , чтобы сумма квад
ратов отклонений была минимальной (в этом состоит
сущность метода наименьших квадратов). Так как каж
дое отклонение зависит от отыскиваемых параметров, то
и сумма квадратов отклонений есть функция F этих
255
параметров (временно вместо Рух будем писать р):
п
F (р, Ь) = � (Yi-Yi)2
,
i=1
или
п
F(р, Ь)= � (pxi +b-yi)2•
i=1
Для отыскания минимума приравняем нулю соответству
ющие частные производные :
дF
п
дn = 2 � (pxi +b-yдxi=O;
t'
L=1
дF
п
дЬ =2 �(pxi+b-yi)=O.
i=1
Выполнив элементарные преобразования , получим си
стему двух линейных уравнений относительно р и Ь* 1:
(� х2)р+(�х)Ь=�ху; (� x) p+nb=�y. (**)
Решив эту систему , найдем искомые па раметры:
Рух=(п -� ху -�Х · �у)/(п �х2 -(�х)2);
Ь=(�х2
• �у- �х·�ху)/(п �х2 -(�х) 2). (***)
Аналогично можно найти выборочное уравнение пря
мой линии регрессии Х на У:
ху = Рхух+С,
где Рху -выборочный коэффициент регрессии Х на У.
Пример. Найти выборочное уравнение прямой .пинии регрессии
У на Х по данным п = 5 наблюдений:
х 1,00 1,50 3,00 4,50 5,00
у 1,25 1,40 1,50 1,75 2,25
Р е ш е н и е. Составим расчетную табл. 11.
Найдем искомые параметры, для чего подставим вычисленные по
таблице суммы в соотношения (***):
256
Рху = (5 -26,975 - 15·8,15)/{5 ·57,5- 152) = 0,202;
Ь = (57,5·8 ,15- 15 ·26 ,975)/62,5 = 1 ,024.
п
•> Для простоты записи вместо � условимся пиtать � .
.
l=1
Таблица Il
x
i
1Yj
1х]
1 XjY/
.
1 ,00
1,25
1 ,00
1 ,250
1,50
'
1,40
2,25
2, 100
3,00
1 ,50
9,00
4,500
4,50
1,75
20 ,25
7,875
5,00
2,25
25 ,00
11,250
�Xj =l5
1 �У;=8,15
1�2
х;. =57,50
1 � XiYi =26 ,975
Напишем искомое уравнение регрессии:
У =0,202х + 1,024.
Для того чтобы получить представление, насколько хорошо вы
численные по этому уравнению значения У; согласуются с наблюдае�
мыми значениями у;, найдем отклонения У; -у;. Результаты вычис
лений приведены в табл. 12 .
Таблица 12
х
,
1У.
1У;
1 Уги;
1
1 ,00
1,226
1,25
-0 ,024
1,50
1,327
1,40
-0 ,073
3,00
1,630
1,50
О, 130
4,50
1,933
1,75
0,183
5,00
2,034
2,25
-О ,216
,
l(ак видно из таблицы, не все отклонения достаточно малы. Это
объясняется малым числом наблюдений.
§ 5. Коррел яционная таблица
При большом числе наблюденИй одн о и то же
значение х может встретиться nx раз, одно и то же зна
чение у-пу раз, одна и та же пара чисел (х, у) может
наблюдаться nxy раз. Поэтому данные наблюден ий груп
пируют, т. е. подсчитывают частоты nx, пу, nxy · Все
сгруппированные данные зап исывают в виде таблицы.
которую называют корреляционной .
9-2 10
257
Поясним устройство корреляционной таблицы на при
мере табл. 13.
Таблица 13
х
у
1111
10
20
30
40
п
у
0,4
5
-
7
14
26
0,6
-
2
6
4
12
0,8
3
19
-
-
22
nx
181
21
1131
18
n=60
В первой строке таблицы указаны наблюдаемые зна
чен ия ( 1 О; 20; 30; 40) признака Х, а в первом столбце -
наблюдаемые значен ия (0,4; 0,6; 0,8) признака У. На пе
ресечении строк и столбцов находятся частоты nxy наблю
даемых пар значений Признаков. Например, частота 5
указывает, что пара чисел (10; 0,4) наблюдал ась 5 раз .
Все частоты помещены в прямоугольнике, стороны кото
рого проведены жирными отрезками . Черточка означает;
что соответственная пара чисел, например (20; 0,4), не
наблюдалась.
В последнем столбце записаны суммы частот строк.
Например, сумма частот первой строки «жирного» прямо
угольника равна пу = 5+7+.14=26; это число указы
вает, что значение признака У, равное 0,4 (в сочетаний
с различными значениями признака Х), наблюдалось
26 раз.
В последней строке записаны суммы частот столбцов.
Например, число 8 указывает, что значение признака Х,
равное 10 (в сочетании с разл ичными значениями при
знака У), наблюдалось 8 раз.
В клетке, расположен ной в нижнем правом углу
таблицы, помещена сумма всех частот (общее число всех
наблюдений п) . Очевидно, � nx = � пу = п. В нашем при
мере
� nx=8+21+13+18 =60 и � ny =26+ 12 +22=60:
258
§ 6. Отыскание парам�тров выборочного
уравнения прямой линии регрессии
по сгруппированным данным
В § 4 для определения параметров уравнения
прямой линии регрессии У на Х была получена система
уравнений
(�х2)Pvx+(�x)Ь-=�ху, }
(�х) Pvx+ nb =�у.
Предпол агалось, что значения Х и соответствующие
им значения У наблюдались по одному разу . Теперь же
допустим, что получено большое число данных (практи-
, чески для удовлетворительной оценки искомых парамет
ров дол жно быть хотя бы 50 наблюдений), среди них есть
повторяющиеся , и они сгруппированы в виде коррел я
ционной таблицы. Запишем систему (*) так, чтобы она
отражала данные кор реляционной таблицы. Восполь
зуемся тождествами :
�Х = пх (следствие из Х=� х/п) ;
�y=ny (следствие из у=�у/п ) ;
�Х2 = nx2 (следствие ИЗ Х2 = �X2/n),
� ху=�nxuXY (учтено, что пара чисел (х, у) наблюда-
лась nxy раз) .
.
Подст авив правые части тождеств в систему (*) и со
кратив обе части второго уравнения на п, получим
(пХ2)Pvx+(пх)Ь=�nxyху, }
(х)Pvx+Ь=у.
Решив эту систему, найдем парамет ры Pvx и Ь и, следо
вательно, искомое уравнение
Ух =Рvхх+Ь.
Одн ако более целесообразно, введя новую величину -
выборочный коэффициент кор реляции, написать уравне
ние регрессии в ином виде . Сделаем. это . Найдем Ь из
второго уравнения (**) :
b=Y -Pvx x.
259
Подставив правую часть этого равенства в уравнение
Ух=Рух Х + Ь, ПОЛУЧИМ
Ух -У = Рих (х-х).
{***)
Найдем *> из системы {*) коэф
ф
ициент регрессии , учи
тывая, что х2 -{х)2 = cr� (см. гл . XVI, § 10):
�nx.,ry-nxy �nx.,ry-nxy
Рих =
п [х2 -(x)11J =
па�
•
Умножим обе части равенства на . дробь C1xf<:J11 t
.ох_ �nxyxg-пxi
Рих -
-
-
-
•
Оу
nOxOy
Обозначим правую часть равенства через rв и назовем ее
выборочным коэффициентом коррелЯции (см. замечание 3):
•
Подставим r в в (****) :
Отсюда
Подставив правую часть этого равенства в (***), оконча
тел ьно пол учи м выборочное уравнение прямой л инии
регрессии У на Х вида
-
-
Оу
-
Ух-У=rв::-(х-х).
Ох
3 а м е ч а н и е 1. Аналогично находят выборочное уравнение
прямой линии регрессии Х на У вида
•> В этой- главе выборочное среднее квадратическое отклонение
обозначено через о; например, ох-выборочное среднее квадратиче
ское отклонение Х.
260
3 а мечани е 2. Уравнения выборочных прямых регрессии
можно записать в более симметричной форме:
-
-
Ух-У
Х-Х Ху -Х
у-у
-
-
-=Гв-
-- ,-
_- ==rв --
-
.
Оу
Ох
Ох
Оу
3амечание3. _Выборочный коэф
ф
ициент корреляции является
оценкой коэф
ф
ициента корреляции
JLxu
М (ХУ)-М (Х)·М(У)
r=--=
•
ОхОу .
ОхОу
Действительно, используя метод моментов (см. гл . XVI, § 21),
т. е. заменив числовые характеристики их оценками, получим
[(�nxrY)fnj-xu �пхrи - пху
Гв=
-
-
ОхОу
noxOy
§ 7. Выбороч ный коэффициент корреляци и
Как следует из предыдущего параграфа, выбо
рочный коэффициент корреляции о пределяется равенством
�пх11ху-пху
fв=
-
-
'
noxo11
где х, у-ва рианты (наблюдавшиеся значения) признаков
Х и У ; nху -частота пары вариант (х, у); n:-объем
выборки (сумма всех частот); о.=! , .0-и -выборочцые средние
квадратические отклонения; х, у-выбор очные средние.
Известно , что если вел ичины У и Х независимы, то
коэффициент корреляции r = 0 (см. гл . XIV, § 17); если
.r=±1,тоУ иХ связаны линейнойфункциональной
зависимостью (см. гл . XIV, § 20). Отсюда следует, что
коэффициент к орреляции r измеряет силу (тесноту) ли
нейной связи между У иХ.
Выборо чный коэффициент корреляции r в явл яется
о ценкой коэффициента корреляции r генеральной со во
купности и поэто му также служит для измерения линей
н ой связи между величинами - количествен ными призна
ками У и Х. До пустим, что выборочный коэффициент
корреляции, найденный по выборке, о казался отличным
о т нуля. Так как выб орка отобрана случайно , то отсюда
еще нельзя заключить, что коэффициент ко рреляции ге
неральной совокупности также отличен от нуля. Возни
кает необходимо сть про верить гипотезу о значимости
(существенности) выборочно го коэффициента ко рреляции
261
(или, что то же , о равенстве нулю коэф
ф
ициента корре
л я ции генерал�ной сов о купности) . Есл и гипотеза о равен
стве нулю ге нерального коэффицие нта коррел яции будет
отве ргнута, то выборочный коэффицие нт коррел яции зна
чим, а вел ичины Х и У коррел ированы; есл и гипотеза
принята, то выборочный коэффициент коррел яции незна
чим, а величины Х и У не коррелированы.
Проверка гипотезы о значимости выборочного ко эф
фициента коррел яции для сл учая нормал ьной коррел яции
изложена далее (см. гл. XIX, § 21).
Есл и - выборка имеет достаточно бол ьшой объем и
хорошо представл я ет гене рал ьную сово купность (репре
зентативна}, то заключение о тесноте линейной зависимо
сти между признаками, полученное по данным вьlборки,
в известной сте пени может быть распростране но и на
генеральную совокуп ность. Наприме р, дл я оценки коэф
фиц иента ко ррел яции r
r
нормал ьно распределенной гене
рал ьной совокупности (при п � 50) можно воспользо
ваться формулой
31-г;__
__
+З1+г:
rв-
vп::
::
::
::.
'
r
::
::
::
:
'в
vп.
3амечание 1. Зна� выборочного коэф
ф
ициента корреляции
совпадает со знаком выборочных коэф
ф
ициентов регрессии,\ что сле
дует из формул (см. § 6):
-
�
f171
Ох
()
Рух=Гв-:;-
-
; Рху=Гв.�•
*
(Jх
f1y
3амечание 2. Выборочный коэф
ф
�циент корреляции равен
среднему геометрическому выборочных коэф
ф
ициентов регрессии.
Действител�;но; перемножив левые и правые части равенств (•),
получим
Оrсюда
Гв = ± УРухРху·
Эа:ак при радикале в соответствии с замечанием 1 должен совпадать
со знаком коэф
ф
ициентов -регрессии.
§ 8. Методика вычислени я выборочного
коэф
ф
ициента корреляции
Пусть требуется по данным коррел яционной
табл ицы вычисл ить выборочный коэф
ф
и циент ко рреляции.
Можно значител ьно .у простить расчет, есл и перейти к
262
условным вариантам (при этом величина rв не изменится)
.
ui= (xi-C1)/h1 и vi = (yi -C2)/h2•
В этом случае выборочный коэффициент ко рреляции вы
числ яют по формуле
rв=(� nuvиv -nuv)/(nauav) ·
Величины u, V, ап и crv можно найти методом произве
дений (см. гл . XVII, § 4), а при малом числе данных
непосредственно исходя из оп редел ений этих величин.
Остается указать спос об вычисл ения � navuv, где nпv -
частота пары условных вариант (и, v).
Можно доказать, что справедл ивы формулы (см. пояс
нение в конце параграфа):
�nпvUV=�vU, где U=�navU,
�navUV=� uV, rде V = � nuvV•
Для контроля целесообразно выполнить расчеты по
обеим формул ам и сравнить резул ьтаты; их совпадение
свидетел ьствует о правил ьности вычисл ен ий.
Покажем на примере, как пользоваться приведенными
фо рмул ами.
Пример 1. Вычислить � n0vиv по данным корреляционной табл. 14. ·
Таблица 14
х
у
11111п
10
20
зо
40
50
60
у
15
5
171
-
1-1
-
1-
12
25
-
120
123
1-1
-
1-
43
35
-
1-1
30
147
121
-
79
45
-
1-1
10
111
120
16
47
55
-
1-1
-
191
7
13 19
п.,.
151
27
1631
67
129
191
n=200
.
263
Решение. Перейдем к условным вариантам: щ = (x1 -C1)/f11 =
= (xi-40)/IO (в качестве ложного ну.11я С1 взята варианта х =40.
расположенная примерно в середине вариащ1онного ряда; шаг hi
равен разности между двумя соседними вариантами: 20-10=10) и
v1 =(y1 -C,.)/h2 =(y1 -З5)/IO (в качестве ложного нуля С2 взята
варианта у=35, расположенная в середине вариационного ряда;
шаг h2 равен разности между двумя соседн ими вариантами:
25-15=10).
Составим корреляционную таблицу в условных вариантах. Прак
тически это делают так: в первом столбце вместо ложного нуля С2
(варианты 35) nишут О; над нулем последовательно записывают -1 .
-2; под нулем пишут 1 , 2. В первой строке вместо ложного иуля С1
(варианты 40) пишут О; слева от нуля последовательно записывают
-1, -2, -3; справа от нуля пишут 1, 2. Все остальные данные
переписывают из первоначальной корреляционной таблицы. В итоге
получим корреляционную табл. 15 в условных вариантах.
Та. блица 15
1�1--=;-/
и
1
v.
111
по
-1
о
1
2
-2
5
171
-
1-1
-
1-
12
-1
-
1201
23
1-1
-
1-
43
.о
-
1-1
30
1471
2
1-
79
1
-
1-1
10
1111
20
16 47
2
-
1-1
-
191
7
13 19
пи.
15.
,271
63
167
129
19
n=200
Теперь для вычисления искомоji суммы � nuvUV составим рас
четную табл . 16. Пояснения к соста влЕ'нию табЛ. 16:
1. В каждой клетке, в которой частота nuv :/; О, записывают
в правом верхнем углу произведение частоты nav на варианту и.
Например, в правых верхних углах клеток первой строки записаны
произведения: 5·(-3)=- 15; 7·(-2)=- 14 .
,
2. Складывают все числа , помещеиньrе в правых верхних углах
Клеток одной строки и их сумму записывают в клетку этой же строки
столбца И. Например, для первой строки И =- 15+(-14)=-29.
3. Умножают варианту v на И и полученное произведение заqи
сывают в последнюю клетку той же строки, т. е . в клетку столбца
vU . Например,. в первой строке таблицы v = - 2, U =-29; следо
вательно, vU =(-2) -( -29) =58.
4. Наконец, сложив все числа столбца vU. получают сумму
� vU, которая равна искомой сумме � nuflиv. Например, для табл. 16
о
имеем � vU = 169; следовательно, искомая сумма � navUV = 169.
v
264
Таблица 16
1
и
11=iп:vи 1
v
1
1
1
1
1
vU
-3
-2
-1
о
1
2
/-15
!=:.!
!.
.
-29
58
-2
5
7
-
-
-
-
-
10!
-141
1-40
1-23
-63
63
-1
-
20
23
-
-
-
-20 1
-2 31
.
1-30
1_0
__
1_2
_
-28
о
о
-
..
..
.
30
47
2
-
-0- 1
-0-1
-0- 1
1-10
1_0
_
1�
6
12222
1
-
-
10
11
20
101
-rп201
-Г/
1
_
0_
,_7_
3
1
413
26
2·
""
"'
-
-
9
7
181 14/
-
6-
I
'
V=:Е nuvV
-10
-34
-
13
29
34
12
:.EvU=l69
v
иV
30
68
13
о
34
24
:ЕиV=169
+-Контрольj
�
и
�
Для контро.�я аналогичные вычисления производят по столбцам:
произведения nuvV записывают в левый нижний угол клетки , содер
жащей частоту nuv :f:
:
О; все чисда , помещrнные в левых нижних
углах клеток одного столбца , складывают и их сумму записывают
в строку V; далее умножают каждую варианту и на V и результат
записывают в клетках последней строки.
Наконец, сложив все числа последней строки, получают сумму
� иV, которая также равна искомой сумме � nuvиv. Например, для
и
табл. · 16 имеем � иV = 169; следовательно, � nuvUV= 169.
и
Теперь, когда мы научились вычислять � nuvUV, при
· ведем пример на отыскание выборочного коэффициента
iКОрреляции.
n.е,
имер
2. Вычислить выоорочныа коэффициент корреляции
·r8 = (Z,;navиv - nuv)/(naa av) по данным корреляционной табл . 14.
Решение
.
Перейдя к условным вариантам, получим корреля-
;ционную табл. 15. Величины u, v, Ou и Ov можно вычислить методом
произведений; однако, поскольку числа щ, v 1 малы, вычислим u и ti,
исходя из определения средней, а Gu и О'; -используя формулы (см.
rл. XVI, § 10)
Оu=Уи2-(и)2, Ov=Yv2-(v)2•
Найдем U и V:
u=(�nuи)/n= [5·(-3)+27.(-2)+63.(-1)+29.J+
+9·2}/200 =- 0,425;
v = (� nvv)/n =[12- (-2) +43-(- 1) +47 . 1+19·2)/200 =0, 09.
Вычислим вспомогательную величину u2, а затем О'а:
u2 = (� nuи2)/n =(5 ·9+27 -4+63- 1 +29- 1 +9-4)/200 = 1 ,405;
оа=Уu2 -(и)2 = YI ,405 - (0,425)2 = I,106.
.
�
-
Аналогично пол учим 0'8 = 1,209.
Найдем искомый выборочный коэф
ф
ициент корреляции, учитывая,
что ранее уже вычислена сумма � nuvUV = 169:
Гв = (� nuvUV- nuv)/(nGuGv) =
= (169-200· ( - 0,425) . 0 ,09)/(200 . 1 ,106 . J ,209) = 0,603.
Итак, r8= 0,603.
·
Поя с
.
нение. Покажем, что � nuvUV= � vU , где И=� nuvU·
v
и
Рассмотрим корреляционную таблицу в условных вариантах (для про·
стоты таблиuа содержит мало данных):
266
11
и
v
1
1
и,
и,
и.
V1
1 nu 1�'1
1 nU2'Ut
1 nuз'Vt
V2
1 nu,v,
1 nU2'V2
1 nu:ruз
Найдем � nuvиv двумя способами: суммируя произведения часrот
n1111 на �:�роизведен ия соответствующих условных вариант uv по строкам
и по столбцам . Для первой строки таблицы
nu1v1 • (u1v1) +nu.vs • (U2V1) +пи.111 • (u3v1) = V1 � nu·v1U•
(•)
и
Для второй строки таблицы
nu1v2 • (u1v2)+nu:ru• • (u2v2)+nи•'V•• (и3v2) = v2 � nuv2U.
(•*)
Сложим· (*) и (н) :
Ита к,
где U =� nuvи.
и
�nu·vиv = v1 � nuv1n+v2 � nuv2U.
11
и
и
Аналогично, суммируя произведения частот na11 на произведения
соответствующих условных вариант uv по столбцам, получим
�nиvUV=� uV,
и
§ 9. При мер на отыскание выборочноrо
ура�не ния прямо й ли нии регрессии
Теперь, когμ.а известно, как вычисляют rа• уме
стно привести пример на отыскание уравнения прямой
л инии регрессии.
Поскольку при нахождении rв уже вычислены и, v,
011, Ov, то целесообразно пользоваться формулами:
'Gx= hi1a, оу=h/1r."х=uh1+с1, у=vh2+с11•
Здесь сох ранены обозначения предыдущего параграфа.
Рекомендуем читателю самостоятел ьно вывести эти фор"
мулы.
\267
Пример. Найти выборочное уравнение прямой линии регрессии
У на Х по данным корреляционной табл. 14 примера предыдущего
параграфа.
Р е ш е н и е. Напишем искомое уравнение в общем виде:
-
-
-
Оу
-
.
Ух -У=Гв -=:-(х-х).
(*)
f1x
l{оэф
ф
ициент корреляции у:Же вычислен в предыдущем параграфе.
Остается найти х, у, Ох и otl:
.
х=uh1+ci = - 0,425· 10+40 =35,75J
y=vh2 +c2 =0,09 . 10+з5 =35 ,9;
ах = a"hi= 1,106 . 10=11,06; О-11 =ovh2 = 1,209. 10=12,09.
Подставив найденные величины в (=1с), �олучим искомое уравнение
-
12,09
Yx - 35,9=Q ,603
11 , О6 (х- 35,75),
или окончательно
Ух =О,659х+ 12,34 .
Сравним условные средние, вычисленные: а) no этому уравнению;
б) по данным корреляционной табл. 14 . Например, при х=ЗО:
а) Уа о =О,659.зо+12,34 =32,11;
1
б) Уао = (2з .2s+зо . зs + J0. 45)/63=32,94.
Как видим, согласование расчетного и набJJЮдttемого условных
средних -удовлетворительное.
§ 1 О. Предварительные соображения к введен ию
мер ы JIЮбой корреляционной связи
Выше рассматривалась оценка тесноты л иней�юй
корреляционной связи. Как оценить тесноту л ю б о й
корреляционной связи?
Пусть данные наблюдений над количественными при
зн·аками Х и У сведены в корреляцио нную таблицу. Можно
считать, что тем самым набл юдаемые значения У раз
биты на группы; каждая группа содержит те значения У,
которые соответствуют о пределенному значению Х. На
пример, дана коррел яционная табл. 17 .
К первой группе относятся те 10 значений У (4 раза
наблюдалось у1 = 3 и 6 раз у2 = 5), которые соответст
вуют Xi=8.
Ко второй группе относятся те 20 значений У ( 13 раз
набл юдалось у1 = 3 и 7 раз у2 = 5), кото рые соответствуют
Х2=9.
268
Таблица 17
1х1
у
1
3
1
9
3
141
13
5
6
17
n
x
1101
20
-
1 4,2
1 3,7
Ух
Условные средние теперь можно назвать групповыми
сред ними : групповая средн яя первой группы У.=
= (4 ·3+ 6·5)/10 = 4,2; групповая средняя второй группы
Уа = (13·3+7·5)/20 -:- 3,7.
Поскольку все значения признака У разбиты на груп
пы , мож�tо представить общую дисперсию признака в виде
суммы внутригрупповой и межгрупповой дисперсий (см.
гл. XVI, § 12):
Покажем с.п раведливость следующ их утвержден ий:
1 ) если У связан с Х функциональной зависимостью.
то
Dмежrр/Dобщ = 1;
2) если У связан с Х корреляционной зависимостью,
то
Dмежrр/Dобщ < 1.
Доказательство. 1) Если У связан с Х функ
циональной зависимостью,тоопределенномузна
чению Х соответствует одно значение У. В этом случае
в каждой группе. содержатся· равные между собой значе
ния У*>, поэтому групповая дисперсия каждой группы
равна нулю. Следовател ьно , средняя арифметическая
•> Например, если значению х1 =3 соответствует у1 =7, причем
х1 = 3 наблюдалось 5 раз, то в группе содержится 5 значений у1 =7.
269
групповых дисперсий (взвешенная по объемам групп), т. е .
внутригрупповая дисперсия Dвнrр =О и равенство (*),
имеет вид
Отсюда
Dмежrр/Dобщ = 1.
2)ЕслиУ связанс Х корреляционной завн
с и мость ю, то определенному значению Х соответствуют,
вообще говоря, различные значения У (образующие груп
пу). В tтом случае групповая дисперсия каждой группы
отл ична от нуля. Следовательно, средняя арифметическая
групповых дисперсий (взвешенная по объемам групп)
Dвяrр +О. Тогда одно положител ьное слагаемое DиежГJ
меньше суммы двух положительных слагаемых Dвиrр +
+ Dмежrр с; Dобщ:
Отсюда
Dмежrр/Dобщ < 1.
Уже из приведенных рассуждений видно, что чем связь
между признаками ближе к функциональной, тем меньше
D88� и, следовател ьно , тем больше приближается Dмежrр
к Dобщ• а з начит, отношение Dмежrр/Dобщ - к еди нице.
Отсюда ясно, что целесообразно рассматривать в качестве
меры те сноты корреляционной зависи мости отношение
межгрупповой дисперсии к общей, или , что то же, отно
шение межгруппового среднего квадратического отклоне
ния к общему среднему квадратическому отклонению.
§ 11. Выборочное корреляционное отн ошение
Для оценки тесноты линейной корреляционной
связи между признаками в выборке служит выборочный
коэф
ф
ициент коррел яции. Для оценки тесноты нелиней
в о й корреляционной связи вводят новые сводные ха
рактеристики :
11uх- выборочное корреляционное отношение У к Х ;
11хи - выборочное корреляционное отношение Х к У .
Выборочным корреляцuонным отношением У к Х на-
зывают отношение межгруппового среднего квадратиче
ского отклонен ия к общему среднему квадратическому
270
откл онению признака У:
flyx = (Jмежrр/(Jобщ•
ил и в других обозначен иях
flyx =(Ji 1(Jy•
х
8десь
(]Ух = УDмежrр = Jf(�nx (Yx - Y)2)/n ;
ау =у Dобщ = V<�пу(y-Y)1)/n,
где n -объем выборки (сумма всех частот) ; пх - частота
значения х признака Х; пи -частота значения у признака
У; у-общая средняя признака У; Ух -условная средняя
приsн(lка У .
Аналогично определ яется выборочное коррел яционное
отношение Х к У1
flxu = (Jx 1(Jх·
11
Пример. Найти Чvх по данным корреляционной табл. 18.
Таблица 18
х
у
1
1
1
10
20
30
ny
15
4
128
16
38
25
6
1-1
6
12
nx
1101
28
112
1·
n=50
-
121
115
1201
Ух
Реш е н и е. Найдем общую среднюю:
v=(� nyy)/n = (38 · I5+ 12°25)/50 = 17,4.
Найдем общее среднее квадратическое отклонение:
а11 = Jf(� n11(y-y)1)/n =
= }'[38 (15.- 17,4)2 + 12 (25 - 1 7,4)2)/50 = 4,27.
271
Найдем межгрупповое среднее квадра
,
тическое отклонение:
ОУх=V[�nx(Yx-Y)2]/n= .
= Y[ IO (21 -17,4)2 +28 (15- 17,4) 2 +12 (20- 17,4)2]/50 = 2 ,73 .
Искомое корреляционное отношение
riux = о- /оu =2,7З/4,27 =0,64.
Ух
§ 12. Свойства выборочного корреляционного
отношения
Поскольку 1'1ху обладает теми же свойствами, что
и 1'1ux• перечислим свойства только выборочного корре
ляционного отношения 1'Jyx• которре далее дл я упрощения
записи будем обозначать через 1') и дл я простоты речи
называть «корреляцион.ным отношением».
·
Свойство 1 . Корреляционное отношение удовлетво
ряет двойному неравенству
0�1}�1.
Док аза тел ьство. Неравенство 't'J�О следует из
того, что 't'J. есть отношение неотрицательных чисел -
средних квадратических откл онений (межгруппового
к общему).
Для доказательства неравенства 1} � 1 воспользуемся
формулой
Dобщ = Dвигр + Dмежгр•
Раздел ив обе части равенства на Dобщ• получим
1::.
.:
Dвягр/Dобщ + Dмежгр/Dобщ•
или
1=D
в
ягр/Dобщ +112•
Так как оба слагаемых неот рицательны и сумма их равна
еди нице, то каждое из них не превышает еди ницы; в част
ности, 1') 2 � 1. Приняв во внимание, что 1') �О, заключаем:
0�1}� 1.
Свойство 2. Если 1}=О, то признак У с призна
ком Х корреляционной зависимост ью не связан.
·
Доказател ьство. По усл овию,
1} = (Jмежгр/Gобщ = О .
Отсюда Gмежгр =О и, следовател ьно, Dмежгр = О.
272
Ме;Щгрупповая дисперсия есть дисперс� я услов!fы
_
х
(групповых ) средн их Ух относительно общеи среднеи у.
Равенство нулю межгрупповой дисперсии означает, что
при всех значен иях Х условные средние сохраняют по
стоянное значение (равное общей средн ей). Иными словами,
при ч =-0 условная средн яя не является функцией от Х,
а значит, признак У не связан корреляционной зависи
мостыо с признаком Х.
3 а м е ч а н и е 1. Можно доказать и обратное предложение: если
признак У не связан с признаком Х корреляционной зависимостью,
тоf}=0.
Свойство 3. Если ч=1, то признак У связан с при
знаком Х функциональной зависимостью.
Док азатель ств о. По ус.човию,
Отсюда
Возведя обе части равенства в квадрат, получим
Dввгр =0.
Поскольку внутригрупповая дисперсия есть средн яя
арифметическая групповых дисперсий (взвешенная по объ
емам групп) , то из (**) следует, что дисперсия каждой
группы (значений У, соответствующих определенному
значению Х) равна нулю. А это означает, что в группе
содержатся равные значения У, т. е . каждо му значению
Х соответствует одно значение У. Следовател ьно , при
'1
1
= 1 признак У связан с признаком Х функциональной
зависимостью.
3 а м е ч а н и е 2. Можно доказать и обратное предположение:
если признак У связан с признаком Х функциональной зависимостыо,
то f}=l.
Приведем еще два свойства, опустив доказ ательств а.
С в ойств о 4. Выбор очное корреляционное отношение
273
не меньше абсолют ной величины выборочного коэффициента
корреляции: ТJ � 1'в1·
С в ойств о 5. Если выбор очное корреляционное отно
шение равно абсолютной величине выборочного коэффи
циента корреляц ии, то имеет место точная линейная
zсорреляционная зависимость.
Другими словами1 если ТJ = 1 rв /, то. точки (х1 ; у1),
(х2 ; У2), . . .., (хп; Уп) лежат на прямой линии регрессии ,
найденной способом наименьших квадратов.
§ 1 3. l(орреляционное отношение как мера
корреляционной связи. Достои нства
.
и недостатки этой меры
В предыдущем параграфе установлено : при ТJ =О
признаки не связаны коррел яционной зависимостью; при
ТJ = 1 имеет место функциональная зависимость.
Убедимся , нто с воз растанием ТJ корреляционная связь
становится более тесной. С этой целью преобразуем соот
ношение D06щ = Dвнгр + Dмежгр так:
Dвнгр = Dобщ [ 1 -(Dмежгр/Dобщ)],
или
Dвнгр =Dобщ(l-112).
ЕслиТJ�1,тоDв11гр--
-
о, следовател ьно, стремится к нулю
и каждая из групповых дисперсий. Другими словами,
при возрастании 11 значения У, соответств ующие опреде
ленному значению Х, все меньше различаются между
собой и связь У с Х становится более тесной, переходя
в функциональную при ТJ = 1.
Поскольку в рассуждениях не дел алось · никаких до
пущений о форме корреляционной связи, ТJ служит мерой
тесноты связи любой, в том числе и линейной, формы .
В этом состоит преимущество корреляционного отношения
перед коэффициентом корреляции, который оценивает
тесноту лишь линейной зависимости. Вместе с тем кор
реляционное отношение обладает нед о ста т к ом: оно
не позволяет судить, насколько близко расположены
точки, найденные по данным наблюден ий, к кривой опре
деленного вида, например к параболе, ги перболе и т. д.
Эrо объясняется тем, что при определении корреляцион
ного отноше ния форма связи во внимание не принималась.
274
§ 1 4. Просте йшие случаи кри волинейной
корреля ции
Если графш< регрессии Ух = f (х) или хУ = <:р (у)
изображается кривой линией , то корреляцию называют
криволинейной .
"
Например, функции регрессии У на Х могут иметь
вид:
Ух =ах2 +ьх+с (параболическая корреляция второго
порядка) ;
Ух =ах3 + Ьх2 + сх + d (параболическая корреляция
третьего порядка).
Для оп ределения вида функции регрессии строят точки
(х; Ух) и по их расположению делают заключение о при
мерном виде функции регресси и; при окончательном ре
шении принимают во внимание особенности , вытекающие
из сущности решаемой задачи .
Теория криволинейной корреляции решает те же за"
дачи, что и теория линейной корреляции (установление
формы и тесноты кор реляционной связи). Неизвестные
параметры уравнения регрессии ищут методом наимень
ших квадратов. Для оценки тесноты криволинейной кор
реляции служат выборочные корреляционные отношения
(см. § 11).
Чтобы выяснить суть дела, ограничимся параболиче
ской корреляцией второго порядка, предположив, что
данные п наблюдений (выборки) позволяют считать , что
имеет место именно такая корреляция. В этом случае
выборочное уравнение регрессии У на Х имеет вид
Ух =Ах2 +Вх+С,
(*)
где А , В, С-неизвестные параметры.
Пользуясь методом наименьших квадратов, получают
систему линейнч1х уравнений относительно неизвестных
параметров (вывод опущен, поскольку он не соде ржит
ничего нового сравнительно с § 4) :
(�пххЧА+(�nxX8)B+(�nxX2)С=�nxYxX2; \f
(�rixx3) А+(�nxX2) В+(�nxx) С=� nxYxX;
(�nxx2) А+(� na;X) В+пС = � nxYx·
(**)
Найденные из этой системы параметры А , В, С подстав
ляют в ( *); в итоге получают искомое уравнение регрессии.
275
Пример. Найти выборочное уравнение регрессии У на Х вида
Ух = Ах2 +вх+с по данным корреляционной табл. 19.
Таблица 19
х
у
111
1
1,1
1,2
пу
6
8
121
-
10
7
-
1301
-
30
7,5
-
111
9
10
nx
181
33
191
n =50
·-
161
Ух
6,73
1 7,5
1
Составим расчетную табл. 20. Подставив числа (суммы) нижней
строки табл. 20 в (**), получим систему
74,98 А +67,48 в+6О,89 С=4IЗ,9З, }
67,48 А +60,89 B+55,l0 С=373,30 ,
60,89 A+55,IO в+sо С=ЗЗ7,59 .
Решив эту систему, найдем: А = 1 ,94, В=2,98, С= 1 , lО. Напишем
искомое уравнение регрессии:
Ух = 1,94х2+2,98х+1,10.
Легко убедиться, что условные средние, вычисленные по этому
уравнению, незначительно отличаются от условных средних корре
ляционной таблицы. Например, при х1 = 1 найдем: по таблице g1 =6;
по уравнению у1 =1,94+2,98+1,10=6 ,02. Таким образом, найденное
уравнение хорошо согласуется с данными наблюдений (выборки).
§ 1 5. Пон ятие о множественной корреляции
До настоящего параграфа рассмат ривалась кор
реляционная связь между двумя признаками . Если же
исследуется связь между несколькими признаками , то
корреляцию называют множестеенной .
276
В простейшем слу
чае числ о признаков
равно трем и связь меж
ду ними линейная:
z=ax+ьu+c.
В этом сл учае возни
кают задачи:
1) найти по данным
наблюден ий выборочное
уравнение связи вида
z=Ах+ву+с. (*)
т. е. требуется найти
коэф
ф
ициенты регрес
сииАиВипараметрС;
2) оцен ить тесноту
связи между Z и обо
ими признаками Х. У;
3) оценить тесноту
связи между Z и Х
(при постоянном У),
междуZиУ(припо
стоянном Х).
Первая задача ре
шаетс я методом наи
меньших
квадратов,
причем вместо уравне
ния ( *) удобнее искать
уравнение связи вида
z-z= A (х-х)+
+в<и--У>.
где .
;t)!
�
1::.
.
)!
с:
----
�
)!
00
l"'lt
"<t'
с:
--
)!
1::.
.
00
)t
с:
""'
"
�с:
00
----
�)!00
с:
----
"
�
)!
00
с:
�
)t
00
с:
----
�
...
.
<О
----
)!
�
с:
�
-
��С')О>
:8!'-
('/)
О>
:;
�
----·--
о
о
('/)
('/)
"<t'
('/)
""'
00!'-
�
('/)
------
О>
о
О>
о
lQ
lQ
�
!'-
!'-
�<О
('/)
('/)
-----
�<О00
<О
О>
00
00
""'
"<t'
-
!'-
-----
('/)
lQ
00
О>
lQ
""'
С')
lQ
!'-
""'
-
<О
------
С')
<D
О>
а>
О>
00
О>
�
о
с<:>
<О
----
С')
00
-
<О
о·lQ
С')
-
lQ
�----
�lQ
1
<О
!'-
-----
('/)
('/)
О>
g
-
�
�
�
-
-
277
Здесь rxz• ruz• rхи-коэф
ф
ициенты корреляции соот
ветственно между признаками Х и z. У и Z, Х и У;
а.к , аи , Оz -средн ие квадратические отклонен ия.
.
Теснота связи признака Z с признаками Х, У оценА
вается выборочным совоку пны,н коэффициентом корреляции
V2
2
Гхz-2Гхуrxzryz+Гуz
R=
2
•
1-rxy
причем O�R�1.
Теснота связи между Z и Х (при постоянном У) ,
между Z и У (при постоянном Х) оценивается соответ
ственно частными выборочными коэффициентами корре
ляции:
Гхz-ГхуГуz
,xz(у)=v
2
2
(1-Гху) (l- Гуz)
Гуz-Гху Гхz
ryz <х> =
V
(
2
)( :i)
•
l-rxy l-rxz
Эrи коэф
ф
1щиенты имеют те же свойства и тот же
смысл , что и обыкновенный выборочный коэф
ф
ициент
корреляции, т . . е. служат для оценки линейной связи
ме�у признак.ами .
Задачи
В задачах 1-2 даны корреляционные табл. 21 и 22. Найти:
а) rв: б) выборочные уравнения ПJ?ЯМЫХ регрессии; в) ..!lux и '1'\хи ·
Отв. к задаче 1. а) 0,636; б) Yx=l,17 х+ 16,78, Ху =О,345 у+
+ 1 , 67; в) Т)ух =0,656 , 'l'Jxy =0,651.
278
1.
у
1О
20
30
40
50
nx
1-1
.
Ух
2.
у
30
40
50
60
70
nx
-
Ух
Таблица 21
х
5
110
1151
20
1пу
1ху
2
1-1
-
1-
2
15
5
141
1
1-
1О
18
3
181
6
13201
10,25
-
1.
3
161
6
15
116
-
1-1
2
113116,67
10
1151
151
10 / n=50
1
21
129,33
1361
38
11
Таблица 22
х
65195/1251
155 1
185 1 2151
пу
1ху
5
1_.
1-1
-
1-1
-
5
165
4 г�-1
-
1-1
-
.
16
1 87,5
-
181
5
141 -1
-
17 l IOI,18
-
111 51
7121-
151
145
-
1-1
-
1-1
1
11
2
1 200
191
21
110 1 111
3
111
n=551
\з4,44,44,76
155\55,36/63,331 101 1 279
Отв. к задаче 2. а) 0,825; б) fi:=0,23x+21 ,78, Ху=2,92у
- 27,25; в) 'l
l
yx .:_o,859, 'l
l
xy =0 ,875.
В задачах 3-4 найти выборочные уравнения регрессии Ух =
=Ах2 +Вх+С по да нным корреляционных табл. 23 и 24.
Таблица 23
3•
.
х
у
111пу
2
3
5
25
20
,
·
1-1
-
20
45
-
1301
1
31
llO
-
114849
nx
120
131
149
1 n=lOO
Отв . Ух =2,94 х3 +7,27 х- 1 ,25.
4.
Таблица 24
х
у
1пу
1
2
2
30
11 31
6
1
118 19
nx
1311
19
1 n=50
Отв. iix =0,39 х11 +2,49 х�о .75.
280
Глава дев ятнадцатая
СТАТИСТ ИЧЕСКАЯ ПРОВЕРКА СТАТИСТИЧЕСКИ Х
ГИПОТЕЗ
§ t. Статистическая гипотеза. Нуле вая
и конкурирующая, простая и сложная гипоте зы
Ч асто необходимо знать закон распределения
генеральной сов01{упности . Если закон распределения
неизвестен , но имеются основ ания пред положить, что он
имеет определенный вид (назовем его А), выдвигают ги
потезу : г_енеральная совокупность распределена по за-
1<ону А . Таким образом, в этой гипотезе речь идет о виде
пред полагаемого распределения.
Возможен случай, когда закон распределения известен,
а его параметры неизвестны. Если есть основания пред
положить, что неизвестный параметр 0 равен определен
ному значению 00 , выдвигают гипотезу : 0 = 00• Таким
образом, в этой гипотезе речь идет о предполагае
мой величине параметра одного известного рас
пределения.
Возможны и другие ги потезы : о равенстве параметров
двух или нескольких распределений , о независимости
выборок и многие другие.
Статистической называют гипотезу о виде неизвест
ного распределения, или о параметрах известных рас
пределений.
Например, статистическими являются гипотезы:
1) генеральная совокупность распределена по закону
Пуассона;
2) дисперсии двух нормальных совокупностей равны
между собой.
В первой гипотезе сделано предп оложение о виде
неизвестного распределения, во второй -о параметрах
двух известных распределений.
·
Гипотеза «на Марсе есть жизнь� не явтrется статисти
ческой, поскольку в ней не идет речь ни о виде, ни
о параметрах распределения .
Наряду с выдв инутой гипотезой рассматривают и про
тиво речащую ей гипотезу . Если выдвинутая ги потеза будет
отвергнута, то имеет место прот'иворечащая гипотеза. По
этой причине эти ги потезы целесообразно различать.
Нулевой (основной) называют выдв инутую гипотезу В.о ·
281
Конкурирующей (альтернативной) называют ги потезу
Н1, которая противоречит нулевой .
Например, если нулевая гипотеза состоит в предпо
ложении, что математическое ожидание а нормального
распределения равно 10, то конку рирующая ги потез а,
в частности, может состоять в предположени и, что а =1= 10.
Коротко это записывают так: Н0 :а = 1 0; Н1 :а=1= 10.
.
Различают гипотезы, которые содержат только одно
и более одного предположений.
Простой называют гипотезу, содержащую только одн о
пред положение. Например, есл и '},
,
- па раметр показател ь
ного распределения, то гипотеза Н0 : '),
,
= 5-простая. Ги
потеза Н0: математическое ожидание нормального рас
пределения равно .3 (о известно) -пр остая.
Сложной называют ги потезу , кото рая состо ит из ко
нечного или бесконечного числа простых гипотез. Напри
.мер, сложная гипотеза Н:А. > 5 состоит из бесчисленного
множества простых вида Нi :Л = bi • где Ьi - любое число,
большее 5. Гипотеза. Н0: математическое ожидание нор
мального распределения равно 3 (о неизвестно)-сложная.
§ 2. Ошибки первого и второго рода
Выдв инутая ги потеза может быть правильной
или неправильной, поэтому возникает необходимость ее
проверки. Поскольку проверку производят статистиче
скими метода ми, ее называют статистической . В итоге
статистической проверки гипотезы в двух случаях может
быть принято неправильное решение, т. е. могут быть
допущены ошибки двух родов.
Ошибка первого рода состо ит в том, что будет· отверг
нута правильная гипотеза.
Ошибка второго рода состоит в том; что будет принята
неправильная гипотез а.
Подчеркнем, что последствия этих ошибок могут ока
заться весьма разл ичными . Например, если отве ргнуто
правильное решение «продолжать строительство жилого
дома», то эта ошибка первого рода повлечет материаль
ный ущерб; если же принято неп равильное решение «про
должать строительство», несмотря на опасность обвала
стройки, то эта ошибка второго рода может повлечь ги
бель .людей. Можно привести примеры, когда ошибка
первого рода влечет более тяжелые последствия , чем
ошибка второго рода .
282
3 а меча н и е 1. Правильное решение может быть принято также
в двух случаях:
1) гипотеза принимается , причем и в действительности она пра·
вильная;
2) гипотеза отвергается, причем и в действитеJIЬности она неверна.
3 а м е ч а н и е 2. Вероятность совершить ошибку первого рода
принято обозначать через а.; ее называют уровнем значимости. На и
более часто уровень значимости принимают равным 0,05 или 0,01.
Если, например, принят уровень значимости, равный 0,05, то зто
означает, что в пяти СJiучаях из. ста имеется риск допустить ошибку
первого рода (отвергнуть правильную гипотезу).
§ 3. Статистически й критерий проверки нулевой
гипотезы. Наблюдаемое значение критери я
Для проверки нулевой гипотезы используют спе
циалыiо подобранную случайную величину, точное или
приближенное распредел ение которой известно. Эrу ве
личину обозначают через U- или Z, е<;л и она распределена
нормально, F или v2 -по закону Фишера - Снедекора,
Т-по закону Стьюдента, х2 -по закону «хи квадрат»
и т. д. Поскольку в этом параграфе вид распределения
во вни мание приниматься не будет, обозначим эту величи
ну в цел ях общности через К..
Статистическим критерием (или просто критерием)
называют случайную величину К, которая служит для
проверки нулевой гипотезы .
Например, если проверяют гипотезу о равенстве дис
персий двух нормальных генеральных совокупностей, то
в качестве критерия К принимают отношен ие исправлен
ных выборочных дисперсий:
F =sUs�.
Эrа · величиuа случайная, потому что в различных опытах
дисперсии принимают различные, наперед неизвестные
значения, и распределена по закону Фишера -Снедекора.
Для проверки гипотезы по данным выборок вычисляют
частные значения входящих в критерий величин и таким
образом получают частное (наблюдаемое) значение кри
терия.
Наблюдаемым значением Кнаб11. называют значение кри
терия, вычисленное по выборкам. Например , если по двум
выборкам найдены исправленные выборочные дисперсии
sf = 20 и s� = 5, то наблюдаемое значение критерия F
Fиаб11. =sf/s�.= 20/5 =4.
283
§ 4. Критическая область. Область приняти я
гипотезЫ. Критические точки
После выбора определенного критерия множество
всех его возможных значен ий разбивают на два непере
секающихся подмножества: одно из них содержит значе
ния критерия, при которых нулевая гипотеза отве ргается,
а другая - при кото рых она принимается .
Крит ической обла стью называют совокупность значе
ний критерия, при которых
а)--
--0!-�К-
кр-
-з"К
нулевую гипотезу отвергают.
Област ью принятия гипо-
9
К , тезы (областью допустимых
6 __..,К,.
.
кр--!О ______
значен ий) называют совокуп-
ность значен ий критерия , при
в) ----
·--
·- -..
.
•-
К
которых ги потезу принима-
Ккр О Ккр
ют.
Рис. 23
Основн ой принцип провер-
ки стат истических гипотез
можно сформулировать так: если наблюдаемое значение
критер ия принадлежит критической области -гипотезу
отвергают, если наблюдаемое значение критерия принад
лежит области принятия ги потезы -гипотезу принимают.
Поскол ьку критерий К- одномерная случайная вел и
чина , все ее возможные значения принадлежат некоторому
интервалу . Поэтому критическая область и область при
нятия ги потезы также являются интервалами и, следо
вател ьно, существуют точки, которые их раздел яют.
Критическими точками (границами) kкр называют
точки , отделяющие критическую область от области при
нятия гипотезы.
Различают одн остороннюю (правостороннюю или лево
сто роннюю) и двустороннюю критические области .
Правосторонней называют критическую область, опре
дел яемую неравенством К>kкр• где k кр -положительное
число (рис. 23, а) .
·
,
Левосторонней называют критическую область, опре
деляемую неравенством К < kкр• где kкр - отрицательное
число (рис. 23, 6) .
Односторонней называют правостороннюю или лево
стороннюю критическую область.
Двусторонней называют критическую область, опре;.(е
ляемую неравенствами К<k1 , К>k2 , где k2 > k1•
В частности , если критические точ ки симметри 11ны
284
относительно нуля. двусторонняя критическая область
определяется неравенствами (в предположен ии. что kк
r>О):
К <-kкр• К>kкр• или равносильным неравенством К 1>
>kкр (рис. 23,в).
.
§ 5. Отыскание правосторонней критической
области
Как найти критическую область? Обоснованный
ответ на этот вопрос требует привлечения довольно слож·
ной теории. Ограничимся ее элементами . Для определен
ности начнем с нахождения правосторонней критической
области , которая оп редел яется неравенством К>kкр• где
kкр >О. Видим, что для отыскания правосторонней кри
' тич ес кой области достаточно найти критическую точку.
Следовательно, возникает новый вопрос: как ее найти?
Для ее нахождения задаются достаточной малой ве
роятностью -уровнем значи мости а. Затем ищут крити
ческую точку kкр• исходя из требования, чтобы при усло
вии справедливости нулевой гипотезы вероятность того,
что критерий К примет значение, большее kкр• была равна
принятому уровню значи мости:
Р(К>kкр)=а.
- Для каждого. критерия имеются соответствующие таб
лицы, по которым и находят критическую точку, удов
летворяющую этому требованию.
3 а м е ч а н и е 1. Когда критическая точка уже найдена, вычис
nяют по данным выборок наблюденное значение критерия и, есnи
окажется, что Кна
6J1 > kкр. то нулевую гипотезу отвергают; если же
Кна6J1 < kкр . то нет оснований, чтобы отвергнуть нулевую гипотезу.
Поя с нен и е. Почему правосторонняя · критическая
область была определена исходя J{З требования . чтобы при
слраведл ивости нулевой гипотезы выполнялось соотно
шение
Поскольку вероятность события К>kкр мала (а-мала�
вероятность) . такое событие при справедл ивости нулевои
гипотезы, в силу принципа практической невозможности
маловероятных событий, в еди ничном испытании не должно
насту пить (см. гл . 11, § 4). Если все же оно произошло,
т. е. наблюдаемое значение критерия оказалось больше kкр•
то это можно объяснить тем, что нулевая ги потеза ложна
2�
и, следовател ьно, должна быть отвергнута. Таким обра
зом, требование (*) определ яет такие значения критерия,
при которых нулевая гипотеза отверг ается , а они и со_ .
.
ставляют правостороннюю критическую область .
3 а мечани е 2. Наблюдаемое значение критерия может ока
еаться большим kкр не потому, что нулевая гипотеза ложна, а по
другим причинам (малый объем выборки, недостатки методики экспе
римента и др.) . В этом случае , отвергнув правильную нулевую гипо
Тезу, совершают ошибку первого рода. Вероятность этой ошибки
равна уровню значимости а.. Итак, пользуясь требованием (*), мы
с вероятностью а. рискуем совершить ошибку первого рода.
За мет им кстати , что в книгах по контролю качества продукции
вероятность признать негодной партию годных изделий называют
сриском производителя», а вероятность принять негодную партию -
сриском потребителя».
3 а мечани е 3. Пусть нулевая гипотеза принята; ошибочно
думать , что тем самым она доказана. ДействитеJ1ьно, известно, что
один пример, подтверждающий справедливость некоторого общего .
утверждения, еще не доказывает его. Поэтому более правильно гово
рить «данные наблюдений согласуются с ну левой гипотезой и, следо
вательно, не дают оснований ее отвергнуть».
На практике для большей. уверенности принятия гипотезы ее
проверяют другими способами или повторяют эксперимент, увеличив
объем выборки.
Отвергают гипотезу более категорично, чем принимают. Действи- ·
тельно, известно, что доста точно привести один пример, противореча·
щий некото рому общему утверждению, чтобы это утверждение отверг
нуть. Если оказалось , что наблюдаемое значение критерия принадлежит
критической области, то этот факт и служит примером, противоречащим
нулевой гипотезе, что позволяет ее отклонить.
§ 6. Отыскание левосторон ней и двусторонней
кр�тических областей
Отыскание левосторонней и двусто ронней кри
тичес ких областей сводится (так же, как и для ·право
сторонней) к нахождению соответствующих критическ их
точек.
Левосторонняя критическая область определяется
(см. § 4) неравенством К<kкр (kкр <О). Критическую
точку находят исходя из требован ия, чтобы при справед
дивости нулевой гипотезы вероятность того, что критер ий
примет значение, меньшее kкр• была равна при нятому
уровню значимости :
Р (К<kкр) =а.
Двусторонняя критическая область определяется
(см. § 4) неравенствами К<k1, К>k2 • Критические
точки находят исходя из требования , чтобы при спра-
286
ведл ивости нулевой гипотезы сумма вероятносrей _т ого,
что критерий примет значение, меньшее k1 или большее k 1 ,
была равна принятому уровню значимости :
Р(К<k1)+P(К>k2)=а.
(*)
Ясно, что критические точки могут быть выбраны бесчис
ленным множеством способов. Если же распределение кри
терия симме'fрично относительно нуля и имеются основания
(например, для увеличен ия мощности *>) выбрать симмет
ричные относительно нуля точки-kкр и kкр (kкр >О) , то
Р(К<-kкр)=Р(К>kкр)•
Учитывая (*) . получим
Р(К>kкр)=а/2.
Это соотношение и служит для отыскания критических
точек двусторонней критической области .
Как уже было указано (см. § 5) , критические точки
находят по соответствующим таблицам.
§ 7. Дополнительные сведения о выборе
критической области . Мощность критерия
Мы строили критическую область, исх одя из
требов ания, чтобы вероятность попадания в нее критерия
была равна а при условии, что нулевая гипотеза спра
ведлива. Оказывается целесооб разным ввести в рассмот
рение вероятность попадания критер ия в критическую
область при условии, что нулевая ги потеза неверна и,
следо вател ьно, справедл ива конкурирующая .
Мощност ью критерия называют вероятность попада
ния критерия в критическую область при условии, что
справедл ива конкурирующая ги потеза. Другими словами,
мощность критерия есть вероятность того, что нулевая
ги потеза будет отвергнута, если верна конкурирующая
гипотеза.
Пусть для проверки гипотезы принят определенный
уровень значимости и выборка имеет фиксированный
объем. Остается произвол в выборе критической области.
Покажем , что ее целесообразно построить так, чтобы
мощность критерия была максимальной. Предварительно
убеди мся, что если вероятность ошибки второго рода
*> Определение мощности дано в § 7.
287
(принять неправильную ги потезу) равна �. то мощность
равна 1-f} . Действительно , если �-вероятность ошибки
второго рода , т. е . события «п ринята нулевая ги потеза,
причем справедлива конкурирующая», то мощность кри
терия равна 1-Р.
Пусть мощность 1 �Р возрастает; следовател ьно,
уменьшается вероятность р совершить ошибку второго
рода . Таким образом, чем мощность больше, тем вероят·
ность ошибки второго рода меньше.
·
Итак, если уровень значимости уже выбран, то кри•
тическую область следует ст роить так, чтобы мощност ь
критерия была максимальной . Выполнение этого требова•
ния должно обеспечить минимальную ошибку второго
рода , что, конечно, желател ьно.
3 а м е ч а н и е 1. Поскольку вероятность события «ошибка вто.
рого рода допущена» равна �. то вероятность противоположного
события «ошибка вторQго рода не допущена» равна 1-�. т. е. мощ•
ности критерия. Отсюда следует, что мощность критерия есть веро•
ятность того, что не будет допущена ошибка второго рода.
3а м еч а н и е 2. Ясно, что чем ме·ньше вероятности ошибок
первого и второго рода, тем критическая область «лучше». Однако
при заданном объеме выборки умен ь шить од.н о в рем е н н о
а и � нев о з можно; если уменьшить а, то f3 будет возрастать.
Например, если принять а==О, то будут приниматься все гипотезы,
в том числе и неправильные, т. е. возрастает вероятность f3 ошибки
второго рода.
.
l(ак же выбрать а наиболее целесообразно? Ответ на этот вопрос
зависит от «тяжести последствий» ошибок для каждой конкретной
задачи. Например, если ошибка первого рода повлечет большие По•
терн, а второго рода- малые, то следует принять возможно меньшее а.
Если а уже выбрано, то, пользуясь теоремой Ю. Неймана и
Э. Пирсона, изложенной в более полных курсах, можно построить
критическую область, дЛЯ которой f3 будет минимальным и, следова
тельно, мощность критерия максимальной.
3амечание 3. Единственный способ одновременного
уменьшения вероятностей ошибок первого и второго рода состоит
в увеличении объема выборок.
§ 8. Сравнение двух дисперси й нормальн ых
генеральн ых совокупностей
На практике задача сравнения дисперсий возни·
кает, если требуется сравнить точность приборов, ин
струментов, самих методов измерений и т. д . Очевидно,
предпочтительнее тот прибор, инструмент и метод, кото
рый обеспечивает наименьшее рассеяние результатов
измерений, т. е . наименьшую дисперсию.
288
Пусть генеральные совокупности Х и У распределены
нормально. По независимым выборкам с объе мами , соот
ветственно равными n1 и п2 , извлеченным из этих сово
купностей , найдены испр авленные выборочные дисперсии
s3c и s}. Требуется по исправленным дисперсиям при
заданном уровне значимости а проверить нулевую гипо
тезу, состоящую в том, что генеральные дисперсии рас
сматриваемых совокупностей равны между собой :
H0:D(Х)=D(У).
Учитывая , что исправленные дисперсии являются
несмещенными
оценками
генеральных
дисперсий
(см.гл.XVI,§13),т.е.
М[sИ=D(Х), М[s}]=D(У),
нулевую гипотезу можно записать так :
Н0:М_[s�]= М [s}].
Таким образом, требуется прове рить, что математи
ческие ожида ния исправленных выборочных дисперсий
равны между собой. Такая задача ставится потому, что
обычно исправленные дисперсии оказываются различными.
Возникает вопррс : значимо (существенно) или нез на
ч_и м о различаютс я исправленные д испер
еии?
Если окажется , что нулевая гипотеза справедл ива, ·
т. е . генеральные дисперсии одинаковы , то различие ис
правленных дисперсий незначимо и объясняется случай
ными причинами , в частности случайным отбором объектов
выборки. Например, если различие исправленных выбо
рочных дисперсий результатов измерен ий, выполненных
двумя приборами , ока�алось н_езначимым, то приборы
имеют одинаковую точность .
Если нулевая ги потеза отвергнута , т. е . генеральные
дисперсии неоди наковы, то различие исправленных дис
персий значимо и не может быть объяснено случайными
причинами , а является следствием того, что сами гене раль
ные дисперсии различны. Например, если различие
исправленных выборочных дисперсий результатов изме
рений, произведенных двумя приборами , оказалось зна
чимым, то точность приборов различна.
В качестве критерия проверки нулевоh ги потезы
о равенстве генеральных дисперсий примем отношение
большей исправленной дисперсии к меньшей, т. е. слу-
10-210
289
чайную величину
F=SUS�.
Величина F при условии справедливости нулевой
гипотезы имеет распределение Фишера - Снедекора
(см. гл . ХII, § 15) со степенями свободы k1= n1-1 и
k2 =n2 -l, где п 1 -объем выборки, по которой вычислена
большая исправленная дисперсия , n2 -объем выборки,
по которой найдена меньшая дисперс ия. Напомним, что
распределение Фишера-Снедекора зависит только от чи
сел степеней свободы и не зависит от других параметров .
Критическая область строится в зависимости от вида
кон курирующей гипотезы .
Первый случай. Нулевая гипотеза Н0 : D(X) = D(Y).
Конкурирующая гипотеза Н 1: D (Х) > D (У) .
В этом случае строят одностороннюю, а именно пра
востороннюю, критическую область , исходя из требова
ния, чтобы вероятность попадания критерия F в эту
область в предположении справедл ивости нулевой гипо
тезы была равна принятому уровню значимости :
P[F > Fкp (a; k1, k2)]=a.
Критическую точку Fкр (а; ki, k,.) находят по таблице
критических точек распределения Фишер а-Снеде кора
(см. приложение 7) , и тогда правосторонняя критическая
область определ яется неравенством F > Fкр• а область
принят�я; нулевой гипотезы - неравенством F < Fкр·
Обозначи м отноше ние большей исправленной диспер
сии к меньшей , вычисленное по данным наблюдений,
через Fиa6JI и сформулируем правило проверки нулевой
гипотезю.
Правило 1. Для того чтобы при заданном уровне зна
чимости проверить нулевую гипотезу H0 :D(Х) = D (У)
о равенстве генеральных дисперсий нормальных совокуп
ностей при конкурирующей гипотезе H1 :D(Х) > D (У) ,
надо вычисл ить отношен ие большей исправленной диспер
сии к меньшей, т. е.
Fиaбл =sUs�,
и по таблице критических точек распределения Фишера
Снедекора, по зада нному уровню значимости а и числам
степеней свободы k 1 и k2 (k1 -число степеней свободы
большей исправленной дисперсии) найти критическую
точку FиабJ1 (а; k1, k2).
290
Если Fнабл < Fкр- нет оснований отвергнуть нулевую
гипотезу . Есл и Fнабл > Fкр - нулевую гипотезу отвергают.
Пример 1. По двум независимым выбсркам объемов п1 = 12 и
n2 = 15, извлеченным из нормальных генеральных совокуп ностей
Х и У, найдены исправленные выборочные дисперсии s" = 11,41 и
s� =6,52. При уровне значимости 0,05 проверить нулевую гипотезу
Н0:D (Х) = D (У) о равенстве генеральных дисперсий при конкури·
рующей гипотезе H1:D(Х) > D (У).
Решение. Найдем отношение большей исправленной дисперсии
к меньшей:
Fнабл = 11,41/6,52 = 1 ,75.
Конкурирующая гипотеза имеет вид D (Х) > D (У), поэтому крити
ческая область - правосторонняя.
По таблице приложения 7, по уровню значимости а.=0,05 и
числам степеней свободы k1=12-1 =11 и k2=15-1 =14находим
критическую точку F11 (О,05; 11, 14)=2,56.
Так как F11абл < Р:.р-нет оснований отвергнуть нулевую гипо
тезу о равенстве генеральных дисперсий.
Второй случай. Нулевая гипотеза H0 :D(X) = D(Y).
Конкурирующая гипоrеза Н 1 :D(Х) =l=D(У).
В этом случае строят двустороннюю критическую
область, исходя из требован ия, чтобы веро ятность попа-
.
ь
Рис. 24
дания крите рия в эту область в предположении спра-
·
ведл ивости нулевой гипотезы ·был а равна принятому ·
уровню значимости а.
Как выбрать границы критической ·<06л асти? Оказы
вается , что · наибольшая мощность (верояпюсть попадания
крите рия в ·кри:гическую ·область при справедл ивости
·к
онку рирующей rипотезы)достигается тоJiда ,,когда вероят-
ность попадан ия критерия в каждый, мз двух интервалов
критической области равна а/2.
Таким образом, если обозначить черег F1 левую границу
критической области и через F 2 - правую, то должны
иметь место соотношения (рис. 24):
Р(F<F1) =а/2, Р(f!>F2) =а/2.
Мы видим, что достаточно найти критические точки,
чтобы найтн саму критическую область: F < F 1 , F > F 2,
291
а также область принятия нулевой ги потезы : F 1<F < F 2 •
Как практически отыскать критические точки?
Правую критическую точку F 2 = F �Ф (а/2 ; k1 , k 2) нахо
дят непос редст венно по таблице критических точек рас
пределен ия Фишера - Снедекора по уровню значимости а/2
и степеням свободы k1 и k 2 •
Однако левых критических точек эта таблица . не со
де ржит и поэтому найти F1 непосредст венно по таблице
невозможно. Существует сцособ, позволяющий преодолеть
это затруднение. Одн ако мы не будем его описывать,
поскольку можно левую критическую точку и не отыс ки
вать. Ограничимся изл ожен ием того, как обеспечить по
падание крите рия F в двустороннюю к ритическую область
с вероятностью, равной принятому уровню значимости а.
Оказывается, достаточно найти правую критическую
точку F 2 при уровне значи мости , вдвое меньшем заданного.
Тогда не только вероятность попадания критерия в «пра
вую часть» критической области (т. е . правее F 2) равна а/2,
но и вероятность попадан ия этого критерия в «левую
часть» критической области (т . е . левее F1) также равна
а/2 . Так как эти события несовместны, то вероятность
попадания рассматриваемого крите рия во всю двусторон
нюю критичесиую область будет равна а/2 + а/2 = а.
Таким образом, в случае конкурирующей гипотезы
Н1:D(Х)=t=
=
D (У) достаточно найти критическую точку
Fs = Fкр (а/2; ki, k2).
П равило 2. Для того чтобы при заданном уровне зна
чимости а прщ3ерить нулевую гипотезу о равенстве гене
ральных дисперсий нормально распределенных совокуп
ностей при конкурирующей ги потезе Н1 : D (Х) =t=
=
D (У),
надо вычислить отношение большей исправленной дис
персии к меньшей, т. е. Fнабх =sг;s� и по таблице кри
тических точек распредел ен ия Фишера - Снедекора по
уровню значи мости а/2 (вдвое меньшем задан ного) и чис
лам степеней свободы k i и k 2 (ki-число степеней свободы
большей дисперсии) найти критическую точку F кр (а/2;
k1, k 2).
Если Fнабх < F кр - нет оснований отве ргнуть нулевую
гипотезу . Если Fнабх > Fкр -нулевую ги потезу отвергают.
Пример 2. По двум независимым выборкам, объемы которых
соответственно равны п1 =10 и п2 = 18, извлеченным из нормальных
генеральных совокупностей Х и У, найдены исправленные выбороч
ные дисперсии s� =l,23 и s� =0,41. При уровне значимости a=O, l
292
проверить нулевую гипотезу о равенстве ге неральных дисперсий при
конкурирующей гипотезе H1 :D(Х) -:/= D (У).
·
Р е ш е н и е. Найдем отношение большей исправленной дисперсии
к меньшей:
FнабJ1 =1,23/0,41 = 3.
По условию, конкурирующая гипотеза имеет вид D (Х) =fi D (У),
поэтому критическая область -двусторонняя.
По таблице, по уровню значимости , вдвое меньшем заданного,
1'. е. при а/2=О ,1/2=О ,05, и числам степеней свободы k1 = 10-1 =9,
k2 =18- 1=17 находим критическую точку Fкр (0,05; 9, 17) _2,50.
Так как FнабJ1 > Fкр. нулевую гипотезу о равенстве генеральных
дисперсий отвергаем. Другими словами, выборочные исправленные
дисперсии различаются значимо. Например, если бы рассматриваемые
дисперсии характеризовали точность двух методов измерений, то
следует предпочесть тот метод, который имеет меньшую дисперсию
(0,4 1).
§ 9. Сравнение исправленной выборочной
дисперсии с гипотетической генеральной
дисперсие й нормальной совокупности
Пусть генера.тiьная совокупность распределен а·
нормально, причем генеральная дисперсия хотя и неиз
вестна, но имеются основания предполагать, что она равна
гИ потетическому (предполагаемому) значению cr�. На прак
тике а� устанавливается на основан ии предшествую
щего опыта или теоретическ и.
Пусть из генеральной совокупности извлечена выборка
объема п и по ней найдена исправленная выборочная
дисперсия S 2 с k = п-1 степенями свободы . Требуется
по исправленной дисперсии При заданном уровне значи
мости проверить нулевую гипотезу, состоящую в том,
что генеральная дисперсия рассматриваемой совокупности
равна гипотетическому значению <1�.
Учитывая, что S 2 является несмещенной оценкой гене
ральной дисперсии, нулевую гипотезу можно записать
так:
H0:M(S2)=ag.
Итак, требуется проверить, что математическое ожи
дание исправленной дисперсии равно ги пртетическому
значению гене ральной дисперсии . Другими словами , тре
буется установить, значимо или незначимо различаются
исправленная выборочная и гипотетическая генеральная
дисперсии .
На практике рассматри ваемая гипотеза проверяется,
если нужно проверить точность приборов , инструментов,
293
.с т ан ко в , методо в исследования и устойчивость техноло
гических процессов. Например, если известна допустимая
характеристика рассея ния контрол ируемого размера дета
лей , изготавл иваемых станком-автоматом, равная О'� , а
найденная по выборке ок ажется значимо больше О'�, то
станок требует поднал адк и.
В качестве крите рия проверки нулевой гипотезы при
мем случайную величину (п- 1) S2/a�. Эта величина слу
чайная , потому что в разных опытах S2 принимает раз
личные, наперед неизвестные значения . Поскольку можно
доказать, что она имеет распределение х2 с k = п - 1
степенями свободы (см. гл . XII, § 13), обозначим ее
через х2 •
Итак, критерий проверки нулевой гипотезы
Х2 = (п-1)82/а�.
Критическая область строится в зависимости от вида
конкурирующей ги потезы .
_
11 ервый случай. Нулевая гипотеза Н0 : 0'2 = а� .
Конкурирующая гипотеза Н1 : 0'2 > а�.
В этом случае строят правостороннюю критическую
область, исходя из требования, чтобы вероятность попа
дания критерия в эту область в предположен ии справед
ливости нулевой гипотезы была равна принятому уровню
значимости:
Р[х2> х�Р(а; k)]=а.
Критическую точку Х�р (а; k) находят по таблице кри
тических точек распределения х2 (см. приложение 5), и
тогда правосторонняя критическая область оп редел яется
неравенством х2 > х�Р• а область принятия нулевой гипо
тезы - неравенст1юм х2 < Х�р ·
Обозначим значение критерия, вычисленное по данным
наблюден ий, через Х�абл и сформулируем правило про
верки нулевой ги потезы.
Правило 1. Для того чтобы при заданном уровне зна
чимости а проверить нулевую гипотезу Н0 :0'2 = О'� о ра
венстве неиз�естной генеральной дисперсии нормальной
·
совокупности гипотетическому значению при конкурирую
щей гипотезе Н1 :а2 > а5, надо вычислить наблюдаемое
значение критерия Х�абл = (п - 1)82/аб и по таблице кри
тических точек распредел ения х2, по заданному уровню
значимости а и числ у степеней свободы k = п - 1 найти
критическую точку Х�Р(а; k).
294
Если х:абл < Х�р - нет оснований отве ргнуть нулевую
гипотез у. Если Х�абл > х:р -нулевую гипотезу отвергают.
Пример 1. Из нормальной генеральной совокупности извлечена
выборка объема п = 1 3 и по ней найдена исправленная выборочная
дисперсия s2 = 14,6. Требуетс я при уровне значимости 0,01 проверить
нулевую гипотезу Н0:о2 = о� =12, приняв в качестве конкурирующей
гипотезы Н1 :о2 > 12.
Реш е н и е. Найдем наблюденное значение критерия:
Х�абл = (n- 1) S2/o� = ((13- 1). 14,6)/12=14,6.
По условию, конкурирующая гипотеза имеет вид 02 > 12, по
этому критическая область правосторонняя.
По таблице приложения 5, по уровню значимости 0,01 и числу
степеней свободы k = п- 1=13- 1=12 находим критическую точку
Х�р (О,01; 12) =26,2.
Так как Х�абл < Х�р- нет оснований отвергнуть нулевую гипо
тезу. Другими словами, различие между исправленной дисперсией
(14,б) и гипотети ческой генера.'Jьной дисперсией (12)-незначимое.
Второй случай. Нулевая гипотеза Н0 :а2 =а� .
Конку рирующая гипотеза H1 :cr2 =j=cr�.
В этом сл учае строят двустороннюю критическую
область, исходя из требования, чтобы вероятность попа
дания крите рия в эту область в предположении справед
ливости нулевой гипотезы была равна принятому уровню
значимости а.
Критические точ ки-левую и правую границы крити
ческой области - находят, требуя, чтобы вероятность по
падания критерия в каждой из двух интервалов крити
ческой области была равна а/2 :
Р [Х2 < Х�ев.кр (а/2; k)J = а/2,
Р [Х2 > Х�рав.кр (а/2; k)]= а/2.
В таблице критических точек . распределения х 2 ука
заны лишь «п равые» критические точки , поэтому возни
кает кажущееся затруднение в отыск ании «левой» крити
ческой точки . Эrо затруднение легко преодол еть, если
принять во внимание, что события Х2 < Х�ев.кр и 'Х,3 >
> Х�ев.кр противоположны и, следовател ьно, сумма их
вероятностей равна единице:
Р(Х2<Х�ев.кр)+Р(Х2>Х�ев.кр)=1 .
Отсюда
Р (Х2 > Х�ев.кр) = 1-Р (Х2 < Х�ев.кр) = 1 -(а/2).
Мы видим, что левую критическую точку можно
искать как правую (и значит, ее можно найти по таб-
295
лице) , исходя из требования , чтобы вероятность попада
ния критерия в интервал, расположен ный правее этой
точки , была равна 1-(а/2).
Правило 2. Для того чтобы при заданном уровне зна
чимости а проверить нулевую ги потезу о равенстве не
известной генеральной дисперсии 02 нормальной сово
купности гипотетическому значению <1� при конку рирую
щей гипотезе Н 1 : 02 =1= <1�, надо вычислить наблюдаемое ·
значение критерия 'Х.�абл = (п -1) s2;0: и по таблице найти
левую критическую точку 'Х.�р (1-а;2; k) и правую кри
тическую точку 'Х.�р (а/2; k).
Если Х�ев.кр < Х�абл < Х�рав .кр - нет основ аний отверг
нуть нулевую ги потезу .
Если Х�абл < Х�ев .кр ИЛИ Х�абл > 'Х,�рав. кр -нулевую гипо
тезу отве ргают.
Пример 2. Из нормальной генеральной совокупности извлечена
выборка объема п = 13 и по . ней найдена исправленная выборочная
дисперсия s2 = l 0,3. Требуется при уровне значимости 0,02 проверить
нулевую гипотезу H0:a2 =<r: = 12, приняв в качестве конкурирующей
гипотезы Н1:о2 :/= 12.
Р е ш е н и е. Найдем наблюдавшееся значение критерия:
Х�абл = (п - 1)s2/o� = ((13- 1). I0,3)/12=10,� .
Так как конкурирующая гипотеза имеет вид <r2 :/= 12, то крити
ческая область - двусторонняя.
По таблице приложения 5 находим критические точки: левую -
'Х�р (1 -а/2; k) = X�p (l - 0,02/2; 12) =Х�р (0,99; 12) =3,57 и правую
х:р(а/2; k) = X�p (0,01 ; 12)=26,2. Так как наблюдавшееся значение
критерия принадлежит области принятия гипотезы (3,57 < 10,3 <
< 26,2) - нет оснований ее отвергнуть. Другими словами, исправлен
ная выборочная дисперсия (10,3) незначимо отличается от гипотети
ческой генеральной дисперсии (12).
Трет и й сл учай.
Конку рирующая
гипотеза
Hi:cr2 < cr:.
Правило 3. При конку рирующей гипотезе Н1 :02 < <1�
находя т критическую точку х�Р (1-а; k).
Если Х�абл > Х�Р (1-а; k) -нет основ аний отвергнуть
нулевую гипотезу .
.
Если Х�абл < Х�Р ( 1-а; k)-нулевую гипотезу отвер
гают.
3 а м е ч а н и е 1. В случае, €СЛИ найдена выборочная диспер
сия D8, в качестве критерия принимают случайную величину
х2'
= nD8/<r� , �оторая имеет распределение х2 с k = п- 1 степенями
свободы, либо переходят к s2 = [п/(п- 1)] D8•
3амечание2. Если число степеней свободы k>30, то· .кри
тическую точку можно найти при?лиженно по равенс'Рву Уи11сона -
296
Гилферти
Х�р (а; k) =k[I - (2/9k) +za Y(2/9k) ]3,
где Za опредедяют, используя�функцию Лапдаса (см. приложение 2),
по равенству Ф (za )=(l -2a)/2.
§ 10. Сравнение двух средних нормальныХ:
генеральных совокупностей,
дисперсии которых известны (независимые
выборки)
Пусть генеральные совок упности Х и У распре
делены нормально, причем их дис персии известны (на
пример, из предшествующего опыта или найдены теоре
тически) . По независимым выборкам, объемы которых
соответственно равны п и т, извлеченным из этих сово
купностей, nайдены выборочные средн ие х и у.
Требуется .по выборочным сред ним при заданном
уровне значимости а проверить нулевую гипотезу, со
стоящую в том, что генеральные средн ие (математические
ожида ния) рассматриваемых совокупностей равны между
собой, т. е.
Н0:М(Х)=М(У).
Учитывая , что выборочные средн ие являются несме
щенными оценками генеральных средних (см. гл . XV, § 5),
т. е. М(Х)=М(Х) и М(У)=М(У), нулевую гипотезу
можно записать так :
Таким образом, требуется проверить, что математиче
ские ожидания выборочных сред них равны между собой.
Такая задача ставится потому , что, как правило, выбо
рочные средние оказываются различными . Возникает
воп рос : значимо или незначимо различаются выборочные
средн ие?
Если окажется , что нулевая гипотеза справедл ива,
т. е . генеральные средние одинаковы, то различие выбо
рочных средних незначимо и объясн яется случайными
причинами и, в частности, случайным отбором объектов
выб орки.
Наприме р, если физические величины А и В имеют
од инаковые истинные размеры, а средние арифметиче-
297
ские х и · у результатов измерен ий этих величин раз•
личны, то это различие незначимое.
Если нулевая гипотеза отвергнута , т. е. ген�ральные
средние неоди наковы, то различие выборочных средн их
значимо и не может быть объяснено случайными причи•
нами , а объясняется тем, что сами генеральные средн ие
(математические ожидания) разл ичны. Например, если
среднее арифметическое х результатов измерений физиче
ской величины А значимо отличается от сред него ариф·
метического у результатов измерений физической вели
чины В , то это означает, что истинные размеры (матема·
тические ожидания) этих величин различны.
В качестве критерия проверки нулевой ги потезы при·
мем случайную вел ичину
Z= Х-У
=
Х-У
•
о (Х-У) УD(Х)/п+D(У)/т
Эта �ели�ина случайная , потому что в различных опы
тах х и у принимают различные, наперед неизвестные
значения .
Поя снен и е. По определению средн его квадратиче-
ского- отклонения, б (Х - У) = VD (Х- У).
На основании свойства 4 (см . гл . VI II, § 5),
D(Х-У)=D(Х)+D(У).
По формуле (*) (см. гл. VI II, § 9), D (Х) = D (Х)/п,
D(У)=D(У)/т.
Следовател ьно,
о-(Х-У)=VD(Х)/п+D(У)/т.
Критерий Z-нормированная нормальная случайная
величина. Действительно, вел ичина Z распределена нор
мально, так как является линейной комбинацией нор
мально распределенных величин Х и У; сами эти вели
чины распределены нормально как выборочные средние,
найденные по выборкам, извлеченным из нормальных
генеральных совокуп ностей; Z-норми рованная величина
потому , что М (Z) =О; при справедл ивщ:ти нулевой гипо
тезы а (Z) = 1, поскольку выборки независимы.
Критическая область строится в зависимости от вида
конку рирующей ги потезы .
298
Первый случай. Нулевая гдпотеза Н0: М(Х) =
= М (У). Конкурирующ ая гипотеза Н1: М (Х) ::;i=M(У).
В этом случае строят двустороннюю критическую
область, исходя из требования, чтобы вер оятность попа
дания критерия в эту область в предположении справед
ливости нулевой гипотезы была равна принятому уровню
значимости а . .
Наибольшая мощность критерия (вероятность попа
дания крите рия в критическую область при справедл и
вости конкурирующей гипотезы) достигается тогда, когда
1
о
Рис. 25
«левая» и «правая» критические точки выбраны так , что
вероятность попадания критерия в каждый из двух ин
тервалов критической области равна а./2 :
Р(Z<Zлев. кр)=а./2, Р(Z>Zправ. кр)=а/2.
Поскольку Z- нормированная нормальная величина,
а распределение такой величины симмет рично относи
тельно нуля , критические точки симметричны относи
тельно нуля.
Таким образом, если обозначить правую границу дву
сто ронней критической области через zкР • то левая гра
ница равна-Zкр (рис. 25).
Итак, достаточно найти правую границу, чтобы найти
саму двусто роннюю критическую область Z <-zк ,
Z > Zкр и область ·п ринятия нулевой ги потезы ( -Zкр• Zxp) .
Покажем, как найти zкр - правую границу двусторон
ней критической области, пользуясь функцией Лапласа
Ф (z) . Известно, что функция }Iапласа определяет вероят
ность попадания нормированной нормальной случайной
величины, нап ример Z, в интервал (О, z) :
Р(О<Z<z)=Ф(z).
(**)
Так как распределение Z симметрично относительно
нуля, то вероятность попадания Z в интервал (О, оо )
равна 1 /2. Следовательно, если разбить этот интервал
точкой Zкр на интервалы (О, Zкр) и (z"P' оо), то, по теореме
'
299
сложен ия,
Р(0<Z<Zкр)+Р(Z>Zкр)=1/2.
(***)
в силу (*) и (**) получим
Ф (Zкр)+а/2= 1/2.
Следовательно,
Ф (Zкр) =(1-а)/2.
Отсюда заключаем: для того чтобы найти правую гра
ницу двусторонней критической области (zкр), достаточно
найти значение аргумента функции Лапласа , которому
соответствует значение функци и, равное ( 1-а)/2. Тогда
двусторон няя критическая область определяется нера
венствами
Z <-Zкр• Z > Zкр•
или равносильным неравенством 1 Z 1 > zкР• а область при
нятия нулевой ги потезы -неравенством-Zкр < Z < Zкр•
или равносильным неравенством 1 Z 1 < Zкр·
. Обозначим значение критерия, вычисленное по данным
наблюдений, через Zнабл и сфо рмулируем правило про
верки нулевой гипотезы .
Правило 1 . Для того чтобы при зад анном уровне зна
чимости а проверить нулевую ги потезу Н0: М (Х) = М (У)
о равенстве математических ожиданий двух нормальных
генеральных совокупностей с известными дисперсиями
при конкурирующей ги потезе Н1: М (Х) =#= М (У), надо
вычислит� _
наблюденное значение кр итерия Zнабл =
=
х-у
и по таблице функции Лапласа найти
У D (X)fn+D (Y)/m
критическую точку по равенству Ф2кр = ( 1-а)/2.
Если 1 Zнабл / < Zкр-нет оснований отвергнуть нуле
вую гипотезу.
Если 1 Zн абл 1 > Zкр -нулевую ги потез у отвергают.
Прнмер 1. По двум независимым выборкам, объемы которых
соответственно равны n=60 и m=50, извлеченным из нормальных
генеральных совщ<упностей , найдены выборочные средние Х= 1250
и у = 1275. Генеральные дисперсии известны: D(X)= 120, D(Y) = 100.
При уровне значимости 0,01 проверить нулевую гипотезу Н0: М (Х) =
= М (У), при конкурирующей гипотезе Н1: М (Х) :F М (У).
30
0
Реш е н и е. Найдем наблюдаемое значение критерия:
-
-
z-
х-у
на
бх - У D (X)fn +D(У)/т
1250 -1275
=-12,5 .
У120/60 + 100/50
По условию, конкурирующая гипотеза имеет вид М (Х) =;!= М (У),
поэтому критическая область - двусторонняя.
Найдем правую критическую точку :
Ф (Zкр) =(1 - а)/2=(1 -0,01)/2 = 0,495.
По таблице функции Лапласа (см. приложение 2) находим Zкр = 2,58.
Так как 1Zнабл 1 > Zкр -нулевую гипотезу отвергаем, Другими
словами, выборочные средние различаются значимо.
Второ· й елучай. Нулевая гипотеза Н0: М (Х) =
= М (У). Конкурирующая гипотеза Н1 : М (Х) > М (У).
На практике такой случай имеет место , если про
фессиональные соображения позволяют 'предположить,
что ге неральная средняя од-
ной совокупности больше
/а.
генеральной . средней дру-
•
Jl
l
�
гой . Например, если введено
О
Zкр
усовершенствование техноло-
Рис. 26
гического процесса, то есте-
ственно допустить, что оно приведет к увеличению вы
пуска продукции. В этом случае строят правостороннюю
критическую область, исходя из требования, чтобы вероят·
ность попадан ия критерия в эту область в предположен ии
справедливости нулевой гипотезы была равна принятому
уровню значимост.и (рис. 26):
Р(Z>Zкр)=а.
(****)
Покажем, как найти критическую точку с помощью
функции Лапласа. Воспользуемся соотношением (***):
Р(О<Z<Zкр)+Р(Z>Zкр)=1/2.
в· силу (**) и (****) имеем
ф(Zкр)+СХ.= 1/2.
Следовательно,
Ф (Z8p) = (1-2а)/2.
Отсюда заключаем: для того чтобы найти границу пра
восто ронней критической области (Zкр), достаточно найти
значение аргумента функции Лапласа, которому соответ
ствует значение фун кции, равное (1-2а)/2. Тогда право
сторонняя критическая область определяется неравенст
вом Z > Zкр• а область принятия нулевой ги потезы
неравенством Z < Zкр ·
Прави ло 2. Для того чтобы при заданном уровне зна
чимости а проверить нулевую гипотезу
.
Н0: М(Х)=М(У)
301
о равенстве математических ожиданий двух нормал ьных
генеральных совокупностей с известными дисперсиями
при конкурирующей ги потезе Н i : М (Х) > М (У), надо
вычислит� �аблюдавшееся значение критерия Zнабл ж=
= у D (Х�:-:D (Y)Jm и по табл ице функции Лапласа найти
критическую точку из равенства Ф (Zкр) = (1-2а)/2.
Если Zнабл < Zкр-нет оснований отвергнуть нулевую
гипотезу .
Если Zнабл > Zкр -нулевую гипотезу отвергают.
Пример 2. По двум независимым выборкам, объемы которых
соответственно равны n= 10 и m=10, извлеченным из нормальных
генеральных совокупностей, найдены выборочные средние х= 14,3 и
ii= 12,2. Генеральные дисперсии известны: D (Х) =22 , D (У) = 18.
При уровне значимости 0,05 проверить нулевую гипотезу Н0: М (Х) =
=М (У), при конкурирующей гипотезе Н1: М (Х) > М (У).
Решени е. Найдем наблюдаемое значение критерия;
Z - 14,3-12,2
105
пабп -
У 22/lO+ 18/10
'
•
По условию', конкурирующая гипотеза имеет вид М (Х) > М (У),
поэтому критическая область - правосторонняя.
По таблице функции Лапласа находим Zкр = 1 ,64.
Так как Zнабл < Zкр -нет оснований отвергнуть нулевую гипо
тезу. Другими словами, выборочные средине различаются незначимо.
Третий случай. Нулевая гипотеза Н0: М(Х)=
� М (У). Конкурирующая гипотеза Н1 • М (Х) < М (У)�
В этом случае строят левостороннюю критическую
область, исходя из требования , чтобы вероятность попа-
-
-
�
-«
--�.&.
.:-
-
��--
·
�����-
�
�-
Z
к
р
О
Рис. 27
дания критерия в эту область в предположении справед
ливости нулевой ги потезы была равна принятому уровню
значимости (рис. 27):
Р(Z<Z�p)=а.
Приняв во внимание, что критерий Z расп ределен
симметрично относительно нуля , заключаем, что искомая
критическая точка z�P симметрична такой точке tzкp >О,
для которой Р(Z>Zкр)=а, т. е. Z�p= - Zкр• Таким
302 '
обр�зом, для того чтобы найти точку z�P ' достаточно
сначала найти «вспомог�тельную _
точку» Zкр так, как
описано во вто ром с л у чае, а затем взять найденное
значение со знаком минус. Тогда левосторонняя крити
ческая область определяется неравенством Z <-Zкр•
а область принятия нулевой ги потезы -неравенством
Z >-Zкр·
Правило 3 . При конкурирующей гипотезе Н1: М (Х) <
< М (У) надо вычислить Zнабл и сначала по таблице
функции Лапласа найти «вспомогательную точку» Zкр по
равенству Ф(zкр= (l-2а)/2 , а затем положить z�p ""
"'
-Zкp·
Если Z на бл >-Zкр - нет основ аний отвергнуть нуле
вую гипотезу.
Если Zнабл <-Zкр - нулевую гипотезу отвергают.
Пример 3. По двум независимым выборкам, объемы 'которых
соответственно равны n=50 и m=50, извлеченным из нормальных
генеральных совокупностей, найдены выборочные средние х = 142 и
у 150. Генеральные ди
"
сперсии известны: D (Х) = 28 ,2 , D (У) =22,8.
При уровне значимости 0,01 проверить нулевую гипотезу Н0: М(Х) =
=М (У), при конкурирующей гипотезе Н1: М (Х) < М (У).
Решение. Подставив данные задачи в формулу для вычисле
ния наб.1.1юдаемого значения критерия, получим Zнаб.1
1
=-8.
По условию, конкурирующая гипотеза имеет вид М (Х) < М (У).
поэтому критическая об.ласть - .левосторонняя.
Найдем «вспомогательную точку» Zкр:
Ф (Zкp)=(l-2a)/2 =(1 -2 · 0,0l)/2 =0,49.
По таблице функции Лапласа находим Zкр =2,33. Следова
тельно, Z�p =- Zкp
= -2,33.
Так как Zнабл < - Zкр - нулевую гипотезу отвергаем. Другими
словами, �выборочная средняя х значимо меньше выборочной сред
ней у.
§ 11. Сра внение двух средних произвольно
распределе нных генеральн ых совокуп ностей
(большие независимые выборки)
В предыдущем параграфе предполагалось, что
генеральные совокупности Х и У распределены нор
мально, а их дисперсии известны. При этих предполо
жениях в случае справедл ивости нулевой гипотезы
о равенстве средних и независимых выборках критерий Z
расп ределен точно нормально с параметрами О и 1.
'
зоз
Если хотя бы одно из приведенных требований не
выполняется , метод сравнения сред них, описанный в§10,
непримен им.
Однако если независимые выборки имеют большой
объем (не менее 30 каждая ), то выборочные средние рас
пределены приближенно нормально, а выборочные дис
персии явл яются достаточно хорошими оценками гене
ральных дисперсий и в этом смысле их можно считать
известными приближенно. В итоге критерий
Z'=
.X-v
У Dв (Х)/п + Dв (У)/т
распределен приближенно нормально с параметрами
М (Z') = О (при условии справедл ивости нулевой ги по
тезы) и а (Z') = 1 (если выборки независимы) .
Итак, если: 1) генеральные совоку пности распреде
· лены
нормально, а дисперсии их неизвестны ; 2) гене
ральные совокупности не распределены нормально и дис
перси и их неизвестны, причем выборки имеют большой
объем и независимы ,- можно сравнивать средн ие так ,
как описано в § 10, заменив точный крите рий Z прибли
женным критерием Z' . В этом
.
с лучае наблюдаемое зна
чение приближенного критерия таково :
-
Z'
-
х-у
н
а
б
л
-
УDв(X)/n+Dв(У)/т •
3 а м е ч а н не. Поскольку рассматриваемый критерий - прибли•
женный, к выводам, полученным по этому критерию, следует отно·
ситься осторожно.
Пример. По двум независимым выборкам, объемы которых соот
ветственно равны n= 100 и т = 1 20, найдены выборочные средние
х= 32 ,4, у=ЗО,l и выборочные дисперсии Dв(Х) = 15,0, Dв(У)=25,2 .
При уровне значимости 0,05 проверить нулев.ую гипотезу Н0: М (Х) =
= М (У), при конкурирующей гипqтезе Н1: М (Х) -:j: М (У).
Решение. Подста вив данные задачи в формулу для вычисле
ния наблюдаемого значения приближенного критерия, получим
Z�абл = 3,83.
По условию, конкурирующая гипотеза имеет вид М (Х) > М (У),
поэтому критическая область - правосторонняя.
Найдем критическую точку по равенству
Ф (Zкр) =(l-2a)/2=( I-2.0 ,05)/2 =0,45 .
По таблице функции Лапласа находим Zкр = 1,64.
Так как Zнабл > Zкр - нулевую гипотезу отвергаем. Другими
словами, выборочные средние различаются значимо.
304 .
§ 12. Сравнение двух средн их нормальных
генеральных совокупностеi;, дисперсии которы�
неизвестны и одиhаковы (малые независимые
выборки)
·
.
Пусть генеральные совокупности Х и У распре
делены нормально, причем их дисперсии неизвестны.
Например, по выборкам малого объема нельзя получить
хорошие оценки генеральных дисперсий. По этой при
чине метод сравнения средних, изложенный в § 11, при
менить нельзя .
Однако если дополнительно .п редположить, что неиз
в естн ы е генеральные дисперсии равны
между с обой, то можно построить критерий (Стью
дента) сравнения сред них. Например, если сравниваются
средние размеры двух партий деталей, изготовленных
на одном и том же станке, то естестве нно допустить, что
дисперсии контролируемых размеров одинаковы.
Если же нет оснований считать дисперсии оди нако
выми, то, пре жде чем сравнивать средние, сле
дует, пользуясь критерием Фишер<l"L- Снедекора (см. § 8),
пред варительно проверить гипотезу о равенстве гене
ральных дисперсий.
Итак , в предположени и, что генеральные дисперсии
оди нако.вы, требуется проверить нулевую гипотезу Н0 : ·
М (Х) = М (У) . Другими словами , требуется установить,
значимо или незначимо разл.и:чаются выборочные средн!fе
х и у, найденные по независимым малым выборкам объе
мов пит .
В качестве критерия пр'о верки нулевой гипотезы при
мем случайную величину
Т=
Х-У
-./
пт (п+т- 2)
V<п-I)s;+(m- 1 ) s� r
п+т
•
Доказано, что величина Т при справедл ивости нулевой
ги потезы имеет t-распределение Стьюдента с k = п +m- 2
степенями свободы.
Критическая область строится в зависимости от вида
конкурирующей ги потезы .
Первый елучай. Нулевая ги потеза Н0: М (Х) =
-:-
-
М (У). Конкурирующая гипотеза Н 1 : М (Х) -=F М (У) .
В этом случае строят двустороннюю критическую
область , исходя из требования , чтобы вероятность попа-
305
дания критерия Т в эту область в предположении спра.
ведл ивости нулевой гипотезы была равна принятому
уровню значимости а.
Наибольшая мощность крите рия ( вероятность попа
дания критерия в критическую область при справедл и
вости конкурирующей гипотезы ) достигается тогда , когда
«левая» и «правая» критические точки выбраны так, что
вероятность попадания критерия в каждый из двух интер
валов двусторонней критической области равна а/2 :
Р(Т<tлев. кр)=а/2, Р(Т>tправ. кр)=а/2.
Поскольку вел ичина Т имеет распределение Стью
дента, а оно симметрично относительно нуля, то и крити
ческие точки симметричны относительно нуля . Таким
образом, если обозначить правую границу двусторонней
критической области через tдвуст . кр (а; k), то левая гра
ница равна -tдвуст. кр (а; k). Итак, достаточно найти
правую границу двусторонней критической области, чтобы
найти саму двустороннюю критическую область : Т <
< -tдвуст. кр (а; k), Т > tдвуст. кр (а.; k) И область принятия
нулевой гипотезы: [ -tдвуст. кр (а.; k), tдвуст. кр (а; k)].
Обоз начим значение критерия , вычисленное по дан
ным наблюде ний, через Тн абJt и сформулируем правило
проверки нулевой гипотезы.
Правило 1. Для того чтобы при заданном уровне зна
чимости а проверить нулевую гипотезу Н0: М (Х) = М (У)
о равенстве математических ожиданий двух нормальных
совокупностей с неизвестными , но оди наковыми диспер
сиями (в случае независимых малых выборок) при кон
курирующей гипотезе Н1: М (Х) =1= М (У), надо вычис
л ить наблюдаемое значение критерия:
х-у
-./ пт(п+т -2)
Тнабл
V
.JI
п+т
(п- 1)s�+(m-1)s;
·
и по таблице критических точек распределения Стьюдента ,
по заданному уровню значимости а (помещенному в верх
ней строке таблицы) и числу степеней свободы k = п + т-2
найти критическую точку tдвуст. кр (а; k) .
Если 1Тнабл 1 < tдвуст. кр (а; k) - отвергнуть нулевую ги
потезу нет оснований.
Если ! Тнабл l >tдвуст. кр (а; k)- нулевую гипотезу от
вергают.
306 /
Пример. По двум независимым малым выборкам, объемы которых
соответс'tвенно равны п = 5 и т = 6, извлеченным из нормальных ге
неральных совокупностей Х и У, найдены выборочные средние х= 3 ,3,
у 2,48 и исправленные дисперсии Sk = о.�5 и 4=о, 108. При уровне
значимости 0,05 проверить нулевую гипотезу Н 0: М (Х) = М (У), при
конкурирующей гипотезе Н11М (Х) ::/= М (У).
Решение. Так как выборочные дисперсии различны, провери!.t
предварительно нулевую гипотезу о равенстве генеральных дисперсий,
пользуясь критерием Фишера- Снедекора (см. § 8).
Найдем отношение большей исправленной дисперсии к меньшей:
Fна 6л = 0,25/0, 108 =2,31.
Дисперсия sl значительно больше дисперсии s}, поэтому в ка
честве конкурирующей примем гипотезу H1:D (Х) > D (У). В этом
случае критическая область -правосторонняя. По таблице, по уровню·
значимости а = 0,05 и числам степеней свободы k1 =5_,., 1 = 4 , k2 =
=6-1 =5 находим критическую точку Fкр (О,05; 4; 5) -=5, 1 9..
Так как Fнабл < Fкр -нет оснований отвергнуть нул�вую гипо
тезу о равенстве генеральных дисперсий.
Поскольку предположение о равенстве генеральных дисперсий
выполняется , сравним средние.
Вычислим наблюдаемое значение критерия Стьюдента:
т·
х-у
-.
/'
пт (n +m-2)
набл= r
JI
+
•
.
Jr ns� +ms}
пт
Подставив числовые значения величин, входящих в эту формулу, по
лучим Тнаб.в = 3,27.
По условию, конкурирующая гипотеза имеет вид М (Х) ::/= М (У),
поэтому критическая область-двусторонняя. По уровню значим.ости
0,05 и числу степеней свободы k=5+6-2=9 находим по таблице
(см. приложение 6) критическую точку t двуст. кр (O,Q5; 9) = 2,26.
Так как Тнабл > tдвуст. кр -нулевую гипотезу о равенстве гене
ральных средн их отвергаем. Другими словами, выборочные средние
различаются значимо.
Втор ой случай. Нулевая гипотеза Н0 :М (Х) =
= М (У). Конкурирующая гипотеза Н1 :М (Х) > М (У).
В этом случае строят п р авостороннюю кр итическую
область, исходя из требования, чтобы ве роятность попада
- :,ния критерия Т в эту область в п редположении спра
ведл ивости нулевой гипотезы была р авна п р инятому
уровню значимости :
Р(Т > tправост. кр) =а.
Критическую точку tправост. кр (а; k) находят по табл ице.
п р иложения 6, по у ровню значимости а, помещенному
в нижней стр оке таблицы, и по числу степеней свободы
k= n+m-2.
Если Тнабл < fпvа вост. нр - нет оснований отвергнуть ну
левую гипоте зу .
307
Если Тна бл > fправост. кр - нулевую гипотезу отвергают.
Третий случай. Нулевая ги потеза Н0 :М (Х) =
..
..
М (У). Конкурирующая гипотеза Н1 :М (Х) < М (У).
В этом случае. строят левостороннюю критическую
область, исходя из требования, чтобы вероятность по- ·
падания критерия в эту область в предположении спра
ведл ивости нулевой гипотезы была равна принятому уров
ню значимости :
р(Т<fлевост. кр)=а..
В силу симметрии распредел ения Стьюдента относи
тельно нуля tлевост. кр = - tправост. кр· Поэтому сначала на
ходят «вспомогател ьную» критическую точку lправост. кр
так, как описано во вто ром с л уча е, и полагают
fлевост. кр = - tправост. кр•
Если Тнабл > - fпоавост. кр - отвергнуть нулевую гипо-
тезу нет основани й.
.
Если Тнабл < -tправост. кр - нулевую гипотезу отвер
гают.
§ 13. Сравнение выбороч ной средней
с гипотетической генеральной средней
нормальной совокуп ности
А. Дисперсия генеральной совокупности известна .
Пусть генеральная совокупность Х расп ределена нор
мально, причем генеральная средняя а хотя и неизвестна,
но имеются основания предполагать, что она равна ги
потетичес кому ( предполагаемому) значению а0 • Например,
если Х - совокупность размеров х1 партии детал ей, изгото
вляемых станком-автоматом, то можно предположить, что
генеральная средн яя а этих размеров равна проектному
размеру а0 • Чтобы проверить это пред положение, находят
выборочную среднюю х и устанавливают, значимо или
незначимо различаются х и а0 • Если различие окажется
незначимым, то станок обеспеч ивает в среднем проектный
размер; если разл ичие значимое, то станок требует под
наладки .
Предположим, что дисперсия генеральной совокуп
ности известн а, например, из пред шествующего опыта,
или найдена теоретически, или вычислена по выборке
большого объема (по большой выборке можно получить
достаточно хорошую оценку дисперси и) . .
308
Итак, пусть из нормальной генеральной совокуп ности
извлечена вь�орка объема п и по ней найдена выбороч
ная средняя х, причем генеральная дисперсия cr2 известна.
•Требуется по выборочной сред ней при заданном уровне
значимости проверить нулевую ги потезу Н0:а = а0 о ра
венстве генеральной средней а гипотетическом у значе
нию ао.
Учитывая, что выборочная средняя явл яется несме
щенной оценкой генеральной средней (см . гл . XVI, § 5),
т. е . М (Х) = а , нулевую гипотезу можно записать так:
М (Х)=а0 •
Таким образом, требуется проверить, что математи
ческое ожидание выборочной средней равно ги потети
ческой гене ральной средней . Другими словами , надо уста
новить, значимо или незначимо различаются выборочная
и генеральная средн ие.
В качестве критерия проверки нулевой гипотезы при
мем случайную величину
U - (Х-а0)/а(Х)=(Х-а�)Vn/<J,
кото рая расп ределена нормал ьно, причем при справедл и
вости нулевой гипотезы М (И) = О , cr (U) = 1.
Поскол ьку зде сь критическая область строится в за
висимости от вида конкурирующей гипотезы; так же как
в § 1 О, ограничимся формули ровкой правил проверки
нулевой ги потезы , обозначив значение критерия U, вы
численное по данным наблюдений, через Uнабл ·
Правило 1. Для того чтобы при заданном уровне зна
чимости а проверить нулевую гипотезу Н0 :а =а0 о ра
венстве генеральной средней а нормальной совокупности
с известной дисперсией <12 гипотетическому значению а0
при конку рирующей гипотезе Н 1 : а =t=a0 , надо вычислить
наблюдаемое значение критерия:
инабл = <х - ао) Vti1a
и по таблице функции Лапласа найти критическую точку
двусторонней критической области по равенству
Ф (Икр)=( 1 - а)/2.
Если 1 Uнабл 1 < Икр - нет оснований отвергнуть нуле
вую гипотезу .
Если I Инабл l> Икр - нулевую гипотезу отвергают,
309
Правило 2. При конку рирующей гипотезе Н1 :а > а0
крит ическую точку правосторонней критической области
находят по равенству
Ф (икр) =(1-2а)/2.
Если U наб.� < Икр - нет оснований отвергнуть пулевую
гипотезу . Еслl:{ Инабл :;:
::
:.
Икр - нулевую г.ипотезу отвер гают.
Правило 3 . При конкурирующей гипотезе Hi :a < а0
сначала находят критическую точку Икр по правилу 2,
а затем полагают границу левосторонней критической
области И�р = - Икр·
Если Uнабл > - Икр- нет оснований отвергнуть нуле
вую гипотезу.
Если U набл < -икр - нулевую ги потезу отвергают.
Пример 1. Из нормальной генеральной совокупности с известным
средним квадратическим отклонением <7=0,36 извлечена выборка
объема n = 36 и по ней найдена выборочная средняя х= 21 ,6. Тре·
буется при уровне значимости 0,05 проверить нулевую гипотезу
Н0 :а=а0 =21, при конкурирующей гипотезе Н1 :а :;С: 21.
Реш е н и е. Найдем наблюдаемое значение критерия:
Инабл = (Х·- а0) Yn/cr ={21,6-21)J(36/0,36 = 10.
По условию, конкурирующая гипотеза имеет вид а ;i!: а0; поэтому
критическая область -двусторонняя.
Найдем критическую точку:
ф {И кр) = (1 -а.)/2 = (1 -0,05)/2 =0,475.
По таблице функции Лапласа находим Икр = 1 ,96.
Так как Инабл >Икр - нулевую гипотезу отвергаем. Другими
словами, выборочная и гипотетическая ге неральная средние разли·
чаются значимо.
Пример 2. По данным примера 1 проверить нулевую гипотезу
Н0 :а=21 при конкурирующей гипотезе а>21.
Решение . Так как конкурирующая гипотеза имеет вид а > 21,
критическая область -правосторонняя.
Найдем критическую точку из равенства
ф {Икр) =(1 -2а.)/2 ={1 -2 ·0,05)/.2 =0,45 .
По таблице функции Лапласа находим Икр = 1,65.
Так !{аК Инабл = 10 >Икр - нулевую гипотезу отвергаем; разли
чие между выборочной и гипотетической генеральной средней
значимое.
Заметим, что в примере 2 нулевую гипотезу можно было отверг
нуть сразу, поскольку она была отвергнута в примере 1 при двусто
ронней критической области; полное решение приведено в учебных
целях�
Б. Дисперси я генеральной совокупности неизвестна.
Если дисперсия генеральной совокупности неизвестна
(нап ример, Б случае малых выборок) , то в качестве кри·
те рия проверки нулевой гипотезы принимают случайную
величину
т=(Х -а0)Vn/S,
где S-«исправленное» среднее квадратическое отклоне
ние. Вел ичина Т имеет расп реде лен ие Стьюдента с k= n -1
степенями свободы.
Критическая область строится в зависи мости от вида
конку рирующей гипотезы. Поскольку это делается так,
как описано выше, ограничи мся правилами проверки
нулевой гипотезы.
Правило 1. Для того чтобы при заданном уровне зна
чимости а проверить нулевую ги потезу Н0:а=а0 о ра
венстве неизвестной генеральной средней а ( нормальной
совокупности с неизвестной дисперсией) гипотетическому
значен ию а0 при конкурирующей гипотезе Н1:а =1= а0,
надо вычислить наблюдаемое значение критерия:
тнабл = <х -ао)Vn/s
и по таблице критических точек расп ределен ия Стьюдента,
по заданному уровню значи мости а, помещен ному в верх
ней строке табл ицы, и числу степеней свободы k =n- 1
найти критическую точку tдвуст. нр (а; k).
Если 1 Тнабл 1 < tдвуст. нр - нет оснований отвергнуть
нулевую гипоте зу.
Если 1 Тнабл 1 > tдвуст. кр-нулевую гипотезу отвергают.
Правило 2. При конку рирующей гипотезе Н1:а > а0
по уровню значи мости а , помещенному в нижней строке
таблицы приложен ия 6, и числу степеней свободы k =n - 1
находят критическую точку tп1)авост. кр (а; k) правосто
ронней критической облас�и .
Если Тнаб:л < tправост. кр - нет оснований отверrнуть
нулевую гипотезу.
Правило 3. При конкурирующей гипотезе Н1 :а < а0 ,
сначала находят «вс помогательную» критическую точку
tправост. кр (а; k) и полагают границу левосторонней кри
тической области tлевост. нр = - tправост. нр •
Если Тнабл >-tправост. кр -нет ·оснований отвергнуть
нулевую гипотезу.
Есл и Тнабл < -tправост. кр-нулевую гипотезу отвер
гают.
Пример 3. По выборке объема n=20, извлеченной из нормаль
ной генеральной совокупности , найдены выборочная средняя х= 16
и «исправленное» среднее квадратическое отклонение s = 4,5. Тре-
Зll
буется при уровне значимости 0,05 проверить нулевую гипотезу
Н0 : а = а0 = 15, при конкурирующей ги потезе Н1 :а :f= 15.
Решение. Вычислим наблюдаемое значение критерию
Тнабл =(х- а0) Yn/s =(16-15)- Jf20/4,5 =0,99.
По условию, конкурирующая гипотеза имеет вид а :/= а0, поэтому
критическая область -двусторонняя.
По таблице критических точек распределения Стьюдента, по
уровню значимости а.=0,05, помещенному в верхней строке таблицы,
и по числу степеней свободы k = 20 - 1 = 19 находим критическую
точку fдвуст. к р (О,05; 19) = 2,09 .
Так как 1 Тнабл 1 < tдвуст. кр - нет оснований, чтобы отвергнуть
нулевую гипотезу; выборочная средняя незначимо отличается от ги
потетической генеральной средней.
§ 14. Связь между двусторон ней критической
областью и доверительным интервалом
Легко показать, что , отыскивая двустороннюю
критическую область при уровне значимости а, тем самым
находят и соответствующий доверител ьный интервал с
надежностью у = 1 -а . Например, в § 13, проверяя ну
левую гипотезу Н0 :а=а0 при Н1 :а=1=а0, мы требовал и,
чтобы вероятность попадания крите рия U = (х -а) �lfi/a
в двусто роннюю критическую область была равна уровню
значимости а, следовател ьно, вероятность попадания кри
терия в область принятия гипотезы (- Икр • Икр) равна
1 -а =у. Другими словами , с наде жностью i' выпол
няется неравенство
- икр < (х-а)Vn/a<Икр•
или равносильное неравенство
-
(]
-
(]
х-и�РУп<а<х+Икрyti,
где Ф (Икр)=у/2.
Мы получили доверительный интервал для оценки
математического ожидан ия а нормального распределения
при известном а с надежностью i' (см. гл. XVI , § 15).
З а м е ч а н и е. Хотя отыскание двусторонней критической об
ласти и доверительного интервала приводит к одинаковым резуль
татам, их истолкование различно: двусторонняя критическая область
определяет границы (критические точки), между которыми заключено
(1 -а.)% числа наблюдаемых критериев, найденных при повторении
опытов; доверительный же интервал определяет границы (концы ин
тервала), между которыми в у = ( 1-а.)% опытов заключено истин
ное значение оцениваемого параметра.
312
§ 15. Определение минимального объема выборки
при сравнен ии выборочной и гипотетической . .
генеральной средних
На практике часто и звестна величина ( точность)
б >О, которую не должна превышать абсолютная вели
чина разности между выборочной и гипотетической гене
ра-льной сред ним и . Например, обычно требуют, чтобы
средни й размер изготовляемых деталей отл ичался от про
ектного не более чем на заданное б. Возн икает вопрос:
каким должен быть минимальный объем выборки, чтобы
это требование с вероя тностью '\' = 1 - а. (а - уровень
значимости) выполнялось?
Поскольку задача отыскани я доверительного интервала
дл я оцен ки математического ожидания нормального рас
пределения при известном о и задача отыскания двусто
ронней критической области дл я ·проверки г�потезы о
равенстве математичес кого ожидания ( ген�ральной сред
ней) гипотети ческому значению (см. § 13, п. А) свод ятся
одна к другой (см. § 14), воспользуемся формулой (см.
гл..XVI, § 15)
где икр находят по равенству Ф (икр) = у/2 = (1- а.)/2.
Если же о неизвестн о, а найдена его оценка s, то
(см.§13,п.Б)
п =t�вуст.кр (а.; k).s2/б2•
§ t6. Пример на отыскание мощности критерия
Приведем решение примера .н а нахождение мощ
ности критерия .
Пример. По выборке объt>ма п = 25, извлеченной из нормальной
генеральной совокупности с известным средним квадратическим от
клонением О"=10, найдена выборочная средняя х= 18. При уровне
значимости 0,05 требуется:
·
а) найти критическую область, если проверяется нулевая гипо
теза Н0 : а=а0 = 20 о равенстве генеральной средней гипотетическому
значению при конкурирующей гипотезе Н1 :а < 20;
б) найти мощность критерия проверки при а0 = 16.
Реш е н и е. а) Так как конкурирующая гипотеза имеет вид
а < а0 , критическая область -левосторонняя.
Пользуясь правилом 3 (см. § 13, п. А), найдем критическую точку:
и�р = -1 ,65. Следовательно, левосторонняя критическая область оп-
" 313
ределяется неравенством И < -1,65, или подробнее
(х- 20) Jf25/ 10 < -1,65.
Огсюда х<16,7.
При этих значениях выборочной средней нулевая гипотеза от-
вергается; в этом смысле х= 16,7 можно рассматривать как крити
ческое значение выборочной средней .
б) Для того чтобы вычислить мощность рассматриваемого кри
терия, предварительно найдем его значение при условии справедли-
вости конкурирующей гипотезы (т. е . при а0 = 16�. положив х = 16,7:
И = (х- а0) Vnla=(l6,7 -'-
-
16) Jf25/10= 0,35.
Огсюда видно, что если х < 16,7 , то И < 0,35. Поскольку при
х < 16,7 нулевая гипотеза отвергается, то и при И < 0,35 она также
отвер гается (при этом конкурирующая гипотеза справедлива, так
как · мы положили а0 = 16).
Найдем теперь, пользуясь функцией Лапласа, мощность крите
рия, .т. е. вероятность того , что нулевая гипотеза будет отвер гнута ,
если справедлива конкурирующая гипотеза (см. § 7):
P (U < О,35) =Р(- оо <И<О,35) =Р(-оо <И<О) +
+Р(О <И<0,35) =0,Б +Ф (О,35) =0 ,5+0,!368 = 0,6368.
Итак, искомая мощность рассматриваемого критерия прибли
женно равна 0,64. Если увеличить объем выборки, то мощность
увеличится.
Например, при n = 64 мощность равна 0,71. Если увеличить а,
то мощность_ также увеличится. Например, при а=О,1 мощность
равна 0,7642.
3 а мечани е. Зная мощность , ле гко найти вероятность ошибки
второго рода: f.\ = 1 -0,64. (Разумеется , при решении пр имера можно
было сначала найти f.\, а затем мощность, равную 1 - () . )
§ 17. Сравнение двух средн их нормальных
ген ера льных совокуп нос тей с неизвестными
дисперси ями (зависимые выборки)
В предыдущих параграфах выборки предпола
гались независимыми . Здесь рассматриваются выборки
оди накового объема , варианты которых попарно зави
симы. Например, если xi (i = 1, 2, . • . , п)-результаты
измерен ий деталей первым прибором, а Уi - результаты
измерений этих- же детале й, произведенные в том же по
рядке вторым прибором, то х1 и у1 попарно зависимы и
в этом смысле сами выборки зависимые. Поскольку, как
правило, х1 ::f=. Yi• то возни кает необходимость установить ,
значимо или незначимо разли чаются пары этих чисел .
Аналогичная задача ставится при сравнении двух мето
дов исследования, осуществлен ных одной лабораторн-
3Н
ей, или если исследование произведено одн и м и тем же
методом двумя различными лабораториями.
Итак, пусть генеральные совокупности Х и У рас·
предел ены нормально, причем их дисперсии неизвест ны.
Требуется при уровне значимости а провер ить нулевую
гипщезу Н0 :М (Х) =М(У) о равенстве генеральных срс·д
них нормальных совокупностей с неизвестн ыми диспер
сиями при конкурирующей гипотезе Н 1 : М (Х) ==F М (У) по
двум зависимым выборкам одинакового объем а.
Сведем эту задачу сравнения д в у х <'редних :к �я.даче
сравнен ия одной выборочной средней с гипотетическим
значением генеральной средней, решенной в § 13, п, Б.
С этой целью введем в рассмотренные сJiучайные вели
чины - разности D1 =Х1-У1 и их среднюю
- -�D;_�(Х;-У!)_�Х1 �У;_- -
D----
- ----Х-У.
п
п
п
п
Если нулевая гипотеза справедлива, т. е. М (Х) ' -""
"
М (У),
то М (Х)-М (У) =О и, следовательно,
М (D) =M(Х-У)=М(Х)-М (У) =О.
Таким образом, нулевую гипотезу Н0 :М(Х)=М{У)
можно записать так :
Тогда конкурирующая гипотеза примет вид
Н1 :М (D) ::FO.
3 а м е ч а н и е 1. Далее наблюдаемые неслучайные разнос
-
тя
-
x1 -Yi будем обозначать через d; в отличие от случайных разностей
D1 =-X1-Y1. Аналогично выборочную среднюю этих разностей �dz/n
обозначим через а в отличие от случайной величины l5.
Итак, задача сравнения двух средних х и у сведена к задаче
сравнения одной выборочной средней d с гипотетическим значением
генеральной средней М (D) =a0=0. Эта задача решена ранее в§13,
п. Б, поэтому приведем лишь правило проверки нулевой rипотези и
иллюстрирующий пример.
3амечаняе 2. Как следует из изложенного выше, 11 фор..
муле (см. § 13, п. Б)
Тнабд =(х- ао) Ynls
Зi5
надо положить
Тогда Тнабл =dYn/sd.
Правило. Для того чтобы при заданном уровне зна·
чимости а проверить нулевую гипотезу Н0 : М (Х) =
= М (У) о равенстве двух средн их нормальных совокуп·
ностей с неизвестными дисперсиями (в случае зависимых
.
выборок оди накового объема) при конкурирующей гипс·
тезе М (Х) r:;6 М (У), надо вычислить наблюдаемое зна·
чение критерия:
Тнабл = dVn/s4
и по табл ице критических точек распредел ения Стьюдента ,
по заданному уровню значимости а., помещенному в верх·
ней строке таблицы, и по числу степеней свободы k = п - 1
найти критическую точку tдвуст. кр (а.; k).
Есл и 1 Тнабл / < tцвуст. кр - нет оснований отвергнуть
нулевую ги потез у.
Если 1 Тнабл 1 > tдвуст. кр - нулевую гипотезу отве ргают.
Пример. Двумя приборами в одном и том же порядке измерены
5 деталей и получены следующие результаты (в сотых долях мил·
лиметра) :
Х1=6, Х2=1, Хз=В, Х4=5, Х0=7;
У1=1, У2=6, Уа=В, у4=7, Yr.=8.
При уровне значимости 0,05 установить, значимо или незначимо раз
личаются результаты измерений.
Решени е. Вычитая из чисел первой строки числа второй,
получим: d1=-l, d2= 1,d3=0, d4 =-2, dr.=-l.
Найдем выборочную среднюю:
d=.� di/n =(-1 +1+o-2+-I)/5 = -0,6 .
Учитывая, что �d�= l+l+4+1=7 и � d; =-3,
сисп равленное» среднее квадратическое отклонение:
Вычислим наблюдаемое значение критерия:
Тнабл=d Yn/sd= -0,6 VБ!VТ:З= -1,18.
найдем
По таблице критических точек распределения Стьюдента , по уровню
значимости ! 0,05, помещенному в верхней строке табли цы, и
числу степеней свободы k = 5 - 1 = 4 находим критическую точку
lдвуст. кр (0,05; 4) = 2,78.
316
Так как I Тнаблl < tдвуст. кр -нет оснований отвергнуть нулевую
ГIШQ.тезу. Другими словами, результаты измерений различаются
незначимо.
§ 18. Сравнение наблюдаемой относительной
частоты с гипотетической вероятностью
появления события
Пусть по достаточно большому числу п незави
симых испытаний, в каждом из которых вероятность р
появления события постоянна, но неизвестна , найдена
относительная частота m/n. Пусть имеются основания
пред полагать, что неизвестная вероятность равна гипоrе
тическому значению р0• Т ребуется при заданном уровне
значимости а проверить нулевую гипотезу, состоЯЩ} �О
в том, что неизвестная вероятность р равна гипотетиче
ской вероятности р0 •
Поскольку вероятность оцен ивается по относительной
частоте, рассматриваемую задачу можно сформулировать
и так : требуется установить , значимо или незначимо раз- .
личаются наqлюдаемая относител1)ная частота и гипоте
тическая вероятность.
В качестве критерия проверки нулевой гипотезы при
мем случайную величину
U = (М/п -р0) Vn/VPoqo ,
гдеq0=1-Ро·
Величина U при справедливости нулевой ги потезы
расп ределена приближенно нормально с параметрами
М(U)=O, <J(U)=1.
Поя сне ни е. Доказано ( теорема Лапласа), что при
достаточно больших значениях п относительная частота
имеет приближенно нормальное расп ределение с матема
тическим ожиданием р
·
и средним квадратическим откло-
нением V.pq/n . Нормируя относительную частоту (�ычи
тая математическое ожидание и деля на среднеQ квад
ратическое отклонение) , получим
и_М/п -р _ (М/п -р) yli
-
Уpq/n -
Уpq
'
причем М(И)=О, cr(И)=1.
817
При справедл ивости нулевой гипотезы, т. е . при р = р0 ,
И=(М/п-Ро)Yn•
У PoQo
З а м е ч а н и е 1. Далее наблюдаемая частота обозначается через
m/n в отличие от случайной величины M/n.
Поскольку здесь критическая область строится так же ,
как и в § 10, приведе м лишь правила проверки нулевой
гипотезы и иллюст рирующий пример .
Правило t . Для того чтобы при заданном уровне зна
чимости проверить нулевую гипотезу Н0 : р = р0 о равен
стве неизвестной вероятности гипотетической вероятности
при конкурирующей гипотезе Н1 : р =1= р0, надо вычислить
наблюдаемое значение критерия :
Ииабл = (m/n - po) Vn/VPo qo
и по таблице функции Лап.Ласа найти критическую точку
и кр по равенству Ф (Икр) = (1-а)/2.
·
.
Если 1 Ииабл 1 < Икр - нет оснований отвергнуть нуле
вую гипотезу .
Если 1 Ин:�бл 1 > И кр - нулевую гипотезу отвергают.
Правило 2. При конкурирующей гипотезе Н 1 : р > р0
находят критическую точку правосто ронней критической
области по равенству Ф (Икр) = (1-2а)/2.
Если Ииабл < Икр-нет оснований отвергнуть нулевую
гипотезу.
Если Инабл >Икр-нулевую гипотезу отвергают.
Правило 3. При конку рирующей гипотезе Н1 : р < Ро
находят критическую точку Икр по правилу 2, а затем
полагают границу левосторонней критической области
U�p =-Uкp·
Если Инабл >-икр - нет оснований отвергн уть нуле
вую гипотезу.
Если Инаб:я <-и кр-нулевую гипотезу отвергают.
3 а мечани е 2. Удовлетюрите.льные ·результаты обеспечивает
выполнение неравенства np0q0 > 9.
Пример. По 100 независимым испытаниям найдена относите.11ьная
частота О,08. При уровне аначимости 0;05 проверить нулевую гипо
тезу Н0 :р=р0.= 0,12 при конкурирующей гипотезе Н1 :р :Р. 0, 12.
Решение. Найдем наблюдаемое значение критерия:
и _(m/n-p0)/Yn (0,08-0,12)YIO
O
=-
123
паб.в -
"r
,
"ro
12.0 88
'
.
r
РоЯо
r
•
•
По условию, конкурирующая гипотеза имеет вид р :Р. р0, поэтому
критическая область двусторонняя.
316 .
Найдем критическую точку икр по равенству
Ф (икр) =(l -a)/2=(1-0,05)/2 = 0,475.
По таблице функции Лапласа (см. приложение 2) находим Uкр = 1,96.
Так как 1ИнабJ11 < икр - нет оснований отвергнуть нулевую ги
потезу. Другими словами, наблюдаемая относительная частота не
значимо отличается от гипотетической вероятности.
§ 19. Сра внение двух вероятностей биномиал ьных
распределений
Пусть в двух генеральных совокупностях п ро
изводятся независимые испытания ; в резул ьтате каждого
испытания событие А может появиться либо не появиться .
Обозначим неизвестную вероятность появления собы
тия А в первой совокупности через р1, а во второй
через р2 • Допустим, что в первой совокупности произ
ведено n1 испытаний (извлечена выборка объема n1) , п-ричем
событие А наблюдалось m1 раз. Следовательно, относи
тел ьная частота появления события в первой совокупности
w1 (А) =m1/n1•
Допустим, что во втор ой совокупности произведе но п.
испытаний (извлечена выборка объема п2), п р ичем собы
тие А наблюдалось m2 раз. Следовател ьно, относительная
частота появления события во втор ой совоку пности
W3 (А)= mJn2•
Примем наблюда вшиеся относительные частоты в к а
честве оценок неизвестных вероятностей поя вления собы
тия А: р1 � w1, р2 � w2• Требуется при заданном уровне
значи мости а проверить нулевую гипотезу , состоящую
в том, что вероятности р1 и р2 равны между собой:
Но=Р1=Р2=р.
Заметим, что, поскольку вероятности оцениваются по
относительным частотам, рассматриваемую задачу можно
сформулировать и так: требуется установить, значимо или
незначимо различаются относительные частоты w1 и w••
В качестве критерия проверки нулевой гипотезы пр и·
мем случайную величину
U=
M1/n1- M2/n2
JIр (1-p)(l/n1+ l/n2)
319
Ве.11ичина U при справедл ивости нулевой гипотезы
распределена приближенно нормально о параметрами
М (U)==O и a(U)=1 (см. далее пояснение) , В формуле (*)
вероятн ость р неизвестна, поэтому заменим ее оценкой
наибольшего правдоподобия (см. гл . XVI, § 21, пример 2) :
р* = (т1 + т2)/(п1+ п1);
кроме того, заменим случайные величины М! и М 2 их
возможными значениями m1 и m 2 , полученнЬiМи в испы
таниях. В итоге получим рабочую формулу для вычис
ления наблюдаемого значения_ критер ия :
U_
m1/n1 -m2/n2
набJI
-
"
/ т1+т2 (l-т1+m2)(-1 +-1 ) •
У
n1 +n2
п1 +п2
п1
n2
Критическая область строится в зависимости от вида
конкурирующей гипотезы так же, как в § 10, поэтому
ограничимся формулировкой правил проверки нулевой
гипотезы.
Правило 1@ Для того чтобы при заданном уровне зна
чимости сх. проверить нулевую гипотезу Н0 : р1 = р2 = р
о равенстве вероятностей появления события в двух
генеральных совокупностях (и меющих б иноми альные рас
пределения) при конкурирующей гипотезе Н1 : р1 =/= р2, надо
вычислить наблюдаемое значение критери я:
U_
m1/n1 - m;,/n2
н
а
бJI
.-
,/
m1+m2 (1-т1+т2) (-1
+-1 )
r
n1 +n2
n1 +п2
n1 n2
и пь таблице функции Лапласа найти критическую точку
Икр по равенству Ф (Икр) = (1 -сх.)/2.
Есл и 1 UнaбJI 1 <Икр - нет оснований отвергнуть нуле
вую гипотезу .
Если 1 UнaбJI \ >Икр - нулевую гипотезу отвергают ,
Правило 2 . При конкурирующей гипотезе Н1 : р1 > р2
находят критическую точку правосторонней критической
области по равенству Ф (Икр) = ( 1-2а)/2.
Если UнaбJI <Икр - нет оснований отвергнуть нулевую
rипотезу.
Если UнабJI > Икр - нулевую гипотезу отвергают.
Правило 3, При конкурирующей гипотезе Н1 : р1 < р2
находят критическую точку Икр по правилу 2, а затем
полагают границу левосторонней критической области
U�p =- Uкp•
320
Если Uнабл > -иl<Р - нет оснований отвергнуть нуле
вую гипотезу .
Если И 11абл < -Икр - нулевую гипотез у отвергают .
Пример . Из первой партии изделий извлечена выборка объема
.п
1 =!ООО изделий, причем m1 =20 изделий оказа:шсь бракованными;
из второй партии извлечена выборка объема n =900, причем m2=30
изделий оказались бракованными. При уровне значимости а.=0,05
проверить и улевую гипотезу Н0:р1 = р2 = р о равенстве вероятностей
появления брака в обеих партиях при конкурирующей гипотезе
Н1:Р1f:Р2·
Решени е. По условию, кою<урирующая гипотеза имеет вид
р1 f: р2 , поэтому критическая область - двусторонняя.
Найдем наблюдаемое значение критерия:
U
m1/n1 - т2/п2
на
бл=
,/m1+m2(1_т1+m2)(1+1)
JI
n1 +п2
n1 +n2
flin2
Подста вив данные· задачи и выполнив вычисления, получим
Uнабл =-1,81.
Найдем критическую точку:
Ф (икр) =(1 - а.)/2 = (I -0,05)/2= 0,475.
По таблице функции Лапласа (см. приложение 2) находим Uкр = 1 ,96.
Так как 1 Uнабл 1 < икр - нет оснований отве ргнуть нулевую ги
потезу. Другими словами , вероятности получения брака в обеих
партиях различаются незначимо.
3 а м е ч а н и е. Для увеличения точности расчета вводят так
называемую поправку на непрерывность, а именно вычисляют наблю
даемое значение критерия по формуле
U
[m1/n1 -l/2n1] -[m2/n2 + 1/2n2]
н
а
бд
=
,/m1+m2(1-т1+m2) (-1
+-1)•
У
п1+п2
п1+п2
п1
п2
В рассмотренном примере по этой формуле получим 1. U набд / = 1 ,96.
Посколь'Ку и Икр = 1 ,96, необходимо провести дополнительные испыта
ния, причем целесообразно увеличить объем выборок .
Поя снение. Случайные величины М1 и М2 рас
пределены по биномиальному закону; при достаточно
большом объеме выборок их можно считать приближенно
нормальными ( практически должно выполняться не равен
ство_ npq > 9), следовательно, и разность U' = М 1/п1 -
- M 2/n 2 распределена приближенно нормально.
Дл я нормирования случайной величины U' надо вы
честь из нее математическое о:жидание М (U') и раздел ить
результат на среднее квадратическое откл онение а (U' ) .
Покажем, что М (И') = О. Действительно, М (М1) =
=
п1р 1 (см. гл . VII, § 5, замечание); при справедливости
11-210
321
_нулевой гипотезы (р1 = р 2 = р) М (М1) = n 1p и а·налогично
М (М2) = п�р. Следовательно,
М(U')=M[М1] -М[М2] = -
1
М(М)--1 М(М)=
n1
n2
n1
1
n2
2
= J_nр--
1
п р=О.
n11
n2
2
Покажем, что среднее квадратическое отклонение
G (U') =Vр{1-р)[(ltn1)+(l/n2)].
Действительно, дисперсия D (М1) = п 1р1 (l-p1) ( см.
гл. VI I 1, § 6, замечание); при справедл ивости нулевой
гипотезы (р1 = р2 = р) D(М1) = п1р (1-р) и аналогично
D(М2)=п
2
р (1-р). Следовательно,
D(U') = D[Mi - М2) =�D(М1)+�D(М2) =
n1
n2
п1
п2
= �п1р(l-p)+�n2p(1-р)=р(1-р)(-
1
+-
1
)•
n1
n2
n1
n2
Отсюда среднее квадратическое отклонение
G (И')=Vр (1-р) [1/n1)+ (l/n2)].
Итак, случайная величина И=(и' -М (u'))/G (и') (см.
формулу (*)) нормирована ·и поэтому М (U) =Ои G (И)= 1.
§ 20. Сравнение нескольких дисперсий
нормальн ых генеральн ых совокупностей
по вы боркам различного объема.
l(ритерий Бартлетта
Пусть генеральные совокупности Х1, Х 2', • •• , Xi
распределены нормально. Из этих совокупностей извле
чены нез::�висимые выборки, вообще говоря , различных
объемов n1, n 2
,•••
, ni (некоторые объемы могут быть
одинаковыми ; если все выборки имеют оди наковый объем,
то предпочтительнее пользоваться критерием Кочрена,
который описан в следующем параграфе) . По выборкам
найдены исправленные выборочные дисперсии si, s�•..., s�.
Требуется по исправленным выборочным дисперсиям
при зад�нном уровне значимости а прове рить нулевую
гипотезу, состоящую в том, что генеральные дисперсии
рассматри ваемых совокуп ностей равны между собой:
H0 :D(X1) = D(X2) = ... = D(Xi).
322
Другими словами , требуется установить, значимо
или незначимо -разл ичаются исправленные выбороч.f ые
дисперсии .
Рассматриваемую здесь гипотезу о равен стве нес коль
ких дисперсий называют гипотезой об однороднос ти
дисперсий.
Заметим, что числом степеней свободы дисперсии s? на
зывают число k; = n;- 1, т. е. число, на единицу мень�
шее объема выборки , по которой вычислена дисперсitя .
Обозначим через 82 среднюю арифметическую исправ
ленных дисперсий, взвешенную по числам степеней:
свободы :
l
где k=�k;.
i=I
В качестве критерия проверки нулевой гипотезы о 5
одн ородности дисперсий примем критерий Бартлетта -
случа йную величину
где
v=2,303[klgs2�� k;lgs:].
l=1
-
.С
.
1+З(l�l)[��i-�]• .
Бартлетт установил, что случайная величина В при
условии справедливости нулевой гипотезы распределена
приближенно как х:1. с l- 1 степенями свободы, если все
ki > 2. Учитывая, что ki =n;- 1. заключаем, что п1 -
-
1>2, или ni>3, т. е. объем каждой из выборок
должен быть не меньше 4.
Критическую область строят правостороннюю, исходя
из требования, чтобы вероятность попадания критерия
в эту область . в предположении справедливости нулевой
гипотезы была равна принятому уровню значимости :
Р[В>Х�Р(а;l-1)]=а.
Критическую точку Х�Р (а; l- 1 ) находят по таблице
приложения 5, по уровню значимости а и числ у степеней
323
свободы k = l - 1 , и тогда правосторонняя критиЧеская
область определяется неравенством В > Х�Р• а область
принятия гипотезы - неравенством В < Х�Р·
Обозначим значение критерия Бартлетта , вычисленное
по данным наблюден ий, через Внабд и сформули руем пра
вило проверки нулевой гипотезы.
Правипо. Для того чтобы при заданном уровне зна
чимости а проверить нулевую гипотезу об одн ородности
дисперсий нормальных совокупностей, надо . вычислить
наблюдаемое значение крит�рия Бартлетта В=V;C и по
таблице критических точек распредел ения х.2 на йти кри
тическую точку Х�Р (а; /-1 ) .
Если В8а6д < х�р - нет оснований отвергнуть нулевую
гипотезу .
Если Внабд > Х�Р - ну левую гипотезу отвергают.
3 а м е ч а н и е 1. Не следует тор9питься вычислять постоян.
ную С. Сначала надо найти V и сравнить с Х�р; если окажется, что
V < Х�р. то подавно (так как С>1)В =(V/C) < Х�Р и, следовательно,
С вычислять не нужно.
Е
2
'
в\!
ели же V > Хкр, то надо вычислить С и затем сравнить с Хкр ·
3 а меча н и е 2. Критерий Бартлетта весьма чувствителен
к отклонениям распределений от нормального, поэтому к выводам,
полученным по этому критерию, надо относиться с осторожностью.
Таблица 25
1
2
3
4'
5
6
7
8
--
-
Числ о
Дн е-
Н омер Объем степе-
ВЫ•
вы-
ней
пер-
k;sl
lgs;
k;\gsi
1/ki
борк и борки
сво -
сии
(.
nl
боды
s�
k;
1
1
1101
9
1 0,25
1 2,25
1 I,3979
1 б,5811
1
2
1131
12
1 0,40
1 4,80
1 I,602 1
1 5,2252 i
3
1151
14
10,36
1 5,04
1 1,5563
1 7,7822 1
.
4
1161
15 1 0,46
1 6,90
1 1,6628
1 б,9420 1
�
1 1k=501 118,99
1 /22,5305
1
324
Пример. По четырем независимым выборкам, объемы которых
соответственно равны п1
= 10, п2 = 12, п3=15, п4 = 16, извлеченным
из нормальных генеральных совокупностей, найдены исправленные
выборочные ди сперсии, соответственно равные 0,25; 0,40; 0,36; 0,46.
При уровне значимости 0,05 проверить гипотезу об однородности
дисперсий (критическая область - правосторонняя).
Решение. Составим расчетную табл. 25 (столбец 8 пока запол-
11ять не будем, поскольку еще неизвестно, понадобится ли вычис
лять С).
Пользуясь расчетной таблицей, найдем:
52 = <� k;sШk = 18,99;50 = о,3798; 1g о,3798 = Г,5795;
V=2,303 [k lgs2-� k; lgsП = 2,303 [50.Т,5795 -22,5305]= 1 ,02.
По таблице приложения 5 , по уровню значимости 0,05 и числу
степеней свободы l-1 =4-1 =3 находим критическую точку
2
Хкр (О,05; 3) = 7 ,8.
Так как V < Х�р, то подавно (поскОJiьку С > 1) Внаб.1
1
= (V/С) <
< Х�Р и, следовател ьно, отвергнуть нулевую гипотезу об однородно
сти дисперсий нет основа ний. Другими словами, исправленные вы
борочные дисперсии различаются незначимо.
3 а м е ч а н и е 3. Если требуется оценить генеральную диспер
сию, то при условии однородности дисперсий целесообразно принять
в качестве ее оценки среднюю арифметическую исправленных диспер
сий, взвешенную по числам степеней свободы, т. е .
s2 = (�k;s�);k.
Например, в рассмотренной задаче в качестве оценки генеральной
�исперсии целесообразно принять 0,3798.
§ 21. Сравнение нес кольких дисперси й нормальн ых
генеральных совокупностей п о выборкам
одинаковоrо объема. Критер ий Кочрена
Пусть генеральные совокупности Х1, Х2, •• • ,
Х t распредел ены нормально. Из этих совокупнос1ей из
влечено l независимых выборок одинаковоrо объе
м а п и по ним найдены исп равленные выборочные дис
персии si, s�, ... . , s1, все с оди наковым числом степеней
свободы k=n-1.
Требуется по исправленным дисперсиям при зада нном
уровне значимости а проверить нулевую ги потезу, со
стоящую в том, что генерал ьные дисперсии рассматр ива
емых совокупностей равны между собой :
H0 : D (X�)=D(X2)=· ... = D (Xi).
Другими словами , требуется проверить, значимо или
незначимо раз.J:! ичаются исправленные выборочные дис
персии .
325
В рассмат ри ваемом случае выборок оди накового объ
ема можно по критерию Фишера - Снедекора (см. § 8).
срав�ить наибольшую и наименьшую дисперси и; если
окажется, что различие между ними незначимо, то по
давно незначимо и различие между остальными диспер
сиями . Недостаток этого метода состоит в том, что ин
формация, которую содержат остальные дисперсии, кроме
наименьшей и на ибольшей, не учитываетс я.
Можно также применить крите рий Бартлетта. Одн ако,
как указано· в § 20, известно лишь при ближен ное
распределение этого критерия , поэтому предпочтительнее
использовать кри�:ерий Кочрен а, расп ределение которого
найдено точно.
Итак, в качестве крите рия проверки нулевой гипо
тезы примем критерий Кочрена-отношен ие максималь
ной исп равленной дисперсии к су мме всех исправленных
дисперсий:
G=S�axl($�+S�+ ...+sr).
Распределение этой случайной величины зависит только
от чи'сл а степеней свободы k = п - 1 и количества выбо
рок l.
Критическую область строят правостороннюю, исходя
из требован ия, чтобы вероятность попадан ия крите рия
в эту область в предположении справедл ивости нулевой
гипотезы была равна прин ятому уровню значимости :
P[G>Gкр(а;k,l)]=a.
Критическую точку Gк
р
(а ; k, /) находят по таблице
приложения 8, и тогда правосто ронняя крцтическая об
ласть оп ределяется неравенством G > GкР• а область при
нятия нулевой гипотезы -неравенством G < Gкр
·
Обозначим значение критерия, вычисленное по дан
ным наблюдений, через G11 абл и сформулируем правило
проверки нулевой гипотезы .
Правило. Для того чтобы при заданном уровне зна
чимости а проверить ги потезу об одн ородности диспер
сий нормально распределенных соRоку пностей, надо вы
числить наблюд аемое значение критерия и по таблице
найти критическую точку .
Если Gнаб л < Gкр
-нет оснований отве ргнуть нулевую
гипотезу.
Если G набл >Окр
-нулевую ги потезу отвергают.
326
3 а мечани е. Если требуется· оценить генеральную дисцерсию,
то при условии однородности дисперсий целесообразно принять в ка
честве ее оценки среднюю арифметическую исправленных выбороч-
ных дисперсий.
.
Пример. По четырем независимым выборкам одинакового объема
n=17, извлеченным из нормаJ1ьных генеральных совокупностей, най
де ны исправленные дисперсии: 0,26; 0,36; 0,40; 0,42. Требуется:
а) при уровне значимости 0,05 проверить нулевую гипотезу об одно
родности генеральных дисперсий (критическая область -правосторон
няя); б) оценить генеральную дисперсию.
Решени е. а) Найдем наблюдаемое значение критерия К:очре
на -отношение максимальной исправленной дисперсии к сумме всех
дисперсий:
Gнабл = 0,42;(0,26+о,36+о,40+0,42)=0,2917.
Найдем по таблице приложения 8, по уровню значимости 0,05, числу
степеней свободы k=17-1=16 и числу выборок l =4 критическую
точку Gкр (О,05; 16; 4) =0,4366.
·
Так как Gнабл < Gкр - нет оснований отвергнуть нулевую гипо
тезу об однородности ди сперсий. Другими словами, неправ.ленные
выборочные дисперсии различаются незначимо.
б) Поскольку нулевая гипотеза справедлива, в качестве оценки
генеральной дисперсии примем среднюю арифметическую исправлен
ных дисперсий:
02 = (О ,26 +0,36 +о,4о+о,42)/4 =О,36.
§ 22. Проверка гипотезы о значимости
выборочного коэффициента корреляции
Пусть двумерная генеральная совокупность
(Х, У) распределена нормально. Из этой совокупности из
влечена выборка объема п и по ней найден выборочный
коэффициент корреляции r в• который оказался отличным
от нуля . Так как выборка отобрана случайно, тр еще
нельзя заключить, что коэффициент кор реляци11 гене раль
ной совокупности r г также отл ичен от нуля . В конечном
счете нас интересует именно .э тот коэффициент, поэтому
возникает необходимость при заданном уровне значи
мости а проверить нулевую гипотезу H0 :rr = 0 о равен
стве нулю генерального коэффициента корреляции при
кон курирующей гипотезе H1 :rr = 0.
Если нул�вая ги потеза отвергается, то это означает,
что выборочный коэффициент корреляции значимо отл и
чается от нуля (кратко говоря, значим), а Х и У корре
ли рованы, т. е . связаны линейной зависимостью.
Если нулевая ги потеза будет принята , то выбо
рочный коэффициент кор реляции незначим, а Х и У не
коррелированы, т. е . не связаны линейной зависимостью.
327
В качестве крит ерия проверки нулевой гипотезы при
мем случайную величи ну
Величина Т при справедливости нулевой ги потезы имеет
распреде.'lение Стьюдента с k = п-2 степенями свободы .
Поскольку кон курирующая гипотеза имеет вид гг =1=, О,
критическая область - двусторонняя; она строится так
же, как в § 12 (первый случай).
Обозначим значение критерия, вычисленное по дан
ным наблюден ий, через тнаб л и сформул ируем правило
проверки нулевой ги потезы.
Правило. Для того чтобы при заданном уровне зна
чимости а проверить нулевую гипотезу Н0 :гг = О о ра
венстве нулю гене рального коэффициента корреляции
нормальной двумерной случайной величины при конку
рирующей гипотезе Н1 : гг =J= О, надо вычислить наблюда
емое значение критерия:
Т11абл = гвVп-2/VГ- г:
и по таблице критических точек распределения Стьюдента ,
по заданному уровню зuачимости и числу степеней сво
боды k = п-2 найти критическую точку tкр (а; k) для
двусторонней критической области.
Если 1 Тнаб л1 < tкр - нет оснований отвергнуть нуле
вую гипотез у.
Если 1 Тнаб л1> tкр - нулевую гипотезу отвергают.
Пример. По выборке объема п = 122, извлеченной из нормальной
двумерной совокупности, найден выборочный коэффициент корреля
ции r8 = 0,4. При уровне значимости 0,05 проверить нулевую гипо
тезу о равенстве нулю генерального коэф
ф
ициента корреляции при
конкурирующей гипотезе Н1 :rг -:Р О.
Решение. На йдем наблюдаемое значение критерия :
По условию, конкурирующая гипотеза имеет вид Гг -:Р О, поэтому
критическая область - двусторонняя.
По уровню значимости 0,05 и числу степеней сво�ды k =
= 122-2 = 120 находим по таблице приложения 6 для двусторонней
критической области критическую точку tкр (0,05; 120) = 1 ,98.
Поскольку Тнабл >/кр-нулевую гипотезу отвергаем. Другими
словами, выборочный коэф
ф
ициент корреляции значимо отличается от
нуля, т. е. Х и У коррелированы.
328
§ 23. Проверка гипотезы о нормал ьном
рас пределении генеральной совокупности.
Критерий согласия Пирсона
В предыдущих параграфах закон расп ределения
генеральной совокупности пред полагается известным.
Если закон распределения неизвестен, но есть осно
вания пред положить, что он имеет оп ределенный вид
(назовем его А), то проверяют нулевую ги потез у: гене
рал ьная совокуп ность распределена по закону А.
Проверка ги потезы о предп олагаемом законе неизве
стного распредел ения производится так же, как и про
верка гипотезы о параметрах распределения, т . е . при
помощи специально подобранной случайной величины -
критерия согласия .
Критерием согласия называют крите рий проверки ги
потезы о пред полагаемом законе неизвестного распреде
ления .
Имеется несколько критериев согласия : х.2 («хи квад
рат») К. Пирсона, Колмого рова, Смирнова и др. Ог ра
ничимся описанием применения критерия Пирсона к про
верке гипотезы о нормальном распределении генеральной
совокупности .(крите рий аналогично примен яется и для
других распределений, в этом состоит его 4остоинство) .
.с это й целью будем сравнивать эмп ири ческие (наблюда
емые) и теоретические (вычисленные в предположении
нормального распределения ) частоты .
Обычно эмпирические и теоретические частоты раз
личаются. Например (см. гл . XVII, § 7) :
эмп. частоты.....61338741068530104
теорет. частоты ...3
144282997637112
Случайно ли расхождение частот? Возможно, что рас
хождение случайно (незначимо) и объясняется либо ма
лым числом наблюден ий, либо способом их группировки ,
либо другими причинами . Возможно, что расхождение
частот неслучайно (значимо) и объясняется тем, что тео
ретические частоты вычислены исходя из неверной гипо
тезы о но рмальном распределении генеральной совокуп
ности .
Критерий Пирсона оч�ечает на поставленный выше
вопрос. Правда , как и любой критер ий, он не доказы
вает справедл ивость гипотезы, а лишь устанавливает на
329
принятом уровне значимости ее согласие или несогласие
с данными наблюден ий.
Итак, пусть по выборке объема п получено эмпири
ческое распределен ие :
варианты . . . ...x i
Х1х2•••Х3
эмп. частоты . ..ni
п1 п2•••n3
Допустим, что в пред пQложении нормального распре
де ления генеральной совокупности вычислены теорети
ческие часто·Jъ1 п[ (например, так, как в следующем па
раграфе) . При уровне значимости а требуется провер_ить
нулевую гипотезу : генеральная совок упность распреде
лена нормально.
В качестве критерия проверки нулевой гипотезы при
м ем случайную величину
х,2 = �(n;-nl)2/n(.
(*)
_ Эта величина случайная, так как в различных опытах
она принимает различные, заранее не известные значе
ния. Ясно, что чем меньше различаются эмпирические
и теоре тические частоты , те м меньше величина критерия (*),
и, следовател ьно, он в известной степени характеризует
близость Эмпирического и теоретического распределений.
Заметим, что возведен ием в квадрат разностей частот
устраняют возможность взаимного погашения положи
тел ьных и отрицател ьных разностей. Делением на ni до
стигают уменьшения каждого из слагаемых ; в против
ном случае сумма была бы настолько велика, что при
водила бы к отклонению нулевой гипотезы даже и тогда ,
когда она справедлива . Разумеется , приведенные сооб
ражения не являются обоснованием выбранного крите
рия, а лишь пояснением.
Доказано, что при п _.
.
оо закон распределения слу
чайной величины (*) независимо от того, какому закону
распределения подчинена генеральная совокупность, стре
мится к закону распределения х.2 с k степенями свободы .
Поэтому случайная величина ( *) обозначена через х2, а
сам критер ий называют критерием согласия «ХИ квадрат».
Число степеней свободы находят по равенству k =
= s -1- r, где s - число групп (частичных интервалов)
выборки; r - число параметров пред полагаемого распре
деления, которые оценены по данным выборки .
В частно<;ти, если предполагаемое распредел ение - нор
мальное, то оценивают два параметра (математическое
330
ожидан:ие и среднее квадратическое отклонение) , поэтому
r=2ичислостепенейсвободыk=s-1 -r=s-1 -2=
=s-3.
Есл и, например , предполагаю.т, что генеральная сово
купность расп ределе на по закону Пуассона , то оцен и
ваютодин параметрЛ, поэтому r=1 иk=s-2.
Пос15-ольку односто ронний критерий более «жестко»
отвергает нулевую :гипотезу , чем двусторон ний , построим
правостороннюю критическую область, исходя из требо
вания, чтобы вероятность попадания критерия в эту об
ласть в предположен ии справедливости нулевой гипотезы
была равна принятому уровню значимости а :
Р[Х2>Х�Р(а; k)]=а.
Таким образом, правосторонняя критическая область
определяется неравенством х2 > Х�Р (а; k), а область при
нятия нулевой гипотезы - неравенством х2 < Х�Р (а; k).
Обоз начим значение критерия, вычисленное по дан
ным наблюдений, через Х�абл и сформулируем правило
проверки нул евой гипотезы.
Правило. Для того чтобы при задан ном уровне зна
чимости проверить нулевую гипотезу Н0 : генеральная
совокупность распределена нормально, надо сначала вы
числить тео ретические частоты , а затем наблюдаемое
значение критерия :
Х�абл = �(ni-ni)2/n1
(**)
и по таблице критическ их точек распределения х2
,по
зада нн:ому уровню значимости а и числу степеней сво
боды k = s - 3 найти критическую точку 'Х�Р (а; k).
Если Х�абл < 'Х�Р - нет оснований отвергнуть нулевую
гипотезу.
Если Х�абл > 'Х�р - нулевую гипотезу отвергают.
3 _а меча н и е 1. Объем выборки должен быть достаточно велик,
во всяком случае . не менее 50. К:аждая группа должна содержать не
менее 5-8 вариант; малочисленные группы следует объединять в од
ну, суммируя частоты.
3 а меча ние 2. Поскольку возможны ошибки первого и вто
рого рода , в особенности есди согласование теоретических и эмпи
рических частот «слишком хорошее», следует проявлять осторожность.
Например, можно повторить опыт, увеличить число наблюдений, вос
пользоваться другими критериями, построить график распределения,
вычислить асимметрию и эксцесс (см. гл. XVII, § 8).
3 а мечани е 3. Для· контроля вычислений формулу (**) пре
образуют к виду
Х�абл = [�nl/ ni] - п.
331
РекомЕ'ндуем читателю выполнить это преобразование самостоя'Fе.'1ьно,
для чего надо в (**) возвести в �вадрат
Rазность частот, сократить
результат на пi и учесть, ·что �ni=n, �nt =n.
Пример. При уровне значимости 0,05 проверить гипотезу о нор
мальном распределении генеральной совокупности , если известны эм
пирические и теоретические частоты:
эмп.частоты.....6 13 38 74 106 85 30 14
теорет. частоты . . .3 14 42 82
99763713
Решение. Вычислим 'Х�аб.n , для чего сос1 авим расчетную
табл. 26 .
КоНТрОЛь: Х�абл=7,19:
[�n1/nlJ-n=373, 19 -366 = 7 ,19.
Вычисления произведены правильно.
Найдем число степеней свободы, учитывая, что число групп вы
борки (число различных вариант) s=8;· k=8-3 =5.
Та.б лица 26
1
2
з
4
5
б
7
8
--
-
--
-
,
,
(пгп;)" (
')" ,
n2
2/,
t
n;
ni
n i-nt
n;-ni /ni
i
ni ni
.
1
6
3
3
9
3
36 12
2
13
14
-1
l
0,07
169 12,07
3
38 42
-4
16
0,38
1444 34 ,38
4
74
82
-8
64
0,78
5476 66 ,78
510699
7
49
0,49 11236 113,49
6
85
76
9
81
1,07
7225 95 ,07
7
30
37
-7
49
1,32
900 24 ,32
8
14
13
.1
1
0,08
196 15,08
i
� 366 366
х:абл =
373,19
=7,19
По таблице критических точек распределения х2 (см. приложе
ние 5), по уровню значимости а=0,05 и числу степеней свободы
k=5 находим х:р (О,05; 5) = 11,1.
Так как Х�абл < Х�р - нет основа·ний отвергнуть нулевую гипо
тезу. Другими словами, расхождение эмпирических и теоретических
частот незначимое. Следовате.11ьно, данные наблюдений согласуются
с гипотезой о нормальном распределении генеральной совокупности .
332
§ 24. Методика вычислен ия теоретических частот
нормального распределения
Как следует из предыдущего параг рафа, сущность
крите рия согласия Пирсона состоит в сравнении эмпири
ческ их и теоретических част.от . Ясно, что эмпи рические
частоты находят из опыта . Как найти теоретические часто
ты, если предполагается , что гене ральная совокупность
распределена нормально? Ниже п·р иведен один из способов
решен ия этой задачи.
1. Весь инте рвал наблюдаемых значений Х (выборки
объема п) делят на s частичных интервалов (xi, xi+i) оди
наковой длины . Находят се редины частичных интервалов
х; = (x i +xi+i)/2; в качестве частоты n i варианты xi при
нимают число вариант, которые попали в i-й интервал.
В итоге получают последовательность равноотстоящих
вариант и соответствующих им частот:
При
.
этом �ni=п.
2. Вычисляют, например методо м произведен ий, выбо
рочную среднюю х• и выборочное среднее квадратическое
отклонение <J*.
3. Нор мируют случайную величину Х, т. е. переходят
к величине Z = (X-X*)/<J* и вычисляют концы интервалов
(zi, Ziн):
Zt = (xi -x*)/<J*, Zi +i = (X1+1-X*)/<J* ,
причем наименьшее значение Z, т. е. zi, полагают равным
- оо, а наибольшее, т. е. Z8, полагают равным оо.
4. Вычисляют теоретические вероятности р1 попадания
Х в интервалы (х1, Xt+i ) по равенству (Ф (z)-функция
Лапласа)
,
Р1 = Ф (z1+i) -Ф(z;)
и, наконец , находят искомые теоретическ·ие частоты
ni = np1•
Пример. Найти теоретические частоты по заданному интервально
му распределению выборки объема п =200, предполагая, что генераль
ная совокупность распределена нормально (табл. 27).
Решение 1. Найдем середи ны интервалов х; =(х;+ х;+1)/2. На
пример, х; =(4+6)/2=5. Поступая аналогично, получим последова-
333
тельность равноотсrоящих вариант х; и соответствующих
_
им частот щ:
х;579111315171921
ni152625302621242013
2. Пользуясь методом произведений, найдем выборочную среднюю
и выборочное среднее квадратическое откл·онение:
?= 12,63 , о• = 4,695.
3. Найдем интервалы (z;, z; +1), учитывая, что °Х*= 12,63, о*=
= 4,695, l;o•=0,213, для чего составим расчетную табл. 28 .
Таблица 27
Номер
,
Номер
интер-
Границы
Частота
интер-
Границы
Частота
вапа
интервапа
ва ла
интервала
1
Х;1
Xi+1
п/
l
_х/ 1 Xf+l
n;
,
1
4
6
15
6
14
16
21
2
6
8
26
7
16
18
24
3
8
10
25
8
18
20
20·
4
10
12
30
9
20
22
13
5
12
14
26
1 1 1n=200
4. Найдем теоретические вероятности Pi и искомые теоретические
частоты nj =npi, для чего составим расчетную табл. 29 .
Таблица 28
Границы
Границы интервала
интервала
-·
-·
l
1Xi+1
Х;-Х
Xi+1 -:X
Xj
z; =·
1 Zi+1=
=<x;-x *>fa * =<х; +1-х *)/а *
1
4
6
-
-6 ,63
-оо
-1 ,41
2
6
8 -6,63
-4,63
-1 ,41
-0 ,99
3
8
10 -4 ,63
-2 ,63
-0 ,99
-0 ,56
4
10 12 -2,63
-0 ,63
-0,156
-0 ,13
5
12
14 -0 ,63
1,37
- 0,13
0,29
6
14 16
1,37
3,37
0,29
0,72
7
16 18
3,37
5,37
0,72
1,14
8
18 20
5,37
7,37
1,14
1,57
9
20 22
7,37
-
1,57
00
334
Таблица 29
Границы
интервала
Рi=Ф (Zi+1> -
1
ф (zt)
ф (Zt+1)
n�=nPj =200 Pl
1Zi+l
- Ф(Zj)
i
Zj
1-00
-1 ,41 -0;5
-0 ,4207
0,0793
15,86
2 -1 ,41 -0 ,99 -0,4207 -0,3389
0,08 18
16,36
3 -0,99 -0,56 -0,3389 -0,2123
0, 1266
25,32 .
4 -0,56 -0 ,13 -0,2123 -0 ,0517
О, 1606
32 ,12
5 -0 ,13 0,29 -0,0517 O,ll41
0, 1658
33,16
6 0,29 0,72 0, 1 141 0,2642
о, 1501
30 ,02
7 0,72 1,14 0,2642 0,3729
0,1087
21,74
8 1,14 1,57 0,3729 0,4418
0,0689
13,78
9 1,57
00
0,44 18 0,5
0,0582
11,64
11111�P;=I
1�n�=200·
Искомые теоретические частоты помещены в последнем столбце
табл. 29.
§ 25. Выборочный коэффициент ранговой
корреляции Спирмена и проверка гипотезы
о его значимости
Допусти м, что объекты генера�ьной совокупно
сти обладают двумя качественными признаками. Под ка
чественным подразумевается -признак, который невозмож
но измерить точно, но он позволяет сравнивать объекты
между собой и, следовател�но, расположить их. в порядке
убывани я или воз растания качества. Для определенности
буде м всегда рас полагат ь объекты в поряд
ке ухудшения качества. При таком «ранжирова
нии» на первом месте находится объект наилучшего каче
ства по сравнению с остальными ; на втором месте ока
жется объект «х уже» пе рвого, но «лучше» других, и т. д.
Пусть �ыборка объема п содержит независимые объ
екты, которые обладают дuумя качественными признака
миА иВ.Для оценки степени связи признаков
вводя т, в частности, коэффициенты ранговой коррел яции
Сп ирмена (изложен в насто ящем параграфе) и Кендалла
(см. § 26).
Дл я практических целей использование ранговой кор
реляции весьма полезно. Например, если установлена
335
высокая ранговая корреляция между двумя качестве н
ными признаками изделий , то достато чно контролировать
издел ия только по одному из признаков, что удешевляет
и ускоряет контроль.
Расположим сначал а объекты выбо рки в по рядке ухуд
шения качества по признаку А при допущен ии, что все
объе кты �меют различное качество по обо им
признак а м (случай, когда это допущение не выполняет
ся, рассмотрим ниже). Припишем объекту , стоящему на i-м
месте , число-ранг Х;, равный порядковому номеру объекта .
Например, ранг объе кта, занимающего первое место , х1 = 1;
объект, расположенный на вто ром месте , имеет ранг х2 = 2 ,
и т. д. В итоге пол учим последовател ьность рангов по
признаку А: Х1=1, Х2=2, . .., Xn=n.
Расположим тепе рь объекты в порядке убыв ания ка
чества по пр изнаку В и припишем кажд ому из них
ранг У; , одн ако (дл я удоб ства сравнения рангов) индекс i
при у будет по- прежнему равен порядк о
в ому номеру объе кта по признаку А. Напри
мер, запись у2 = 5 означает, что по признаку А объект
стоит на втором месте, а по признаку В-на пятом.
В итоге получим две последовател ьности рангов:
по признаку А ... х1, х2, •••
,хп
попризнакуВ...У1•У2•· · ·,Уп
Заметим, что в первой строке индекс i совпадает с по
рядковым номером объекта , а во второй , вообще говоря ,
не совпадает. Итак, в общем случае xi =!= Yi ·
Рассмот рим два «крайних случая» .
1. Пусть ранги по признакам А и В совпадают при
всех значен иях индекса i:x; =у;. В этом случае ухуд
шение качества по одному признаку влечет ухудшен и е
качества по другому . Очевидно, признаки связаны : имеет
место «по11ная прямая зависимость» .
2. Пусть ранги по признакам А и В противоположны
втомсмысле,чтоеслих1=1, тоу1=п;еслих2=2,то
у2=п-1;..., еслихп=п,тоУп = 1.ВэтомСJ1учаеухуд
шение качества по одному признаку влечет улучшение
по другому . Очевидно, призна ки связаны - имеет место
«п ротивоположная зависимость» .
На практике чаще будет встречаться промежуточный
случай, когда ухудшение качества по одному признаку
влечет для некоторых объектов ухудшен ие, а для дру
гих - улучшение качества. Задача состопт в том , чтобы
336
оценить связь между признаками. Для ее решения рас
смотрим ранги х1 , х2 , •••, хп как возможные значения
случайной величины Х, а у1 , у2 , •••, У п-как возможные
значения случайной вел ичины У. Таким образом, о связи
между качественными признаками А и В можно судить по
связи между случайными вел ичинами Х и У, для оценки
которой используем коэффициент кор реляц.ии.
Вычисл им выборочный коэффициент корреляции слу
чайных величин Х и У в условных вариантах (см . гл .
XVIII, § 8):
приняв
_
в качеств� условных варrант отклонен
.
ия и;=
= Х; - х , V; = У; -У· Каждому рангу Х; соответствует
только оди н ранг у;, поэтому частота любой пары ран
гов с одинаковыми индексами , ,р следовател ьно, и любой
пары условных вариант с оди наковыми индексами равна
еди нице: пи .v . = 1. Очевидно, что частота любой пары
11
вариант с разными индексами равна НУ.ЛЮ. Учитывая,
кроме того ,. что среднее значение отклонен ия равно нулю
(см. гл . XVI, § 7, следствие), т. е . u=v=O, получим
более простую формулу вычисления выборочного коэф
фициента корреляции:
Таким образом, надо найти � U;V;, cr4 и crv.
Выразим �u;v; через известные числа- объем выбор
ки п и разности рангов d; = Х; -У;· Заметим, что по-
скольку средние значения рангов х= (1 + 2 + .. . + п)/n
и у=(1+2+. . . +n)/n равны между собой, тоу-х=О.
Используем последнее равенство:
d;=Х; -У; = xi -Yi+(у-х) =(Х;-Х)-(У;-У} = U;-V;.
Следо вател ьно,
d'f = (U;-V;)2
•
Учитывая , что (см. далее пояснение)
�и?=�v? =(n3-n)/12,
имеем
Отсюда
� u,v, = [(n3-n)/12]-�d2/2.
(***)
Остается найти аи и av. По определению выборочной
дисперсии, учитывая, что u = О , и используя (**), по
лучим
Du = �(и1-Й)2/r� = � ulfn = (n3-n)/12n = {п2 - 1)/12.
Отсюда среднее квадратическое отклонение
аи = V(п2- 1)/12.
Аналогично найдем
Следовательно,
naua�, = (n3-n)/12.
Подста в_и в правые части этого равенства и соотно
шения {***) в (*), окончательно получим выборочный коэф
фициент ранговой корреляции Спирмена
Ро = 1 -[(б � df)/(n3 -n)],
(****)
где d, = х,-у,.
Пояснение. Покажем, что �иf=(n3 -n)/ 12. Дей
ствительно, учитывая , что
�Х;= 1 + 2+ ...+n= (1 +n) n/2,
х=�х1/п = (1+п)/2,
�х� = 12+22+...+п2= [п(п+1)(2п+1)]/6,
�иr =�(х,-х)2 =�х1- 2'Х�х1+ п(х)2,
после элементарных выкладок получим
� и' = (п3 �п)/12.
338
Аналогично можно показать, что
�v' =(n3-n)/12.
Приведем свойства выборочного коэффициента корре
ляции С!шрмен а.
С в ойств о 1. Если между качественными призна
ками А и В имеется «полная прямая зависимост ь» в том
смысле. что ранги объектов совпадают при всех значе
ниях i, то выборочный коэффициент ранговой корреляции
Сп ирмена равен единице.
Действительно . подставив d i = xi
-
Yi=O в (****), по-
лучим
.
f?в=1.
С в ойств о 2. Есл и между качественными признаками
А и В и.меется «противоположная зависимость» в том
смысле. что рангу х1 = 1 соответствует ранг у1 = · п ;
рангу х2 соответствует ранг у2 = п -1; ...; рангу хп = п
соответствует ранг уп :.
.._
1. то выборочный коэффи циент
ранговой корреляц ии Спирмена равен ми нус единице.
Действительно,
·
di=l -п, d2=3-п•.. . • dп=(2п-1)-п.
Следовательно,
�dl = (l-п)2 + (3-п)2 + ...+[(2п - 1)-п]2 =
= р2+з2+ ...+(2п-1)2]-2п[1+3+...+(2п-1)]+
+п·n2= [п(4n2-l)/3]-.2n·n2+n3= (п3-п)/3.
Цодставив � dl = (п3 -п)/3 в (****) . окончательно по
лучим
Рв=..
.:_
1.
С в ойст в о 3. Есл и между качественными признаками
А и В нет ни «полной прямой» . ни «противоположной»
зави симостей, то коэффициент Рв заключен между - 1
и + 1 . причем чем ближе к нулю его абсолютная величина.
тем зависимость ./rtеньше.
.
Пример 1. Найти выборочный коэф
ф
ициент ранговой корреляции
Спирмена по данным ранга объектов выборки объема n = 10:
Xi12345678910
Yi64812510379
Решение. Найдем разности рангов di = Xi-Yi: -5, -2, -5,
3,3,1,-3·, s,2,1.
Вычислим сумму квадратов разностей рангов:
�df =25 +4+25+9+9+1 +9+25 +4+1=112.
339
Найдем искомый коэф
ф
ициент ранговой корреляции, учитывая,
чтоn=10:
р8 = 1 -[6 �d,/(n3 -n)]=1-[6· 112/(1000 - 10)] = 0,32.
3амечание. Если выборка содержит объектыс одинако
в ы м к а чест в ом, то каждому из них приписывается ранг, рав
ный среднему арифметическому порядковых номеров объектов. Напри
мер, если объекты одинакового качества по признаку А имеют
порядковые номера 5 и 6, то их ранги соответственно равны: х5 =
= (5+6)/2=5,5; Хв =5,5.
Приведем правило, позволяющее установить значи
мость или незначимость ранговой корреляции связи для
выборок объема п � 9. Если п < 9, то пользуются таб
лицами (см. , например, табл. 6 . lOa, 6.lОб в книге: Боль
ш ев Л. Н., Сми рно в Н. В. Таблицы математической
статистики. М ., «Наука», 1965).
Правило. Для того чтобы при уровне значимости а
проверить нулевую ги потезу о равенстве нулю генераль
ного коэффициента ранговой корреляции Рг Спи рмена
при конкурирующей ги потезе Н1:Рг =/=О, надо вычисл ить
критическую точку :
Ткр = lкр(а.; k)V(l-p�)/(n-2),
где п-объем выборки, р0 - выборочный коэффициент ран
говой корреляции Спирмена, t кр (а; k) - критическая точка
д в у сто р онней крит ической области , которую находят
по таблице критических точек распредел ения Стьюдента ,
по уровню значимости а и числу степеней свободы k=n -2 .
Если 1 Рв 1 < Ткр - нет оснований отвергнуть нулевую
гипотезу . Ранговая корреляционная связь между качест
венными признаками незначима.
Если 1р81>Ткр
-
нулевую гипотезу отвергают . Между
качественными признаками существует значимая ранговая
корреляционная связь.
Пример 2. При уровне значимости 0,05 проверить, является ли
ранговая корреляционная связь, вычисленная в примере 1, значимой?
Реш е и и е. Найдем критическую точку двусторонней критичес
кой'области распределения Стьюдента по уровню значимости а. =0,05
и числу степеней свободы k=n-2= 10-2 =8 (см. приложение 6):
fкр(О,05; 8)=2,31.
Найдем критическую точку:
Ткр =iкр (а:; k) V(1 -p:)/(n .:._2) .
Подставив fкр =2,31, n = 10, р8 = 0,24, по.11 учим Ткр=О,79.
Итак, Тк р=О,79, Рв = О,24.
Так как р8 < Ткр - нет оснований отвергнуть нулевую гипотезу;
ранговая корреляционная связь между признаками незначимая.
340
§ 26. Выборочный коэффициент ран говой
коррел яции Кендалла и проверка гипотезы
о его значимости
Можно оценивать связь между двумя качествен
ными признаками , использу я коэффициент ранговой кор
реляции Кендал ла. Пусть ранги объектов выборки объема п
(здесь сохранены все обозначения § 25):
попризнакуАxt>Х1н•.•,Хп
по признаку В у1, у2, •
•·,Уп
"
Допустим, что правее у1 имеется R1 рангов, больших у1;
правее у2 имеется R2 рангов, больших у2; ... ; правее Yn-t
имеется Rn-i рангов, больших Уп -� · Введем обозначение
суммы рангов R, (i = 1, 2, ..., п-1):
R=R1+R2+ ...+ Rп-1·
Выборочный коэффициент ранговой корреляции Кен
далла определ яется формулой
'tв = [4R/n(п- 1)]-1,
п-1
где п-объем выборки, R = � R1•
i=\
Убеди мся , что коэффициент Кендалла имеет те же
свойства, что и коэффициент Спирмен а.
1. В случае «полной прямой зависимости» признаков
Х2 = 2, ..., Xn=n
У2=2, "" Yn=n
Правее у1 имеется п - 1 рангов, больших Ун поэтому
R1=n-1.Очевидно, что R2 =n-2, . . . , Rп-�=1.Следо
вательно,
R=(п-1)+(п-2)+. . . +1=п(п-1)/2. (**)
Подставив (**) в (*) , получим
'tв=1.
2. В случае «противоположной зависимости»
Х1=1,Х2=2', ..., Хп=n
Y1=n, Y2=n-I, "., Уп =l
341
Правее у1 нет рангов, больши х у1; поэтому R1 = О
.
Оче
видно, что R2
=Ra·
.• .= Rn-i =О. Следовательно,
R =О.
(***)
Подставив (***) в (*) , получим
'tв=-1.
3 а м е ч а н и е. При достаточн_о большом объеме выборки и при
значениях коэф
ф
ициентов ранговой корреляции, не близких к еди
нице, имеетместо приближенное равенство
Рв = (3/2) "tв.
Пример 1. Найти выборо<Jный коэф
ф
ициент ранговой корреляции
Кендалла по данным рангам объектов выборки объема п = 10:
попризнакуА••.х;123456'7В910
попризнакуВ.•.Yi64В12510379
Реш ение. Правее у1 =6 имее�ся 4 ранга (8. 10, 7, 9), боль
ших у1, поэтому R1 =4. Аналогично найдем: R2 =5, R3 =2, R4 = 6 ,
Rь =5, R6 =3, R1 =0, R8 =2, R9 =1. Следовательно, сумма рангов
R =28.
Найдем искомый коэффициент ранговой корреляции Кендалла,
учитыва я, что n=IO:
"tn = [4R/n (n - l)J- 1 =[4·28/10·9]-1 =0,24.
Приведем правило, позволяющее установить значи
мость или незначимость р анговой корреляционной связи
Кендалл а.
П равило. Для то го чтобы при уровне значимости а ,
проверить нулевую г ипотезу о равенстве нулю генераль
ного коэффициента ранговой корреляции тг Кендалла
при конкурирующей гипотезе Н1 : тг ==/=
=
О, надо вычислить
критическую точку:
�
/
2(2п+5)
Ткр = Zкр
r
9n(n-I) '
где п-9бъем выборки; Zкр -кр итическая точка двусто
ронней критич еской области, которую находят по таблице
функции Лапласа по равенству Ф (zкр ) = (l- a)/2.
Если 1тв1< Ткр-нет оснований отверг нуть нулевую
г ипотез у. Ранговая корреляционная связь между качест
венными признаками незнач имая.
Если !тв 1 > Ткр -нулевую г ипотезу отверг ают . Между
качественными признаками существует значимая ранговая
корреляционная связь.
Пример 2. При уровне значимости 0,05 проверить, является ли
ранговая J\ орреляционная связь 'tn = 0,24, вычисленная в примере 1,
значимой?
342
Решен и е. Найд�м критическую точку zк
.
Р:
ф (Zкр) = (l -a.)/2 = (l -0,05)/2 =0,475.
По таблице функции Лапласа (см. приложение 2) находим Zкр = 1 ,96.
Найдем критическую точку:
"/"2(2п+5)
Ткр =Zкр
У
9п(п-1) •
Подставив Zкp =l,96 и n=lO, получим Ткр. 0,487. В примере l
Т8 =0,24.
Так как Тв < Ткр-нет оснований отвергнуть нулевую гипотезу;
ранговая корреляционная связь между признаками незначимая.
§ 27. Критерий Вилкоксона и проверка гипотезы
об однородности двух выборок
Критер ий Вилкоксона *1 служит для проверки
однородности двух независимых выборок: х1 , х2 , • • • , Xn , и у1,
у2, •••, Уп. Достоинство этого критерия состоит в том,
•
u
что он применим к случаиным величинам, распределения
которых неизвестны; требуется лишь, чтобы величины
были непрерывными.
Есл и выборки одн ородны, то считают, что они извле
чены из одн ой и той же генеральной совокупности и,
следовательно, имеют одинаковые, причем неизвестные�
непрерывные функции распределения F 1 (х) и F2 (х) .
Таким образом, нулевая ги потеза состоит в том, что
при всех значениях аргумента (обозн.ачим его через х)
функции распределения равны между собой: F1 (x) =F2 (х) .
Конкурирующими являются следующие гипотезы :
F1(x):#=F2(x), F1 (x)<F2(x) и F1 (x) > F2(x).
Заметим, что принятие конкурирующей гипотезы Н1 :
F1 (х) < F2 (х) означает, что Х > У. Действительно,
неравенство F1 (х) < F2 (х) равносильно неравенству
Р (Х < х) < Р (У < х). Отсюда легко получить, что
Р (Х > х) > Р(У> х).Другими словами, вероятность того,
что случайная величина Х превзойдет фиксированное
действител ьное ч исло х, больше, чем вероятность слу
чайной величине У оказаться большей , чем х; в этом
смысле Х > У.
Аналогично, если справедлива конкурирующая гипо
теза H1:F1(х)>F2(у), то Х<У.
*) В 1945 г. Вилкоксон опубликовал критерий сравнения двух
выборок одинакового объема: в 1947 г. Манн и Уитни обобщили кри
терий на выборки различного объема.
343
Далее предполагается, что объем первой выборки
меньше (не больше) объе ма второй: n1 ::
::;
;;
;
n2; если это не
так, то выборки можно перену меровать (поменять местами).
А. Проверка нулевой гипотезы в случае , если объем
обеих выборок не пре восходит 25. Правило t. Для того
чтобы при заданном уровне значи мости а. = 2Q проверить
нулевую гипотезу Н0:F1 (х) = F 2 (х) об одн ородности двух
независимых выборок объемов п1 и п2 (п1 � п2) при конку
рирующей гипотезе H1 :F1 (x) =FF2 (x), надо:
1 ) расположить варианты обеих выборок в возрастаю
щем порядке, т . е. в виде од·н ого вариационного
р яда, и найти в этом ряду наблюдаемое значение кри
терия Wнабл- сумму порядковых номеров вариант пер
в ой выборки;
2) найти по табл ице пр иложения 10 нижнюю крити
·н�скую ТОЧКУ Wнижн. кр (Q; n1, n2), где Q =а/2;
3) найти верхнюю критическую точку по формуле
Wверхн. кр = (n1+1l2 + })nl-Wннжн. кр·
Если Wнабл < Wннжн. кр ИЛИ Wиабл > Wверхи. кр -нулевую
гипотезу отвергают.
Если Wинжн. кр < W11абл < Wверхн. кр -нет оснований от
вергнуть нулевую гипотезу .
Пример 1. При уровне значимости 0,05 проверить нулевую гипо
тезу об однородности двух выборок . объемов п1 =6 и п2 = 8:
х;152325262829
Yi1214182022242730
при конкурирующей гипотезе H1:F1 (х) f= F2 (х).
Решение. Расположим варианты обеих выборок в виде одного
вариационного ряда и перенумеруем их:
поряд1ювые номера . ..
1234567891011121314
варианты . ..
1214151820222324252627282930
Найдем наблюдаемое значение критерия Внлкоксона - сумму по
рядковых номеров (они набраны курсивом) вариант первой выборки:
Wнабл=3+7+9+ 10+ 12+ 13=54 .
Найдем по таблице приложения 10 нижнюю критическую точку,
учитывая, что Q=-"' a/2 =0,05/2 =0,025, n1 =6, n2 =8:
Wиижн. кр (0,025; 6, 8)=29.
Найдем верхнюю критическую точку:
Wверхи. кр =(n1 +n2+1)п1 - Wниж11• кр =(6+в+1).6 -29 =61.
Таккак29<54<61, т. е
.
Wнижи. кр < Wиабл < Wверхн. кр.
Н('Т оснований отвергнуть нулевую гипотезу об однородности выборок.
344
Правило 2. При конкурирующей гипотезе F1 (х) > F2 (х)
надо найти по таблице нижнюю критическую точку
Wннжн.кр(Q; п1; n2), где Q=а.
-
Если wнабл > Wннжн . кр -нет оснований отвергнуть нуле
вую гипотезу.
Если wнабл < Wннжн . кр -нулевую гипотезу отвергают.
Правило 3. При конкурирующей гипотезе Н1 : F1 (х) <
< F2 (х) надо найти верхнюю критическую точку:
Wверхн.кр (Q; nl, n2) =(ni+n2+ l)n1-Wвнж11. кp(Q; nl, n2),_
где Q =a.
Если wна бл < W11epx11 . нр -нет оснований отвергнуть
нулевую гипотезу .
Если wнаб�>Wве рхн . пр -нулевую гипотезу отвергают.
3 а мечани е. Если нескол ько вариант тольк о одной
.
выборк и одинаковы, то в общем вариационном ряду им припи
сывают обычные порядковые номера (совпавшие варианты нумеруют
так, как если бы они были раЗJ1ичными числами); если же совпа
дают варианты разных выборо к, то всем им присваивают
один и тот же порядковый номер, равный среднему арифметическому
порядковых номеров, которые имели бы эти вариа нты до сЬвпадения .
Б. Проверка нулевой гипотезы в случае, если объем
хотя бы одной из выборок превосходит 25. 1. При конку
рирующей гипотезе F1 (х) =1= F2 (х) нижняя критическая
точка
где Q = а/2 ; Zнр на ходят по таблице функции Лапласа
по равенству Ф (zкр) = ( 1-а)/2; знак [а] означает целую
часть числа ·а.
В остал ьном правило 1, приведенное в п. А, сохра- .
няется .
2. При конкурирующих гипотезах F1 (х) > F2 (х) и
F1 (х) < F2 (х) нижнюю критическую точку находят по
формуле (*) , положив Q =а; соответственно Zнр находят
по таблице функции Лапласа по равенству Ф (Zнр) =
= ( 1-2а)/2. В остал ьном правила 2-3, при веденные
в п . А, сохраняются.
Пример ·2 . При уровне значимости 0,01 проверить нулевую гипо
тезу об однородности двух выборок сбъемов п1 =30 и п2 = 50 при кон
курирующей гипотезе H1 :F1 (x) -:j: F2 (x), если известно, что в общем
вариационном ряду, составленном из вариант обеих выборок , сумма
порядковых номеров вариант первой выборки Wнабл = 1600.
34Б
Реш е н и е. По условию, конкурирующая гипотеза имеет вид
F1 (х) :1= F2 (х), поэтому критическая область -двусторонняя.
Найдем Zкр по равенству
Ф (Zкp)=(l -a)/2 =(1 - 0,01 )/2 = 0,495.
По таблице функции Лапласа (см. приложение 2) находим Zкр = 2,58.
Подставив n1 =30, n2 = 50, Zкр = 2,58 в формулу (*), получим
Wннжн. кр =954.
Найдем верхнюю критическую точку:
Wвepxu. кр=(n1+ n2 + 1)Щ- Wнижн. кр= 2430 -954 = 1476.
Так как 1600 > 1476, т. е. Wнабп > Wверх . кр -нулевая гипотеза
отвергается.
Задачи
1. По дВум независимым выборкам, объемы которых соот
ветственно равны n1 и �. извлеченным из нормальных генеральных
совокупностей Х и У, найдены исправленные выборочные дисперсии
s� и s�. При уровне значимости а проверить нулевую гипотезу Н0:
D (Х) = D (У) о равенстве генеральных дисперсий при конкурирую
щей гипотезе Н1 : D (Х) > D (У), если:
а) n1 =10, n2 =16, s� =3,6, s� =2,4, а=О,05;
б) n1 =13, n2 =18, s� =0,72, s� =0,20, а=О,01.
Отв. а) Fн абл = 1,5; Fкр (0,05; 9; 15)=2,59 . Нет оснований отверг
нуть нулевую гипотезу; б) F11абл = 3,6; Fкр (0,01; 12; 17) = 3,45. Нуле
вая гипотеза отвергается.
2. По двум независимым выборкам, объемы которых соответст
венно равны п и т, извлеченным из цормальных генеральных сово-
купностей Х и У, найдены выборочные средние х и У. Генеральные
дисперсии D (Х) и D (У) известны. При уровне значимости а прове
рить нулевую гипотезу Н0: М (Х) = М (У) о равенстве математиче
ских ожиданий при конкурирующей гипотезе Н1 :М (Х) :1= М (У),
если:
а) n=30, m=20, D(X) = l20, D(Y) = I OO, а=О,05;
б) n=50, m=40, D(X) =50, D(Y)= l20, а=О,01 .
.
Отв. а) Zнабл = 1, Zкр = 1,96. Нет оснований отвергнуть нулевую
гипотезу; б) Z11абл = 10, Zкр =2,58. Нулевая гипотеза отвергается.
3. По двум независимым выборкам, объемы которых соответст
венно равны п = 5 И т = 6, изв.1еченным из нормальных генеральных
совокупностей Х и У, найд�ны выборочные средние х= 15,9, у= 14,1
и исправленные выборочные дисперсии s� = 14,76, s� = 4,92. При
уровне значимости 0,05 проверить нулевую гипотезу Н0 :М(Х)=М(}:
:'
)
о равенстве математических ожиданий при конкурирующей гипотезе
Н1 :М (Х) :1= М(У).
.
У к а з а н и е. Предварительно сравнить дисперсии.
Отв. Тнабп = 0,88, tкр (0,05; 9)= 2,26. Нет оснований отвергнуть
нулевую .гипотезу.
4. Из нормальной генеральной совокупности с известным сред
ним квадратическим отклонением 0'=2,1 извлечена выборка объема
346
n=49 и по ней найдена выборочная средняя х= 4,5. Требуется при
уровне значимости 0,05 проверить нулевую гипотезу Н0: а =3 о ра
венстве математического ожидания гипотетическому значению при
конкурирующей гипотезе Н1: а =1= 3.
Отв. Инабл =5, Uкр=l,96. Нулевая гипотеза оrвергается.
5. По выборке объема n= �6, извлеченной из нормальной гене-
ральной совокупности , найдены выборочная средн яя х= 12,4 и
«исправленное» среднее квадратическое отклонение s = l ,2. Требуется
при уровне значимости 0,05 проверить нулевую гипотезу Н0: а=l l ,8
о равенстве математического ожидания гипотети ческому значению
при конкурирующей гипотезе Н1 :а =1= ll,8 .
Отв. Тнабл =2, iкр (O,Q5; 15)=2,13. Нет оснований отвергнуть
нулевую гипотезу.
6. Двумя приборами измерены 5 деталей. Получены следующие
результаты (мм):
Хз =6,
Ys =9,
При уровне значимости 0,05 проверить, значимо или незначимо раз
личаются результаты измерений.
Отв. Тнабл = 10,54, lкр (0,05; 4) = 2,78. Различие результатов
измерений значимое.
7. По 100 независимым испытаниям найдена относительная час
тота т/n=О,15. При уровне значимости 0,05 проверить нулевую
гипотезу Н0: р = O, l 7 о равенстве относительной частоты гипотетиче
ской вероятности при конкурирующей гипотезе Н1 :р =1= 0,17.
Отв. 1 Uнабл 1=0,53, икр = 1,96. Нет оснований отвергнуть нуле
вую гипотезу.
8. Из партии картона фабрики No 1 случайно отобрано 150 листов,
среди которых оказалось 12 нестандартных; из 100 листов картона
фабрики No 2 обнаружено 15 нестанда ртных. Можно ли считать на
пятипроцентном уровне значимости , что относительные частоты полу
чения нестандартного картона об�ими фабриками различаются зна
чимо?
У к азани е. Принять в качестве конкурирующей гипотезы
Н1:Р1 ::/=·Р2·
Отв. Инабл = - 1,75; Икр= 1,96. Различие относительных частот
незначимое.
9. По пяти независимым выборкам, объемы которых соответст
венно равны n1 =7, n2 =9, n3 =10, n4 =l2, n5 =12, изв:1еченным из
J:!Ормальных генеральных совакупностей , найдены исправленные выбо
рочные дисперсии: 0,27; 0,32; 0,40; 0,42; 0,48. При уровне значи
мости 0,05 [проверить нулевую гипотезу об однородности дисперсий
(критическая область -правосторонняя).
У к азани е. Использовать критерий Бартлетта (см. § 20).
Отв. V=6,63, Х�р (О,05; 4) = 9,5. Нет оснований отвергнуть нуле
вую гипотезу.
10.- По Четырем независимым выборкам одинакового объема n= 17,
извлеченным из 11ормальнв1х совокупностей, найдены исправленные
выборочные дисперсии: 2,12; 2,32; 3,24; 4,32. Требуется: а) при
уровне значимости 0,05 проверить нулевую гипотезу о равенстве
генеральных дисперсий (критическая область -правосторонняя);
б) оценить генеральную дисперсию.
Указани е. Использовать критерий Кочрена (см. § 21).
347
Отв. а) GиaбJI = 0,36; Gкр (0,05; 16; 4) = О,4�66. Нет оснований
отвергнуть нулевую гипотезу ; б) о= 3.
11. По выборке объема п = 62, извлеченной из двумерной нор
мальной совокупности (Х, У), найден выборочный коэффициент кор
реJ1яции r8 = 0,6. При уровне значимости 0,05 проверить нулевую
гипотезу Н0: rг =О о равенстве нулю генерального коэф
ф
ициента кор
реляции при конкурирующей ги потезе rг ;i:. О.
Отв. ТиабJI=5,81 , lкр (О,05; 60) =2,О. Нулевая ги потеза отвер
гается.
12. При уровне значимости 0,05 проверить гипотезу о нормаль
ном распределении ге неральной совокупности , если известны эмпири
ческие (приведены в первой строке) и теоретические частоты (приве
дены во второй строке):
а)61216401385
41115431566
б)5614324339302065
4712294835341876
в)51312448126
220123515106
Отв. Х�абл =2,5, Х�Р (0,05; 4) =9,5. Нет оснований отвергнуть
гипотезу; б) Х�абл = 3, Х�р (0,05; 7) = 1461. Нет оснований отверг
нуть гипотезу; в) Х�абл = 13, Х�Р (0,05; 4) =9,5. Гипотеза отвергается.
13. а) Найти выборочный коэф
ф
ициент ранговой корреляции
Спцрмена по данным рангам объектов выборки объема n=10:
х;12345678910
Yi43586171029
б) значима ли ранговая корреляционная связь при уровне значи
мости 0,05?
Отв. а) Рв = 1/3; б) Ткр =0,77; корреляционная ранговая связь
незначима.
14. а) Найти выборочный коэф
ф
ициент ранговой корреляцщ1
Кендалла по данным рангам объектов выборки объема п = 10:
Xj12345678910
Yi43586171029
б) значима ли ранговая корреляционная связь •При уровне значи
мости 0,05?
Отв. а) т8 = 0,29; б) Ткр =О,96; ранговая корреляционная связь
незначима.
15. Известны результаты измерения (мм) изделий двух выборок,
объемы которых соответственно равны п1 =6 и п2 = 6:
Xj12108151411
.Yi1391617718
При уровне значимости 0,05 проверить нулевую гипотезу F1 (х) = F2(х)
об однородности выборок при конкурирующей гипотезе H1 :F1 (х) ;i:.
=1= F2 (х).
Указани е. Использовать критерий Вилкоксона.
Отв. Нулевая гипотеза отвергается: Wиижн. кр(0,025; 6; 6) =26,
Wверхи. к р �
52, WнабJI = 70.
•
.
16. Используя критерий Вилкоксона, при уровне значимости
0,05 11роверить нулевую ги потезу об однородности двух выборок,
348
объемы которых соответственно равны n1 = 30 и п2 = 50, при конку·
рирующей гипотезе F1 (х) > F2 (х) , если известно, что сумма поряд·
ковых номеров вариант первой выборки в общем вариационном ряду
Wнабл = 1150.
Отв. Нег оснований отвергнуть нулевую гипотезу:
· Wнижн. кр (0,05; 30; 50) = 1048, Wверхн. кр = 1382.
Глава двадцата я
ОДНОФ А КТОРН ЫЙ ДИСП ЕРСИОННЫЙ АНАЛИЗ
§ t . Сравнение нескольких средних.
Понятие о дисперсионном анализе
Пусть генеральные совокупности Х1, Х11, •••, ХР
распределены нормально и имеют оди наковую, хотя и
неизвестную, дисперсию; математические ожида ния также
неизвестны, но могут быть различными. Требуется при
заданном уровне значимости по выборочным средним
проверить нулевую гипотезу Н0 : М (Х1) = М (Х2) = . . . =
=М (Хр) о равенстве всех математических ожиданий.
Другими слова ми, требуется установить, значимо или
незначимо различаются выборочные средн ие . Казалось бы,
для сравнения нескольких средних (р > 2) можно срав
нить...
.
их попа рно. Одн ако с возра станием числа средн их
возрастает и наибольшее различие между ними : среднее
новой выборки может оказаться больше на ибольшего или
меньше наименьшего из средних, полученных до нового
опыта. По этой причине для сра внен ия нескольких сред
них пользуются другим методо м, который основан на
сравнении дисперсий и поэтому назван дисперсионным
анализом (в основном развит англ ийским статистиком
Р. Фишером) .
На практике дисперсионный анализ применяют, чтобы
установить , оказывает ли существенное вл ияние некото
рый к а честве н ный фактор F, который имеет р уров
ней F1 , F2 , •••, FP на изучаемую вел ичину Х. Например,
если требуется выяснить, какой вид удобрений наиболее
эффективен для получения на ибольшего урожая, то фак
тор F-удобрение, а его уровни -виды удобрений.
Основная Идея дисперсионного анализа состоит в срав
нении «факторной дисперсии», порождаемой воздействием
фактора, и «остаточной дис_персии», обусловленной слу
чайными причина ми. Если разл ичие между этими дис-
349
персиями значи1Viо, то фактор оказывает существенное
влияние на Х; в этом случае средние наблюдаемых зна
че ний на каждом уровне (групповые средние) различа
ются также значимо.
Если уже установлено, что фактор существенно вл ияет
на Х, а требуется выясн ить , какой из уровней оказы
вает наибольшее воздействие, то дополнительно произ
водят попарное сравнен ие средн их. .
Иногда дисперсионный анализ применяется , чтобы
установить од нор о дно сть нескольких совокуп ностей
(дисперсии этих совокупностей оди наковы по предполо
жению; если дисперсионный анализ покажет, что и мате
матические ожидания одинаковы, то в этом смысле сово
купности однородны) . Однородные же совок у пности можно
объединить в одну и тем самым получить о ней более
полную информацию, следовательно, и более надежные
выводы .
В более сложных случаях исследуют воздей ствие
нескольких факторов на нескол ьких постоя нных или
случайных уровн ях и выясняют вл ияние отдел ьных уров
ней и их комбинаций (многофакторн ый анализ).
Мы ограничимся простейшим случаем однофакторного
анализа , коrда на Х воздействует только од ин фактор ,
который имеет р постоя нных уровней .
§ 2. Общая факторная и остаточная суммы
квадра тов отклонений
Пусть на кол ичественный нормально распреде
ленный признак Х воздействует фактор F, который имеет
р постоянных уровней . Будем предполагать, что числ о
350
Номер испытания
1
2
...
q
Групповая
средняя
1
F,
Хн
Х21
...
Xq1
-
Xrp
1
1
Таблица 30
Уровни фактора Ff
Fo
Х12
Х22
...
xq2
-
Хгр2
1.. .
...
...
...
...
1 ...
1F
р
Х1р
Xf.p
...
Xqp
1-
Xrpp
наблюденн й (и с пытаний) на к ажД ом уровне
одинаково и равно q.
Пусть наблюдалось п = pq значений xif признака Х,
где i - номер испытания (i = 1, 2, ... , q), j- номер уровня
фактора (j = 1, 2, ..., р). Результаты наблюдений при
ведены в табл. 30.
Введем, по определению,
рq
Sобщ = � � (Х11-Х>2
i=1 l=1
(общая сумма квадратов отклонений наблюдаемых значе
ний от общей средней х),
р
Sфакт = q � (Xrpj-X}2
f=1
.
(факторная сум.ма квадратов отклонений групповых сред
них от общей средней, которая характеризует рассеяние
«между группами») ,
q
Sост = � (xil -Xrp1)2+
i=1
q
q
+�(Х1
2
-Xrp
2
)2+ ...+ � (X1p -Xrpp)2
i=l
i=l
(остаточная сумма квадратов от'Клонений наблюдаемых
значен ий группы от своей групповой средней, которая
характеризует рассеяние «внутри групп»).
Практически остаточную сумму находят по равенству
(см. § 3, следствие)
Sост = Sобщ - SФакт·
Элементарными преобразованиями можно получить
формулы , более удобные дл я расчетов:
q
Sобщ= :± Р1-[(fR1)
2
/(pq>],
l=1
/:1
SФа кт = [с�. R'}q]-[с� R1)21 (pq) ] •
где Р1 = � х:1- сумма квадратов значений признака на
i=1
.
уровне .F1 ;
уровне F1•
q
R1= � хi/- сумма значений признака на
l=1
351
3 а м е чани е. Для упрощения вычислений вычитают из каждого
наблюдаемого значения одно и то же число С, примерно равное
общей средней. Если уменьшенные значения Yij =x;I- C, то
Q
Sобш= .t Qj-[(�тj)
2
/(pq)] ,
J=1
/=1
Sфакт = [ .± тj;q] -[(.f т;У;(pq)] •
1=1
/=1 /
где Qj= � u�1-сумма квадратов уменьшенных значений признака
i=1
q
на уровне Fj ; Tj= � Yij- сумма уменьшенных зна'lений признака
i=1
на уровне Fj .
Для вывода формул (***) и (****) достаточно подста вить x;j = Yij+c
'
q
Q
q
в соотношение (*) и Rj=� х;1= �(Yij+C) .�YiJ+qC=Tj+qC
в соотношение (**) ·
i=l
i=I
i=l
Поя снения. 1. Убеди мся , что SФакт характеризует
воздействие фактора F. Допуст.им, что фактор оказывает
существенное вл ияние на Х . Тогда группа наблюдаемых
значен ий признака на од ном определ енном уровне, вообще
гово ря, отл ичается от групп наблюдений на других уров
нях . Следовател ьно, разл ичаются и групповые средние,
причем они тем болыре рассеяны вокруг общей средней ,
чем большим окажется воздействие фактора. Отсюда сле
дует, что дл я оценки воздействия фактора целесообразно
составить сумму квадратов отклонений групповых сред
них от общей средней (отклонение возводят в квадрат,
чтобы исключить погашение положител ьных и отрица
- тельных отклонений). Умножив эту сумму на q , получим
SФакт· Итак, SФакт характеризует воздействие фактора .
2. Убеди мс я, что Sост отражает вл ияние случайных
причин . Казалось бы, наблюдения одной группы не
должны рш�.шчаться . Одн ако, поскольку на Х, кроме
фактора F, воздействуют и случайные причины наблюде
ния одной и той же группы, вообще говоря, различны
и, значит, рассеяны вокруг своей групповой средней .
Отсюда следует, что дл я оценки вл ияния сл учайных при
ч ин uелесообразно составить �умму квадратов отклонений
наблюдаемых значений каждой гру ппы от своей групповой
средней, т. е. Sост· Итак, Sост характеризует воздействие
случайных причин.
352
3. Убеди мся, что sобщ отражает вл ияние и фактора и
случайных причин. Будем рассмат ривать в<:е наблюдения
как ед иную совокупность. Наблюдаемые значения при
з нака различны вследствие воздействия фактора и случай
ных причин. Для оцен ки этого воздействия целесообразно
составить сумму квадратов отклонений наблюдаемых зна
чений от общей средней, т. е. sобщ·
Итак, S06щ характериз ует вл ияние фактора и случай
ных причин .
При ведем пример, который нагл ядно показывает, что
факторная сумма отражает вл ияние факто ра, а остаточ
.
ная - влняние случайных причин.
Пример. Двумя приборами произведены по два измерения физи
ческой величины, истинный размер которой равен х. Рассматривая
в качестве фактора систематическую ошибку С, а в качестве его
уровней -систематические ошибки С1 и С2 соответственно первого
и вторQГО прибора. показать, что Sфак т определяется систематиче
скими, а Sост - случайными ошибками измерений.
Реш е н и е. Введем обозначения: а1 , а2 - случайные ошибки
первого и второго измерений первым прибором; (:}1, (:}2 -случайные
ошибки первого и второго измерений вторым прибором.
Тогда наблюдаемые значения результатов измерений соответст
венно равны (первый индекс при х указывает номер измерения,
а второй - номер прибора):
х11 = х+с1+а1, х21 = х+с1+а2; х12 =х+с2+(:}1. х211 =
·
х+с2 + (:}2•
Средние значения измерений первым и вторым приборами соот
ветственно равны:
Хгр 1=х+С1 +[(а1 +а2)/2] =х+С1 +а,
Хг р 2=x+C2+[((:}1+fJ2)/2 ) =x+C2 +(:}.
Общая средняя
х = (х гр 1 +хгр 2)/2=х+((С1 +C2)/2J + [(а + fJ)/2 ] ,
факторная сумма
SФакт= (Хгр 1-Х}2+(Хгр 2-х)
2
•
Подставив величины, заключенные в скобках, после элементарных
преобразований получим
Sфакт = [(С1 -C2)
2
/2J + (С1 -С2) (a -f}) +[(a-fJ)2/2].
Мы видим, что SФакт определяется главным образом, первым
слагаемым (поскольку случайные ошибки измерений малы) и, следо
вательно, действительно отражает влияние фактора С.
Остаточная сумма
Sост= (хн-Xrp1)2+(Х21-Хгр1)
2
+ (Х11 -Хгр 2)
2 + (X211-Xrp 2)2•
Подставив величины, заключенные в скобках, получим
Sост=[(а1-а.)
2+(а2-а)
2
]+HfJ1-(})2+(fJ2-fJ)
2
].
12-210
353
Мы видим, что Sост определяется случайными ошибками измере
ний и, следовательно, действительно отражае:r влияние случайных
причин.
З а м е ч а н и е. То, что Sост порождается случайными причинами,
следует также из равенства (см. § 3, следствие)
Sост = Sобщ- Sфакт•
Действительно, Sобщ является результатом воздействия фактора
и случайных причин; вычитая SФакт . мы исключаем влияние фактора.
Следовательно, «оставшаяся часты отражает влияние случайных
причин.
§ 3. Связь между общей , факторной
и остаточной суммами
Покажем , что
Sобщ = SФакт +sост·
Для упрощения вывода ограничимся двумя уровнями
(р = 2) и двумя испытаниями на каждом уровне (q = 2).
Результаты испытаний представим в виде табл . 31.
Та6 лица 31
Номер
1 Уровни фактора
испытания
t
1F,
1F,
1
Х11
Х12
2
Х21
Х22
-
1-1
-
Xrp /
Хгр 1
Xrp а
Тогда
sобщ = (х11 -х)
2
+(х21 -х)2+ (х12-х)
2
+(х22-х)2
•
Вычтем и прибавим к каждому наблюда�ому значению
на первом уровне групповую среднюю Хгр �• а на вто
ром-Хrр 2 . Выполнив возведение в квадрат и учитывая,
что сумма всех удвоенных произведений равна нулю
(рекомендуем читателю убедитьс я в этом самостоя тел ьно),
получим
354
Sобщ= 2[(хгр1-х)2+(Xrp2-х)
2
]+[(х11-Х:.Р1)
2
+
+(�21-Хгр1)2+(Х12-Хгр 2)
2+(Х22-Хгр2)
2
]=
= Sфакт+Sост•
Итак,
Sобщ = Sфакт + Sост•
Следств и е. Из полученного , р авенства вытекает
важное следствие:
Sост=S
о6щ - Sфакт•
ОтсЮда видно, что нет надобности непоср едственно вы
ч и слять остаточную сумму: достаточно найти общую и
фактор ную суммы, а затем и х р азность.
§ 4. Общая, факторная и остаточная дисперсии
Раздел ив суммы квадратов отклонений на соот
ветствующее число степеней свободы, получим общую,
факторную и остаточную диспер сии:
S2
-�
2
Sфакт
2_Sост
общ-рq-l'Sфакт=р-l' S
ocт -p(q-1) '
где р - число, уровней фактор а; q - число наблюдений на
каждом у р овне; pq- 1 - число степеней свободы общей
дисперсии; р - 1-число степеней свободы фактор ной
дисперсии; р (q - 1)-число степеней свободы остаточной
диспе р сии .
·
Если нулевая гипотеза о р авенстве с р едн их справед
лива, то все эти дисперсии являются несмещенными
оценками генер альной диспер сии. Напр имер , учитывая,
что объем выборки п = pq, заключаем, что
2
Sобщ Sобщ
Sобщ= --=
--Т
рq- 1
n-1
�исправленная выборочная дисперсия, которая, как известно, являет
ся несмещенной оценкой генеральной дисперсии.
3 а мечани е. Число степеней свободы р (q-1) остаточной
дисперс11и равно разности между числами степеней свободы общей и
факторной дисперсий. Действительно,
(pq- 1)-(p-l) =pq-p=p(q-l).
§ 5. Сравнение нескольких средних методом
дисперсионного анализа
Вер немся к задаче, поставленной в § 1: п р ове
р ить пр и заданном уровне значимости нулевую гипотезу
о равенстве нескольких (р > 2) средних нормальных со
вокупностей с неизвестными, но оди наковыми диспер си�
355
ями . Покажем, что решение этой задачи сводится к срав
нению факторной и остаточной дисперсий по критерию
Фишера-Снедекора (см. гл . XIX, § 8).
1. Пусть нулевая гипотеза о равенстве нескольких
средн их (далее будем называть их групповыми) пра
вильна. В этом случае факторная и остаточная дисперсии
являются несмещенными оцен ками неизвестной генераль
�ой дисперсии (см. § 4) и, следовательно, различаются
незначимо. Если сравнить эти оценки по критерию F,
то очевидно, критерий укажет, что нулевую гипотезу о
равенстве факторной и остаточной дисперсий следует
принять .
.
Таким образом, если гипотеза о равенстве групповых
средн их правильна, то верна и гипотеза о равенстве фак
торной и остаточной дисперсий.
2. Пусть нулевая гипотеза о равенстве групповых
средних ложна. В этом случае с возрастанием расхожде
ния между групповыми средн ими увеличивается фактор-
u
р
2/2
ная дисперсия'
·
а вместе с неи и отношение набя = sфакт Sост ·
В итоге Fнабя окажется больше Fкр и, следо вател ьно,
ги потеза о равенстве дисперсий будет отвергнута.
Таким образом, если гипотеза о равенстве групповых
средних ложна, то ложна и гипотеза о равенстве фак
торной и остаточной дисперсий.
Легко доказать от противного справедл ивость обрат
ных утвержден ий: из прав ильности (ложности) гипотезы
о дисперсиях следует правильность (ложность) ги потезы
о средних .
Итак, для того чтобы проверить нулевую гипотезу о
равенстве групповых средних нормальных совокупностей
с одинаковыми дисперсиями, достаточно проверить по
критерию F нулевую гипотезу о равенстве факторной и
остаточной дисперсий. В этом и состо ит метод диспер
сионного анализа .
3 а мечани е 1. Если факторная дисперсия ока жется меньше
остаточной, то уже отсюда следует справедливость гипотезы о равен
стве групповых средних и, значит , нет надобности прибегать к кри
терию F.
3 а мечани е 2. Если нет уверенности в справедливости пред
положения ·о равенстве дисперсий рассматриваемых р совокупностей ,
то это предположение следует проверить предварительно, например
по критерию Кочрена.
Пример. Произведено по 4 испытания на каждом из трех уров
ней. Результаты испытаний приведены в табл. 32 . Методом диспер
сионного анализа при уровне значимости 0,05 проверить нулевую
356
Таблица 32
Номер
1 Уровни фактора F
j
нспытания
i
1F,
1F,
1F,
l
51
52
42
2
52
54
44
3
56
56
50
4
57
58
52
-
Xr:'pj
1541
55
147
гиnотезу о равенстве групповых средних. Предполагается, что выборки
извлечены из нормальных совокупностей с одинаковыми дисперсиями.
Решение. Для упрощения расчета вычтем С = 52 из каждого
наблюдаемого значения: У;1 = х;1 -52. Составим расчетную табл. 33.
Пользуясь таблицей и учитывая, ttтo число уровней фактора
р=З, число испытаний на каждом уровне q=4, найдем общую и
факторную суммы квадратов отклонений (см. § 2, формулы (***)
Таблица ЗЗ
Номер
Уровни фактора F
1
испытания
{
1',
1F,
1Fa
Итоговый
стол бе ц
У;1
12
ин1
У;2 1
2
У12 1
У;з
12
l/j3
l
-1
1
о
О,
-10 100
2
о
о
2
4-8
64
3
4
16
4
16 -2
4
4
525
6
36
о
о
4
�<!
Q1= Yii
42
56
168 � Q1 =266
i=1
Т1= � Yif
181 1121 1-20
1 1�Т1=0
т2
1
164
1 1144
1 1400
1 1�TJ=608
357
и (11:11t•lf<}):
Sобщ= -�Q1-[(�Т1)
2
/ (pq) ] = 266 -0=266;
J=1
/=1
SФакт = rtт;tq] -[('t Т1)
2
/ (pq) ] =(608/4) -0 = 152.
J..
.
1
,/=1
Найдем остаточную сумму квадр атов отклонений�
Sост = Sобщ - Sфакт =266-152=114.
Найдем факторную и остаточную дисперсии:
s�акт = SФакт/(р-1 ) = 152/(3 -1) = 76;
S�т = Socт/(p (q -1)) = 114/3 (4 -1)= 114/9 = 12,67.
Сравним факторную и· остаточную дисперсии по критерию F (см.
гл. XIX, §8), для чего найдем наблюдаемое значение критерия:
FнабJJ=sФакт/5� =76/12,67 = 6 .
Учитывая, что число степеней свободы числителя k1 =2, а зна
менате.1
1
я k2=9 и уровень значимости а=О,05, по таблице приложе
ния 7 находим критическую точку:
Fк р(О,05; 2; 9) = 4,26.
Так как FнaбJJ > Fк р- нулевую гипотезу о равенстве групповых
средних отвергаем. Другими словами, групповые средние «В целом»
различаются ' значимо . Если требуется сравнить средние попарно, то
следует воспользоваться критерием Стьюдента.
3 а мечани е 3. Если наблюдаемые значения хu-десятичные
дроби с одним знаком после запятой, то целесообразно перейти к
числам Yij = l0x;1 -C, где С-примерно среднее значение чисел lOXij·
В итоге получим сравнительно небольшие целые числа. Хотя при
этом факторная и остаточная дисперсия увеличиваются в 102 раз, их
отношение не изменится. Например, eCJiи х11=12,1, х21= 12,2 ,
х31 = 12,6, 10, приняв Y;i = lO·Xij-123, получим: у11=121 -123 = -2,
у21=122 -123 =-1 , у31=126 -123 =3.
·
Аналогично поступают, если после запятой имеется k знаков:
Yij= IOkx;1 -C.
§ 6. Неодинаковое ЧИСJIО испытаний
на различных уровнях
Выше число испытаний на различных уровнях
предполагалось оди наковым. Пусть число испытаний на
различных уровнях, вообще гово ря, различно, а именно:
произведено q1 испытаний на уровне F1 , q2 испытаний -
на уровне F2.,_ ••• , qP испытаний -на уровне Fp . В этом
358
случае общую сумму квадратов отклонений находят по
формуле
Sобщ= [Р1+Р2+ . ..+PP]-[(R1+R2+ . . . +Rp)2/n],
Q1
где Р1 = � х�1 - сумма квадратов наблюдавшихся эначе
l=l
ний признака на уровне F1;
Qa
Р2 = � х�2 - сумма квадратов наблюда вшихся эначе
l=l
ний признака на уровне F1 ;
qp
Рр = � хlр -сумма квадратов наблюдавшихся э наче
l=l
ний признака на уровне FР;
Q1
Q1
qp
R1=�x1i, R2• �х12, •••,
Rp = � х1Р-суммы
l=l
l=1
l=l
наблюдавшихся значений признака соответственно на уров
нях F1, F2, ••• , FP;
n =q1 +q2 + .. . + qР - общее число испытаний (объем
выборки).
Если для упрощения вычислений из каждого наблю
давшегося значения x u вычитали одно и то же число С
и приняли у11 =х11 -С, то
Soбщ=[Q1+Q2+ ...+Qр]-[(Т1+т1+ . "+Тр)1/п],
Q1
Q1
гдеQ1=�Yl1. Q2=�У�2. •··,
l=1
l=l
q
q,
р
Т2=�Y12t••., Тр=�Yip·
l=1
l=l
Факторную сумму квадратов отклонений находят по
.
формуле
Sфaкт = [(RUq1) + (R�/q2) + ...+<R�/qp)]
-[R1 + R1 + . ..+ Rp)2/n];
если значения признака были уменьшены (YiJ = х11 - С), то
Sфакт = [(T�/q1) + (TYq2) + ...
. . . + ('f�/qp)]-[(T1 +т2 + ...+Тр)11/п].
359
Остальные вычисления производят , как и в случае
оди накового числа исп ытаний:
Sост = Sобщ -Sфакн
S�акт = Sфакт/(р- 1), S�т = Soc т/(n -p) ..
Пример. Произведено 10 испытаний, нз них 4 на первом уровне
фактора, 4-на втором и 2-на тре-�:.ьем. Результаты испытаний при
ведены в табл. 34 .
Ме тодом дисперсионного анализа при уровне зна
чимости 0,01 проверить нулевую гипотезу о равенстве групповых
средних. Предполагается, что выборки извлечены нз нормальных
совокупностей с одинаковыми дисперсиями.
Таблица 34
Номер испытанияl
Уровни фактора F/
l
1F,
1F,
1Fa
1
40
62
92
2
44
80
76
3
48
71
4
36
91
-
1421
76
1
Хгр j
84
Решение. Для упрощения расчета вычтем С =64 нз каждого
наблюдаемого значения: У11= х;1 - 64. Составим расчетную табл. 35
.
Используя табл. 35, найдем общую и факторную суммы квадратов
отклонений:
Sобщ = �Q1-[(�Т1)2/
n
] = 3253 -((-27)2/ IOJ =
= 3253 -72,9 =3180,1;
SФакт = [(T�/q1) + (т:/q2) + (T�/qa>J -[(� Т1 )2/п] =
= (7744/4) + (441/4) + (1600/2)} - 72,90 = 2846 ,25 - 72,90 = 2773,35.
Найдем остаточную сумму квадратов отклоне ний:
Sост = Sобщ -Sфакт = 3180, 10-2773,35 = 406,75.
Найдем факторную и остаточную дисперсии:
"
Sфакт = Sфакт/(р - 1)=2773,35/(3- 1)= 2773,35/2 = 1387;
S�т = Sост/(n
- р)=406,75/(1О-3)=406,75/7=58.
Сравним факторную и остаточную дисперсии по критерию F
(СМ. гл. XIX, § 8), для чего найдем наблюдаемое значение критерия:
Fиабж -=sфакт/ s�т = 1387/58 =23,9.
360
Таблица 35
Номер
Уровни фактора Fj
испы тан ия
F,
F1
F,
Итоговый
столбец
i
1 иf1
1 Уfэ
1 Уfз
Yi1
Yi3
Уiз
1
-24 576 -2
4
28 784
2
-20 400
16 256
12 144
3
-16 256
49
4
-28 784
Q1=_I:Ylj
20 16
309
928 _I: Q1 =3253
T1=�Yi/ -88
21
40
� Ti =-21
т�1
7744
441
1600
Учитывая, что число степеней свободы числителя k1 =2, а зна
менате.чя k2 = 7 и уровень значимости а=О,01 , по таблице приложе
ния 7 находим критическую точку: Fкр (0,01; 2 ; 7) = 9,55 .
Так как Fнабл > Fкр - нулевую rипотезу о равенстве rрупповых
средних отвергаем. Другими словами, групповые средние различаются
значимо.
За.цачи
В задачах 1-3 требуется при уровне значимости 0,05 про
верить нулевую гипотезу о равенстве группqвых средних. Предпо
лагается, что выборки извлечены из нормальных совокупностей с оди
наковыми генеральными дисперсиями.
1.
Номер испытании
Уровни фактора Fi
i
F,
1F2
1F,
1F•
1F,
1
42
66
35
64
70
2
55
91
50
70
79
3
67
96
60
79
88
4
67
98
69
81
90
-
157,75
1 87,75
153,50
1 73,50
181,75
Хгр/
Отв. Fнаб11 = 6,13; Fкр (0 105; 4; 15) = 3,06. Нулевая гипотеза
отвергается.
361
2.
Номе·р испытани11
Уровни-фактора F/
'
F,
1F,
1Fs
1F•
1
6
6
9
7
2
7
7
12
9
.
3
8\
11
13
10
4
11
12
14
10
-
/-
8
191
12
19
Хгр /
-
Отв. Fиаб.1
1
= 2,4; Fкр (0,05; 3; 12)=3,49. Нет оснований отверг
нуть нулевую гипuтезу.
3.
Номер испытания
Уровни фактора F/
'
F,
1F,
1Fa
1
37
60
69_
2
47
86
100
3
40
67
98
4
60
92
5
95
6
98
-
146
183
189
Хгр/
Отв. Fиаб.а=9,92; Fкр (0 ,05; 2; 10)=4, 10. Нуле-
вая гипотеза отвергается.
·
ЧАСТЬ Ч ETBEPTASf
МЕТОД МОНТЕ - КАРЛО. ЦЕ П И МАРКОВА
Глава двадцать первая
МОД ЕЛИРОВАНИЕ (РАЗЫ ГР ЫВАНИЕ) СЛУЧАЙНЫХ
ВЕЛИЧ И Н МЕТОДОМ МОНТЕ - КАРЛО
§ 1. Предмет метода Монте - Карло
Датой рождения метода Монте - Карло принято
считать 1949 г .• когда американские ученые Н. Метроnо
лис и С. У лам опубликовали статью «Метод Монте -
Карло». в которой систематически его изложили . Назва
ние метода связано с названием города Монте -Карло.
где в игорных домах (казино) играют в рулетку - одно
из простейших устр0йств дл я получения случайных чисел.
на использовании которых основан этот метод .
ЭВМ позволяют легко получать так называемые псев
досл учайные числа (при решении задач их применяют
вместо случайных чисел); это привело к ши рокому внед ре
нию метода во многие области науки и те хники (статисти
ческая физика, теория массового обслуживания, теория
игр и др.) . Метод Монте -Карло используют для вычис
ления интег ралов, в особенности многомерных , для реше
ния систем алгебраических уравнений высокого порядка .
для исследован и я различного _ рода сложных систем
(автоматического управления , экономическ их. биологи
ческих и т. д.).
Сущность метода Монте-К арл о состоит
в следующем: требуется найти значение а некоторой изу
чаемой вел ичины. Для этого выбирают такую случайную
вел ичину Х. математическое ожидание которой равно а:
М (Х) =а.
Практически же поступают так: производят п испы
та ний, в результате которых получают п возможных зна
чений Х; вычисляют их среднее арифметическое
Х =(� х;)/п
363
и принимают х в качестве оценки (приближенного значе
ния) а* искомого числа а:
а�а* = х.
Поскольку метод Монте -Карло требует проведен ия
большого числа испытаний, его часто называют методом
ст атист ических испытаний . Теория этого метода указы
вает. как наиболее целесообразно выбрать случайную
величину Х, как найти ее возможные значения. В част
ности , разрабатываются способы уменьШения дисперсии
используемых случайных величин , в результате чего
уменьшается ошибка, допускаемая при замене искомого
математического ожида ния а его оцен кой а* .
Отыс кание возможных значений случайной величины Х
(модел ирование) называют «разыгрыванием случайной ве
личины». Изложим лишь некоторые способы разыгрывания
случайных величин и укажем, как оценить допускаемую
при этом ошибку.
§ 2. Оценка погрешности метода Монте - Карло
Пусть для получения оценки а• математического
ожидания а случайной величины Х было произведено п
независимых испытаний (разыграно п возможных зна1.:е-
ний Х) и по ним была найдена выборочная средняя х, ко
торая принята в качестве искомой оценки: а•
=х.
Ясно, чт о если повторить опыт, то будут получены дру
гие возможн.ые значения Х, следовател ьно, другая сред
няя, а значит, и другая оценка а•. Уже отсюда следует,
что получить точную оценку математического ожидания
невозможно. Естествен но, возникает вопрос о величине
допускаемой ошибки. Оrраюtчимся отысканием лишь
верхней границы б допускаемой ошибки с заданной ве
роятностью ( надежностью) у :
P( I X-al� б) =y.
Интересующая нас верхняя граница ошибки б есть не
что иное, как «точность оценки» математического ожидания
по выборочной средней при помощи доверительных ин
тервалов, о которой уже шла речь в гл . XVI. Поэтому
воспользуемся результатами , полученными ранее, и рас
смотрим следующие три случая .
1. Случайная вел ичина Х распределена
нормально и ее среднее квадратическое
364
отклонение <J известно. В этом случае с надеж
ностью у верхняя граница ошибки (см. гл . XVI, § 15)
б=t(J1vп.
<*>
где п-число испытан ий (разыгранных значений Х); t
зн ачение аргумента функции Лапласа, при котором
Ф (t) = у/2, <J-известное среднее квадратическое откло
нение Х.
Пример t. С надежностью у=О,95 найти верхнюю границу
ошибки б, если для оценки математического ожидания нормальной
величины Х с известным средним квадратическим отклонением, равным
0,5, было разыграно 100 возможных значений Х.
Решение. По условию, n=IOO, <J=0,5, Ф (t)==О,95/2 =0,475.
По таблице функции Лапласа (см. приложение 2) находим t = 1,96
.
Искомая верхняя граница ошибки 6=1,96 · 0,5/Ji10
0
=0,098 .
2. Случайная величина Х распр.еделена
нормально, причем ее среднее квадрати
ческое отклонение <J неизвестно. В этом сл у
чае с надежностью у верхняя граница ошибки (см. гл .
XVI, § 16)
где п-число испытаний; s-«исправленное» среднее квад
ратическое отклонение , ty находят по таблице приложе
ния 3.
Пример 2. С надежностью у=О,95 найти верхнюю границу
ошибки б, если для оценки математического ожидания нормальной
величины Х было разыграно 100 ее возможных значений и по ним
найдено сисп равленное» среднее квадратическое отклонение s = 0,5.
Решение. По условию, n=IOO, s=0,5. Используя таблицу
приложения 3, по у=0,95, п = 100 находим t
v = 1,984. Искомая
верхняя граница ошибки б = 1 ,984 ·0,5/У100=0,099.
·
3. Случайная величина Х распределена
по закону.отличномуотнормального.вЭТОМ
случае при достаточно большом числе испытаний (п > 30)
с надежностью, приближенно равной у, верхняя
граница ошибки может быть вычислена по формуле (*) ,
если среднее квадратическое отклонение а случайной ве
личины Х известно; если же <J неизвестно, то можно
подставить в формулу (*) его оценку s-«исправленное»
среднее квадратическое отклонение либо воспользоваться
формулой (**) . Заметим, что чем больше п, тем меньше
различие между результатами , которые дают обе формулы .
Эго объясняется тем, что при п-+ оо распределение
365
Стьюде нта стремится к нормальному (см. гл . XVI, § 16,
замечание): В частности (примеры 1 и 2), при п = 100,
у=0,95 верхняя граница ошибки равна 0,098 по формуле
(*) и 0,099 по формуле (**) . Как видим, результать! раз
личаются незначительно.
3 а мечани е. Для того чтобы найти наименьшее чис.'lо испы
таний, которые обеспечат наперед заданную верхнюю границу ошибки S,
надо выразить п из формул (*) и (**):
n = t2o2/б2, n = t�s2/62•
Например, если б = 0,098, t = 1,96, о = 0,5, то минимальное
число испытаний, при которых ошибка не превысит 0,098, равно
п = 1 ,962 • 0,52/0,0982 = 100.
§ 3. Случайные числа
Ранее было указано, что метод Монте -Карло
основан на применении сл учайных чисел ; дадим опреде
ление этих чисел . Обозначим через · R непрерывную слу
чайную величину, распределен ную равномерно в интер
вале (О, 1).
Случайными числами называют возможные значения r
непрерывной случайной величины R , распределенной
равн омерно в интервале (О, 1).
В действи rельности пользуются не равномерно рас
предел енной случайной величиной R, возможные значе
ния которой, вообще говоря, имеют бесконечное
число десятичных знаков, а квазиравномерной случайной
величиной R*, возможные значения которой имеют к о
н е ч ное число знаков. В результате Заменьr R на R•
разыгрываемая величина имеет не точно, а при б ли
жен но заданное распределение. В приложении 9 при
ведена таблица случайных чисел , заимствованная из
книги: Большев Л. Н ., Смирнов Н. В. Таблицы
математической статистики. М ., «Наука», 1965, с. 428.
§ 4. Разыгрывание дискретной случайной
величины
Пусть требуется разыграть диск ретную случай
ную величину Х, т. е . получить последовательность ее
возможных значений xi (i = 1, 2, . . . , п), зная закон рас
предел ения Х:
366
Х Xi Х2 •••Хп.•
РР1Р2·••Рп
Обозначим через R непрерывную случай ную величину .
распределенную равномерно в интервале (О, 1), а через
r1(j = 1, 2 , . . . )-ее возможные значения, т. е. случайные
числа.
Разобьем интервал О � R < 1 на оси Or точками
с ·координатами р1, Р1+Р2• Р1+Р2+Рз• · · ·,Р1+Р2+ · · ·
. . . +Рп-� на п частичных интервалов Л1, Л2, • ••, Лn:
Дл. Л1=Р1-О=Р1•
Дл. Л2=(Р1+Р2)-Р1=Р2•
Видим, что длина частичного интервала с индексом i
равна вероятности с тем же индек сом:
Дл. лi=р;.
(*)
Теорема. Если каждому случайному числу r1 (O �r1<1),
которое попало в интервал Л;, ставить в соотв�тствие
возможное значен ие х; , то разыгрываемая вел ичина будет
иметь заданный закон распределения:
Х Х1 Х2 •••Хп
РР1Р2•··Рп
Доказательство. Так как при попадании слу
чайного числа r1 в частичный интервал Л; разыгрываемая
величина принимает возможное значение х;, а таких
интервалов всего п, то разыгрываемая величина имеет те
же возможные значения, что и Х, а именно х1, х2, •••• хп .
Вероятность попадания случайной величины R в ин
тервал Л; равна его длине (см. гл . XI, § 6, замечание),
а в силу (*) Дл . Л; =р;. Таким образом, вероятность
попадан ия R в интервал Л; равна р;. Следова
тел ьно, вероятность того, что разыгрываемая вел ичина
при�ет возможное значение х;, также равна р; (поскольку
мы условились в случае попадания случайного числа r1
в интервал Л; считать, что разыгрываемая величина при
няла возможное значение х;). Итак, разыгрываемая ве
личина имеет заданный закон распределен ия .
Правило. Для того чтобы разыграть дискретную слу
чайную величину , заданную законом распределения
ХХ1Х2
Хп
РР1Р2•••Рп
367
надо: 1 ) разбить интервал (О, 1 ) оси Or на п частичных
интервалов: Л1�(О; р1), Л2- (р1; р1+р2), • • " Лп-(Р1+
+Р2+· · ·+Рп-1; 1);
2) выбрать (например, из таблицы случайных чисел)
случайное число r1 .
Если r1 попало в частичный интервал Л ; , то разыг
рываемая диск ретная сл учайная величина приняла воз
можное значение Х;.
Пример. Разыграть 8 значений дискретной случайной величины Х,
закон распределения которой задан в виде таблицы
х
р
3
0,25
11
0,16
24
0,59
Реш е н и е. 1. Разобьем интервал (О, 1) оси Or точками с коор
динатами 0,25; 0,25+0,16=0,41 на 3 частичных интервала: Л1 -
- (О; 0,25), Л2 - (О,25; 0,4 1), Л3 -(О,41; 1).
2. Выпишем из таблицы приложения 9 восемь случайных чисел,
например: 0,10; 0,37; 0,08; 0,99; 0,12; 0,66; 0,31; 0 ,85 .
Случайное чисJю r1 =0,10 при надлежит частичному интервалу Л1,
поэтому разыгрываемая дискретная случайная величина приняла воз
можное значение х1 = 3. Случайное число r2 = 0,37 принадлежит
частичному интервалу Л2 , поэтому разыгрываемая величина приняла
возможное значение х2 = 11. Аналогично получим остальные возмож
ные значения.
Итак, разыгранные возможные значения Х таковы: З; 11; З; 24;
З; 24; l1; 24.
3 а м е ч а н и е. Далее будет показано, что разыгрывание с обы
тиА можносвести кразыгрываниюдискретнойслучайной
вели ч и н ы. Сначала рассмотрим полную группу, состоящую из
двух событий (см. § 5), а затем из п событий (см. § 6). Разумеется,
полная группа из двух событий явлиется частным случаем полной
группы п событий. Однако исходя из методичеt:ких соображений этот
частный случай намерено выделен в самостоятельный параграф -§5.
§ 5. Разы грывание п роти воположных соб ытий
Пусть требуется разыг рать испытания, в каждом
из которых событие А появляется с известной вероят
ностью р и, следовательно, не появляется с вероятностью
q=1-р.
Введем в рассмотрение диск ретную случайную вели
чину Х с двумя возможными значениями (для определен
ности примем х1 = 1, х2 = О) и соответствующими им ве
роятностями р1 -:- р, р1 = q. Условимся считать, что если
в испытании величина Х приняла возможное значение
х1 = 1, то событие А наступило; если Х =х2 = О, то собы-
368
тие А не наступило, т. е . появилось противоположное
событие А.
Таким образом, разыгрывание противоположных собы-
тий А и А сведено к разыгрI?IВанию дискретной случай
ной величины Х с заданным законом расп ределения :
х1о
ррq
Для разыгрывания Х надо (по правилу § 4) интервал
(О, 1 ) разбить точкой р на два частичных ннтервала:
Л1- (О, р) и Л2-(р, 1 ) . Затем выбирают случайное число ri.
Если ri попадает в интервал Л1, то Х = х1 (наступило
событие А); если ri попадает в интервал Л2 , то Х = х2 =О
(событие А не насту пило).
. Правило. Для того чтобы разыгр!lть испытания, в каж
дом из которых вероятность появления события равна р
и, следовател ьно , вероятность насту пления противополож
ного события А равна 1-р, надо выбрать (например,
из таблицы случайных чисел) случайное число ri (j = 1,
2, ...); если r1 < р, то событие А наступило; если r1 � р,
то появилось противоположное событие А.
П ример. Разыграть 6 испытаний, в каждом из которых событие
А появляется с вероятностью р = 0 ,35.
Реш е н и е. Выберем из таблицы приложения 9 шесть случайных
чисел, например: 0, 10; 0,36; 0,08; 0,99; 0,12; 0,06. Считая, что при
г1 < 0,35 событие
_
А появилось, а при r1 �0,35 наступило противо
положное событие А, получим искомую последовательность событи й:
А,А,А,А,А,А.
§ 6. Разыгрывание полной групп ы событи й
Разыгрывание полной группы п (l.l > 2) несов
местных событий А1, А
2 , • ••, Ап, вероятности которых
р1, р2 , • ••, Рп известны, можно свести к разыгрыванию
дискретной случайной вел ичины Х со следующим законом
распределения (для определенности примем х1 = 1, х2 = 2,
•••, Хп = n):
х1 2...п
РР1Р2···Рп
Действител ьно, достаточно считать, что если в испы
тании величина Х приняла значение xi = i(i=--о 1,2, . . . , п).
то наступило событие A i. Справедл ивость этого утвержде
ния следует из того, что число п возможных значений Х
369
равно числу событий полной группы и вероятности воз
можных значений Х; и соответствующих им событий А;
одинаковы: Р (Х = х1) = Р (А;) = Pi· Таким образом, появ
ление в испытан ии события А равносильно событию,
состоящему в том, что дискретная случайная величина Х
приняла возможное значение Х;.
Правило. Для того чтобы разыграть испытан ия, в каж
дом из которых наступает одно из событий А 1, А 2 , •••, А п
полной группы, вероятности которых р1 , р2 , •••, Р п из
вестн ы , достаточно разыграть (по правилу § 4) дискретную
случайную величину Х со следующим законом распреде
ления:
х12••.п
-
РР1Р2•••Рп
Если в испытании величина Х приняла возможное зна
чение х1 = i, то наступило событие А ;.
Пример 1. Заданы вероятности четырех событий, образующих
полную группу: р1 =Р (А1) =0,19, р2 =Р(A2)=0,2l, р8=Р (А3)=0,34,
р4 =Р (А4) =0,26. Разыграть 5 испытаний, в каждом из которых
появляется одно из четырех заданных событий.
Решени е. В соответствии с правилом, приведенным в настоящем
параграфе, надо разыграть дискретную случайную вt>личину Х, закон
распределения которой
х1
2
3
4
р 0,19 0,21 0 ,34 0,26
По правилу § 4 разобьем интервал (O, l) на четыре частичных
интервала: Л1 -(О; 0,19), Л2 -(О,19; 0,40), Л3- (О,40; 0,74), Л4 -
(О,74; 1). Выберем из таблицы приложения 9 пять случайных чисел,
например: 0,66; 0,31; 0,85; 0,63; 0,73. Так как случайное число r1 =0,66
принадлежит интервалу Лз , то Х =3, следовательно, наступило собы
тие А3 • Аналогично найдем остальные события.
Итак, искомая последовательность событий такова: -
Аз, А2, А4, А8, Аз.
Пример 2. События А и В независимы и совместны. Разыграть
6 испытаний, в каждом из которых вероятность появления события А
равна 0,6, а вероятность появления события В равна 0,2.
Р е ш е н и е. Возможны 4 исхода испытания:
А1= АВ, причем в силу независимости событий Р (АВ) =
=Р (А) -Р (В) =0,6 ·0, 2=0, 12;
А 2 =А.В, причем Р (АВ)=О,6 ·0,8 =0,48;
Аз =АВ, причем Р (АВ) =О,4 ·0 ,2 =0,08;
А4 =АВ. причем Р (АВ) =О,4·0,8
·
0,32.
Таким образом, задача сведена к разыгрывани!Q полной группы
четырех событий: А1 с вероятностью р1 =0,12, А 2 с вероятностью
р2 = 0,48, А8 с вероятностью р8 = 0,0� и А4 с вероятностью р4 = 0,32.
370
В свою очередь, в соответствии с правилом настоящего пара
графа эта задача сводится к разыгрыванию дискретной случайной
величины Х, закон распределения которой
х
1
2
3
4
р О, 12 0,48 0,08 0,32
Используем правило § 4. Выберем 6 случайных чисел, например:
0,45; 0,65; 0,06; Q,59; О,33;- -0,70. Построим частичные интервалы:
Л1 -(О; 0,12), Л2 -(0, 12; О,60); Л3-(0,60; 0,68), Л4 -(О,68; 1). Слу
чайное число r1 = 0,45 принадлежит интервалу Л2, поэтому наступило
событие А2 = АВ. Аналогично найдем исходы остальных испытаний.
Итак, искомая последовательность исходов разыгранных испы'tа·
ний такова: АВ, АВ , АВ, A'jf, Aii, Ali.
Пример 3. События А и В зависимы и совместны. Разыграть
4 испытания, в каждом из которых заданы вероятности Р (А) = О,8,
Р(В)=0,6, Р(АВ)=0,5.
Ре ш ен ие. Возможны 4 исхода испытания:
А1=АВ, причем, по условию, Р (АВ) =О,5; ·
А 2 =-1.В. причем Р (АВ)=Р (А) -Р (АВ) =О,8 -0,5 =0,3;
А8 = АВ, причем Р (АВ) =Р(В) -Р(АВ) =0,6 -0,5 =0,1;
А.1 =АВ, причем P(AB)=l-[P (A1)+P(A 2) +P(A8)] = 1-
-(0,5+ o,3 + 0 , 1) =0,l.
Таким образом, задача сведена к разыгрыванию полной группы
четырех событий: А1 с вероятностью 0,5, А 2 с вероятностью 0,3,
А8 с вероятностью 0, 1 и А4 с вероятностью 0,1 и А4 с вероятно
стью 0,1.
Рекомендуем закончить решение самостоятельно, считая для
определенности, что выбраны случайные числа: 0,65; 0,06; 0,59; 0,33.
Для контроля приводим ответ: АВ, АВ, АВ, АВ.
·
Поя снение. Так как А=АВ+АВ, то Р (А)=Р (АВ)+Р (АВ).
Оrсюда
Р (АВ) =Р (А)-Р (АВ).
Аналогично получим, что
Р (АВ) = Р (В)-Р (АВ).
§ 7. Разыгрывание непрерывной случайной
велич ины. Метод обратных функций
Ifусть требуется разыграть непрерывную случай
ную величину Х, т. е. получить последовательность ее
возможных значений х1 (i = 1, 2 , . ..), зная функцию
распределения F (х).
Те орема . Есл и r 1 - случайное число, то возможное зна
чение х1 разыгрываемой непрерывной случайной величины
Х с заданной функцией распределения F (х) , соответ -
371
ствующее r 1, является корнем уравнен ия
F(x;) =r1•
Док азательств о. Пусть выбрано случайное число
r 1(О � r1 < 1). Так как в интервале всех возможных зна
чен ий Х функция распределен ия F (х) монотон но возра
стает от О до 1 , то в этом интервале существует, причем
только одно, такое значение аргумента Х;, при котором
функция распределения примет значение r1 • Другими
словами, уравнение (*) имеет единственное решение
Х;=p-i (r;),
где р-1
-функция, об ратная функции y=F(x).
Докажем теперь, что корень х 1 уравнения (*) есть
возможное значение такой непрерывной случайной вели
чины (временно обо значим ее через 6. а потом убеди мся ,
что s = Х). С этой целью докажем, что вероятность попа
дания 6 в интервал , например (с, d), принадлежащий
интервалу всех возможных значений Х, равна прираще
нию функции распределения F (х) на этом интервале :
Р(с<6<d)=F(d)-F(с).
Действительно , так как F (х) - монотонно возрастаю
щая функция в интервале всех возможных значений Х,
то в этом интервале ббльщим значениям аргумента соот
ветствуют большие значения функции, и об ратно . Поэтому ,
если с<х1<d, то F(с)<r1<F(d), и обратно [учтено"
что в силу (*) F(х1)=r1].
Из этих неравенств следует , что если случайная
вел ичина � заключена в интервале
c <s<d,
(**)
то случайная вел ичина R заключена в интервале
F(с)<R<F(d),
(***)
и обратно. Таким образом, неравенства (**) и (***) рав
носильны , а, значит, и равновероятны:
Р(с<s<d)=P[F(с)<R<F(d)]. (****)
Так как вел ичина R распределена равномерно в ин
тервале (О, 1 ), то вероятность попадания R в некоторый
интервал, при надлежащий интервалу (О, 1), равна его
дл ине (см. гл . XI, § 6, замечание). В частности,
Р[F(с)<R<F(d)]=F(d)-F(с).
372
Следовательно, соотношение (****) можно записать в виде
Р(с<�<d)=F(d)-F(с).
.
Итак, вероятность попада ния � в интервал (с, d) равна
приращению функции распределения F (х) на этом интер- .
вале, а это означает, что � = Х. Другими словами, числа
xi , оп ределяемые формулой (*), есть возможные значения
вел ичины Х с заданной функцией распределения F (х),
что и требовалось доказат ь.
Правило 1. Для того чтобы найти возможное значение
x i неп рерывной случайной величины Х, зная ее функцию
расп ределения F (х), надо выбрать случай ное число r ;,
приравнять его функции распределения и решить отно
сительно xi полученное уравнение
F(xi) = ri.
3амечание 1. Если решить это уравнение в явном виде не
удается, то прибегают к графическим или численным метода м.
Пример 1. Разыграть 3 возможных значения непрерывной слу
чайной величины Х, распределенной равномерно в интервале (2, 10).
Решение. Напишем функцию распределения величины Х, рас
пределенной равномерно в интервале (а, Ь) (см. гл. XI, § 3, пример):
F (х) = (х -а)/(Ь -а).
По условию, а =2, Ь=10, следовательно,
F(х)=(х�2)/8.
.
Используя правило настоящего параграфа, напишем уравнение
для отыскания возможных значений х;, для чего приравняем функцию
распределения случайному числу:
(xi - 2)/B=r;.
Оrсюда Х/ · 8r;+ 2.
Выберем 3 случайных числа, например, r1 =0,ll, r2 =0,17,
r3 =0,66 . Подставим эти числа в уравнение, разрешенное относительно
х1; в итоге получим соответствующие возможные значения Х:
Х1 =8·0,11+ 2=2,88; Х2 =1,36; Х3 = 7,28.
Пример 2. Непрерывная случайная величина Х распределена по
показательному закону, заданному функцией распределения (параметр
Л > О известен)
F(х)=1-е-Лх (х>О).
Требуется найти явную формулу для разыгрывания возможных зна
чений Х.
Реш е н и е. Используя правило настоящего параграфа, напишем
уравнение
-м.
1-е
'=r;.
Решим это уравнение относительно xi:
-Ах·
е
'=l -r1, или -Лx;=ln(I-r;).
313
Оrсюда
1
х1= -
тlп(1-r;).
Случайное число r1 заключено в интервале (О, 1); следовательно,
число J -r1 также случайное и принадлежит интервалу (0, 1). Дру· .
гимн словами, величины R и I -R распределены одинаково. Поэтому
для отыскания х1 можно воспользоваться более простой формулой
l
Xj= -
тlnГj.
3амечание 2. Известно, что (см. гл. XI,§З)
х
F(x) = S f(х)dx.
-оо
В частности ,
"1
F(х;)=S f(х)dx.
Оrсюда следует, что если известна плотность вероятности f (х) , то
для разыгрывания Х можно вместо уравнений F (xi) = r1 решить
относительно х1 уравнение
"1
S f(х) dx= r1.
-оо
Правило 2. Для того чтобы найти возможное значение
х1 непрерывной случайной величины Х, зная ее плот
ность вероятности f (х), надо выбрать случайное число
r1 и решить относительно х1 уравнение
xi
Sf(х)dx=r1,
-Ф
или уравнение
где а- наименьшее конечное воз можное значение Х.
Пример З. Задана плотность вероятности непрерывной случайной
величины Х f (х) =Л (1 -Лх/2) в интервале (О; 2/Л) ; вне этого интер
вала f(x) =O. Требуется найти явную формулу для разыгрывания
возможных значений Х.
374
Реш е 11 и е, Напишем в соответствии с правилом 2 уравнение
Xj
А. S (1-'Лх/2) dх = Г/·
о
Выполнив интегрирование и решив полученное квадратное уравнение
относительно Xi, окончательно получим
Х/ =2(1- YI- ri}/A..
§ 8. Метод суперпозиции
Пусть . функция распределения разыгрываемой
случайной величины Х может быть представлена в виде
линейной комбинации двух функций распределения:
F(х)=C1F1(х)+C2F11(х) (С1>О, С11>О).
При х --? оо каждая из функций распределения стремится
к единице, поэтому С1+с11 = 1.
Введе м вспомогательную дискретную случайную вели
чину Z с законом распределения
Мы видим, что
z12
рС1Са
P(Z=l)=Cit P(Z=2)=C11•
Выберем два независимых случайных числа r1 и r 11 •
По числу r1 разыгрываем возможное значение Z (см. § 4).
Если окажется, что Z = 1, то ищут искомое возможное
значение Х из уравнения F1 (х) =r2; если Z = 2, то ре
шают относител ьно х уравнение F2 (х) = r 11
•
Докажем, что функция распределения разыгрываемой
случайной величины равна заданной функции распреде
ления. Воспользуемся формулой полной вероятности
(см. гл.IV,§2)
Р (А) = Р (В1) Рв1 (А)+Р (В2) Рв1 (А).
Обозначим через А событие Х < х; тогда
Р(А)=Р(Х<х)=F(х).
Рассмотрим гипотезы В1: Z = 1 и 811 : Z = 2 . Вероятности
этих гипотез в силу (*) :
Р(В1)=Р(Z=1)=С1 и Р(В11)=Р(Z=2)=С2• (***)
375
Условные вероятности появления события А соответ
ственно равны:
Рв,(А)=Рв,(Х<х)=F1(х) и
Рв,(А)=Рв.(Х<х)=F2(х). (****)
.
Подставив (**), (***) и (****) в формулу полной вероят
ности , окончательно получим
F(х)=C1F1(х)+C2F2(х),
что и требовалось доказать.
З а м е ч а н и е. Метод суперпозицпи обобща ется на п слагаемых
функций распределения.
Правило. Для того чтобы разыграть возможное зна
чение случайной величины Х, функция распределен ия
которой
F(х)=C1F1(х)+C"F2(х),
где cl>о,' с2>о иcl+с2= 1, надо выбрать два неза
висимых случайных числа r1 и r 2 и по случайному числу r1
разыграть возможное значение вспомогательной дискрет
ной случайной вел ичины Z (по правилу § 4) :
z12
Рс1cs
Если окажется , что Z = 1 , то решают относительно х
уравнение F1 (х) = r2; если Z = 2, то решают уравнение
F1(х)=r2•
Пример. Найти явные формулы для разыгрывания 'непрерывной
случайной величины Х, заданной функцией распределения
F(х)=1-О,25 (е - 2х+зе-х), О<х< оо.
Реш е н и е. Воспользуемся методом суперпозиции, для чего
представим заданную функцию в виде
F(х)=:=0,25(1-е-2х)+0,75(1-е-х).
Таким образом, можно принять:
F1 (x)=l-e-2x, F2 (x)=l-e -x, С1 =0,25, С2 = 0,75.
Введем в рассмотрение вспомогательную дискретную случайную
величину Z с законом распределения
z
1
2
р 0,25 0,75
Выберем независимые случайные числа r1 и r2• Разыграем Z по
с.пу
_
чайиому числу r1, для чего по правилу § 4 построим частичные
376
интервалы Л1 -(О; 0,25) и Л2 -(О,25; 1). Если r1 < 0,25, то Z= 1 ,
если r1 =? 0,25, то Z=2.
·
Итак, возможное значение Х находят, решая относительно х
уравнение
1.-:.е-2х =r2, если r1 <0,25,
или
t-е-х=r2, если r1�0,25.
Используя реш�ние примера 2 (см. § 7), в котором была найдена
явная формула Х= -(1/Л) lп r для разыгрывания возможных значений
показательного распределения с задарным параметром Л, окончательно
получим:
Х= -(1/2) ln r2, если r1 < 0,25;
Х=-lnr1, если r1�0,25.
§ 9. Приближенное разыгрывание нормальной
случайной величины
Напомним предварительно, что если случайная
величина R распределена равномерно в интервале (О, 1),
:го ее математическое ожидание и дисперсия соответстве нно
равны (см. гл . XII, § 1, замечание 3):
М(R)=1/2,
D (R) = 1/12.
Составим сумму п независимых, распределенных рав
номерно в интервале (О, 1) случайных величин R1 (j = 1,
2, ..., п):
п
� R1·
/=1
Для нормирования этой суммы найдем пред варител ьно
ее математическое ожидание и дисперсию.
Известно, что математическое ожидание суммы слу
чайных величин равно сумме математических ожиданий
слагаемых . Сумма ( ***) содержит п слагаемых , матема
тическое ожида ние каждого из которых в силу (*) равно
1/2; следовател ьно, математическое ожидание суммы (***)
М[±R1]=n/2.
/=1
Известно , что дисперсия суммы независимых · случай
ных величин равна сумме дисперсий слагаемых . Сумма
(***) содержит п независимых слагаемых, дисперсия каж
дого из которых в силу (**) равна 1/12; ·следовательно,
.377
дисперсия суммы (***)
D[�R1] =n/12.
/=1
Отсюда среднее квадратическое отклщ1ецие су�мьi (***)
O':t=Vn/12.
Пронормируем рассматриваемую сумму , для чего выч
тем математическое ожидание и раздел им результат на
среднее квадратическое отклонение:
п
� R1 -(n/2)
1=l
У п/12
_
В силу центральной предел ьной теоремы при п--+-оо
распределение этой нормированной случайной величиuы
стремится к нормальному с параметрами а=О и О'= 1 .
При конечном п распред еление прибли
женно нормальное. В частности , при n =12 получим
достаточно хорошее и удобное для расчета приближение
12
�R1-6.
/=1
Правило. Для того чтобы разыграть возможное зна
чение х1 нормальной случайной величины Х с парамет
рами а=О и О'= 1, надо сложить 12 независимых слу
чайных чисел и из полученной суммы вычесть 6:
12
Х1 = � Г1-6 =81-6.
/=1
.
.
Пример. а) Разыграть 100 возможных значений нормальной вели
чины Х с параметрами а=О и о=1; б) оценить параметры разыг
ранной величины.
Решение. а) Выберем 12 случайных чисел из первой строки
табдицы *>, сложим их и из полученной суммы вычтем 6; в итоге
имеем
х1 =(0,10+0.09+ ...+о,67)-6 = -О ,99 .
Аналогично, выбирая из каждой следующей строки таблицы пер
вые 12 чисел, найдем остальные возможные значения Х.
*) См.: Большев Л. Н ., Смирнов Н. В . Таблицы матема
тической статистики. М" «Наука», 1965, с. 428-429.
378 /
б) Выполнив расчеты, получим искомые оценки:
а•=хв ::
::.
.
- 0,05, а•=УDв::
::.
.
1 ,04.
Оценки удовлетворительнll�: а• близко к нулю, а• мало отличается
от единицы.
3 а м е ч а н и е. Если требуется /азыграть возможное значение
Zi нормальной случайной величины
с математическим ожиданием
а и средним квадратическим отклонением а, то, разыграв по пра
вилу настоящего параграфа возможное значение Х/, находят искомое
возможное значение по формуле
z; =ax1+a.
Эта формула получена из соотношения 1z; -a)/a =x1.
Зад.ачи
Х, закон
1. Разыграть 6 значений дискретной случайной величины
распределения которой задан в виде таблицы
х2
3,2
10
р 0,18 0 ,24 0,58
У к а з а н и е. Для определенности принять, что выбраны слу
чайные числа: 0,73; 0,75; 0,54; 0 ,08; 0,28; 0,53.
Отв. 10; 10; 10; 2; 3; 22; 10.
2. Разыграть 4 испытания, в каждом из которых вероятность
появления события А равна 0,52.
У к а з ани е. Для определеннос!'и принять, что выбраны слу
чайные числа: 0,28; 0,53; 0,91; 0,89.
Отв.А,А,А,А.
3. Заданы вероятности трех событий, образующих полную группу:
Р(А1) = 0,20, Р(А 2)=0 ,32, Р(Аз) = О,48 . Разыграть 6 испытаний,
в каждом из которых появляется одно из заданных событий.
У к а з а н и е. Для определенности принять, что выбраны слу
чайные числа: 0,77; 0,19; 0,21 ; )) ,51 ; 0,99; 0,33.
Отв. Аз, А1, А2, А2, Аз, А2•
4. События А и В независимы и совместны. Разыграть 5 испы
таний, в каждом из которых вероятность появления события А равна
015, а события В-0,8.
У к а з а н и е. Составить полную группу событий:
А2 =АВ, Аз =АВ, А4 = А8; для определенности принять
числа: 0,34; 0,41; 0,48; 0,21; 0,57.
Ai=AB,
случайные
Отв. А1, А2, А2, А1, Аз.
5. События А, В , С независимы и совместны. Разыграть 4 испы
тания, в каждом из которых вероятности появления событий заданы:
Р (А)=0,4, Р(В)=0,6, Р (С)=0,5.
У к а з а н н е. Составить полную группу событий:
·
А2=АВС, Аз=АВС, А4= АВС, А,=АВС, А8=АВС,
Ав=АВС; для определенности принять, что выбраны
числа: 0,075; 0,907; 0,401; 0,344.
А1=АВС,
А7=АВС,
случайные
Отв. А1, Ав, А4, А4.
6. События А и В зависимы и совместны. Разы1·рать 4 испыта
ния, в каждом из которых заданы вероятности: Р (А) =0,7, Р (В)·=О,6,
Р(АВ) =О,4.
379
У к а зан и е. Составить полную группу событий: А1 = АВ,
А2 =АВ, А 3 =АВ, А4 = Ай; для определенности принять случайные
числа: 0,28; 0,53; 0,91 ; 0,89.
-
Отв. А1, А2, А4, А3•
7. Разыграть 3 ·возможных значения непрерывной случайной
величины Х, которая распределена по показательному закону и
задана функцией распределения F (х) = 1-e - iox .
У к а з а н и е. Для опреде.'!енности принять, что выбраны слу
чайные числа : 0,67; 0,79; 0,91.
Отв. 0,04; 0,02; 0 ,009.
8. Разыграть 4 возможных значения непрерывной случайной
вели чины Х, распределенной равномерно в интервале (6, 14).
Указани е. Для 'оп ределенности принять, что выбраны сду
чайные числа: О,11: 0,04; 0,61; 0,93.
Отв. 6,88; 6,32; 10,&8; 13,44.
.
9. Найти методом суперпозиции явные формулы для разыгрыва-
ния непрерывной случайной величины Х, заданной функцией рас
пределения
F(x)=l-( l/3) (2e- 2x +e-зx), О<х < CIO.
Отв. х=-(1/2) lпr2, если r1 < 2/3; х=-(1/3) lnr2, если r1 :;
;;
;.
2/3.
10. Найти явную формулу для разыгрывания непрерывной слу
чайной величины Х, заданной плотностью вероятности f (х) =
= Ь/(J+ах)
2 в интервале О�х � 1/(Ь - а); вне этого интервала
f (х) =О.
Отв. Х/ = -Гj/(b-ari).
11. Разыграть 2 возможных значения нормальной случаiiной
величины с парамет_рами: а) а=О, <1= 1; б) а = 2, а=3.
Указ ани е. Для определенности принять случайные числа (далее
указано число сотых долей; например, числу 74 соответствует слу
чайное число r1 =0,74): 74, 10, 88, 82, 22, 88, 57, 07, 40, 15, 25,
70; 62, 88, 08, 78, 73, 95, 16, 05, 92, 21, 22, 30.
Отв. а)х1=-0,22, x2= -0,IO; б)z1=1 ,34, z2=2,70.
Глава двадцать вторая
ПЕРВОНАЧАЛЬНЫЕ СВЕДЕНИЯ О ЦЕ ПЯХ МАРКОВА
§ 1. Цепь Маркова
Цепью Маркова называют последовательность
испытан ий, в каждом из которых появляется только одн о
из k несовместных событий А1, А 2, • ••, A k полной группы,
причем условная вероятность p i/ (s) того, что в s-м испы
тании 11аступит событие Aj (j = 1, 2, ... , k), при усло
вии , что в (s -1)-м испытании наступило событие
Ai (i = 1, 2, . .., k), не зависит от результатов предшест
вующих испытан ий.
Например, если последов_ательность испытаний обра
зует це пь Маркова и полная группа состоит из четы рех
несовместных событий А1, А2 , А8, А., причем известно,
что в шестом испытании появилось событие А2, то услов-
·
.
З8О
ная вероятность того, что в седьмом испытании насту
пит событие А4, не зависит от того, какие события поя
вились в первом, втором, ..., пятом испытания х.
Заметим, что независимые испытания являются част
ным случаем цепи Ма ркова. Действител ьно, есл и испы
тания независимы , от появление некоторого определенного
события в любом испытании не зависит от результатов
ранее произведенных испытаний. Отсюда следует, что
понятие цепи Маркова является обобщением понятия
независимых испытаний.
Далее используется терминология , которая принята
при изложении цепей Маркова. Пусть некоторая система
в кажды й момент времени находится в одн ом из k состоя
ний: первом, втором,
. .., k-м . В отдел ьные моменты
времени в результате испытания состояние системы изме
няется , т. е. система переходит из одн ого состоя ния,
например i, в другое, например j. В частности , после
испытания система может остаться в том же состоя нии
(«перейти» из состояния i в состоя ние j = i) .
Таким образом, события называют состояниями си
стемы, а испытания - изменениями ее состояний.
Дадим теперь определение це пи Маркова, используя
новую терминологию.
Цепью Маркова называют последо вательность испы·
та ний, в каждом из которых система принимает только
одно из k состояний полной группы, пр ичем условная
вероятность р;1 (s) того, что в s-м испытании система
будет находиться в состоянии /, при условии, что после
(s- 1)-го испытания она находилась в состоянии i, не
зависит от результатов остальных , ранее прои зведенных
испытаний.
Цепью Маркова с дискретным временем называют
цепь, изменение состояний которой ' происходит в опре
деленные фик с и рованн ы е моменты времен и.
Цепью Маркова с непрерывным временем называют
цепь, изменение состояний которой происходит в любые
случайные возможные моменты времен и.
§ 2. Однородная цепь Маркова. Переходные
вероятности. Матрица перехода
Однородной называют цепь Маркова, если услов
ная вероятность р;1 (s) (перехода из состояния i в состоя
ние j) не зависит от номера испытания. Поэтому вместо
PiJ (s) пишут просто р,1 .
Пример. Случайное блуждание. Пусть на прямойОх
в точке с цЕ>лочисленной координатой x=n находится материальная
частица. В определенные моменты времени /1, /2, t8 , • • •
части ца
испытывает толчки. Под действием толчка частица с вероятностью р
смещается на единицу вправо и с вероятностью 1-р -на единицу
влево. Ясно, что положение (координата) части цы после толчка зави
сит от того, где находилась частица после непосредственно предшест
вующего толчка, н не зависит от того, как она двигалась под дейст-
вием остальных предшествующих толчков.
-
Таким образом, случайное блуждание -пример однородной цепи
Маркова с дискретным временем.
Далее ограничимся элементами теории конечных одн о
родных цепей Ма ркова.
Переходной вероятностью р11 называют условную
вероятность того, что из состояния i (в :котором система
оказалась в результате некоторого испытания, без раз
лично какого номера) в итоге следующего испытания
система перейдет в состояние j.
-
Таким образом, в обозначении р11 первый индекс ука
зывает номер предшествующего, а второй - номер после
дующего состояния. .
Например, р11 -вероятность «пере
хода» из первого состояния в первое; р23 -вероятность
перехода из второго состояния в третье.
Пусть число состояний конечно и равно k.
Матрицей перехода системы называют матр ицу, ко
торая содержит все переходные вероятности этой сис
темы:
�
·
·
=
(::::::::: :::)
1
•
•
•
•
•
•
PkiРА2•••Pkk
Так как в каждой строке матрицы помещены вероят
ности событий (перехода из одного и того же состояния
i в любое возможное состояние j), которые образуют
полную группу, то сумма вероятностей этих событий
равна еди нице. Другими словами, сумма переходных
вероятностей каждой строки матрицы перехода равна
единице:
382
k
�Р11=1(i=1,_2, . .., k).
/=1
Приведем пример матрицы перехода системы, которая
может находиться в трех состояниях:
(0,5 0,2
:?1= 0,4 0,5
0,6 0,3
0,3)
0,1
.
0,1
Здесь р11 =0,5-вероятность перехода из состояния
i = 1 в это же состояние j = 1 ; р21 =0,4-вероятность
перехода из состояния i = 2 в состояние j = 1. Анало
гичный смысл имеют остальные элементы матр ицы.
§ З. Равенство Маркова
Обозначим через РiJ (п) вероятность того , что
в результате п шагов (испытан ий) система перейдет из
состояния i в состояние j. Например, Р25 (10)-вероят
ность перехода за 10 шагов из второго состояния в пятое .
Подчеркнем, что при п = 1 получим переходные веро
ятности
PiJ (1) =PiJ·
Поставим перед собой задачу : зная переходные веро
ятности PiJ• найти вероятности Pif (п) перехода системы
из состояния i в состояние j за п шагов. С этой целью
введе м в рассмотрение промежуточное (между i и j)
состояние r. Другими словами , будем считать, что из
первоначального состояния i за т шагов система перей
дет в промежуточное состояние r с вероятнос тью P;r (т),
после чего за оставшиеся п - т шагов из промежуточного
состояния r она перейдет в конечное состояние j с веро
ятностью Prf (п - т).
По формуле полной вероятности ,
k
Ри(п)=� P;r(т)PrJ(п-т).
r=1
Эту формулу называют равенством М аркова .
Пояснен ие. Введе м обозначен ия: А-интересую
щее нас событие (за п шагов система перейдет из началь
ного состояния i в конечное состояние j), следовател ьно,
Р (А)= Pif (п); Вг (r = 1,2, ..., k)-гипотезы (за т шагов
система перейдет из первоначального состояния i в про
межуточное состоя ние r) , следовательно, Р (Вг) = Р;г (т);
383
Рв, (А)- условная вероятность насту плен ия А при усло
вии, что имела место ги потеза В, (за п-т шагов система
перейдет из промежуточного состо яния r в конечное
состоя ние ;) , следоватеJiьно, Рв, (А) =Р,j (п - т) .
По формуле полной вероятности,
k
Р(А)=�Р(В,)Р8,(А),
r=I
или в принятых нами обозначениях
k
Pij(п) =� Pir (т) Рrj(п-т),
r=I
что совпадает с формулой (*) Маркова .
Покажем, что, зная все переходные вероятности р ij=
=
Р;1(1}, т. е
.
зная матрицу f/'1 перехода из состоя ния
в состояние за од ин шаг, можно найти вероятности Р ;1 (2)
перехода из состояния в состояние за два шага , следо
вател ьно, и саму матрицу перехода �2; по известной
матрице � 2 можно найти матрицу �3 перехода из состоя
ния в состояние за 3 шага, и т. д.
ДействитеJiьно, положив п = 2 , т = 1 в равенстве
Ма ркова
получим
или
k
Ри (п) = � Pir (т) P,j (п-т),
r=I
k
Pi/(2)_:.- � P;, (l)P,1 (2-1),
.
r=I
k
P,j (2)=�PirPrJ•
r=I
Таким образом, по формуле (**} можно найти все
вероятности Ри (2) , следовател ьно, и саму матрицу �2 •
Поскол ьку непосредственное использование формулы (**)
оказывается утомител ьным, а матричное исчисление ведет
к цел и быстрее, напишем вытек ающее из (**) соотноше
ние в матричной форме:
384
fJ'2=fJ'/f'i=ff'f.
Положив п = 3, т = 2 в (*), аналогично получим
fJ'8 = fJ'1ff'2=ff'1ff'�=ff'�.
В общем случае
frп=frf.
Пример. Задана матрица перехода 5>1 = (8:� 8:�) . Найти мат-
!Ц)
(Р11 (2) Р12 (2))
рицу перехода ::J 2 =
Р21(2) Р22 (2) .
Решение. Воспользуемся формулой fr2 = frf:
5>-(
0,4 0,6
) со,4 0,6
)
2- 0,3 0,7
0,3 0,7
•
Перемножив матрицы, окончательно получим
�
(0,34 0,66
)
.г
2= ,0,33 0,67
·
Задачи
1. Задана матрица перехода 5>1 = (8;� 8;�). Найти мат-
рицу перехода 5>2•
оЩ)(
0,60 0 ,40
)
тв.::J2= 0,35 0,65 .
2. Задана матрица перехода 5>1 = (8:1 8:�) . Найти матрицу
перехода fj)3•
·
О
0
(0,244 О,756
)
тв. ::J а= 0 ,252 0,748
•
13-210
ЧАСТЬПЯТАЯ
СЛУЧАЙ НЫЕ ФУ НКЦИИ
Глава двадцать третья
СЛУЧАЙНЫЕ Ф УНКЦИИ
§ t. Основные задачи
Можно выдел ить два основных вида задач, ре
шение которых требует использования: теории случайных
функций.
Пря мая зад а ч а (анализ) : заданы параметры неко
торого устройства и его вероятностные характеристики
(математические ожидания � корреляционные функци и,
законы распределения) поступающей на его «вход» функ
ции (сигнала, процесса); требуется определить характе
ристики на «вых оде» устройства (по ним судят о «каче
стве» работы устройства).
Об ратная зад а ч а (синтез) : заданы вероятностные
характеристики «входной» и «выходной» функций; тре
буется спроектировать оптимальное устройство (найти
его параметры) , осуществляющее преобразование заданной
входной функции в такую выходную функцию, которая
имеет заданные характеристики. Решение этой задачи
требует кроме аппарата случайных функций привлечен ия
и других дисциплин и в настоящей книге не рассматри
вается.
§ 2. Определение случа йной функции
Случайной функцией называют функцию неслу
ча й ного аргумента t, которая при каждом фиксированном
значен ии аргумента является случайной величиной. Слу
чайные функции аргумента t обозначают прописными
буквами Х(t), У(t) и т.д.
Например, если И-случайная величина, то функция
Х (t) = t 2U -случайная . Действительно, при каждом фик-
386
сированном значен ии аргумента эта функция являете
случайной величиной : при t 1 = 2 получим случайну1
вел ичину Х1 = 4U, при t 2 = 1,5 -случайную величин
Х2=2,25Uи т.д.
Для краткости дальнейшего изложен ия введем поняти
сечен ия.
Сечением случайной функции называют случайну1
величину, соответствующую фиксированному значенИ}
арг умента случайной функции. Например , для случайно1
функции Х (t) = t
2
U, приведенной выше, при значения:
аргумента t 1 = 2 и t 2 = 1,5 были получены соответственн•
случайные величины Х 1 = 4U и Х 2 = 2,25U , которые 1
являются сечениями заданной случайной функции.
Итак, случайную функцию можно рассмат
ривать как совокупность случайных вели
чин {X (t)}, зависящих от параметра t . Воз
можно и другое истолкование случайной функции, есл1
ввести понятие ее реализации.
Реализацией (траекторией , выборочной функц ией) слу
чайной функции Х (t) называют несл учайную функцик
аргумента t, равной которой может оказаться случайнаs:
функция в результате испытания .
Таким образом, если в опыте наблюдают случайнук
функцию, то в действительности наблюдают од ну из воз·
можных ее реализаций; очевидно, при повторении опыт�
будет наблюдаться другая реализация .
Реализации функции Х (t) обозначают строчными бук·
вами х1 (t), х2 (t) и т. д. , где индекс указывает номе�:
испытания . Например , если Х (t) = U sin t, где U-непре·
рывная случайная величина, которая в первом испытании
приняла возможное значение и 1 = 3, а во втором испы
тании и 2 = 4,6, то реализациями Х (t) являются соответ
ственно неслучайные функции х1 (t) = 3 sin t и х2 (t) -=
=
= 4,6sint.
Итак, случайнуюфункцию можнорассмат
ривать как совокупность ее возможных
реализаций.
Случайным (стохаст ическим) процессом называют слу
чайную функцию аргумента t, который истолковывается
как время . Например, если самолет должен лететь с за
данной постоянной скоростью , то в действительности
вследст вие возде йствия случайных факторов (колебание
температуры, изменение силы ветра и др.), учесть вл ияние
которых заранее нельзя , скорость измен яется . В этом
387
примере скорость ·самолета -случайная функция от не
прерывно измен яющегося аргумента (времен и), т. е .
скорость есть случайный процесс .
Заметим, что если аргумент случайной функции изме
няется дискретно, то соответствующие ему значения
случайной функци и (случайные величины) образуют слу
чайную последовател ьност ь.
Аргументом случайной функци и может быть не только
время . Например, ес.Тiи измеряется диаметр ткацкой нити
вдол ь ее дл ины, . то вследствие воздействия случайных
факторов диаметр нити изменяется . В этом примере
диаметр -случайная функция от непрерывно измен яюще
гося аргумента (дл ины нити).
Очевидно, задать случайную функцию анал итически
(формулой), вообще говоря , невозможно. В частных слу
чаях, если вид случайной функции известен , а опреде
ляющие ее параметр ы-случайные величины, задать ее
анал итически можно. Например, случайными явл яются
функции:
Х (t) = sin Qt, где Q -случа� ная величина,
Х (t) = U sin t, гд е U -случаиная величина,
Х (t) = U sin Qt, где Q и И-случайные величины.
§ 3. Корреляционная теори я случайных функций
Как известно, при фиксированном значении ар
гумента случайная функция является случайной величи
ной. Для задания этой величины достаточно задать закон
ее распредел ения, в частности од номерную плотность
вероятности. Например, сл учайную величину Х 1 = Х (t1)
можно задать плотн остью вероятности f (х1 ); в теор ии
случайных функций ее обозначают через f1 (х1 ; t1); здесь
индекс 1 при f указывает, что плотность вероятности
од номерная, / 1 -фиксированное значение аргумента t,
х 1-возможное значение случайной вел ичины Х 1=Х(t 1) .
Аналогично, через f1 (х2; t2), f1 (х3; /3) -и т. д. обозначают
одномерные плотности вероятности сечений Х 2 = Х (t2),
Х 1 = Х (t3) и т. д. Одномерную плотность вероятности
·
любого сечения обозначают через f1 (х; t). подразумевая ,
что аргумент t прини мает все допустимые значен ия .
Например, если случайная функция Х (t) распределена
нормально с параметрами тх (t) = 4, (]х (t) = 3, то
38
8
(
(Х- 4/)1
f (х· t)-
е z(з111>• •
1
•
-
з11 1 У.2n
Хотя функция f 1 (х; t) полностью характеризует каж
дое отдельно взятое сечение, нельзя сказать, что она
полностью описывает и саму случайную функцию. (Ис
ключением является случай, когда любой набор сечений
образует систему независимых случайных величин.)
Например, зная лишь одн омерную функцию распределения
сечения, невозможно выполнять над случайной функцией
операци и, требующие совместного рассмотрения совоку п-
ности сечен ий.
,
В простейшем случае совместно рассматривают два
сечения: Х1 = Х (t1) и Х2 = Х (t2), т. е. изучают систему
двух случайных вел ичин (Х1 , Х 2). Известн о, что эту
систему можно задать двумерным законом распределен ия ,
в частности двумерной плотностью вероятности f (х 1 , х2 ).
В теории случайных функций ее обозначают через
f2 (х1, х2; t1 , t2); здесь индекс 2 при f указывает, что
плотность вероятности дву мерная ; t1 и t 2 -значения ар
гумента t; x1 t х 2 -возможные значения случайных вели
чин, соответственно Х1 = Х (t1) и Х2 = Х (t2).
Хотя двумерный закон распределения описывает слу
чайную функцию более полно, чем од номерный (по из
вестному двумерному можно найт1t одн омерный закон ), он
не характеризует случайную функцию исчерпывающим
образом (исключением являются случаи, когда случайная
функция распределена нормально или представляет собой
марковский случайный процесс) .
Аналогично обстоит дело и при переходе к тр ехмер
ным, четырехмерным распределениям и т. д. Поскол ьку
такой способ изучения случайных функций является,
вообще говоря , громозд ким, часто идут по другому пути ,
не требующему знания многомерных законов распределе
ния, а именно изучают моменты, причем ограничиваются
моментами первых двух порядков .
Корреляционной теорией случайных функций называют
теор ию, основанную на изучении моментов первого и
второго порядка . Эта теор ия оказывается достаточной
для решения многих задач практ ики .
В отличие от случайных величин, для которых моменты
являются ч и с л а ми и поэтому их называют числовым и
характеристиками , моменты случайной функции явля
ются неслучайными функциями (их называют
характерист иками случайной функции).
Ниже рассматриваются следующие характеристики
случайной функци и: математическое ожидание (начальный
389
момент первого порядка), дисперсия (центральный момент
второго порядка), кор реляционная функция (кор реля
ционный моме нт).
§ 4. Математическое ожидание случайной
функции
Рассмотрим случайную функцию Х (t). Пр и
фиксированном значении аргумента, например при t = t 1 ,
получим сечен ие-случайную величину Х (t1) с матема
тическим ожида нием М [Х (t1)]. (Полагаем, что математи
ческое ожидание любого сечения существует.) Таким
образом, каждое фиксированное значение аргумента опре
деляет сечен ие -случайную величину , а каждой слу
чайной величине соответствует ее математическое ожи
дание. Отсюда следует, что каждому фиксированному
значению аргумента t соответствует определенное мате
матическое ожидание; это означает, что математическое
ожидание случайной функции есть функция (неслучайная)
от аргумента t; ее обозначают через тх (t). В частном
случае функция тх (t) может сохранять постоя нное зна
чение при всех допустимых значен иях аргумента . Дадим
теперь определение математического ожидания.
Математическим ожиданием слу чайной функции Х (t)
называют неслучайную функцию тх (t), значение которой
при каждом фиксированном значен ии аргумента t равно
математическому ожиданию сечения, соответств ующего
этому же фиксированному значению аргумента :
тх(t)'= м[Х.(t)].
Геометрически математическое ожидание случайной
функции можно истолковать как «среднюю кривую», около
которой расположены другие кривые - реализации; при
фиксированном значен ии аргумента математическое ожи
дание есть среднее значение сечения («средняя ордината») ,
вокруг которого расположены его возможные значения
(ординаты) .
§ 5. Свойства математического ожидан ия
с.лучайной функции
Используя свойства математического ожидания
случайной величины, легко получить свойства математи
ческого ожидания случайной функци и.
390
С в ойств о 1. Математическое ожидание неслучай
ной функции q> (t) равно самой неслучайной функц ии:
м[q>(t)]=q>(t).
Свойство 2. Неслучайный множитель q> (t) можно
вьmосить за знак математического ожидания:
м[q>(t)х(t)]=<р(t)м[х(t)]=q>(t)тх(t).
,с в ойств о 3. Математическое ожидание суммы. двух
случайных функц ий равно сумме математических ожида
ний слагаемых:
М [Х(t)+У(t)]=тх (t)+ти(t).
Следствие. Для того чтобы найти математи ческое
ожидание суммы случайной и неслучайной функций, доста
точно к математическому ожиданию случайной функц ии
прибавит ь неслучайную функцию:
М[Х(t)+q>(t)]=тх(t)+ер(t).
Рекомендуем самостоя тельно доказать приведенные
свойства, учитывая , что при любом фиксированном зна
чении аргумента случайная функция является случай
ной величиной , а неслучайная функция - постоя нной
величиной . Например, свойство 3 доказывается так: при
фиксированном значении аргумента случайные функции
Х (t) и У (t) являются случайными величинами , для
которых математическое ожидание суммы равно сумме
математических ожиданий слагаемых .
Пример. Найти математическое ожидание с:1учайной функции
Х (t) =И cos t, где И -случайная величина, причем М (U) =2.
Решение. Найдем математическое ожидание, учитыва я, что
неслучайный множитель .cos t можно вынести за знак математического
ожидания:
М [Х(t)]=М[И cos t]=cos tM (U)=2cos t.
Итак, искомое математическое ожидание
тх (t)=3cos t.
§ 6. Дисперси я случайной функции
Рассмотрим случай ную функцию Х (t). При
фиксированном значении аргумента , например при t = t1,
получим сечен ие - случайную величину Х (t1) с диспер
сией D [Х (t1)];;
;;:
::
:
О (предполагается , что дисперсия любого
fечения существует) . Таким образом, каждое фиксирован-
391
ное значение аргумента определяет сечен ие - случайную
вел ичину , а каждой случайной величине соответствует
ее дисперсия. Отсюда следует, что каждому фиксирован
ному значению аргумента t соответствует оп ределенная
дисперсия ; это означает, что дисперсия случайной функ
ции есть функция (неслучайная , причем неотрицател ьная )
от аргумента t; ее обозначают через Dx (t). В частном
случае Dx (t) может сохранять постоя нное значение при
всех допустимых значен иях аргумента . Дадим теперь
оп ределение дисперси и.
Диспер сией случайной фун кц ии Х (t) называют неслу
чайную:неотрицател ьную функцию Dx (t) , значение которой
при каждом фиксированном значен ии аргумента t равно
дисперсии сечен ия, соответствующего этому же фиксиро
ванному значению аргумента :
Dx(t)=D[Х(t)].
Дисперсия характеризует степень рассея ния возмож
ных реализаций (кривых) вокруг математического ожи
дания случайной функции ( «средней кривой») . При фик
сированном значении аргумента дисперсия характеризует
степень рассеяния возможных значений (ординат) сечения
вокруг математического ожидания сечения («средней
ординаты») .
Часто вместо дисперсии рассматривают среднее квад
ратическое отклонение случайной функции, которое
определяют по аналогии со средн им квадратическим
отклонением случайной величины.
Средним квадратическ им откл онением случа йной функ
ции называют квадратный корень из дисперсии:
(Jx (t) =VDx (t).
§ 7. Свойства дисперс ии случайной функции
Используя свойства дисперсии случайной вели
чины, легко получить свойства дисперси и случайной
·функции.
С в ойств о 1. Дисперсия неслучайной функции q> (t)
равна нулю:
D[q>(t)]=O.
1
С в ойств о 2. Дисперсия суммы случайной функц ии1
Х (t) и неслуча йной функц ии q> (t) равна дисперсии cлg-i
392
чайной функц ии:
D[Х(t)+<р)t)]=Dx(t).
С в ойств о 3. Дисперсия произведения случайной
функц ии Х (t ) на несл учайную функцию <р (t) равна про
изведен ию квадрата неслучайного множителя на диспер
сию случайной функц ии:
DlX(t)<р(t)]=<р
2
(t) Dx (t).
Рекомендуем самостоятельно доказать приведенные
свойства , уч итывая , что при любом фиксированном зна
чении аргумента случайная функция явл яется случай
ной величиной, а неслучайная функция - постоянной
величиной .
Пример . Найти дисперсию случайной функции X(i) =Usin t,
где И-случайная величина, причем D (U) =6. .
Решен и е. Найдем дисперсию, приняв во внимание, что неслу
чайный множитель sin t можно вынести за знак дисперсии, возведя
его в квадрат:
D[Х(t)]=D[Usint[=sin2 tD(U)=6sin2t.
Итак, искомая дисперсия Dx(t) = 6 sin2 t.
§ 8. Целесообразность введения корреляционной
функции
Математическое ожидание и дисперсия характе
ризуют слу чайную функцию далеко не полно. Можно
привести примеры двух случайных функций, которые
имеют оди наковые математические ожида ния и дисперси и,
но поведение которых различно. Зная лишь эти две
характеристики, в частности, ничего нельзя сказать
о степени зависи мости двух сечен и й. Для оцен ки этой
зависимости вводят новую характеристику - корреляци
онную функцию. Далее покажем, что, зная корреляцион
ную функцию, можно найти и дисперсию; поэтому знать
закон распределения для отыскания дисперсии нет необ
ходи мости . Уже это обстоя тельство указывает на целе
сообразность введения корреляционной функци и.
Прежде чем перейти к дальнейшему изложен ию, введе м
понятие центрированной случайной функции по аналогии
с понятием центр ированной случайной величины (це нтри
рованной случайной вел ичиной называют разность между
случайной вел ичиной и ее математическим ожиданием:
Х=Х-. тх).
393
Центрированной случайной функцией называют раз
ность между случайной функцией и ее математическим
ожиданием:
Х (t) = Х (t)-mx(t).
§ 9. Корреляционная функция случайной функции
Рассмотрим случайную функцию Х (t). При двух
фикси рованных значен иях аргумента, например при t = t 1
и t = t 2 , получим два сечения -систему двух случайных
вел ичин Х (t1) . и Х (t2) с корреляционным моментом
M[X(t1)X(t2)], где ·
Х(t1)=Х(t1)-mx(t1) и Х(t2)=Х(t2)-mx(t2).
Таким образом, каждая пара чисел t 1 и t 2 определяет
систему двух случайных вел ичин, а каждой такой системе
соответствует ее корреляционный момент. Отсюда сле
дует, что каждой паре фиксированных значений t1 и t 2
соответствует определенный корреляционный момент ; это
означает, что корреля ционный момент случайной функ
ции есть функция (неслучайная) двух независимых аргу
ментов t1 и t2; ее обозначают через Кх(t1, t2). В частном
случае значения обоих аргументов могут быть равны
между собой .
При веде м теперь определение корреляционной функци и.
Корреляционной функцией случайной функции Х (t)
называют неслучайную функцию Кх (t1 , t 2) двух незави
симых аргументов t 1 и t 2 , значение которой при каждой
паре фиксированных значений аргументов равно корре
ляционному моменту сечений, соответствующих этим же
фиксированным значениям аргументов:
Кх(t1, t2)=м[Х(t1)х(t2)].
3 а мечани е. При равных между собой значениях аргуме.н тов
t1 = t2 = t корреляционная функция случайной функции равна дис
персии этой функции:
Действительно, учитывая, что
Dx (t)=M[Х(t)- mx (t)]2 =M[Х (t)]2,
получим
394
Таким образом, достаточно знать корреляционную
функцию , чтобы найти дисперсию случайной функции.
Пример. Задана случайная функция Х (/) = Ut, где U -случай
ная величина, причем M(V) = 4, D(V) =IO. Найти: а) корреляцион
ную функцию; б) дисперсию заданной случайной функции.
Решен и е. а) Jiайдем математическое ожидание:
тх (t) =M (Х (t)] =М(Ut)=tM (V)=4t.
Найдем центр ированную функцию:
Х (t)=X(t)-mx (t)= Ut -4t =(U-4) f.
Отсюда
X(t1)=(V-4) t1, X(t1)=(V-4) t 2.
Найдем корреляционную функцию:
Кх (t1. t2)=M(Х(t1)Х(t2>J =М[(U-4) 11 (U-4)/1] =
= 11/2 М [(U-4)2J =t1t2D (U)= l0t1t1•
Итак, искомая корреляционная функция
Кх (/1. ta) = IOt1t 2.
б) Найдем дисперсию, для чего положим t1 = t 11 = t :
Dx (t)=Kx (t, t)= IOtt.
Итак, искомая дисперсия
§ tO. Свойства корреляционной функции '
С в о й ст в о 1. При перестановке аргументов
корреляц ионная функция не изменяется (свойство сим
метрии):
Kx (t1, ta) =Kx (tt, t1)•
Док азатель ств о. По определению корреляционной
функции,
Кх (t1
, t2)=М[Х(t1)Х(t2)],
Кх(t2, t1)=М[Х(t11)х(t1)].
Правые части этих равенств равны (математическое ожи
дание произведения не зависит от порядка сомножителей),
следовательно, равны и левые части . Итак ,
Кх(tl, 12)=Кх(ta, tl).
3амечание 1. Прибавление к случайной функции Х(t) не
случайного слагаемого ер(/) не изменяет ее центрированной функции:
395
то
если
У (t)=X(t)+q>(t).
У(t)=Х(t).
Действительно, математическое ожидание функции У (t)
ту (t)= тх (t)+q> (/).
Следовательно,
У (t)=У(t)-ту (t)=[Х(t)+q>(t)]-[тх (t)+ep(t)] =
=Х(t)-тх (t) =X(t).
Итак,
У(t)=X(t).
С в ойств о 2. Прибавление к случайной функц ии Х (t)
неслучайного слагаемого <р (t) не изменяет ее корреляцион
ной функции:
если
у(t)=х(t)+q>(t),
то
Ку(t1, t2) =Кх(t1, t2).
Докаэательство. В силу замечания 1
Y(t) =X( t) .
Отсюда У (t1) = Х (t1) и У (t2) = Х (t 2). Следовательно.
м[У(t1)v(t2)]=м[Х<t1>х(tz)J.
Итак,
Ку(t1, t11) =Кх(t1, t11).
3амечание 2. При умножении случайнойфункции Х(t)на
неслучайный множитель q> (t) ее центрированная функция умножается
на этот же множитель:
ТО
если
у(t)=х(/)q>(t),
у(t)=х(t)ер(t).
Действительно, математическое ожидание функции У (t)
ту(t)=М [Х(t)ер(t)]=ер(t)тх(t).
Следовательно,
396
У(t)=У(t)-ту (t)=[Х(t) q>(t)J-[тx (t)q>(t)]=
=q>(t) [Х (t)-mx (t))=q>(t)Х(t).
Итак,
у(t)=х(t)<р(t).
С в о й ств о 3. При умножен ии слу чайной функции
Х (t) на неслучайный множитель q> (t) ее корреляц ионная
функц ия умножается на произведе ние q> (t1) q> (t1) :
есл и
у(t)=х(t)q>(t),
то
Ку(t1, ta) =Кх(t1, t2)<f>(t1)<f>(t.).
Док азатель ств о. В силу замечания 2
у(t)=х(t).
Следовательно,
Ку (tl, ta) =M [У (tl) у (ta>J=M {[Х (tl) q> (t1)] [Х (t.) q> (t.)]}.
Вынесем неслучайные множители за знак математического
ожидания :
Ки (t1, t1) =q> (t1) q> (ta) М [Х (t1)Х (t1)]= 1J> (t1) q>(t.)Kx(t1, t1).
Итак,
С в ойств о 4. Абсол ютная величина корреляционной
функц ии не превышает среднего геометрического дисперсий
соответствующих сечен ий:
1Kx(t1' ta)l�VDx(t1)Dx (l11)•
Док азательств о. Известно, что для модуля кор
реляционного момента двух случайных величин справед
ливо неравенство (см. гл . XIV, § 17, теорема 2)
При фиксированных значениях аргументов t1 и !2 значе
ние корреляционной функции равно корреляционному
моменту соответствующих сечений -случайных величин
Х (t1) и Х (t1) . Поэтому неравенство (*) можно записать так:
IKx (t1, t.)l�VDx (t1) Dx (t.).
397
§ 11. Нормированная корреляцион ная функция
Известно, что для оценки степени линейной за
виси мости двух случайны� величин пользуются коэффи
циентом корреляции (см. гл . XIV, § 17, соотношение (*))
rху = μху/(<1х<1у) •
В теории случайных функций аналогом этой характери
стики служит нормированная корреляционная функция.
Очевидно, что каждо й паре фиксированных значений
t 1 и t2 аргумента случайной функции Х (t) соответствует
определенный коэффициент корреляции Kx (t1, t2)/ox (t1)o(t2)
соответствующих сечений -случайных величин Х (t1) и
Х (t 2); это означает, что коэффициент корреляции слу
чайной функции есть функция (неслучайная) двух неза
висимых аргументов t 1 и t 2; ее обозначают через Рх (t1 , t 2).
Дадим теперь определ ение нормированной корреля
ционной функции .
Нормированной корреляц ионной функцией случайной
функции Х (t) называют неслучайную функцию двух неза
висимых переменных t1 и t2 , значение которой при каж
дой паре фиксированных значен ий аргументов равно ко
эффициенту корре.1
1
яции сечен ий , соответствующих этим
же фиксированным значениям аргументов:
<t t) Кх(/1, l2)
Рх1•2=
ox(t1) 0'x(i2) •
Учитывая, что <1x(t1) =VDx (t1) = VKx (t1, t 1) И <1x (t2) =
= VКх <t2• t2), получим
(t t)-
Kx (t1, t2)
Рх1
'
2
-YKx (t1. t1) YKx (t2, t2i 0
Таким образом, зная корреляционную функцию, можно
найти нормированную корреляционную функцию.
Пример. Найти нормированную корреляционную функцию слу.
чайной функции Х (t) по ее известной корреляционной функции
Кх (t1, l2) =5<;Os (t2-t1).
Реше н и е. Искомая нормированная корреляционная функция
398
Нормированная корреляционная функция имеет те же
свойства, что и корреляционная функция (см. § 10) , при
чем свойство 4 заменяется на следующее: абсолютн ая
вел ичин а нормированной корреляционной функции не
превышает еди ницы:
\Рх(t1, t2)\�1.
Это свойство следует из того, что при фиксирова нных
значениях аргументов значение нормиро ванной корреля
ционной функции равно коэффициенту корреляции двух
случайных величин - соответствующих �чений, а абсо
лютная величина коэф
ф
ициента корреляции не превы шает
единицы (см. гл . XIV, § 17, замечание 3).
Легко видеть из (•) или (**), что при равных значе
ниях ар гументов нормированная корреляционная функция
равна еди нице: Px(t, t) = 1.
Очевидно, нор мирова нная корреляционная функция
имеет тот же вероятностный смысл, что и коэффициент
корреляции: чем ближе модуль этой функции к еди нице,
тем линейная связь между сечениями сильнее; чем ближе
модуль этой функции к нулю, тем эта связь слабее.
§ 12. Взаи мнак корреляционнак функци я
Для того чтобы оценить стеnень. зависимости
сечений двух случайных функций, вводя т характери
стику - взаимную корреляционную функцию.
Рассмотрим две случайные функции Х (t) и У (t). При
фиксированных значен иях аргумента, например t = t1 и
t = t 2 , получим два сечения - систему двух случайных
величин Х (t1) и У (t2) с корреляционным моментом
М [Х (t1) У (t1)]. Таким образом, каждая пара чисел t i
и t 1 определяет систему двух случайных величин, а каж
дой такой системе соответствует ее корреляционный мо
мент. Отсюда следует, что каждой паре фиксированных
значен ий t 1 и t 2 соответствует опреде ленный корреляци
онный момент; это означает, что взаимная корреляцион
ная функция двух случайных функций есть функция (не
случайная) двух незави симых аргументов t 1 и t 2; ее
обозначают через R xu (t1 , t 2). Дадим теперь определение
взаимной корреляционной фу нкции.
Взаимной корреляц ионной функцией двух сл учайных
функций Х (t) и У (t) называют неслучайную функцию
Rxu (t1, t2) д�ух независимых аргументов t1 и t 1, значе-
399
ние которой при каждой паре фиксированных значений
аргументов равно корреляционному моменту сечений обеих
функций, соответствующих этим же фиксированным зна
чени ям аргументов:
Rxy (tl, ta) = М [Х (t1) У (t2)].
Коррелированным и называют две случайные функци и,
если их взаимная корреляционная функция не равна
тождественно нулю .
Некоррелированными называют две случайные функции,
взаимная корреляционная функция которых тождественно
равна нулю.
Пример. Найти взаимную корреляционную функцию двух слу
чайных функций Х (t) = tU и У (t)= t2U , где U -случайная величина,
причем D (И)=З.
Реше ние. Найдем математические ожидания:
тх (t)= М (tU)= tmu, т11 (t)= М (t2U)= t2mu..
Найдем центрирова нные функции:
Х (t)=X(t)-mx (t) = tU -tmu= t (U-mu),
У(t)= Y (t)-my (t)=t2U-t2mu =t2 (U-mu)·
Найдем взаимную корреляционную функцию:
Rxy (11, t2)=М [Х (t1) У (/2)]=М{[t1 (U-mu)J [t� (U -ти>]}=
= t1t:М[(U-mu)2]= t1t: D(U)=3/1t:.
Итак, искомая взаимная корреляционная функция
Rxy(t1, ts) = Зtit�.
§ 13. Свойства взаимной корреляционной
функции
С в ойств о 1. При одновременной перестановке
индексов и аргументов взаимная корреляционная функция
не изменяется:
Rxy (tl, ta) = Ryx <t2• ti).
С в ойств о 2. Прибавленив к случайным функциям
Х (t) и У (t) неслучайных сл агаемых, соответственно q> (t)
и 'Ф (t), не изменяет их взаимной корреляц ионной функции:
есл и
Х1(t)=Х(t)+q>(t) и У1(t)=У(t)+'Ф(t),
то
400
С в ойств о 3. При умножен ии случайных функций
Х (t) и У (t) на неслучаЦные множител и. соответственно
qJ (t) и 'Ф (t), вза имная корреляционная функция умно
жается на произведение qJ (t1) 'Ф (t2):
есл и
то
Rx,y, (tl, /2) =Rxy (/1, t2) {/J(t1)'\
\
: (/2).
С в ойст в о 4. Абсолютная вел ичина взаимной корре
ляционной фу нкции двух сл учайных функций не превы
шает средttего геометрического их дисперсий:
1Rxy (tl, tв)1�VDx(t1)Dy(t2).
Доказательства этих свойств аналогичны доказатель
ствам свойств корреляционной функции.
§ 14. Нормированная взаимная корреляционная
функция
Наряду с взаимной корреляционной функцией
для оценки степени зависимости сечен ий двух случайных
функций польз уются ха рактеристикой - нормированной
взаимной коррел яционной функцией.
Нормированной вза имной корреляц ионной фу нкцией
двух случайных функций Х ( t) и У (t) называют нес.лучай
ную функцию двух независимых аргументов t 1 и t 2 :
(i i)-
Rxy (/1, 12)
-
Rxy (/1, 12)
Рху 1
'
2
-
УКх (/1, /1) YKy (t2, 12) - YDx(i1) Dy (t2) .
Нормированная взаимная ·кор реляционная функция
имеет те же свойства , что и взаимная корреляционная
функция (см . § 13), причем · свойство 4 заменяется сле
дующим свойством: абсол ютная вел ичина нормированной
взаимной корреляционной функции не превышает единицы :
1Рху(t1, t2)\�1.
Пример. Найти нормированную взаимную корреляционную функ
ци!,О двух случайных функций Х (t) =tU и У (t)=t2u, где U-слу
чаиная величина, причем D (U) = 3.
Решение. Ранее при решении примера (см. § 12), в котором
заданы те же функции, что и в настоящем примере, были найдены
функции:
2о
о
Rxy (l1, 12)=311/2, X(i) =t(U-mu), Y(t) =t2 (U- mu).
401
Пользуясь этими результатами, легко найдем корреляционные функции:
Kx (t1, ta)=Зt1t2, K11 (t1, tа) =ЗtИ
и нормированную функцию:
Rx11 (t1, f2)
Pxy (t1, /2)
УКх (t1. /1) УК11 (tz, /2)
1.
Итак, искомая нормированная взаимная корреляционная функция
Рху (/1, 12) = 1.
Заметим, что функция У (/) связана с Х (t) линейной функци
ональной зависимостью:
У (t) =t2U =t (tU) =tX (t).
§ 15. Характеристики суммы случайн ых функций
Пусть Х (t) и У(t) -случайиые функции . Найдем
хар актеристики суммы этих функцt1·й по известным ха
рактеристикам слагаемых .
Теорема 1. Математи11
1i!
ское ожNoшtие суммы двух
сл учайных функций равно сумме математических ожи
даний слагаемых :
если
z(t)=х(t)+у(t).
то
mz(t)=тх(t)+m11(t).
Эта теорема уже была приведена ранее (см. § 5, свой
ство З); здесь она помещена для систематизации изло
же ния. Методом математической индукции теорему можно
обобщить на п слагаемых .
С л едств и е. Математическое ожидание сум мы слу
чайной функции Х (t) и случайной вел ичины У равно сумме
их математических ожидан ий:
если
z(t)=х(t)+У,
то
mz(t)=mx(t)+тy.
3 аме ч а н ие 1. Центрированная функция суммы случайных .
функций равна сумме центрированных слагаемых:
ТО
402
если
Z (t) =X(t)+Y (/),
t(t)=х(t)+у(t).
Действительно,
Отсюда
i (t)= Z (t)-mz (t)=[X (t)+Y (t)]-[mx (t)+m11 (t)] =
= [Х(t)- тх (t)]+[У(t)-m11 (t)].
Z(t) =X<t>+Y(t).
Теорема 2 . Корреляц ионная функция суммы двух кор
релированных случайных функц ий равна сумме корреля
ционных функций слагtlемых и взо. и.мной корреляционной
функц ии, которая прибавлмтся дважды (с разным по
рядком следования аргgМRн.тов):
есл и
z(t)=х(t)+у(t),
то
Kz(tl. t2) =Кх(tl. t2)+Ку(tl• t,.)+Rxy Ui. t2)+Rx11(t2• t,).
Док азатель ств о. По определ ению корреляцион-
ной функции,
.
Kz (tl• t2) =М [Z(t1)Z(ta)].
В силу замечания 1
z(t) = .х (t)+у(t).
Следовател ьно,
z (t1> i (t2) = [k (t1) +У<t1>J [х (t2) + У (t2)].
Выполнив умножение, приравняем математические ожи
дания обеих частей равенства:
М[Z(t1)Z(t11)]=М [Х(t1)Х(t11)]+м[У(t1)У(t11)]+
+м[Х(t1)У(t2)]+м[У(t1)k(t2)].
По определению корреляционной и взаимной корреля
ционной функций имеем
Kz (t1, t2) =Kx(t1, t,.) +K1
1
(t1, t2) + Rxy (ti, t2) +R11x(t1, tв)•
Учитывая, что R11x (t1, t2) = Rxy (t2, t1) (см. § 13, свой
ство 1), окончательно получим
Kz (tl, t2)=Kx (tl, t2)+K1
1
(tl, t2)+Rxy(tl. t2)+Rxy (t2. t1). ( *)
Методом математической индукции теорему можно
обобщить на п попарно коррелированных случайных
фу нкций:
. 403
если
то
п
Z(t)=�Х;(t),
i=1
·
n
Kz(ti,t2)=�Кх.(t1, tz)+�Rx.y .(tl, tz),
i=l
t
i.;=j t/
где индексы i, j второго слагаемого есть размещения
чисел1,2, ...,п,взятыхподва.
Следствие 1. Корреляционная функция суммы двух
некоррел ированных случайных функций равна сумме кор
реляционных функций слагаемых :
есл и
z(t)=х(t)+у(t),
то
Kz (t1, t2) =K"(t1, t2) +Ku(t1, t2).
Доказательство. Так как функции X (t) и Y(t)
не коррелированы, то их взаимные кор реляционные функ
ции равны нулю. Следовательно, соотношение ( *) при
мет вид
K:i(tt, t2) =Кх(ti, t..
.
) +Ку (tl, ta>·
Методом математической индукции следствие можно
обобщить на п попарно некоррелированных функци й.
3 а мечани е 2. В частности , при равных значениях аргумен
тов t1=i2=t получим Kz(t, t)=Kx(t, t)+Ky(t, t), или
Dz (t) =Dx (t)+Dv (t).
·
Итак, дисперсия суммы двух некоррелирован
н ы х случайных функций равна сумме дисперсий
елагаемых.
След ствие 2. Корреляционная функция случайной
функции Х (t) и некоррелированной с ней случайной вел и
чины У равна сумме корреляционной функции случайной
функции и дисперсии случа йной вел ичины:
если
Z(t)=X(t)+Y,
то
Kz (t1, t1) =K"(t1, t1) +Dv.
Поя снен и е. Случайную величину У можно считать
случайной функцией, не изменяющейся при изменении
404
аргумента t:У (t) = У при всех значениях t. Тогда У (t) =У
и, следовательно,
Ки(t1, t2) =М[УУ]=М[У2] =Du·
Пример. Заданы случайные функции Х (t) =tU, У (t) = t2U, где
U и V-некоррелированные случайные величины, причем М (U)=3,
М (V) =6, D(U) =0,2, D(V) =5. Найти: а) математическое ожида
ние; б) корреляционную функцию; в) дисперсию суммы Z (t) = Х (t) +
+у(t).
Решение. а) Найдем математическое ожида ние суммы задан
ных функций. По теореме 1
mz (t) =mx (t) +my(t)= M (tU) +M (t2V) =tM (U) +t2M (V) =Зt+6t2•
б) Найдем корреляционную функцию суммы Z (t). Так как слу
чайные величины U и V не коррелированы, то их . корреляционный
момент равен нулю:
М [(U -3) (V -6)) =0.
Следовательно, взаимная корреляционная функция
о
,'j.
2
Rx11 (t1, t2)=M (X(t1)
r
(t2)] =i1i2M ((U -З) (V -6)J =O,
а значит, функции Х (t) и У (t) не коррелированы. Поэтому искомая
корреляционная функция в силу следствия 1
Kz(t i. t2)=Kx (t1, t2)+Ku(t1. t2).
Выполнив выкладки, окончательно получим
Kz (t1. t2)=0,2t1t 2 +ыИ.
в) Найдем искомую дисперсию:
Dz (t) = Kz(t. t) = 0,2t2 +5t4•
§ 16. Производная случайной· функци и
и ее характеристики
При изучении случайных величин встречалось
понятие сходимости по вероятности. Для изучения слу
чайных функций необходимо ввести среднеквадратичную
сходимость .
Говорят, что последовательность случайных величин
Х1, Ха, ..., Хп, ... сх одится в среднеквадратичном к слу
чайной величине Х, если математическое ожидание квад
рата разности Хп -Х стремится к нулю при ti --
-+-
oo:
М[(Хп-Х)2]=0.
Случайную величину Х назы вают пределом в среднеквад
ратичном последовательности случайных величин Хн
Ха,•�•,Xn•••. ИПИШУТ
Х = l.i.m .Xn.
Замети м, что из сред неквадратичной сходимости сле
дует сходимость по вероятности; обратное утверждение,
вообще говоря, неверно.
Случайную функцию Х (t) называют дифферен цируе
мой, если существует такая функция Х' (t) (ее называют
производной), что
lim м[X(t+Лt)-X(t)_X'(t)]2=0. .
дt..
..
о
Лt
Итак, производной случайной функции Х (t) называют
среднеквадрати.чный предел отношения приращен ия функ
ции к приращению ар гумента Лt при Лt -0:
х'(t)=l .
Х(t+Лt)-X(/)
.1.m .
Лt
•
дt-+0
Пусть известны характеристики случайной функции .
Как найти хар актеристики ее производной? Ответ на этот
вопрос дают тео ремы , приведенные ниже, причем рас
с матр и в а ютс я только среднеквадратично
дифф еренцируемые случайн·ы е функции.
Теорема 1. Математическое ожидание производной
Х' (t) =х от случайной функции Х (t) равно производной
от ее математического ожидания:
т;(t)=т;(t).
Док азательств· о . По определению производной,
х'(t)=l .
Х(t+Лt)-X (t)
.1
.
m.
Лt
•
Лt -+0
Приравняем математические ожидан и я обеих частей ра
венства , а затем изменим порядок нахождения матема
тического ожидания и предела (законность изменения по
рядка этих операций примем без доказательства):
М[Х'(t)]= limМ[ Х(t+Лt)-X(t) ].
дt-+0
Лt
Используя свойства математического ожидания, получим
М[Х'(t)]= Hmтх (t+Лt)-mx (t)=т;(t).
Лt-.
.
О
Лt
Итак, тх (t) = т;(t).
406
3 а мечани е J. По существу доказано, что для среднеквадра
тиЧl!ски дифференцируемых случайных функций операции нахождения
математиЧl!ского ожидания и дифференцирования можно менять ме
стами. Действительно, запишем доказанную теорему так:
М [Х' (t)J={M {Х (/)]}'.
Мы видим, что в левой части равенства сначала находят производ
ную, а затем математическое ожидание; в правой части-наоборот.
Пример 1. Зная математическое ожидание тх (t)= t2 + t случай
ной функции Х (t), найти математическое ожидание ее производной.
Р е ш е н и е. Искомое математическое ожидание
т. (t)=т�(t) =[t2 +t]' =2t+I.
х
3 а м е ч а н и е 2. Если первая производная дифференцируема, то
производную от первой производной называют второй производной
и обозначают через Х" (t). Аналогично определяют производные более
высоких порядков.
3 а мечани е З. Теорему 1 можно обобщить: математическое
ожидание производной порядка п равно производной этого же по
рядка от математического ожидания случайной функции.
Теорема 2 . Корреляционная функция производн ой от
сл учайной функц ии Х (t) равна второй смеша нной произ
водной от ее корреляционной функц ии:
к.(t t)=д2КхU1.t
2)
х1•2
дt1дt2
•
Док азательств о. По определению корреляцион
ной функции,
К;(t1, t2)=м[Х'(t1)Х'(t2)].
Представим произведение производных как вторую
смешанную частную производную :
Х'(t)Х'(t)=а
2
rx <11> х<12>1
1
2
� 1�2
•
Следовател ьно,
к.(t t)=м{а2rx(11)х(t2>I}
х1•2
дt1дi2
•
Изменив пор ядок операций нахожд ения математического
ожида ния и дифференцирования (на основании замеча
ния 1 ), окончательно получим
Итак,
к.(t t)=д2М(Х(11)Х(t2)J=д2Кх(t1, t2)
х1•2
д/1 дt2
дt1дt2
•
' 407
Пример 2. Зная корреляционную функцию Кх (t1, t2) = 2t1t2+t�t:
случайной функции Х (t), найти корреляционную функцию ее произ
водной .
Реше н и е. Найдем частную производную от заданной корре
ляционной функции по i1:
дКх (t1. t2) д (2t1t2 +t�t�)
11
д/1
дt1
2t2+ 211/2 .
Найдем частную производную от полученного результата по t2:
д2
Кх (11. t2) а (212 +2t1Ф
дt1 дt2
дt2
2+411/2.
Искомая корреляционная функция
к. (t1. t2)=2+4t1t2.
х
Теорема 3. Взаимная корреляционная функция случай
ной функции Х (t) и ее производной Х ' (t) = х равна част
ной производной от коррел яционной функции по соот
ветствующему аргументу [если индекс х при R записан
на первом (втором) месте , то дифференцируют по пер
вому (второму) аргументу]:
а) R.(tt)=дКх(/1.12)
хх 12
д/2
'
б) R· (t t)=дКх(t1. t2)
хх1•2
д/1
•
Дока затель ство.
а) По определению взаимной корреляционной функ-
ции двух функций Х (t) и Х' (t) =х,
о
о,
[0
dX (t2) ]
R(t1,t2)=М[Х(t1)Х(t2)]=М Х(t1) dtz
=
_
М {а rx (ti) х(t2)J}
-
дt2
•
Изменим порядок операций дифференцирования и
нахождения математического ожидания:
Итак, искомая взаимная корреляционная функция
R.(tt)=дКх(t1.11)
хх 111
дt"
•
б) Доказываетс я аналогично.
408
Пример 3. Задана корреляционная функция Кх (t1, t2) = t1t2et,+t1
случайной функции Х (/). Найти взаимную корреляционную функ
цию R . (t1, t2).
хх
Решение. Воспользуемся формулой
R.(t t)=дКх(ti.t2)•
хх1.2
дt2
Выполнив дифференцирование заданной корреляционной функции по
12. получим
дKx(t1, t2)_1 t+t (t +l)
дt2
-
ie'•2
•
Итак, искомая взаимная корреляционная фуню.1.ия
R . (t1. t2)=t1et,+t. (t2+ 1).
хх
§ 17. Интеграл от случа йной функции
и его характеристики
· Интегралом от случа йной функции Х (t) по
отрезку [О, t] называют предел в среднеквадратическом
интегральной суммы при стремлении к нулю частичного
интер вала Л si максимальной длины (переменная интегри
рования обозначена через s, чтобы отличить ее от пре
дела интегр ирования t):
t
Y(t)=l.i.m.�X(si)Лsi= S X(s)ds.
дs; _.о
о
Пусть известны характеристики случайной функци и.
Как найти характеристики интеграла от случайной функ
ции? Ответ на этот вопрос дают теоремы , приведе нные
ниже.
Теорема 1. Математическое ожидание интеграла от
случайной функции равно интегралу от ее математи
ческого ожидания:
есл и
то
t
У(t)=SХ(s)ds,
о
t
ти(t)=Sтх(s)ds.
о
Док азатель ст� о. По определению интеграла,
У(t)=l.i.m .�Х(s;)Лs;.
Лs; _.о
409
Приравняем математические ожидания обеих частей ра
венства:
М[У(t)]=М[I.i.m.�Х(s;)Лs;] .
дs; -+0
Измен им порядок нахождения математического ожи
дания и предел а (законность изменения порядка этих
операций примем без доказател ьства):
Воспользуемся теоремой сложен ия математических
ожидан ий:
М [У (t)]= lim �тх (s;) Лs;.
Лs;->- 0
Учитывая , что �тх (s;) Лs;- интегральная сумма ·
функции тх (s), окончательно получим
t
ту(t)=Sтх(s)ds.
о
3 а мечани е. По существу доказано, что операции нахождения
математического ожидания и среднеквадратичного интегрирования
можно менять местам и. Действительно, запишем доказанную тео-
рему так:
Видим, что в левой части равенства сначала находят интеграл.
а затем математическое ожидание; в правой части - наоборот.
Пример 1. Зная математическое ожидание тх (t) = 2t + 1 случай
ной функции Х (t), найти математическое ожидание интеграла
t
У(t)=�Х(s)ds.
о
Решение. Искомое математическое ожидание
t
t
my (t)=S тx (s)ds= S (2s+l)ds=12+1.
о
о
Теорема 2. Корреляционная функция интеграла от
случайной функции Х (t) равна двойному интегралу от
ее корреляционной функц ии:
410
есл и
то
1
,
У(t)=SХ(s)ds,
о
t1 t.
Ку(t1, t.) = S SКх(s1, s1)ds1 ds••
оо
Док азательств о. По определению корреляциои·
ной функции,
Ку(t1, t1) = М[У(t1)У(t1)].
Центр ированная случайная функция
или
t
t
У(t)=У(t)-my(t)=SХ(s)ds-Sтх(s)ds=
t
.
о
о
= S[Х(s)-тх(s)]ds,
о
t
У(t)=SХ(s)ds.
о
Поскольку под знаком определенного интеграла перемен
ную интегрирования можно обозначать любой буквой ,
обозн ачим перемен ную интегрирования в одн ом интеграле
через s1, а в другом - через s1 (чтобы отличить перемен
ные интегрирования и пределы интегрирования):
lt
У(t1) =SХ(s1)ds1,
о
Следовательно,
t.
У(t2) =SХ(s1)ds1•
о
t,
t,
t, t.
У(t1)У(t11)=SХ(si)ds1Sk(s1)ds1= SSХ(s1)k(s2)ds1dsa.
G
О
Оо
Приравняем математические ожидан ия обеих частей ра·
венства:
М[У(1,)У(t,)]=МП1k(s1)Х(s,)ds,ds,] .
:411
Изменив п орядок операций нахождения математичес
кого ожидания и интегрирования , окончател ьно получим
t, t.
Ки(t1, is) =S SКх(s1, s2)ds1 ds2•
оо
Пример 2. Зная корреляционную функцию Кх(/1, /2) =4/111 +
+ 9t�t� случайной функции Х (t), найти корреляционную функцию
t
интеграла У (t) = S Х (s) ds.
о
Решение. Используя формулу (**), найдем
t.t1
Ky (t1, 1 2)=S S (4s1s2+9s� s�) ds1 ds2•
оо
Выполнив интегрирование, получим искомую корреляционную функ
цию:
Ky (t1, t2)=t�t� (1 +t1t2).
Теорема 3. Взаимная корреляционная функция случай
-1
ной функции Х (t) и интеграла У (t) = S Х (s) ds равна
о
интегралу от корреляционной функции случайной функ
ции х (t):
t,
а)Rxy(t1, t2)=SКх(t1, s)ds;
о
tt
б) Ryx(t1, t2)=SКх(s, t2)ds.
о
Док азательств о. а) По определе нию взаимной
корреляционной функци и,
Rxu (t1, t2) = М[Х<t1)У(t2)].
(***)
В силу соотношения (*) центрированная функция
t
У(t)= SХ(s)ds,
о
следовательно,
t.
У(t1)=S ·Х(s)ds.
о
412
Подставим правую часть этого равенства в (***): .
R.,(t" t,)�м[Х(t,)JХ(s)ds]�МПХ(t,)Х(s)ds].
Операции нахождения математического ожидания и
интегрирования можно менять местами (см. § 17, заме-
чание) , поэтому
t.
Rxy (t1, t2) =SM[X(t1)X(s)]ds,
о
или окончател ьно
t.
Rxy(t1, t2)=SКх(t1, s)ds.
о
б) Доказывается аналогично.
Пример 3. Задана корреляционная функция Кх (ti, t2)=3t1t1
случайной функции Х (t). Найти взаимную корреляционную функцию
t
Rxy (t1, t2) случайной функции Х (t) и У (t)= S Х (s) ds.
о
Решение. Используя формулу
t.
Rx11(t1. f2)=SKx(t1. s)ds,
о
получим искомую корреляционную функцию:
'·
Rx11 (t1, t 2)=3/1 S sds=(3/2) t1t�.
о
§ 18. Комплексные случайные величины
и их числовые характеристики
В дальнейшем кроме действительных рассматри
ваются и комплексные случайные функции. Эти функции
и их характеристики определ яют по аналогии с комплекс
ными случайными вели чина ми, поэтому начнем изло
жение с комплексных величин .
Комплексной случайной вел ичиной называют величину
Z = Х +Уi , где Х и У -действительные случайные ве
личины.
413
Сопряженной случайной величине Z :а:
::
::
Х+Уi назы
вают случайную величину Z = Х - Уi.
Обобщим определен ия математического ожидания и
дисперсии на комплексные случайные величины так, чтобы ,
в частности , при У = О эти характеристики совпали с ра
нее введенными характеристиками действительных слу
чайных величин, т. е . чтобы выполнялись требования :
тz=тх,
(*)
Dz=Dx•
(**)
Математическим ожиданием комплексной случайной
величины Z = Х + Уi называют комплексное число
тz=тх + туi.
В частности, при у = О получим тz =тх, т. е требо
вание (*) выполняется .
Дисперсией комплексной случайной величины Z назы
вают математическое ожидание квадрата модуля центри-
рованной величины i:
Dz=M[I Z Р1].
В частности, при У =О получим Dz=М[(Х)2] =Dx, т. е.
требование (**) выполняется .
Учитывая, что математическое ожидание суммы равно
сумме математических ожиданий слагаемых , имеем
Dz=М[1z/2] =м[(Х)2+(У)2] =м[(Х)2]+М[(У)2] =
= Dx+Du•
Итак, дисперсия комплексной случайной вел ичины равна
сумме дисперсий ее действительной и мнимой частей :
Dz=Dx+Du•
Известно, что корреляционный момент двух равных
случайных величин Х 1 = Х 2 = Х равен дисперсии Dх -
положительному действител ьному числу . Обобщим опре
деление корреляционного момента так, чтобы , в частности,
корреляционный момент двух равных комплексных слу
чайных величин Z1 = Z2 = Z был равен дисперсии Dz -
положительному действительному числу, т. е. чтобы вы·
полнялось требование
414
l(орреляционным моментом двух комплексных сАgчай
ных вел ичин называют математическое ожидание произ
ведения отклонения од ной из величин на сопр яженное
отклонение другой:
μz, z, = М [(Z1 - тz) (Z2-тz2)]== M[Z1 Z1].
В частности, при Z1 = Z2 = Z, учитывая, что произведение
сопряженных комплексных чисел равно квадрату их мо
дуля , получим
...
.
о
μzz =M[ZZ]==M[1Z/2] =Dz,
т . е . требование (***) выполняется .
Корреляционный момент комплексных случайных ве
личин Z1 =-Х1+Y1i и Z2 = Х2+Y2i выражается через
корреля ционные моменты действительных и мнимы х ча
стей этих величнн следующей формулой:
μz,z, = μХ1У1 +μх,у2 + (μх,у1 -μх1у.} i.
(****)
Рекомендуем вывести эту формулу са.мостоятельио.
§ 19. Комплексные случайн ые функции
и их характеристики
Ком плексной слу-ю,йной функцией называют
функцию
z(t) =х(/)+у(t) i,
где Х (t) и У (t)-действительные случайные функции
действительного аргу мента t.
Обобщим определения математического ожидания и
дисперсии на комплексные случай ные функци и так, чтобы,
в частности, при У = О эти характеристики совпали с ра
нее введенными характеристиками для действительных
случайных функций, т . е . чтобы выполнялись требования :
тz(t)=тх(t),
Dz(/)=Dx(/).
Математи.ч е�ким ожиданием к<Jм nлексной случайной
функции Z (t) = Х (t) + У (t) i называют комплексную
функцию (неслучайную)
тz(t)=тх(t)+ту(t)i.
'415
В частности, при У = О получим тz (t)= тх (t), т. е. тре
бование ( *) выполн яется .
Диспер сией комплексной случайной функции Z (t) на
зывают математическое ожидание квадрата моду ля центри
рованной функции Z
0
(t):
Dz(t)=М[/i(t)j2].
В частности, при У=О получим Dz(t)=М[Х(t)]2 =
=Dx (t), т. е . требование (**) выполняется.
Учитывая , что математическое ожидание суммы равно
сумме математических ожиданий слагаемых , имеем
Dz(t)=М[1i(t)12] =М{[Х(t)]2+[У(t)]2} =
= М[Х(t)]2+М[У(t)]2 = Dx(t)+Dy(t).
Ита к, дисперсия комплексной случай ной функции равна
сумме дисперсий ее действи тельной и мнимой частей:
Dz(t)=Dx(t)+Dy(t).
Известно, что корреляционная функция действитель
ной случайной функции Х (t) при разных значениях аргу
ментов равна дисперсии Dx (t). Обобщим оп ределение
корреляционной функции на комплексные случайные
функции Z (t) так, чтобы при равных значениях аргу
ментов t1 = t
2
= t корреляционная функция Kz (t , t) была
равна дисперсии Dz (t), т. е. чтобы выполнялось требо
вание
Корреляционной функцией комплексн ой случайной
функции Z (t) называют корреляционный момент сечений
z01) и i(t2):
В частности , при равных значениях аргу ментов
Kz(t, t)=м[Z(t)z(t)]=м[1z/2] =Dz(t),
т. е. требование ( ***) выполняется .
Если действительные случайные функции Х (t) и У (t)
коррелированы, то
416
Kz(t 1, i
2
)=Kx(i1, t
2
)+Ky (t1, t
2
)+[Rxy(t 2
, i1)]
-Rxy (t1, t
2
)] i;
если Х ( t) и У ( t) не коррелированы, то
Kz (tl, t2)=Kx(t1, t2)+Ky (tl, t2) .
Рекомендуем убедИться в справедливости этих формул,
используя соотношение ( **·* ·х-) предыдущего параграфа.
Обобщим определение взаи мной коррел яционной функ
ции на комплексные случайные функции Z1 (t) = Х1 (t) +
+У1(t)i и Z2(t)=Х2(t)+У2(t)i так, чтобы, в частности,
при У1 = У2 = О выполнялось тре.бование
Rz,z, (tl, i2) = Rx,x, (tl, i2).
(**" **)
Взаимной корреляц ионной функцией двух комплексных
случайных функций называют функцию (неслучайную)
Rz,z, (tl, t2) = м [il U1)Z2 (t2)].
В частности, при У1 = У2 = 0 получим
Rz,z. (t1, t2)=M [X1 (t1) X2U2)] = Rx,x, (t1, i2),
т. е. требование (****) выполняется.
Взаимная корреляционная функция двух комплексных
случайных функций выражается через взаимные корре
ляционные функции их действительных и мнимых частей
следующей формулой :
Rz,z2 (i1, i2) =Rx,x, (t1, i2) + Ry,y2 (t1, 1 2)+
+ [Rx,y, (t2, i1)-Rx, У• (tp t2)] i.
Рекомендуем вывести эту формулу самостоятельно.
Задачи
1. Найти математическое ожидание случайных функций:
а) X(t) =Ut2, где И-случайная величина, причем M (U) = 5;
б) Х(t)=U cos2/+Vt, где U и У-случайные величины, причем
М(U)=3, М(V)=4.
Отв. а) тх(t)=5t2; б) тх (t)=3 cos2t+4t.
2. Задана корреляционная функци я Кх (11, /2) случайной функ
ции Х (t). Найти к9рреляционные функции случайных функций:
а)У(t)=Х(1)+t; б) У(t)=(i+!)Х(t); в) У(t)=4Х(t).
Отв. а) К.у(t1, 12)=Kx(t1, 12); б) K11(t1, t2)=(t1+1)(t2+1)X
ХКх (t1, f2); в) К.у(/1, 12)=16/(х(t1, f2).
3. Задана дисцерсия D;c (/) случайной функции Х (/). Найти
.1.исперсию случайных функций: а) У (t) = Х (t)+ et; б) У (t) = tX (t).
Отв. а) Dy(i)=Dх(t); б) Dy(t)=t2Dх(t).
4. Найти: а) математическое ожидание; б) корреляционную функ
цию; в) дисперсию случайной функции Х (t) = U sin 21, где U - слу
чайная величина, причем М (U) =З, D(U) =6.
14-210
·4 17
Отв. а) тх (t)=3 sin 2t;
б) Кх(ti, t1) =6sin2t1sin2t1;
в) Dx (t) =6sin2 2t.
5. Найти нормированную корреляционную функцию случайной
функции Х (t), зная ее корреляционную функцию Кх (t1, t 1) =
..
..
3 cos (t2 -t1).
Отв . Px(t1, t 2)=cos (t1 -t1).
6. Найти: а) взаимную корреляционную функцию; б) нормирован
ную взаимную корреляционную функцию двух случайных функций
X
(t)=(t+I) U и Y(t) =(t2 +l)U, где И-случайная величина,
причем D (U)=7.
Отв. а) Rx11 (t1, /2)=7(t1+I) bl+1); б) Pxy (ti, t2)=l •
..
7. Заданы случайные функции Х (t) =(t - 1) U и У (t) =t2U,
где И и V - некоррелированные случайные величины, причем
М(И) =2 , M(V) =3, D(U)= 4, D(V) =5. Найти: а) математическое
ожидание; б) корреляционную функцию; в) дисперсию суммы Z(t) =
= X(t)+Y(t) .
Указа ние. Убедиться, что взаимная корреляционная функция
заданных случайных функций равна нулю и, следовательно, Х (t) и
У (t) не коррелированы.
Отв. а) тz (t)=2(t-l)+3t2; б) Kz (t1, t1)=4(t1- l)(f1- l)+
+ бtИ; в) Dz (t)=4(t- 1)2 +6t4•
8. Задано математическое ожидание тх (t) = t2 +1 случайной
функции Х (t). Найти математическое ожидание ее производной.
Отв.т .(t)=2t.
х
9. Задано математическое ожидание тх (t) =t
1
+3 случайной
функции Х (t). Найти математическое ожидание случайной функции
f'
(t)=tX'· (t)+t3•
Отв. т11 (t) =t2 (t+2).
10. Задана корреляционная функция Кх (t1, / 2) =e-<t. - t,>1 слу
чайной функции Х (t). Найти корреляционную функцию ее произ
водной.
Отв. к. (ti, t2)=2e- <t. - t,>1 [l-2(t1 -t1)2].
х
11. Задана корреляционная функция Кх (ti. t 2) =e-<�1-t.>1 слу
чайной функции Х (t). Найти взаимные корреляционные функции:
а)R.(t1,t1);б)R·(ti,tz).
хх
хх
Отв. а) R .(t1, t1)=-2(/1-t1)e-<ta-t.>1; б) R. (t1, t1) =
хх
хх
= 2 (t2-t1) e-<t. -t.i•.
12. Задано математическое ожидание тх (t) = 4/1 случайной функ
t
ции Х (t). Найти математическое ожидание интеграла У (t) = S Х (s) ds.
о
Отв. ту (t) =t4•
13. Задана случайная функция Х (t) =И cos2 t , где U -случай
ная величина, причем М (И) =2. Найти математическое ожидание
t
случайной функции У (t) =(/1+ l) S Х(s) ds.
о
Отв. ту (t) = (t1 +1) [t + (sin 2t)/2j.
418
14. Задана корреляционная функция Кх (t1, t2) = cos ro t1 cos rot1
случайной функции Х (t) . Найти: а) корреляционную функцию;
t
б) дисперсию интеграла У (t) = S Х (s) ds.
о
о
к
)sinrot1sinrot2 )D( (.2 ) 2
тв. а) y(t1, t2 =
2
;б yi)= sin rot /ro.
(!)
. 1 5*. Задана случайная фуfiКЦИЯ х (t) = Ue3t cos 2t, где и -слу
чайная величина, причем М (U) = 5, D (U) = 1. Найти: а) математи
ческое ожидание, б) корреляционную функцию, в) дисперсию интег
t
рала У(t)=SХ(s)ds.
.
о
Отв. а) тх (t) = 5езt cos 2t;
б) Ку (t1, /2) = (1/169) [est, (2 sin 2t1+3cos 2t1) -3] [езt, (2 sin 2t2 +
+зcos 2t2-3J; в) Dy(t)=(1/169) [est (2sin 2t+зcos 2/)-3]2
.
16. Задана корреляционная функция Кх (t1, 12) =t1t: случайной
функции Х (t). Найти взаимные корреляционные функции: а) Rxy (t1, t2);
.
t
б) Ryx (t1, t2) случайных функций Х(t) и У (t)=S Х(s)ds.
о
Отв. а) Rxy (t1, /2) = t1t�/З; б) Ryx (t1, ts) = ФУ2.
Глава двадцать четвертая
СТАЦИОНАРНЫЕ СЛУ Ч А Й НЫЕ ФУНКЦИИ
§ 1. Определение стационарной случайной
. функции
Среди случайных функций целесообразно выде
лить класс функций, математические ожидания которых
сохраняют одн о и то же постоянное значение при всех
значен иях аргумента t и корреляционные функци и кото
рых зависят только от разности аргументов t 2 -t1 • Ясно,
что для таких функций начало отсчета аргумента может
быть выбрано произвольно. Такие случайные функции
называют «стационарными в широком смысле» в отличие
от случайных функций, «стационарных в узком смысле»
(все характеристики этих функций не зависят от самих
значен ий аргументов , но зависят от их взаимного рас
положения на оси t).
Из стационарности в узком смысле следует стацио
нарность в широком смысле; обратное утверЖдение не
верно.
419
Поскольку мы ограничиваемся корреляционной тео
рией , которая использует только две характеристики
(математическое ожидание и корреляционную функцию) ,
далее рассмотрим случай ные функции, стационарные в
широком смысле , причем будем их называть просто ста
ционарными.
Стационарной называют случайную функцию Х (/),
математическое ожидание которой постоянно при всех
значениях аргумента t и корреляционная функция кото
рой зависит только от разности аргументов t 2-t 1 • Из этого
определе ния следует, что:
1) корреляционная функция стационарной случайной
функции есть функция одного аргумента 't' = t1 -t1, т. е .
Kx U1• t ,)=kx(f1-f1)=kx('t') ;
(*)
2) дисперсия стационарной случайной функции по
стоя нна при всех значен иях аргумента t и равна значе
нию ее корреляционной функции в начале координат
('t'=O), т.е.
Dx(t) =Kx(f, f) =kx(t-t) = kx (O).
(**)
Пример. Задана случайная функция Х (/) = cos (/ +ер), где ер -
случайная величина, распределенная равномерно в интервале (О, 2n) .
Доказать, что Х (/) -стационарная случайная функция.
Р е ш е н и е. Найдем математическое ожидание:
тх (t) =M [cos (t + ep)]=M[cos t cos q>-вin / sin ep]=cos tM (cos ер)
- sin tM (sin ер).
Используя формулы (•*) из гл. XII, § 11 и (•) из гл. XI, § 6, по
лучим:
2п
М(cosер)=-
1-Scosерdep=0 и М(sinер)=0.
2n
о
СлеАовательно, тх (t) =О.
Найдем корреляционную . функцию, учитывая, что центрирован-
ная функция Х(t) =X (t) -mx (/) =Х(t) = cos (t+cp):
Кх (/1, /1)=М(Х(/1) Х(/21)] =М (cos (/1 +ер) cos (t1+cp))=
.
М [ cos (/1�t1)+c;s(t1+t1+2ер)]=
cos (t
�-t1)
.
(Легко убедиться, что М [cos (t1 +t1 + 2ср)) =0.)
Ита к, математическое ожидание случайной функции Х (t) по
стоянно при всех значениях аргумента и ее корреляционная . функ
ция зависит только от разности аргументов. Следовательно, Х (t) -
стационарная случайная функция.
420
Заметим, что, положив t1 = t 2 =t в коррел·яционной функции,
найдем дисперсию Dх (1) = Кх (t, t) = [cos (t-t)}/2 = J /2. Таким обра
зом, дисперсия сохраняет постоянное значение при всех значениях
аргумента, как и должно быть для стационарной случайной функцир.
§ 2. Свойства корреляцион ной функции
стаци онарной случайной функции
С в ойств о 1 . К.орреляц ионная фу нкция ста
ционарной случайной функции есть четная функция:
kx(т) =kx(-т).
Док а затель ств о. Корреляционная функция ..f!Щ:
бой случайной фу нкции при перестановке аргу ментов не
Изменяется (см. гл . XXIII, § 10, свойство 1 ). В частно
сти, для стационарной функции
kx(t2-i1) =kx(t1-l2).
Положив т= / 9 -/1 , получим
kx(т)=kx(- т).
.
С в ойств о 2. Абсол ютная величина корреляционной
функции стационарной случайной функции не превышает
ее значения в начале координат:
·
··
·
\kx(т)1�kx(О).
Доказательство. Для любойслучайнойфункции
(см. гл . XXIII, § 1 0, свойство 4)
.
,
.
.
\Kx
.
(l1, l2)1�VDx(/1)Dx(t2)0
•
•
В частности , дf!Я стационарной функции
Кх(t1, /2) =kx(т) И Dx(/1) =Dx(t2) =kx(О).
Следовательно,
§ 3. Нормироьанная корреляционная функци я
стационарной случайной функции
Кроме корреляционной функЦии для оU.енкИ ·сrе
пени зависимости сечен ий · ст ацион-арной , случайной функ
ции используют еще одн у· хар�ктер,истику �нормир_ован-
ную корреляционную функцию.
' ··:
".·,·
·
·
421
Ранее нормированная корреляционная фун�ция была
определена так {см. гл . XXIII, § 11):
·
·
В частности , для стационарной функции числитель и зна
менатель этой дроби имеют вид (см. § 1, соотношения (*)
И (**))Кх(t1, t1) =kx('t'), ах(t)=VDx(t)=Vkx(О). Следо
вательно, для стационарной функции правая часть (*)
равна kx ('t')fkx (О) и явл яется функцией одн ого аргу
мента 't'; очевидно, и левая часть (*) -функция от 't'.
Нормированной корреляц ионной функцией стационар
ной случайной функции называют несл учайную функцию
аргумевта 't':
Рх{-i-) =kx ('t')fkx (0).
Абсолютная вели чина нормированной корреляц ионной
функции стационарной случайной функции не превышает
единицы. Справедл ивость этого свойства уже была дока
зана ранее для любой случайной функции (см. гл . XXIII,
§ 11). В учебных целях докажем его непосредственно для
стационарной функции.
Приняв во внимание, что абсолютная величина част
ного равна частному абсолютных величин , получим
1Рх{'t')1=1kx('t')fkx(О)1=1kx('t')1/1kx(О)1·
Учитывая, что 1 kx('t') 1 � kx (О) (см. § 2, свойство 2),
окончательно имеем
3 а мечани е. При т=О нормированная корреляционная функ
ция равна единице. Действите.r�ьно,
Рх (О) =kx (0)/kx (О) = 1.
Пример. Задана корреляционная функция kx ("t') = (1/2) cos т ста-
1U1Онарной случайной функции Х (t). Найти нормированную корреля
uонную функцию.
Решенне. Воспользуемся определением нормированной: корреля
•онно:А функции:
kx ('t) (1/2) COS 't
Рх(т)=kx(О) (1/2) cosО
=cosт.
Иrак, искомая нормированная корреляционная функция
Рх (т) =соs т.
Заметим, что Рх (О) = 1, как и должно быть в соответствии с за
•чанием, '1РИве�енныr.s в по� пара�рафе,
-
§ 4. Стационарно с11язанные СJ
J
учайные функции
Ста ционарно связанными называют две случай
ные функции Х (t) и У (t), если их взаимная корреля
ционная функция зависит только от разности аргумен
т?в -r.=
t 2-t
1:
·
' Взаимная корреляционная функция стационарно свя
заiШЬ!х случайных функций обладает следующим свой-
ством :
'
}
rху(-r)=rух(--r).
Это равенство следует из свойства 1 взаимной корреля-
ционной функции (при одновременной перестановке ин
дексов и аргументов взаимная корреляционная функция
не изменяется ):
Гxy (t2-t1) =Гyx (ti-t2), ИЛИ Гху ('t') =Гух(--r).
Геометрически свойство можно истолковать так: гра
фик кривой r ух (- -r) симметричен графику кривой rху (-r)
относительно оси ординат.
Заметим, что если каждая из двух случайных функ
ций стационарна, то отсюда еще нельзя заключить, что
их взаимная корреляционная функция зависит только от
разности аргументов .
Стационарными и ст ац ионарно связанными называют
две стационарные случайные функции Х (t) и У (t) , взаим
ная корреляционная функция которых зависит только от
разности аргументов 't' = t 2-t 1 •
Пример. Заданы две стационарные случайные функции Х (t) =
=cos (t+q>) и Y(t)= sin (t+<p), где <р-сл
r
чайная величина, рас
пределенная равномерно в интервале (0,2n). Доказать , что заданные
стационарные функции стационарно связаны.
Решение. Ранее было найдено, что тх (t) = О (см. § 1, пример);
аналогично можно получить, что ту (t) =О. Запишем центрированные
функции:
Х(t)=Х(t)-mx (t)=X(t)= cos (t+<p).
У(t) =У(t)-my (t) =У(/) = sin (t+<p).
Найдем взаимную корреляцнонную функцию:
Rxy (/1, 12) =М [Х(/1)У(/2))=М[cos(/1+<р) sin(t2+<p))=
=М
[sin (t2- t1)+s�n (t1+t2+2<p) ] =
= sin (t.2-t1)+м [sin (t1-i;12+2<r)] .
423
Легко убедиться , что математмческое ожидание второго слагае
МОrо равно нулю (см. § 1� пример), поэтому
Rxy (fi. /2)=(1 /2) Si(1 (t1 -t1)·
Итак, взаимная корреляционная функция заданных стационар
ных случайных функций зависит только от разности аргументов;
следовательно, эти функции стационарно связаны.
§ 5. l(оррелs.щи онная Функция производной
стационарной СJ
J
учайной функции
Теорема . Корреляц ионна·я фун кция производной
Х' (t) = х дифференцируемой стационарной случайной
функции Х (t) равна вт орой производной от ее корреля
ционной функции, взятой со знаком минус:
k,;: (•)=-k: (-t).
До к азатель ств о. Известно, что корреляционная
функция про изводной любой дифференцируемой случай
ной функции равна второй смешанной производн ой от ее
кор реляционной функции (см. гл . XXIII, § 16, теорема 2) :
/(.(t t)=д.2КхU1.ta>
х1•t
дt дt
•
.
11
По условию, Х (t)-стационарная функция, поэтому
�:�орреляционная ,функция зависит только · от разности
аргументов:
.
';
Из соотношения т = t 11
1
- t 1 следует, что
·
д't"
'
•дт:.
'
-=-1и,,
дt.=1
.
· д/1
'
•
Учитывая равенства (*) , получим
/(.(t t)=д•kх(т:)
=
!_
_
[дkх(т:)] =�[dkN(т:)�]
х1'•·
дi1 дt1 дt1 дt1
дt1d,;дt1=
- dlkx(т:) д't" -k"().(..
..:.
.
1·)--k"()
-
dт;I.д/1.-.Х't'.
-"
�.Х't'•
В_идим, что искомая корреляционная функция завис ит
. то лько от т, поэтому l(x (tlt t ,)=kx (т)._
Итак,
Пример. ;3адана. хорреляционная функция kx ('t) --
--:
.2�-0•6.�8 ста-
ционарной случайной функции Х (t). Найти: а) корреляццонную
функцию; б) дисперсию производной Х' (t) =х.
Решение. а) Продифференцировав дважды заданную корреля
цliонную функцию и изменив знак результата на противоположный,
найдем ·искомую корреляционную функцию:
k. ('t) = 2e-0•0-i-" (t--.=).
х
б) Положив ,; =О, получим искомую дисriерсию:
о. =k. (0)=2.
х
х
§ 6. Взаимная корреляционная функци я
стационарной случа йной функции
и ее производн ой
.
Теоре ма. Взаимная корреляц ионная функция i}иф-
Фе.Р'енцируемой ст ационарной случайной функции .X (t) tl
ее nроизводхой Х' (t) = х равна первой производной ·аЩ
керреляционной функции kx (t) , взят ой со своим (nроmи-
воположным ) знаком , есл и индекс х стоит на вт ором
(первом) по порядку мест е:
а) rх;(•)=k�(•);б)r;х(•)= - k;(•).
ПР!!il.hолагается , что • = t�-:-t1 •
Док азательств о. а) По
кор реляционной функции,
определен ию · ·взаимной
.
.
.
.
Qперации нахожде ния математического ожидания и диф
ференцирования можно переставить (см . гл . XXIII, § 16,
замечание 1 ) , поэтоt1у,
.
-R .(t t)=��IX(t1)хU:H дКх(ti. t2)
'
хх.1• 11
.
дt2 .
дt1 .
Так как Х ( /.) - стационарная функция; то ее корреля
ционная функЦия зависит только от 'разности. аргументов :
Кх(t1�·t:-) .= kx("t;),:где -r= t11-t1· и, следовательно, ·д�· =
l.
Таким образом,
R .(i t)=дkх('t")-dkx('t")�=k
'
()·1 =k'( :).
хх1•11
дt-s - d,; дt.:
х"t'
х't•
Правая часть равенства зависит только от •; следова
тел ьно, и левая часть есть функция от •· Обозначив ее
через rх х ('t), окончательно получим
rхх ('t)=k�('t).
б) Доказывается аналогично.
Заметим, что поскольку взаимная корреляционная
функция rхх ('t) зависит только от •, то стационарная
случайная функция и ее производн ая стационарно свя
заны (см. § 4).
Пример. Задана корреляционная функция kx (•)=e-l't\ (1 +l't1)
стационарной случайной функции Х (t). Найти взаимную корреля
ционную функцию, rхх ('t) заданной случайной фун1щии и ее произ-
водной .
Решение. Воспользуемся формулой
r .(•)=k:(•t).
хх
-
а) Пусть 't�O. Тогда j'tj='t, kx (т)=e- 't (l+-r), k':ж('t) =e-'tx
Xl-(l +'t) e-'t=- 'te- 't. Таким образом, при 't�O
r . ('t)=-'te- -i.
хх
б) Пусть 't <О. Тогда l •l=-'t, kx('t) =e-i (1--r), k�('t)=- e't +
+(1-'t)e't =-'te-i • Таким образом, при 't <О
r .('t)=--re-i .
хх
Итак, искомая взаимная корреляционная функция
( )-{
-'te-'t при 't�O.
r.'t
-
=
-:-re't
при 't<О.
§ 7. Корреляционная функция интеграла
от стационарной случайной функции
Теорема. Корреляционная функция интеграла
t
У (t) = S Х (s) ds от ст ационарной случайной функции
о
равна
t,
t. -ti
Ku(ti, t1) =S(t2-'t)kx(•)d't- S (t2-t1-'t)kx(•)dт+
426
о
о
t,
+S(t1-'t)kx(•)dт.
о
Док азатель ств о. Известно, что корреляционная
t
функция интеграла У (t) = S Х (s) ds от случайной функ
о
ции Х (t) равна двойному интег ралу от ее корреляцион-
ной функции (см. гл . XXIII, § 17, теорема 2):
·
t1 t.
Ку(t1, t1) =SSКх(s1, s1)dsids2
•
оо
Принимая во внимание, что корреляционная функция
стационарной случайной функции зависит только от раз
ности аргументов, т. е. Кх (s1, s1) = kx(s1 -s1), получим
/1 '·
K11(ti, t.)=SSkx(s2-s1)ds1ds".
оо
Вычисление этого интег-
т
рала весьма громоздко, по
этому ограничимся указани
ями: перейти к новым пере
менным 'f·=S11 -S1, s =s2 +s1;
начертить новую область ин
тегр ирования, ограниченную
прямыми т=s, т =-s,
т=s-2t1. т =-s+2tz, и
выполнить интег ри рование
по S· Двойной интеграл по
области OABD можно вычис
лить как разность двойных
интегралов по областя м ОАС
и BDC. При интегр ирова
нии по области ODE переста-
Рис. 28
вить пределы инте грирования по т и перейти к новой
переменной т' = - т (рис. 28).
t
След ствие. Дисперсия интеграла Y(t) = S Х (s) ds
от стационарной случайной функции равна
t
D11(t)=2 S(t-т)kx(т)d't.
о
о
.
427
Действительно, положив t1 = t2 = t в формуле (*), полу
ч�м
t
о
К11(t,t)=�(t-т)kx(т)d-r-�(t-t--r)d-r+
о
о
t
+ � (/--r) kx(-r) d-r.
о
После приведения подобных членов окончательно имеем
t
Du(t)=2 �(t-т:)kx(-r)d-r.
о
Пример. Задана корреляционная функция kx ('t) = 1/(1+'t2) ста
ционарной случайной функции Х (/). Найти дисперсию интеграла
t
У(t)=�Х(s)d.s.
о
·
Реw е и и е. Воспользуемся формулой (**):
t
t
S
S(t-'t)d't
D11(t)=2 (i-'t)kx('t)d't=2
l +'t2
о
о
t
t
Sd't
s2'td't
=21 1 +'t2
-
1+"'11 •
о
о
Выполнив интегрирование, получим искомую дисперсию:
D11(t)=21 arctgt-ln(1+/2).
Заметим, что функция У (t) не стационарна, так как � диспер�ия
нё постоя1111а , а зависит от аргумента t.
§ 8. Определение характеристик зрrодических
стационарных случа йных функций из опыта
.
.
Ср.еди . ст ационарных случайных функций можно
выдел ить класс функций, оценка характеристик которых
путем усреднения множества реализ�щий равносильна
усреднен ию по времени только одн ой реализации доста
точно большой длительности .
Стаци онарную случайную функцию Х (t) называют
эргодической, если ее характеристики, найденные усред
,
Н�J;Iием мн<;> �ест�.а реа.ли�аций; совпадают с соот
ветствующими характеристиками , полученными усредне
нием по времени одн ой реалИзации x(t), которая
428
наблюдалась на интервале (О, Т) достаточно большой
длительности .
Достаточное условие эргоди чности стационарной слу
чайной функции X (t) относ ительно математи
ческого ожидания состоит в том, чтоее корреля
ционная функция kx (т) при т -+ ею стремится к нулю:
limkx(т)=О.
Достаточное условие эргоди чности стационарной слу
чайной функции Х (t) относ и тель но к о р реляц и
онной фун к ц и и состоит в том, что корреляцион
ная функция ky (т) при 't �ею стремится к нулю:
limky('t)=О,
't-OD
где У(t, т)=Х(t)Х(t+'t).
В качестве оценки математического ожидания эргоди
ческой стационарной случайной функции Х (t) по наблю
давшейся на интервале (О , Т) реализации х (t) принимают
среднее по времени ее значение:
т
т� = �Sх(t)dt.
о
Известно, что кор реляционная функция стационарной
случайной функции
kx(т)·= М "[Х (t)Х(t+т)].
Таким образом, оценить kx('t) означает оценить мате
матическое ожидание функции Х(t)Х(t+-r).
поэтому можно воспользоваться соотношением (*) , учи-
тывая, что функция Х(t+'t) определена при t+-r�Т
и, следовательно, t � Т-т.
Итак, в качестве оценки корреляционной функции
эргодической стационарной случайной фу нкции принимают
Т-т
k;('t) = т
1 "f s x(t)x(t+'t)dt
либо , что равносильно,
Т-,;
о
��('t)=т1
"f S x(t)x(t+'t)dt-[m;]•.
(***)
429
Практ�чески интегралы вычисляют приближенно, на
пример по формуле прямоугольников . С этой целью делят
интервал (О, Т) на п частичных интервалов длиной
Л t = Т/n; в каждом частичном i-м интервале выбирают
одну точку, например его се реди ну ti. В итоге оценка (*)
принимает вид
п
т;=�[х(t1)Лt+х(t2)Лt+ ...+хUп)Лt]=Л,:. :Ех(tд.
l=1
Учитывая , что Лt = Т/п, окончател ьно получим
т; =[±х(t;)]/п.
l=1
Аналогично приближенно вычисляют интеграл (**),
полагая , что -r принимает значения Лt, 2Лt, ..., (п -1) Лt,
или, что то же, Т/п, 2Т/п, ЗТ/п, ..., (n-l)T/n.
В итоге оценки корреляционной функции (**) и (***)
принимают соответственно вид:
n-l
\
k; (1 �)= п1 1�x(t;)x (t;+д.
t=1
n-l
k;(1I.
.
)= 1 1 :Ex(t;) x(t;+z)-[m;]2,
п
п
l=l
гдеl=1,2, ..., п-1.
Замечание. Можно показать, что оценка (*) - несмещенная,
т. е . M[m;] =mxi оценка (**) - асимптотически несмещенная, т. е.
3аА8ЧИ
lim М[k;('t)]=kx (1').
Т-+оо
-
1. Является ли стационарной случайная функция Х (/)=
== t8U , где и-случайная величина, причем: а) mu :;С О, б) т" =0?
Отв. а) Нет: тх (t) :;С coпst; б) Нет: корреляционная функция
зависит не от разности аргументов, а от каждого из них.
2. Стационарна ли случайная функция Х (t)= siп (t + qJ), где
q>-случайная величина, распределенная равномерно в интервале
(0, 2n)?
Отв. Да : тх (t)=O=coпst, Кх (/1, /2) =0,5 cos (t2 -/1).
3. Известно, что если (j)-случайная величина, распределенная
равномерно в интервале (О , 2n) , то случайная функция Х (/) =
= вin (t+q>)-стацнонар11ая. Можно ли отсюда непосредственно
;1аключить, что случайная функция У (t) = eos (t+qJ) также стацио
нарна?
Отв. Можно: изменив начало отсчета аргумента, например на
n./2, стационарной функции Х (t). получим функцию У (t).
430 _,
4. Задана случайная функция Х(t)=t+Uвin t+Vcos t, где U
и V - случайные величины, причем М (U) = М (V)=O, D (U)=D (V)=Б.
М (UV) =О. Доказать, что : а) Х (t) - нестационарная функция;
б) Х (t) - стационарная функция.
Отв. а) тx (t);C:const; б) т. (t) = const, Kx(t1, t2)=5.cos(t2 -ti) .
х
5. Известна корреляционная функция kx ('t) =Зe-2't1 стационар·
ной случайной функции Х (t). Найти корреляционную функцию слу
чайной функции У (t) = 5Х (t).
Отв. ky('t)=75е-2't1•
6. Задана корреляционная функция kх ('t') = 2е- 2't1 ста ционарной
случайной функции Х (t). Найти нормированную корреляционную
функцию.
Отв. Рх ('t') =e-'t'.
7. Заданы две стационарные случайные функции Х (t)=cos (2t+cp)
и У (t) = sin (2t+cp), где ер-случайная величина, распределенная
равномерно в интервале (О, 2n). Доказать, что заданные функции
стационарно связаны.
Отв. Rxy(t1, t2)=0,5sin2(t2-t1)·
8. Задана корреляционная функция kx ('t') = бe -o ,s't• стационарной
случайной функции Х (t). Найти: а) корреляционную функцию;
б) дисперсию производной Х' (t) = х.
Отв. а) k. ('t') =0,24e-0•2't• (l -0,4't'2); б) D. = 0,24.
х
х
2
9. Задана корреляционная функция kx ('t') =e-'t
'ст ационарной
случайной функции Х (t). Найти взаимные корреляционные функции
случайной функции Х (t) и ее производной.
Отв. r.('t') = - 2't'e-'t'; r. ('t') =2't'e-'t'.
хх
хх
10. Задана корреляционная функция kx ('t')=e- 1't1 стационарной
t
случайной функции Х (t). Найти дисперсию интеграла У (t)=� Х (s) ds.
о
Отв. Dy(t)=2(t+e-t-l).
Глава двадцать пятая
ЭЛЕМ ЕНТЫ С ПЕКТРАЛЬНОЙ ТЕОРИИ
СТАЦ ИОНАРНЫ Х СЛУЧАЙ НЫХ ФУНКЦИЙ
§ 1 . Представление стационарной случайной
функции в виде гармонических колеба ний
со случа й ными амплитудами и случайными
фазами
В этой главе вводится новая характеристика
стационарной случайной функции - спектральная плот ·
ность , которая у п.рощает теоретическ ие и практические
•31
расчеты . В частности , используя ее, можно найти ха
рактеристики выходной функции стационарной линейной
динамической системы по известным характеристикам
входной функции (см. § 8).
Далее будет показано, что стацион арную сл учайную
функцию, вообще говоря, можно представить в виде гар
моничес1шх колеба ний со случайными ампл итудами и
случайными фазами .
1. Рассмотрим случайную функцию вида
Z(t)=Иcosrot+Vsinrot,
(*)
где rо - постоянное действительное число; И и V- некор
релированные случайные величины с математическими
ожиданиями , равными нулю, и оди наковыми дисперсиями:
mu=mv=O,Da=Dv=D.
Преобразуем правую часть соотношения (*):
Z(t)=V(�cosrot+sinrot).
Положив ИJV = tg <р и выполнив элементарные выкладки .
получим
z(t)=Vи2+V2sin(rot+<р),
где ер=arctg (U/V) .
Отсюда следует, что случайную функцию Z (t) =
= И cos rot + V sin rot можно ист�лков31ть как гармониче:
ское колебание со случаинои амплитудои
Vu2 +V2
, случай ной фазой rot + arctg (U/V) и ча
стотой (i).
Заметим, что, по допущению, та = mv = О , поэтому И
и У- це нтрированные случайные величины: V=U и V =V.
Легко убедиться, что mz (t) = О . Следовательно, Z (/)
центр ированная сл учайная функция :
.i(t)=z(t).
Покаже м, что Z (t) =Иcos rot + V sin rоt - стационарная
случайная функция . Действительно, математическое ож и
дание mz (t) =О, т. е . постоянно при всех значениях аргу
мента . Найдем корреляционную функцию, приняв во
внимание, что .i (t) = Z (t):
432
Kz<t1, t2)=Мfi(t1)Z<t2)]=М[Z(t1)Z(t2)]=
= М[(Иcosrot1+Vsinrot1)(Иcosюf2+Vsinrot2)].
Выпол нив элементарные выкладки *>, получим
Kz (t1 , t2)=Dcos (t2 -t1).
Итак , корреляционная фу·н кция случайной функции
Z (t) зависит тол ько от разности аргу ментов, а ее мате
матическое ожида ние постоя нно. Следовательно, Z (t) -
стационарная случайная функция, чтои тре
бовалось доказать.
2. Рассмотрим теперь сл у чайную функцию Х (t), ко
торая явл яется суммой конечного числа слагаемых вида (*) :
п
Х(t)= � [Uicosroit+V;sinroit],
i=I
(**)
где случайные величины U 1 и Vi не коррелированы, их
математические ожидания равны нулю и дисперсии вел и
чин с оди наковыми индексами J:\РВНЫ между собой :
D(U;)=D(V;) =D.
Заметим, что Х (t)-центрированная функuия, т. е.
Х (t) = Х (t). Действительно, математическое ожида ние
каждого слагаемого суммы (**) равно нулю; следова
тел ьно, математическое ожид ание тх (t) этой су ммы также
равно нулю и, значит,
Х(t)=Х(t)-mx(t)=Х(t).
Докажем, что функция Х (t) вида (**) -стационар
ная . Действител ьно, ма тематическое ожида ние тх ( t) =О
при всех значен иях аргумента , т. е. постоя нно. Кроме
того, слагаемые суммы (**) попарно не коррел ированы
(см . далее пояснен ие) , поэтому корреляционная функция
этой суммы равна сумме корреляционных функций сла
гаемых (см. гл. XXIII, § 15, следствие 1 из теоремы 2).
В п. 1 доказано, что корреляционная функция каждого
слагаемого (**) зависит тол ько от разности аргу ментов
t2 - t 1• Следовательно, корреляционная функция сум
мы (**) также зависит только от разности аргументов :
п
Кх(tl• i2) =�D;COS(!)1· U2-t)1,
i=J
•> При выкладках следует учесть, что , по условию, М (U2) =
=M(V2)=D, а так как V=U, V = V, то M(U2)=M(V2)=D. Слу
чайн ые величины U и V не коррелированы, поэтому их корреляци-
онный момент #Аиv = М (UV)=M(UV)=O.
.
433
или
п
kx ('f) = �D; COS ffi{C,
i=l
где 'f=t2-ti.
Таким образом, случайная функция Х (t) вид а
(**) есть стационарная функция (разумеется,
должны выполняться условия , указанные в п. 2).
Принимая во внимание, что (см. п. 1)
Х;(t)=VU�+V1sin (ro;t+q>1),
где Ч'i = arctg (U;/V;) , заключаем, что сумму (**) можно
записать в виде
'
п
х(t)=�vи�+v1sin (ro;t+(/>;).
l=1
Итак, если случа йная функция Х (t) может быть пред
ставлена в виде суммы гармоник разл ичных частот со
случайными амплитудами и случайными фазами, то Х (t)
стационарная функция.
Спектральным разложен ием стационарной случайной
функции называют предста вление этой функции в виде
суммы гармонических колебаний различных частот со
случайными ампл итудами и случайными фазами.
Пояснение. Покажем, что слагаемые суммы (**)
попарно не коррелированы. Для простоты, не теряя общ
ности доказательства, ограничимся двумя слагаемыми:
Х1(t)=U1cosro1t+V1 sinro1t и
Х2(t)=U2cosro2t+V1 sinro2t.
Убеди мся , что их взаимная корреляционная функция
равна нулю и, следовательно, они не коррелированы
(см. гл. XXllI, § 12):
Rx1x1 (tl, t,.) =М[Х1(t1)XsU2)]=М[Х1(t1)Ха(t.)]=
= М [(U1 cos ro1t1+V1 sin ro1t1) (U2 cos ro2t1+V2 sin ro1t1)].
Выполнив умножение и вынеся неслучайные множители
за знак математического ожидания , найдем
Rx1x1 (t1, t1) = cos ro1t1 cos ro2t1M(U1U1)+
+ sin ro1t1 cos ro1t1M (U1V1) + sin ro1t1 cos ro1t1M (U1V1) +
+ sin ro1t 1 sin ro1t1M (V1V1).
434 .
Случайные величины U 1 , U 2 , V1 , V2 попарно не корре
лированы, поэтому их корреля ционные моменты равны
нулю; отсюда следует, что все математические ожидания
парных произведений этих величин равны нулю. Напри
мер, корреляционный момент величин U 1 и U 11 равен нулю:
μu,и. = М (U1Й2) =О; так как эти величины центрирован
ные (см. п. 1), то М (U1U2)=0.
Ита к, взаимная корреляционная функция Rx,x. (t1, / 2) =
= О, чт о и требовалось доказать .
§ 2. Дискретный спектр стационарной с.пучайной
функции
А. Частоты -произвольн ые чиСJiа , количество
их конечно. Пусть стационарная случайная функция Х (t)
может быть представлена .в виде спектрального разло
жен ия
п
п
X(t) = �Xi(t) = � [Ui cos(J)it +Vi siп (J)it], (*)
i=1
i=1
причем сохраняются допущения, указанные в начале п. 2
(см. § 1). Найдем дисперсию од ной гармон ики Xi (t),
учитыва я, что случайные величины и( и vi не коррели
рованы и дисперсии величин с оди наковыми индексами
равны между собой : D(Uj)=D(Vi) =Di:
D[Xi(t)]=D[Uicos(J)it+Visin(J)it]=D[Uicosroit]+
+D[Visinro1-t]=cos2roitD(Ид+sin2(J)i/D(Vд=
= (cos2(J)it+sin2roit)D;=D;.
Итак,
Таким обр азом, дисперсия i-й гармоники спектраль
ного разложения (*) равна дисперсии случайной вели
чины U i• или, что то же , дисперсии случайной величины V; .
Найдем теперь дисперсию стационарной случайной
функции Х (t), приняв во внимание, что слагаемые Х; (t)
не кор релированы (см. § 1) и поэтому дисперсия их суммы
равна сумме дисперсий слагаемых (см. гл . XXIII, § 15,
замечание 2):
D[Х(t)]=Dс�Х;(t)]=1�D[Xi(t)].
435
Используя (**) , окончательно получим
п
D[X (t)] = �Di.
l=1
Итак, дисперсия стационарной случайной функции,
которая может быть предста влена в виде суммы конеч
ного числа гармоник с произвольными частота ми, равна
сумме дисперсий составляющих ее гармоник.
Дискретным спектром ст ационарн ой случа йной функ
ции Х (t) вида (*) называют совокупность дисперсий всех
составляющих ее гармоник.
Заметим, что поскольку каждой частоте roi можно
поставить в соответствие дисперсию D;, то спектр можно
изобразить графически: на горизонтальной оси отклады
вают частоты ro; , а в качестве соответствующих ординат
(их называют спектральными линиями) строят диспер
сии D1• • Эгот дискретный спектр называют линейчатым.
Пример. Построить дискретный спектр стационарной случайной
функции
Х(t)=[U1cos 2t+V1 sin2!)+[U2 cos Зt+V2 sinЗtJ+
+[Из cos 4t + Vз sin 4t],
если случайные вели чины U1, U 2, Из; V1 , V2, Уз не коррелированы,
их математические ожидания равны нулю и заданы дисперсии:
D (U1)=D(V1) =5, D (U2)=D (V2)=6, D(Uз)=D (V3) =4.
Р с ш е н и е. Оrложив на горизонтальной оси частоты ro1=2,
ю1 =3, rоз = 4, а на вертикальной оси - соответствующие им ординаты
D1 =5, D2 =6, Dз =4, получим график искомого спектра.
Б. Равноотстоящие частоты , множество их бесконеч
ное (счетное). В предыдущем пункте предпол агалось, что
число частот в спектральном разложении (*) конечно, а
сами частоты -произвольные числа. Теперь рассмотр им
спектральное разложение вида
00
Х(t)=�[И;cosro;t+V;sinro;tJ,
l=I
в котором число частот бесконечно (счетно), они
р а в и о отстоящие, причем разность любых двух «СО·
сед.н их» частот
Лrо=ro;н-ro;=n/T (i=l,2, ...),
где Т -действител ьное положительное число.
Таким образом,
2n
-
tii
(1)1=у•...,
Ю/=Тt•••
Напишем корреляционную функцию [см. § 1, фор
мула (***)] рассматриваемой стационарной случайной
функции Х (t), положив ro; = ni/T, п = оо:
00
�
ni
kx(-r:)= � D;COST't.
i=I
При 't=O, учитывая, что kx (O) = Dx, получим
00
Dx= �D;.
(**)
i=1
Итак, дисперсия стационарной случайной функции,
которая может быть представлена в виде суммы беско
нечного (счетного) множества гармон ик с равноотстоя
щими частотами , равна сумме дисперсий слагаемых
гармоник (если сумма существует, т. е. ряд (**) сходится ).
Замети м, что соотношение (*) можно рассматри вать
как разложен ие корреляционной функции в ряд Фурье
по косинусам. Из (*) видно, что kx (-r:) -периоди ческая
функция с периодом 2Т, поэтому коэффициенты Фурье
т
D1
s:лi
;=у kx ('t) COS y 'td't,
-т
или, учитывая , что ro; = ni/T и подынтегральная функ
ция - четная,
'Т
D;= ;Skx('t)cosoo1'tdrr.
о
Если каждой частоте ro1 = ni/T (i · l, 2, ... ) ставить
в соответствие дисперсию D;; то получим, как и в случае
конечного числа произвольных частот, дискретный
л и ней ч аты й с пектр, причем число спектральных
л1�ний (ординат D;) бесконечно (счетно) и они равно
о т с тоя щ и е (соседн ие спектральные линии находятся
одна от другой на од ном и том же расстоянии Лrо = n;T).
§ 3. Непреры вный спектр стационарной
случайной функции. Спектрал ьная плотность
Среди стационар·ных случайных функций есть
такие функции, корреляционные функции которых нельзя
представить в виде .
·
. kx(-r) =�D;cosro/t (D;>О),
437
где число слагаемых конечно или счетно. Спектр этих
функций не дискретный, а непрерывный . Для рассмот
рения стационарных случайных функций с непрерывным
спектром необходимо ввести понятие спектральной плот- ·
ности .
Выше, когда частоты гармоник спектрального разло
жения стационарной случайной функции были дискрет
ными и равноотстоящими, был получен дискретный ли
нейчатый спектр, причем соседние частоты отл ичались
на величину Лrо=n/T. Пусть т-оо, тогда Лrо--+О.
Ясно, что при этом частота изменяется непрерывно (по
этому обозначим ее через ro без индекса), соседние ординаты
спектра сближаются и в пределе вместо диск ретного
спектра мы получим непрерывный спект р, т. е. каж
дой частоте ro (ro � О) соответствует ордината, которую
обозначим через s; (ro) .
Хотя отрицател ьные частоты физического смысла не
имеют, для упрощения вычислений целесообразно считать,
что частоты изменяются в интервале (- оо, оо ) , и вместо
функции s; ((J)) рассматривать функцию, которая . имеет
вдвое меньшие ординаты:
Sx ((J)) = s;((J))/2.
Спектральной плотностью стационарной случайной
функции Х (t) называют функцию sx ((J)), которая связана
с корреляционной функцией kx ('t) взаимно обратными
преобразованиями Фурье:
..
.
,
Sx ((J)) =2�skx('t')e-l(l)'fd't',
.
-ао
..
.
kx(т)=� Sx((J))el(l)td(J).
-оо
Эти формулы называют формулами Винера -Хинчина.
В действительной форме они представляют собой взаимно
обратные косинус-преобразования Фурье :
438
ао
Sx(ю)=�Jkx('t')cos(J)'t'd't',
..
.
kx('f)=2SSx((J))COSIO't'dю.
о
Важное значение спектральной плотности состоит
в то м, что, зная ее , можно найти корреляционную функ
цию , и обратно (в этом смысле спектральная плотность
и корреляционная функция эквивалентны); кроме того,
как уже было указано, использование спектральной плот
ности в ряде случаев значительно упрощает теоретические
и практические расчеты.
Подчеркнем, что, как следует из формулы (***), спек
тральная п.т�отность- четная функция:
Sx(-ro)=Sx(оо).
Выясним вероятностный смысл функции sx (оо). Поло
жив •= О в соотношении (****) и учитывая, что kx (O) = Dx,
sx (оо) - четная функция , получим
ао
ао
Dx=2SSx(оо)dro= S Sx(ro)dro.
О
-ао
Видим, что дисперсия стационарной случайной функ
ции Х (t) предста вляет собой «сумму» элементарных дис
персий sx (ro) dro = Sx (ro) Лrо; каждая элемента рная диспер
сия соответствует частичному интервалу частот Лrо.
В · частности , частичному интервалу Лrо = roь -roa соответ
ствует дисперсия
По теореме о сред нем,
Dx = (roь-roa)Sx(roc) =Лrosx(roc),
где(J)a<(J)c<ffiь·
Отсюда
Sx (roc) = DxfЛro.
Из этой формулы заключаем:
а) вел ичину sx (юс) можно истолковать как среднюю
плотность дисперсии начастичноминтервалеЛ0>,
содержащем частоту roc;
б) при Лrо --+ О естественно считать, что sx (оос) -плот
н о сть д исперс и и в точке roc. Поскольку никаких
ограничений на частоту оос наложено не было, получен
ный результат справедл ив для любой частоты.
439
"·
Мтак;, спеютральная плотност ь описьюает распределе
н ие дисперсий · стационарной случайной функции по не
прерывно изменяющейся частоте .
Из вероятностного смысла спектральной функции сле
дует,чтоспектральная плотность-неотрица
т ельная функция sx (U>) � O.
Пример 1. Найти спектральную плотность стационарной случай
ной функции Х (t), зная ее корреляционную функцию
·kx(т)=f1-�1т1 при 1т1-=;
;;
2,
\О
при \т1>2.
Решение. Используя формулу
ф
Sx (ю) =-
1
-
Skx(т) cos ют
"
dт
n
о
.
и учитыв�я, что \ т\ =т в интервале (О, 2), имеем
2
Sx(ю)=�S(1-�т)cosютdт.
о
··
Интегрируя по частям, окончательно получим искомую спектраль
ную плотность:
Sx (ro) = sin2 ro/(nю2).
Пример 2. Найти спектральную плотность стационарной случай
ной функции Х (/), зная ее корреJrяционную функцию kx (i") = De-a. 1 't '•
а.>о.
Решение. Исnо.'!ьзуем формулу
ф
Sx(ю)= _I_
S kx (т) e-tш-r dт•
.
2n.
.
-ао
Учитывая,что 1т\=-'t" прит<О,\т1=тripит�О, получим
kx(т)=DeO,'t при т < О, kx(т)=De-a.'t при т�О.
Следовательно,
'z (") � ::.[1е"•е-'�dт+Je-"<e-i�d,]�
о
00
"'.
::
:
..О.
.
_ [Sе<а.-tш) 't dт+} e-<a.+lQ)) 't d1:] .
·
2n.
.
.
.
.
""
''
Выполнив интегрирование, най�ем искомую спектральную плот
ность;
..
.
..
Da.
.
sx(ro)=n(а.'+(А)*).
Пример 3. Найти корреляционную функцию стационарной случай
ной функции Х (t). зная ее спектральную плотность
{s0 в интервале -w0.;
;;
;;
;
w,.;
;;
;;
w0,
s (w)-
х
-
О вне этого интервала.
Решени е . Используя формулу
а>
kx(T)=2s Sx(w) COSffiTd"C
о
и учитывая, что Sx (ffi) = ffio в интервале (О, ffio), имеем
Юо
kx(т)=2s0 S cosffiTdт.
о
Выполнив интегрирование , получим искомую корреляционнуюфункцию:
kx ('t') =2s0 sin w0т/т.
§ 4. Нормированная спектральная плотность
Наряду со спектральной плотностью часто исполь
зую'l" нормированную спектральную плотность .
..
. Нормированной спектральной пл отностью стационар
ной случайной функции Х (t) называют отн ошение спек
тральной плотности к дисперсии случайной функции:
•'
,,
QD
•
•
Sхнорм (о>)=Sx (ю)/Dх _.:_ Sx (о>)/ S· Sx (ro) dro.
-а>
Пример. Задана спектральная плотность sx (ffi) =5/(n (l +ю1))
стационарной случайной функции Х (/). Найти нормированную сn�к
тральную плотность.
·
Решени е. Найдем дисперсию:
Найдем искомую нормированную спектральную плот1юсть, дnя
чеrо разделим заданную спектральную плотность на дисперсию Dx = 5�
в итоге получим
Sx норм (ro) =l/(л:(l+ю1)).
Нормированная сректральная ттлотность представима
в виде косинус-преобразован11я Фурье · нормированной
корреляционной функции:
�.,
..
.
Sx норм (ю) �- �· . }f>x{т) COS (J)'f d..:.
441
Действител ьно, чтобы получить эту формулу, достаточно
разделить на Dx обе части соотношен ия (***) (см. § 3).
В свою очередь , нормированная корреляционная функ
ция выражается через нормированную спектральhую плот
ность при помощи обратного преобразования Фурье:
ф
Рх(-r)=2SSxнорм(ro)COS(J)'tdro.
о
В частности, положив 't' =О и учитывая , что Рх (О) = 1,
получим
ф
ф
2SSxнopк(ro)dro=1,ИЛИ S Sхнорм(ro)dro=1.
0
-Ф
Геометрически этот результат означает, что площадь ,
ограниченная снизу · осью Oro и сверху кривой sx норм (ro),
равна еди нице.
§ 5. Взаимная спектральная плотность
стационарны.х и стационарно связан ных
случайных функций
Пусть Х (t) и У (t)- стационарные и стационарно
связанные случайные функции со взаимной корреляцион
ной функцией r ху (-r) .
ВЭаимной спектральной плотност ью двух стационар
ных и стационарно связанных случайных функций Х (t)
и У (t) называют функцию Sxy (ro) , определяемую преобра
зованием Фурье:
ф
Sxy (ro)=dns fху (-r)e-iro"'d-r.
-Ф
В свою очередь, взаимная корреляционная функция
выражается через взаимную спектральную плотность
с помощью обратного преобразования Фурье:
ф
rху (-r) = S sxy (ro) eiro"' dro.
-Ф
Пример. Задана корреляционная функция kx ('t) ста ционарной
случайной функции Х (t). Найти: а) взаимную корреляционную функ
цию; б) взаимную спектральную плотность случайных функций Х (t)
и У(t}=X(t+t0).
442
Реw е ние. а) Легко убедиться, что У (/) -стационарная функ·
ция. Найдем взаимную корреляционную функцию:
Rxu (t1:t2) =М[Х(t1)У(t1)J=М [Х(ti)х(t,+to)J=
=kx [(t2 + to) -t1] =kx (-r + to).
Отсюда видно, что стационарные функции Х (t) и У (t) стационарно
связаны (их взаимная корреляционная функция зависит только от
разности аргументов -r).
б) Найдем взаимную спектральную плотность:
..,
Sxy((i))=2�Skx(-r+t0)e-l(l)�d't'::
::s
_..,
..,
= e{(l)fo _I_
s kx (-r+to) e-i(I) (Hte) d (-r+to) = e!(I)/• Sx ((1}).
2n
Итак, искомая взаимная спектральная плотность
Sxy ((i))=ei(l)/o Sx (ro).
§ 6. Дел ьта-функция
Дельта-функция б (t) является примером обобщен
ной функции (обобщенная функция - предел последова
тельности однопараметрического семейства непрерывных
функций). Дельта-функцию определяют тем условием , что
она ставит в соответствие всякой непрерывной функции
f(t} ее значение при t =О:
..,
Sб(t)f(t)dt=f(O).
_..,
Правую часть равенства можно представить в виде пре
дела:
где
18
..,
!��28 S f(t)dt=��Sбг(t)f(t)dt (8>0),
-
8
_..,
б
{О при 1t1�г,
8 (t)= 1/(28) при1t1<г.
Таким обр азом, дел ьта-функцию можно рассматривать
как предел последо вательности функций б8 (t) при г--+0.
Учитывая, что бг(t)--+О при t::
:/=
О, б8(t)--+оо при
81
t--+ОиS28dt=1, условно пишут
-
8
б (t)={ : при t+o,
при t=0.
«з
Физич.ески дел ьта-функцию моЖно истолковать как
плотность еди ничной массы, сосредоточенной в нуле.
: Можно доказать, что дельта-функция представима ин"
�rралом Фурье:.
""
б(t)=2�seiootdro.
-ао
Отсюда
""
Seiootdro=2nб(t).
(*)
-оо
3 а м е ч а н и е. В приложениях часто используют соотнщuеняе.
OD
S f(t) f,(t-t0) dt = f(t0),
КОТ()рое вытекает из сказанного выше.
§ 7. Стационарн ый белый шум
Стационарным бел ым шумом называют стацио
нарную случайную функццю Х (t), спектральная плотность
ко то·рой постоя нна:
.
:'
.
Sx(ro)=S =COПSt.
·..
:·" .
Найдем кор реляционную функцию белого шума . Исполь
зуя формулу (**) (см. § 3)
..
'
получ·им
""
'
. k.x(-r)=S Sx(ц})�/(J.)'fdro,
-оо
OD
k_x (-r) =s S ei00'tdro.
Приняв во внимание, что [см. § 6, соотношение ( *)]
окончател ьно имеем
OD
s eiШ"tdro
.
2nб (-r),
.'
kx(:r)=.2nsб(-r). .
(**)
Таким образом; корреляционная функция · стационар
ного белого шума пропорциональна дельта-функции ; коэф
фициент пропорциональности 2ns называют интенсив
ност ью ст ационарного бе.i
i
ого шума .
44
4
Дельта-функция равна нулю при всех значениях 'f:;i6:0,
поэтому и корреляционная функция kx ('t') также равна
нулю при этих же значен иях 't' [это видно из формулы (* *)].
Равенство же нулю корреляционной функции стационар
ного белого шума означает некор релированность любых
двух его сечений- случайных величин Х (t1) и Х (t2) (t1=1=t2).
Благодаря этой особенности бел ый шум находит широ
кое применение в теории случайных функций и ее при
ложен иях. Одн ако эта же особенность указывает на то,
что осуществить белый шум невозможно, так как в дей
ствител ьности при очень бл изких зн ачен иях t 1 и t 2 соот
ветствующие случайные величины Х ( t 1) и Х (t2) в извест
ной степени коррелированы.
Таким образом, стационарный белый шум - математи
ческая абстракция, полезная для тео рии случайных функ
ци й и ее приложений. В частности , белый шум исполь
зуют для модел ирования случайных процес сов, которые
имеют постоянную спектральную плотность в о пред е
л е н ном ди апа.з оне частот, причем поведен ие
спектральной плотности вне его исследователя не инте
ресует .
Пример. Спектральная плотность стационарной случайной функ�
ции Х (t) постоянна в диапазоне частот (- (/)0 , (1)0), а вне его равна
нулю:
{О при
(1) < -(l)o,
&х(ro)= sпри-ro0<(J)<(1)0,
О при
(1)>(J)o·
Найти: а) корреляционную функцию; б) дисперсию случа йной фу11к
ции х (t).
Решени е. а) Найдем искомую корреляционную функцию:
(J).
(J).
S
r
2s sin Wo't
kх('t)=
scosro'tdю=2s�J cos(J)Td(J)=
't
•
Итак,
-6).
о
k ()_2ssinrоет
х't-
•
't
б) Найдем искомую J{исперсию:
Dx=llmkx('t)=lim
2s sin Wo'f
-t-+e
-t-+O
т
Итак,
§ 8. Преобразование стационарной случайной
функции стационарной линейной динамической
системой
Стационарной линейной динамической системой
называют устройство, которое описывается линейн ы м
дифференциальным уравнением с постоянными коэффи
циентами вида
аоу<п>(t)+a1y<n-1)(t)+• • • +апУ(t)=
= b0X<m> (t)+b1X<m-i> (t)+ ...+ЬтХ (t),
(*)
где Х (t)-входная ста ц ионарная случайная функ
ция (воздействие, возмущение) , У (t)-выходная случай
ная функция (реакция, отклик).
Если динамическая система устойчива, то при доста
точн<' больших значениях t, т. е . по окончании переход
ного процесса, функцию У (t) можно считать стационарной .
Подчеркнем, что при дальнейшем изложен ии пред пола
гается , что Х(t) и У(t)- стационарные случайные функции.
Поставим перед собой задачу найти характеристики
выходной функции по известным характеристикам: вход
ной функции.
Найдем математическое ожидание ту , зная т,0 для
чего приравняем математические ожидания левой и правой
частей уравнения (*). Учитывая, что Х (t) и У (t)-ста
ционарные случайные функци и, а значит, математические
ожидания производных этих функций равны нулю, по
лучим
апт11 = Ьттх.
Отсюда искомое математическое ожидание
т11 = Ьттхfап .
(**)
Пример 1. На вход .линейной •динамической системы, описываемой
уравнением
у• (t)+2Y (t)=5X• (t)+BX (t),
подается стационарная случайная функция Х (t) с математическим
ожиданием т х = 10. Найти математическое ожидание случайной функ
ции У (t) на выходе системы в установившемся режиме (пос.пе зату
хания переходного процесса).
Решеи и е. Используя формулу (**), по.лучим
m11 =bmmxfaп =(6/2)· 10=30.
Введем понятия передаточной функции и частотной
характеристики, которые понадобятся далее. Предвари-
446
тельно запишем уравнение (*) в операторной форме. обо-
d
d2
значив оператор дифференцирования Тt через р . dt2 -
через р 2 и т. д. В итоге уравнение (*) примет вид
(aopn+a1pn-1+.• • +ап)У(!)=
=(Ь0Рт+Ь1рт -1 + •..+Ьт) х(t).
(***)
«Решим» это уравнение относительно У (t) :
(****)
Передаточной функцией линейной динамической си
стемы называют отношение многочлена относительно р
при Х (t) к многочлену при У (t) в операторном уравне
нии (***):
Из соотношения (* ***) следует. что выходная и вход
ная функции связаны равенством
Y(t) =Ф(p) X (t).
Частотной характе ристикой линейной динамической
системы называют функцию. котор ая получается заменой
арrумента р в передаточной функции на аргумент iro
(ro-действительное число) :
ф(. ) =Ь0(ifJ>)m+ьi(ifJ>)m-1+•••+Ьт
tro
а0 (iro)n +a1 (iro)n -1+ ••• + ап
•
Доказано. что . спектральные плотности выходной и
входной функций связаны равенством
s 11(ro) = Sx (ro) 1Ф(iro) 12
•
Отсюда заключаем: для того чтобы найти спектраль
ную плотность выходной функции. надо умножить спект
ральную плотность входной функции на квадрат модуля
частотной характеристики .
Зная же спектральную плотность выходной функции.
можно найти ее корреляционную функцию [§ 3, форму
ла (**)]:
QO
k11 (т) = S s11 (ro) el0>'fd6>,
-оо
447
а следовательно, и дисперсию:
DY=ky(О)=� sy(ro)dw.
-00
Пример 2. На вход линейной стационарной динамической с исте·
мы, описываемой уравненнем
ЗУ ' (t) +Y (t)=4X' (t)+X(t),
подается стационарная случайная функция Х (t) с корреляционной
функцией kx (-r) = 6е- 2 \ 't 1. Найти дисперсию случайной функции У (t)
на выходе системы в установившемся режиме.
Реш е 11 и е 1 • Найдем спектральную плотность выходной функ
ции. Используя решение примера 2 (см. § 4) при D =6 и а=2,
получим
Da
6·2
n((1)2+а2)-n(<U2+4)
12
2. Найдем передаточн ую функцию, для чего напишем заданное
уравнение в операторной форме:
(Зр+1 ) У (t) =(4р+1 ) Х (t).
Отсюда
У (t)= ��t:·Х (t).
С
.
ледовательно, передатоЧная фун кция
4р+1
Ф(р)=зр+1•
3. Найдем частотную характеристику , для чего заменим в пере·
даточной функции аргумент р на iro:
.
4i<U+1
Ф (но)= 3i<U+1 •
4. Найдем спектральную плотность выходной функции, для чего
умножим спектральную плотность входной функции на квадрат мо
дуля частотной характеристики:
12
14i@+l l2
12
16@2+1
811('°)=Sx(@)IФ(i<U)/2 n((J)2+4)0JЗi@+112 Л((1)2+4) 9ro2+1 .
5. Найдем искомую дисперсию:
Представим подынтеrрал
_
ьную
_
функцию в . виде суммы простейших
Др обей:
448
Выполнив интегрирование, получим искомую дисперсию:
D11= 96,4.
ЗаАачи
1. Найти дисперсию стационарной случайной функции Х (t),
6
зная ее спектральную плотность s,.
.
(ro) n(I+ro') •
Отв. Dx =6.
2. Найти спектральную плотность стационарной случайной функ
ции Х (/), зная ее корреляционную фун кцию
kx('t) = {
0
1-
� /'tJ при /"tj..
.;
3,
приj't1>З.
( ) 2 sin2 (Зrо/2)
Отв.Вхro=
Зnro2
3. Найти спектральную плотность стационарной случайной функции
Х (t), зная ее корреляционную функцию kx ('t)=Бe-Htl.
Отв. sx (ro)= l0/(n(4+w2)).
4. Задана спектральная плотность sx (ro) =6/(n (l+ ro2)) стацио
нарной случайной функции Х (t). Найти нормированную спектральную
плотность.
Отв. Sx норм (ш) = 1 /(n (1 +ro2)).
5. Найти корреляционн у10 функцию стационарной случайной
функции Х (t), зная ее спектральную пдотность
{ s0 в интервалах (-4ro0, -2ro0) и (2(1)0, 4ro0),
s ((1))=
х
О вне этих 11нтервалов.
Отв. kx(i:) = 2
511sin(J)0't(2cos2ш0"t-1).
't
6. Спектральная плотность стационарной случайной функции Х (/)
постоянна в диапазоне частот ((1)1, (1)2), а вне его равна нулю:
{О при
ш<(J)1
Sx(ro)= s при (J)1<(J)<ш2,
О при
(J)>(J)2·
Найти: а) корреляционную функцию; б) ди<.'персию; в) нормированную
корреляционную функцию случай11ой фун кции Х (t).
0
}k ()-s(sin(J)2't-sinы1't).
тв. а
х't-
't
,
) () sin(J)2't-sin(J)1't
б)Dx=S(ro2 - Ш1); Bf)x 't =
•
't (Шz- Ш1)
7. На вход линейной стационарной динамической системы, опи
сываемоА уравнением
У' (i) +ЗУ (J)=X' (1)+4Х (t),
подаетс я стационарная случайная функция Х (/) с математическим
ожиданием mх =б и корреляцион11ой фун1щней kх (•)=Бе- 21" 1. Найти
lS-210
449
математическое ожидание и дисперсию случайной функции У (t) на
выходе системы в установившемся режиме.
Отв. m11 =8; D,,
,
=22/3.
8. На вход линейной стационарной динамической системы, описы
ваемой уравнением
у• (t)+БУ' (t) +6Y (t) = Х• (t)+X(t),
подается стационарная случайная функция Х (t) с математическим
ожиданием mx =4 и корреляционной функцией kx (т)=e-l'f\. Найти
математическое ожида ние и спектральную плотность случайной функции
У (t) на выходе системы в установившемся режиме.
2
l
l
01n8. m11=3; sfl ((J))=-;t25ro2+(6-(1)2)2·
9•. На вход линеАной стационарной динамической системы, описы
ваемой уравнением
уш (l)+бУ'(t)+ 1 IY' (t)+бУ (t) =7X"' (t)+5X (t),
подается стационарная случайная функция Х (t) с известной корре
ляционной функцией kx ('t) = 2e -l'f 1 (1+ j 't 1 ). Найти спектра.'!ьную
плотность случайной функции У (t) на выходе системы в установив
шемся режиме.
У к а з а н и е. Раз.'!ожить на линейные множители знаменатель
передаточной функции: р3+6р2+ 11р+6=(р+ 1)(р+2)(р+3).
Отв. s11((1))=4(49(1
1
6 +25)/(n((1)2+ 1)3(ro2+4)((1)2+9)).
10. На вход линейной стационарной динамической системы, опи
сываемой уравнением У' (t) +У (t) = Х (/) , поступает случайная функ
ция Х (t) с постоянной спектральной плотностью s0 (стационарный
белый шум). Найти дисперсию случайной функции У (t) на вы ходе
системы в уста новившемся режиме.
Отв. D=s0n.
ДО П ОЛ НЕНИЕ
А. Пример расчета мноrоканапьной системы
массового обспуживания с отказами методом
Монте- Карло
Пусть в систему массового обслуживания с отка
зами (заявка по1шдает такую систему, если все каналы
заняты), состоящую из N каналов, поступает простейший
поток заявок (с:м . гл . VI, § 6), причем плот�ость распре
деления промежутка времени между двумя последова
тельными заявками задана:
f(т)=Ле-'--�- (Л>О, О<'t< оо).
Каждая заявка поступает в первый канал . Если п�рвый
канал свободе н, то он обслуживает заявку; если первый
канал занят, то заявка поступает во второй канал , обслу
живается им (если канал свободен) или передается в тре
тий канал (если первый и второй каналы заняты) и т. д.
В случае, если в момент посту пления заявки все ка
н алы заняты, наступает отказ, т. е. посту пившая заявка
не об служивается и из дальнейшего рассмотрен ия исклю
чается.
Ведетс я подсчет числа обслуженных заявок и числа
отказов. Если заявка обслужен а, то в «счетчик обслу
женных заявок» добавляют единицу; при отказе еди ницу
добавляют в «сче:rч ик отказов»�
Ставится задача : найти математические ожидания
числа обсл уженных заявок и числа отказов за заданное
время Т. Для решения этой задачи производ ят п испы
таний , каждое длительностью Т, и оп редел яют в каждом
испытании число обслуженных заявок и число отказов.
Введе м обозначения :
t06сJ1 - дл ительность обслуживания заявки каналом; .
t;- момент освобождения i-го канала;
Тk - момент поступления k -й зая вки;
тk-длительность времени между поступлениями k-й
и (k +l) -й заявок; Тн 1 =Тk+тk-момент поступления
(k + 1)-й зая вк и, п-число испытани й.
Пусть первая заявка посту пила в момент Т1 = О , когда
все каналы свободн ы. Эта З'аявка поступит в первый
451
кана'/1 и будет им обслужена за время to6tll· в счетчик
обсл �енных зая вок надо записать еди ницу.
.
Раз
� граем момент Т1 посту пления второй заявки, для
чего выберем случайное число r 1 и разыграем т1 (учиты
вая. чтd т распредел ено по показательному закону) по
формуле (см. rл. XXI. § 7, пример 2)
'f1 = - (1/Л.)lnr1•
Следовательно, вторая заявка поступит в момент времени
Т1=f1+i-1=O+i-1=i-1.
Если окажется , что /1 � Т2 (вторая заявка посту пила
_
после того, как первый канал освободил ся), то вто рая
заявка будет обслужена первым каналом и в счетчик
обслуженных заявок надо добавить еди ницу.
Если же окажется , что t1 > Т2, то первый канал занят,
и заявка поступит во второй канал и будет им обсл ужена,
поскольку расчет начат в предположении, что все каналы
свободны; в счетчик обслуженных заявок надо добавить
еди ницу.
Дальнейший расчет производится аналогично. Если
в некото рый момент времени поступления очередной
заявки все каналы заняты, то наступает отказ и в счетчик
отказов надо добавить ед иницу.
Испытание заканчи вается , если очередн ая заявка по
сту пит в момент времени , превышающий момент окончания
испытания, т. е. если Тk+i > Т.
,
В итоге i-го испытания в счетчиках окажутся соот
ветственно число обслуженных заявок мi обсJ1 и число
ОТКаЗОВ М; отк •
Пусть произведе но всего п испытан ий, каждое дл ител ь
ностью Т, Причем .в.
.
i-м испытан ии зарегистрировано
м1 обс.1
1
обслуженных заявок и мi отк отказов . В качестве
оценок искомых математических ожиданий принимают
выборочные средн ие :
п
� Мiотк
м•[М ]=i=I
отк
--
п--
Для вычисления наименьшего числа испытаний, кото
рые с надежностью у обеспечат наперед заданную верхнюю
452
границу ошибки б, можно использовать формулу (см . rл .
XVI, § 15, замечание 2)
где t находят по равенству Ф (t) = у/2, О'= 1/Л.
(см. гл . Xlll, § 3).
Пусть, например, известны среднее квадратическое от
клонение а = 4 и у-=0,95, 6 =О,7. Тогда Ф (t) = 0,95/2 =
&:
::
:
0,475иt=1,96.
Минимальное число испытаний
Предполагалось, что время обслуживания-неслучай
ная величина ; если время обслужи вания случайно, то
расчет про изводитс я аналогично. Разумеется для разы
грывания случайного времен и обслуживания надо задать
закопы его распределен ия дл я каждого канала.
На практике расчет производят ЭВМ.
Б. Применение метода Монте - Карло
к вычислению определенных интегралов
Приведем один из способов вычисления опре
деленных и нтегралов методом Монте- Карло-способ
усреднения п одынтегральной функции .
Требуется найти оценку /� определе нного интеграла
ь
/ = S <р (х) dx . Рассмотрим случайную величину Х, распре-
"
деленную равномерно в интервале интегрирован ия (а, Ь)
с плотностью f (х) = 1/(Ь-а). Тогда математическое ожи
дание
Оrсюда
ь
ь
М[<р(Х)]=5<р(x)f(х)dx= ь
1 а Sq>(х)dx.
ь
а
а
S <p(x) dx = (b -a)·M[q:> (x)].
а
ЗамеN• ·'
математическое ожидание М [q:> (Х)] его оцен-
453
кой - выборочной средней , получим оценку /� искомого
интег рала:
п
�ер(х;)
/� = (Ь-а) ·-'-
=-1 --
n
где х1 -возможные значени я случайной величины Х.
Так как величина Х распределена равномерно в интер
вале {а , Ь) с плотн остью f (х) = 1/(Ь-а), то Х; разыгры-
ь
вают по формуле ь
1
a Sdx=r1 (см. гл. XXI, § 7, пра-
а
.
вило 2). Отсюда Х; = а+(Ь-а) r i·
Пример. Найти.:- а) оценку 1; определенного интеграла / =
3
= � (x + l) dx; б) абсол1отную погрешность 11-1;/; в) минимальное
1
число испытаний, которые с надежностью 1' = 0,95 обеспечат верхнюю
границу ошибки 6=0,1.
·
Решение. Используем формулу
"
п
�ер(х;}
•
i=1
l i =(b-a)---
n--
По условию a =l, Ь =3, cp(x)=x+I.
испытаний п = 10. Тогда оцен ка
Примем для простоты число
10
10
�(x1+l)
/;=(3-1)• i
=
l10
�(х;+1)
=2· _
i
_
=_
l_l
.,.
..,
0
--
Результаты 10 испытаний приведены в табл. 36 . Случайные числа
взяты из приложения 9 с тремя знаками после запятой.
Номер нс-\
пытания i
Г/
2r1
Xt=I+
+2r1
ер(х;) =
=х1+ 1
-
Таблица М
О, !00
0,200
1,200
2,200
121
3
141
5
161
7
181
9
/10
0,973 0 ,253 0 ,376 o,52olo. t35 0,863 0,467 0, 354 0,876
1,946 0,506 0,752 1,040 0,270 1,726 0,934 0,708 1,752
2,946 1,506 1,752 2,040 1,270 2,726 1,934 1,708 2,752
3,946 2,506 2,752 3,040 2,270 3, 726 2,934 2,708 3 ,752
Сложив числа последней строки таблицы, 11аходим �<р(х;) =29,834.
454
Искомая оценка интеграла
1; =2 ·(29 ,834/ 10) = 5 ,967.
б) Найдем абсолютну10 погрешность, приняв во внимание, что
3
1 = � (x +l)dx=6:
1
/ /-/; /=6 -5,967 = 0,033.
в) Найдем дисперсию усредняемой функции ер (Х) = Х+ 1, учи
тывая, что случайная ьели чина Х в интервале интегрирования (1,3)
распределена равномерно и ее дисперсия D (Х) = (3- 1)11/12=1/3
(см. гл. Xll, § 1 , пример 2):
o2 =D (Х+ l)=D(Х) = 1/3.
г) Найдем минимальное число испытаний, которые с надеж
ностью 0,95 обеспечат верхнюю границу ошибки б =О,1 . Из равен
ства Ф(/) = О,95/2 =0,475 по таблице приложения 2 находи м t=l,96.
Искомое минимальное число испытаний
-
1202
J,962.(1/3)
n=62
=
О1�
128•
.
В. Примеры с.луча Аных процессов
1. Процесс Пуассона . Рассмотрим простейший
поток случай ных событий, наступающих в интервале
времени (О, t). Напомним свойства простейшего потока
(см. гл. VI, § 6):
1) ста ц иона р ность (вероятность появления k
событий за время t зависит тол ько от k и t);
2) отс у т ств и е последей ств и я (вероятность
появления k событий в течение промежутка времени
(Т, Т + t) не зависит от того, сколько событий и как
появлялось до момента Т);
3) орди нар ность (вероятность появления более
одн ого события за малый пр омежуток времени Лt есть
бесконечно малая более высокого порядка, чем Лt, т . е.
1•
о (Лt)
Pk>1 (Лt)=о(Лt), где 1m -дГ=О.
ы-о
Поставим своей зада чей найти вероятность Р11 (t) по
явления k событий за время длител ьности t. Для упро
щения вывода используем следствие, 1<ото рое можно по
лучить из приведенных выше свойств:
4) вероятность того, что за малое время Лt насту пит
ровно од но собы'tие, пропорциональна Лt с точностью до
бесконечно малой высшего порядка относ ительно Лt:
Р1 (Лt) = ЛЛt+о(Лt) (Л > О).
(•)
455
а) Найдем вероятность Р0 (t) того , что за время
длительности t не наступ ит ни одного со
б ы т и я. Для этого примем во .внимание, что на проме
жутке t + Лt не наступит ни одн ого события , есл и на
каждом из двух промежутков t и Лt не появится ни
одн ого события .
В силу свойств 1 и 2, по теореме умножен ия,
Р0(t+ Лt)= Р0(t)Р0(Лt).
(**)
Событ ия «за время Лt не поя вилось ни одн ого собы
тия», «ПОЯВИЛОСЬ одно событие», «ПОЯВИЛОСЬ более одного
события» образуют полную гру ппу , поэтому сумма ве
роятностей этих событий равна единице:
P0(Лt)+ P1 (Лt)+P1t> 1(Лt) = 1 .
Учитывая, что Pk> 1 (Лt) =о(Лt) (свойство 3), Р1 (Лt) =
= 'АЛt +о(Л t) (свойство 4), имеем
Р0 (Л t) =l-Л Лt-о (Лt).
(***)
Заметим, что, перейдя к пределу при Лt -+ О, найдем
Р0(0)=1.
(****)
Подставим (***) в (**):
Р0(t+Лt)= Р0(t)[1-ЛЛt-о(Лt)].
Отсюда.
Р0(t+Лt)-Р11(t)= - 'АР'О(t)Лt-о(Лt)Р0(t).
Разделив обе части равенства на Лt и перейдя к пределу
при Лt -- О, получим дифференциальное уравнение
Р�(t)= - 'АР0(t),
общее решение которого
Р0 (t) =Ce-).t.
Используя (****), найдем, что С= 1 и, следовательно,
P0 ( t) =е-М.
Итак, вероятность того, что за время t не появится
ин одн ого событ ия, найдена.
б)Найдем вероятность Р1(t) появления завре-
мя t ровно одного события. д'ля этого опреде
лим вероятность того, что за время t + Лt событие по
я вится од ин раз. Так будет в двух несовместных случаях:
46
6
1) событие наступит за время t и не наступит за время Лt,
2) событие не насту пит за время t и насту пит за время Лt.
По формуле полной вероятности ,
Р1(t+Лt)=Р1(t)Р0(Лt)+Р0(t)Р1(Лt). ·
Заменим Р1 (Лt) и Р0 (Лt) соответственно по формулам (*)
и (*** ) , перенесем Р1 ( t) в левую часть равенства , раздел им
обе его части на Лt и перейдем к пределу при Лt -+- О .
В итоге получим линейное неоднородное уравнение пер
вого порядка
Р;(i)+ЛР1(t)=Ле-1t.
Учитывая начальные услов ия, найдем С =0 и, следова
тел ьно,
Р1 (t) = (Лt) e-1t.
Итак, вероя тность .т ого, что за время t появится ровно
одно событие, на йде на.
в) Найде м вероятность Р1 (t} появлени я за
время t ров1:10 двух событий. Для этого опреде
лим вероятность того, что за время · t + Лt событие по
явится два раза . Так будет в трех несовместных случаях:
1) событие наступит 2 раза за время t и не наступит
за время Лt, 2) событие наступит 1 раз за время t и
1 раз за время Лt, 3) событие не наступит за время t и
наступит 2 раза за время Лt.
По формуле полной вероятности,
Р1(t+Лt)=Р1(t)Р0(Лt)+Р1(t)Р1(Лt)+Р0(t)Р1(Лt).
Замен им Р0 (Лt), Р1 (Лt) и Р1 (t) соответственно по фор
мулам (***), (*) и (*****); примем во внимание условие 4;
перенесем Р1 (t) в левую часть равенства, раздел им обе
его части на Лt и перейдем к предел у при Лt - О. В итоге
получим дифференциальное уравнение
Р;(t)+'АР1 (t) = Л•tе-1-.1• •
Решив это уравнение, найдем вероятность того, что за
время t появится ровно два события:
р(t)_(Л/)
1
е-a.t
1
-
21
Аналогично можно получить вероятность того, что за
время t наступит k событий:
р <t> _ (A.t)k e-a.t
t-
kl•
457
Таким образом, если событи я, наступающие в случай
ные моменты времени, удовлетворяют указанным выше
условиям, то число событий ,, наступающих за фиксиро
ванное время t, распределено по закону Пуассона с па
раметром Лt . Другими словами, если Х (t) - число событий
простейшего потока, насту пивших за время t, то при
фиксированном t функция Х (t) есть сJ1учайная вел ичина,
распределенная по закону Пуассона с параметром "At.
Функцию Х (t). называют случайн ым процессом Пуас сона .
Очевидно, кажда я реализация Х (/) есть неубывающая
ступенчатая функция .
Процесс Пуассона широко используется при решении
многих задач практики и особенно в теории массового
обсл уживан ия.
3 а мечани е. ДлитеJ1ьность времени между появле
ниями двух последовательных событий простейшего потока
(сл учайная величина Т) распределена по показательному
закону. Действ ител ьно, убедимся , что функция распре
деления случайной величины Т имеет вид
F(t)= l-е -л1•
с.обытия Т < t и Т � t противоположны, поэтому
Р(Т<t)+Р(Т�t)=J,
или
F(t)+Р(Т�t)=1.
Оrсюда .
F(t)=1-Р(Т�t).
Р (Т� t) есть вероятность того, что за время длительно
сти t не появится ни од ного события потока ; эта вероят
ность, как показано выше, равна е - Лt .
Итак,
F(t)=1 -е-лt,
что и требовалось доказать.
·
2. Винеровский процесс . Известно, что если в жидкость
погрузить маленькую частицу , то она под вл иянием уда
ров молекул жидкости будет двигаться по ломаной линии
со случайными направлениями звеньев. Это явление на
зывают броуновским движением по имени английского
ботаника Р. Броуна, который в 1827 г. открыл явление,
но не объяснил его. Лишь в 1905 г. А. Эйнштейн описал
броуновское движение математически . В 1918 г . и в по
следующие годы американский ученый Н. Винер построил
458
математическую модель. более точно описывающую броу
новское движение. По этой причине процесс броуновского
движения называют винеровским процессом.
Прежде чем определ ить винеровский процесс. введем
предварительно понятия .нормального процесса и процес
са
с независимыми приращениями.
Случайный процесс Х (t) называют нормальным. (еаус
СОВЬlМ), есл и совместное распределение Х (t1). Х (t1). • • •
,
Х (tk) является нормальным для каждого k и всех t1
(i = 1, 2, ..., k). Нормальный процесс полностью опре
деляетс>1 его характеристиками: математическим ожида
нием и корреляционной функцией .
Случайный процесс Х (t) называют процессом с неза
висимыми приращениями, если его приращения на непе
рек рывающихся интервалах взаимно независимы, т. е .
случайные величины Х (t2) -X (t1), Х (t,)-X(t2)• • • • ,
Х (tk)-X (tk_1) для t1 < t2 < ... < tk взаимно незави
симы. Процесс с независимыми приращениями оп ределяется
распределением приращений Х (t) -X (s) для произволь
ных t и s. Если приращение Х (t)-X(s) зависит только
от разности t - s, то процесс называют процессом со
стац ионарными приращениями.
Винеровскu,� процессом (процессом броуновского дви
жен ия) называют нормальный случайный процесс Х (t)
с независимыми стационарными приращtниями, дл я ко
торого Х(О)=О, М[Х(t)]=0, М[Х(t)2] =<Jtt для
всех t>О.
Важное значение винеровского процесса состоит в том,
что он используется при изучении многих других слу
чайных процес сов.
3. Марковский случайный процесс . Испол ьзуем терми
нологию, введенную в гл . XXII, § 1. Пусть в каждый
момент времени некоторая система может находиться
в одном из состояний Е1, Е2, . . .
(ЧИСЛО состояний ко
нечно и.rtи счетно) . Если система случайно переходит из
одного состояния , например Е1, в другое, например Е1•
то говорят, что в системе происходит случайный процесс.
Если при этом вероятность перехода из состояния Е;
в состояние Е1 зависит только от состоя ния Е; и не за
висит от того, l}orдa и как система пришла в это состоя
ние, то случайный процесс Х (t) называют марков ским.
Другими словами , если для каждого момента времени /0
протекание случайного процесса Х ( t) в будущем (при
t > t0) определяетс я его настоящ им (значением Х (t0)) и
459
не зависит от прошлого (от значений Х (t) при t < t0),
то Х (t) - марковский случайный процесс .
Различают ма рковские процессы с дискретным мно
жеством состояний (число состоя ний конечно или счетно.
переходы из состоя ния в состояние происходят скачком)
и с непрерывным множеством состоян ий. а также разли
чают процессы с дискретным временем (моменты переходов
фиксированны) и с непрерывным временем (моменты пе
реходов сл учайны) .
В качестве примера рассмотрим процесс обслуживания
простейшего потока заявок системой массового обслужи
вания с ожиданием (в такой системе заявка «становится
в очередь», если все каналы заняты) и показательным
временем обслуживан ия; покажем, что этот процесс
является марковским.
Допустим, что в момент времени t0 система находи
лась в некотором оп ределенном состоя нии (обслужи вается
некоторое число зая вок, причем обслуживание каждой
из них уже дл илось определ енное время). Назовем условно
«будущим обслуживанием» обслуживание для моментов
времени t > t0• которое определяется :
а) длительностью оставшегося времени обсл уживания
заявок, посту пивших до момента {0 ;
б) числом заявок, которые посту пят после момента t0;
в) дл ительностью обслуживания этих заявок.
Убеди мся , что будущее обслуживание не зависит от
того, как происходило обслуживание до момента t0•
Действител ьно :
а) длительность оставшегося времени обслужива ния
заявок, которые уже · обслуживались в момент t0, не за
висит от време1:ш обслуживания в силу характеристи
ческого свойства показательного расп ределен ия;
б) число заявок, которые поступят после момента 10,
не зависит от числа заявок, которые посту пили до мо
мента 10, в силу свойства отсутствия последействия про- ·
стейшего потока ;
в) длительность обслуживания заявок , посту пивших
после момента / 0, очевидно, не зависит ни от числа заявок,
которые посту пили до момента /0, ни от длительности
обслуживания каждой из них.
Итак. будущий процесс обслуживания (при t > /0) за
висит только от состоя ния системы в момент t0 и не зависит
от того, ка к протекала работа системы до момента t0• Дру
гими словами . процесс обслуживания простейшего потока
заявок системой с ожида нием и показательным законом
времени обслужи вания является марковским процессом .
1
о.о
0,1
0.2
0,3
0,4
0,5
0,6
0,7
0,8
0,9
1,0
1,1
1,2
1,3
1,4
1,5
1,6
1,7
1,8
l,9
2,0
2,1
2,2
2,3
2,4
2,5
2,6
2,7
2,8
2,9
3,0
3,1
3,2
3,3
ПРИЛОЖ ЕНИЯ
Приложение 1
Таблица sначеииА функции q> (х),.,. .� е
-
х •/2
у
2л
о
111
2
131
4
151
6
171
8
0,3989 3989 3989 3988 3986 3984 3982 3980 3977
3970 3965 3961 3956 395 1 3945 3939 3932 3925
39 10 3902 3894 3885 3876 3867 3857 3847 3836
3814 3802 3790 3778 3765 3752 3739 3726 37 12
3683 3668 3652 3637 362 1 3605 3589 3572 3555
3521 3503 3485 3467 3448 3429 34 10 3391 3372
3332 33 12 3292 327 1 3251 3230 3209 3187 3166
3123 3101 3079 3056 3034 30 11 2989 2966 2943
2897 2874 2850 2827 2803 27SO 2756 2732 2709
2661 2637 2613 2589 2565 2541 2516 2492 2468
0,2420 2396 2371 2347 2323 2299 2275 2251 2227
2179 2155 2131 2107 2083 2059 2036 20 12 1989
1942 1919 1895 1872 1849 1826 1804 1781 1758
· 1 114 1691 1669 1647 1626 1604 1582 1561 1539
149'Z 1476 1456 1435 1415 1а94 1374 1354 1334
1295 1276 1257 1238 1219 1200 1182 1163 1145
1109 1092 1074 1057 1040 1023 1006 0989 0973
0940 0925 0909 0893 0878 0863 0848 0833 08 18
0790 0775 0761 0748 0734 072 1 0707 0694 068 1
0656 0644 0632 0620 0608 0596 0584 0573 0562
0,0540 0529 05 19 0508 0498 0488 0478 0468 0459
0440 0431 0422 0413 0404 0396 0387 0379 037 1
0355 0347 0339 0332 0325 03 17 03 10 0303 0297
0283 0277 0270 0264 0258 0252 0246 024 1 0235
0224 02 19 02 13 0208 0203 0198 0194 0189 0184
0175 0171 0167 0163 0158 0154 0151 0147 0143
0136 0132 0129 0126 0122 0119 0116 0113 0110
0104 0101 0099 0096 0093 0091 0088 0086 0084
0079 0077 0075 0073 007 1 0069 0067 0065 0063
0060 0058 0056 0055 0053 0051 0050 0048 0047
0,0044 0043 0042 0040 0039 0038 0037 0036 0035
0033 0032 0031 0030 0029 0028 0027 0026 0025
0024 0023 0022 0022 0021 0020 0020 00 19 00 18
0017 0017 0016 0016 0015 0015 0014 0014 0013
19
3973
39 18
3825
3697
3538
3352
3144
2920
2685
2444
2203
1965
1736
1518
1315
1127
0957
0804
0669
055 1
0449
0363
0290
0229
0180
0139
0107
0081
0061
0046
0034
0025
00 18
00 13
461
1
3,4
3,5
3,6
3,7
3,8
3,9
х
0,00
0,01
0,02
0,03
0,04
0,05
0,06
0,07
0,08
0,09
0,10
0,11
0,12
0,13
0,14
0,15
О, 16
0,17
0,18
0, 19
0,20
0,21
0,22
0,23
462
Продолжение прилож. 1
о
l11
2
1з1
4
151
6
171
8
19
0012 0012 0012 0011 0011 0010 0010 0010 0009 0009
0009 0008 00
0
8 0008 0008 0007 0007 0007 00
0
7 0006
00
06
00
06
0006 0005 0005 0005 0005 0005 0005 0004
00
0
4 0004 0004 0004 0004 0004 0003 0003 0003 0003
00
0
300
0
3 0003 0003 0003 0002 0002 00
0
2 0002 0002
0002 00
02
0002 00
0
2 0002 0002 0002 0002 0001 0001
Приложение 2
х
Таб.l ица зиачениl функции Ф (х) = �2п s e-z•12 dz
о
1Ф(х)
11х1
ф (Х)
11х1
ф (Х)
11х1
ф (Х)
0,00
00
1 0,24 0 ,0948 0 ,48 0 ,1844 '/ 0,72 0,2642
0,0040 1 0,25 0 ,0987 0 ,49 0 , 1879 0,73 0,2673
0,0080 . 0,26 0 ,1026 0,50 0,1915 0,74 0 ,2703
0,0120 0,27 0 ,1064 0,51 0, 1950 0,75 0 ,2734
0,0160 0,28 0 ,1103 0,52 О, 1985 0,76 0 ,2764
0,0199 0,29 О ,1 141 0,53 0,2019 0,77 0,2794
0, 0239 0,30 0 ,1179 0,54 0 ,2054 0 ,78 0,2823
0,0279 0,31 0, 1217 0,55 0,2088 0 ,79 0, 2852
0,0319 0,32 О, 1255 0,56 0,2123 0,80 0,2881
0,0359 0 ,33 О, 1293 0,57 0 ,2157 0,81 0,2910
0,0398 0,34 0,1331 0,58 0 ,2190 0,82 0 ,2939
0,0438 0,35 0 ,1368 0,59 0 ,2224 0,83 0 , 2967
0,0478 0,36 0, 1406 0,60 0 ,2257 0 ,84 0,2995
0,0517 0,37 0 ,1443 0,61 0,2291 0,85 0 ,3023
0,0557 0,38 0, 1480 0,62 0 ,2324 0,86 0 ,3051
0,0596 0 ,39 0,1517 0,63 0 ,2357 0,87 0,3078
0,0636 0,40 0 ,1554 0,64 0,2389 0,88 0,3106
0,0675 0,41 0,1591 0,65 0 ,2422 0,89 0 ,3133
0,0714 0,42 0 , 1628 0,66 0 ,2454 0,90 0,3159
0,0753 0,43 0,1664 0,67 0,2486 0,91 0,3186
0,0793 0,44 0, 1700 0,68 0,2517 0,92 0,3212
0,0832 0 ,45 0, 1736 0,69 0,2549 0,93 0 , 3238
0,0871 0,46 0,1772 0,70 0,2580 0,94 0,3264
0,0910 0,47 0, 1808 0,71 0,261 1 0,95 0 ,3289
Прооолженr1е прилож. 2
1111111
1'
1
.\
Ф(лl
•
Ф(х)
•
Ф{:I:) 11х
Ф(х)
li,.
1! 1,78
'i
0,96 0,3315 1,37 0,4147
0,4625 1 2,ЗG 0, 490!t .
0,97 0,3340 1,38 0 ,4162 j 1.79 0 ,4633
.
2,38 0 ,49 13
0,98 0 ,3365 1,39 0,4177 ! 1,80 О,4б41 ! 2,40 0,4918
0,99 0,3389 J ,40 0,4192 ! 1,81 0,4649 1 2 , 42 0,4922
1,00 0 ,3413 1,41 0,4207 i 1,82 0,4656 1 2,44 0,4927
1,01 0,3438 1 ,42 0,4222 ' 1 ,83 0,4664 . 2,46 0, 4931
1,02 0 ,34G1 1 ,4.З 0, 423!) 1 1,84 0,4671 2,48 0, 4934
1,03 0 ,3485 1 ,44 0,4251 1 J ,85 0,4678
1 2,50 0,4938
1,04 0,3508 1,45 0,4265 1 1 ,8б 0,4686 2 ,52 0,494 1
1,05 0,3531 1,46 0,4279 i 1 ,87 0,4693 \ 2,54 0 ,4945
1,06 0 ,3554 1,47 0,4292 1 ,8'1
0,4699 1 2,56 0,4948
1,07 0 ,3577 1,48 0,4305 J ,89 0,4706 1 2,58 0,4951
1,08 0 ,3599 1,49 0,4319 1,90 0,4713
1t)
60 0,4953
1,09 0,3621 1 ,50 0,4332 1,91 0,4719 2:62 0,4956
l,IO 0,3643 1 ,51 0,4345 1 1,92 0,4726 2 ,64 0,4959
1 , 11 0,3665 1,52 0,4357 1 1,93 0,4732 2 ,66 0,4961
1,12 0,3686 1,53 О,4.З70 i J ,94 0,4738 2 ,68 0 ,4963
1,13 0 ,3708 1,54 0,4382 ; 1,95 0,4744 2,70 0 , 4965
1,14 0, 3729 1,55 0, 4394
1 1,96 0,4750 2,72 0 ,4967
1,15 0 ,3749 1,56 0, 4406 1 '·"' 0,4756 2,74 0 ,4969
1,16 0 ,3770 1,57 0,4418 1 ,98 0 ,4761 2,76 0,497 1
1,17 0,3790 J ,58 0,4429 1,99 0,4767 2 ,78 0,4973
1,18 0 ,3810 1,59 0,4441
1
2,00 0, 4772 1 2,80 0 ,4974
1,19 0,3830 1,60 0, 4452 2 ,02 0, 4783 i 2,82 0, 4976
1,20 0,3849 J,61 0,4463 , 2,04 0, 4793
1 2,84 0,4977
1,21 0,3869 1 ,62 0,4474 2 ,0G 0, 4803 2,86 0,4979
1,22 0,3883 1 ,133
0, 4484 i 2,08 0,4812 2,88 0 ,4980
1,23 0,3907 1,64 0,4495 1 2,10 0,4821 2 ,90 0,498 1
1,24 0 ,3925 1 ,65 0, 4505 2,12 0,48 .ЗО 2 ,92 0,4982
1,25 0 ,3944 1,613 0,45 15 i 2,14 0,4838
(4 0,4984
1,26 0,3962 1,67 0,4525 i 2,16 0,4846 1 2,96 0,4985
1,27 0 ,3980 1,68 0,4535 1 •· •• 0,4854 1 2,98 0,4985
1,28 0, 3997 1 ,69 0,4545 2,20 0,4861
1 3,00 0 ,49865
1,29 0 ,4015
i 1,70 0 ,4554 2 ,22 0,4868
1 3,20 0,49931
1,30 0 ,4032 1 ,71 0,4554 2,24 0,4875 , 3,40 0 , 49966
1 , 31 0,4049 1,72 0, 4573 1 2,26 0, 4881
11
3,60 0,499841
1,32 0,4066 i 1,73 0,4582 j 2,28 0,4887 3,80 0, 499928
1,33 0 ,4082 1 ,74 0,459 1 i 2,30 0,4893
1'
4,00 0,499968
1,34 0 ,4099 1 '·75 0,4599 1 2,32 0,4898 ! 4,50 0, 499997
\,35 0 ,4115 1.76 0,4608 i 2,34 0,4904 1/ 5,00 0,499997
1,36 0 ,4131 1 • ·77 0,4616 (
1.
j
i
1
1
1
1
11
1
1
1
1
463
П риложение З
ТабJ1ица значений fv = t (у, п)
1v111'V
п
11
п
1
1
0,95
0,99
0,999
0,95
0,99
0,999
5
2,78
4,60
8,61
20 2,093 2 ,861
3,883
6
2,57
4,03
6,86 25 2,064 2,797 3 ,745
7 2,45
3, 71
5,96 30 2,045
2,756
3 ,659
8 2,37 3,50 -5 ,41
35 2,032
2,720 3,600
9 2,31
3,36
5,04
40 2,023 2 ,708
3,558
10 2,26 3,25
4,78
45 2,016 2,692
3,527
11
2,23 3,17 4,59
50 2,009 2,679 3,502
12 2,20
3, 11
4,44
60 2,001
2,662
3,464
13 2,18 3,06
4,32
70 1,996
2,649
3,439
14 2,16 3 ,01
4,22
80 1,001
2,640 3,418
15 2,15 2,98
4,14 90 1,987
2,633
3,403
16 2,13 2 ,95
4,07 100
1,984
2,627
3,392
17 2.12 2,92
4,02 120
1,980 2 ,617 3,374
18 2,11 2,90 3,97
00
1,960 2 ,576 3 ,291
19 2,10 2,88 3,92
П риложен ие 4
ТабJ1нца значениii q = q (у, n)
1 '\'0,999�1 '\'
11
11
11
1
1
0,95
0,99
0,95
0,99
0,999
5 1,37
2,67 5,64 20 0 ,37
0,58
0,88
6 1,09 2,01 3,88 25 0,32
0,49
0,73
7 0,92
1,62 2,98 30 0,28
0,43
0,63
8 0,80
1,38 2,42 35
0,26
0,38
0,56
9 0,71
1,20 2,06 40 0,24
0,35
0,50
10 0,65
1 ,08 1,80
45
0,22
0,32
0,46
11 0,59
0,98 1,60 50 0,21
0,30
0,43
12 0,55 0,90 1,45 60 0,188 0,269 0,38
13 0,52 0 ,83 1,33 70 0,174 0,245 0,34
)4 0,48
0,78 1,23 80
О, 161
0,226 0,31
15 0,46
0,73 1,15 90
О, 151
0,21 1
0,29
16 0,44 0,70 1,07 100 0,143 0,198 0,27
17 0,42
0,66 1 ,01 150 0,115 0,160 0,211
18 0,40 0,63 0,96 200 0,09
9
0,136 0,185
19 0,39 0,60 0,92 250 0,089 0,120 0,162
Приложение 6
Критические точки pacnpeAe.1
1
eнu х•
Уровень значимости а
-
Число
степеиеll
11111
свободы
0,01
0,025
0,05
0,95
0,975
0,89
k
1
6,6
5,0
3,8
0,0039 0 ,00098 0,00
0
16
2
9,2
7,4
6,0
0, 103 0 ,051
0,020
3
11 ,3
9,4
7,8
0,352
0,216 0 , 115
4
13,3
11,1
9,5
0,71 1
0,484 0 ,297
5
15, 1
12,8
11 '1
1,15
0,831
0,554
6
16,8
14,4
12,6
1,64
1,24
0,872
7
18,5
16,О
14, 1
2, 17
1,69
1,24
8
20, 1
17,5
15,5
2,73
2, 18
1 ,65
9
21 ,7
19,0
16,9
З,33
2,70
2,09
10
23 ,2
20 ,5
18,З
3,94
З,25
2,55
JI
24 ,7
21 ,9
19,7
4,57
3,82
3,05
12
26 ,2
23 ,3
21 ,0
5,23
4,40
3,57
13
27 ,7
24 ,7
22 ,4
5,89
5,01
4,1 1
14
29,1
26 ,1
23 ,7
6,57
5,63
4,66
15
30,6
27 ,5
25 ,О
7,26
6,26
5,23
16
32 ,О
28 ,8
26 ,3
7,96
6,91
5,81
17
33 ,4
30,2
27 ,6
8,67
7,56
6,41
18
34 ,8
31 ,5
28,9
9,39
8,23
7,01
1
19
36,2
32 ,9
10,1 IO,I
8,91
7,63
20
37,6
34 �2
31 ,4 10,9
9,59
8,26
21
38,9
35,5
32,7 11,б
10,3
8,90
22
40 ,3
36,8
33,9 12,3
11 ,о
9,54
23
41 ,6
38,1
35,2 13,1
11.7
J0,2
1
24
43 ,0
39 ,4
36,4 13,8
12,4
I0,9
.
25
44 ,3
40,6
37 ,7 14,б
13, )
11,5
26
45,6
41 ,9
38,9 15,4
13,8
12,2
27
47 ,0
43 ,2
40, 1 16,2
14,6
12,9
28
48,3
44 ,5
41 ,3 16,9
15,3
13,б
29
49 ,6
45 ,7
42,6 17,7
16,0
14,3
30
50,9
47 ,0
43 ,8 18,5
16,8
15,0
Приложе ние 6
l(ритвческие точки распре,целени11 Стьюаеита
Чвело
Уровень sначнмости � (двусторонняя критическая обпасть)
степеней
10,05·\11·1
'СаобоАЫ О, 10
0,02
0,01
0,002
0,00 1
k
1
6,31
12,7
31,82 63,7
318 ,3 637 ,0
2
2,92
4,30
6,97 9,92
22,33 31 ,6
3
2,35
3, 18
4,54
5,84
10,22
12,9
4
2,13
2,78
3,75
4,60
7, 17
8,61
5
2,01
2,57
3,37
4,03
5,89
6,86
6
1 ,94
,2,45
3,14 3,71
5,21
5,96
7
1,89
2,36
3,00 3,50
4,79
5,40
8
1,86
2,31
2,90
3,36
4 ,50
5,04
9
1,83
2,26
2,82
3,25
4,30
4,78
10
1,81
2,23
2,76
3, 17
4,14
4,59
1J
1,80
2,20
2,72 3, 11
4,03
4,44
12
1,78
2, 18
2,68 3,05
3,93
4,32
13
1,77
2,16
2,65 3,01
3,85
4,22
14
1,76
2,14
2,62 2,98
3,79
4,14
15
1,75
2,13
2,60
2,95
3,73
4,07
16
1,75
2, 12
2,58 2,92
3,69
4,01
17
1 ,74
2,11
2,57 2,90
3 ,65
3,96
18
1,73
2,10
2,55 2,88
3,61
3,92
19
1,73
2,09
2,54
2,86
3,58
3,88
20
1,73
2,09
2,53 2,85
3,55
3,85
21
1,72
2,08
' 2,52 2,83
3,53
3,82
22
1,72
2,07
2,51
2,82
3,51 "
3,79
23
1,71
2,07
2,50 2,81
3,49
3,77
24
1,71
2,06
2,49
2,80
3,47
3,74
25
J '71
2,06
2,49
2,79
3,45
3,72
26
1,71
2,06
2,48
2,78
3,44
3,71
27
1'71
2,05
2,47 2,77
3,42
3,69
28
1,70
2,05
2,46
2,76
3,40
3,66
29
J '70
2,05
2,46
2,76
3,40
3,66
30
1,70
2,04
2,46
2,71;)
3,39
3,65
40
1,68
2,02
2,42
2,70
3,31
3,55
60
1 ,67
2,00
2,39
2,66
3,23
3,46
120
1,66
1,98
2,36 2 ,62
3,17
3,37
00
1,64
1,96
2,33
2,58
3,09
3,29
0,05
1 0,025
1 0,01
1 0,005
1 0,001
1 0,0005
Уровень значимости � (односторонняя критическая об-
.пасть)
46
6
ks
1
2
3
4
5
6
7
8
9
1О
11
12
13
14
15
16
17
k.
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
Приложение 7
Критические точ�и распре.-tе.венu F Фишера - СнеАекора
(k1 - число степеней свGбоды большей дисперсии.
k1-число степеней свсбоды меньшей дисперсии)
Уровень значимости ci=O,O 1
1
k,
112�з14151
б
111
8
191
101
11
112
4052 4999 5403 5625 5764 5889 5928, 598 1 6022 , 6056 6082, 6106
98,49 99 ,01 99, 17 99,25 99,30 99,33 99,34 99 ,36 99,38199,40 99.41 j99,42
34, 12 30,81 29,46 28,7 1 28,24 27,91 27,67 27 ,49 27 ,34 27.23 27,1327,05
21.20 18,00 16,69 15,98 15,52 15,21 14,98 14,80 14,66 14,54 14,45 14,37
16,26 13,27 12,06 11,39 10,97 10,67 10,45 10,27 10,15 10,05 9,96 9,89
13,74 10,92 9,78 9, 15 8.75 8,47 8,26 8, 10 7 ,98 7,87 7,79 7,72
12,25 9,55 8,45 7.85 7,46 7, 19 7,00 6,84 6,7 1 6,62 6,54 6,47
11,26 8,65 7,59 7 ,01 6,63 6,37 6,19 . 6,03 5,91 5,82 5,74 5,67
10,56 8,02 6,99 6,42 �.Об 5,80 5.62 5,47 5,35 5,26 5.18 5,11
10,04 7 ,56 6 ,55 5,99 5,64 5,39 5,21 5.06 4 ,95 4,85 4 ,78 4,71
9,86 7,20 6,22 5,67 5,32 5,07 4 ,88 4,74 4,63 4,54 4 ,46 4 .40
9,33 6,93 5,95 5,41 5,06 4,82 4,65 4,50 4,39 4,30 4,22 4,16
9,07 6,70 5,74 5,20 4 ,86 4,62 4,44 4,30 4,19 4 ,10 4,02 3.96
8,86 6 .51 5,56 5,03 4,69 4,46 4,28 4 ,14 4,03 3,94 3,86 3,80
8,68 6,36 5,42 4,89 4,56 4,32 4,14 4,00 3.89 3,80 3,73 3,67
8,53 6,23 5,29 4,77 4,44 4 ,20 4,03 3,89 3 ,78 3,69 3,61 3,55
8,40 6,11 5, 18 4,67 4,34 4,10 3,93 3,79 3,68 3,59 3,52 3,45
Уровень значимости ci=0,05
1
k,
1121з1
415!б1118191
10111112
161 200 216 225 230 234 237 239 241 242 243 244
18,51 19,00 19,16 19,25 19,3() 19,33 19,36 19,37 19,38 19.39 19,40 19,41
10.13 9,55 9,28 9,12 9,01 8,94 8,88 8,84 8,81 8,78 8,76 8,74
7,71 6,94 6,59 6,39 6,26 6,16 6,09 6 ,04 6,00 5,96 5,93 5,91
6,61 5,79 5.41 5,19 5,05 4,95 4,88 4.82 4,78 4,74 4,70 4,68
5,99 5,14 4,76 4,53 4,39 4,28 4,21 4,15 4,10 4.06 4,03 4,00
5,59 4,74 4,35 4, 12 3,97 3,87 3,79 3,73 3,68 3,63 3,60 3,57
5,32 4,45 4,07 3,84 3,69 3,58 3,50 3,44 3,39 3,34 3 ,31 3,28
5.12 4,26 3,86 3,63 3.48 3,37 3,29 3,23 3,18 3,13 3,10 3,07
4,96 4,10 3,71 3.48 3,33 3,22 3,14 3,07 3.02 2,97 2,94 2,91
4,84 3 ,98 3,59 3,36 3,20 3,09 3 ,01 2,95 2,90 2,86 2,82 2,79
4,75 3,88 3,49 3,26 3,1 1 3,00 2,92 2.85 2 ,80 2,76 2,72 2,69
4,67 3,80 3,41 3,18 3,02 2,92 2,84 2,77 2,72 2,67 2,63 2,60
4.60 3,74 3,34 3,1 1 2,96 2,85 2,77 2,70 2,65 2,60 2,56 2,53
4.54 3,68 3,29 3,06 2,90 2,79 2 .70 2,64 2,59 2,55 2,51 2,48
4,49 3,63 3, 24 3,01 2,85 2 .74 2 ,66 2,59 2 .54 2 ,491 2,45 '2,42
4.45 3,59 3,20 2,96 2,81 2,70 2 ,62 2.55 2,50 2,45 2 ,41 2,38
467
1
12
з
4
б
6
7
8
9
10
12
15
20
24
30
40
60
120
00
l
1234 _
5
6
7
8
9
10
12
15
20
24
30
40
60
120
00
При л ожение 8
Крнтнческне точки расnре.-елени• Кочрена
(k- число степеней свободы , 1- количество выборок)
-
Уровень значимости а"0,01
k
-
1121
з1
4
15,161
7
0,9999 0 ,9950 0 ,9794 0 ,9586 0 ,9373 0,9172 0,8988
9933 9423 8831
8335
7933 7606
7335
9676 8643 7814 72 12 6761
64 10
6129
0,9279 0,7885 0 ,6957 0,6329 0 ,5875 0 ,5531 0,5259
8828
72 18 6258 5635
5195 4866
4608
8376
6644 5685 5080 4659 4347
4105
0,7945 0,6152 0,5209 0,4627 0,4226 0 ,3932 0 ,3704
7544 5727 48 10 425 1
3870 3592
3378
7175 5358 4469 3934 3572
3308
3106
0,6528 0,4751 0,3919 0,3428 0,3099 0,286 1 0,2680
5747 4069 33 17 2882 2593
2386
2228
4799 3297 2654
2288 2048
1877
1748
0,4247 0,2871 0,2295 0, 1970 0,1759 0,1608 0 ,1495
3632
24 12
1913
1635
1454
1327
1232
2940
1915
1508
1281
1135
1033
0957
0,2151 О,1371 0,1069 0,0902 0,0796 0,0722 0,0668
1225 0759 0585 0489 0429 0387
0357
0000 0000 0000 0000 0000 0000
0000
Уровень 3H8ЧltMOCTH а:•О,О 1
k
8
191
101
16
136
1 144
1ф
1
0,8823 0,8674 0 ,8539 0 ,7949 0,7067 0,6062 0,5000
7107
69 12 6743
6059
5153 4230
3333
5897 5702
5536 4884
4057
325 1
2500 '
0,5037 0,4854 0,4697 0,4094 0,335 1 0 ,2644 0,2000
4401
4229
4084 3529
2858
2229
1667
39 11 3751
36 16 3105
2494
1929
1429
0,3522 0,3373 0,3248 0,2779 0,2214 0,1700 0, 1250
3207 3067
2950
2514
1 992
1521
1111
2945
2813 2704
2297
181 1
1376
1000
0,2535 0,2419 0,2320 0, 1961 0, 15"35 0,1157 0,0833
2104
2002
1918
1612
1251
09:!4
0667
1646 1567
1501
1248
09СЮ 0709
0500
0,1406 0;1338 0,1283 О, !060 0,0810 0,0595 0,0417
1157
lIOO
1054 0867 0658 0480
0333
0898 0853 08 16 0668 0503
03tЭ3
0250
0,0625 0,0594 0 ,05G7 0,046 1 0,0144 0 ,0245 0,0167
ОЗ.
.
14
0316 0.102 0242 0178 0125
0083
00
00
00
00
0000 0000 0000
000
0
0000
1l
1
1
2
2 0,9985 0,9750
3 9669
8709
4 9065
7679
5 0,8412 0,6338
6 7808
6161
7 7271
56 12
8 0,6798 0,5157
9 6385
4775
10 6020
4450
12 0,5410 0,3924
15 4709 3346
20 3894
2705
24 0,3434 0,2354
30 2929
1980
40 2370
1576
60 0,1737 0,1 131
120 0998
0632
00
0000
0000
1l
1
8
9
2 0,8159 0,8010
3 6333
6167
4 5115 5017
5 0,4387 0,424 1
6 3817 3682
7 3384
3259
8 0,3043 0,2926
9 2768
2659
10 2541
2439
12 0,2187 0,2098
15 1815
1736
20 1422
1357
24 О,1216 0,1 160
30 1002
0958
40 0780
0745
60 0,0552 0,0520
120 0292
0279
00
0000
0000
Продолжен, и,е прилож. 8
Уровень значимости а.=0 ,05
k
131
4
15
0,9392 0,9057 0,8772
7977
7457
707 1
684 1
6287
5895
0,5981 0,5440 0,5063
532 1
4803
4447
4800
4307
3974
0,4377 0,3910 0,3595
4027
3584
3286
3733
3311
3029
0,3624 0,2880 0,2624
2758 2419 2195
2205
1921
1735
0,1907 0,1656 о, 1493
1593
1377
1237
1259
101'2
0968
0,0895 0,0765 0,0682
0495
04 19
037 1
0000
0000
0000
УроБень значи мости а.=0,05
k
1101 161
36
0,7880 0,734 1 0,6602
6025
5466 4748
4884
4366 3720
0,41,18 0,3645 0,3066
3568
3135
261 2
3154 2756 2278
0,2829 0,2462 0,2022
2568 2226
1820
2353
2032
1655
0,2020 0,1737 0,1403
1671
1429
1144
1303
1108
0879
О, 1113 0,0942 0,0743
092 1
077 1
0604
07 13 0595
0462
0,0497 0,041 1 0,0316
0266
02 18 0165
0000
0000
0000
161
0,8534
6771
0,5598
4783
4184
3726
0,3362
3067
2823
0,2439
2034
1602
О, 1374
1137
0887
0,0623
0337
0000
11441
0,58 13
403 1
3093
0,2013
21 19
1833
0,1616
1446
1308
о,1100
0889
0675
0,0567
0457
0347
0,0234
0120
00
00
7
0,8332
6530
5365
0,4564
3980
3535
0,3185
2901
2666
0,2299
1911
1501
0,1286
1061
0827
0,0583
03 12
0000
..,
0,5000
3333
2500
0,200
0
1667
1429
О,1250
1 111
1000
0,0833
0667
0500
0,0417
0333
0250
0,0167
0083
000
0
469
Приложение 9
Равномерно распреАе.tевнwе иучаiiиwе ч1КJ1а
10 09732533 76 5201 35 86 3467 3548 76 80959091 17
37 54204805 648947 42 96 24 80 52 40 37 206361 0402
0842268953 1964 50 93 03 23 20902560 1595 33 47 64
9901902529 09 37 67 07 15 3831 13 1165 8867674397
1280799970 80 15736147 6403236653 9895 116877
6606574717 3407276850 3669736170 6581339885
3106010805 4557182406 35303426 14 8679907439
8526977602 0205165692 6866574818' 7305385247
63573321 35 053254 7048 9055357548 2846828709
73 796457 53 03 529647 78 3580834282 6093520344
9852017767 1490568607 22 10940558 6097093433
11 805054 31 39 80827732 5072568248 29 40 524201
83 45299634 0628898083 13 74670078 18 475406 10
8868540200 8650758401 3676667951 -9036476493
9959467348 87 51 76 49 69 91 82 608928 93 78 561368
6548 117674 1746850950 5804776974 73039571 86
8012435635 1772708015 4531822374 21 11578253
7435099817 77402772 14 43236002 10 4552 164237
6991626803 6625229148 3693687203 7662 113990
0989320505 14 22568514 46 42 75 67 88 96 29778822
9149914523 6847927686 4616283554 9475089923
8033694598 26 94036858 70 29 73 41 35 53 14 033340
44 10481949 8515747954 3297926575 57�040881
12 5507 37 42 11 10 002040 12 86074697 9664489439
6360649329 1650534484 4021952563 4365 177082
61 19690446 2645747774 5192433729 6539459593
1547445266 95 27 07 9953 59 36 783848 82 39 61 01 18
9455728573 6789754387 54'62244431 9119042592
42 4811 6213 97 34 40 87 21 1686848767 03 0711 2059
23 52 37 83 17 73 20889837 6893591416 2625229663
0449352494 7524633824 4586251025 6196279335
0054997654 64 051881 59. 96 11 96 3896 5469282391
359631 5307 2689809354 3335 135462 7797450024
5980808391 4542726842 8360949700 1302124892
4605885236 0139092286 7728 144077 9391083647
470
Продолжение прилож. 9
3217900597 8737925241 0556707007 8674317157
6923461406 2011745204 1595660000 1874392423
195654 1431) 01758753 79 4041921585 6667436806
4515514938 1947607246 4366794543 5904790033
9486431994 3616810851 3488881553 0154035456
9808624826 4524028404 4499908896 3909473407
3318516232 4194 150949 8943548581 886954 1994
8095100406 9638270774 2015123387 2501625298
7975249140 7196 128296 6986 102591 7485220539
1863332537 9814506571 3101024674 0545561427
7402943902 7755732270 97790171 19 5252758021
54 17845!511 809933714:3 0533512969 5612719255
1166449883 5207984827 5938171539 0997333440
4832477928 3124964710 0229536870 3230757546
6907494138 8763791976 3558404401 1051821615
Приложение 10
Критические точки критерия Вилкоксона
--
Объемы
Q
Объемы
Q
выборок
выборок
"•
1п. o,oos/ 0.01 10.o:isl o,os п,
1 п. o,oosl o.01 lo .02s\ o.os
6623242628
11773234 36 39
724252730
834353841
825272931
935374043
926283133
1037394245
1027293235
1138404447
1128303437
1240424649
1230323538
1.З41444852
1331333740
1443455054
1432343842
1544475256
1533364044
1646495458
1634374246
17-47515661
1736394347
1849525863
1837404549
1950546065
!
1938414651
2052566267
2039434853
2153586469
2140445055
1
2255596672
2242455157
2357616874
2343475358
12458637076
12444485460
2560647278
2545505662
471
Продо11жение прилож. 10
Объемы
Q
Объемы
Q
выборок
выборок
п,
J п. 0.0051 0.01 10.025
1о.�5 п,
1 п, о.005Го.01 /0.0251 o.os
8
843454951
189296103lIO
945475154
19 9499107.113
104749•5356
20 97 I02 JJO 117
1149515559
21 99 105 113 120
125153.5862
22 !02 108 116 123
1353566064
23 105 110 11.&' 127
1454586267
24 107 113 122 130
1556606569
25 110 116 126 134
16586267721111879196100
1760647075
12909499104
1862667277
139397I03108
1964687480
1496100106112
2066707783
1599103llO116
2168727985
16 !02 I07 113 120
227074811.
.-
--
88
17 105 llO 117 123
2371768490
18 108 113 121 127
2473788693
19 111 116 124 131
2575818996
20 114 119 128 135
9
956596266
21 117 123 131 139
1058.616569
22 120 126 135 143
1161636872
23 123 129 139 147
126366711Ь
24 126 132 142 151
1365687378
25129136146155
14677176811212!05109115120
1569737984
13 109 113 119 125
1672768287
14 112 116 123 129
1774788490
15 115 120 127 133
1876818793
16 119 124 131 138
1978839096
17122127135142
2081859399
18 125 131 139 146
2183889510'2
19129134143150
22859098105
238893IOJ108
20132138147155
21 136 142 151 159
249095104111
22 139 145 155 163
259298107114
23142149159168
101071747882
24 146 153 163 172
1173778186
25 149 156 167 176
12767984891313125130136142
1379828892
1481859196
14129134141147
15133138145152
1584889499
16136142150156
16869197103
17 140 146 154 161
J78993100106
1 18144150158166
471
Объемы
в ыборок
п,
1п,
19
20
21
22
23
24
25
14 14
15
16
17
18
19
20
21
22
23
24
25
15 15
16
17
18
19
20
21
22
23
24
25
16 16
17
18
19
20
21
22
23
24
25
17 17
18
19
Продолжение приАож. 10
Q
Объемы
Q
в ыборок
0,0051 о,01 \0.0251 0,05
п,
1п, o,oosl0,01 /o.02slо,о5
148 154 163 171
151 158 167 175
155 162 171 180
159 166 176 185
1
163 170 180 189
166 174 185 194
170 178 189 ·199 18
147 152 160 166
151 156 164 171
155 161 169 176
159 165 174 182
163 .170 179 1 87
168 174 183 192
172 178 188 197
176 183 193 202 19
ню 187 198 207
184 192 203 212
188 196 207 218
192 200 212 223
1
171 176 184 192
175 181 ню 197
1
180 186 195 203 20
184 190 200
�
�
11
189 195 205
193 200 2102201
198 205 216 225
202 210 221 231
1
207 214 226 236
211 219 231 242 21
216 224 237 248
1
196 202 211 219
201 207 217 225
206 212 222 231
1
2!0 218 228 237 22
215 223 234 243
220 228 239 249
11
225 233 245 255
230 238 251 261.23
235 244 256 267 '
240 249 262 273
223 230 240 249 24
228 2ЗS 246 255
l25
234 241 252 262
20 239
21 244
22 249
23 255
24 260
25 265
18 252
19 258
20 263
21 269
22 275
23 280
24 2R6
25 292
19 283
20 289
21 295
22
! 30J
23 307
24 1 �113
25 Зl!J
20 315
21 322
22 328
23 335
24 341
25 348
21 349
22 356
23 363
24 370
25 377
22 Зt\6
23 393
24 400
25 408
23 424
"'
..
..
'к
431
25 439
24 464
25 472
25 505
246
252
258
263
269
275
259
265
271
277
283
289
295
3Ul
291
297
303
311)
316
323
329
324
331
337
344
351
358
359
366
373
381
388
396
403
411
419
434
443
451
475
484
517
258 268
264 274
270 281
276 287
282 294
288 30
0
270 280
277 287
283 294
290 301
296 307
303 314
309 321
316 328
303 313
309 320
316 328
323 335
330 342
337 350
344 357
337 348
344 356
351 364
359 371
366 379
373 387
373 385
381 393
388 401
396 • 410
404 418
411 424
419 432
427 441
435 450
451 465
459 474
468 483
492 507
501 517
536 552
473
ПРЕДМ ЕТНЫЙ УКАЭАТЕЛЬ
Асимметрия 137, 138, 229 , 250
Асимптотическое приближение 57
Варианта 192
Варианты равноотстоящие 237
-
условные 238
Вариационный ряд 192
Величина случайная 64
- - двумерная 156
- - дискретная 65
-
-
комплексная 413
- - не прерывная 65, 111
- - одномерная 155
- - центрированная 87
Величины случайные взаимно не-
зависимые 79
-
- зависимые 79
- - к оррелированные 179
- - независимые 79, 176
-
-
некоррелированные 179
Вероятность безусловная 37
- доверител ьная (надежность) 213
- з аданного отклонения нормаль-
ной случайной величины 133
- , определение аксиоматическое
21
-,
-
геометрическое 27
- , - классическое 19, 20
-,
-
статистическое 26
- от к лонения относител ьной ча-
стоты от вероятности в не
зависимых испыта ниях 61,
62
переходная 382
попадания в зада нный интервал
непрерывной слу•1ай11ой ве
личины 117
-
-
-
-
нормальной слу
чайной величины 133
-
-
-
-
показательно рас
пределенной случайной ве
личины 150
-
случайной точки в полу
плоскость 161
-
-
-
-
произвольную об-
ласть 166
-
-
-
-
- прямоугол ьник 162
-
условная 37, 38
474
Выборка 188
-
бесповторная 189
-
повторная 189
-
репрезентативная 189
Выборочное корреляционное от
ношение 270, 271
- - -, свойства 272-274
Гамма-функция 146
Гипотеза 52
-
конкурирующая (альтерна·
тивная) 282
-
нулевая (основная) 28 1
- простая 282
- сложная 282
-
статистическая 28 1
Гистограмма 195, 196
Дел ьта-функция 443, 444
Дисперсионный анализ 349
Диспе рсия 87
-
внутригрупповая 208
__; выборочная 206
-
генеральная 205
-
групповая 208
-
дискретной случайной вели-
чины 88
-
-
-
-, свойства 90-92
исправленная 212
-
комплексной случайной вели·
чины 414
-
-
-
функции 416
-
межгрупповая 209
-
непрерывной случайной вели-
чины 125, 126
общая 209, 355
остаточная 183, 355
случайной функции 392
-
- , свойства 392, 393
- факторная 355
Доверител ьный интервал 214
-
для математического ожи
дания нормал ьного распре
деления при известном а
215, 312
неиз-
вестном о 217
- - - среднего квадратическо
rо отклонения нормального
распределения 222
Зависимость корреляционная 253
-
-
линейная 184
-
статистическая 253
-
функциональная 139
Закон больших чисел 108
- надежности показательный
153-155
- распределения вероятностей
66, 122
-
-
-
двумерной случайной ве-
личины 156, 157
- - - условный 170, 172
- - - устойчивый 144
Интеграл от случайной функции
409
Интенсивность потока 70
- ст ационарного белого шума 44
4
Испытание 17
Исход благоприятствующий 19
-
элементарный 19
Качественный признак 335
Композиция 144
Корреляционная теория случай-
ных функций 389
-
функция, см . Функция
Корреляция криволинейная 275
-
линейная 270
-
множественная 276
-
ранговая 335
Коэф
ф
ициент вариации 235
корреляции 178, 179
-
-
выборочный 261 -263
-
-
-
Кендалла 34 1, 342
-
-
-
совокупный 278
-
-
-
Спирмена 339, 340
-
-
-
частный 278
- регрессии 183
-
-
выборочный 255
Кривая нормальная (кривая Гаус
са) 130, 131
-
- , построение по опытным
данным 249, 250
-
нормированная 132
Критерий Бартлетта 323, 324
-
Вилкоксона 343-345
-
Кочрена 326
-
Пирсона 329-33 1
-
согласия 329
-
статистический 283
Критические точки 284
См. также Таблица значений кри·
тических точек
Линии регрессии выборочные 254
- с пектральные 436
Ложный нуль 238
Математическое ожидание 75
-
-
дискретной случайной ве
личины 76
-
-
-
--,
вероятностный
смысл 77, 78
-
-
-
-
-, свойства 78-
-8
2
-
-
комплексной случайной ве-
личины 414
-
-
-
-
функции 415
-
-
непрерывной случайной ве-
личины 125
-
-
случайной функции 390
-
-
-
-, свойства 391
-
-
условное 173
-
-
функции одного случайного
аргумента 141, 142
Матрица перехода системы 382
Медиана 234
Метод наибольшего правдоподо
бия 229, 230
-
Монте - Карло 363, 364
- - , применение к вычисле-
нию определенных интег
ралов 453-455
-
-,
-
- расчету многоканаль
ной системы массового об
служнвания с отказами
451-453
моментов 227 , 228
-
обратных функций 371-374
-
произведений 24 1, 242
-
суперпозиции 375, 376
Многоугол ьник распределения 66
Мода 138, 234
Момент корреляционный 176, 177
-
-
двух случайных комплекс-
ных величин 415
-
начальный теоретический 99
-
-
эмпирический 239
-
обычный эмпирический 239, 240
-
условный эмпирический 239,
240
- центральный теоретический 99
-
-
эмпирический 239, 240
Мощность критерия 287
Наблюдаемое значение критерия
283
475
Надежность 213
Независимые испытания 55
Неравенство Чебышева 102, 103
Область критическая 284
-
принятия гипотезы 284
Объем выборки минимальный 216,
313
- совокупности 188
Отбор механический 191
-
простой случайный 190
-
типический 191
Оrклонение 86, 204
См . тахже Среднее квадратиче
ское отклонение
Оrьlскание критических обла-
стей 285-287
-
параметров прямой регрессии
по несгруппированным дан·
ным 255, 256
- - - - - сгруппированным
данным 259, 260
Оценка вероятности биномиально
го распределения по относи
тельной частоте 224, 226
-
генеральной дисперсии по ис
правленной выборочной 212
-
интервальная 213, см . также
Доверительный интервал
-
истинного значения измеряе·
мой величины 219
классическая 215
-
наибольшего правдоподобия
230
несмещенная 198
погрешности метода Монте -
Карло 364-366
-
смещенная 199
-
состоятельная 199
-
тесноты корреляционной свя·
зи 269, 270
-
точеч ная 213
-
точности измерений 223
-
эф
фе
ктивная 199
Ошибка второго рода 282
-
первого рода 282
Перестановки 22
Плотность спектральная 438-440
-
-
взаимная 442
-
-
нормированная 441, 442
-
распределения 116
-
-, вероятностный смысл 121,
122
476
-
-, свойства 119, 120
-
- , связь с функцией распре-
деления 118
-
двумерная 163
..
..
.,.
-, вероятностный смысл
164, 165
-
-
- . свойства 167
-
-
составляющих двумерноl'
случайной величины 169
-
-
условная 171, 172
Поверхность распределения 163
Полигон 194, 195
Полная группа событий 17, 18
Поправка на непрерывнос:ь 321
Правила проверки нулевом гипо·
тезы 290-292 , 294-296,
300-303 , 306, 309-311,
316, 318, 320, 321, 324, 326,
328, 33 1, 340, 342 , 344, 345
разыгрывания
непрерывной
случайной величины 373,
. 374
Правило произведения 23
-
разыгрывания дискретной слу ·
чайной величины 367, 368
-
-
нормальной случайной ве·
личины 378
-
-
полной группы событий 370
-
-
противоположных событий
369
-
-
случайной величины, функ
ция распределения которой
имеет вид F (x)=C1F1 (х)+
+c2F2 (x) 376
суммы 23
-
трех сигм 134, 135
Предел в среднеквадратичном 405
Лоток событий 69
-
-
простейший
(пуассонов-
ский) 70
Принцип практической невозмож
ности маловероятных собы·
тий 35
Проверка гипотезы о значимости
выборочного коэф
ф
ициента
корреляции 327, 328
_
-
-
-
-
-
ранговой кор
реляции Кендалла 342
-
-
-
-
-
-
-
Спир•
мена 340
-
-
нормальном распреде·
лении генеральной сово
кvпности 329-331
-
об однородности двух ВЫ·
оорок 343-345
Произведение независимых слу
чайных величин 79
-
событий 37
Производная случайной функции
406
.
Пространство элементарных собы-
тий 21
Процесс винеровский 459
-
марковский 459, 460
-
нормальный (гауссов) 459
-
Пуассона 457, 458
-
случайный (стохастический) 387
-
с независимыми приращениями
459
-
со случайными приращениями
459
Прямая среднеквадратической ре·
грессии 183
Равенство .М.аркова 383
-
Уилсона - Гилферти 297
Размах варьирования 234
Размещения 22
Разыгрывание, c,•t . соотв . правила
Распределение биномиальное 66,
67
- в ыборки статистическое 192
выборочное 20 1
геометрическое 72, 73
гипергеометрическое 73, 74
нормальное 127, 128
на плоскости 181
-
нормирова:1ное 128, 129
-
общее 12Е, 129
показательное (экспоненци
альное) 149-151
Пуассона 68, 69
равномерное 122
- Стьюдента 146
- т е оретическое 137
условное 170
- Фишера - Снедкора 147
- «ХИ квадрат» 145, 146
-
эмпирическое 137
Реализация 387
Регрессия выборочная 254
-
средняя квадратическая 182
Свойство ординарности 70
- о тсутствия последействия 70
- ста ционарности 69, 70
- устойчивости выборочных
средних 202
Сечение 387
Случайная последовател ьность 388
-
функция, см. Функция
Случайные числа 367
Событие достоверное 14
-
невозможное 14
-
простое 55
-
сложное 55
-
случайное 14
События зависимые 41
-
независимые 41
-
-
в совокупности 42
- - попарно 41
несовместные 17
-
противоположные 34
- равновозможные 18
-
совместные 48
-
элементарные 20
Совокупность выборочная 188
- генеральная 188
Состояние системы 381
Сочетания 22
Спектр стационарной случайной
функции 436, 438
Спектральное разложение стацио
нарной случайной функции
432-435
Способ усреднения подынтеграль
ной функции 453, 454
Сравнение выборочной средней
с гипотетической генераль
ной средней нормальной
совокупности 308-311
- двух вероятностей биномиаль
ного распределения 319-
322
-
дисперсий нормальных ге
неральных совокупностей
288-292
средн их нормальных гене
ральных совокупностей с
известными
дисперсиями
297-303
неизвест
ными дисперсиями 314-
316
----
-
-'-
одина
ковыми дисперсиями 305-
308
-
произвольно распреде
ленных генеральных сово·
куп ностей 303, 304
исправленной выборочной дис
персии с гипотетической
генеральной
дисперсией
нормальной совокупности
293-296
477
Сравнение набпюдаемой относи
тельной частоты с гипоте
тической вероятностью со
бытия 317, 318
- н есколь ких дисперсий нормаль
ных генеральных совокуп
ностей по выборкам оди на
кового объема 325-
-
327
-
------
различ
ного объема 322-324
-
-
средних методом диспер
сионного анализа 355, 356,
358-360
Среднее абсолютное отклонение
234
-
квадратическое отклонение 94,
126
-
выборочное 206
- - - г енеральное 205
-
-
-
исправленное 212
-
-
-
случайной функции 392
-
условное 254
Средняя выборочная 200-202
-
генеральная 199, 201
-
групповая 203
-
общая 203
Стандарт 205, 206
Стационарная линейная динами-
ческая система 446
Стационарный белый шум 444, 445
Сумма обща я 351 -355
-
остаточная 351, 352, 354, 355
- случайных величин 81
- событий 31
-
факторная 351, 352 , 354, 355
Сходимосгь в среднеквадратич
ном 405
-
по вероятности 110
Табпица значений критических
точек критерия Вилкоксо
на 47 1-473
-
-
-
распределения Коч
рена 468, 469
-
-
-
-
Стьюдента 466
-
-
-
-
Фишера - Снед-
кора 467
-
---;-
-
1.2 465
-
-
равномерно распределен-
-
ных случайных чисел 470,
471
.
1
.
- - функции с:р(х)= ,;
-
е-х•12
r
2л
461 , 462
478
1х
-
- - Ф(х)= -- f'e-z'i2dz
У2nь
462, 463
-
t1=t(у, п) 464
- - q=q(y,п)464
-
корреляционная 257, 258
Теорема Бернулли 108-110 .
-
Лапласа интегральная 59, 61
-
-
локальная 57, 58
-
Ляпунова (центральная пре-
дел ьная теорема) 135, 136
-
о вероятности попадания не
прерывной случайной ве
личины в заданный интер
вал 116, 117
-
Появления хотя бы од
ного события 45
-
-
дисперсии числа появлений
события в п независимых
испытаниях 92, 93
линейной корре.'!яции 184,
185
математическом ожидании
числа появлений события в
п независимых испытаниях
83, 84
независимости двух слу
чайных величин 174, 175
-
об общей дисперсии 211, 212
сложения вероятностей несов
местных событий' 32
-
-
совместных событий 49
умножения вероятностей 38,
39
Чебышева 103- 108
Теоремы о корреляционных мо
ментах 177-179
- - функциях 424-427
-
характеристиках интегра-
ла от случайной функции
409-4 13
-
производной от случай
ной функции 406-408
-
суммы случайных функ
ций 402, 403
-
-
числовых характеристиках
среднего арифметического
оди наково расп ре11елеиных
случайных величин 96, 97
Точность оценки 213
Уравнение правдоподобия 230
Уравнения регрессии 173
-
-
выборочные 254
Уровень значимости 35, 36, 282
Условие Ляпунова 136
Формула Бернулли 56
- для вычисления дисперсии 89,
207
-
полной вероятности 50
-
Пуассона 69
Формулы Бейеса 53
-
Вннера - Хинчина 438
Функции коррелированные 40
0
-
некоррелированиые 400
- ст ационарно связанные 423
-
стационарные и стационарно
связанные 423
Функция двух случайных аргу
ментов 143, 144
-
коррел яционная 394-397, 416,
420, 42 1
-
-
взаимная 399-40 1, 417
-
-
нормированная 398, 399,
42 1, 422
-
-
-
взаимная 401
-
Лапласа 60
-
надежности 153
-
обобщенная 443
-
одного случайного аргумента
139, 140
-
передаточная 447
-
правдоподобия 229, 232
-
-
логарифмическая 230
-
распределения вероятностей
.
111-1 14
-
-
выборки
(эмпирическая
функция распределения)
193, 194
-
-
генеральной совокупности
(теоретическая
функция
распределения) 193
- - двумерной случайной ве-
личины 158-161
-
регрессии 173
-
случайная 386
-
- дифференцируемая ·406
-
-
комплексная 415
-
-
стационарная 420
-
-
эргоди ческая 428, 429
-
-
центрированная 394
-
характеристическая 136, 137
Характеристика выборочная 235
-
генеральная 235
-
случайной функции 389
-
числовая 389
-
частотная 447
Центр совместного распределения
183
Цепь Маркова 380, 381
-
-
однородная 381
-
-
с дискретным временем 381
-
-
-
непрерывным временем
381
Частота 192
-
выравнивающая
(теоретиче-
ская) 245-247
-
относительная 24, 192
-
эмпирическая 245
Эксцесс 138, 250
Уч ебное изdание
Гмурман Владимир Ефимович
ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА
Редактор ЖИ. Яковлева.
Ху дожник АД. Демко.
Технические редакторы Н.Н. Баранова, Л.А. Ов чинникова.
Корректор Г.И. Кострико'ва.
ЛР No 010146 от 25.12.96. Изд. No ФМ -169. Подп. в печать 16.11 .98.
Формат 60х881/16. Бумага rазетн. Гарнитура литературная. Печать офсетная.
Объем 29,40 усл . печ. л. 29,65 усл. кр.-отт . 22,76 уч.-изд. л.
Тираж 12 ООО экз. ЗаказNo 210
Издательство «Высшая школа», 101430, Москва, ГСП-4, Неглинная ул " д. 29/14.
Отпечатано с диапозитивов издательства «Высшая школа» в ОАО «Оригинал»,
101898, Москва, Центр, Хохловский пер" 7.