/
Text
ПРИКЛАДНАЯ СТАТИСТИКА . Elf токов основы МОДЕЛИРОВАНИЯ И ПЕРВИЧНАЯ ОБРАБОТКА ДАННЫХ
S.A.Aivazyan I. S.Yenyukov L.D.Meshalkin APPLIED STATISTICS BASES OF MODELLING AND INITIAL DATA PROCESSING Reference edition Finansy i statistika Moscow 1983
С.А.Айвазян И.С.Енюков Л.Д.Мешалкин ПРИКЛАДНАЯ СТАТИСТИКА основы МОДЕЛИРОВАНИЯ И ПЕРВИЧНАЯ ОБРАБОТКА ДАННЫХ Справочное издание Москва Финансы и статистика 1983
ББК 22.172 ЛИ Справочное издание подготовлено под редакцией проф С. А. Айвазяна Айвазян С. А. и др. АН Прикладная статистика: Основы моделирова- моделирования и первичная обработка данных. Справочное изд. / С. А. Айвазян, И. С. Енюков, Л. Д. Мешал- кин. — М.: Финансы и статистика, 1983. — 471с. В пер. 1 р. 40 к. Книга посвящена методам предварительного статистического анали- анализа данных и построения модели реального явления, характеризуемого этими данными. Приводятся сведения по теории вероятностей и мате- математической статистике, освещаются вопросы программной реализации излагаемых методов. Для статистиков, экономистов, математиков и других специали- специалистов, использующих методы статистической обработки данных. 1702060000-015 ' ББК 22.172 А 010@1)—83 1Ь~Ьг 517.8 Издательство «Финансы и статистика», 1983
ОГЛАВЛЕНИЕ ПРЕДИСЛОВИЕ . 13 Раздел I. ПРИКЛАДНАЯ СТАТИСТИКА: ЕЕ СУЩНОСТЬ И НАЗНАЧЕНИЕ (общие методические принципы) ... 17 Глава 1. Прикладная статистика как самостоятельная научная дисциплина . . . .... 17 1.1. Связь прикладной статистики с другими статисти- статистическими дисциплинами и основные этапы статисти- статистического исследования .... 17 1.1.1. Определение прикладной статистики ... 17 1.1.2. Два варианта ^интерпретации исходных данных и два подхода к их статистической обработке 19 1.1.3. Основные этапы статистической обработки ис- исходных данных . . 24 1.2. Оптимизационная формулировка основных задач прикладной статистики и проблема устойчивости статистического вывода 34 1.2.1. Связь между оптимизационной формулировкой основных задач прикладной статистики и проб- проблемой устойчивости статистического вывода 34 1.2.2. Проблема статистического исследования зависи- зависимостей между анализируемыми показателями 35 1.2.3. Проблема классификации объектов или приз- признаков ' 38 1.2.4. Снижение размерности исследуемого факторно- факторного пространства и отбор наиболее информатив- информативных признаков .... 40 Выводы 41 Глава 2. Теоретико-вероятностный способ рассуждения в прикладной статистике . 43 2.1. Теория вероятностей и условия ее применимости 2.1.1. Статистический ансамбль и «игра случая» ... 43 2.1.2. Теория вероятностей и условия статистического ансамбля . . 44 2.1.3. Основные типы реальных ситуаций с позиций соблюдения условий статистического ансамбля 45
2.2. «Взаимоотношения» теории вероятностей и мате- математической статистики 50 2.2.1. Статистический способ принятия решения ... 50 2.2.2. Теоретико-вероятностный способ решения 50 2.2.3. Вероятностно-статистический (или математико- статистический) способ принятия решения 51 Выводы , ' 55 Глава 3. Математические модели в прикладной статистике 56 3.1. Для чего нужны математические модели 56 3.1.1. О двух подходах к статистическому моделиро- моделированию -. 56 3.1.2. Понятие математической модели 57 3.2. Общая логическая схема и основные этапы содер- содержательного математического моделирования ... 60 3.2.1. Основные этапы моделирования 60 3.2.2. Моделирование механизма явления вместо фор- формальной статистической фотографии 62 3.3. Понятие о статистическом моделировании .... 65 3.4. Возражения против математических моделей ... 66 3.5. Наиболее распространенные типы математических моделей, используемых в прикладной статистике 68 3.5.1. Модели законов распределения вероятностей случайных величин 68 3.5.2. Линейные вероятностные модели 68 3.5.3. Обобщение линейных моделей 70 3.5.4. Геометрические модели 71 3.5.5. Модели марковского типа 73 Выводы 73 Раздел II. ОСНОВЫ ТЕОРЕТИКО-ВЕРОЯТНОСТНОГО МА- МАТЕМАТИЧЕСКОГО АППАРАТА 75 Глава 4. Правила действий со случайными событиями и вероятностями их осуществления 75 4.1. Дискретное вероятностное пространство 75 4.1.1. Наблюдение, зафиксированное на объекте ис- исследуемой совокупности (случайный экспери- эксперимент) 75 4.1.2. Случайные события и правила действий с ними 76 4.1.3. Вероятностное пространство. Вероятности и правила действий с ними 81 4.2. Непрерывное вероятностное пространство (аксио- (аксиоматика А. Н. Колмогорова) 94 4.2.1. Специфика общего (непрерывного) случая ве- вероятностного пространства 94 4.2.2. Случайные события, их вероятности и правила действий с ними (аксиоматический подход А. Н. Колмогорова) 96 Выводы 100 Глава 5. Случайные величины (исследуемые признаки) 102 5.1. Определение и примеры случайных величин .... 102 5.2. Возможные и наблюденные значения случайной величины 105
5.3. Типы случайных величин 106 5/4. Закон распределения вероятностей случайной ве- величины. Генеральная совокупность и выборка из нее 109 5 4.1. Закон распределения вероятностей 109 5.4.2. Генеральная совокупность и выборка из нее 115 5.4.3. Основные способы организации выборки ... 118 5.5. Способы задания закона- распределения: функция распределения, функция плотности и их выбороч- выборочные (эмпирические) аналоги 121 5.5.1. Футщия распределения вероятностей одно- одномерной случайной величины 121 5.5.2. Функция пилотности вероятности одномерной случайной величины 125 5.5.3. Многомерные функции распределения и плот- плотности. Статистическая независимость случайных величин 129 5.6. Основные числовые характеристики случайных ве- величин и их выборочные аналоги 134 5.6.1. Понятие о математических ожиданиях и момен- моментах 135 5.6.2. Характеристики центра группирования значе- значений случайной величины 138 5 6.3. Характеристики степени рассеяния случайной величины 141 5 6.4. Вариационный ряд и порядковые Статистики 143 5 6 5. Квантили и процентные точки распределения 147 5.6.6. Асимметрия и эксцесс 149 5 6.7. Основные характеристики многомерных рас- распределений (ковариации, корреляции, обобщен- обобщенная дисперсия и др.) 151 Выводы ' 156 Глава 6. Модели законов распределения вероятностей, наиболее распространенные в практике статис- статистических исследований 159 6.1. Законы распределения, используемые для описания механизмов реальных процессов или систем . . . 159 6.1.1. Распределения, возникающие при анализе последовательности испытаний Бернулли: би- биномиальное и отрицательное биномиальное 159 .2. Гипергеометрическое распределение 163 .3. Распределение Пуассона 165 .4. Полиномиальное (мультиномиальное) распре- распределение 167 .5. Нормальное (гауссовское) распределение . . . 169 .6. Логарифмически-нормальное распределение 173 .7. Равномерное (прямоугольное) распределение 178 .8. Распределения Вейбулла и экспоненциальнсе (показательное) 181 .9. Распределение Парето . .' 185 .10. Распределение Коши 186 .11. Некоторые комбинации основных модельных распределений, используемые в прикладной статистике 187
6.2. Законы распределения вероятностей, используемые при реализации техники статистических вычисле- вычислений 190 6.2.1 х2"РаспРеДеление ¦ 190 6.2.2. Распределение Стьюдента (^-распределение) 193 6.2.3. ^-распределение (распределение дисперсион- дисперсионного отношения) 194 6.2.4. Замечание о нецентральных %2-, F- и /-распре- /-распределениях 197 6 2.5. Г-распределение 198 6.2.6. В-распределение • . . . 199 6.3. Техника статистического моделирования наблюде- наблюдений, подчиняющихся заданному распределению о- 201 6.3.1. Получение равномерно распределенных на от- отрезке [0,1] случайных чисел 201 6.3.2. Моделирование дискретных случайных величин 203 6.3.3. Моделирование непрерывных распределений 205 Выводы 207 Глава 7. Основные результаты теории вероятностей 228 7.1. Неравенство Чебышева 228 7.2. Свойство статистической устойчивости выбороч- выборочных характеристик: закон больших чисел и его след- следствия ... 230 7.2.1. Закон больших чисел 2°Л 7.2.2. Теорема Я. Бернулли ... 231 7.2.3. Статистическая устойчивость выборочных ха- характеристик 232 7.3. Особая роль нормального распределения: централь- центральная предельная теорема 234 7.3.1. Центральная предельная теорема 235 7.3.2. Многомерная центральная предельная теорема 236 7.4. Закон распределения вероятностей случайных признаков, являющихся функциями от известных случайных величин 239 Выводы - . . 244 Раздал III. ОСНОВЫ МАТЕМАТИЧЕСКОЙ СТАТИСТИКИ 246 Глава 8. Статистическое оценивание параметров .... 246 8.1. Начальные сведения о задаче статистического оце- оценивания параметров 247 11 П 247 рр 1. Постановка задачи 247 .2. Статистики, статистические оценки, их основ- основные свойства 248 .3. Состоятельность 250 .4. Несмещенность . . 250 1.5. Эффективность 252 8.2. Функция правдоподобия. Количество информации, содержащееся в п независимых наблюдениях от- относительно неизвестного значения параметра . . . 254 8.3. Неравенство Рао—Крамера—Фреше и измерение эф- эффективности оценок 257 8.4. Асимптотические свойства оценок 262 8.5. Понятие об интервальном оценивании. Построение дозерительных областей 264
8.6. Методы статистического оценивания неизвестных параметров . .... 265 8.6.1. Метод максимального (наибольшего) правдо- правдоподобия 266 8.6.2. Метод моментов 275 8.6.3. Метод наименьших квадратов 278 8.6.4. Оценивание с помощью «взвешенных» статис- статистик; цензурирование, урезание выборок и поряд- порядковые статистики как частный случай взвеши- взвешивания 285 8.6.5. Построение интервальных оценок (доверитель- (доверительных областей) ... 289 8.6.6. Байесовский подход к статистическому оце- оцениванию ... 294 Выводы 298 Глава 9. Статистическая проверка гипотез (статистичес- (статистические критерии) . . . 300 9.1. Основные типы гипотез, проверяемых в ходе ста- статистической обработки данных 301 9.1.1. Гипотезы о типе закона распределения исследуе- исследуемой случайной величины 301 9.1.2. Гипотезы об однородности двух или нескольких обрабатываемых выборок или некоторых харак- характеристик анализируемых совокупностей . . . 302 9.1.3. Гипотезы о числовых значениях параметров ис- исследуемой генеральной совокупности . . . 303 9.1.4. Гипотезы о типе зависимости между компонен- компонентами исследуемого многомерного признака 303 9.1.5. Гипотезы независимости и стационарности об- обрабатываемого ряда наблюдений 304 9.2. Общая логическая схема статистического критерия 304 9.3. Построение статистического критерия; принцип отношения правдоподобия 308 9.3.1. Сущность принципа отношения правдоподобия 308 9.3.2. Проверка простой гипотезы с помощью крите- критерия логарифма отношения правдоподобия . . . 310 9.3.3. Проверка сложной гипотезы 311 9.4. Характеристики «качества» статистического критерия 312 9.5. Последовательная схема принятия решения (после- (последовательные критерии) 316 9.5.1. Последовательная схема наблюдений .... 316 9.5.2. Последовательный критерий отношения прав- правдоподобия (критерий* Вальда) и его свойства 317 9.5.3. Различение сложных гипотез в схеме обобщен- обобщенного последовательного критерия 321 Выводы ... 322 Раздел IV. ПЕРВИЧНАЯ СТАТИСТИЧЕСКАЯ ОБРАБОТКА ДАННЫХ 324 Глава 10. Описательная статистика 324 10.1. Документирование исследования; организация ввода и хранения данных в ЭВМ; просмотр данных 324 10.1.1. Документация 324 9
10.1.2. Ввод и хранение данных 325 10.1.3. Просмотр данных 325 10.2. Шкалы измерений 327 10.2.1. Номинальная шкала 327 10.2.2. Порядковая (ординальная) шкала 328 10.2.3. Количественные шкалы 329 10.2.4. Унифицированное представление разнотипных данных 330 10.3. Изучение эмпирических распределений .... 333 10.3.1. Гистограмма 333 10.3.2. Непараметрические оценки плотности .... 335 10.3.3. Оценки функции распределения 335 10.3.4. Преобразование переменных 336 10.3.5. Таблицы сопряженности 337 10.4. Оценивание параметров сдвига и масштаба . . . 338 10.4.1. Постановка задачи 338 10.4.2. Оценивание параметров нормального закона 339 10.4.3. Графический метод оценивания 340 10.4.4. Проблема устойчивости оценок при небольших отклонениях распределения от нормального 341 10.4.5. Оценивание положения центра симметричных распределений 343 10.4.6. Параметризация с помощью экспоненциально взвешенных оценок (ЭВ-оценки) 345 10.5. Визуализация многомерных данных 348 10.5.1. Постановка задачи 348 10.5.2. Главные компоненты 350 10.5.3. Свойства наименьшего искажения геометри- геометрической структуры для главных компонент 353 10.5.4. Нелинейные отображения в пространство ма- малой размерности 354 10.5.5. Многомерное метрическое шкалирование 358 Выводы 359 Глава 11. Предварительный анализ природы данных 361 11.1. Проверка соответствия выбранной модели распре- распределения исходным данным (критерии согласия) 362 11.1.1. Критерий х2 Пирсона 363 11.1.2. Проверка нормального характера распределе- распределения по асимметрии, эксцессу и средним от- отклонениям . , 365 11.1.3. Критерий Колмогорова — Смирнова и его при- применение к построению доверительных границ для неизвестной функции распределения . . . 369 11.1.4. Критерий со2 (Крамера — Мизеса — Смирнова) 372 11.1.5. Модификация статистик критериев Колмого- Колмогорова — Смирнова и со2 для выборок неболь- небольшого объема 372 11.1.6. Статистическая техника практической реали- реализации непараметрических критериев согласия 373 11.1.7. Использование критериев согласия Колмого- Колмогорова и со2 в случае неизвестных параметров для 10
проверки гипотезы о нормальном характере распределения 375 11.2. Проверка гипотез однородности и симметрии рас- распределения 377 11.2.1. Критерии однородности, основанные на эм- эмпирических функциях распределения . . . 377 11.2.2. Критерий однородности %2 381 11.2.3. Ранговые критерии однородности 383 11.2.4. Непараметрическая проверка гипотезы равен- равенства дисперсий 387 11.2.5. Ранговые критерии для случая k>2 классов 389 11.2.6. Критерии проверки симметрии распределений 390 11.2.7. Обработка совпадений 393 11.2.8. Критерии однородности нормальных совокуп- совокупностей (одномерный случай) 395 11.2.9. Критерии однородности многомерных нормаль- нормальных совокупностей • 399 11.3. Проверка независимости и стационарности ряда наблюдений * 402 11.3.1. Критерий серий, основанный на медиане вы- выборки . . 402 11.3.2. Критерий «восходящих» и «нисходящих» серий 404 11.3.3. Критерий квадратов последовательных раз- разностей (критерий Аббе) 405 11.4. Методы статистической обработки при наличии «стертых» (пропущенных) наблюдений 408 11.4.1. Оценивание неизвестных параметров при на- наличии пропущенных данных 408 11.4.2. Использование главных компонент 410 11.4.3. Заполнение «пропусков» и оценивание пара- параметров с помощью метода максимального прав- правдоподобия. Оценки «неподвижной точки» 411 11.4.4. Непараметрический подход к оценке пропусков в матрице данных 414 11.5. Анализ резко выделяющихся наблюдений .... 415 11.5.1. Постановка задачи 415 11.5.2. Графические методы 417 11.5.3. Аналитический метод исключения одного экст- экстремального наблюдения 418 11.5.4. Аналитический критерий одновременного ис- исключения нескольких экстремальных наблю- наблюдений 419 Выводы 420 Глава 12. Программное обеспечение прикладной статис- статистики и некоторые вопросы техники вычислений 422 12.1. Программное обеспечение прикладной статистики 422 12.1.1. Организация пакетов программ 424 12.1.2. Вопросы организации и возможности ведения данных 427 12.1.3. Средства предварительной обработки (манипу- (манипуляции) " данных 428 11
12.1.4. Возможности обработки данных при наличии пропущенных значений 429 12.1.5.. Первичная обработка неколичественных дан- данных 432 12.1.6. Средства визуализации данных 435 12.1.7. Оценивание параметров и выделение аномаль- аномальных наблюдений 435 12.2 Вычисление функций распределения и обратных к ним 437 12.2.1. Нормальное распределение 438 12.2.2. Распределение «хи-квадрат» 440 12.2.3. Бета-распределение 443 12.2.4. F-распределение 444 12.2.5. /-распределение Стьюдента 444 12.2.6. Нецентральные распределения 445 12.2.7. Аппроксимация «хвостов» распределений типа со2 . 447 12.2.8. Многомерное нормальное распределение . . . 448 12.2.9. Дискретные распределения 451 12.2.10. Вычисление математического ожидания по- порядковых статистик 451 Выводы 453 Используемые в книге обозначения 454 Список использованной литературы 457 Алфавитно-предметный указатель 464
ПРЕДИСЛОВИЕ Современная практика прикладных статистических ис- исследований свидетельствует, что для достижения успеха в статистических приложениях исследователь должен одина- одинаково хорошо ориентироваться в трех областях: в математическом аппарате прикладной статистики, т. е. в первую очередь в прикладных методах математической статистики; в математическом моделировании, т. е. в искусстве фор- формализации постановки реальной задачи, которое заключа- заключается в умении перевести задачу с языка проблемно-содержа- проблемно-содержательного (экономического, социологического, медицинско- медицинского, технического и т. п.) на язык абстрактных математичес- математических схем и моделей; в соответствующем программном обеспечении ЭВМ. Издаваемые в СССР и за рубежом монографии, учебные и справочные пособия по статистической обработке дан- данных, как правило, построены таким образом, что содержат сведения лишь по одному из трех упомянутых разделов \ Этим обстоятельством, по нашему мнению, в значительной мере объясняется тот факт, что самым слабым местом в практике статистических приложений остается преодоле- преодоление той внушительной дистанции, которая разделяет- мо- момент успешного завершения разработки собственно мате- 1 За последние три — пять лет появилось несколько зарубеж- зарубежных изданий, в которых описание методов по одному из разделов математической статистики дополнено некоторыми сведениями по соответствующему программному обеспечению, см., например: Л и Ц., Джадж Д., Зельнер А. Оценивание параметров марковских моделей по агрегированным временным рядам. М., Ста- Статистика, 1977; D i d а у Е. е. a. Optimisation en classification automatique. Paris, INRIA, 1980. 13
матического аппарата и результат эффективного использо- использования этого аппарата в решении конкретной задачи. Главная цель, которую ставили перед собой авторы предлагаемого вниманию читателя издания, — это систе- систематическое и взаимосвязанное изложение всех трех аспек- аспектов (математического, моделирующего и программного) проблемы статистического анализа исходной информации применительно к задачам, которые приходится решать ис- исследователю на первом этапе обработки данных экспери- эксперимента или наблюдения. Этот этап назван в книге этапом первичной статистической обработки и включает в себя такие приемы и задачи, как: документирование исследова- исследования; организация ввода и хранения данных в ЭВМ; пред- предварительная визуализация (удобное наглядное представле- представление) многомерных данных с целью формирования рабочих гипотез; работа с разнотипными признаками; работа с пропущенными и резко выделяющимися наблюдениями; описание и анализ эмпирических распределений; проверка гипотез независимости, однородности и стационарности обрабатываемых рядов наблюдений. Книга состоит из четырех разделов. Методологические основы прикладной статистики и основные определения и приемы реалистического моделирования составляют со- содержание разд. I. Этот раздел наименее «математизирован», однако его правильное усвоение читателем является очень важным для овладения творческим, неформальным стилем эксплуатации основных методов статистической обработки данных. Разд. II и III (гл. 4—9) содержат необходимые сведения из теории вероятностей и математической статис- статистики. Эти главы могут быть использованы в качестве учеб- учебного пособия для студентов экономических и технических вузов, естественнонаучных факультетов университетов. Для понимания всего материала книги от читателя требуется знакомство лишь с элементами вузовского курса высшей математики, в частности с понятиями: функции и ее графи- графика; последовательности чисел и их сумм; производной (обыкновенной и частной); интеграла (неопределенного и определенного); вектора, матрицы и основных правил дей- действий с ними. И наконец, разд. IV посвящен непосредственному опи- описанию методов первичной статистической обработки дан- данных (гл. 10 и 11), вычислительным и программным аспектам их реализации на ЭВМ (гл. 12). 14
Предисловие, гл. 1,2,4—9, §3.2, §11.3, п. 11.1.1, 11.1.2 и 11.2.8 написаны С. А. Айвазяном; гл. 11, 12, § 10.5 (в соавторстве с Л. Д. Мешалкиным) и п. 8.6.6 — И. С. Енюковым; гл. 3, 10, § 6.3, а также (в соавторстве с С. А. Айвазяном) п. 4.2.1, 5.4.3, 6.1,П, 6.2.4, §8.4, п. 8.6.3, 9.3.2 и 9.3.3 — Л. Д. Мешалкиным. Необходимость подобного издания, с нашей точки зре- зрения, обусловлена следующими объективными обстоятель- обстоятельствами. Во-первых, за последние полтора-два десятилетия су- существенное развитие получили методы статистической об- обработки, интенсивно эксплуатирующие современную элек- электронно-вычислительную технику и резко ослабляющие допущения, на которых строятся используемые математи- математические модели, вплоть до отказа от априорного допущения о вероятностной природе обрабатываемых данных (непара- (непараметрическая статистика, нелинейные модели с итерацион- итерационным оцениванием параметров, устойчивые статистические процедуры, невероятностные методы анализа данных). Во-вторых, к настоящему времени накоплен определен- определенный отечественный и зарубежный опыт по алгоритмичес- алгоритмическому, вычислительному и программному обеспечению прик- прикладной математической статистики: достаточно упомянуть в этой связи соответствующие разработки, ведущиеся в Московском государственном университете им. М. В. Ло- Ломоносова, в Центральном экономико-математическом ин- институте АН СССР, в Институте кибернетики АН Украин- Украинской ССР, в Новосибирском и Белорусском государствен- государственных университетах, в Институте проблем управления АН СССР, в Институте математики и кибернетики АН Ли- Литовской ССР, во Всесоюзном научно-исследовательском институте физико-технических и радиотехнических измере- измерений Госстандарта СССР, в ряде других исследовательских центров СССР, а также такие зарубежные пакеты приклад- прикладных программ по статистике, как BMDP (последняя вер- версия, 1980 г.), SAS, SPSS, STIL, OSIRIS, TROLL и др. х Однако изданные к настоящему моменту справочные посо- пособия по математической статистике и методам статистичес- статистической обработки данных (выделим среди них трехтомное из- издание М. Дж. Кендалла и А. Стьюарта [39], [40] и [41]) 1 Подробнее об этих разработках см., например, в кн.: Алго- Алгоритмическое и программное обеспечение прикладного статистическо- статистического анализа. Ученые записки по статистике, т. 36, М., Наука, 1980. 15
практически не содержат сведений по невероятностным методам и, как уже упоминалось, по современному про- программному обеспечению прикладной математической ста- статистики. В то же время имеющиеся сборники статистичес- статистических программ (см. [55], [66], [67], [72], [99]) не содержат сколько-нибудь систематического изложения методов. В книгу включен и ряд оригинальных результатов: оптимизационная формулировка проблем прикладной ста- статистики (§ 1.2), сравнение оптимальных свойств критериев Вальда и Неймана — Пирсона (§ 9.5), метод экспоненци- экспоненциального взвешивания моментов для получения устойчивых статистических оценок (§ 10.4), некоторые подходы к «оцифровке» неколичественных признаков (§ 10.2, 10.5, п. 12.1.5). Научная и научно-педагогическая деятельность авторов, послужившая основой реализации предлагаемого издания, проводилась в Центральном экономико-математическом ин- институте АН СССР, в Центральной научно-исследователь- научно-исследовательской лаборатории 4-го Главного управления при Мини- Министерстве здравоохранения СССР и в Московском государ- государственном университете им. М. В. Ломоносова. Авторы признательны В. В. Федорову и Е. Г. Ясину, взявшим на себя труд Прочесть рукопись настоящего изда- издания и сделавшим ряд полезных замечаний. Положительную роль в замысле и содержании книги сыграли постоянные контакты авторов со своими коллегами по научному семи- семинару «Многомерный статистический анализ и вероятност- вероятностное моделирование реальных процессов», действующему в рамках Научного совета АН СССР по комплексной пробле- проблеме «Оптимальное планирование и управление народным хозяйством» с 1969 г., а также по Всесоюзному научно-ме- научно-методологическому семинару «Вычислительные вопросы ма- математической статистики», действующему в Московском государственном университете им. М. В. Ломоносова под руководством Ю. В. Прохорова. Мы благодарим также Л. Ю. Метт за ее большой труд по оформлению рукописи. Авторы
Раздел I. ПРИКЛАДНАЯ СТАТИСТИКА: ЕЕ СУЩНОСТЬ И НАЗНАЧЕНИЕ (общие методические принципы) Глава 1. прикладная статистика КАК САМОСТОЯТЕЛЬНАЯ НАУЧНАЯ ДИСЦИПЛИНА 1.1. Связь прикладной статистики с другими статистическими дисциплинами и основные этапы статистического исследования 1.1.1. Определение прикладной статистики. Нужно ли использовать этот термин или можно ограничиться более привычным понятием «математическая статистика»? Как соотносится прикладная статистика с другими статистичес- статистическими дисциплинами, такими, как «математическая статис- статистика», «анализ данных», «экономическая статистика» и т. Д.? Для обоснования правомерности и целесообразности рассмотрения прикладной статистики как самостоятельной научной дисциплины следует упомянуть, как минимум, о двух моментах. Во-первых, до сих пор развитие теории, методологии и практики статистической обработки анализируемых дан- данных шло, по существу, в двух параллельных направле- направлениях. Одно из них представлено методами, предусматри- предусматривающими возможность вероятностной интерпретации об- обрабатываемых данных и полученных в результате обработ- обработки статистических выводов. Именно эти методы (и только они!) и составляют содержание подавляющего большинства монографий и руководств по математической статистике. Другими словами, под методами математической статисти- статистики принято понимать лишь те методы статистической обра- обработки исходных данных, разработка и использование которых апеллируют к вероятностной природе этих дан- данных- *. При этом развиваемый в рамках второго направле- направления весьма широкий и актуальный класс методов статисти- * Такова ситуация, сложившаяся лишь de facto. Формально же, de jure, если исходить из определения Советского энциклопеди- энциклопедического словаря (М., Советская Энциклопедия, 1979, с. 780), мате- математическая статистика понимается более широко, а именно как «нау- «наука о математических методах систематизации и использования ста- 17
ческой переработки исходной информации, а именно вей совокупность тех методов, которые априори не опираются на вероятностную природу обрабатываемых данных (пред- (представителями методов такого типа являются, например, разнообразные методы кластер-анализа, многомерного шкалирования, теории измерений и др.), остается за обще- общепринятыми рамками научной дисциплины «математическая статистика» Во-вторых, специалисты, занимающиеся разработкой и конкретными применениями методов статистической об- обработки исходной информации, не могут игнорировать ту внушительную дистанцию, которая разделяет момент ус- успешного завершения разработки собственно математичес- математического метода и момент получения результата от исполь- использования этого метода в решении конкретной практической задачи. В процессе прохождения этой трудной дистанции математику-прикладнику приходится: глубоко вникать в содержательную сущность задачи, адекватно «прилаживать» исходные модельные допущения (на которых строится любой математический метод) к вы- выясненной сущности реальной задачи; решать (в некоторых специальных случаях) весьма трудную задачу преобразования имеющейся исходной ин- информации, представленной, например, в виде физических сигналов, радиолокационных разверток, геологических сре- срезов и т. п., к стандартной (унифицированной) форме обра- обрабатываемых статистических данных (см. A.4), и A.4')); разрабатывать практически реализуемые вычислитель- вычислительные алгоритмы и программное обеспечение с учетом специ- специфики обрабатываемой статистической информации и воз- возможностей имеющейся вычислительной техники; организовать достаточно удобный и эффективный режим общения с электронно-вычислительной машиной (ЭВМ) в процессе решения задачи. Понятийный аппарат, методы и результаты, позволяю- позволяющие проходить эту дистанцию, вместе с этапом «прилажи- «прилаживания» и доработки необходимого математического инстру- инструментария и составляют главное содержание прикладной статистики. тистических'данных для научных и практических выводов. Во мно- многих своих разделах математическая статистика опирается на теорию вероятностей, позволяющую оценить надежность и точность выво- выводов, делаемых на .оенбвании ограниченного статистического мате- материала». 18
Таким образом, мы приходим к определению приклад- прикладной статистики как самостоятельной научной дисциплины, разрабатывающей и систематизирующей понятия, приемы, математические методы и модели, предназначенные для организации сбора \ стандартной записи, систематиза- систематизации и обработки {в том числе — с помощью ЭВМ) ста- статистических данных с целью их удобного представления, интерпретации и получения научных и практических выводов. Для определения той же самой системы понятий, прие- приемов, математических методов и моделей некоторые специа- специалисты используют термин «анализ данных», понимаемый в расширительном толковании. 1.1.2. Два варианта интерпретации исходных данных и два подхода к их статистической обработке. Рассмотрим два примера. Цель статистического анализа в первом при- примере — исследование возможностей массового производ- производства по исходным данным, представляющим результаты контроля (по альтернативному признаку) ограниченного ряда изделий, случайно отобранных из продукции этого производства. Если было проконтролировано п изделий, то результаты контроля могут быть, в общем виде пред- представлены в виде последовательности чисел xv х2, ..., хп% A.1) где результат контроля /-го изделия xt полагается равным единице, если изделие оказалось дефектным, и нулю — в противном случае. Если производство отлажено и дей- действует в стационарном режиме (т. е. его технологические возможности остаются на постоянном уровне), то ряд на- наблюдений A.1) естественно интерпретировать как ограни- ограниченную выборку из соответствующей бесконечной сово- совокупности, которую мы бы имели, если бы осуществляли сплошной контроль всех изделий, производимых на этом 1 Говоря об «организации сбора» статистических данных, мы имеем в виду лишь определение способа отбора подлежащих статис- статистическому обследованию единиц (семей, предприятий, стран, пациен- пациентов и т. п.) из всей исследуемой совокупности (см. в п. 1.1.3 описа- описание этапа 2). Мы не включаем сюда разработку методологии и систе- системы показателей отображаемого объекта: эта работа предполагает профессиональное (экономическое, техническое, медицинское и т. п.) изучение сущности задач, для решения которых требуется статис- статистическая информация, а потому она относится к компетенции соот- соответствующих специалистов и может составить специальную область исследования (например, область экономической статистики). 19
производстве. В этом случае саму выборку мы рассматрива- рассматриваем как составную часть, как представителя «стоящей за ней» бесконечной совокупности, т. е. всего массового про- производства, а ее основные статистические характеристики, например ее среднюю арифметическую, являющуюся, как легко видеть, долей брака дефектных изделий в ней, — как некое приближение к истинной доле брака, характе- характеризующей все производство. В подобных ситуациях име- имеется принципиальная возможность, хотя бы мысленно реально представимая, многократного повторения нашего наблюдения (или эксперимента) в рамках одного и того же реального комплекса условий, включающего в себя «ме- «мешающее» влияние большого числа не поддающихся учету случайных факторов (которые и являются причиной сто- стохастического, т. е. не предопределенного заранее, резуль- результата каждого отдельного наблюдения). Такие ситуации могут быть описаны в рамках той или иной вероятностной модели (см. § 1.2 и 1.3). Соответственно ряд наблюдений A.1) интерпретируется как случайная выборка из неко- некоторой генеральной совокупности, т. е. как эксперименталь- экспериментальные (или наблюденные) значения анализируемой случай- случайной величины, и для его статистической обработки приме- применяются классические математико-статистические методы (методы статистического оценивания неизвестных парамет- параметров, методы проверки статистических гипотез и т. п., см. разд. III) При подобной (вероятностной) интерпретации исход- исходных статистических данных в поле зрения исследователя одновременно попадают две совокупности объектов: ре- реально наблюдаемая, статистически представленная рядом наблюдений типа A.1) (т.е. выборка), и теоретически до- домысливаемая (так называемая генеральная совокупность). Основные свойства и характеристики выборки, называе- называемые эмпирическими (или выборочными), могут быть про- проанализированы и вычислены по имеющимся статистическим данным A.1). Основные свойства и характеристики гене- генеральной совокупности, называемые теоретическими, не известны исследователю, но назначение математико-статис- тических методов как раз в том и состоит, чтобы с их по- помощью получить как можно более точное представление об этих теоретических свойствах и характеристиках по соответствующим свойствам и характеристикам выборок. Для демонстрации второго возможного варианта ин- интерпретации исходных статистических данных рассмотрим 20
следующий пример (упрощенный вариант задачи, приведен- приведенной в [8, с. 2231). Была статистически обследована совокуп- совокупность из 74 средних городов РСФСР (с численностью насе- населения от 100 до 500 тыс. чел.). По каждому городу реги- регистрировались значения 32 признаков х^\ х{2\ ..., х C2), характеризующих этот город по уровню образования его жителей, половозрастному и социальному составу, струк- структуре занятости жителей города *. Таким образом, здесь исходные статистические данные могут быть представлены в виде последовательности 32-мерных векторов ^i' Х2 Х1А, A.2) где результат обследования /-го города является вектором х,= A.3) компоненты которого определяют числовые значения ана- анализируемых признаков по данному городу. Цель статисти- статистического анализа исходных данных A.2) — выявление чис- числа и состава различных типов городов, где под типом по- понимается класс городов обследованной совокупности, одно- однородных (сходных) по структуре уровня образования их жителей, половозрастному составу и характеру занятости 2. 1 Каждый из показателей х(Ь) (k=l, 2, ..., 32) определяет сред- среднее число жителей города, приходящееся на тысячу человек его на- населения, обладающих некоторым определенным признаком: первые четыре признака (л;^1)—#D)) характеризуют уровень образования (высшее, незаконченное высшее, среднее специальное или общее се- семилетнее); следующие двенадцать {х{Ь)—Л'A6)) — половозрастной состав; следующие пять признаков (я*17)—хB1)) — социальный ха- характер занятости населения, а остальные — распределение населе- населения по различным областям материального и нематериального про- производства и по источникам доходов. 2 Данная задача возникла, как промежуточный этап решения проблемы достаточно детализированного анализа подробных ста- статистических данных о городах РСФСР, нацеленной на выявление наиболее характерных черт и закономерностей в социально-эконо- социально-экономическом облике среднего по величине типичного российского го- города. Проводить подробный, кропотливый анализ по каждому из 74 городов' РСФСР (включающий в себя сложную систему опросов и анкетирования населения) практически нереально из-за чрезмер- чрезмерной трудоемкости. Поэтому и был выбран план, в соответствии с 21
Если допустить, что геометрическая близость двух точек — городов Хг и Xj вида A.3) в соответствующем 32-мерном пространстве означает их однородность (сходство) по ана- анализируемым признакам и является соответственно основа- основанием для их отнесения к одному типу, то для решения по- поставленной выше задачи нам придется привлечь подходя- подходящие методы кластер-анализа (распознавания образов «без учителя») и снижения размерности. И хотя математический аппарат этих методов предусматривает необходимость сче- счета таких статистических характеристик, как средние, дис- дисперсии, ковариации и т. п., однако, в данном случае они будут характеризовать природу и структуру только ре- реально анализируемых данных, т. е. только статистически обследованную совокупность из 74 анализируемых городов. В отличие от предыдущего примера со статистическим ана- анализом результатов контроля изделий, произведенных в режиме стационарно действующего массового производства, в данном примере мы столкнемся с серьезными методичес- методическими трудностями при: интерпретации исходных статистических данных A.2) в качестве выборки из некоторой (теоретически домысли- домысливаемой) генеральной совокупности; использовании вероятностных моделей для построения и выбора наилучших методов статистической обработки; вероятностной интерпретации выводов, основанных на статистическом анализе исходных данных. В этом и заключается главное различие двух возмож- возможных подходов к статистическому анализу исходных данных. Однако и в том и в другом подходе выбор наилучшего из всех возможных методов обработки данных производится в соответствии с некоторым функционалом качества метода. Различие описываемых подходов проявляется здесь в способе обоснования выбора этого функционала качества метода, а также в интерпретации самого функционала и получаемых статистических выводов: в первом случае ис- исследователь основывает свой выбор на допущениях о ве- которым прежде всего требовалось получить в анализируемом 32. мерном пространстве разбиение исследуемой совокупности городов на какое-то количество типов (однородных классов); затем, отметив в каждом классе наиболее характерные города — эталоны (напри- (например, города, наиболее близко располагающиеся к «центрам тяжести» своих классов), можно рекомендовать их для дальнейшего, уже бо- более детализированного обследования. Это исследование, кстати, от- относится к предыстории возникновения известных экономико-социо- экономико-социологических обследований «Таганрог-Ь и «Таган рог-2». 22
роятностной природе исходных данных и использует эти же допущения при вероятностной интерпретации своих выводов; во втором случае исследователь не располагает никакими априорными сведениями о вероятностной приро- природе исходных данных и при обосновании выбора оптимизи- оптимизируемого критерия качества опирается на соображения со- содержательного (физического) плана — как именно и для чего получены обрабатываемые данные. Но после того, как выбор конкретного вида оптимизируемого критерия ка- качества метода осуществлен, математические средства ре- решения задачи статистической обработки данных оказыва- оказываются общими для обоих подходов: и в том, и в другом слу- случае исследователь использует методы решения экстремаль- экстремальных задач. Правда, на заключительном этапе —на этапе ос- осмысления и интерпретации полученных статистических выводов — каждый из подходов снова имеет свою специфику. Таким образом, общим для обоих описываемых подхо- подходов является наличие исходной статистической информа- информации на «входе» задачи и необходимость наилучшей (в смыс- смысле оптимизации некоторого функционала качества метода) статистической обработки этой информации с целью по- получения научных или практических выводов «на выходе». Итак, принимаясь за статистический анализ исходных данных, исследователь должен прежде всего определить, в рамках какой из двух описанных выше схем следует проводить этот анализ. Другими словами, он должен сде- сделать принципиальный выбор типа модели. И с этой точки зрения предостережения некоторых авторов (см. [10], [80]) по поводу вреда от чрезмерного (а порой бездумного) использования вероятностно-статистических методов в ка- качестве главного инструмента статистической обработки исходных данных нам представляются уместными и полез- полезными. Однако нельзя отбивать всякую охоту пользоваться этими методами: именно такую цель, похоже, ставил перед собой автор [10] и именно к такому выводу (о прикладной никчемности и неэффективности вероятностно-статистичес- вероятностно-статистических методов) пришли многие читатели работы [80], хотел того ее автор или нет. В действительности же приходится исходить из сле- следующей ситуации. Будем отправляться от момента, когда исследователь уже располагает исходными статистически- статистическими данными, характеризующими те или иные стороны интересующего его процесса или явления. Вопрос состоит в том, как наилучшим (в определенном смысле) образом 23
обработать эту информацию с целью получить из нее науч- научные или практические выводы определенного характера об исследуемом явлении. Для того чтобы уточнить понятие «наилучшим образом», исследователь должен формализо- формализовать задачу, выбрать модель. Всякая модель является уп- упрощенным (математическим) представлением изучаемой дей- действительности (см. § 3.1). Очевидно, мера адекватности выбранной модели и изучаемой действительности является решающим фактором, определяющим эффективность и дей- действенность используемых затем методов статистической об- обработки. Поскольку ни одна из жестко определенных моде- моделей не может на практике идеально соответствовать изу- изучаемой реальной действительности, то можно только при- приветствовать желание исследователя многократно обрабо- обработать свои исходные данные, проводя каждую новую ста- статистическую обработку в рамках несколько измененного варианта модели (см. развитие этого тезиса в § 1.2). 1.1.3. Основные этапы статистической обработки исход- исходных данных. Попытаемся теперь описать общую логи- логическую схему статистического анализа исходных данных. Для пояснения роли и места основных приемов статистичес- статистического моделирования и методов первичной статистической обработки исходных данных удобно разложить эту схему на основные этапы исследования. Подобное разложение носит, конечно, условный характер. В частности, оно не означает, что этапы осуществляются в строгой хронологи- хронологической последовательности один за другим. Более того, многие из этапов (например, этапы 4, 5 и 6) находятся, в плане хронологическом, в соотношении итерационного взаимодействия: результаты реализации более поздних этапов могут содержать выводы о необходимости повторной «прогонки» (с учетом новой информации) предыдущих этапов. Этап 1: исходный {предварительный) анализ исследуе- исследуемой реальной системы. В результате этого анализа опреде- определяются: а) основные цели исследования на неформализо- неформализованном, содержательном уровне; б) совокупность единиц, представляющая предмет статистического исследования; в) перечень (х<г\ л;*2),..., *<*>) отобранных из представлен- представленного специалистами априорного набора показателей, ха- характеризующих состояние (поведение) каждого из обсле- обследуемых объектов, который предполагается использовать в данном исследрвании; г) степень формализации соответ- соответствующих записей при сборе данных; д) общее время и 24
трудозатраты, отведенные на планируемые работы, и кор- коррелированные с ними временная протяженность и объем необходимого статистического обследования; е) моменты, требующие предварительной проверки перед составлением детального плана исследования (например, не всегда ап- априори ясна возможность идентификации единиц наблюде- наблюдения, в медицинских исследованиях не всегда может быть получено согласие больного следовать определенным ре- рекомендациям медперсонала и т. п.); ж) формализованная постановка задачи, по возможности включающая вероят- вероятностную модель изучаемого явления, и природа статисти- статистических выводов, к которым должен (или может) прийти исследователь в результате переработки массива исходных данных; з) формы, используемые для сбора первичной ин- информации и для введения ее в ЭВМ. По затратам сил наиболее квалифицированного персо- персонала, участвующего в работе, трудоемкость первого этапа работы весьма значительна и бывает даже сравнима с сум- суммарной трудоемкостью всех остальных этапов при условии, что обработка проводится с помощью подходящего пакета программ *. Поэтому максимального развития заслужи- заслуживают методы машинного ассистирования в проведении этой части работы. Оно может заключаться в подсказке (с одно- одновременной оценкой) форм документации для сбора первич- первичной информации, методов построения контрольной или «псевдоконтрольной» групп при изучении какого-либо воздействия (что особенно актуально для медицинских приложений), подходящих моделей, в ведении тезауруса исследования и т. п. Этап 2: составление детального плана сбора исходной статистической информации. При составлении этого пла- плана необходимо, по возможности, учитывать полную схему дальнейшего статистического анализа, о чем часто забы- забывают. Априорное представление о том, как и для чего дан- данные будут анализироваться, может оказать существенное влияние на их сбор. При планировании особого внимания заслуживают случаи, когда: а) используется аппарат об- общей теории выборочных обследований (см., например, 1 В некоторых специальных социологических, медицинских и других статистических исследованиях, характеризующихся боль- большими затратами времени и средств на сбор исходных статистических данных, сформулированный тезис остается справедливым лишь при условии исключения этапа 3 из суммарной трудоемкости всех остальных этапов. 25
[43]), т. е. определяется, какой должна быть выборка — случайной, пропорциональной, расслоенной и т. п.; б) про- производится расчет «разрешающей силы» исследования задан- заданного объема и продолжительности (см., например, [127], где оценивается сверху число возможных статистически значимых ассоциаций между риск-факторами и частотой заболеваний, или [102], где предлагается простейшая мо- модель для феноменологического описания действия лечеб- лечебного фактора); в) хотя бы для части входных переменных эксперимент носит активный характер: переменные допу- допускают фиксацию в каждом конкретном наблюдении на оп- определенном уровне, и выбор плана обследования осущест- осуществляется с привлечением методов планирования (регрес- (регрессионных) экспериментов (см., например, 1&Ц). В некото- некоторых руководствах по общей теории статистики (см., напри- например, [64, с. 274]) этот этап называют этапом «организацион- «организационно-методической подготовки». Как уже сказано выше, вопросы разработки методологии определения априорной системы показателей, характеризующих исследуемый объект или процесс, вынесены за рамки описываемых здесь эта- этапов и должны быть отнесены к области конкретно-содер- конкретно-содержательной статистики (экономической, медицинской и т. п.). Этап 3: сбор исходных статистических данных и их введение в ЭВМ. Одновременно в ЭВМ вносятся полные и краткие (для автоматизированного воспроизводства в таб- таблицах) определения используемых терминов. В пакете должны быть предусмотрены специальдые меры, исклю- исключающие или резко уменьшающие возможность -появления расчетов не с тем подмножеством данных или не для той подгруппы объектов. Таким образом, независимо от того, производится ли исследователем выбор метода и плана статистического обследования или он уже располагал результатами так называемого пассивного эксперимента, к моменту определе- определения основного инструментария статистического исследова- исследования исследователь в общем случае располагает в качестве массива исходных статистических данных временной по- последовательностью матриц наблюдений вида ли /^\ _A) ii\ ^(i) /i\ \ 1 v/» 2 \ /» • » ""я \ / \ г B) //\ vB) li\ v B) //\ Cj {I), X2 {t), ..., Xn \t) 2G
где х\ \t) — значение k-то признака, характеризующего состояние t'-ro объекта в момент времени t. Однако бывают случаи, когда t( случайны для каждого объекта. Так, на- например, может быть в медицинских исследованиях, когда вектор, характеризующий то, как протекает /-е обострение у /-го больного, и за один и тот же промежуток времени [О, Т] у различных больных может быть разное число обострений. В этом случае матрицы (Л^(^))/,е[о,7'з будут иметь для разных больных (f. е- для разных /) раз- разную размерность. Более того, в медицинских исследова- исследованиях отдельные координаты могут быть записаны не с помощью цифр, а текстом. Подобные особенности в пред- представлении исходных данных характерны и для социологи- социологических и, в меньшей степени, для экономических исследова- исследований. В ряде ситуаций и в первую очередь в ситуациях, ког- когда исходные статистические данные получают с помощью специальных опросов, анкет, экспертных оценок, возмож- возможны случаи, когда элементом первичного наблюдения явля- является не состояние 1-го объекта в момент /, а характеристи- ка 9и @ попарной близости (отдаленности) двух объектов (или признаков) соответственно с номерами i и /, отнесен- отнесенная к моменту времени t. В этом случае исследователь рас- располагает в качестве массива исходных статистических дан- данных временной последовательностью матриц размера пХп (если рассматриваются характеристики попарной близости объектов) или рХр (если рассматриваются характеристики попарной близости признаков) вида / Ри@. ,,, / p2i@> Р22(О> .... р2т'@ \ / т = п или р; Р(Н( Pmt@ 9mm A.4') Очевидно, что от формы запису A.4) можно непосред- непосредственно перейти к A.4') (при наличии заданной метрики 9.7
в пространстве объектов и в пространстве признаков). Однозначный обратный переход от A.4') к A.4) без допол- дополнительных предположений и специальных методов (скажем, многомерного шкалирования, см. [122]), в общем, невозмо- невозможен. Возможны и другие формы представления геометри- геометрической структуры исходных данных, однако мы не будем здесь на них останавливаться. В целях упрощения обозначений в наших дальнейших рассуждениях, если специально не оговорено противное, мы будем рассматривать статический вариант схемы, т. е. ситуацию, в которой нас будет интересовать массив ис- исходных данных A.4) или A.4'), отнесенный лишь к одному какому-то фиксированному моменту времени /, обозначение которого будем опускать. Этап 4: первичная статистическая обработка данных. В ходе первичной статистической обработки данных обычно решаются следующие задачи: а) отображение пере- переменных, описанных текстом, в номинальную (с предписан- предписанным числом градаций) или ординальную (порядковую) шкалу; б) статистическое описание исходных совокупнос- совокупностей с определением пределов варьирования переменных; в) анализ резко выделяющихся наблюдений; г) восстанов- восстановление пропущенных наблюдений; д) проверка статистичес- статистической независимости последовательности наблюдений, со- составляющих массив исходных данных; е) унификация ти- типов переменных, когда с помощью различных приемов добиваются унифицированной записи всех переменных; ж) экспериментальный анализ закона распределения ис- исследуемой генеральной совокупности и параметризация сведений о природе изучаемых распределений (иногда этот этап называют процессом составления сводки и группиров- группировки [64, с. 274—275]). Кроме того, этап 4 включает и себя вычислительную реализацию решения следующих вопро- вопросов: учет размерности и алгоритмической сложности за- задачи и одновременно возможностей используемой ЭВМ; формулировку задачи на входном языке пакета и т. п. (см. подробнее об этом в описании этапа 6). Остановимся на некоторых из затронутых вопросов подробнее. Анализ резко выделяющихся наблюдений. Часто даже беглый предварительный просмотр (визуальный или авто- автоматизированный) исходных данных A.4) или A.4') может вызвать у исследователя сомнения в истинности (или правомерности) отдельных наблюдений, слишком резко 28
выделяющихся на общем фоне. В этих случаях возникает вопрос: вправе ли мы объяснить обнаруженные резкие отклонения в исходных данных (аномальные выбросы) лишь обычными случайными колебаниями выборки (ко- (которые обусловлены природой анализируемой генеральной совокупности) или здесь дело в существенных искажениях стандартных условий сбора статистических данных, а воз- возможно, и в прямых ошибках регистрации (записи)? В по- последних двух случаях «подозрительные» наблюдения, оче- очевидно, следует исключить из дальнейшего рассмотрения. Единственным абсолютно надежным способом решения вопроса об исключении резко выделяющихся результатов наблюдений является тщательное рассмотрение условий, при которых эти наблюдения регистрировались. Однако во многих случаях проведение такого содержательного анализа объективно затруднительно или принципиально невозможно. Тогда необходимо обратиться к соответству- соответствующим формальным (статистическим) методам. Общая логи- логическая схема этих методов следующая: отправляясь от исходных допущений о природе анализируемой совокуп- совокупности данных, исследователь задается функцией .Н*\, *•,,,..., X*lk; X) A.5) от всех имеющихся наблюдений X, характеризующей степень аномальности (меру удаленности от основной мас- массы наблюдений) «подозрительных» наблюдений X*lt ..., X* 9 а затем подставляет в A.5) реальные значения наблюдений и сравнивает величину с некоторым пороговым значением i)H *; если i|Oi|)o, то подозрительные наблюдения или пол- полностью исключаются из дальнейшего рассмотрения, или их вклад уменьшается с помощью весовой функций, убы- убывающей по мере роста степени аномальности наблюдений. С различными вариантами методов анализа резко вы- выделяющихся наблюдений читатель познакомится в § 11.5 (см. также [6], [76]). Восстановление пропущенных (стертых) наблюдений. В матрицах исходных статистических данных A.4) или 1 В вероятностной постановке задачи пороговое значение я|?0 определяется из стандартных статистических таблиц с учетом зна- знания закона распределения статистики г|? в предположении необосно- необоснованности «подозрений» относительно наблюдений X*lt Xi2, ..., Xik. В других случаях % определяется из содержательных соображений. 29
A.4') по разным причинам (в том числе и в результате исключения резко выделяющихся наблюдений) могут быть пропуски отдельных элементов или каких-то частей строк или столбцов. Исключать по этой причине из дальнейшего рассмотрения весь объект (столбец, в котором обнаружены пропуски) или признак (строку, в которой обнаружены пропуски) слишком расточительно с точки зрения потери полезной информации. Поэтому возникает задача наилуч- наилучшего в некотором смысле восстановления пропущенных (стертых) данных. Конкретизация критерия качества вос- восстановления стертых данных производится в зависимости от характера последующей обработки исходных данных, т. е. в зависимости от окончательных целей исследования (см. § 11.4, а также [351, [66], [95]). Проверка однородности нескольких порций исходных данных. Объективные условия сбора исходных статисти- статистических данных, особенно в ситуациях пассивного экспери- эксперимента, могут быть такими, что общая (/?Х/г)-матрица на- наблюдений (см. A.4)) получается составлением (pX/t^-, (рХ/г2)-, ..., (/?Х/гй)-матриц (частных) наблюдений (/гх + +n2+>..+nk=n) соответственно Хь..., Xh, где каждая из частных матриц X; задает порцию исходных данных, от- относящихся к некоторой подсовокупности, состоящей из nj объектов. При этом процессы (моменты) обследования этих совокупностей могут быть разделены в пространстве (во времени). Очевидно, перед тем как подвергать исходные данные основной статистической обработке (т. е. применять к ним те или иные методы прикладного статистического анализа, выбор которых обусловлен конечными целями исследова- исследования), исследователь должен ответить на вопрос: право- правомерно ли объединение имеющихся в его распоряжении порций (выборок) в один общий массив или же каждая из порций имеет свою специфику и, следовательно, и обра- обрабатывать их надо по отдельности? В рамках математико- статистических моделей этот вопрос сводится к выяснению (с помощью соответствующих статистических критериев), можно ли считать порции данных Х1э...,ХЛ различными выборками из одной и той же генеральной совокупности (см., например, [12]). Очевидно, что если причиной дробле- дробления на порции массива была временная разделенность со- соответствующих порций, то речь идет о статистической проверке стационарности соответствующих многомерных временных рядов. 30
Проверка статистической независимости последователь- последовательности наблюдений, составляющих массив исходных данных. Применение многих статистических методов является пра- правомерным лишь в ситуациях, когда справедливо допуще- допущение о статистической независимости обрабатываемого ряда наблюдений Хг, Х2,...,ХП. Этот же вопрос возникает и применительно к рядам {Xi(t1)t...tXi(tN)}. Поэтому, перед тем как подвергнуть имеющиеся результаты наблюдения основной статистической обработке, необходимо выяснить (с помощью соответствующих статистических критериев (см. § 11.3)), являются ли они статистически независимы- независимыми или их следует рассматривать как последовательности взаимозависимых величин. Унификация типа переменных. Одна из сложностей автоматизированного анализа информации заключается в том, что среди компонент хг\ л;B),.-->*(р) анализируемого многомерного признака могут быть показатели трех раз- разных типов: количественные, качественные (порядковые, ор- ординальные) и классификационные (номинальные). Их оп- определение и сущность, а также основные формы записи их наблюдаемых значений приведены в § 5.3 и 10.2. В связи с этим возникает вопрос унификации записи единичного наблюдения, снятого с объекта i. В соответ- соответствии с одним из вариантов решения этого вопроса 1-е многомерное наблюдение в унифицированной записи пред- представляется вектор-столбцом размерности т!+т2+...+Апр, где tnk — число градаций (интервалов группирования, уровней качества или однородных групп) признака я<*>, причем компонентами этого вектор-столбца могут быть только нули или единицы. При таком подходе к достиже- достижению единообразия записи наблюдений многомерного приз- признака смешанной природы мы вынуждены мириться, во-пер- во-первых, с элементами субъективизма в выборе способов раз- разбиения диапазонов изменения анализируемых количест- количественных признаков на интервалы группирования и, во-вто- во-вторых, с определенной потерей информативности исходных данных, связанной с переходом от индивидуальных к груп- группированным значениям по- количественным переменным. В качестве альтернативного подхода к способу унифи- унификации записи исходных данных может быть использована идея, прямо противоположная той, на основании кото- которой построен только что описанный прием. В частности, руководствуясь некоторыми дополнительными соображе- соображениями (и допущениями), исследователь пытается преобра- 31
зовать качественные и классификационные переменные в количественные, используя процесс так называемой «оциф- «оцифровки», или шкалирования, неколичественных переменных, а также некоторые специальные модели (Терстоуна, Лазар- сфельда и др.), см. § 10.2, а также [31], [57], 188), [134]. Экспериментальный анализ закона распределения иссле- исследуемой генеральной совокупности и вопрос ее подходящей параметризации. Эта часть предварительной ста- статистической обработки исходного массива данных, пред- представленных в виде A.4), включает в себя вычисление ос- основных числовых характеристик распределения: среднего значения, дисперсии, коэффициентов асимметрии и экс- эксцесса, а в многомерном случае — и элементов выборочной ковариационной матрицы. Кроме того, исследователь про- проводит численный и графический анализ одномерных зако- законов распределения рассматриваемых показателей, заклю- заключающийся в построении соответствующих полигонов час- частот, гистограмм, эмпирических функций распределения. Результаты этого экспериментального анализа, дополнен- дополненные априорными сведениями о природе анализируемой генеральной совокупности, зачастую оказываются доста- достаточными для формулировки одной или нескольких конку- конкурирующих гипотез об общем (параметрическом) виде за- закона распределения вероятностей, задающего эту генераль- генеральную совокупность. Не следует пренебрегать такой возмож- возможностью, поскольку знание общего вида вероятностного распределения в исследуемой генеральной совокупности позволяет сделать наилучший выбор метода статистичес- статистического оценивания параметров этого распределения, а также метода последующей основной статистической обработки массива исходных данных (из набора конкурирующих методов). Как известно, выяснение непротиворечивости высказанной исследователем гипотезы об общем виде рас- распределения анализируемых наблюдений с природой и спе- спецификой имеющихся в распоряжении исследователя кон- конкретных исходных данных осуществляется с помощью тех или иных статистических критериев согласия (см. § 10.3 и 11.1). Этап 5: составление детального плана вычислительно- вычислительного анализа материала. Этап начинается с составления справки по собранному материалу и результатам предва- предварительного анализа. Определяются основные группы, для которых будет проводиться дальнейший анализ. Пополня- Пополняется и уточняется тезаурус содержательных понятий. 32
Четко описывается блок-схема анализа с указанием при- привлекаемых методов. Формулируется оптимизационный кри- критерий, на основании которого выбирается один из альтер- альтернативных методов (или одно из альтернативных семейств методов) основной статистической обработки исходных данных (см. § 1.2). Этап 6: вычислительная реализация основной часта статистической обработки данных. Основная забота ис- исследователя на этом этапе — эффективное управление вы- вычислительным процессом путем формулировки задачи об- обработки и описания данных на входном языке пакета. Учитываются размерность задачи, алгоритмическая слож- сложность вычислительного процесса, возможности использу- используемой ЭВМ (длина слова, быстродействие, объем оператив- оперативной памяти, организация базы данных и т. п.) и, наконец, особенности данных (степень обусловленности используе- используемых при реализации линейных процедур матриц, надеж- надежность априорных оценок параметров и т. п.). Этап 7: подведение итогов исследования. Этап начина- начинается с построения формального статистического отчета о проведенном исследовании. При интерпретации результатов применения статистических процедур (оценка параметров, проверка гипотез, отображения в пространство меньшей размерности, классификация и т. п.) учитывается как мес- место этих процедур в блок-схеме анализа, так и соотношение объемов используемых выборок, размерности пространства наблюдений, числа и значений параметров. Теоретически эти вопросы, несмотря на их крайнюю актуальность, раз- разработаны довольно мало. Как исключение можно назвать работы [27], [58], [59]. В тех случаях, когда при интерпре- интерпретации результатов вычислений нельзя опереться на теоре- теоретические утверждения, может оказаться полезным исполь- использование имитационного статистического моделирования (см. § 3.3 и 6.3). Затем результаты исследования, его основные выводы формулируются в содержательных терминах. Если иссле- исследование проводилось в рамках математико-статистических методов и моделей, то его выводы формулируются в терми- терминах оценок неизвестных параметров анализируемой систе- системы или в виде^ответа на вопрос о справедливости проверя- проверяемой статистической гипотезы и сопровождаются гаранти- гарантируемыми количественными оценками степени их достовер- достоверности. Если же исследование осуществлялось средствами 2 Зак. 1035 33
анализа данных (т. е. в рамках второго подхода), то его выводы не претендуют на вероятностную интерпретацию. В заключение проверяется, в какой мере достигнуты намеченные на этапе 1 содержательные цели работы, и, если достигнуты не все из них, то объясняется, почему. Работа завершается содержательной формулировкой но- новых задач, вытекающих из проведенного исследования. В некоторых руководствах по общей теории статистики (см., например, [64]) этапы 5, 6 и 7 объединены в одном этапе, названном «Обработка и анализ». Резюмируя описание общей логической схемы статис- статистического анализа исходных данных, отметим, что основ- основные приемы статистического моделирования и методы пер- первичной статистической обработки являются главными в ходе реализации важнейших этапов 1, 4 и 7, а также по мере необходимости могут привлекаться при реализации этапов 3, 5 и 6. 1.2, Оптимизационная формулировка основных задач прикладной статистики и проблема устойчивости статистического вывода 1.2.1. Связь между оптимизационной формулировкой основ- основных задач прикладной статистики и проблемой устой- устойчивости статистического вывода. Выше упоминалось, что основные проблемы статистической обработки данных мо- могут быть сформулированы в виде общей оптимизационной задачи (при соответствующем выборе оптимизируемого критерия качества метода) таким образом, что и методы математической статистики, и методы логико-алгебраичес- логико-алгебраического подхода конструируются в качестве решений этой задачи. Покажем, как при надлежащем выиоре оптимизи- оптимизируемого критерия качества метода и класса допустимых решений можно в рамках единого унифицированного под- подхода получать известные методы и модели в задачах: статистического исследования зависимостей; классификаци.1 объектов или признаков; сжатого представления данных. Кроме того, введение критериев качества метода (п. 1.1.2) позволяет реализовать один полезный подход к отысканию таких методов статистической обработки, ко- которые дают устойчивые по отношению к варьированию ис- 34
ходных Допущений (относительно природы и точности ре- регистрации обрабатываемых данных) выводы. В частности, предлагается многократно решить оптимизационную зада- задачу, определяющую наилучший метод статистической обра- обработки данных, для различных критериев качества метода, например для критериев, образующих целое параметричес- параметрическое семейство. В результате будет получено множество статистических выводов: каждому критерию соответствует свой наилучший метод, а каждому наилучшему методу — свой статистический вывод. Из полученного таким образом множества статистических выводов следует выбрать один или несколько относительно мало меняющихся при пере- переходе от одного критерия к другому в достаточно широкой области их варьирования [7], [79], [92]. Целесообразность и актуальность подобного способа статистической обработки данных обусловлены тем, что на практике,, как правило, ни априорная информация о вероятностной природе обрабатываемых данных, ни зна- знание «физического» механизма исследуемого явления не доставляют нам тем не менее достаточных доводов, на ос- основании которых можно было бы строго обосновать выбор какой-то одной модели и соответственно какого-то одного критерия качества метода. А это значит, что целесообразно запастись целым классом допустимых моделей (критериев). Именно поэтому статистические выводы, основанные на столь широко разработанном и применяемом принципе максимального правдоподобия, Оказываются часто уязви- уязвимыми с точки зрения устойчивости своих «хороших» свойств (реализация этого принципа основана на априорном посту- постулировании какого-то определенного типа закона вероят- вероятностного распределения обрабатываемых данных). Конкретнее определенная форма реализации идеи полу- получения устойчивых статистических выводов применительно к задаче статистического оценивания отражена в § 10.4. 1.2.2. Проблема статистического исследования зависимо- зависимостей между анализируемыми показателями. Исследование характера и структуры взаимосвязей, существующих меж- между анализируемыми показателями, характеризующими со- состояние или поведение статистически обследованных объек- объектов (процессов), является сущностью и главной целью многомерного статистического анализа. Поэтому неудиви- неудивительно, что вынесенная в заголовок данного пункта проб- проблема, бесспорно, превалирует и с точки зрения прикладной актуальности, и с точки зрения разнообразия и степени 2* 35
разработанности соответствующего математического ап- аппарата. К последнему относятся методы регрессионного, корреляционного, дисперсионного и ковариационного ана- анализа, методы экстремального планирования регрессионных экспериментов, методы анализа временных рядов, некото- некоторые методы и модели зависимостей специального (напри- (например, марковского) типа. В большинстве случаев общую схему исследования в рамках данной проблемы можно представить следующим образом. Вектор статистически регистрируемых на иссле- исследуемой реальной системе показателей X подразделяется на два подвектора, один из которых, например интерпретируется как вектор характеристик условий функ- функционирования (или состояния) исследуемой системы (как правило, все этЪ характеристики или их часть поддаются регулированию или частичному управлению), а второй, интерпретируется как вектор результирующих показателей, характеризующих поведение или эффективность функцио- функционирования (качество) исследуемой системы 1. Проблема состоит в конструктивном объяснении поведения результи- результирующих показателей Х{2) за счет изменения факторов-ар- факторов-аргументов ХA), т. е. в определении такой векторной функции 1 Показатели Ха) часто называют входными переменными, или факторами-аргументами, или предсказывающими переменными (в эконометрических задачах большую их часть составляют так назы- называемые экзогенные переменные). Результирующие показатели Х*2) называют зависимыми переменными или откликами (в экономиче- экономических задачах большую часть их составляют так называемые эндо- эндогенные переменные). 36
из класса допустимых решений F, которая давала бы на- наилучшую, в определенном смысле, аппроксимацию поведе- поведения вектора Х<2> на множестве точек-наблюдений{Xt} г==1— . Для математической формулировки задачи введем невязки fift« = S(fh(X{p))> характеризующие погрешности в описа- описании результирующего признака x^m+k) с помощью функции fh(X{l)) в точке Xh а затем — функционал А (!; = А ({8Л/}, k=l, p-rn, i = l, п) A.6) как меру адекватности модели Задача статистического исследования зависимостей по. казателей ХB) от факторов ХA) сводится, таким образом, к определению такой векторной функции f (ХA)), которая является решением экстремальной задачи вида А (ЦХ^)) = extr A (f (X*1))). A.7) fF Конкретный вид невязок 8Aff функционала адекват- адекватности A(f) и класса допустимых решений F определяется в зависимости от природы анализируемых исходных дан- данных и от некоторых априорных сведений (если таковые имеются) о природе и структуре искомых зависимостей. Если в качестве F задаются некоторым параметрическим семейством функций {f(XA); в)}, то задача A.7) сводится к подбору (статистическому оцениванию) значений пара- параметров©, < на которых достигается экстремум A.6), а соот- соответствующие методы исследования называют параметри- параметрическими. В [9] приводятся наиболее распространенные в теории и приложениях варианты конкретизации описанной об- общей схемы. Почти все они относятся к исследованию ад- аддитивных аппроксимационно-регрессионных моделей вида ХB) = 1(Х^) + г, A.8) в которых (р—т)-мерный вектор-столбец остатков е отра- отражает либо (в качестве остаточной случайной компоненты) влияние на Х^2) совокупности неучтенных случайных фак- факторов, либо, (в качестве ошибки аппроксимации) меру до- достижимой аппроксимации показателей ХB) функциями из класса F, либо (как чаще всего и бывает в реальных ситуациях) — и то и другое одновременно. 37
Очевидно, параметрический вариант модели A.8) мо- может быть записан в виде Xi*)=t(Xil)\ в) + е. A.8') В зависимости от характера дополнительных допуще- допущений по поводу природы остатков е и класса функций F мы приходим к тому или иному конкретному виду невя- невязок 8ki и функционала А, что определяет тип аппроксима- ционно-регрессионных моделей и способ оценивания не- неизвестных параметров модели. ФормулируехМый нами способ формализованного описа- описания проблемы статистического исследования зависимостей, хотя является достаточно общим, не претендует на всеобъ- всеобъемлющий охват всех мыслимых постановок задач и моделей, относящихся к данной проблеме. 1.2.3. Проблема классификации объектов или признаков. Говоря о классификации совокупности объектов, мы будем подразумевать, что каждый из них задан соответствующим столбцом матрицы A.4) либо что геометрическая структура их попарных расстояний (связей) задана матрицей A.4'). Аналогично интерпретируется исходная информация в за- задаче классификации совокупности признаков, с той лишь разницей, что каждый из признаков задается соответству- соответствующей строкой матрицы A.4). В дальнейшем, если это спе- специально не оговорено, мы не будем разделять изложение этой проблемы на объекты и признаки, поскольку все по- постановки задач и основная методологическая схема ис- исследования здесь общие. В своей общей (нестрогой) постановке проблема клас- классификации объектов заключается в том, чтобы всю анали- анализируемую совокупность объектов О = {О?}1==1—, статис- статистически представленную в виде A.4) или A.4'), разбить на сравнительно небольшое число однородных, в определен- определенном смысле, групп или классов. Для формализации этой проблемы удобно интерпретировать анализируемые объек- объекты в качестве точек в соответствующем факторном про- пространстве: если исходные данные представлены в виде A.4), то эти точки являются непосредственным геометри- геометрическим изображением многомерных наблюдений Xl9 Х2,..., Хп в р-мерном пространстве X с координатными осями Ох*1), 0л:<2>,..., QxIp); если же исходные данные представле- представлены в виде A.4'), то исследователю неизвестны непосред- 38
ственно координаты этих точек, но зато задана структура попарных расстояний между объектами (признаками). Естественно предположить, что геометрическая близость двух или нескольких точек в этом пространстве означает близость «физических» состояний соответствующих объек- объектов, их однородность. Тогда проблема классификации со- состоит в разбиении анализируемой совокупности точек-на- точек-наблюдений на сравнительно небольшое число — заранее известное или нет — сгустков (кластеров, скоплений, так- таксонов, образов), которые находятся на некотором расстоя- расстоянии друг от друга (в смысле метрики, введенной в соответ- соответствующем пространстве X), но сами не разбиваются на столь же удаленные классы г. Очевидно, выбор алгоритма классификации S должен быть подчинен определенным требованиям. В достаточно общем случае эти требования могут быть сформулированы с помощью задания соответствующего критерия, или функ- функционала качества классификации Q(S). Вид этого функцио- функционала, так же как конкретизация постановки задачи клас- классификации и определение класса А допустимых правил классификации, зависит от характера априорных сведений об искомых классах и от наличия (отсутствия) предвари- предварительной выборочной информации (так называемых обуча- обучающих выборок) об этих классах. Таким образом, в общем случае задачу классификации исследуемой совокупности объектов О, статистически пред- представленной в виде A.4) или A.4'), можно сформулировать как задачу поиска такого разбиения (правила классифика- классификации) S * заданной совокупности О на непересекающиеся классы 5* , S* ,..., SJ; Д S] = О, Sif\Sj = 0 при 1ф }2, при котором функционал качества Q(S) достигает 1 Геометрическая структура анализируемой совокупности объектов может быть такой, что решения задачи классификации в вышеприведенной постановке не существует (например, равномерно разбросанные в некоторой области пространства X точки). Фор- Формальное применение методов классификации к таким совокупностям приводит в этих случаях к решению обычной задачи разбиения обс- обследованной области пространства X на некоторое число областей группирования (многомерных аналогов интервалов группирования, получающихся при первичной статистической обработке одномер- одномерных наблюдений). 2 Знак 0 используется для обозначения пустого множества, а U и Л — для обозначения операций суммирования и пересечения множеств соответственно, 39
своего экстремального значения на А, т. е. Q(S*)=minQ(S) SA ИЛИ Q (S*) = max Q(S). sA При этом число классов k может быть как заранее задан- заданным, так и неизвестным. Конкретный вид функционалов Q(S) и класса допусти- допустимых решающих правил А, приводящих к известным схе- схемам дискриминантного анализа, расщепления смесей рас- распределений, кластер-анализа и т. п., приведены в [9]. 1.2.4. Снижение размерности исследуемого факторного пространства и отбор наиболее информативных признаков. Имеется по крайней мере три основных типа принципиаль- принципиальных предпосылок, обусловливающих возможность перехо- ,да от большого числа р исходных показателей состояния (поведения, эффективности функционирования) анализи- анализируемой системы к существенно меньшему числу р' наибо- наиболее информативных переменных (последние либо отбира- отбираются по определенному правилу из числа исходных, либо являются некоторыми функциями от них). Это, во-первых, дублирование информации, доставляемой сильно взаимо- взаимосвязанными признаками; во-вторых, неинформативность признаков, мало меняющихся при переходе от одного объек- объекта к другому (малая вариабельность признаков); в-третьих, возможность агрегирования, т. е. простого или взвешенного суммирования, по некоторым признакам. Формально за- задача перехода (с наименьшими потерями в информатив- информативности) к новому набору признаков zA\ z<2),..., z(p'> может быть описана следующим образом. Пусть Z=Z(X) — не- некоторая //-мерная вектор-функция исходных переменных х^\ х<2\ ..., х^ (р'<р) и пусть 1Р> (Z(X)) — определен- определенным образом заданная мера информативности /?'-мерной системы признаков Z(X)=(z^)(X), z<2)(X),..., z<p'>(X)). Кон- Конкретный выбор функционала 1р> (Z) зависит от специфика- спецификации решаемой реальной задачи и опирается на один из двух возможных критериев: критерий автоинформативно- автоинформативности, нацеленный на максимальное сохранение информа- информации, содержащейся в исходном массиве {Xi}i=jrn отно- относительно самих исходных признаков, и критерий внешней 40
информативности, нацеленный на максимальное «выжи- «выжимание» из {Xi}i==Y^t информации, содержащейся в этом массиве относительно некоторых других (внешних) пока- показателей. Задача заключается в определении такого набора приз- признаков Z, найденного в классе F допустимых преобразова- преобразований исходных показателей х^\...,х(р\ что / B (*)) = max/ ( 1 ZeF ' Тот или иной вариант конкретизации этой постановки (определяющий конкретный выбор меры информативности /р' (Z) и класса допустимых преобразований F) приводит к конкретному методу снижения размерности: к методу главных компонент, к факторному анализу, к экстремаль- экстремальной группировке параметров и т. д. (см. [9]). Выводы 1. Прикладная статистика — научная дисциплина, раз- разрабатывающая и систематизирующая понятия, приемы, математические методы и модели, предназначенные для организации сбора, стандартной записи, систематизации и обработки (в том числе с помощью ЭВМ) статистических данных с целью их удобного представления, интерпрета- интерпретации и получения научных и практических выводов. 2. Вопросы, разработки методологии определения априор- априорной системы показателей, характеризующих исследуемый объект или процесс, относятся к компетенции дисциплин, носящих название конкретно-содержательных статистик (экономической, медицинской и т. д.). 3. Математическая статистика, являясь по отношению к прикладной статистике разработчиком и поставщиком части используемого в последней математического аппарата, полностью отстранена от таких функций прикладной ста- статистики как: «прилаживание» и доработка необходимого математи- математического инструментария в соответствии с конкретной спе- спецификой решаемой реальной задачи; разработка логико-алгебраических методов статисти- статистической обработки данных, т. е. методов, не опирающихся 41
на модельные Допущения о вероятностной природе обраба- обрабатываемых данных; преобразование разнообразных форм получаемой ин- информации к стандартному виду исходных статистических данных, их удобное представление и подготовка к обработке; организация автоматизированной обработки данных на ЭВМ, создание необходимого программного обеспечения. 4. Процесс статистического анализа данных удобно под- подразделить на следующие основные этапы: этап 1 — исходный (предварительный) анализ иссле- исследуемой системы; этап 2 — составление плана сбора исходной информации; этап 3 — сбор исходных данных, их подготовка и вве- введение в ЭВМ; этап 4 — первичная статистическая обработка данных; этап 5 — выбор основных методов и алгоритмов ста- статистической переработки данных, составление детального плана вычислительного анализа материала; этап 6 — реализация плана вычислительного анализа исходных данных (непосредственная эксплуатация ЭВМ); этап 7 — подведение итогов исследования. Этапы перечислены в хронологическом порядке, однако в случае необходимости они реализуются в режиме ите- итерационного взаимодействия: результаты реализации более поздних этапов могут содержать выводы о необходимости повторной прогонки (с учетом новой информации) предыду- предыдущих этапов. 5. Каждая из основных проблем прикладной статистики может быть сформулирована в виде общей оптимизационной задачи при соответствующем выборе оптимизируемого кри- критерия (функционала) качества метода. Такая оптимизаци- оптимизационная формулировка позволяет, в частности: получить единый (унифицированный) подход к постро- построению и вероятностных, и логико-алгебраических методов статистической обработки данных; описать конструктивно реализуемый подход к решению проблемы получения устойчивых статистических выводов. 6. Главная цель многомерного статистического анали- анализа — исследование взаимосвязей между показателями для решения следующих задач: восстановление значения результирующего показателя по значениям «сопут- «сопутствующих» переменных; классификация многомерных наблюдений; снижение размерности исследуемого фак- факторного пространства. 42
Глаза 2. теоретико-вероятностный СПОСОБ РАССУЖДЕНИЯ В ПРИКЛАДНОЙ СТАТИСТИКЕ 2.1. Теория вероятностей и условия ее применимости 2.1.1. Статистический ансамбль и «игра случая». В гл. 1 упоминается о двух подходах к статистической обработке данных — математико-статистическом (вероят- (вероятностном) и логико-алгебраическом. Ко второму подходу исследователь вынужден обращаться лишь тогда, когда условия сбора (регистрации) исходных данных не уклады- укладываются в рамки так называемого статистического ансамбля, т. е. в ситуациях, когда не имеется практической или хотя бы принципиально мысленно представимой возможности многократного тождественного воспроизведения основного комплекса условий, при которых производились измере- измерения анализируемых данных. В условиях же статистического ансамбля исследователь имеет возможность воспользоваться классическими матема- тико-статистическими методами обработки данных, когда для обоснования наилучшего выбора методов статистичес- статистической переработки, итогового представления и интерпретации анализируемых данных он использует те или иные априор- априорные сведения об их случайной (стохастической) природе. При этом мы исходим из того, что даже постулируемая нами тождественность воспроизведения основного комплекса ус- условий эксперимента или наблюдения в большинстве реаль- реальных ситуаций (с учетом их сложности, множественности и частичной неизученности формирующих их факторов) не избавляет нас от неконтролируемого (случайного) разброса в самих результатах наблюдения. Так, даже практически идеально отлаженный станок автоматической линии не в состоянии производить абсолютно идентичные между собой (и заданному номиналу) изделия. В аналогичных условиях статистического ансамбля и соответствующего неконтролируемого разброса изучаемых показателей или событий мы окажемся, например, при изучении числа де- дефектных изделий в партиях заданного объема, отбираемых от массовой продукции и производимых в стационарном режиме производства, или при регистрации среднедушевого дохода семей, случайно отбираемых из некоторой однород- 43
ной (в социальном, географическом и экономическом смысле) совокупности и т. д. Однако «где на поверхности происходит игра случая, там сама эта случайность, всегда оказывается подчиненной внутренним, скрытым законам»1. Именно разнообразные математические модели таких скрытых закономерностей вместе с теоретическим и эмпирическим анализом их свойств и взаимоотношений и предоставляют исследователю тео- теория вероятностей и математическая статистика. Описа- Описанию необходимого минимума их основных понятий посвя- посвящены разд. II и III. 2.1.2. Теория вероятностей и условия статистического ансамбля. «Теория вероятностей — наука, позволяющая по вероятностям одних случайных событий находить вероят- вероятности других случайных событий, связанных каким-либо образом с первыми... Можно также сказать, что теория ве- вероятностей есть математическая наука, выясняющая (под- (подчеркнем: на теоретико-модельном уровне!— С. А.) законо- закономерности, которые возникают при взаимодействии боль- большого числа случайных факторов»2. Как уже отмечалось, идеальной средой применимости теоретико-вероятностного способа рассуждения (и соот- соответствующего математического аппарата) является ситуа- ситуация, когда мы находимся в условиях стационарного (т. е. не изменяющегося во времени) действия некоторого реального комплекса условий, включающего в себя неизбежность «мешающего» влияния большого числа случайных (не под- поддающихся строгому учету и контролю) факторов, которые, в свою очередь, не позволяют делать полностью достовер- достоверные выводы о том, произойдет или не произойдет интересую- интересующее нас событие. При этом предполагается, что мы имеем принципиальную возможность (хотя бы мысленно реально осуществимую) многократного повторения нашего экспе- эксперимента или наблюдения в рамках того же самого реального комплекса условий. Именно такую ситуацию принято на- называть условиями действия статистического ансамбля или условиями соблюдения статистической однородности ис- исследуемой совокупности. Наиболее простые и убедительные примеры реальных ситуаций, подчиняющихся требованию статистической ус- 1 Маркс К., Энгельс Ф. Соч., т. 21, с". 306. 2 Математическая энциклопедия. М., Советская энциклопедия, 1976, т. I, с. 655—656. 44
тойчивости (или укладывающихся в рамки статистического ансамбля), предоставляет нам область азартных игр1. Дей- Действительно, подбрасывая монету, бросая игральную кость или вытягивая наугад карту из колоды и интересуясь при этом вероятностью осуществления события, заключающе- заключающегося соответственно в появлении «герба», «шестерки» или «дамы пик», мы имеем все основания полагать, что: а) можно многократно повторить тот же самый экспери- эксперимент в тех же самых условиях; б) наличие большого числа случайных факторов, ха- характеризующих условия проведения каждого такого экспе- эксперимента, не позволяет делать полностью определенного (детерминированного) заключения о том, произойдет в ре- результате данного эксперимента интересующее нас событие или не произойдет; в) чем большее число однотипных экспериментов мы произведем, тем ближе будут подсчитанные по результатам экспериментов относительные частоты появления интере- интересующих нас событий к некоторым постоянным величинам, называемым вероятностями этих событий, а именно: от- относительная частота появления «герба» будет приближаться к 1/2, выпадения «шестерки» — к 1/6, а извлечения «дамы пик» (из колоды, содержащей 52 карты) — к 1/52. Очевидно, требования статистического ансамбля при- применительно к указанным выше трем типам экспериментов означают необходимость использования одной и той же (или совершенно идентичных) симметричной монеты, сим- симметричной кости, а в последнем случае — необходимость возвращения извлеченной в предыдущем эксперименте карты в колоду и тщательного случайного перемешивания последней. 2.1.3. Основные типы реальных ситуаций с позиций соб- соблюдения условий статистического ансамбля. Соблюдение условий статистического ансамбля в более серьезных и сложных сферах человеческой деятельности — в эконо- экономике, в социальных процессах, в технике и промышленное- 1 Исторически именно эта область существенно стимулировала зарождение и развитие элементов теоретико-вероятностной научной дисциплины. Первые достаточно интересные результаты теории ве- вероятностей принято связывать с работами Л. Пачоли («Сумма ариф- арифметики, геометрии, учения о пропорциях и отношениях», 1494 г.), Д. Кардано («Книга об игре в кости», 1526 г.) и Н. Тартальи («Об- («Общий трактат о числе и мере» 1556—1560 г.). См, [51, с, 6, 25—37]. 45
ти, в медицине, в различных отраслях науки — это вопрос, требующий специального рассмотрения в каждом конкрет- конкретном случае. Оценивая специфику задач в различных областях че- человеческого знания с позиции соблюдения в них свойств а) — в) статистической устойчивости и принимая во вни- внимание накопившийся опыт вероятностно-статистических приложений, можно условно разбить все возможные при- приложения на три категории. К первой категории возможных областей применения — категории высокой работоспособности вероятностно-ста- вероятностно-статистических методов — отнесем те ситуации, в которых свойства а) — в) статистической устойчивости исследуемой совокупности, бесспорно, имеют место либо нарушаются столь незначительно, что это практически не влияет на точность статистических выводов, полученных с исполь- использованием теоретико-вероятностных моделей. Сюда (помимо упоминавшейся «игровой» тематики) могут быть отнесены от- отдельные разделы экономики и социологии и в первую очередь задачи, связанные с исследованием поведения объекта (индивидуума, семьи или другой социально-экономической или производственной единицы) как представителя боль- большой однородной совокупности подобных же объектов (см.. например, [2], [8], [79]). Традиционной областью эф- эффективного использования вероятностно-статистического аппарата давно стала демография (см. [19], [77]). Теоретико- вероятностные понятия являются основным языком в та- таких инженерных областях, как теория надежности сис- систем, состоящих из очень большого числа элементов (см. [25]), и теория выборочного контроля качества про- продукции (см. [14], [25]). В медицине вероятностно-статисти- вероятностно-статистический подход позволил ввести понятие факторов риска развития основных хронических заболеваний и провести количественное изучение их влияния, способствуя тем самым большей индивидуализации, а значит, и эффектив- эффективности профилактики и лечения (см. [129], [140]). Резуль- Результаты специальных вероятностно-статистических исследо- исследований выявили, что вероятность дожить до определенного возраста подвержена не слишком значительным колеба- колебаниям (в зависимости от условий жизни). Эти результаты и язились основой составления так называемых таблиц выживаемости (см. [102]), в определенной мере и в опреде- определенном смысле (а именно, в среднестатистическом, но не в индивидуальном, конечно!) поколебавшим известное древ- 46
нее изречение «никто не знает часа своей смерти». Вероят- Вероятностно-статистический способ рассуждения играет видную роль в исследованиях, проводимых в современной физике (в первую очередь в статистической физике, см. [38]) и в классической механике (в статистической теории газов). Отметим одну важную общую черту, характеризующую подавляющее большинство задач перечисленных выше об- областей человеческой деятельности, в которых оказывается правомерным и эффективным применение вероятностно- статистических методов. Речь идет о существенной мно- многомерности обрабатываемой информации, характеризую- характеризующей исследуемые явления или объекты, т. е. о ситуациях, когда состояние или поведение каждого из этих объектов в любой фиксированный момент времени описывается целым набором соответствующих показателей. Среди этих пока- показателей могут быть как количественные (среднедушевой доход в семье, размер семьи, объем валовой продукции предприятия и т. д.), так и не количественные, т. е. ранго- ранговые (классификация специалиста, сравнительная характе- характеристика жилищных условий) и классификационные, или номинальные (профессия, национальность, пол, причины миграции и т. п.). Все эти показатели находятся в сложной взаимосвязи друг с другом. Именно в таких ситуациях принято говорить о многомерности исследуемой схемы, а исследователю приходится обращаться к методам много- многомерного статистического анализа. Ко второй категории возможных областей примене- применения — категории допустимых вероятностно-статисти- вероятностно-статистических приложений — отнесем ситуации, характеризую- характеризующиеся весьма значительными нарушениями требования сохранения неизменными условий эксперимента (вторая половина требования а)) и вытекающими отсюда отклоне- отклонениями от требования в). Характерной формой такого рода отклонений от условий статистического ансамбля является объединение в одном ряду наблюдений (подлежащих об- обработке) различных порций исходных данных, зарегистри- зарегистрированных в разных условиях (в разное время или в раз- разных совокупностях). К этой же категории приложений можно отнести определенный класс задач, связанных с анализом коротких временных рядов, зарегистрированных в условиях, практически исключающих возможность ста- статистической фиксации сразу нескольких эмпирических реализаций исследуемого временного ряда на одном и том же временном интервале. Использование вероятност- 47
но-статистических методов обработки в этом случае допусти- допустимо, но должно сопровождаться пояснениями о несовершен- несовершенстве и приближенном характере получаемых при этом вы- выводов (например, не следует слишком доверять в подобных ситуациях различным числовым характеристикам степени достоверности этих выводов, т. е. доверительным вероятно- вероятностям, уровням значимости критерия и т. п.) и по возможности должно дополняться другими методами научного анализа. И наконец, к третьей категории задач статистической обработки исходных данных — категории недопустимых вероятностно-статистических приложений — следует от- отнести ситуации, характеризующиеся либо принципиаль- принципиальным неприятием главной идеи понятия статистического ан- ансамбля — массовости исследуемой совокупности (т. е. кон- конкретной бессодержательностью идеи многократного повто- повторения одного и того же эксперимента в неизменных усло- условиях, сформулированной в требовании а)), либо полной детерминированносщью изучаемого явления, т. е. — от- отсутствием «мешающего» влияния множества случайных факторов (нарушение требования б)). В подобных ситуа- ситуациях исследователь должен пользоваться методами ана- анализа данных (см. [105]) и не должен претендовать на ве- вероятностную интерпретацию обрабатываемых данных и по- получаемых в результате их обработки выводов. Строгих математических методов, позволяющих точно определять, находимся ли мы в условиях статистического ансамбля, не существует: любая вероятностная модель, так же как и любая математическая модель вообще, есть лишь некоторая аппроксимация исследуемой реальной дей- действительности. Можно говорить лишь о ситуациях, очевид- очевидно укладывающихся в рамки статистического ансамбля (бросание монеты, игральной кости; контроль продукции массового производства, работающего в отлаженном ста- стационарном режиме, и т. п.), укладывающихся в эти рамки лишь приблизительно, с оговорками, и явно не соответст- соответствующих условиям статистического ансамбля. Однако даже с последней категорией ситуаций (названных у нас катего- категорией недопустимых вероятностно-статистических прило- приложений) нет полной ясности. Так, например, с позиций ста- статистического ансамбля события типа «в 2000 г. начнется война между странами А и В» явно не относятся к сфере возможных применений вероятностно-статистических ме- методов — налицо нарушение требования а)! Однако сущест- существует концепция так называемых субъективных вероятное- 48
тей (см., например, [51, с. 231—233J), в рамках которой оказывается правомерным говорить и о вероятности таких событий. Для этого следует прибегнуть к помощи экспер- экспертов и вместо действительной многократной реализации интересующего нас эксперимента в одних и тех же усло- условиях ограничиться воображаемой прогонкой исследуемой ситуации «через сознание» многих экспертов. При этом, очевидно, эксперт интерпретируется как некий измери- измерительный прибору работающий со случайной ошибкой. Точность работы этого «измерительного прибора», т. е. точность «прочтения» (в сознании эксперта) исхода инте- интересующего нас события в будущем, очевидно, зависит как от степени объективного влияния «мешающих» случайных факторов (т. е. от степени временной отдаленности интере- интересующего нас момента времени, общей сложности ситуации и т. п.), так и от степени осведомленности, компетентности и других субъективных качеств самого эксперта. Мы не собираемся здесь вмешиваться в спор между субъективист- субъективистской и классической вероятностными концепциями. Ос- Останемся на той точке зрения, что единственным объектив- объективным судьей в подобных вопросах может быть лишь крите- критерий практики. В этой связи уместно напомнить читателю следующие слова Ф. Энгельса из «Анти-Дюринга»: «... Ма- Математика, вообще столь строго нравственная, совершила грехопадение: она вкусила от яблока познания, и это от- открыло ей путь к гигантским успехам,# но вместе с тем и к заблуждениям. Девственное состояние абсолютной зна- значимости, неопровержимой доказанности всего математи- математического навсегда ушло в прошлое; наступила эра разно- разногласий, и мы дошли до того, что большинство людей диф- дифференцирует и интегрирует не потому, что люди понимают, что они делают, а просто потому, что верят в это, так как до сих пор результат всегда получался правильный»1. Резюмируя содержащееся в данном пункте обсужде- обсуждение сущности, назначения и границ применимости теории вероятностей, мы можем через полтора века после замеча- замечательного французского ученого Лапласа повторить, более обоснованно и убедительно, что замечательно, что наука, которая начала с изучения игр, возвысилась до наиболее важных предметов человеческого знания2. 1 Маркс К., Энгельс Ф. Соч., т. 20, с. 89. 2 См: Oeuvres completes de Laplace. T. 7: «Theorie analytique des probabilites». Paris, Ganthier — Villars, 1886, p. CLII. 49
2.2. «Взаимоотношения» теории вероятностей и математической статистики 2.2.1. Статистический способ принятия решения. Пусть читатель представит себя наблюдающим за игрой двух лиц в кости, происходящей по следующим правилам. Произ- Производится 4 последовательных бросания игральной кости. Игрок А получает 1 руб. от игрока В, если в результате этих четырех бросаний хотя бы один раз выпало шесть очков (назовем этот исход «шесть»), и платит 1 руб. игро- игроку В в противном случае (назовем этот исход «не шесть»). После ста туров читатель должен сменить одного из игро- игроков, причем он имеет право выбрать ситуацию, на которую он будет ставить свой рубль в следующей серии туров: за появление хотя бы одной «шестерки» или против. Как пра- правильно осуществить этот выбор? Статистический способ решения этой задачи диктуется обычным здравым смыслом и заключается в следующем. Пронаблюдав сто туров игры предыдущих партнеров и под- подсчитав относительные частоты их выигрыша, казалось бы, естественно поставить на ту ситуацию, которая чаще воз- возникала в процессе игры. Например, было зафиксировано, что в 52 партиях из 100 выиграл игрок В, т. е. в 52 турах из 100 «шестерка» не выпадала ни разу при четырехкрат- четырехкратном выбрасывании кости (соответственно в остальных 48 партиях из ста осуществлялся исход «шесть»). Следо- Следовательно, делает вывод читатель, применивший статистиче- статистический способ рассуждения, выгоднее ставить на исход «не шесть», т. е. на тот исход, относительная частота появ- появления которого (р) равна 0,52 (больше половины). 2.2.2. Теоретико-вероятностный способ решения. Этот спо- способ основан на определенной математической модели изучаемого явления: полагая кость правильной (т. е. сим- симметричной), а следовательно, принимая шансы выпадения любой грани кости при одном бросании равными между со- собой (другими слова;*.и, относительная частота, или вероят- вероятность, выпадения «единицы» равна относительной частоте выпадения «двойки» и т. д.... равна относительной частоте выпадения «шестерки» и равна 1/6), можно подсчитать ве- вероятность р=Р {«не шесть»} осуществления ситуации «не шесть», т. е. вероятность события, заключающегося в том, что при четырех последовательных бросаниях иг- игральной кости ни разу не появится «шестерка». Этот рас- расчет основан на следующих фактах, вытекающих из приня- 50
той нами математической модели. Вероятность не выбро- выбросить шестерку при одном бросании кости складывается из шансов появиться в результате одного бросания «единице», «двойке», «тройке», «четверке» и «пятерке» и, следовательно, составляет (в соответствии с определением вероятности лю- любого события, см. § 4.1) 5/6. Затем используем теорему ум- умножения вероятностей (см. п. 4.1.3), в соответствии с ко- которой вероятность наступления нескольких независимых событий равна произведению вероятностей этих событий. В нашем случае мы рассматриваем факт наступления че- четырех независимых событий, каждое из которых заключа- заключается в невыпадении «шестерки» при одном бросании и имеет вероятность осуществления, равную 5/6. Поэтому {„не шесть*} =-_._._._ = 625 . = 0,482. — 1 296 Как видно, вероятность ситуации «не шесть» оказалась меньше половины, следовательно, шансы ситуации «шесть» предпочтительнее (соответствующа я вероятность равна: 1—0,482=0,518). А значит, читатель, использовавший тео- теоретико-вероятностный способ рассуждения, придет к ди- диаметрально противоположному по сравнению с читателем со статистическим образом мышления решению и будет ста- ставить в игре на ситуацию «шесть». 2.2.3. Вероятностно-статистический (или математико-ста- тистический) способ принятия решения. Этот способ как бы синтезирует инструментарий двух предыдущих, так как при выработке с его помощью окончательного вывода ис- используются и накопленные в результате наблюдения за игрой исходные статистические данные (в виде относитель- относительных частот появления ситуаций «шесть» и «не шесть», ко- которые, как мы помним, были равны, соответственно, 0,48 и 0,52), и теоретико-вероятностные модельные соображе- соображения. Однако модель, принимаемая в данном случае, менее жестка, менее ограниченна, она как бы настраивается на реальную действительность, используя для этого накоплен- накопленную статистическую информацию. В частности, эта мо- модель уже не постулирует правильность используемых костей, допуская, что центр тяжести игральной кости может быть и смещен некоторым специальным образом. Характер этого смещения (если оно есть) должен как-то проявиться в тех исходных статистических данных, которыми мы рас- 51
полагаем. Однако читатель, владеющий вероятностно- статистическим образом мышления, должен отдавать себе отчет в том, что полученные из этих данных величины от- относительных частот исходов «шесть» и «не шесть» дают лишь некоторые приближенные оценки истинных (теоретических) шансов той и другой ситуации: ведь подбрасывая, ска- скажем, 10 раз даже идеально симметричную монету, мы можем случайно получить семь выпадений «гербов»; соответственно относительная частота выпадения «герба», подсчитанная по этим результатам испытаний, будет равна 0,7; но это еще не значит, что истинные (теоретические) шансы (веро- (вероятности) появления «герба» и другой стороны монеты оце- оцениваются величинами соответственно 0,7 и 0,3 — эти ве- вероятности, как мы знаем, равны 0,5. Точно так Же наблю- наблюденная нами в серии из ста игровых туров относительная частота исхода «не шесть» (равная 0,52) может отличаться от истинной (теоретической) вероятности того же события и, значит, может не быть достаточным основанием для вы- выбора этой ситуации в игре! Весь вопрос в том, насколько сильно может отличаться наблюденная (в результате осу- осуществления п испытаний) относительная частота рп инте- интересующего нас события от истинной вероятности р появле- появления этого события и как это отличие, т. е. погрешность рп — /?, зависит от числа п имеющихся в нашем распоря- распоряжении наблюдений? (Интуитивно ясно, что, чем дольше мы наблюдали за игрой, т. <е. чем больше общее число п исполь- использованных нами наблюдений, тем больше доверия заслужи- заслуживают вычисленные нами эмпирические относительные час- частоты рп, т. е. тем меньше их отличие от неизвестных нам истинных значений вероятностей р.) Ответ на этот вопрос можно получить в нашем случае, если воспользоваться ря- рядом модельных соображений: а) интерпретировать реали- реализацию любого числа игровых партий как последователь- последовательность так называемых испытаний Бернулли, что означает, что результат каждого тура никак не зависит от результа- результатов предыдущих туров, а неизвестная нам вероятность р осуществления ситуации «не шесть» остается одной и той же на протяжении всех туров игры; б) использовать тот факт, что поведение случайно меняющейся (при повторениях экс- эксперимента) погрешности Ап=рп—р приближенно описы- описывается законом нормального распределения вероятностей со средним значением, равным нулю, и дисперсией, равной рA—р)/п (см. § 6.1). 52
Эти соображения, в частности, позволяют оценить абсо- абсолютную величину погрешности |ДП |, которую мы можем допустить, заменяя неизвестную величину р вероятности интересующего нас события (в нашем случае — исхода «не шесть») относительной частотой рп этого события, за- зафиксированной в серии из п испытаний (в нашем случае п= 100, а ^00=0,25). Если же мы смогли численно оце- оценить абсолютную величину возможной погрешности Ап, то естественно применить следующее правило принятия решения: если относительная частота рп появления исхода «не шесть» больше половины и продолжает превосходить 0,5 после вычитания из нее возможной погрешности |А71 |, то выгоднее ставить на «не шесть»; если относительная час- частота рп меньше половины и продолжает быть меньше 0,5 после прибавления к ней возможной погрешности \Ап |, то выгоднее ставить на «шесть»; в других случаях у наблю- наблюдателя нет оснований для статистического вывода о преи- преимуществах того или иного выбора ставки в игре (т. е. надо либо продолжить наблюдения, либо участвовать в игре с произвольным выбором ставки, ожидая, что это не может привести к сколь-нибудь ощутимому выигрышу или проиг- проигрышу). Приближенный подсчет максимально возможной вели- величины этой погрешности, опирающийся на модельное со- соображение б) (т. е. теорему Муавра — Лапласа, см. § 7.3), дает в рассматриваемом примере, что с практической досто- достоверностью, а именно с вероятностью 0,95, справедливо не- неравенство B.1) Возведение B.1) в квадрат и решение получившегося квадратного неравенства относительно неизвестного па- параметра р дает ?.+-§- .|/-&*p 4 ~ 4 = P 4 ../ _4_ г _4_ ' /2 *" Л
или, с точностью до величин порядка малости выше, чем 1/Vn: В данном случае (при /;71=0,52 и м-100) получаем = 2]/0,52.A -0,52)/100 ^0,10. Следовательно, 0,52 - 0,10 </7 <0,52+ 0,10. Таким образом, имеющиеся в нашем распоряжении на- наблюдения за исходами ста партий дают нам основания лишь заключить, что интересующая нас неизвестная величина вероятности исхода «не шесть» на самом деле может быть любым числом из отрезка [0,42; 0,62], т. е. может быть как величиной, меньшей 0,5 (и тогда надо ставить в игре на ситуацию «шесть»), так и величиной, большей 0,5 (и тогда надо ставить в игре на ситуацию «не шесть»). Иначе говоря, читатель, воспользовавшийся вероятност- вероятностно-статистическим способом решения задачи, вынужден будет прийти в данном случае к более осторожному выво- выводу: ста партий в качестве исходного статистического мате- материала оказалось недостаточно для вынесения надежного заключения о том, какой, из исходов игры являетдя более вероятным. Отсюда решение: либо продолжить роль «зри- «зрителя» до тех пор, пока область возможных значений для вероятности /?, полученная из оценок вида B.2), не ока- окажется целиком лежащей левее или правее 0,5, либо всту- вступить в игру, оценивая ее как близкую к «безобидной», т. е. к такой, в которой в длинной серии туров практически ос- останешься «при своих». Приведенный пример иллюстрирует роль и назначение теоретико-вероятностных и математико-статистических ме- методов, их взаимоотношения. Если теория вероятностей предоставляет исследователю набор математических мо- моделей, предназначенных для описания закономерностей в поведении реальных явлений или систем, функциониро- функционирование которых происходит под влиянием большого числа взаимодействующих случайных факторов, то средства ма- математической статистики позволяют подбирать среди множества возможных теоретико-вероятностных моде- 54
лей ту, которая, в определенном смысле, наилучшим обра- образом соответствует имеющимся в распоряжении исследова- исследователя статистическим данным, характеризующим реаль- реальное поведение конкретной исследуемой системы. ВЫВОДЫ 1. Теория вероятностей — математическая наука, пред- предназначенная для разработки (и исследования свойств) ма- математических моделей, имитирующих механизмы функцио- функционирования реальных явлений или систем, условия «жизни» которых включают в себя неизбежность «мешающего» влияния большого числа случайных (т. е. не поддающихся строгому учету и контролю) факторов. 2. Математическая статистика — система основанных на теоретико-вероятностных моделях понятий, приемов и математических методов, предназначенных для сбора, систематизации, интерпретации и обработки статистичес- статистических данных с целью получения научных и практических выводов. Одно из главных назначений методов математи- математической статистики — обоснованный выбор среди множества возможных теоретико-вероятностных моделей той модели, которая наилучшим образом соответствует имеющимся в распоряжении исследователя статистическим данным, ха- характеризующим реальное поведение конкретной исследуе- исследуемой системы. 3. Границы применимости вероятностно-статистических методов определяются, строго говоря, требованием соблю- соблюдения (хотя бы приблизительного) в исследуемой реальной действительности условий статистического ансамбля, а именно: а) возможностью (хотя бы мысленно реально представимой) многократного повторения наших экспе- экспериментов или наблюдений в одних и тех же условиях; б) наличием большого числа случайных факторов, характе- характеризующих условия проведения наших экспериментов (на- (наблюдений) и не позволяющих делать полностью предопре- предопределенного (детерминированного) заключения о том, про- произойдет или не произойдет в результате этих эксперимен- экспериментов интересующее нас событие. 4. Строгих математических методов, позволяющих точно определять, находимся ли мы в условиях статистического ансамбля, не существует: любая вероятностная модель, так же как и любая математическая модель вообще, есть 55
лишь некоторое приближение к исследуемой реальной дей- действительности. Можно лишь условно разделять исследуе- исследуемые реальные ситуации на: 1) относящиеся к области вы- высокой работоспособности вероятностно-статистических ме- методов; 2) лишь с натяжкой укладывающиеся в рамки статистического ансамбля (категория допустимых вероят- вероятностно-статистических приложений); 3) недопустимые для вероятностно-статистических приложений. Однако и при- применительно к последней категории ситуаций в ряде слу- случаев помимо методов анализа данных используют статисти- статистические методы, основанные на концепции субъективных вероятностей. Глава 3. МАТЕМАТИЧЕСКИЕ МОДЕЛИ В ПРИКЛАДНОЙ СТАТИСТИКЕ 3.1. Для чего нужны математические модели 3.1.1. О двух подходах к статистическому моделированию. Оценивая в гл. 2 взаимоотношения теории вероятностей и прикладной статистики, мы пришли к выводу, что если теория вероятностей предоставляет исследователю набор математических моделей, имитирующих механизмы функ- функционирования гипотетических реальных явлений или си- систем стохастической природы, то одним из главных назна- назначений прикладной статистики является обоснованный вы- выбор среди множества возможных (как бы заранее заготов- заготовленных) моделей той, которая наилучшим (в определенном смысле) образом соответствует имеющимся в распоряжении исследователя статистическим данным, характеризующим реальное поведение конкретно исследуемой системы. Таким образом, успешное решение проблемы наилуч- наилучшей статистической обработки исходных данных зависит в первую очередь от знания подходящих моделей и от умения «прилаживать» эти модели к исследуемой реальной дейст- действительности и, если это необходимо, сконструировать но- новую, не содержащуюся в наборе имеющихся «заготовок» модель, отражающую специфику анализируемой конкрет- конкретной задачи. Данная глава и посвящена изложению некото- некоторых понятий и сведений, относящихся к этому «знанию» и «умению». Построение и экспериментальная проверка модели, т. е. математическое описание интересующих исследова- исследователя связей и отношений между реальными элементами 56
анализируемой системы, обычно основаны на одновременном использовании информации двух типов: а) априорной ин- информации о природе и характере исследуемых соотноше- соотношений; б) исходных статистических данных, характеризую- характеризующих процесс и результат функционирования анализируе- анализируемой системы. При этом используется один из двух подхо- подходов (а точнее, либо только первый, либо их комбинация). Если исследователь располагает информацией обоих типов, то, как правило, используется прием содержательного (реалистического) математического моделирования, при ко- котором из априорной информации о природе искомых соот- соотношений (математически формализованной в виде некото- некоторых исходных предпосылок или исходных допущений) удается вывести общий вид аналитических уравнений, описывающих эти соотношения, после чего с помощью статистического «переваривания» информации б) оценива- оцениваются численные значения параметров, входящих в упомя- упомянутые аналитические уравнения (этап подгонки или при- приладки модели). Если же исследователь располагает только априорной информацией типа а) или, при наличии инфор- информации обоих типов, желает «проиграть» (сымитировать) поведение анализируемой реальной системы при варьиро- варьировании численных значений параметров, входящих в ана- аналитическую запись модели, или искусственно (опираясь на модельные соотношения) сгенерировать статистические дан- данные типа б) с целью их пополнения, то наряду с элементами описанного выше математического моделирования (реали- (реализованными в первую очередь) исследователь должен обра- обратиться к помощи ЭВМ. Этот тип моделирования принято называть статистическим или моделированием типа «М онте-Карло». 3.1.2. Понятие математической модели. Математическая модель — это абстракция реального мира, в которой ин- интересующие исследователя отношения между реальными элементами заменены подходящими отношениями между математическими объектами. Математические модели, в опи- описании которых используются случайные величины, назы- называют вероятностными или стохастическими. Всякая мо- модель является упрощенным представлением действитель- действительности, и искусство моделирования состоит в знании того, что, где, когда и как можно и нужно упростить. Это знание естественно приходит с опытом. Следующий пример поможет читателю «прочувствовать» ряд узловых моментов и некоторые общие «тонкие места», 57
с которыми приходится сталкиваться исследователю в процессе реалистического моделирования. Рассмотрим эксперимент, в котором каждый из п испы- испытуемых прочитывает текст, набранный шрифтом Л, и эк- эквивалентный ему по трудности текст, набранный шриф- шрифтом Б. В обоих случаях фиксируется время /, затрачивае- затрачиваемое испытуемым на чтение. Пусть t (/, А) и t (/, Б) — время, потребовавшееся /-му испытуемому на чтение контрольных текстов, набранных соответственно шрифтами Л и Б. Один из возможных простых вариантов математической модели данной ситуации может быть описан следующим образом: i = l, 2, ..., п, C.1) где т (i) — случайная величина1, отражающая скорость чтения /-го испытуемого и не зависящая от шрифта, хА и %б — постоянные, зависящие только от шрифта, a ?f и r)i — взаимно независимые случайные ошибки со средни- средними значениями, равными нулю, и с одинаковыми дисперси- дисперсиями а2. В правую часть уравнений C.1) входит больше ве- величин, чем в левую. Это означает, что оценить основные числовые характеристики величин т (t), rAt гБ, lt и у\г по наблюдениям {t (i> Л), t (/, ?)}/==1— нельзя. Более того, даже при отсутствии в модели ошибок ?г- и т),., т. е. в ситуации, когда в левой части 2 п величин, а в правой — только /г+2, найти без дополнительных соглашений вели- величины тА, тБ и основные числовые характеристики случай- случайных величин mt (t=l, 2, ..., п) также нельзя. (В подобных случаях иногда принято говорить, что модель неизмерима относительно имеющихся опытных данных.) Однако, если в задачу исследования входит только сравнение средней скорости чтения двух анализируемых шрифтов, то неизме- неизмеримость модели нам не мешает. В самом деле, случайная величина / (/) = / (/, А) - / (/, Б) = хл - zB + Ь ~ ъ C.2) имеет положительное среднее значение, если шрифт Б более удобен для чтения, чем шрифт Л, и отрицательное среднее значение — в противном случае. Оценка же раз- 1 Понятия случайной величины и ее основных числовых ха- характеристик (среднего значения, дисперсии и т. п.) вводятся в гл. 5. 58
ности хА — хБ по значениям t {i) уже не представляет труда. Аналогично, если бы нам требовалось охарактери- охарактеризовать меру случайного разброса в скорости чтения каж- каждого из испытуемых (т. е. оценить дисперсию D т (/), ее оп- определение и вычисление см. в гл. 5 и 8), мы могли бы найти дисперсию случайных величин C.3) и вычесть из нее величину а2/2, определяющую вклад слу- случайных ошибок в модели C.3). В данном случае дисперсию т (i) мы оцениваем, не определяя т U) для каждого испы- испытуемого, а воспользовавшись тем, что %а и хб — постоян- постоянные. Таким образом, с помощью различных вариантов моде- модели C.1) можно учесть: различие между испытуемыми, в скорости чтения; различие между средней скоростью чтения шрифтов Л и Б; случайный характер времени, затрачиваемого испытуемым на чтение текста. Вместе с тем в ней пренебрегается возможной зависимостью разности тл—Т? от скорости чтения индивидуума (т (i)) и от того, в какой последовательности прочитываются тексты: сначала Л, а затем Б или наоборот. Кроме того, упрощением явля- является и предположение о постоянстве дисперсий а2 случай- случайных погрешностей. Безусловно, для более тщательного изучения длительности чтения потребовалась бы более сложная модель, в которой должны были бы найти отра- отражение указанные выше зависимости. Однако, если речь идет только о сравнении средних скоростей чтения шриф- шрифтов, то достаточно рассмотреть модель C.2) — она свою роль выполняет: подсказывает достаточно эффективный способ анализа данных, отвергая при этом другой возможный (и слишком наивный) подход, при котором сначала усред- усредняются в отдельности данные по каждому шрифту: '(•. A) = 2t(i, A)/n; /(.. ?)=2*(/\ Б)/п, C.4) * i а затем производится сравнение средних t (•, Л) и / (•, ?), полученных якобы по двум независимым сериям наблюде- наблюдений (это сравнение может быть осуществлено, например, с помощью критерия Стьюдента, см. п. 11.2.8). Последний метод на практике может привести к резкой потере эффек- эффективности выявления существующего различия между шриф- 59
Тами, так как наблюдения / (/, А) и t (/, Б) оказываются на самом деле существенно зависимыми из-за общего значе- значения т (О- В некотором .смысле математическая модель является для исследователя тем же, чем для физика физическая ла- лаборатория. Можно ставить эксперименты в «мире», порож- порожденном моделью, и, если математическая модель является правдивым отражением действительности, результаты этих экспериментов применимы к реальному миру. Говоря о применимости моделей к описанию реальной действительности, мы подразумеваем возможность их прак- практического использования в качестве базы, отправной точ- точки при выборе наилучшего способа статистической обработ- обработки исходных данных, а также при решении таких задач, как планирование, прогнозирование, оптимальное управ- управление системами и процессами, оценка эффективности функционирования (или комплексной характеристики ка- качества) сложной системы, диагностика (медицинская и тех- техническая), нормирование. 3.2. Общая логическая схема и основные этапы содержательного математического моделирования 3.2.1. Основные этапы моделирования. На первом (исход- (исходном) этапе должны быть определены: конечные цели моде- моделирования; набор факторов и показателей, взаимосвязи между которыми нас интересуют; наконец, роли этих фак- факторов и показателей — какие из них, в рамках поставлен- поставленной конкретной задачи, можно считать входными (т. е. пол- полностью или частично регулируемыми или хотя бы легко под- поддающимися регистрации и прогнозу; подобные факторы несут смысловую нагрузку объясняющих), а какие — вы- выходными (главный объект исследования; эти факторы обыч- обычно трудно поддаются непосредственной регистрации или прогнозу и несут смысловую нагрузку объясняемых). Если исходная статистическая информация еще не собрана, то за- задача сбора статистических данных тоже включается в со- содержание первого этапа. Так, в примере со шрифтами различные варианты конечных целей исследования по- разному очерчивали набор анализируемых факторов (тип шрифтов, индивидуализация испытуемых) и показателей (от избыточного набора в 3 п +2 показателей, участвую- 60
ЩНХ в модели C.1), до двух усредненных показателей C.4)), одновременно по-разному распределяя роли между ними. На втором этапе приступают к постулированию, мате- математической формализации, и, если возможно, к экспери- экспериментальной проверке ряда естественных исходных допуще- допущений, относящихся к природе и качественному характеру «физики» исследуемого явления (этап формирования ап- априорной информации). Если принимаемые допущения по- почему-либо не могут подвергнуться экспериментальной про- проверке, то их следует подкрепить теоретическими рассужде- рассуждениями о механизме изучаемого явления (например, они могут признаваться специалистами данной прикладной области — экономики, социологии, техники, медицины и т. п. — в качестве отдельных частных объективных зако- закономерностей). Так, при построении моделей C.1) — C.4) мы пользовались следующими на первый взгляд естествен- естественными, но тем не менее не бесспорными исходными допуще- допущениями: остаточные случайные компоненты («ошибки ре- регистрации») ^ и r\i взаимно независимы; характеристики скорости чтения т (i) испытуемых не зависят от шрифта; разность та — ^б не зависит от того, в какой последова- последовательности предлагалось прочитывать тексты, и т. д. Третий этап может быть назван собственно моделирую- моделирующим, так как он включает в себя непосредственный вывод (опирающийся на принятые и частично экспериментально подтвержденные исходные допущения) общего вида модель- модельных соотношений, связывающих между собой интересую- интересующие нас входные и выходные показатели. Говоря об общем виде модельных соотношений, мы имеем в виду то обстоя- обстоятельство, что на данном этапе будет определена лишь струк- структура модели, ее символическая аналитическая запись, в ко- которой наряду с известными числовыми значениями (пред- (представленными исходными статистическими данными) будут присутствовать величины, физический смысл которых оп- определен, а числовые значения — нет (неизвестные парамет- параметры модели, подлежащие статистическому оцениванию). В примере со шрифтами вывод модельных соотноше- соотношений C.1) — C.3) тривиален: он непосредственно следует из принятых допущений и обозначений (вообще говоря, это далеко не всегда так; см., например, вывод модельных со- соотношений, описывающих механизм распределительных от- отношений в обществе, в [2]). В левых частях этих соотноше- соотношений стоят известные числа (исходные данные), а в правых — 61
неизвестные параметры модели, подлежащие статистическо- статистическому оцениванию. Четвертый этап моделирования (статистический ана- анализ модели) посвящен решению задачи наилучшего подбо- подбора, т. е. статистического оценивания неизвестных парамет- параметров, входящих в аналитическую запись модели, и исследо- исследованию свойств полученных оценок, их точности. Решение этой задачи полностью обслуживается методами статисти- статистической обработки данных. На пятом этапе (этапе верификации модели) использу- используются различные процедуры сопоставления модельных за- заключений, оценок, следствий и выводов с реально наблю- наблюдаемой действительностью. Этот этап называют также эта- этапом статистического анализа адекватности модели. Присутствие шестого этапа зависит от результатов пре- предыдущего этапа. Он заключается в планировании и прове- проведении исследований, направленных на уточнение модели и, в частности, на дальнейшее развитие и углубление второго этапа, который в определенной мере является ключевым. 3.2.2. Моделирование механизма явления вместо формаль- формальной статистической фотографии. Остановимся подробнее на тезисе о ключевом характере второго этапа. Утвержда- Утверждается, что адекватность и соответственно эффективность мо- модели будут решающим образом зависеть от того, насколько глубоко и профессионально был проведен анализ реальной сущности изучаемого ярления при формировании априор- априорной информации (т. е. в рамках второго этапа). Другими словами, при вероятностно-статистическом моделировании и, в частности, на этапе формирования априорной инфор- информации о физической природе реального механизма преоб- преобразования входных показателей в выходные (результирую- (результирующие) какая-то часть этого механизма остается скрытой от исследователя (именно об этой части принято в соответст- соответствии с обиходной кибернетической терминологией говорить как о «черном ящике»). Чем большее профессиональное зна- знание механизма исследуемого явления продемонстрирует исследователь, тем меньше будет доля «черного ящика» в общей логической схеме моделирования и тем работоспособ- работоспособнее и точнее будет построенная модель. Вероятностно- статистическое моделирование, полностью основанное на логике «черного ящика», позволяет получить исследовате- исследователю лишь как бы мгновенную статистическую, фотографию анализируемого явления, в общем случае непригодную, на- 62
пример, для целей прогнозирования. Напротив, модели- моделирование, опирающееся на глубокий профессиональный ана- анализ природы изучаемого явления, позволяет в значитель- значительной мере теоретически обосновать общий вид конструи- конструируемой модели, что дает основание к ее широкому и право- правомерному использованию в прогнозных расчетах. Пояс- Поясним это на примере из §6.1. Пусть целью нашего исследования является лаконичное (параметризованное с помощью модели) описание функции плотности анализируемой случайной величины (заработ- (заработной платы наугад выбранного из общей генеральной сово- совокупности работника) по исходным данным, представленным случайной выборкой работников х19 х2, ..., х1Ъ0 объема /г=750. Игнорируя экономические закономерности форми- формирования искомого закона распределения, т. е. руководст- руководствуясь формальным подходом наилучшей мгновенной ста- статистической фотографии, мы должны были бы запастись достаточно богатым классом модельных плотностей (на- (например, классом кривых Пирсона [39], как это и делалось, в частности, в [17]), и, перебирая эти модели (с одновре- одновременной статистической оценкой участвующих в их записи параметров методами, описанными в гл. 8), найти такую функцию плотности, которая наилучшим в определенном смысле образом (например, в смысле критерия «хи-квадрат» Пирсона, см. § 11.1) аппроксимирует поведение имеющейся у нас эмпирической плотности (см. изображение соответст- соответствующей гистограммы на рис.6.1). На этом пути в результате расширения запаса гипотетичных модельных плотностей можйо добиться очень высокой точности аппроксимации, вплоть до повторения модельной функцией неожиданных провалов гистограммьЗ^подобных тем, которые мы имеем на 14-м и 15-м интервалах группирования на рис. 6.1. Однако, поступая таким образом, мы добиваемся лишь кажущегося хорошего результата, в чем легко можно убедиться, попро- боваб применить выявленный модельный закон к описанию эмпирической плотности, построенной по другой выборке, извлеченной из той же самой совокупности. В подавля- подавляющем большинстве случаев выявленная ранее модельная плотность оказывается непригодной для описания распре- распределительных закономерностей, наблюдаемых в другой вы- выборке. Следовательно, для этой выборки нужно строить другую модель, а значит, и само моделирование практи- практически теряет смысл, так как главное назначение модели — распространение закономерностей, подмеченных в выборке, G3
на всю генеральную совокупность (что и является основой решения задач планирования, прогноза, диагностики). В качестве альтернативного рассмотрим подход, предус- предусматривающий тщательный предмодельный профессиональ- профессиональный анализ локальных закономерностей, в соответствии с которыми формируется закон распределения заработной платы. Эти закономерности (мультипликативный характер редукции труда, принцип оплаты по труду, постоянство относительного варьирования заработной платы при пере- переходе от работников одной категории сложности труда к другой и т. п., см. [2]) позволяют уже на следующем, третьем этапе моделирования теоретически (т. е. без апел- апелляции к имеющейся у нас эмпирической функции плотности) обосновать выбор класса моделей, в пределах которого мы должны оставаться при подборе искомой модельной плот- плотности. В рассмотренном примере таким классом был класс логарифмически-нормальных распределений (см. п. 6.1.6). После этого мы переходим к статистическому оцениванию параметров, участвующих в записи законов этого класса, т. е. переходим к четвертому этапу. Модель, полученная таким образом, как правило, не- несколько хуже (по формальным критериям), чем преды- предыдущая, аппроксимирует эмпирическую плотность, постро- построенную по данной конкретной выборке. Однако в отличие от модели, полученной в результате формальной статистиче- статистической подгонки экспериментальных данных под одну из тео- теоретических кривых, она остается устойчивой, инвариантной по отношению к смене выборок, т. е. она одинаково хорошо может описывать характер распределения, наблюдаемого в различных выборках из одной и той же генеральной сово- совокупности. А если все-таки моделирование, идущее от более или менее бесспорных (быть может, частично подтвержден- подтвержденных экспериментом) исходных предпосылок о физической природе изучаемого явления, дает результаты, плохо со- согласующиеся с реальной действительностью? Причина этого (при условии аккуратного проведения третьего и чет- четвертого этапов) одна: плохое соблюдение на практике всех (или части) принятых при моделировании в качестве априорных допущений исходных предпосылок. Оценка же этого явления может быть двоякой: если заложенные в ос- основание модели исходные допущения признаются специа- специалистами объективными закономерностями, в соответствии с которыми должен функционировать механизм исследуе- исследуемого явления, то следует искать и устранять причины, 64
приведшие к нарушению этих закономерностей; если же принятые допущения были результатом вынужденного уп- упрощения на самом деле плохо различимого механизма, то следует усовершенствовать эти допущения, что приведет, естественно, и к изменению модели. В рассмотренном при- примере интерпретация временного рассогласования модели и действительности относилась как раз к первому типу. Проведенные сопоставления модельных и эксперименталь- экспериментальных данных по распределению заработной платы работни- работников за ряд лет A956—1972 гг., см [2]) четко обозначили период их резкого рассогласования A960—1963 гг.). Одна- Однако по мере удаления этого периода в прошлое прослежива- прослеживается явная тенденция к сближению модельных и реальных данных. Более внимательный анализ показал, что момент резкого рассогласования следовал непосредственно за весь- весьма существенным директивным вмешательством в сущест- существующие тарифные условия, вмешательством, которое, как показал дальнейший ход развития, плохо согласовывалось с целым рядом объективных экономических закономерно- закономерностей. И факт, что в дальнейшем мы наблюдаем сближение модельных и реальных данных, говорит лишь о том, что эти объективные экономические закономерности постепенно все более сказывались на характере распределения, все более «выступали на поверхность», отвоевывая себе те или иные правовые формы! Примеры неформального (с раскрытием механизма яв- явления) моделирования, к сожалению, не слишком много- многочисленны (см. [45], [2] и др.). 3.3. Понятие о статистическом моделировании Исследовать вероятностную модель можно двумя способами: математическим — опираясь на арсенал средств и методов, накопленных в теории вероятностей и математической ста- статистике, и путем непосредственного воспроизведения с по- помощью ЭВМ ее функционирования. Последний способ на- называют статистическим моделированием. Некоторые ав- авторы ([20], [34]) этот термин понимают шире, включая в него дополнительно сведение решения традиционных задач вы- вычислительной математики к решению путем моделирова- моделирования на ЭВМ подходящих вероятностных моделей. Хотя это интересное и важное направление исследований, в дан- данном издании мы ограничимся первым, более узким опреде- определением статистического моделирования, 3 Зак. 1035 65
Статистическое моделирование является мощным инст- инструментом работы с вероятностными моделями на всех эта- этапах исследования. Так, в теории массового обслуживания это основной метод решения сложных систем [20]. В клас- классической статистике — один из способов изучения устой- устойчивости оценок к отклонениям от базовых предположений, используемый как самостоятельно, так и как дополнитель- дополнительный прием к асимптотическим аналитическим методам. При планировании исследований статистическое модели- моделирование в случае относительно сложной модели изучаемого явления может помочь найти объемы основной и контроль- контрольной выборок. Оно широко используется также при изуче- изучении пределов допустимых отклонений предположений, используемых при построении модели, от реальности. Возможности в изучении вероятностных моделей, открывае- открываемые методом статистического моделирования, настолько велики, что сегодня уже приходится обосновывать необхо- необходимость традиционного аналитического подхода к построе- построению моделей и изучению их свойств. Краткое описание тех- техники статистического моделирования наблюдений, подчи- подчиняющихся заданному закону распределения вероятностей, приведено в § 6.3. 3.4. Возражения против математических моделей В настоящее время математические модели получили всеоб- всеобщее признание в естествознании, технике и ряде других областей знаний. Однако от некоторых представителей, напримед, таких областей, как медицина, социальные и экономические науки, до сих пор иногда можно услышать, что изучаемые ими явления слишком сложны для адекватного отражения их математическими средствами. Не отрицая определенной специфичности и сложности явлений, изучае- изучаемых в этих областях, следует твердо сказать, что продук- продуктивной альтернативы использованию языка математических моделей и связанному с ними определенному упрощению и схематизации действительности нет. При этом основной лимитирующий фактор не ограниченность возможностей современного математического аппарата, а возможности человеческого разума в изучении сложных ситуаций. Действительно, не стоит строить слишком сложные мате- математические модели, следствия из которых мы просто не в 66
состоянии охватить и осмыслить. Один из методических приемов, позволяющий обойти сверхупрощение при изу- изучении сложных явлений, заключается в использовании нескольких моделей одновременно. При этом каждая из моделей может рассматриваться как частный случай более общей модели, необходимой для адекватного описания дей- действительности. Второе возражение против использования вероятност- вероятностных моделей в науках, изучающих поведение человека, свя- связано с неправильным пониманием роли вероятности в мо- моделях. Часть ученых до сих пор разделяет мнение, что рас- рассмотрение человека как представителя некоторой массо- массовой совокупности, как индивидуума, чьи реакции описы- описываются вероятностным законом, эквивалентно лишению его индивидуальности и свободы выбора. В действительно- действительности же именно индивидуальность человека и непредсказуе- непредсказуемость выбора диктуют то, что поведение его должно описы- описываться в вероятностных терминах. Использование вероят- вероятности в модели вовсе не означает, что каждый индивидуум определяет свое поведение с помощью какого-то датчика случайных чисел. Оно означает только, что поведение груп- группы выглядит так, как будто бы индивидуумы действительно пользуются случайными датчиками. Функция вероятност- вероятностных понятий в модели —это описание наблюдаемой вариа- вариабельности реакций. Никакого отношения к ограничению свободы выбора, к принуждению над индивидуальностью субъектов исследования введение этих вероятностных поня- понятий не имеет. Единственной альтернативой вероятностному подходу является подход детерминистский, и именно он лишает человека индивидуальности. При описании массо- массовых явлений в больших коллективах детерминистские мо- модели, явно упрощенно описывающие поведение одного субъекта, оказываются очень продуктивными в применении к группе.В качестве примера можно привести исследования по построению модели распространения эпидемии гриппа в стране [13]. Массовое распространение ЭВМ привело к третьему и более коварному возражению — отрицаются не модели са- сами по себе, а целесообразность их исследования математи- математическими средствами. Скажем, стоит ли теоретически, за- затрачивая большие усилия, изучать специальные модели в теории массового обслуживания, когда путем статистичес- статистического моделирования ответ на любой конкретный вопрос может быть получен быстрее и с меньшими усилиями? 3* 67
Если целью является просто получение ответа в конкрет- конкретном случае, то статистическое моделирование действитель- действительно лучший метод. Однако, если целью является получение общего решения и проникновение вглубь изучаемого фено- феномена, то статистическое моделирование — менее удовлетво- удовлетворительный путь. Простота и ясность заключения, выражае- выражаемого с помощью формулы, таковы, что усилия, затрачивае- затрачиваемые при теоретическом изучении, оправдываются и тогда, когда приходится идти на определенные упрощения как при построении модели, так и при ее исследовании. 3.5. Наиболее распространенные типы математических моделей, используемых в прикладной статистике 3.5.1. Модели законов распределения вероятностей случай- случайных величин. Понятие закона распределения вероятностей случайной величины приведено в § 5.4. Под случайной вели- величиной понимают величину определенного физического смыс- смысла, значения которой подвержены некоторому неконтроли- неконтролируемому разбросу при повторениях исследуемого экспери- эксперимента или наблюдения (см. § 5.1). Знать закон распределе- распределения вероятностей случайной величины — значит уметь поставить в соответствие любому ее возможному значению (или любой области ее возможных значений) вероятность появления именно этого значения (или вероятность попа- попадания нашей случайной величины в заданную область ее возможных значений). Статистическое исследование, как правило, начинается с анализа закона распределения рассматриваемой случай- случайной величины, с попытки построить модель этого закона распределения. В гл. 6 описаны модели законов распреде- распределения, наиболее распространенные в практике статистиче- статистических исследований. 3.5.2. Линейные вероятностные модели. Среди моделей, описывающих взаимосвязь между случайными величинами, выделяются так называемые линейные регрессионные мо- модели. В достаточно общем случае они имеют вид У = Х'6 + е, C.5) где Y — я-мерный вектор наблюдений: У=(Уи •••» Уп)'\ X — известная матрица плана размера рХп\ 6=(elf ..• ..., 0р)' — неизвестный /?-мерный вектор параметров; 68
? — n-мерный случайный вектор-столбец ошибок, удовлет- удовлетворяющий условию Е(е)=0. Е(?б') = з21, C.6) где о2 — неизвестный скалярный параметр, а Е — символ операции теоретического усреднения (математического ожи- ожидания, см. п. 5.6.1). Распространена интерпретация yh /=1, 2, ..., я, как наблюдения, зависимой переменной (отклика) в точке Хг = (х{\\ ..., х{^У пространства наблюдений. Покажем сначала, что приведенная выше (см. § 3.1) модель со шрифтами может рассматриваться как частный случай общей линейной модели. Для этого обозначим = / (/, A), yn+i —t (/, Б). Уравнения C.1) теперь можно за- записать в виде C.5) с помощью матрицы X размера (/г+2)Х Х2 /г, такой, что 1 о о ... о о 1 о Х' = 0 0 0 1 0 0 1 0 0 0 1 0 0 1 0 0 0 1 ... 0 ... 0 ... 0 ... 0 ... 0 ... 0 0 0 1 0 0 0 1 1 1 0 0 0 0 0 0 1 1 1 О 0 0 ... О 1 0 1 Нулевая гипотеза при данной параметризации состоит в проверке равенства 0Д + 1=:ЭП + 2. В качестве других частных случаев модели C.5) и C.6) укажем: а) модель линейной регрессии первого порядка, когда имеется один объясняющий количественный показатель (фактор) и при его значении, равном х, результирующий (объясняемый) показатель (или отклик) равен: и о I i"v i > \о<' / б) модель однофакгпорного дисперсионного анализа с I градациями (неколичественного) объясняющего фактора и пг независимыми наблюдениями при каждой градации: ?=1, .... /; k=l. C.8) 69
Для разрешимости модели дополнительно предполагается, что 2 в|=0. Наиболее часто интересуются вопросом, равны ли нулю все Qh /=1, ..., /; в) модель двухфакторного анализа. Само название ука- указывает, что имеются два объясняющих (неколичественных) фактора. Отклик для /-го уровня первого фактора и /-го уровня второго фактора имеет вид У^ — ^Л-Чч + Р/ + е/у «=.!. -.. h /=1,'..., т. где на эффекты факторов наложены дополнительные огра- ограничения 2аг-=0, 2Р7-=0, a ?iy- — независимые одинаково распределенные ошибки. Наиболее часто проверяемые ги- гипотезы: ai==...==al=Of Pi=...=Pm=O. Линейные модели хорошо изучены, см., например, [71], [87]. 3.5.3. Обобщение линейных моделей» Опишем два наи- наиболее актуальных, в прикладном плане, ослабления мо- модельных, ограничений, принятых в модели C.5) — C.6). Эти ослабления позволяют сделать модель более реалистич- реалистичной. 1. Функция, с помощью которой описывается зависи- зависимость отклика у от объясняющих факторов X, нелинейна относительно параметров в. Это означает, что исследуе- исследуемый наблюдаемый признак у есть некоторая функция от сопутствующих (объясняющих) наблюдаемых переменных Х = (х<1\ х<2\ ..., х(р))' и неизвестных параметров в, т. е. К = У(в, Х) + е. C.9) На вектор случайных ошибок накладываются ограни- ограничения типа C.6). Эти модели широко используются там, где есть содержательные (экономические, физические, хи- химические и др.) соображения о механизме явления и этот механизм нелинеен. При анализе моделей типа C.9) обыч- обычно линеаризуют г|) в окрестности ожидаемых значений 0 и исследуют затем получившуюся линейную модель мето- методом наименьших квадратов (см. § 8.6). 2. Дисперсия отклика зависит от оцениваемых парамет- параметров. Это ослабление модельных ограничений подобно пре- предыдущему также возникает обычно из содержательных соображений. Для оценки параметров чаще всего исполь- используется метод максимального правдоподобия (см. п. 8.6.1.). 70
Система уравнений максимального правдоподобия решается итеративно путем последовательных линеаризации. При проведении очередной итерации вес наблюдений рассмат- рассматривается как заданный, определяемый значением парамет- параметров на предыдущем шаге. В линейных моделях матрица плана X рассматривается как известная и фиксированная. Однако в некоторых об- областях статистических исследований, таких, как измерения траекторий в физике элементарных частиц, регистрация составляющих сложных химических реакций и др., значе- значения объясняющих переменных X нельзя фиксировать стро- строго и их приходится рассматривать как неизвестные средние регистрируемых случайных величин, значения которых ме- меняются в соответствии с некоторым распределением от од- одного элементарного измерения к другому. В этих условиях фогивопоставление в модели независимых переменных х и зависимых у становится нецелесообразным. Обе последо- последовательности (xiy у;) рассматриваются как случайные, они как бы сливаются с точки зрения методического подхода к их трактовке. Соответствующие модели, следуя Фришу, на- называют конфлюентными1 > а методы их изучения — конф- люентным анализом. Простейшая конфлюентная модель имеет вид: наблю- наблюдаются пары {xh yt)y причем известно, что й = ** + в*; ?*=0* + 8ь уг=а + Ьх1, (ЗЛО) где xi9 у-ъ — неизвестные истинные значения переменных; а и b — неизвестные искомые параметры, описывающие связь между переменными х и у\ eh 67- — взаимно независи- независимые случайные ошибки, нормально распределенные с ну- нулевым средним и известными дисперсиями. Иногда, исходя из C.10), конфлюентный анализ назы- называют анализом структурных отношений. 3.5.4. Геометрические модели. При индивидуальном поши- пошиве верхнего платья учитывается более полутора десятков размеров, снимаемых с фигуры заказчицы. Однако не все они имеют одинаковую важность для качества изделия, что позволяет при массовом изготовлении одежды ограничи- ограничиваться только четырьмя мерками: ростом, окружностью груди, окружностью талии, окружностью бедер. Дадим этому факту геометрическую интерпретацию. Для этого 1 От французского слова confluer — сливаться. 71
будем изображать вектор размеров, снимаемых с конкрет- конкретной фигуры, в виде точки в ^-мерном (/?>10) пространстве Rp и рассмотрим совокупность точек, соответствующих не- некоторой большой популяции женщин. Эти точки распреде- распределены в Rp далеко не равномерно и группируются вокруг некоторой четырехмерной поверхности, каждую точку ко- которой-можно охарактеризовать четырьмя выделенными ра- ранее базовыми мерками. Геометрические модели как рзз и представляют собой техническое средство для описания подобных ситуаций, в которых в пространстве первичных измерений удается выделить поверхность существенно меньшей размерности, вокруг которой группируются ис- исходные точки. Той же цели служат и обычные линейные модели. Однако класс геометрических моделей шире, и для них разработаны специальные методы исследования (см. § 10.5). Кроме того, в практике статистической ра- работы первичный осмотр материала с целью выделения ос- основных направлений варьирования данных обычно пред- предшествует формированию параметрических, в том числе ли- линейных, моделей. Простейшая геометрическая модель имеет вид Х = А + Е, AGVn ES=0, C.11) где X — р-мерный вектор исходных наблюдений, А — р- мерный случайный вектор, про который известно только, что он принадлежит поверхности Vr, имеющей внутрен- внутреннюю размерность r<.p, a S — /?-мерный случайный век- вектор, описывающий отклонение X от Vr. Часто дополни- дополнительно предполагается, что Е (S' S) мало по сравнению с размахом варьирования А на Vr. Модель C.11) имеет ряд особенностей: 1) на S не наложено требований, чтобы оно изменялось только в направлении, перпендикулярном к Vr\ 2) нет предположений о виде Vr. Например, можно было бы предположить, что Vr является r-мерной гипер- гиперплоскостью; 3) нет ограничений на размещение векторов А на Vn Так, можно предположить, что А сосредоточены в несколь- нескольких изолированных r-мерных эллипсоидах и т. п. В качестве частного случая модели C.11) можно рас- рассмотреть модель C.10). В этом случае /?=2, г=1, Х = = (*. уУу Vr совпадает с прямой у=а+Ьх, а роль S игра- играет вектор (е, 6)'. 72
3.5.5. Модели марковского типа. В социологии, экономи- экономике, демографии, медицине широко используются также модели, описывающие динамику экономических и социаль- социальных показателей путем прямого описания вероятностей перехода от одной структуры изучаемой реальной системы к другой. Здесь эксплуатируется аппарат так называемых дискретных и непрерывных цепей Маркова с линейной и нелинейной параметризацией переходных вероятностей [77], [94]. Используемые здесь модели весьма сложны, и их изучение часто требует индивидуального подхода и твор- творческого применения основных принципов математической статистики. Выводы 1. Вероятностно-статистическая модель — мощный инстру- инструмент в руках исследователя, который можно использовать для количественного описания связей между наблюдаемы- наблюдаемыми явлениями и фактами, изучения свойств рассматривае- рассматриваемой системы, выбора подходящего статистического аппарата для обработки данных и планирования сбора данных. 2. Вероятностно-статистические модели изучаются как с привлечением традиционного арсенала средств матема- математической статистики, так и путем статистического модели- моделирования, представляющего собой числовую имитацию, с помощью ЭВМ, функционирования модели. 3. Всякая математическая модель является упрощенным представлением действительности, и искусство ее построе- построения состоит в том, чтобы совместить как можно большую лаконичность параметризации модели с достаточной адек- адекватностью описания изучаемой действительности или, дру- другими словами, чтобы достигнуть максимальной концентра- концентрации реальности в простой математической форме. 4. Процесс моделирования можно условно разбить на шесть основных этапов: первый этап — исходный — опре- определение конечных целей моделирования, набора участву- участвующих в модели факторов и показателей, их роли; второй этап — предмодельный анализ физической сущности изу- изучаемого явления, формирование и формализация априор- априорной информации; третий этап — собственно моделирование (вывод общего вида модели); четвертый этап — статистичес- статистический анализ модели (оценка неизвестных значений участвую- участвующих в описании модели параметров); пятый этап — вери- 73
фикация модели; шестой этап (в случае необходимости) — уточнение модели, в частности возвращение ко второму этапу. 5. Важнейшим условием достижения высокой «работоспо- «работоспособности» модели является успешная реализация второго этапа моделирования, т. е. проведение тщательного пред- модельного анализа физической сущности изучаемого яв- явления с целью формирования добротной априорной инфор- информации и ее использования при выводе (или выборе) обще- общего вида искомой модели. Вынужденной (но нежелательной) ал&пернативой к такому подходу является логика «черного ящика», т. е. чисто формальная аппроксимация реальных данных. 6. К наиболее распространенным в статистических прило- приложениях типам математических моделей относятся: модели законов распределения вероятностей; линейные модели, описывающие характер и структуру взаимосвязей анализи- анализируемых показателей (в частности, регрессионные модели, модели дисперсионного анализа, модели факторного ана- анализа и временных рядов, см. например, [71]); модели мар- марковского типа, описывающие закономерности случайных переходов объектов из одного состояния в другое; геомет- геометрические модели, позволяющие осуществлять удобную ви- визуализацию исходных многомерных данных (см. § 10.5). 7. В связи с возможностями, предоставляемыми ЭВМ, в последние два десятилетия исследователь стал менее свя- связан с «удоборешаемостью» моделей и большее распростра- распространение получили различные обобщения линейных моделей, более адекватно отражающие реальность. С математичес- математической точки зрения развитие моделей происходит в следую- следующих направлениях: отказ от линейной связи между мате- математическим ожиданием вектора наблюдений Y и парамет- параметрами модели G; зависимость дисперсии отклика от значений параметров, отказ от заданности матрицы X путем пред- предположения, что ее элементы известны лишь с точностью до случайной ошибки. Параметры в этих моделях обычно оцениваются путем решения соответствующих уравнений максимального правдоподобия.
Раздел II. ОСНОВЫ ТЕОРЕТИКО- ВЕРОЯТНОСТНОГО МАТЕМАТИЧЕСКОГО АППАРАТА Глава 4. правила действий со случайными СОБЫТИЯМИ И ВЕРОЯТНОСТЯМИ ИХ ОСУЩЕСТВЛЕНИЯ 4.1. Дискретное вероятностное пространство 4.1.1. Наблюдение, зафиксированное на объекте иссле- исследуемой совокупности (случайный эксперимент). При по- построении любой математической теории прежде всего сле- следует договориться об определениях некоторых понятий и о принятии — в качестве исходных фактов, не требующих доказательства, — некоторых .допущений (аксиом). Отправ- Отправным' понятием теории вероятностей является понятие случайного эксперимента, который определяется как на- наблюдение, «снятое» с единицы обследуемой совокупности, произведенное в условиях статистического ансамбля. В за- зависимости от конкретного содержания этого понятия и применяется соответствующий математический аппарат к решению той или иной конкретной задачи. Одна и та же реальная задача допускает в зависимости от конечных це- целей исследования несколько вариантов конкретизации поня- понятия «случайный эксперимент». Так, при контроле изделия по альтернативному признаку (в результате контроля од- одного изделия оно признается либо годным, либо дефект- дефектным) пользуются в зависимости от конечных целей иссле- исследования по меньшей мере тремя вариантами интерпретации этого понятия: а) контроль одного изделия; б) контроль партии (выборки), состоящей из N изделий; в) контроль двух партий (выборок), состоящих соответственно из Nx и No изделий (схема повторной выборки). Очевидно, в пер- первом варианте могут быть только два различных исхода («годное-дефектное»), во-втором, если нас интересует толь- только общее количество обнаруженных в партии дефектных изделий и не интересует порядок, в котором они были об- обнаружены,— (N+1) возможных исхоДов (в партии обна- обнаружено нуль, или одно, или два, ..., или N дефектных из- изделий), а в третьем — при том же подходе — (Ni+l)(N2+l) 75
возможных исходов (результат каждого случайного экспе- эксперимента задается в этом случае парой чисел (?, г)), где I и г) — числа дефектных изделий, обнаруженных соответ- соответственно в первой и во второй партиях). Точно так же при анализе результатов выбрасывания игральных костей можно понимать под случайным экспе- экспериментом одно бросание (соответственно будем иметь шесть возможных исходов), а можно — последовательность из заданного числа бросаний, как мы и должны были бы поступить при строгой формализации примера игры с че- четырехкратным бросанием игральной кости, рассмотреннего в § 2.2 (нетрудно подсчитать, что общее число возхможных исходов в этом примере выразится числом 64= 1296). Число возможных исходов случайного эксперимента не всегда можно пересчитать. Всякий случайный экспери- эксперимент, связанный с необходимостью фиксации величины какого-либо параметра обследуемого объекта, измеряемого в физических единицах непрерывной природы (температура, давление, время, вес, размеры и т. п.), имеет, как принято говорить, континуальное множество возможных исходов 1# Однако о том, как был осуществлен перенос построения строгой вероятностной теории на этот общий случай, речь будет идти в следующем параграфе. 4.1.2. Случайные события и правила действий с ними. Как уже упоминалось, с каждым случайным эксперимен- экспериментом связано понятие совокупности всех возможных его исходов. Каждый из этих возможных исходов будем назы- называть элементарным (неразложимым) событием (пли элемен- элементарным исходом), а совокупность всех таких возможных исходов — пространством элементарных событий (исхо- (исходов). Таким образом, в результате анализируемого слу- случайного эксперимента обязательно происходит одно из элементарных событий, причем одновременно с ним не может произойти ни одно из остальных элементарных со- событий (о событиях, обладающих последним свойством, говорят, что они являются несовместными, см. ниже). Рассмотрим пока лишь дискретный случай, т. е. только те ситуации, когда все элементарные события можно за- 1 Как известно, множество элементов, составляющих какую- либо совокупность, может быть конечным (если число элементов в нем конечно), счетным (если его элементы можно занумеровать чис- числами 1, 2 /г, ...: множество целых чисел, множество рацио- рациональных чисел и т. п.) и континуальным (множество всех точек числовой прямой, плоскости и т. п.). 76
нумеровать числами 1,2,...,я,... Иначе говоря, рассматри- рассматриваемое пространство элементарных событий (обозначим его Q) состоит лишь из конечного или счетного числа эле- элементарных событий (обозначим их соь со2, ..., con,...), a сам факт «пространство Q состоит из элементарных со- событий coj, со2, ..., соп,...» кратко-обозначим или D.1) Q = {«,}, < = 1, 2,... Рассмотрим несколько примеров случайных экспери- экспериментов и соответствующих им пространств элементарных событий. Пример 4.1. Подбрасывание монеты: Q = {(Oj = аверс (лицевая сторона монеты); а>2 — реверс (обратная сторона монеты)}. Пример 4.2. Выбрасывание одной игральной кости: Q = {cel = l; <»2 = 2; со3 = 3; ш4 = 4; о>5 = 5; озб = 6}. Пример 4.3. Четырехкратное бросание игральной кости. П = {ш1 = A, 1, 1, 1); ш1 = A, 1, 1, 2);...; «>129в = F, 6, 6, 6)}. Пример 4.4. Проверка (по альтернативному приз- признаку) одного изделия, случайно отобранного из продукции массового производства: Q = {dI = годно; оJ = дефектно}. Пример 4.5. Проверка (по альтернативному приз- признаку) N изделий, случайно отобранных из продукции мас- массового производства: Q = {oI=0; ш*а=1;...; <*>N+{ = N}, где со — число обнаруженных изделий. Пример 4.6. Проверка (по альтернативному приз- признаку) двух выборок, состоящих соответственно из Nt и N2 изделий, случайно отобранных из продукции массового^ производства: Q = {», = @, 0); ш, = @, 1); ...; V,^)(-v,M) = 77
Пример 4.7. Определение со — числа сбоев станков автоматической линии за наугад выбранную смену: й = {оI =0; а>2= 1; ...; <*>п = п — 1; <оп+1=п; ...}. Кроме элементарных событий исследователю прихо- приходится иметь дело с так называемыми составными (или разложимыми) событиями. Событие С называется составным (разложимым), если можно указать по меньшей мере два таких элементарных события со,-, и @/2, что из осуществления каждого из них в отдельности следует факт осуществления события С. Этот факт коротко формулируют: «событие С состоит из элементарных событий ю^ и со/2» и записывают символи- символически в виде С={@119 со/,}. Пользуясь такой терминологией, случайным событием А называют любое помножество {со/,, со/2, ..., a>/ft ...} пространства элементарных событий D.1), т. е. А = {<»,. <» , .... со , ...}, что следует понимать так: осуществление любого из эле- элементарных событий со/,, ..., ©/ftf ..., «входящих в Л», вле- влечет за собой осуществление события Л. Поясним эту терминологию на некоторых из примеров 4.1—4.7. В примере 4.2 события Аг= {выпадет четное число оч- очков} и Л2= {выпавшее число очков не превзойдет 3} запи- запишутся соответственно Л1 = {со2, со4, соб} и Л2={со1, со2, (о3}. В примере 4.3 интересовавшее нас в предыдущем пара- параграфе событие Л —{хотя бы один раз при четырехкратном бросании кости появится шестерка} будет состоять из всех тех четырехмерных векторов (oh в которых хотя бы одна из компонент равна шести (можно подсчитать, что число таких векторов равно 671). В примере 4.5 событие Л = {число обнаруженных де- дефектных изделий не более 4}, очевидно, может быть запи- записано А = {(ди (О2, ©з, 0L, @$}. В примере 4.7 событие А = {число зафиксированных за смену сбоев станков автоматической линии меньше 3} можно представить в виде Л = {со1, со2, со3}. Из определения теории вероятностей (см. § 2.1) сле- следует, что в первую очередь надо запастись определенной 78
структурой всех возможных связей между случайными событиями или, другими словами, определенными прави- правилами действий с событиями и соответствующей термино- терминологией. Сумма (объединение) событий Аи Л2, ..., Аь—это та- такое событие A (A =Л1-ЬЛ2+...+ЛА), которое заключается в наступлении хотя бы одного из событий Аъ Л2, ..., Ah. На языке элементарных событий, следовательно, сумма со- событий Аъ Л2, ..., Ak определяется как событие Л, состоя- состоящее из всех различных элементарных событий, составляю- составляющих события Аг, Л2, ..., Ak. Таким образом, если нас интересует, например, сумма А событий Аг— (число обна- обнаруженных дефектных изделий не более 4} = {о)ь со2, ..., со5} (см. пример 4.5) и А2= (число обнаруженных дефектных изделий заключено между 2 и 6 включительно}=(со3, со4, оM, соб, со7}, то, очевидно, А=А1+А2={<х>1, со2, ..., со5, со6, со7}, так как о том, что событие А произошло, будет сиг- сигнализировать реализация любого из элементарных собы- событий соь ..., со7. Произведение (пересечение) событий Аъ Л2,..., Ak — это такое событие A {A~A^A2'--Ak), которое заключается в обязательном наступлении всех событий Лх, Л2, ..., Ак. На языке элементарных событий, следовательно, произве- произведение событий Лх, Л2, ..., Ak определяется как событие Л, состоящее лишь из тех элементарных событий, которые одновременно входят во все рассматриваемые события Аъ А2, ..., Ak. Так, что произведением упомянутых выше событий А1={(оъ (о2, ..., со5} и A2 = {w3y оL, ..., со7)} (см. пример 4.5)будет, очевидно, событие Л =А1-А2~ (оK, со4, со5}, так как реализация каждого из элементарных событий (о3, со4 и оM в отдельности означает, как легко видеть^ одновременное наступление событий Лх и Л2. Разность событий А1 и Л2 — это такое событие Л, которое заключается в одновременном осуществлении двух фактов: событие Ах произошло, а событие Л2 не произош- произошло. На языке элементарных событий, следовательно, раз- разность А—Ах—Л2 определяется как событие, состоящее из всех тех элементарных событий, которые входят в А19 но не входят в Л2. Так что разностью рассмотренных выше в схеме примера 4.5 событий Л1={со1, со2» •••» ^ъ} и Аг~ = {и>з> «4, ..., со7} будет, очевидно, событие А=Аг—Л2= = {©i, со2}, т. е. событие, заключающееся в том, что число обнаруженных в партии дефектных изделий окажется не превосходящим единицы. 79
Противоположное (дополнительное) событие (к собы- событию Л) — это такое событие Л, которое состоит в ненаступ- ненаступлении события Л. На языке элементарных событий, следо- следовательно, А определяется как событие, состоящее из всех возможных элементарных событий, не входящих в Л. Поэтому, используя понятие разности событий, можно записать А = п—А. Так, например, событием, противо- противоположным к событию А1= {(Oj, со2, ..., соб} из примера 4.5, очевидно, будет событие, заключающееся в том, что число обнаруженных в партии объема N дефектных изделий ока- окажется большим 4, т. е. Ai~{coQi co7, ..., со^}. Достоверное событие определяется как событие, со- состоящее из всех возможных элементарных событий, т. е. это событие Q={(dJ, /=1, 2, ... (см. D.1)). Название этого события оправдано тем обстоятельством, что пространство элементарных событий состоит из всех возможных исходов, т. е. в результате анализируемого случайного эксперимента обязательно произойдет одно из элементарных событий со?, а следовательно, тот факт, что событие Q произойдет, достоверен. Невозможное (пустое) событие 0 — это событие, про- противоположное достоверному, т. е. 0 =Q—Q=?l Из опре- определения непосредственно следует объяснение названия этого события: оно не содержит ни одного элементарного события (ot и, следовательно, при реализации исследуе- исследуемого случайного эксперимента его осуществление невоз- невозможно. Несовместными называются события Al9 Л2,...,Ль, если в результате исследуемого случайного эксперимента ни- никакие два из них не могут произойти одновременно. На языке элементарных событий это означает, что среди собы- событий А19 А2, ..., Ah нельзя найти такую пару событий Аг и Ajr в которой обнаружилось бы хотя бы по одному об- общему элементарному событию. Используя понятия произ- произведения событий и невозможного события, можно опреде- определить несовместные события как такую последовательность событий Al9 Л2, ..., Ah9 для любой пары которой Л,- и Aj справедливо соотношение At-Aj=0. Очевидно, лю- любые пары (АуА) противоположных событий являются не- несовместными. Таковыми же являются (по определению) и все элементарные события. Полная система событий — это такой набор несовмест- несовместных событий А19 Л2, ..., Ah, который в сумме исчерпывает
все пространство элементарных событий, т. е. I 1 "Т 2"Г ••• -г k t для всех i9 /=1, 2, ..., k и 1Ф\. Очевидно, набор всех элементарных событий можно рассматривать как частный случай полной системы собы- событий. И вообще любое разбиение множества элементарных событий Q на непересекающиеся классы дает полную си- систему событий, в которой каждое из событий задается со- соответствующим классом разбиения. Так, обратившись вновь к примеру 4.5, положив в нем для определенности N=100 и обозначив букзой d число дефектных изделий, обнаружен- обнаруженных в партии, состоящей из 100 йаугад извлеченных изде- изделий, отобранных от стационарно действующего массового производства, определим систему событий следующим об- образом. A = {rf = °} = W — партия отличного качества; — брак в пределах допустимой нормы (партия принима- принимается); А3 = {6 <d< 10} = {ш7, (о8, .... о)п} — брак выше допустимой нормы (партия принимается по сниженным расценкам); — партия целиком возвращается. Очевидно, события Аи Л2, Л3, А± образуют полную систему событий. 4.1.3. Вероятностное пространство. Вероятности и правила действия с ними. Для полного описания механизма ис- исследуемого случайного эксперимента недостаточно задать лишь пространство элементарных событий. Очевидно, на- наряду с перечислением всех возможных исходов исследуе- исследуемого случайного эксперимента мы должны также знать, как часто в длинной серии таких экспериментов могут про- происходить те или другие элементарные события. Действи- Действительно, возвращаясь, скажем, к примерам 4.1—4.7, легко представить себе, что в рамках каждого из описанных в 81
них пространств элементарных событий можно рассмотреть бесчисленное множество случайных экспериментов, сущест- существенно различающихся по своему механизму Так, в приме- примерах 4.1—4.3 мы будем иметь существенно различающиеся относительные частоты появления одних и тех же элемен- элементарных исходов, если будем пользоваться различными моментами и игральными костями (симметричными, со слегка смещенным центром тяжести, с сильно смещенным центром тяжести и т. п.) В примерах 4.4—4.7 частота по- появления дефектных изделий, характер засоренности дефект- дефектными изделиями проконтролированных партий и частоты появления определенного числа сбоев станков автомати- автоматической линии будут зависеть от уровня технологической оснащенности изучаемого производства: при одном и том же пространстве элементарных событий частота появления «хороших» элементарных исходов будет выше в производ- производстве с более высоким уровнем технологии. Для построения (в дискретном случае) полной и закон- законченной математической теории случайного эксперимен- эксперимента — теории вероятностей помимо уже введенных исход- исходных понятий случайного эксперимента, элементарного ис- исхода и случайного события необходимо запастись еще од- одним исходным допущением (аксиомой), постулирующим существование вероятностей элементарных событий (удо- (удовлетворяющих определенной нормировке), и определением вероятности любого случайного события. Аксиома. Каждому элементу сог- пространства элемен- элементарных событий Q соответствует некоторая неотрицатель- неотрицательная числовая характеристика рг шансов его появления, называемая вероятностью события со,-, причем (отсюда, в частности, следует, что 0^/?^^1 для всех i). Определение вероятности события. Вероятность лю- любого события А определяется как сумма вероятностей всех элементарных событий, составляющих событие Л, т. е. если использовать символику Р{А} для обозначения «ве- «вероятности события Л», то 2Р{ю,.} = 2а-. D.3) 4 / А Отсюда и из D.2) непосредственно следует, что всегда причем вероятность достоверного события 82
равна единице, а вероятность невозможного события равна нулю. Все остальные понятия и правила действий с ве- вероятностями и событиями будут уже производными от вве- введенных выше четырех исходных определений (случайного эксперимента, элементарного исхода, случайного события и его вероятности) и одной аксиомы. Таким образом, для исчерпывающего описания меха- механизма исследуемого случайного эксперимента (в дискрет- дискретном случае) необходимо задать конечное или счетное мно- множество всех возможных элементарных исходов Q и каж- каждому элементарному исходу сог поставить в соответствие некоторую неотрицательную (не превосходящую единицы) числовую характеристику рь интерпретируемую как ве- вероятность появления исхода (О;(Я{сог}), причем установ- установленное соответствие типа сог *->pt должно удовлетворять требованию нормировки D.2). Вероятностное пространство как раз и является поня- понятием, формализующим такое описание механизма случайного эксперимента. Задать вероятностное пространство —это зна- значит задать пространство элементарных событий Q и опре- определить в нем вышеуказанное соответствие типа «);« ^,=Р{Ш,}. D.4) Очевидно, соответствие типа D.4) может быть задано различными способами: с помощью таблиц, графиков, аналитических формул, наконец, алгоритмически. Как же построить вероятностное пространство, соот- соответствующее исследуемому реальному комплексу условий? С наполнением конкретным содержанием понятий случай- случайного эксперимента, элементарного события, пространства элементарных событий, а в дискретном случае -—и любого разложимого случайного события затруднений, как пра- правило, не бывает. А вот определить из конкретных условий решаемой задачи вероятности Р {со^} отдельных элемен- элементарных событий не так-то просто! С этой целью использу- используется один из следующих трех подходов. Априорный подход к вычислению вероятностей P{coJ заключается в теоретическом, умозрительном анализе спе- специфических условий данного конкретного случайного экс- эксперимента (до проведения самого эксперимента). В ряде ситуаций этот предопытныи анализ позволяет теоретически обосновать способ определения искомых вероятностей. Например, возможен случай, когда пространство всех воз- 83
можных элементарных исходов состоит из конечного числа N элементов, причем условия производства исследуемого случайного эксперимента таковы, что вероятности осущест- осуществления каждого из этих N элементарных исходов нам пред- представляются равными (именно в такой ситуации мы нахо- находимся при подбрасывании симметричной монеты, бросании правильной игральной кости, случайном извлечении иг- игральной карты из хорошо перемешанной колоды и т. п.). В силу аксиомы D.2) вероятность каждого элементарного события равна в этом случае 1/N. Это позволяет получить простой рецепт и для подсчета вероятности любого события: если событие А содержит N а элементарных событий, то в соответствии с определением D.3) Р{А}=^-. D.3') Смысл формулы D.3') состоит в том, что вероятность со- события в данном классе ситуаций может быть определена как отношение числа благоприятных исходов (т. е. элементар- элементарных исходов, входящих в это событие) к числу всех возмож- возможных исходов (так называемое классическое определение ве- вероятности). В современной трактовке формула D.3') не является определением вероятности: она применима лишь в том частном случае, когда все элементарные исходы рав- равновероятны. А постериорно-частотный подход к вычислению веро- вероятностей Я{сог-} отталкивается, по существу, от определе- определения вероятности, принятого так называемой частотной концепцией вероятности (подробнее об этой концепции см., например, в [48], [51]). В соответствии с этой концеп- концепцией вероятность Я{сог-} определяется как предел относи- относительной частоты появления исхода со^ в процессе неогра- неограниченного увеличения общего числа случайных экспери- экспериментов п> т. е. Р, = РЫ=КтЯ&й-, D.5) где тп(со^) — число случайных экспериментов (из общего числа п произведенных случайных экспериментов), в ко- которых зарегистрировано появление элементарного события со,-. Соответственно для практического (приближенного) определения вероятностей рг предлагается брать относи- относительные частоты появления события со^ в достаточно длин- 64
ном ряду случайных экспериментов *. Подобный способ вычисления вероятностей pt не противоречит современной (аксиоматической) концепции теории вероятностей, по- поскольку последняя построена таким образом, что эмпири- эмпирическим (или выборочным) аналогом объективно существую- существующей вероятности Р{А} любого события А является относи- относительная частота осуществления этого события в ряду из п независимых испытаний. Разными в этих двух концеп- концепциях оказываются определения вероятностей: в соответ- соответствии с частотной концепцией вероятность не является объективным, существующим до опыта, свойством изучае- изучаемого явления, а появляется только в связи с проведением опыта или наблюдения; это приводит к смешению теоре- теоретических (истинных, обусловленных реальным комплексом условий «существования» исследуемого явления) вероят- вероятностных характеристик и их эмпирических (выборочных) аналогов. Как пишет Г. Крамер, «указанное определение вероятности можно сравнить, например, с определением геометрической точки как предела пятен мела неограничен- неограниченно убывающих размеров, но подобного определения совре- современная аксиоматическая геометрия не вводит» ([48, с. 172]). Мы не будем здесь останавливаться на математических изъянах частотной концепции вероятности. Отметим лишь принципиальные сложности реализации вычислительного приема получения приближенных значений pt с помощью относительных частот тп (со^/n. Во-первых, сохранение не- неизменными условий случайного эксперимента (т. е. сохра- сохранение условий статистического ансамбля), при котором оказывается справедливым допущение о тенденции отно- относительных частот группироваться вокруг постоянного зна- значения, не может поддерживаться неограниченно долго и с высокой точностью. Поэтому для оценки вероятностей Pi с помощью относительных частот /лп(сог)/п не имеет 1 Немецкий математик Р. Мизес, с именем которого связывают развитие частотной концепции вероятности, считал, что каждой ве- вероятностной задаче обязательно соответствует некоторый реальный процесс (удовлетворяющий введенным им условиям «статистическо- «статистического коллектива»), а потому полагал теорию вероятностей дисципли- дисциплиной естественнонаучной («наукой о явлениях реального мира»), но не математической. Сущность понятия мизеского «коллектива» — в требовании реальной массовости изучаемого явления (и соответ- соответствующего эксперимента), существования пределов вида D.5) и независимости этих пределов от того, по какой подпоследователь- подпоследовательности произведенных случайных экспериментов, отобранной из всей такой последовательности, мы этот предел будем вычислять. 85
смысла брать слишком длинные ряды (т. е. слишком боль- большие п) и потому же, кстати, точный переход к пределу D.5) не может иметь реального смысла. Во-вторыху в си- ситуациях, когда мы имеем достаточно большое число воз- возможных элементарных исходов (а они могут образовывать и бесконечное, и даже, как это было уже отмечено в § 4.1, континуальное множество), даже в сколь угодно длинном ряду случайных экспериментов мы будем иметь возможные исходы со?, ни разу не осуществившиеся в ходе нашего эксперимента; да и по остальным возможным исходам по- полученные с помощью относительных частот приближенные значения вероятностей будут в этих условиях крайне мало надежными. Апостериорно-модельный подход к заданию вероятностей P{coJ, отвечающему конкретно исследуемому реальному комплексу условий, является в настоящее время, пожа- пожалуй, наиболее распространенным и наиболее практически удобным. Логика этого подхода следующая. С одной сто- стороны, в рамках априорного подхода, т. е. в рамках теоре- теоретического, умозрительного анализа возможных вариантов специфики гипотетичных реальных комплексов условий разработан и исследован набор модельных вероятностных пространств (биномиальное, пуассоновское, нормальное, по- показательное и т. п., см. § 6.1). С другой стороны, иссле- исследователь располагает результатами ограниченного ряда случайных экспериментов. Далее с помощью специальных математико-статистических приемов (основанных на ме- методах статистического оценивания неизвестных парамет- параметров и статистической проверки гипотез, см. гл. 8 и 9) исследователь как бы «прилаживает» гипотетичные модели вероятностных пространств к имеющимся у него результа- результатам наблюдения (отражающим специфику изучаемой реаль- реальной действительности) и оставляет для дальнейшего исполь- использования лишь ту модель или те модели, которые не про- противоречат этим результатам и в некотором смысле наилуч- наилучшим образом им соответствуют. Опишем теперь основные правила действий с вероят- вероятностями событий, являющиеся следствиями принятых вы- выше определений и аксиомы. Вероятность суммы событий (теорема сложения ве- вероятностей). Сформулируем и докажем правило вычисле- вычисления вероятности суммы двух событий Аг и А2. Для этого разобьем каждое из множеств элементарных событий, со- 86
ставляющих события Ах и Л2, на две части: /Л1 —Л, ( /112, /12 — ^ гТ^12' где А% объединяет все элементарные события coh входящие в ЛЛ, но не входящие в Ат (?, т=1, 2; кфт), а Л12 состо- состоит из всех тех элементарных событий, которые одновремен- одновременно входят и в 4, и в Л2. Пользуясь определением D.3) и определением произведения событий Лх и Л2, имеем: . Л}; D.6) -Л,}. D.7) В то же время в соответствии с определением суммы событий А^А^Аг и с D.3) имеем D.8) Из D.6), D.7) и D.8) получаем формулу сложения ве- вероятностей (для двух событий): Р {Л, + Л2} =Р {Л,} + Р {Л2} - Р {АгА2}. D.9) Формула D.9) сложения вероятностей может быть обоб- обобщена на случай произвольного числа слагаемых (см., на- например, 183, с. 105]): где «добавки;; Дт (т--1, 2, ..., k—1) вычисляются в форме суммы вероятностей вида k k k Д = ^5? ^9 ^? Р {А • Л Л \ причем суммирование в правой части производится, оче- очевидно, при условии, что все /lf /2, ..., /т+1 различны, а *1<*2<---<*т+1- В частном случае, когда интересующая нас система Аъ Аъ ..., Ak состоит лишь из несовместных событий, все произведения вида А^-А^ ... Ai ^ (т^Х) 87
будут пустыми (или невозможными) событиями и соответ- соответственно формула D.9') дает D.9") Вероятность произведения событий (теорема умноже- умножения вероятностей). Условная вероятность. Рассмотрим ситуации, когда заранее поставленное условие или фикса- фиксация некоторого уже осуществившего события исключают из числа возможных часть элементарных событий анализи- анализируемого вероятностного пространства. Так, анализируя совокупность из N изделий массового производства, со- содержащую Nt изделий первого, N2 — второго, N3 — третье- третьего и NA — четвертого сорта (N1+N2+N3+N^=N), мы рас- рассматриваем вероятностное пространство с элементарными исходами соь (о2, ш3 и со4 и их вероятностями — соответ- соответственно pi=N1/N9 P2=N2/N, p3=N3/N и pi=NJN (здесь сог означает событие, заключающееся в том, что наугад извлеченное из совокупности изделие оказалось /-го сор- сорта). Предположим, условия сортировки изделий таковы, что на каком-то этапе изделия первого сорта отделяются от общей совокупности и все вероятностные выводы (и, в частности, подсчет вероятностей различных событий) нам предстоит строить применительно к урезанной сово- совокупности, состоящей только из изделий второго, третьего и четвертого сорта. В таких случаях принято говорить об условных вероятностях, т. е. о вероятностях, вычисленных при условии уже осуществленного некоторого события. В данном случае таким осуществленным событием является событие ?={(о2, со3, <о4}, т. е. событие, заключающееся в том,что любое наугад извлеченное изделие является либо второго, либо третьего, либо четвертого сорта. Поэтому, если нас интересует подсчет условной вероятности события А (при условии, что событие В уже имеет место), заклю- заключающегося, например, в том, что наугад извлеченное изде- изделие окажется второго или третьего сорта, то, очевидно, эта условная вероятность (обозначим ее Р{А\В}) может быть определена следующим соотношением: ^1+^4 Р{ЛБ} N — Р{В} N 88
Как легко понять из этого примера, подсчет условных вероятностей — это, по существу, переход в другое, уре- урезанное заданным условием В пространство элементарных событий, когда соотношение вероятностей элементарных событий в урезанном пространстве остается тем же, что и в исходном (более широком), но все они нормируются (де- (делятся на Р{В}) для того, чтобы и в новом вероятностном пространстве выполнялось требование нормировки D.2). Конечно, можно было бы не вводить терминологии с услов- условными вероятностями, а просто использовать аппарат обыч- обычных («безусловных») вероятностей в новом пространстве. Запись в терминах вероятностей «старого» пространства бывает полезной в тех случаях, когда по условиям конкрет- конкретной задачи мы должны все время помнить о существовании исходного, более широкого пространства элементарных событий. Получим формулу условной вероятности в общем слу- случае. Пусть В — событие (непустое),, считающееся уже со- состоявшимся («условие»), а Л — событие, условную вероят- вероятность которого Р{А\В} требуется вычислить. Новое (уре- (урезанное) пространство элементарных событий Q состоит только из элементарных событий, входящих в В, и, следо- следовательно, их вероятности (с условием нормировки D.2)) у определяются соотношениями *: Pi если р—[?} TvfB}-. если ю,ья; D.Ю) О, если (о,. дЁ В. По определению, вероятность Р{А\В)— это вероят- вероятность события А в «урезанном» вероятностном пространстве {Q, р}, и, следовательно, в соответствии с D.3) и D.10) Pi 1 Нижний индекс у буквы Р, означающей «вероятность» (Р — первая буква латинской транскрипции этого слова), поясняет, в каком именно вероятностном пространстве или пространстве эле- элементарных событий производится вычисление вероятности соот- соответствующего события. 89
т. е. ^^ D.11) или, что то же, P9{AB} = P9{A\B}-PQ{B}. D.11') Эквивалентные формулы D.11) и D.1 Г) принято назы- называть соответственно формулой условной вероятности и правилом умножения вероятностей. Еще раз подчеркнем, что рассмотрение условных ве- вероятностей различных событий при одном и том же усло- условии В равносильно рассмотрению обычных вероятностей в другом (урезайном) пространстве элементарных событий Q=B х пересчетом соответствующих вероятностей элемен- элементарных событий по формуле D.10). Поэтому все общие тео- теоремы и правила действий с вероятностями остаются в силе и для условных вероятностей, если эти условные ве- вероятности берутся при одном и том же условии. Независимость событий. Два события А и В называют независимыми, если Р{АВ}=Р{А}-Р{В}. D.12) Для пояснения естественности такого определения Еернем- ся к теореме умножения вероятностей D.1 Г) и посмотрим, в каких ситуациях из нее следует D.12). Очевидно, это может быть тогда, когда условная вероятность Р{А\В} равна соответствующей безусловной вероятности Р{Л}, т.е., грубо говоря, тогда, когда знание того, что произош- произошло событие В, никак не влияет на оценку шансов появле- появления события Л. Распространение определения независимости на систе- систему более чем двух событий выглядит следующим образом. События Аъ Л2, ..., Ак называются взаимно независимы- независимыми, если для любых пар, троек, четверок и т.д. событий, отобранных от этого набора событий, справедливы сле- следующие правила умножения: 90
Очевидно, в первой строке подразумевается (число сочетаний из & по два) уравнений, во второй и т. д. Всего, следовательно, D.13) объединяет С? -К..+Cft = 2*—&—1 условий. В то же время С? условий первой строки достаточно для обеспечения попарной неза- независимости этих событий. И хотя попарная и взаимная не- независимость системы событий, строго говоря, не одно и то же, их различие представляет скорее теоретический, чем практический интерес: практически важных примеров попарно независимых событий, не являющихся взаимно независимыми, по-видимому, не существует. Свойство независимости событий сильно облегчает ана- анализ различных вероятностей, связанных с исследуемой системой событий. Достаточно сказать, что если в общем случае для описания вероятностей всевозможных комбина- комбинаций событий системы Аи Аъ ..., Ak нужно задать 2k ве- вероятностей, то в случае взаимной независимости этих со- событий достаточно лишь k вероятностей Р{Аг}, Р{Аг), ..., P{Ak). Независимые события весьма часто встречаются в изу- изучаемой реальной действительности: они осуществляются в экспериментах (наблюдениях), проводимых независимо друг от друга в обычном физическом смысле. Именно свойство независимости исходов четырех по- последовательных бросаний игральной кости позволило (с помощью D.13)) легко подсчитать вероятность невыпаде- невыпадения (ни при одном из этих бросаний) шестерки в задаче п. 2.2.1. Действительно, обозначив Аг событие, заклю- заключающееся в невыпадении шестерки в i-м бросании (/=1, 2, 3,4), и учитывая, что P{Ai}=5/6 для всех /=1,2,3,4, получаем = E/6L = 625/1296. Формула полной вероятности. При решении многих практических задач зачастую сталкиваются с ситуацией, когда прямое вычисление вероятности интересующего нас события А трудно или невозможно, в то время как вполне доступно вычисление (или задание) условных вероятностей того же события (при различных условиях). В случае, 9J
когда условия Ви ?2, ..., Вк, при которых известны (или легко вычисляемы) условные вероятности события Л, образуют полную систему событий (см. п. 4.1.2), для под- подсчета вероятности Я {Л} можно использовать соотношение + Р{А\Вк}-Р{Вк}. D.14) которое принято называть формулой полной вероятности. Для доказательства формулы D.14) заметим, что эле- элементарные события, составляющие событие Л, можно раз- разбить на k непересекающихся групп, каждая из которых является общей частью (пересечением) события Л с одним из событий Вь (эта возможность непосредственно вытекает из того, что события Bl9 В2, ..., Вк исчерпывают в сумме все пространство элементарных событий и попарно не пересекаются), т. е. Далее, воспользовавшись теоремой сложения вероят- вероятностей D.9") (применительно к несовместным событиям, каковыми являются события АВи ЛВ2, •••» А В и) и вычис- вычислив вероятность каждого из произведений АВг по формуле произведения вероятностей D.1 Г), мы и получаем D.14). Формула Байеса. Обратимся вначале к следующей задаче. На складе имеются приборы, изготовленные тремя заводами: 20 % приборов, имеющихся на складе, изготов- изготовлено заводом № 1, 50 % — заводом №2 и 30 % — заво- заводом № 3. Вероятности того, что в течение гарантийного срока прибору потребуется ремонт, для продукции каж- каждого из заводов равны соответственно 0,2; 0,1; 0,3. Взятый со склада прибор не имел заводской маркировки и потре- потребовал ремонта (в течение гарантийного срока). Каким за- заводом вероятнее всего был изготовлен этот прибор? Какова эта вероятность? Если обозначить Аг событие, заключаю- заключающееся в том, что случайно%зятый со склада прибор ока- оказался изготовленным на /-м заводе (t'=l, 2, 3), а В — со- событие, заключающееся в том, что наугад отобранный от продукции всех трех заводов прибора оказался дефектным (потребовал ремонта), то сформулированная выше задача, очевидно, сводится к вычислению условных вероятностей P{At\B) по заданным вероятностям Р1{Аг}=092\ Р{Ао} = -0,5; />{Л8}=0,3; Р{В\Ах)=0%2\ Я{В|Л2}=0,1 и Р {В\А3} = =0,3. Поскольку события Аъ Л2, Л3 образуют полную систему, воспользуемся для выражения искомых вероят- 92
ностей P{At\B) известными нам основными правилами действий с вероятностями. По формуле условной вероят- вероятности D.11) ?Ц$. D.15) Числитель этой дроби по теореме умножения вероятнос- вероятностей D.1 Г) может быть представлен в виде l}.P{A,}. D.16) а знаменатель Р{В} выражается с помощью формулы пол- полной вероятности D.14): D.17) Подставляя D.16) и D.17) в D.15), получаем P{At\B}= /-Ш-Р1ВЩ ^ D18) 2 Р{В\А,)-Р{А,} Воспользовавшись этой формулой,- нетрудно подсчи- подсчитать искомые вероятности: р (л 1Д10.2-0.2 0,20,2 + 0,ЬО,5 + 0,30,3 0>04 =0,222; — 0,18 п/л |й1 0.5-0,1 0,05 П97Я- Р {А | В} = 0|8 = -Q^-g- = 0,278, Р {Л, |В} = -^2-= 0,600. Следовательно, вероятнее всего некондиционный при- прибор был изготовлен на заводе № 3. Доказательство формулы D.18) в случае полной систе- системы событий, состоящей из произвольного числа k событий, в точности повторяет доказательство формулы D.18). В таком общем виде формулу |> DЛ9) 2 P{B\AiyP{Ai) принято называть формулой Байеса.
4.2. Непрерывное вероятностное пространство (аксиоматика А. Н. Колмогорова) 4.2.1. Специфика общего (непрерывного) случая вероят- вероятностного пространства. Ранее упоминалось о ситуациях, в которых множество всех возможных элементарных ис- исходов (пространство элементарных событий Й) может ока- оказаться более чем счетным. Так, например, именно с конти- континуальным пространством элементарных событий придется иметь дело, если каждому элементарному исходу ш^ иссле- исследуемого случайного эксперимента (наблюдения) может быть поставлена в соответствие регистрация одной или нескольких числовых характеристик обследуемого объекта анализируемой совокупности, измеренных в физических единицах непрерывной природы (в единицах времени, длины, веса, температуры, давления и т. п.). Можно, правда, возразить, что, поскольку все измерения делаются с ограниченной точностью, реальное множество элементар- элементарных исходов все равно окажется не более чем счетным. Однако, с одной стороны, возможности точности измерений со временем совершенствуются и вместе с этим должна соответственно трансформироваться и структура рассмат- рассматриваемого дискретного вероятностного пространства. С дру- другой стороны, рассмотрение непрерывных моделей, отвечая физической сущности анализируемого явления, одновре- одновременно расширяет аналитические возможности теории, предоставляет исследователю более мощный математический аппарат: достаточно сопоставить возможности простого суммирования и интегрирования, апцарата разностных и дифференциальных уравнений и т. д. Как же осуществляется переход от дискретного к не- непрерывному случаю в построении строгой математической теории вероятностей? Автоматический перенос всей схемы построения дискретного вероятностного пространства (см. § 4.1) на непрерывный случай невозможен. Одно из прин- принципиальных отличий непрерывного случая от дискретного заключается в том, что в общем случае мы не можем объя- вить, подобно тому как это делалось в дискретном вероят- вероятностном пространстве, любое подмножество множества элементарных исходов Q случайным событием, т. е. собы- событием, характеризующимся принципиальной возможностью его наблюдения в результате исследуемого случайного экс- эксперимента. Другими словами, в общем вероятностном про- пространстве среди всех возможных подмножеств пространства 94
элементарных событий Q часть Подмножеств характеризу- характеризуется такой возможностью (и их принято называть случай- случайными событиями или измеримыми подмножествами Я), а другая часть — нет (подмножества Q этого типа принято называть неизмеримыми). Приведем пример неизмеримости подмножеств про- пространства элементарных событий, связанной с ограничен- ограниченными физическими возможностями используемого инстру- инструмента наблюдения. Пусть наблюдатель звездного неба имеет телескоп, позволяющий фиксировать положение лишь тех звезд, яркость которых превышает некоторый пороговый уровень. В качестве пространства элементарных событий рассмотрим совокупность возможных положений всех (а не только доступных наблюдателю) звезд в про- пространстве. Очевидно, множество Q более чем счетно (кон- (континуально). Для наблюдателя, если он только не исполь- использует накопленные астрономией знания, неизмеримыми (экспериментально непроверяемыми) оказываются все ут- утверждения о звездах яркости, меньшей пороговой. Вместе с тем мы знаем, что при использовании более сильных инструментов, учете движения Земли вокруг Солнца или с помощью привлечения других методических приемов современной астрономии часть из этих утверждений может стать проверяемой. Понятие измеримости позволяет в данном случае четко провести грань между физически про- проверяемыми утверждениями о строении исследуемого ве- вероятностного пространства и утверждениями, на сегодня недоступными для проверки. При этом само пространство элементарных событий Q как состояние природы остается неизменным. Итак, естественно называть случайным событием лишь такие подмножества А множества всех элементарных ис- исходов Q, для которых мы имеем возможность сказать, на- наступило это событие в результате эксперимента или нет, так как только в этом случае мы можем говорить об отно- относительной частоте его наступления в ряду из п экспери- экспериментов, а следовательно, и о вероятности Р{Л}. Отмеченная особенность общего (непрерывного) случая, по-видимому, требует введения дополнительных определе- определений и аксиом, относящихся к определению случайных со- событий и к правилам действий с ними и их вероятностями. Это и делается при аксиоматическом (теоретико-множест- (теоретико-множественном) построении современной теории вероятностей, 95
первое строгое и полное изложение которой принадлежит А. Н. Колмогорову ([46]) \ 4.2.2. Случайные события, их вероятности и правила дей- действий с ними (аксиоматический подход А. Н. Колмогорова). Определим ту часть подмножеств пространства элементар- элементарных событий Я, которая содержит подмножества-события. Схема определения случайного события А в общем случае подобна той, которая была принята в дискретном случае. Но если в той ситуации нам достаточно было определить в качестве исходных понятий элементарные события ыи (о2, ..., соW,... (и любое подмножество пространства эле- элементарных событий объявлялось событием), то в общем случае мы в каждой конкретной реальной ситуации должны (из физических, содержательных соображений) опреде- определить дополнительно к Q категорию подмножеств Q, кото- которые, очевидно, являются событиями. А затем любое слу- случайное событие А определяется как некоторое производное от «очевидно событийных» подмножеств введенной категории. Определение случайного события. Рассмотрим систему (конечную или счетную) подмножеств Аъ Аъ ..., Ап ,... пространства элементарных событий Q, каждое из которых является событием. Тогда множество Й, состоящее из всех элементарных событий, дополнения At — Q—Аь 0 — Q—Q и .сумма А=А1+А2-\-"--\-Ап+... также являются собы- событиями (отсюда непосредственно следует, что и произведе- произведение П=А1-А2... Ап... является событием, так как его . дополнение n П=Л!+Л2+... в соответствии с данным оп- определением является событием). Будем обозначать в дальнейшем систему тех подмно- подмножеств пространства элементарных исходов Q, которые яв- являются событиями, буквой С. Аксиома. Каждому подмножеству-событию А из сис- системы С соответствует неотрицательное и не превосходящее единицы число р(А)=Р{А}, называемое вероятностью со- события Л, причем задающая это соответствие числовая функция множеств р(А) обладает следующими свойствами: а) р&) = Р{Щ = и 1 Впервые интерпретация случайного события как множества с одновременной трактовкой его вероятности как меры этого мно- множества была дана, по-видимому, в работе польского математика А. Ломницкого (L о m n i с k i A. Nouveau fondements du calcul des probabilites — Fundam. Math. 1923, 4). Однако «теория вероятностей как точная математическая теория в надлежащем объе- объеме впервые была построена А. Н. Колмогоровым» ([22, с. 11]). 96
б) если события Аи Аъ ..., Ап, ... несовместны, то Из этой аксиомы непосредственно следует,v в частности, связь между вероятностями прямого (Л) и противополож- противоположного (А) событий: Аксиоматическое свойство б) вероятностей формулиро- формулировалось и доказывалось в дискретном случае в виде теоремы сложения вероятностей. Точно так же то, что называлось теоремой умножения вероятностей (и выводилось из определения и аксиомы в дискретном случае), в общем случае принимается по оп- определению. Определение условной вероятности. Условная вероят- вероятность Р{А\В) события А при условии, что уже имеет место событие В, определяется с помощью формулы Р{АВ} = Р{А\В}.Р{В]. Правила действий с событиями и их вероятностями и, в частности, формула полной вероятности D.14), форму- формула Байеса D.18), определение независимости для системы событий D.12), D.13) и другие, доказанные в дискретном случае, имеют место (и могут быть доказаны) и в случае общего вероятностного пространства. Итак, для исчерпывающего описания механизма ис- исследуемого случайного эксперимента в общем случае, т. е, для задания в этом случае вероятное! него пространства, необходимо: 1) описать пространство элементарных собы- событий Q; 2) описать систему С измеримых подмножеств этого пространства или таких подмножеств, которые должны быть принципиально наблюдаемыми (т. е. являются собы- событиями); 3) каждому такому событию А из системы С поста- поставить в соответствие неотрицательное число Р{А}, назы- называемое вероятностью события Л, причем это соответствие должно удовлетворять требованиям а) и б) аксиомы (оче- (очевидно, такое соответствие Р есть числовая функция мно- множества, определенная на подмножествах системы С; функ- функции такого типа принято называть вероятностными мера- ми> определенными на системе подмножеств. С). Поэтому если в дискретном случае для краткого символического 4 Зак. 1035 07
описания вероятностного пространства достаточно было пары символов {Q, /?}, то в общем случае для этой же це- цели требуется уже «тройка» {Q, С, Р}. Приведенный выше пример с астрономическими наблю- наблюдениями звездного неба как бы подкрепляет физическую естественность понятий измеримого («наблюдаемого») и неизмеримого («ненаблюдаемого») подмножества простран- пространства элементарных событий Q. Однако всякая модель, всякая теория, и в том числе современная аксиоматическая концепция теории вероятностей, есть лишь форма приб- приближенного представления реальной действительности, фор- форма, не свободная от недостатков. Чтобы предостеречь чи- читателя от переоценки возможностей аксиоматической теоре- теоретико-вероятностной модели, рассмотрим несложный пример. Практика долгосрочного социально-экономического и научно-технического прогнозирования широко использует различные формы экспертных опросов. Одной из таких форм является подход, при котором каждого из опрашива- опрашиваемых экспертов просят, субъективно оценить вероятность осуществления интересующего нас события в будущем *. Подходя к моделированию этого процесса с позиций субъ- субъективистской школы вероятностей и соответственно интер- интерпретируя каждого из опрашиваемых экспертов в качестве своеобразного «измерительного прибора», мы можем опре- определить понятие случайного эксперимента как результат ответа эксперта на поставленный ему вопрос. В этом слу- случае пространство элементарных исходов Q, очевидно, должно состоять из всех точек отрезка [0, 1]. При констру- конструировании системы С «наблюдаемых» подмножеств про- пространства Q естественно было бы априори потребовать, чтобы любой отрезок A=lcli с2], лежащий внутри отрезка [О, 1] (т. е. 0^С!<с2<1), принадлежал бы к категории со- событий (т. е. для любого отрезка Д=[с1э с2] должна быть определена вероятность Р {А} = Р {[clt c2]} того, что чис- численный ответ наугад выбранного эксперта будет принадле- принадлежать этому отрезку). Но тогда в соответствии с определе- определением случайного события в общем случае событиями будут не только отрезки, но и все, что можно получить из них применением к ним (взятым в счетном числе) суммирования и перемножения, а также взятием дополнения (т.е. про- 1 Подобная форма экспертиз используется, например, при по- построении сценариев будущего социально-экономического и промыш- промышленного развития стран, 98
гивоположного события). Поэтому, выбирая произвольную точку с на отрезке [0, 1] и рассматривая последовательность отрезков Ап вида Д;1=[с—1/я, с+\1п], мы обнаруживаем, что точка должна быть событием, так как она является, как легко видеть, счетным произведением отрезков ДГь. Итак, любая точка отрезка [0, 1] — событие. Множество рациональных точек, как известно, складывается из счет- счетного числа точек. Следовательно, это множество — тоже событие. Но множество иррациональных точек есть допол- дополнение к ?/1ножеству рациональных точек. Значит, и мно- множество иррациональных точек — событие. Но вряд ли - естественно, с физической точки зрения, считать наблюда- наблюдаемыми (и, следовательно, физически различимыми) собы- событиями факты принадлежности точки к множеству рацио- рациональных и к множеству иррациональных чисел. Как видно из этого примера, и использование общепринятой сейчас аксиоматической концепции теории вероятностей может приводить к плохо физически интерпретируемым выводам. В данном примере мы не провели до конца построение ве- вероятностного пространства, так как не определили (аксио- (аксиоматически) способ вычисления вероятностей на отрезках, т. е. величин P{&}=P{[cli с2]}. Физически естественное аксиоматическое задание этих вероятностей также обуслов- обусловлено спецификой реального комплекса условий, характе- характеризующих наш случайный эксперимент. Так, если предста- представить, что мы находимся в самой «неблагоприятной» для прогноза ситуации (интересующее нас событие настолько удалено во времени и неопределенно или опрашиваемые эксперты настолько некомпетентны, что ответы экспертов оказываются приблизительно равномерно «разбросанными» по всей длине отрезка [0,1]), то естественно предположить, что вероятности Р{Д} будут зависеть только от длины отрезка Д и не будут зависеть от того, в каком именно месте отрезок располагается, и определить их соответ- соответственно с помощью соотношений * Р{[Сг. '.]}=*.-<V D.20) Легко проверить, что заданные этим соотношением ве- вероятности удовлетворяют свойствам а) и б) аксиомы. 1 О трех возможных подходах (априорном, апостериорно-час- тотном и апостериорно-модельном) к выработке и обоснованию по- подобных предположений о природе аксиоматически определяемых вероятностей см. п. 4.1.3. 4* 99
Подчеркнем, кстати, на этом примере одно из сущест- существенных отличий широкого класса непрерывных вероят- вероятностных пространств от дискретных: вероятность осущест- осуществления любого элементарного события (т. е. любого воз- возможного исхода) со в данном примере равна нулю; однако для сколь угодно малого отрезка Д вероятность Р{А} всегда будет положительной (это непосредственно следует из D.20)). Таким образом, в этом примере мы впервые встретились с, казалось бы, парадоксальной ситуацией, когда события со хотя и являются возможными, но обладают нулевой вероятностью. Соответственно события co=Q—со, являющиеся дополнением к событиям нулевой вероятности со, хотя и не могут быть названы достоверными, но имеют ве- вероятность осуществления, равную единице. О событиях типа со часто говорят как о событиях, происходящих «поч- «почти всегда». При более глубоком рассмотрении можно по- понять, что подобные ситуации в непрерывном вероятност- вероятностном пространстве на самом деле не являются парадоксаль- парадоксальными. Для пояснения этой мысли можно привести анало- аналогию с физическим телом, имеющим определенную массу, в то время как ни одна из точек, составляющих это тело, сама массой не обладает. Очевидно, тело в этой аналогии играет роль события, точка — роль элементарного исхода, а масса — роль вероятности. Выводы 1. Основаниями теоретико-вероятностного математическо- математического аппарата являются: понятия случайного эксперимента, его возможного исхода и пространства элементарных собы- событий; аксиома о существовании и нормировке вероятностей элементарных событий; определение случайного события и способа вычисления его вероятности. 2. Способ построения современной строгой вероятностной теории аксиоматический, причем для построения дискрет- дискретного вероятностного пространства, т. е. для модельного математического описания механизма случайного экспери- эксперимента, имеющего лишь конечное или счетное множество возможных элементарных исходов, достаточно постулиро- постулировать одну аксиому (о существовании и нормировке вероят- вероятностей элементарных исходов) и одно определение (о спо- способе вычисления вероятности любого события). 100
3. Термины «механизм случайного эксперимента», «реаль- «реальный комплекс условий, индуцирующий исследуемый статис- статистический ансамбль» и «вероятностное пространство» яв- являются синонимами и могут быть математически заданы с помощью описания всех возможных элементарных исхо- исходов и сопоставления с каждым из них вероятности своего появления (с помощью аналитического задания, таблично, графически, алгоритмически). 4. Главная сложность построения вероятностного прос- пространства, соответствующего исследуемому реальному ком- комплексу условий, — в конкретном задании вероятностей элементарных событий. Из трех возможных подходов к решению этой задачи — априорного, апостериорно-частот- ного и апостериорно-модельного — последний является наибо- наиболее легко практически реализуемым и наиболее эффективным. 5. Основные правила действий в дискретном верЬятностном пространстве задаются теоремами сложения и умножения вероятностей, формулами полной вероятности и Байеса. 6. В общем (непрерывном) вероятностном пространстве в отличие от дискретного среди подмножеств пространства элементарных событий Q могут быть такие, для которых не существует принципиальной возможности их наблюде- наблюдения в результате исследуемого случайного эксперимента («ненаблюдаемые» или «неизмеримые» подмножества). Та- Такие подмножества не могут быть названы событиями, так как если А — событие, то мы должны иметь возможность сказать, наступило оно или не наступило з результате эксперимента (в этом смысле оно «наблюдаемо»); только тогда можно говорить об относительной частоте его наступ- наступления в серии экспериментов, а следовательно, и о вероят- вероятности Р{А}. 7. Отмеченная в предыдущем пункте особенность общего вероятностного пространства требует введения дополни- дополнительных определений и аксиом, относящихся к определе- определению случайных событий и к правилам действий с их ве- вероятностями. Современная аксиоматическая концепция тео- теории вероятностей (впервые полно и строго изложенная А. Н. Колмогоровым в 1933 г.) строит общее вероятност- вероятностное пространство, отправляясь от определения случайного события (с помощью перечисления допустимых теоретико- множественных комбинаций над подмножествами, априо- априори являющимися событиями) и аксиомы о вероятностях как о неотрицательных и ограниченных единицей числовых 101
функциях, аргументами которых являются подмножества- события. Эта концепция не противоречит рассмотренному ранее способу построения дискретного вероятностного пространства (она включает в себя этот способ в качестве частного случая и соответственно сохраняет все правила действий с вероятностями и событиями) и обусловливает возможность физической интерпретации вероятности со- события как относительной частоты его появления в доста- достаточно длинной серии экспериментов. 8. Использование аксиоматической концепции теории ве- вероятностей может в некоторых случаях, как и всякая другая модель, приводить к плохо физически интерпрети- интерпретируемым выводам. 9. В общем (непрерывном) вероятностном пространстве в отличие от дискретного могут существовать возможные события, обладающие нулевой вероятностью появления. Соответственно противоположные к ним события (их до- дополнения) хотя и не могут быть названы достоверными, но имеют вероятность осуществления, равную единице (со- (события, происходящие «почти всегда»). Глава 5. случайные величины (исследуемые признаки) 5Л. Определение и примеры случайных величин Рассматривая приведенные выше примеры случайных экс- экспериментов (см. п. 4.1.2, примеры 4.1—4.7), мы видим, что в большинстве случаев результат случайного экспери- эксперимента может быть описан одним или несколькими числами. Так, в примерах 4.2, 4.5 и 4.7 эти результаты означают со- соответственно число очков, выпавших при бросании играль- игральной кости; число дефектных изделий, обнаруженных при качественном контроле N случайно отобранных из массо- массовой продукции изделий; число сбоев автоматической линии за наугад выбранную рабочую смену. В примере 4.3 (че- (четырехкратное бросание игральной кости) результат каж- каждого случайного эксперимента может быть записан четвер- четверкой чисел, или четырехмерным вектором, а в примере 4.6 (проверка основной и дополнительной выборок изделий объема соответственно Nx и N2, случайно отобранных из 102
продукции массового производства) — парой чисел, или двумерным вектором. Даже в примерах 4.1 и 4.4, на пер- первый взгляд не связанных с регистрацией числовых харак- характеристик, можно для удобства закодировать соответствую- соответствующие случайные исходы, приписывая, например, исходам «аверс» (пример 4.1) и «изделие годно» (пример 4.4) число- числовую метку «нуль», а исходам «реверс» и «изделие дефект- дефектно» — числовую метку «единица». Продолжая наши приме- примеры и рассматривая в рамках теоретико-вероятностной схе- схемы регистрацию одного или одновременно нескольких интересующих нас свойств (выраженных реальными или условно закодированными числами) у каждого из анали- анализируемых объектов, мы приходим к общей схеме, в кото- которой понятие случайного эксперимента реализуется в реги- регистрации, ча каждом из таких случайно отобранных объек- объектов, набора числовых характеристик ? = (&<">, S<2> 6<">)\ р>1. E.1) Какие именно числовые значения | мы будем иметь в резуль- результате данного конкретного эксперимента, зависит от мно- множества не поддающихся учету случайных факторов и од- однозначно определяется в конечном счете осуществившим- осуществившимся в результате данного случайного эксперимента элемен- элементарным исходом со (а это означает, что | является числовой (в случае р=1) или векторной (в случае р ^ 2) функцией аргумента со). Таким образом, мы приходим к следующему определению случайной величина* (иногда пользуются рав- равнозначным термином «случайный признак» или просто «признак»). Случайной величиной называется поддающаяся измере- измерению скалярная (р=1) или векторная (р^ 2) величина опре- определенного физического смысла, значения {компоненты) ко- которой подвержены некоторому неконтролируемому раз- разбросу при повторениях исследуемого эксперимента (наблю- (наблюдения, процесса). Можно также сказать, что случайная ве- величина I — это функция, определенная на множестве эле- элементарных событий, т. е. ?=?(со). Пример 5.1. В табл. 5.1 приведен еще один пример векторной (или многомерной) случайной величины вместе с соответствующей ей общей формой регистрации серии на- наблюдений (результатов случайных экспериментов). Обозначения случайной величины (которая, по сущест- существу, определяет лишь перечень анализируемых характерис- характеристик и по сложившейся в специальной литературе традиции ЮЗ
Анализируемые свойства (характеристики) объектов ? Характеристики «состояния» объекта (социально-демографические и эконо- экономические характеристики семьи) Характеристики «поведения» объекта (структура потребления семьи, руб, на одного члена семьи, за месяц) ?<!>— социальная принад- принадлежность ?<2> — профессия главы се- семьи gC) _ качество жилищных условий gD) — размер (число чле- членов) семьи ?<5> — количество детей gF) _ среднедушевой до- доход ?(?) — расходы на питание g(8> _ расходы на промыш- промышленные товары текущего пользования g(9> — расходы на предме- предметы роскоши и длительного пользования ?00) __ расходы на услуги ?<п > —> прочие расходы, включая сбережения Та бл иц а 5.1 Анализируемые объекты (семьи) 1 х[<" х{^ х\*) 410) 2 д:B» > д:B2> ^B8) *29> уA0) ¦*2 уA1) Л2 / у<.2) Л/ уC ) *)*> ^> *<,6) 4й чаще всего обозначается с помощью одной из букв греческо- греческого алфавита — ?, т], ?,-v и т. д.) отличаются от обозначений ее наблюденных значений. В табл. 5.1 и в дальнейшем эти наблюденные значения в целях общности обозначаются с помощью строчных букв латинского алфавита (в таблице — с помощью буквы а:) с верхним индексом, указывающим но- 10 4
мер зафиксированной характеристики, и с нижним индек- индексом, определяющим номер эксперимента или объекта, в котором эта характеристика зарегистрирована; но в любом случае нужно помнить, что за этими символами «скрываются» реальные числовые значения соответствующих характерис- характеристик или их условные числовые метки. Так, очевидно, в табл. 5.1. первые три строки будут состоять из условных число- числовых меток, а последующие восемь — из числовых значений, измеренных в определенной шкале и имеющих четкий фи- физический смысл. 5.2. Возможные и наблюденные значения случайной величины Поскольку в соответствии с одним из определений случай- случайная величина — это функция, определенная на множестве элементарных исходов, то ее возможные значения и их об- общее число определяются структурой соответствующего пространства Q элементарных событий: каждому элемен- элементарному событию со соответствует свое возможное значе- значение ?. Следовательно, вообще говоря, сколько всех возмож- возможных элементарных событий, столько и всех возможных значений соответствующей случайной величины ?(со). Так, в вышеприведенных примерах из п. 4.1.2 мы имеем: в при- примерах 4.1 и 4.4 всего по два возможных «значения», со- otBeTCTByion^HX элементарным исходам, — «аверс» и «ре- «реверс» (в примере 4.1) и «изделие годно» и «изделие дефектно» (в примере 4.4); в примере 4.2 — шесть первых положи- положительных натуральных чисел; в примере 4.3 — всевозможные четверки чисел, каждое из которых может принимать лишь, целые значения от 1 до б (мы уже подсчитывали, что общее число таких четверток будет равно б4 = 1296); в примере 4.5 — все неотрицательные целые числа от 0 до N\. в при- примере 4.6 — всевозможные пары чисел, первое из которых может принимать лишь целые значения от 0 до N1% а вто- второе — от 0 до N2 (очевидно, общее число таких пар соста- составит (N1+l)(N2+l))\ в примере4.7 возможными значениями числа сбоев автоматической линии за смену являются все неотрицательные целые числа. Конечно, нам не удастся «пересчитать» все возможные значения случайной величи- величины, определенной на множестве элементарных исходов не- непрерывного пространства элементарных событий Q: их об- общее число образует континуум. Именно такого рода слу- случайные величины представлены компонентами |<e> — ?<и> 105
многомерной (векторной) случайной величины |, рассмот- рассмотренной в примере 5.1. Следует отличать теоретически возможные значения случайной величины (обозначим их хЧ, х°2, ..., #?, ... в дис- дискретном случае и просто х — в непрерывном) от практи- практически осуществившихся в экспериментах, т. е. от наблюден- наблюденных ее значений (последние обозначим xh х2, ..., хп) 1 . 5.3. Типы случайных величин Общая классификация возможных типов случайных вели- величин может быть представлена с помощью схемы рис. 5.1. Случайная беличина ± Многомерная Одномерной Номинальная (классисрика - ционная) Т Дискретная Ординальная (поряднобая) Непрерыбная t' Ноличестбенная На тегоризобанная Неиотегоризо8аннай Рис. 5.1. Общая схема классификации основных типов случайных величин Если мы в качестве результата эксперимента (наблюде- (наблюдения) регистрируем одно число (примеры 4.1, 4.2, 4.4, 4.5 и 4.7 из п. 4.1.2; см. также случай р = 1 в записи E.1)), то 1 Если интересующая нас случайная величина многомерная (или векторная), см. E.1), то обозначения сохраняются с заменой строчных латинских букв х?, х, Xi соответствующими прописными Xit Xt Xt. 106
соответствующую случайную величину принято называть одномерной или скалярной. Если же результатом каждого эксперимента (наблюдения) является регистрация целого набора интересующих нас характеристик (примеры 4.3, 4.6 и 5.1, а также случай р>2 в общей записи E.1)), то соответствующую случайную величину называют много- многомерной или векторной. Одномерную случайную величину называют дискретной или непрерывной в зависимости от того, в каком простран- пространстве элементарных событий она определена — в дискретном или в непрерывном. Очевидно, во всех рассмотренных выше примерах 4.1—4.7, так же как и в первых пяти компонентах из примера 5.1 (табл. 5.1), мы имеем дело с дискретными слу- случайными величинами. Как уже сказано выше, некоторые исследователи, отправляясь от ограниченности наших прак- практических возможностей точности измерений, предлагают вообще обходиться только дискретными вероятностными пространствами и соответственно только дискретными слу- случайными величинами. Действительно, даже при измерении непрерывных по своей природе величин (длины, веса, тем- температуры, давления и т. д.) всегда существует обусловлен- обусловленная разрешающей способностью используемого «измери- «измерительного прибора» максимально различимая единица изме- измерения, своеобразный неразложимый квант, в целом числе которых и будет представлено в конечном счете наше из- измерение. Однако аналитические возможности непрерывных математических моделей, практика их непосредственного использования говорят за то, что они являются эффектив- эффективным прикладным аппаратом применительно не только к неп- непрерывным по своей физической природе случайным вели- величинам, но и к таким дискретным, множество возможных значений которых достаточно велико (несколько десятков и более, см. далее пример в § 6.L и рис. 5.6). В зависимости от своей природы, своего назначения од- одномерные дискретные случайные величины подразделяются на количественные, ординальные (или порядковые) и номи- номинальные (или классификационные). Количественная случайная величина позволяет измерять степень проявления анализируемого свойства обследуемо- обследуемого объекта в определенной шкале (см. примеры 4.2, 4.3, 4.5, 4.6, 4.7, а также компоненты ?<4)—?A1> в примере 5.1). Ординальная (порядковая) случайная величина позво- позволяет упорядочивать обследуемые в ходе случайных экспе- экспериментов (наблюдений) объекты по степени проявления в 107
них анализируемого свойства. Исследователь ооращается к ординальным случайным величинам в ситуациях, когда шкала, в которой можно было бы количественно измерить степень проявления анализируемого свойства, объективно не существует или ему не известна. В табл. 5.1 случайная величина ?C) — качество жилищных условий предусмат- предусматривает четыре возможных градации (категории качества): «плохое», «удовлетворительное», «хорошее» и «очень хоро- хорошее». Приписав каждой из обследованных семей (в соответ- соответствии с принятыми нормативными правилами) одну из гра- градаций, мы тем самым получаем возможность упорядочить обследованные семьи по этому свойству. Общее число гра- градаций ординального признака может быть меньше, равно и даже больше числа обследованных объектов (случайных экспериментов). Номинальная (классификационная) случайная величина позволяет разбивать обследуемые в ходе случайных экс- экспериментов (наблюдений) объекты на не поддающиеся упо- упорядочению однородные по анализируемому свойству клас- классы. Если исследователю наряду с анализируемым свойст- свойством известны все возможные его градации (не поддающиеся упорядочению), вместе с правилом отнесения обследован- обследованного в ходе случайного эксперимента (наблюдения) объекта к одной из этих градаций, то соответствующую номиналь- номинальную случайную величину принято называть категоризован- ной. Именно к таким признакам относятся случайные ве- величины ?A> — социальная принадлежность семьи и ?B) — профессия главы семьи из табл. 5.1. Если условия экспери- эксперимента таковы, что его элементарным исходом является так называемое парное сравнение 8ijt задающее меру сходства (или различия) по анализируемому свойству объектов с но- номерами / и / из обследуемой совокупности, то такую номи- номинальную случайную величину будем называть некатегори- зованной, а ее наблюденные значения представляются со- соответственно так называемой матрицей смежности1 Примером некатегоризованного номинального признака может служить случайная величина, индуцированная слу- случайным экспериментом на различных парах семей, резуль- 1 В наиболее распространенном частном случае элементы 6,-j могут принимать лишь два значения: 1, если объекты ( и /отнесены в результате случайного эксперимента (наблюдения) к одной гра- градации (или к одному классу), и 0—в противном случае. 108
татом которого является отнесение или неотнесение каждой пары к общему классу с точки зрения однородности (сход- (сходства) их потребительского поведения (см., например, [79]). Более подробное освещение различных вопросов ста- статистической обработки, связанных со смешанным характе- характером исследуемых многомерных случайных величин, т. е. с ситуациями, когда, как в табл. 5.1, среди компонент ана- анализируемого многомерного признака могут быть одновре- одновременно и количественные, и ординальные, и номинальные показатели, дано в § 10.2 и 10.5. 5.4. Закон распределения вероятностей случайной величины. Генеральная совокупность и выборка из нее 5.4Л. Закон распределения вероятностей. Мы уже знаем (см. п. 4.1.3), что для полного описания механизма иссле- исследуемого случайного эксперимента, т. е. для полного опи- описания вероятностного пространства (или, что то же, для исчерпывающего задания интересующей нас случайной ве- величины), недостаточно задать лишь пространство элемен- элементарных событий Q (и тем самым описать множество теоре- теоретически возможных значений анализируемой случайной ве- величины). К этому необходимо добавить также: в дискретном случае — правило сопоставления с каждым возможным значением X? случайной величины | вероятности его появ- появления pi =P{l=Xi}=P{(x)i}; в непрерывном случае — правило сопоставления с каждой измеримой1 областью ДХ возможных значений случайной величины | вероятности р(&Х)=Р{?, ? АХ} события, заключающегося в том, что в случайном эксперименте реализуется одно из возможных значений, принадлежащих заданной области ДХ. Это пра- правило, позволяющее устанавливать соответствия вида: «,-,,=/> {5 = *•,}; ^ 1 Область возможных значений ДХ называется измеримой, если элементарные исходы о, соответствующие значениям, вошед- вошедшим в эту область, образуют измеримое подмножество или событие, т. е. подмножество, принадлежащей системе С всех возможных со- событий (см. п. 4.2.1 и 4.2.2). 109
принято называть законом распределения вероятностей ис- исследуемой случайной величины ?. Прозрачное пояснение такой терминологии мы получаем в рамках дискретного вероятностного пространства, поскольку в этом случае речь идет о правиле распределения суммарной единичной вероятности (т. е. вероятности достоверного события) меж- между отдельными возможностями X/ A=1, 2> ...). Очевидно, задание закона распределения вероятностей, т. е. соответствий типа E.2), может осуществляться с по- помощью таблиц и графиков (только в дискретном случае), а также с помощью функций и алгоритмически (об основных формах задания законов распределения и примерах их мо- модельной, т. е. аналитической, записи см. гл. 6). Приведем примеры табличного и графического задания законов распределения вероятностей. Тщательный статистический анализ засоренности пар- партий дефектными изделиями (пример 4.5) позволил постро- построить следующее распределение вероятностей для случайной величины ?, выражающей число дефектных изделий, обна- обнаруженных при контроле партии, состоящей из N—30 изде- изделий, случайно отобранных из продукции массового произ- производства (табл. 5.2): Таблица 5.2 i 1000-ре 1 0 42 2 1 141 3 2 228 4 3 236 5 4 177 6 5 102 7 6 47 8 7 18 9 8 6 10 9 1 и 10 0 12 11 0 ... ... 31 30 0 Значения вероятностей, приведенные в табл. 5.2, даны с точностью до третьего десятичного знака, поэтому то, что суммирование представленных в таблице вероятностей дает 0,998 (вместо единицы), легко объяснимо: недостающие 0,002 как-то «размазаны» между возможными значениями 10, 11, ..., 30, но на каждое отдельное возможное значение прихо- приходится вероятность, меньшая 0,0005. Тот же закон распределения может быть представлен графически (рис. 5.2). Геометрическое изображение закона распределения ве- вероятностей дискретной случайной величины часто называ- называют полигоном распределения или полигоном частот. ПО
В качестве другого примера рассмотрим фрагмент табл. 5.1, выбрав из одиннадцати представленных в ней компо- компонент только две: качество жилищных условий ?<3> и средне- среднедушевой доход ?F>. Еще более упростим рассматриваемую схему, перейдя от по существу непрерывной случайной ве- величины |F> к ее дискретному аналогу ?<G>, отказываясь от точного знания среднедушевого дохода каждой семьи и ограничиваясь лишь тремя возможными градациями: семья имеет низкий доход (градация л^6*0), средний доход (града- (градация х[6H) и высокий доход (градация Ъ66^0). С учетом четы- четырех градаций качества жилищных условий: л;^3*0 — качество низкое; л^3>° —качество удовлетворительное; л^3>° — качест- качество хорошее и х[3)О — качество очень хорошее, и проведен- проведенного вероятностно-статистического анализа получаем сле- следующий закон распределения вероятностей двумерной слу- случайной величины AF>, ?C>) (данные условные): \ i 1 2 3 xi P-J 1 x i 0,06 0,05 0,01 0,12 2 0,03 0,25 0,02 0,30 3 43)O 0,01 0,35 0,07 0,43 Табл 4 4 о,оэ 0,05 0,10 0,15 ица 5.3 0,10 0,70 0,20 1,00 Соответствующий двумерный полигон распределения представлен на рис. 5.3. Закон распределения вероятностей многомерной слу- случайной величины называют многомерным или совместным. Если каждая из компонент Qk) (k~l, 2, ..., р\ см. E.1)) анализируемого многомерного признака ? дискретна и имеет конечное число mh всех возможных значений, то, очевидно, общее число возможных «значений» случайного вектора i будет т=т^т2 ... тр. В этом случае вместо общей индек- 111
0,25 0,20 0J5 0,10 0,05 О 2 3 4 „о 3 8 9 10 11 ... ~о Рис. 5.2. Графическое задание закона распределения веро- вероятностей для числа дефектных изделий, обнаруженных в наугад извлеченной партии, состоящей из 30 изделий мас- массового производства Рис. 5.З. Полигон двумерного распреде- распределения семей по качеству жилищных ус- условий (?<3)) и по уровню дохода (|<б>) 112
сации всех возможных многомерных значений Х?у- A=1, 2, ..., т) удобнее пользоваться р-мерной индексацией вида // ... q, где первый индекс i определяет номер возможного зна- значения по первой компоненте, второй индекс у — по второй компоненте и т. д. Тогда Xfjm..q будет означать возможное значение ?, полученное сочетанием i-ro возможного значе- значения компоненты ?A>, /-го возможного значения компоненты ?B> и т. д. q-ro возможного значения компоненты ?(/7), а вероятности Р{1= Xfj...q} удобно обозначать рц...д- Таким образом, в табл. 5.3 представлены вероятности При анализе многомерных (совместных) распределений часто бывает необходимо получить закон распределения лишь для какой-то части компонент анализируемого век- векторного признака. Так, многомерная случайная величина ?, рассмотренная в табл. 5.1, естественно разбивается на два подвектора: ?i=(?A\ ...., ?F>), описывающий социально- демографические и экономическую характеристики семьи, и 62==EG). •••» ?A1))» описывающий структуру семейного потребления. Частный (маржинальный) закон распределения подвек- подвектора ?i анализируемой многомерной случайной величины ?=(?i, ?2) описывает распределение вероятностей приэна- ка ix в ситуации, когда на значения другой части компонент ?2 не накладывается никаких условий. В дискретном слу- случае соответствующие вероятности определяются по форму- формулам: рч = Р{^ = Х^}=2Р{^ = ^Г' K = Xf\ E.3') i где Xf-1H и Х/2)о —i-e и /-е возмол<ные значения векторных признаков соответственно ^ и |2. Формулы E.3) и E.3') получаются как непосредствен- непосредственные следствия теоремы сложения вероятностей D.9"), ес- если принять во внимание следующие очевидные связи меж- между интересующими нас событиями: VB) 0 i 13
В рассматриваемом примере (см. табл. 5.3) частные рас- распределения Pi. =P{%^)=xt{*)Q} и />./=/>{?<3>=*K)в} под- подсчитаны по формулам E.3) и E.3') и задают соответственно распределение семей отдельно по качеству жилищных уело-- вий и по уровню дохода (они приведены соответственно в последней строке и в последнем столбце табл. 5.3). Условный закон распределения подвектора ?х анализи- анализируемой многомерной случайной величины ?=(?i, ?2) ПРИ ус- условии, что значение другого подвектора ?2 зафиксировано на уровне Лу2)о, вычисляется по формуле Аналогично Формулы E.4) и E.4') получаются как простые след- следствия теоремы умножения вероятностей D.11). Так, например, если нас интересует условное распреде- распределение группы семей с высоким доходом по качеству жилищ, ных условий, т. е. распределение р.} С46)О)= Р{?C> = =Х/3)О|1 (} ных табл. 5.3 дают: у =Х/3)О|1F) =а:(з6)°}, то вычисления по E.4) на основе дан- данб 53 Р « 114
что означает, в частности, что из всей совокупности семей с высоким доходом 5 % проживает в плохих жилищных ус- условиях, 10 % — в удовлетворительных, 35 % — в хоро- хороших и 50 % — в очень хороших. 5.4.2. Генеральная совокупность и выборка из нее. Итак, закономерности, которым подчиняется исследуемая слу- случайная величина, физически полностью обусловливаются реальным комплексом условий ее наблюдения (или экспе- эксперимента), а математически задаются соответствующим ве- вероятностным пространством {Q, С, Р), или, что то же, со- соответствующим законом распределения вероятностей. Од- Однако при проведении статистических исследований несколь- несколько более удобной оказывается другая терминология, свя- связанная с понятием генеральной совокупности. Генеральной совокупностью называют совокупность всех мыслимых наблюдений (или всех мысленно возможных объек- объектов интересующего нас типа, с которых «снимаются» на- наблюдения), которые могли бы быть произведены при данном реальном комплексе условий. Поскольку в определении речь идет о всех мысленно возможных наблюдениях (или объек- объектах), то понятие генеральной совокупности есть понятие условно-математическое, абстрактное и его не следует сме- смешивать с реальными совокупностями, подлежащими стати- стическому исследованию. Так, обследовав даже все пред- предприятия подотрасли с точки зрения регистрации значений характеризующих их технико-экономических показателей, мы можем рассматривать обследованную совокупность лишь как представителя гипотетически возможной более широкой совокупности предприятий, которые могли бы функциони- функционировать в рамках того же самого реального комплекса ус- условий г. В практической работе удобнее выбор связывать с объек- объектами наблюдения, чем с характеристиками этих объектов. Мы отбираем для изучения машины, геологические пробы, людей, но не значения характеристик машин, проб, людей. С другой стороны, в математической теории объекты и со- совокупность их характеристик не различаются и двойствен- двойственность введенного определения исчезает. 1 Следует, отличать также совокупность всех- мыслимых наблю- наблюдений от множества всех мыслимых (или теоретически возможных) значений исследуемой случайной величины 5г-; наблюдений, вообще говоря, «больше», поскольку каждому фиксированному возможному значению X может соответствовать несколько или даже бесчислен- бесчисленное множество мыслимых наблюдений. 115
Как видим, математическое понятие «генеральная сово- совокупность» физически полностью обусловливается, так же как и понятия «вероятностное пространство», «случайная ве- величина» и «закон распределения вероятностей», соответ- соответствующим реальным комплексом условий, а потому все эти четыре* математических понятия можно считать в опреде- определенном смысле синонимами. Генеральная совокупность на- называется конечной или бесконечной в зависимости от того, конечна или бесконечна совокупность всех мыслимых наблюдений. Из определения следует, что непрерывные генеральные совокупности (состоящие из наблюдений признаков непре- непрерывной природы) всегда бесконечны. Дискретные же гене- генеральные совокупности могут быть как бесконечными, так и конечными. Скажем, если анализируется партия из N изделий на сортность (см. пример в п. 4.1.3), когда каждое изделие может быть отнесено к одному из четырех сортов, исследуемой случайной величиной ? является номер сорта случайно извлеченного из партии изделия, а множество возможных значений случайной величины состоит соответ- соответственно из четырех точек A, 2, 3 и 4)* то, очевидно, генераль- генеральная совокупность будет конечной (всего N мыслимых на- наблюдений). Понятие бесконечной генеральной совокупности есть математическая абстракция, как и представление о том, что измерение случайной зеличины можно повторить беско- бесконечное число раз. Приближенно бесконечную генеральную совокупность можно истолковывать как предельный слу- случай конечной, когда число объектов, порождаемых данным реальным комплексом условий, неограниченно возрастает. Так, если в только что приведенном примере вместо партий изделий рассматривать непрерывное массовое производ- производство тех же изделий, то мы и придем к понятию бесконечной генеральной совокупности. Практически же такое видоизме- видоизменение равносильно требованию Af->oo. Выборка из данной генеральной совокупности — это ре- результаты ограниченного ряда наблюдений Хъ Х2, ..., Хп случайной величины ?. Выборку можно рассматривать как некий эмпирический аналог генеральной совокупности, то, с чем мы чаще всего на практике имеем дело, поскольку обследование всей генеральной совокупности бывает либо слишком трудоемко (в случае больших N), либо принци- принципиально невозможно (в случае бесконечных генеральных 116
совокупностей). Число п наблюдений, образующих выбор- выборку, называют объемом выборки. Если объем выборки п велик (п>50) и при этом мы имеем дело с одномерной непрерывной величиной (или с одномер- одномерной дискретной, число возможных значений которой дос- достаточно велико, скажем больше 10), то часто удобнее, с точки зрения упрощения дальнейшей статистической обра- обработки результатов наблюдений, перейти к так называемым «группированным» выборочным данным. Этот переход осу- осуществляется обычно следующим образом: а) отмечаются наименьшее л:т1п (п) и наибольшее *max(/i) значения в выборке; б) весь обследованный диапазон lxmin(n), *шах(л)] раз- разбивается на определенное число 5 равных интервалов груп- группирования; при этом количество интервалов s не должно быть меньше 8—10 и больше 20—25: выбор количества ин- интервалов существенно зависит от объема выборки п\ для примерной ориентации в выборе 5 можно пользоваться при- приближенной формулой которую следует воспринимать скорее как оценку снизу для s (особенно при больших п)\ в) отмечаются крайние точки каждого из интервалов A» ciy c2, -..,csb порядке возрастания, а также их середины v0 v0 v0. *М > ^2» • • • > **s » г) подсчитываются числа выборочных данных, попавших в каждый из интервалов: vlf v2, ..., vs (очевидно, V!+v2+ + :..+vs=n); выборочные данные, попавшие на границы интервалов, либо равномерно распределяются по двум со- соседним интервалам, либо условливаются относить их толь- только к какому-либо одному из них, например к левому. В зависимости от конкретного содержания задачи в данную схему группирования могут быть внесены некото- некоторые видоизменения (например, в некоторых случаях целе- целесообразно отказаться от требования равной длины интер- интервалов группирования). Во всех дальнейших рассуждениях, использующих вы- выборочные данные, будем исходить из только что описанной системы обозначений. Напомним, что сущность статистических методов состо- состоит в том, чтобы по некоторой части генеральной совокуп- совокупности (т.е. по выборке) выносить суждения о ее свойствах в целом. 117
Один из важнейших вопросов, от успешного решения которого зависит достоверность получаемых в результате статистической обработки данных выводов, является воп- вопрос репрезентативности выборки, т.е. вопрос полноты и адекватности представления ею интересующих нас свойств анализируемой генеральной совокупности. В практиче- практической работе одна и та же группа объектов, взятых для изу- изучения, может рассматриваться как выборка из разных ге- генеральных совокупностей. Так, группу семей, наудачу отобранных из кооперативных домов одной из жилищно- эксплуатационных контор (ЖЭК) одного из районов горо- города для подробного социологического обследования, можно рассматривать и как выборку из генеральной совокупности семей (с кооперативной формой жилья) данной ЖЭК, и как выборку из генеральной совокупности семей данного рай- района, и как выборку из генеральной совокупности всех се- семей города, и, наконец, как выборку из генеральной сово- совокупности всех семей города, проживающих в кооператив- кооперативных домах. Содержательная интерпретация результатов апробации существенно зависит от того, представителем ка- какой генеральной совокупности мы рассматриваем отобран- отобранную группу семей, для какой генеральной совокупности эту выборку можно считать представительной (репрезен- (репрезентативной). Ответ на этот вопрос зависит от многих факторов. В приведенном выше примере, в частности,—от наличия или отсутствия специального (быть может, скрытого) фак- фактора, определяющего принадлежность семьи к данной ЖЭК или району в целом (таким фактором может быть, например, среднедушевой доход семьи, географическое расположение района в городе, «возраст» района и т. п.). 5.4.3. Основные способы организации выборки. При оценке репрезентативности выборки учитывается и то, как выбор- выборка получена, и то, насколько распределение в выборке су- существенных для изучаемого вопроса показателей характер- характерно для анализируемой генеральной совокупности в целом. Первый путь повышения степени репрезентативности — достижение полностью случайного отбора объектов из ге- генеральной совокупности — часто бывает труден в органи- организационном плане. Кроме того, сочетание регулярного и случайного выбора иногда оказывается более эффективным. В любом случае способ сбора исходных данных должен тща- тщательно планироваться и его необходимо полностью описы- описывать в отчетах о выполненной работе. 118
Использование дли оценки репрезентативности распре- распределений основных показателей в выборке и в генеральной совокупности также имеет свои трудности, одни из которых носят чисто статистический характер — недостаточный объем (число отобранных для использования объектов) вы- выборки, неразработанность методов сравнения многомерных распределений и т.п., а другие — содержательный, ведь заранее неизвестно, распределение каких показателей сле- следует сравнивать при доказательстве репрезентативности. Опишем кратко основные способы организации выборки. Простой случайный отбор — способ извлечения п объектов из конечной генеральной совокупности N объек- объектов, при котором каждая из С? возможных выборок имеет равную вероятность быть отобранной. На практике часто нумеруют объекты в генеральной совокупности числами от 1 до N и затем, используя таблицы случайных чисел или какой-либо другой метод, обеспечивающий равную вероят- вероятность выбора объекта (например, урну с N шарами, зану- занумерованными цифрами от 1 до N), отбирают один за другим п объектов. Полученная таким способом выборка назы- называется случайной. Простой отбор с помощью регулярной, но несуществен- несущественной для изучаемого вопроса процедуры часто применяется вместо случайного отбора. В медицинской практике отбор может проводиться по дню недели, что удобно с органи- организационной точки зрения; в социологических обследовани- обследованиях — по букве, с которой начинается фамилия индиви- индивидуума, проживающего в домах данной жилищно-эксплуа- тационной конторы, и т. п. Получаемые таким образом выборки часто называют механическими. Стратифицированный (расслоенный) отбор заключа- заключается в том, что исходная генеральная совокупность объема N подразделяется на подсовокупности объема Л^, N2, ...,#/*. При этом подсовокупности не содержат общих объектов и вместе исчерпывают всю генеральную совокупность, так что N1 + N2+... + NR = N. Подсовокупности называют стратами или слоями. Когда слои определены, из каж- каждого слоя извлекается простая случайная выборка объема соответственно nly n2, ...,/z#. Для того чтобы можно было полностью воспользоваться выгодами от расслоения, зна- значения NtIN должны быть известны. Стратифицированный отбор применяется, когда слои однородны в том смысле, что входящие в них объекты имеют близкие характеристики (средние значения которых могут быть оценены по малым 119
выборкам); либо когда нецелесообразно изучать генераль- генеральную совокупность с равной тщательностью во всех слоях; либо по организационным причинам, когда методы прове- проведения отбора в слоях должны быть разными. Выборки, по- полученные таким способом, называются стратифицирован- стратифицированными или расслоенными (иногда — районированными). Частным случаем стратифицированного отбора являет- является способ организации выборки, при-котором страты (слои) генеральной совокупности выделены по косвенному призна- признаку, как-то связанному с изучаемым. Так, изучая средний душевой доход семей, для получения стратифицированных выборок можно предварительйо разбить исследуемую сово- совокупность семей на группы, однородные по какой-либо из социально-экономических характеристик главы семьи (нап- (например, по заработку). В подобных случаях говорят о ти- типическом способе отбора и соответственно о типических вы- выборках. Методы серийного отбора (и соответственно серийные вы- выборки) используются тогда, когда удобнее назначать к об- обследованию не отдельные элементы генеральной совокуп- совокупности, а целые «блоки» или серии таких элементов. Так, при проведении выборочных обследований населения способ территориально-административного деления страны и ха- характер ведения соответствующей документации обусловли- обусловливают большее удобство сплошного способа обследования целых территориальных единиц (домов, кварталов), а не отдельных семей. Подобный способ отбора часто называют также гнездовым. Комбинированный {ступенчатый) отбор сочетает в се- себе сразу несколько из вышеописанных способов отбора, образующих различные ступени (или фазы) выборочного обследования. Так, при выборочном обследовании условий жизни и структуры семей какого-либо города на первой ступени можно с помощью случайного отбора назначить городские районы, в которых будет производиться это об- обследование, затем способом механического отбора опреде- определить подлежащие обследованию жилищно-эксплуатацион- ные конторы (ЖЭКи), а внутри ЖЭКов сделать серийную (гнездовую) выборку домов. Подробное описание теории и методов выборочных об- обследований дано, например, в [43]. Последовательный (активный) выбор. При анализе фи- физико-химических и технологических процессов часто ис- исследуется зависимость некоторого результирующего пока- 120
зателя («отклика») у от набора управляющих показателей X = (хп\ ..., х<р>У\ которая описывается формулой вида y = f(X9 где / — известная функция своих аргументов, 9 — неиз- неизвестная точка в пространстве параметров («состояние при- природы»), I — случайная ошибка со средним, равным нулю. Требуется по возможно меньшему числу опытов в точках Х1э Х2» •••> Хп, принадлежащих «разрешенной» области значений Rp, оценить «состояние природы» 0. Опыты можно ставить в любой из точек X, принадлежащих «разрешенной» области Rp значений управляющих показателей. В этих условиях после каждой серии опытов в результате обра- обработки полученных данных рассчитывается следующая «наи- «наиболее информативная» относительно 0 серия точек X, в них проводятся новые опыты и отыскиваются новая оценка 0 и новая серия точек X, в которых целесообразно проводить опыты, и т. д. Чтобы подчеркнуть, что точки X отбираются не наудачу, такие эксперименты часто называют активными. О задачах такого типа см. подробнее, например, в [81]. 5.5. Способы задания закона распределения: функция распределения, функция плотности и их выборочные (эмпирические аналоги) 5.5.1. Функция распределения вероятностей одномерной случайной величины. Как установлено выше (см. § 5.4), всякая генеральная совокупность (случайная величина) определяется своим законом распределения вероятностей р(кХ). Поскольку интересующие нас области АХ могут быть в общем случае подмножествами общей природы, то возникает вопрос: каковы те способы задания числовых функций /?, определенных на подмножествах ДХ, которые были бы достаточно удобны в плане конструктивном, прак- практическом? Оказывается, для описания распределений одномерных случайных величин ? достаточно задать способ вычисления вероятностей /?(ДХ)=/){| ? ДХ} лишь для подмножеств ДХ некоторого специального вида, а именно лишь для полу- полузамкнутых слева интервалов вида 121
где xmin — минимально возможное значение исследуемой случайной величины | (оно может быть равно и —сю), а х — любое «текущее» (т. е. задаваемое нами) возможное значе- значение I. Вероятность же p(lxwin, х)) = Р{1<.х} однозначно определяется заданием правого конца интервала, т. е. чис- числа ху а потому может интерпретироваться как обычная функция от одного числового аргумента х. Функцией распределения вероятностей (накопленной час- частотой) Fi{x) случайной величины g называют функцию, ста- ставящую в соответствие любому заданному значению х вели- величину вероятности события {?<#}, т. е. Рх(х) = Р{\<х). E.5) В дальнейшем, если это не будет вызывать недоразу- недоразумении, будем опускать нижний индекс % у функции F и на- называть ее просто «функцией распределения». Рассмотрим поведение функции распределения. Во- первых, отметим, что в дискретном случае событие А(х) = = {1<Сх} состоит из всех элементарных событий о);={?= =x°i}, таких, что х? <Сх. Поэтому в соответствии с опреде- определением вероятности составного события (см. п. 4.1.3) имеем }= 2 Р$ = х%}= 2 Pi E.5') (суммирование в правых частях E.5') проводится по всем ieM i, для которых х?<Сх), Из E.5') видно, что значения функции ^(л:) изменяются при увеличении аргумента х скачшми> а именно при «пе- «переползании» величины х через очередное возможное значе- значение x°i функция F(x) скачком увеличивает свое значение на величину pi =P{i=x°i}. Несколько иную картину мы будем наблюдать, анали- анализируя поведение функции распределения F%(x) в случае непрерывного исследуемого признака |. Подавляющее боль- большинство представляющих практический интерес непрерыв- непрерывных случайных величин обладают тем свойством, что для любого отрезка Да: вероятности Р{%?Ах} стремятся к ну- нулю по мере стремления к нулю длины этого отрезка, и, сле- следовательно, вероятности принятия отдельных возможных значений х равны нулю (конкретный пример такого рода приведен в п. 4.2.2 в задаче с экспертным оцениванием ве- вероятности интересующего нас события). Нетрудно понять, что для таких случайных величин их функции распреде- 122
ления оказываются непрерывными. На рис. 5.4, а—г пред- представлены графики функций распределения случайных ве- величин, рассмотренных соответственно в примерах 4.1, 4.2, 4.5 (с учетом табл. 5.2) и в примере с экспертным оце- оцениванием вероятности интересующего нас события (п. 4.2.2). 1,0 0,5 \F(X) i I I I I , X 1.0 5/6 */б 3/6 2/6 1/6 Fix) I I J x 1 a 0 1 1,0 0,5 f(x) 01 23456739 10 б г Рис. 5.4. Графики функций распределения для: а — оцифрованного результата подбрасывания монеты (нуль соответствует аверсу, еди- единица— реверсу); б — числа очков, выпадающих при бросании пра- правильной игральной кости; в — числа дефектных изделий, обнаружен- обнаруженных в наугад выбранной партии, состоящей из 30 изделий (см. табл. 5.2); г — экспертной оценки вероятности интересующего нас события (при полной некомпетентности экспертов), см. примеры п. 2.1.3 и 4.2.2 F Из определения функции распределения непосредствен- непосредственно вытекают следующие ее основные свойства: а) Fi(x) — неубывающая функция аргумента х; б) /ч(*)=0 для всех л:< *mln; 123
в) Fi(x) = l для всех х>хтах (хт1п и л\пах — соот- соответственно минимальное и максимальное возможные зна- значения исследуемой случайной величщсы ?); г) Р {а^ ?,<ib} = Fi(b) — Fi(a) для любых заданных значений а и b (для доказательства последнего свойства следует воспользоваться теоремой сложения вероятностей (см. п. 4.1.3), а также тем обстоятельством, что события i4 = {g<a}, ?={?<&} и С={а< 1<Ь} связаны между со- собой соотношением В=А+-С). В практике статистической обработки данных точный вид функции распределения, как правило, бывает неизвес- неизвестен. Эмпирическим (или выборочным, т. е. построенным по выборке объема п) аналогом теоретической функции распре- распределения F(x) является функция F^^(x)t определяемая соот- соотношениями: F(«) (Х) = JLgl E.6) или, в случае группированных данных (см. п. 5.4.2), Vi + V8+...+V, Я«, (х) = ?-, E.6') где v(x) — число наблюденных значений исследуемой слу- случайной величины в выборке хи х2, ..., хП9 меньших х\ vt — число наблюденных значений в выборке, попавших в i'-й интервал группирования, a ix — номер самого правого из интервалов группирования, правый конец которых не пре- превосходит х. Из определения эмпирической функции распре- распределения непосредственно следует объяснение часто исполь- используемого ее другого названия — «накопленная частота». Свойство статистической устойчивости относительных час- частот (см. § 7.2) является основанием использования F(n>(x) в качестве приближенного значения неизвестной теорети- теоретической функции распределения F(x) и того факта, что по ме- мере роста объема выборки (т. е. при п-^оо) ошибка этой ап- аппроксимации неограниченно убывает. Такая оценка F^(x) значений F(x), т. е. оценка, не связанная с предваритель- предварительным выбором общего модельного вида этой функции1, называется непараметрической. Более подробные сведения, относящиеся к статистическому изучению эмпирических функций распределения, даны в § 10.3 и 11.1. 1 Сведения о наиболее распространенных в практике статисти- статистических исследований моделях функций распределения см. в гл. 6. 124
5.5.2. Функция плотности вероятности одномерной случай- случайной величины. В классе таких непрерывных случайных величин, функции распределений которых всюду непрерыв- непрерывны и дифференцируемы (а, как уже отмечалось, этот класс охватывает подавляющее большинство представляющих практический интерес непрерывных случайных величин), другой удобной формой задания генеральной совокуп- совокупности (исследуемой случайной величины |) является функ- функция плотности вероятности /|(х), определяемая как пре- предел Д->0 А —* - s , E.7) или, что то же, /EW=F\U). E.7') т. е. ft(x) — это производная функции распределения 6() в точке х. Из эквивалентных соотношений E.7) и E.7'), оп- определяющих функцию плотности fi(x)> вытекают непосред- непосредственно следующие ее свойства: а) fi(xO^ 0, так как функция Fi(x) неубывающая; б) Р{Е? \.х> x+&)}~h (*)*Л Для малых отрезков А (сле- (следует из сравнения первых двух членов тождества E.7)); в) Р {5 6l*min» *)}=*Ч(*)= J/(«)dw Д^я любых х\ г) P{?6l*o, xQ+^) = Fl{x0+K)^Fl (xo)=af1(u)du для любых Xq и А; X д) />{l€lxmln, хтях}}= J X ртах хт\п Прокомментируем некоторые из этих свойств функции плотности. , * Свойство б) позволяет пояснить вероятностный смысл функции плотности. Так, предположив для определенности область возможных значений [л:^, #тах] исследуемой слу- случайной величины I конечной и разбив ее на одинаковые и достаточно мелкие интервалы группирования А с центрами и т. д., мы можем поставить в соответствие аждому 125
1-му Интервалу вероятность осуществления событий приближенно равную в соответствии со свойством б) вели- величине /6(#°)'Д. Таким образом, по своему смыслу значения функции ft(x) пропорциональны вероятности того, что ис- исследуемая случайная величина примет зна- значение где-то в непо- непосредственной близо- близости от точки х. Этот факт, в частности, мо- может служить основа- основанием к тому, что дис- а а+6 а+26 а*3б х кретным аналогом функции плотности в случае дискретной случайной величины является полигон час- частот, т. е. последова- последовательность точек с ко- координатами (#?, Pi). Отсюда же следует, что наиболее вероят- Рис. 5.5. Функции (а) распределения Ным {модальным) зна- а~36 а-26 а-6 чением исследуемой непрерывной случай- Fl норм (*; я; °2) и №) плотности /?норм(*; а; а?) нормального закона ной величины являет- является такое ее возможное значение *mod, в котором функ- функция плотности достигает своего максимума, т. е. fz(xmod) •¦= f() Геометрическая интерпретация свойства г) состоит в том, что вероятность события {? ? [х0, хо+А)} оказывается (при любых заданных х0 и Д) равной площади «столбика» под кривой плотности y=ft(x) с основанием [х0, хо+&). На рис. 5.5 показаны функции распределения F^q м (х\ а, а2) и плотности /^но м (х\ а, а2) одного из распространен- распространенных законов распределения — нормального (подробнее см. § 6.1 и 7.3). Заштрихованная площадь на рис. 5.5, б дает геометрически наглядное представление о величине вероят- вероятности P{l?lxOf xo+A)}. 126
Располагая лишь выборочными данными (выборкой) хъ х2, ..., хп% мы должны суметь составить по ним прибли- приближенное представление о неизвестной теоретической функ- функции плотности f%(x). Если нас интересует малый отрезок [х, л:+Д) и мы подсчитали, что в этот отрезок попало п^(х)~ =v(;c+A)—v(x) наблюдений нашей выборки, то, очевидно, выборочным аналогом величины будет величина v (х + Д) v (%) Очевидно, значение }{п) (х) характеризует плотность наблюдений "исследуемой случайной величины в окрест- окрестности точки х, т. е. относительную частоту этих наблюдений, приходящуюся на единицу длины интервала ее возможных значений. Поэтому функцию }{п) (*), определенную соот- соотношением E.8), называют эмпирической (или выборочной) функцией плотности. Это же обстоятельство может служить основанием выбора такой терминологии и применительно к теоретической плотности /|(лс), так как в соответствии со свойством статистической устойчивости частот (см. § 7.2) эти две характеристики неограниченно сближаются в про- процессе увеличения объема выборки* п (я->оо) и сужения дли- длины интервала Д (Д-> 0). Для построения эмпирической функции плотности J{{\x) на всей области ее определения (т. е. для всех возможных значений исследуемой величины) используют предвари- предварительно сгруппированные данные (см. п. 5.4.2) и полагают где k(x) — порядковый номер того интервала группирова- группирования, который накрывает точку х, a vk{x) и Да.(А), как и прежде, число наблюдений, попавших в этот интервал, и его длина соответственно. Геометрическое изображение таким образом определенной эмпирической функции плотности носит название гистограммы. Пример 5.2. Объект (совокупность единиц) обсле- обследования — 995 телефонных абонентов города Буффало, 127
штат Нью-Йорк. Цель обследования — фиксация обще- общего числа | телефонных разговоров за год на каждом або- абоненте. Таким образом, в данном случае /г=995, a xt — чис- число телефонных разговоров в году на i-м обследованном або- абоненте1. В табл. 5.4 приведены выборочные данные, сгруппи- Таблица 5.4 Номер интервала группирования 1 2 3 4 5 6 7 8 9 10 И Число наблюде- наблюдений, попавших в данный интервал 0 1 9 19 38 50 95 85 115 132 144 Номер интервала группирования 12 13 14 15 16 17 18 19 20 21 22 Число наблюде- наблюдений, попавших в данный интервал 116 79 54 31 11 5 6 2 1 1 1 рованные методом, описанным в п. 5.4.2. Были выбраны число интервалов группирования ?=22 и соответственно длина интервала группирования А=50. Графики соответ- соответствующих эмпирической (гистограмма) и теоретической плотностей —/(?П) (х) и /^(x) приведены на рис. 5.6 (для по- построения теоретической кривой плотности в нормальную модель распределения, см. § 6.1, подставлялись вместо неизвестных параметров—среднего а и дисперсии а2 — зна- значения соответствующих выборочных характеристик а и а2, см. § 10.4). Более подробные сведения о методах построения эмпи- эмпирических функций плотности и их статистического анализа приводятся в§ 10.3, 10.4, 11.1 и 11.2. 1 См.: Introduction to Frequency Curves.-г-Бюл. Амер. телеф. и телегр. компании, 1953, № 1, сер. стат. Это как раз тот случай, ког- когда при статистической обработке дискретного по своей природе слу- случайного признака (каковым, бесспорно, является число телефонных разговоров за год на абоненте) удобно использовать технику ста- статистического анализа непрерывных случайных величин (переход к группированным данным, построение эмпирической плотности и т. д.), о чем говорится в § 5.2. 128
0,002694- 5.5.3. Многомерные функции распределения и плотности. Статистическая независимость случайных величин. Из вы- вышеизложенного ясно, что вопрос об удобных способах за- задания закона распределения случайной величины особенно актуален в непрерывном случае: для описания «поведения» дискретной случай- случайной величины | уни- универсальной и однов- одновременно конструктив- конструктивной формой (при «не слишком большом» числе возможных зна- значений исследуемой случайной величины) является полигон час- частот, т. е. форма, при которой каждому воз- возможному значению х* ставится в соответст- соответствие вероятность его Рис- 5-6- Гистограмма fn(x) и соответ- « /ч„ „ ствующим образом подобранная нор- °_сЕн Pi = мальная функ«ия плотаости /м. м- — Р\ъ—X>i). рактеризующие распределение числа те- Позтому сосредото- лефонных разговоров в год, приходя- чим теперь свое вни- щихся на одного абонента мание на непрерыв- непрерывном случае. Специфика многомерных схем в этом случае за- заключается в том, что в отличие от одномерного случая мно- многомерная функция распределения 0,001796- 0,000898 - E.9) перестает быть практически полезной формой задания изу- изучаемого закона распределения. Многомерными аналогами конечных и полубесконечных отрезков (которые можно получить суммированием и пе- пересечением полубесконечных отрезков вида [—оо, л:)) яв- являются конечные и полубесконечные гиперпараллелепипе- гиперпараллелепипеды. Именно для многомерных областей такого типа и опре- определяет функция распределения E.9) правило вычисления вероятностей. Однако, если в одномерном случае этого было достаточно для «работы» в соответствующем вероят- вероятностном пространстве, то в многомерном случае нас это уже не удовлетворяет. В частности, знание одной лишь формы E.9) оказывается недостаточным для конструктивного ре- 5 Зак. Ю35 129
шения такой важной для статистических приложений зада- задачи, какой является задача описания закона распределения интересующих нас преобразований от исходных случайных величин 1^\ |<2>, ..., ?<р> (общий подход к решению этой проблемы описан в § 7.4). Поэтому для описания закона распределения многомер- многомерной случайной величины ?= (?<*>, ?<2>, ..., ?</») в непрерыв- непрерывном случае используют .функцию плотности вероятности /$(л;A>, *<2>, ..., л;<р>), которую можно определять и отправ- отправляясь от функции распределения E.9), и независимо от нее ь. f (*<¦> х& *<*>) = yf(x(>) Х(Р)| E 10) j-^-k , * , ..., л; ;— дхA) дхB) ...дх(Р) ' к ¦' Или плотность вероятности /?-мерной случайной величины Б=(?A\ ..-, 1(р)) — это такая функция /(л:A), ..., *(р)) от р переменных, что для любого (измеримого ) подмножества А возможных значений ? вероятность события {? ? Л } мо- может быть вычислена с помощью соотношения Р{5 6 А} = J /^ (*<*>, ..., *<">) djt*1)... (LtW. E.10') где интегрирование ведется по данной области А в соответ- соответствующем /7-мерном пространстве возможных значений g (т. е. знак интеграла в E.10') определяет операцию /7-крат- /7-кратного интегрирования). Вероятностный смысл функции плотности тот же, что и в одномерном случае: вероятность осуществления зна- значения случайной величины ?, лежащего в некоторой ма- малой окрестности ДХ= {хA)< |<1)<л:<1)+Аа:<1>, х<2>< ?<2>< < *<а>+Дх<2>, ..., *<р>< ?<р) <л:<р) +Да:<р)} точки Х= = (л;<1>, л:B>, ..., л:(р)),. пропорциональна значению fi(X) функции плотности в этой точке и равна, в частности, «эле- «элементу вероятности» Д(Х)ДХ, т. е. E.11) 1 Так же как и в одномерном случае, наше описание относится лишь к таким непрерывным случайным величинам, функция распре- распределения E.9) которых непрерывна по всем переменным внутри об- области возможных значений и имеет в этой области по всем своим пе- переменным непрерывную частную производную (в этом случае гово- говорят, что f^, (xi1) х(р>) абсолютно непрерывна). Как отмечалось, такие случайные величины составляют подавляющее большинство в классе ситуаций, представляющих практический интерес. 130
Эмпирические (выборочные) аналоги Р{{\Х) и f{f\X) теоретических функций распределения и плотности Р$(Х) и fi(X) строятся по выборочным данным (наблюдениям) Хи Х2, ..., Хп исследуемой случайной величины ? так же, как и в одномерном случае; E.13) где Х=(х<1\ ..., хЩ — интересующее нас значение много- многомерного признака, v<"> (X) — число выборочных данных Хи компоненты которых удовлетворяют одновременно, усло- условиям: / vB) ^ B) . [х™<х('\ k(X) — номер гиперпараллелепипеда группирования, со- содержащего в себе точку Xf a vh — число выборочных дан- данных (из общего числа я), попавших в k-и гиперпараллелепи- гиперпараллелепипед группирования г. Функции, определяемые соотношениями E.9), а также E.10) или E.10"), называют соответственно совместной функ- функцией распределения и совместной плотностью вероятности многомерного случайного признака ?=(?A\ ..., |(р)). Для описания частного закона распределения вероят- вероятностей некоторой части компонент ti— (?A\ ?B)> ..., ?(s))> 5</7, вектора I (см. п. 5.4.1) используются частная (мар- (маржинальная) функция распределения Z7^ (л;A\ ..., a:(s>) и 1 О другом подходе к построению эмпирических плотностей, не требующем предварительного перехода к группированным данным, см. в п. 10.3.2. Переход к группированным данным в многомерном случае производится аналогично одномерному (см. п. 5.4.2). Одна- Однако, для того чтобы этот переход был практически содержательным, требуется, как легко понять, существенно больший объем выбороч- выборочных данных. При определении требований к объему выборки сле- следует исходить из того, что мы будем иметь всего тхт2 ... тр гипер- гиперпараллелепипедов группирования, где mq — число интервалов груп- группирования, получившихся при квантовании диапазона изменения имеющихся наблюдений по q-й компоненте, т. е. по признаку x^'iq** = 1. 2 р). 5* ' 131
частная {маржинальная) плотность вероятности, задавае- задаваемые соотношениями: oo oo); E.14) E.15) где под J понимается интегрирование по всему множест- ву возможных знач ений случайной величины ?¦<*> (ср. с E.3) и E.3')). Эмпирическая (выборочная) реализация формул E.14) и E.15) очень проста: мы оставляем для статистической об- обработки по формулам E.12) и E.13) лишь часть координат, а именно 5-мерные точки (х{*\ х(?\ ..., х\^)у /=1, 2, ..., п, не обращая внимания на наблюденные значения остальных координат — x(s+1>, ..., х^К Геометрически это означает, что мы проектируем наши «трчки-наблюдения» из исход- исходного /7-мерного пространства (лг*1), х&\ ..., х^) на простран- пространство, «натянутое» на первые 5 координат (так, при /7=2 эта процедура сводится к проектированию п «точек-наблюде- «точек-наблюдений» плоскости х*1) 0л:<2> на ось 0 л:<1)). Условная плотность вероятности fi(x^\ x<2\ ..., *<s) 1^2 = С) случайного подвектора 1г=A{1\ ?<2>, ..., ?<s>) при условии, что значения другого подвектора ?2 = (|(s+1), |(s+2>, ..., Цр)) зафиксированы на уровне С = (c<s+1), c(s+2\ ..., с(^>) (т.е. при условии ^s-f1) = c^s+1\ ..., |(р)-== с(р)), определяется аналогично условным вероятностям /7/. и /7./ (см. E.4) и E.4')) с помощью теоремы умножения ве- вероятностей (см. п. 4.1.3, D.1Г)): c(P)) ' (O.lb) Аналогично fu(x<*+lK .!., jd") 16<'> =??(*), .... J ft(cW, ..., ds), х(*+0, .... x(P)) ^(c(') cO) 132
В знаменателях правых частей E.16) и E.16') стоят част- частные (маржинальные) плотности подвектороа — соответ- соответственно 12 = (^+х), ..., ?<р>) и ^=(^), ..., g<s>), вычислен- вычисленные в соответствии с E.15). Обратим внимание на существенное отличие частной (маржинальной) плотности /^ (*<*>, ..., х^) от условной /^(j^V, ..., *(s) |?(s+i)=c(s+i)f ..., g(p) =c(P))f хотя обе они описывают распределение одного и того же набора призна- Рис. 5.7. Поверхность двумерной плотности ве- вероятности (нормальный закон с «отсеченными» краями) ков |A>, ..., |(s>: первая плотность не зависит от того, ка- какие значения имеют остальные компоненты анализируемой многомерной случайной величины, а ее эмпирический ана- аналог строится по всем укороченным наблюдениям {Хг =(л^1\ x{f\ ..., x{^)}i==l—, в то время как условная плотность су- существенно зависит от того, на каких именно уровнях c<s+1\ ..., с(р> зафиксированы значения остальных компо- компонент ?(s+1\ ..., ?(р\ а ее эмпирический аналог строится лишь по тем наблюдениям выборки Xl9 X2. ..., Хп> послед- последние р—s координат которых хотя бы приближенно удовлет- удовлетворяют условию {?(s+1> =?<s+1>f ..., g(p) =с^)}. На рис. 5.7 изображен график функции плотности дву- двумерного закона распределения вероятностей — двумерного нормального закона (его описание см. в § 6.1). Там же изо- 133
бражены сечения поверхности двумерной плотности плос- плоскостями л:^> =?, т. е. плоскостями, перпендикулярными оси О х&>. В сечении получаются с точностью до нормирующего множителя одномерные законы (один из них указан стрел- стрелкой), характеризующие условное распределение компоненты ?B) при условии %1г)=с. Прямая О Л прослеживает харак- характер изменения наиболее вероятного значения случайной величины ?B> в условно^ распределении этого признака (при условии ^^=с) в зависимости от зафиксированного значения с. Статистическая независимость случайных величин glt ?2» •••» 5ft (где признаки ^ могут быть дискретными и непре- непрерывными, скалярными и векторными) вводится на базе по- понятия независимости системы событий (см. D.12) и D.13)). Случайные величины ?1э ?2> •••> Ik называют статистически независимыми, если для любых (измеримых) областей их возможных значений, соответственно Аи Л2, ..., Ah, имеют место соотношения E.17) В терминах вероятностей pitit...ik (для дискретных случайных величин) и плотностей /gle.f|ft (Х<х>, ..., Х<*>) (для непрерывных случайных величин) условие E.17) мо- может быть записано в виде: E.17') E.17") 5.6. Основные числовые характеристики случайных величин и их выборочные аналоги Итак, исчерпывающие сведения об интересующем нас законе распределения вероятностей можно задать и в виде полигона вероятностей (в дискретном случае), и в виде функции рас- распределения (в общем случае), и в виде функции плотности (в непрерывном случае). Однако при практическом изуче- изучении генеральной совокупности зачастую оказывается доста- 134
точной гораздо более скромная информация в виде несколь- нескольких числовых характеристик распределения, позволяющих оценить такие его свойства, как центр группирования зна- значений исследуемой случайной величины, мера их случай- случайного рассеивания, степень взаимозависимости различных компонент изучаемого многомерного признака. Так, напри- например, при изучении закона распределения заработной платы работников интересуются в первую очередь средней зара- заработной платой и одной из мер ее случайного рассеивания — коэффициентом дифференциации или дисперсией. К тому же подавляющее большинство используемых в статистических приложениях модельных законов распределения (биноми- (биномиальный, пуассоновский, Парето, нормальный, логарифми- логарифмически-нормальный, экспоненциальный и др., см. гл. 6) мо- может быть однозначно восстановлено по одной-двум своим числовым характеристикам, например по среднему значе- значению и дисперсии. 5.6.1. Понятие о математических ожиданиях и моментах. Будем рассматривать различные функции g(Q от исследуе- исследуемой случайной величины ?=?(со) (если ? — одномерная случайная величина, то возможен, естественно, частный случай g(g)=?). Очевидно, и функция g(?(co)) будет случай- случайной величиной, так как она тоже является в конечном счете функцией, определенной на множестве элементарных со- событий со. Результат операции «осреднения» случайной ве- величины g(?), произведенной с учетом «взвешивания», от- отвечающего заданному распределению вероятностей случай- случайной величины |, носит название математического ожида- ожидания g(l) и обозначается Eg(Q г. Итак: если | — непрерывная (может быть, и многомерная) случайная величина с плотностью (совместной) вероятности (Х то E.18) (интегрирование производится по области всех возможных значений признака ?); 1 Если g(l)—векторная функция, т. е. g(l)=(g^HlI ?B)(?)> .... g(?)), то речь идет о покомпонентном взвешенном осреднении* Ра- Ранее в большинстве отечественных публикаций математическое ожи- ожидание чаще обозначалось с помощью буквы М. Общепринятая симво- символика с использованием буквы Е объясняется тем, что с этой буквы начинается латинское написание слова «ожидание». 135
если | — дискретная случайная величина с возможными значениями X" и вероятностями их осуществления pt (i— = 1, 2, ...), то i Эмпирическим (m. e. построенным по выборке Хъ X2t ..., Xn) аналогом математического ожидания функции g(?) будет величинаг п *? = 4" ?]*<*'>• E.19) 1 = 1 В основе объяснения всякого перехода от теоретиче- теоретических характеристик, т. е. характеристик, вычисляемых на базе точного знания исследуемого закона распределения, к эмпирическим (или выборочным) лежит интерпретация вы- выборки как уменьшенной модели генеральной совокупности, в которой возможными значениями являются наблюденные (т. е. практически реализованные) значения Хъ Х2, ..., Хп9 а в качестве вероятностей их осуществления берутся соот- соответствующие относительные частоты их появления в выбор- выборке, т. е. величины, равные 1/п. Важную роль в теории и практике статистических ис- исследований играют функции g(Q некоторого специального вида: gk(l) = 6* и $(?)=(?-Eg)* (k = 1, 2, ...). Матема- Математические ожидания функции gk(l) и g°k(l) носят названия соответственно начальных и центральных моментов k-го порядка случайной величины ?. Итак, если для некоторого целого положительного чис- числа k функция xk интегрируема с весами f^(x) (суммируема с весами pt) на области возможных значений ?, то величина If xk f^ (x) dx, если ? непрерывна; 2 (•*') Рь если 6 дискретна ' i называется начальным моментом ft-го порядка или просто k-м моментом этого распределения или соответствующей ему 1 Здесь и далее черта сверху, как правило (если специально не оговорено противное), будет обозначать операцию обычного «ариф- «арифметического» усреднения (по всем наблюденным в выборке значе- значениям) стоящей под ней величины. 136
случайной величины |, и мы говорим, что момент конечен или существует. Очевидно, что если существует момент тк> то существует и центральный момент f (х — mx)k f (x) dx, если Е не- непрерывна; E.21) 3 (x°i—mx)k Pi, если ? диск- дискретна. Раскрывая (х—тг)к под знаком интеграла (или суммы), легко установить связи, существующие между централь- центральными и начальными моментами: <=С; т^ = тг — /те2,; E.22) т^ = т3 — 3mlm2 -|~ 2/ti3,; (ограничиваемся здесь первыми четырьмя моментами). Эмпирические аналоги начальных и центральных момен- моментов или выборочные моменты легко получаются из E.20) и E.21) с учетом E.19): п *,; E.20') т\ (п.) = — Л; (Xi — /и, (п))к. E.21') 7=1 Наконец, при исследовании поведения многомерных слу- случайных величин ?=(?A\ ?B), ..., ?(р>) важную роль играют /?2-мерные векторные функции g"(l)=(^A)(i)» •••» g(p2) (^))э компонентами которых являются всевозможные попарные произведения центрированных компонент вектора 5» т. е. элементы матрицы где 137
Математические ожидания элементов qtj принято назы- называть смешанными вторыми моментами или ковариациями многомерного признака ?, а матрицу /7 составленную из ковариаций covF<'>, ?<'*>) = E<7i/ = E {($<'*> -т[1)){Кп-т\!))}=*И, E.24) ковариационной матрицей признака ?. По определению, все ковариационные матрицы являются симметричными (т. е. всегда atj = а л); нетрудно показать, что они являются и неотрицательно-определенными. Дейст- Действительно, беря последовательность любых действительных чисел /lt /St ..., /р и учитывая тот факт, что неотрицательная р величина ЕB^A(/)—т<р)J может быть представлена как 1 р р квадратичная форма 2 2 °и * h * (/» мы получаем доказатель- /=1 /==1 ство неотрицательной определенности матрицы 2. 5.6.2. Характеристики центра группирования значений слу- случайной величины. В качестве характеристик центра груп- группирования значений исследуемого признака в статистиче- статистической практике используют несколько видов средних зна- значений, моду и медиану. Опишем эти числовые характерис- характеристики. Теоретическое среднее Е| исследуемой случайной вели- величины I определяется как ее первый начальный момент, или, что то же, как ее математическое ожидание (см. E.18) и E.20)): (tx-ft(x)dx, если I непрерывна; ii о t E-25) V^-^ если ? дискретна. г If Среднее значение Eg является, пожалуй, основной и наиболее употребительной характеристикой центра груп- группирования значений случайной величины. В статистической практике, т. е. при подсчете ее приближенного значения на основе выборочных данных хъ х2, ..., хПУ она заменяется сво- своим эмпирическим аналогом — так называемой выборочной средней (см. E.20')): 138
Непосредственно из определения среднего значения лег- легко получить следующие его основные свойства: а) Ес=с, где с — любая неслучайная величина; б) E(cQ=c.El; в) E(li+h+... + lN)=E%1+Et2+... + EtN; г) E(g-ri)=Eg- Ei], если случайные величины ? и т] ста- статистически взаимно независимы (см. п. 5.5.3). Среднее геометрическое (теоретическое) значение G(Q случайной величины ? определяется (для признаков с поло- положительными возможными значениями) с помощью формулы где е«2,71828 ...—основание, a In — обозначение нату- натурального логарифма. Его эмпирический аналог — средняя геометрическая Gn(?) подсчитывается по выборочным дан- данным х19 х2, ..., хп по формуле Можно показать, что геометрическое среднее значение G(|) и его эмпирический аналог Gn(|) всегда меньше соот- соответственно теоретического среднего Eg и выборочной сред- средней х(п). Геометрическое среднее находит применение при рас- расчетах темпов изменения величин и, в частности, в тех слу- случаях, когда имеют дело с величиной, изменения которой происходят приблизительно в прямо пропорциональной за- зависимости с достигнутым к этому моменту уровнем самой величины (например, численность населения), или же ког- когда имеют дело со средней из отношений, например, при расчетах «индексов цен». Среднее гармоническое (теоретическое) значение Н(%) случайной величины | задается (лишь для признаков с по- положительными возможными значениями) соотношением ЯE) = - * Е(т- Его эмпирическое значение #Л(|) вычисляется на осно- основании выборочных данных хг, х2, ..., хп по формуле 139
Гармоническое среднее значение ряда чисел всегда мень- меньше геометрического среднего значения тех же чисел, а тем более — их среднего арифметического. Область его при- применения весьма ограничена. В экономике, в частности, пользуются иногда гармоническим средним при анализе средних норм времени, а также в некоторых видах индекс- индексных расчетов. Модальное значение (или просто мода) xmod случайной величины определяется как такое возможное значение ис- исследуемого признака, при котором значение плотности fi(x) (в непрерывном случае) или вероятности Р{1=х} (в дис- дискретном случае) достигает своего максимума. Таким обра- образом, мода представляет собой как бы наиболее часто осу- осуществляющееся (в экспериментах или наблюдениях), наи- наиболее типичное значение случайной величины, т. е. значе- значение, которое действительно явлется «модным»1. Практи- Практическое отыскание приближенного значения моды по выбо- выборочным данным требует построения и анализа соответствую- соответствующих гистограмм и полигонов частот (см. § 5.5, 10.3). Медиана xmed исследуемого признака определяется как его средневероятное значение, т. е. такое значение, которое обладает следующим свойством: вероятность того, что ана- анализируемая случайная величина окажется больше xmed> равна вероятности того, что она окажется меньше xmed. Для обладающих непрерывной плотностью непрерывных случайных величин, очевидно, и медиану можно определить как такое значение xmed на оси возможных значений (оси абсцисс), при котором пря- прямая, параллельная оси ординат и проходящая через точку xmed> делит площадь под кривой плотности на две равные части (рис. 5.8). В некоторых случаях дискретных распре- распределений может не существовать величины, точно удов- удовлетворяющей сформулированному требованию. Поэтому для дискретных случайных величин медиану можно определить 1 Мода является естественной характеристикой центра группи- группирования значений случайной величины лишь в случаях так назы- называемых одновершинных (одномодальных) распределений. Многовер- Многовершинные (многомодальные) распределения свидетельствуют о су- существенной неоднородности исследуемой совокупности. Их изуче- изучение представляет интерес в первую очередь с точки зрения задач классификации объектов и наблюдений. 140
как любое число xmed, лежащее „ мгжду двумя соседними возможными значениями х?{О>г,\ и хДо.5) + ь такими, что ^е (Л*°* (о. 5)) <С 0.5, но /^ (л;0,- (о 5)+1) >0,5. При определении приближенного (выборочного) значе- значения медианы xmed(n) имеющиеся в нашем распоряжении наблюдения хъ х2,.., хп располагают в ряд в порядке воз- возрастания (в так называемый вариационный ряд, см. п. 5.6.4) и определяют в качестве xmed(n) средний (т. е. у(я+1)-й) член этого ряда, если п нечетно, и любое значение между двумя средними (т. е. между -^л-м и (-т?П+ + 1)-м) членами этого ряда, если п четно. В случае симметрич- и* ной плотности (или по- полигона распределения) среднее значение Е?, мо- Да *mOd и медиана xmeb совпадают между собой. Для асимметричных рас- распределений это не так (см. рис. 5.8). 5.6.3. Характеристики степени рассеяния случайной вели- величины. Каждая из описанных ниже характеристик степени рассеяния — дисперсия, среднеквадратическое отклонение и коэффициент вариации — дает представление о том, как сильно могут отклоняться от своего центра группиро- группирования значения исследуемой случайной величины. Если говорить о форме кривой плотности, то эти характеристики описывают степень ее «размазанности» по всему диапазону изменения |: чем больше величина каждой из этих харак- характеристик, тем более «размазанным» выглядит соответствую- соответствующее распределение (рис. 5.9.). Дисперсия Щ случайной величины | определяется как ее второй центральный момент, т. е. Л (х — EgI/ (x) dx, если I непрерывна; х 2 (^.0)— Е?J'Л-, если ? дискретна. i 141 zmed Рис. 5.8. Характер расположения мо- моды Xmod, медианы Xmed и среднего значения Е g для некоторой асим- асимметричной плотности распределения
Эмпирическую {выборочную) дисперсию s\n) можно рас- рассматривать Как приближенное значение теоретической дис- дисперсии: s* (а) = mf (я) = -L .2 (xt - х)\ -В -5 -4 -3 '2 -/ 0 1 2 3 4 5 6 Рис. 5.9. График плотностей (нормальных законов распределения) с различными зна- значениями дисперсии и с одинаковым (нуле- (нулевым) средним значением Из определения дисперсии (и из свойств математиче- математического ожидания) можно вывести следующие ее свойства: а) Dc = 0 (с — некоторая неслучайная величина); б) D(d)=c*-Dt; в) D {а + Ь%) = Ь2 • VI (а и Ь — некоторые неслучайные величины); г) D F + *ч)=== D? + Ол!— в случае, когда ? и tj яв- являются взаимно независимыми. Часто для обозначения дисперсии используют грече- греческую букву «сигма» (в квадрате), т. е. записывают о\ =D?. Среднеквадратическое отклонение СГ| получается из дис- дисперсии извлечением квадратного корня о$ = l^Di. Оно ис- используется наряду с дисперсией для характеристики степени рассеивания случайной величины и оказывается в ряде случаев более удобным и естественным, в первую очередь из-за своей однородности (в смысле единиц измерения) с различными характеристиками центра группирования. 142
Выборочное (эмпирическое) значение среднеквадратиче- среднеквадратического отклонения имеет вид1 Коэффициент вапиации V% используется в тех случаях, когда степень рассеивания естественнее описывать некото- некоторой относительной характеристикой в сопоставлении со средним. В частности, ve=^.10070=^.10070, т. е. коэффициент вариации — это отношение (в процентах) среднеквадратического отклонения к соответствующему ма- математическому ожиданию. Из определения ясно, что V^ — величина безразмерная. Соответствующая эмпирическая ха- характеристика подсчитывается по формуле 5.6.4. Вариационный ряд и порядковые статистики. Выше отмечалось, что выборка, т. е. совокупность имеющихся у нас наблюденных значений хъ хъ ..., хп исследуемой слу- случайной величины ?, является той исходной информацией, той статистической базой, на основании которой исследова- исследователь строит свои выводы о свойствах изучаемой генераль- генеральной совокупности в целом и, в частности, составляет пред- представление о функции и полигоне распределения или плот- плотности анализируемого закона распределения вероятностей (см. § 5.5, 10.3 и 10.4). Оказывается, и каждый член выборки в отдельности может доставлять важную информацию о ха- характере анализируемого закона распределения, если наблюдения предварительно расположить в порядке воз- возрастания. Так, например: наименьшее и наибольшее вы- 1 Несколько более точными приближениями к теоретическим значениям дисперсии и среднеквадратического отклонения, особен- особенно при небольших объемах выборки п, являются «подправленные» выражения соответственно s2 и s, вычисленные по формулам (см. § 8.6): 143
борочные значения (соответственно xmln (n) и хт&х(п)) дают приближенное представление о диапазоне изменения воз- возможных значений исследуемого признака, а их разность *тах (п)~xmin(^) — ° степени случайного разброса его на- наблюдаемых значений; средний член упорядоченного ряда наблюдений —медиана xmed(n) характеризует центр группи- группирования наблюдений изучаемой случайной величины и т. д. Все это говорит о целесообразности специального рассмот- рассмотрения ряда наблюдений, расположенных в порядке возрас- возрастания. Итак, пусть хъ х2, ..., хп — выборка, состоящая из п независимых1 наблюдений исследуемой случайной величины ? с непрерывной функцией распределения Р$(х) и плот- плотностью вероятности f$(x) (ограничимся здесь, как обычно, рассмотрением только таких непрерывных случайных ве- величин). 1 Поясним, что понимается под взаимно независимыми наблю- наблюдениями, опираясь на введенное выше понятие статистической не- независимости случайных величин. Интерпретация выборки и соот- соответствующих ее наблюдений и у нас, и в других изданиях допускает в зависимости от контекста два различных варианта, причем при изложении, как правило, специально не уточняется, о каком имен- именно варианте интерпретации идет речь, и в целях упрощения обозна- обозначений не делается различий и в обозначениях. До сих пор нам было достаточно первого (практического) варианта интерпретации, при котором под х1у х2 хп понимаются фактически наблюденные в данном конкретном эксперименте значения исследуемой случайной величины, т. е. конкретные числа. Теперь же применительно и к исходному и к упорядоченному рядам наблюдений мы будем иногда пользоваться и вторым (гипотетическим) вариантом их интерпре- интерпретации, при котором под xlt x2f .... хп понимается лишь обозначение тех п значений, которые мы могли бы получить, проводя п-кратный эксперимент (наблюдение) в реальном комплексе условий, индуци- индуцирующем генеральную совокупность анализируемой случайной ве- величины 5. Очевидно, при такой интерпретации последовательность символов (хх, x2 хп) должна пониматься как некоторая п-мерная, случайная величина, каждая из компонент которой х% имеет один и тот же частный закон распределения /^ (х). В соответствии с при- принятой ранее договоренностью для обозначения таким образом по- понимаемых выборочных данных мы должны были бы использовать .и другую символику, например (gW, gB), ..., ?(")), где /¦(,•)(*)=/.(*)• Такой, более аккуратный способ обозначений (который мы, однако, в дальнейшем использовать не будем) позволяет строго определить понятие взаимной независимости наблюдений выборки: гипотетич- гипотетичные выборочные наблюдения 5*1), ?B), ..., ?(") случайной величины ? называются взаимно независимыми, если их я-мерная совместная плотность вероятности //wi) ^n)\ (xi> •••> хп) может быть пред- представлена в виде /F(i)>ieif6(n)) 144
Если все xt расположены в порядке возрастания и чле- члены такой возрастающей последовательности обозначены xUh т. е. то каждый из X(j) называется порядковой статистикой, а соответствующая возрастающая последовательность — вариационным рядом случайной величины ?. Аппарат порядковых статистик широко используется как в теории и практике статистического оценивания неиз- неизвестных параметров и статистических критериев (особенно при построении устойчивых и «свободных от распределения* оценок и критериев, см. п. 8.6.4, § 10.3, а также § 11.1— 11.3), так и непосредственно при моделировании реальных систем и процессов (см., например, [21, [3]). Однако при ис- исследовании качества оценок, критериев и моделей, получен- полученных с использованием порядковых статистик, необходимо иметь представление об их поведении при возможных по- повторениях выборки, т. е. надо уметь описывать законы их распределения вероятностей в схеме гипотетического ва- рианта интерпретации выборки, когда члены вариационного ряда X(j) интерпретируются не как конкретные числовые значения, а как случайные величины. И хотя члены вариа- вариационного ряда E.27) в отличие от членов исходной выборки уже не являются взаимно независимыми (по причине своей предварительной упорядоченности) и соответственно их частные распределения уже не являются одинаковыми, опи- описываемыми, в частности, одной и той же плотностью Д (л:), однако они легко могут быть описаны в терминах этой плотности и соответствующей функции распределения А (х). Несложно подсчитать, в частности, что плотность рас- распределения fX(j) (x) /-й порядковой статистики x(j) вариаци- вариационного ряда E.27) определяется соотношением fX{j) (х) = п • С1-1/', С*) [1 - ^ (л:)Г' ^ (х) E.28) (при доказательстве этого факта используется модель поли- полиномиального закона распределения, см. §6.1). Исчерпывающие сведения о поведении членов вариа- вариационного ряда доставляются, естественно, совместным за- законом распределения /c*(I)i xB)f .... ,<„>>(*, у, ..., *)• Вы- Вычисление такой плотности (в терминах }%(х) и F^x)) не вы- 145
зьтаат принципиальных трудностей, однако реализуема в виде весьма громоздких выражений, сводящихся, вообще говоря, к квадратурам некоторых интегралов. Приведем здесь лишь несколько примеров распределений порядковых статистик и функций от них, являющихся наиболее акту- актуальными с прикладной точки зрения. Совместное распределение \-й и q-й порядковых статистик описывается плотностью - F% (x)]'-l-* [1 - F, (у)Г-% (х) f% (у), E.29) где коэффициент /С(/, qt n) определяется по формуле К(/• * п) = (/_1)!(^_,)!(п_?)!. E.29') В частности, при /=1 и q=n, т. е. для совместного рас- распределения крайних членов вариационного ряда *A) и Х(п), получаем плотность вероятности E.29") Одной из важных функций от порядковых статистик, встречающейся во многих приложениях, является размах Ап = Х(п)—лгA), используемый, в частности, наряду с рас- рассмотренными в п. 5.6.3 выборочной дисперсией, среднеквад- ратическим отклонением и коэффициентом вариации в ка- качестве эмпирической характеристики степени случайного рассеивания исследуемого признака. Формула E.29") по- позволяет получить функцию распределения размаха F,n (z) -п J [F^ (x+z)- ^ (х)]п-% (х) dx, E.30) интегрирование в правой части E.30) производится по об- области всех возможных значений случайной величины |. Приведем пример использования аппарата порядковых статистик при вероятностно-статистическом моделировашш экономических явлений. В работе 13] этот аппарат исполь- используется для построения прогностических моделей распреде- распределения семей и их членов по величине среднедушевого до- дохода и • в частности, для модельного исследования структуры и характера взаимосвязей между распределениями: по за- заработной плате всех работников (/^ (х)), только первых, 146
только вторых и т. д. работников в семьях, содержащих п работающих членов (fXU) (*), /= 1, 2, ..., п (здесь x(j) — /-я по величине заработная плата в семье); и семей по сред- среднедушевому доходу rj(/4(jt)) Описанные в [3] модели поз- позволили, в частности, весьма точно восстанавливать распре- распределения fx(J) (х) и /ч (а:) по известному распределению fl (х) всех работников по размерам их заработной платы, а также вычислять различные характеристики статистиче- статистической связи между заработной платой /-го работника в семье x(n-j+i) и среднедушевым доходом rj, с одной стороны, и зара- заработной платой наугад выбранного работника ? — с другой, не проводя специальных статистических обследований в ге- генеральных совокупностях X(n_j+1) (/-х работников) и ц (семей). Так, например, в пределах совокупности семей, имеющих двух работающих членов, функции плотности для распре- распределений заработной платы отдельно первых и отдельно вторых работников могут быть восстановлены по закону распределения заработной платы всех работников с по- помощью формул: 5.6.5. Квантили и процентные точки распределения. При использовании различных методов математической стати- статистики, особенно разнообразных статистических критериев (см. §9.1) и методов построения интервальных оценок неизвестных параметров (см. гл. 8), широко используются понятия ^-квантилей uq(F) и Q-процентных точек wQ(F) распределения F(x), Квантилью уровня q (или ^-квантилью) непрерывной случайной величины ?, обладающей непрерывной функцией распределения F(x)9 называется такое возможное значение uq(F) этой случайной величины, для которого вероятность события %><Zuq(F) равна заданной величине q, т. е. F(uq) = P$<uq}^q. E.31) Очевидно, чем больше заданное значение q@<Cq<l), тем больше будет и соответствующая величина квантили uq. Частным случаем квантили — 0,5-квантилью является характеристика центра группирования — медиана. Для всякой дискретной случайной величины функция распределения F$(x) с увеличением аргумента х меняется, 147
как мы видели, скачками, и, следовательно, существуют такие значения уровней q, для каждого из которых не найде- найдется возможного значения uqy точно удовлетворяющего урав- уравнению E.31). Поэтому в дискретном случае q-кваитилъ опре- определяется как любое число uq(F), лежащее между двумя возможными соседними значениями *,%> и */%>+!, та- кое, что F(x?(q))<q, но F(x?(qH1) > q. Эмпирическими аналогами теоретических квантилей, как легко понять, будут члены вариационного ряда (порядко- (порядковые статистики). Из их определения, в частности, следует что /-я порядковая статистика х^) является одновременно выборочной квантилью уровня (/—1)/я, поскольку относи- относительная частота (эмпирический аналог вероятности!) на- наблюдений выборки, меньших xU)t равна как раз дроби (Z-l)/n. Часто вместо понятия квантили используют тесно свя- связанное с ним понятие процентной точки. Под Q-процентной точкой @<Q<100) случайной величины I понимается такое ее возможное значение wq> для которого вероятность собы- события I^wq равна Q/100, т. е. Для дискретных случайных величин это определение корректируется аналогично тому, как это делалось при оп- определении квантилей. Из определения квантилей и процентных точек вытекает простое соотношение, их связывающее: uq = v>mb-q)- E.32) Для ряда наиболее часто встречающихся в статистиче- статистической практике законов распределения (см. гл. 6) составлены специальные таблицы квантилей и процентных точек. Оче- Очевидно, достаточно иметь только одну из таких таблиц, так как если, например, по таблицам процентных точек требуется найти 0,9-квантиль нормального распределения, то следует искать, в соответствии с E.32), 10-процентную точку того же распределения. Наглядное геометрическое представление о смысле вве- и,я денных понятий дает рис. 5.10. Здесь q — ) fi (x) dx\ —-оо оо щ= f h(x)dx; у = 148
Квантильные характеристики помимо своей основной ро- роли вспомогательного теоретического статистического инст- инструментария порой играют самостоятельную роль основных характеристик изучаемого закона распределения или содер- содержательно интерпретируемых параметров модели. Так, ши- широко распространенной характеристикой степени случай- случайного рассеяния при изучении законов распределения зара- заработной платы и доходов являются так называемые квантиль- квантильные (уровня q) коэф- коэффициенты дифферен- дифференциации Ка(я)> кото- которые определяются со- отношением ? ф @<<7<0,25) й/100 -з -? -; Рис. 5.10. Геометрическое пояснение смысла ^-квантили uq я Q %-ной точки wQ: случай стандартного нормального (наиболее распростра- распространенными среди них ЯВЛЯЮТСЯ децильные распределения, ?=0,25 (соответствен- коэффициенты диффе- но «0,25=— 0,675) и Q=5% (соответст- ренциации, когда по- венн0 ^sy. — 1»65) лагают ^=0,1). При анализе модельных законов распределения квантили и процентные точки используют также для обозначения практических границ диапазона изменения исследуемого признака: так, например, квантилями уровня 0,005 и 0,995 иногда определяют соответственно минимальный и макси- максимальный уровни заработной платы работников в соответст- соответствующей системе показателей. 5.6.6. Асимметрия и эксцесс. Обращаясь к формуле E.21), определяющей центральные моменты распределения, легко понять, что если плотность f^(x) (или последовательность вероятностей Р{1=х?}) симметрична относительно сред- среднего значения тх= Е? (т. е. f(mx—х) = f(mx+x)), то все не- нечетные центральные моменты (если они существуют) mBV+i равны нулю. Поэтому любой нечетный, не равный нулю, момент можно рассматривать как характеристику асиммет- асимметрии соответствующего распределения. Простейшая из этих характеристик mi0) и взята за основу вычисления так на- называемого коэффициента асимметрии рх — количественной 149
характеристики степени скошенности распределения о тез0> Pi = — = Нормировка с помощью деления т^0) на (т{20)J введена для того, чтобы эта характеристика не зависела от выбора физических единиц измерения исследуемой случайной вели- величины: формула E.33) определяет безразмерную характерис- характеристику степени скошенности распределения, инвариантную относительно физических единиц измерения ?. Таким образом, все симметричные распределения будут иметь нулевой коэффициент асимметрии (см. рис. 5.5, 5.6, 5.9, 5.10), в то время как распределения вероятностей с «длинной частью» кривой плотности, расположенной справа от ее вершины, характеризуются положительной асиммет- асимметрией (см. рио. 5.8), а распределения с «длинной частью» кривой плотности, расположенной слева от ее вершины, обладают отрицательной асимметрией. Соответствующая эмпирическая характеристика — выборочный коэффициент асимметрии $г(п) — подсчитывается с помощью второго и третьего центральных выборочных моментов, по формуле Поведение плотности (полигона) распределения в районе его модального значения обусловливает геометрическую форму соответствующей кривой в окрестности точки ее максимума, ее островершинность. Количественная харак- характеристика островершинности — эксцесс (или коэффициент эксцесса) р2 оказывается полезной характеристикой при ре- решении ряда задач, например при определении общего вида исследуемого распределения или при его аппроксимации с помощью некоторых специальных разложений (см., на- например, представление распределений с помощью рядов 150
Грама — Шарлье и Эдж- ворта в [48, с. 246 — 256]). Эта характеристи- характеристика задается с помощью соотношения «г з = -^L о -rniJ\2 E.34) Рис. 5.11. Примеры плотностей для Ниже МЫ увидим, ЧТО положительной, отрицательной и ну- СВОеобразным началом левой характеристик островершинно- отсчета в измерении сте- сти (эксцесса) пени островершинности служит нормальное (гауссовское) распределение, для кото- которого Рг^О- Как правило, распределения с более высокой и более острой вершиной кривой плотности (полигона) имеют положительный эксцесс, а с менее острой — отри- отрицательный (рис. 5. ИI. Соответствующая эмпирическая характеристика — вы- выборочный эксцесс подсчитывается по формуле mf(n) — 3= 3. E.34') 5.6.7. Основные характеристики многомерных распределе- распределений (ковариации, корреляции, обобщенная дисперсия и др.). Если при описании поведения одномерных и в ка- какой-то мере двумерных случайных величин исследователь еще имеет практически реализуемые возможности исполь- использования подходящих модельных законов распределения (см. гл. 6), то при исследовании признаков |=(|<1), ?<2>, .-., ?(р)) размерности большей, чем два (р>2), приходится ограничиваться лишь той информацией, которую ему до- 1 Правда, можно построить примеры, свидетельствующие о на- нарушении этой общей закономерности (см. [39]). 151
ставляет знание первых двух моментов1: вектором средних значений т О) т B) E.35) и матрицей ковариаций 2 = E.36) где средние значения т</> компонент ?(/> определяются в со- соответствии с формулой E.25) с использованием одномерных частных плотностей (полигонов) распределения случайных величин ?<*'>, а ковариаций ojft=E {(?</>—/я</>)(?(Л) — — /я<*>)} подсчитываются с использованием соответствующих двумерных частных плотностей (полигонов) распределения пары случайных величин (?</>, ?<*>). Эмпирическими аналогами вектора средних значений Mx и ковариационной матрицы 2» т. е. характеристиками, подсчитываемыми непосредственно по выборочным данным 1 Известны попытки введения и практического использования многомерных аналогов коэффициентов асимметрии и эксцесса. Так, например, у Мардиа (см.: М а г d i а К. V. Measures of multivariate skewness and kurtosis with application. — Biometrika, vol. 57, 1970) эти аналоги используются для исследования влияния отклонений анализируемого распределения от нормального закона на свойства статистики Тг Хотеллинга (см. § 11.2). Ю. Н. Тюриньш предложены другие варианты многомерных аналогов коэффициентов асимметрии и эксцесса, которые используются для статистической проверки многомерной нормальности анализируемой генеральной совокупно- совокупности (см: Теория вероятностей и ее применения. 1973, т. XVIII, №3). Однако использование моментов высоких (более чем второго) по- порядков пока не зарекомендовало себя эффективным, и тем более не- необходимым, инструментарием, а потому не относится к широкой ста- статистической практике обработки многомерных данных. 152
Xl9 X2, ..., Xn, являются соответственно вектор выборочных средних \ Х{п)=МАп) = хB) (п) [Х(Р)(П) и выборочная ковариационная матрица Su(n)sl2(n) . . ,stp(n) s2l(n)s22(n) . . .s2p{n) sPi(n)sp2(n) . . ,spp(n) E.35') E.36') где многомерное наблюдение Хг=(х$1\ xj2\ ..., xjp))f ком- компоненты выборочных средних x<fe> (n) подсчитываются по формуле E.25'), а элементы sjk (n) ковариационной матрицы S(n) определяются соотношениями Как и в одномерном случае, вектор средних значении является основной характеристикой центра группирования наблюдений исследуемого многомерного признака ? (в со- соответствующем /7-мерном пространстве ее возможных зна- значений). Матрица ковариаций S характеризует следующие свой- свойства исследуемого многомерного признака. 1. Степень случайного разброса отдельно по каждой ком- компоненте и в целом по многомерному признаку. Легко видеть, что диагональные элементы оп матрицы S определяют част- частные дисперсии компонент ?<*>, т. е. степень случайного разброса значений одномерной случайной величины ?(/>. Итак, Многомерным аналогом дисперсии является величина опре- определителя ковариационной матрицы, называемая обобщенной 153
дисперсией многомерного случайного признака I-1: Do65 = detB). E.37) Часто используется и другая характеристика степени случайного рассеяния значений многомерной случайной величины — так называемый след ковариационной матрицы 2, т. е. сумма ее диагональных элементов: Sp(S) = an+a22 + ... + app. E.38) Из неотрицательной определенности матрицы 2 (см. п. 5.6.1) и смысла диагональных элементов он следует, что величины, определенные соотношениями E.37) и E.38), всегда неотрицательны. Эмпирическими аналогами обобщенной дисперсии E.37) и следа матрицы 2 E.38) являются соответственно выбороч- выборочная обобщенная дисперсия Do6g = detS(Ai) E.37') и след выборочной ковариационной матрицы Sp (S (п)) = sn (п) + s22 (п) + ... + spp (n). E.38') Поясним геометрический смысл обобщенной дисперсии (см., например, [12, с. 231—235]). Применительно к теоре- теоретической обобщенной дисперсии можно сказать, что если, например, исследуемый многомерный признак подчинен нормальному закону распределения (см. гл. 6), то для лю- любого заданного уровня вероятности Ро объем области (ок- (окружающей центр группирования Мг), вероятность попада- попадания в которую значений анализируемой случайной величи- величины g равна Ро, пропорционален T/Do6 g (этот объем пропор- пропорционален также некоторому множителю, зависящему от размерности /?, и пропорционален, кроме того, некоторому числу, определяемому в зависимости от заданного уровня вероятности Ро). Можно дать также геометрическую интер- интерпретацию выборочной обобщенной дисперсии в р-мерном пространстве наблюдений Х19 ..., Хп. Для этого рассмотрим в этом пространстве всевозможные параллелепипеды, обра* зованные следующим образом. В качестве образующих ре- 1 Мы придерживаемся распространенных матричных обозна- обозначений: det (А) — определитель или детерминант (determinant, англ.) матрицы A; Sp (А) — след (spoor, англ.) матрицы А, 154
бер каждого параллелепипеда берутся всевозможные р век- векторов, одними концами которых являются р точек из числа Xlt ..., Хп, а другими концами — точка X. Оказывается, сумма квадратов объемов всех таких параллелепипедов бу- будет пропорциональна величине выборочной обобщенной дисперсии Do6 ? (с коэффициентом пропорциональности, равным \1(п—1)р). 2. Характер и структура статистических взаимосвя- взаимосвязей, существующих между компонентами анализируемого многомерного признака, также могут быть описаны с па- мощью ковариационной матрицы. Однако в этом случае удобнее перейти к определенным образом нормированной ковариационной матрице, называемой корреляционной, а именно к матрице E.39) где элементы rjk получаются из элементов Ojk с помощью нормировки rik= °ik .... E.40) Характеристики rjk называются коэффициентами корреля- корреляции между случайными величинами ?</> и ?(/г>, являются измерителями степени тесноты линейной статистической связи между этими признаками и обладают следующими свойствами: а) —l^r^^l, что следует непосредственно из не- неравенств ' б) максимальная степень тесноты связи соответствует значениям коэффициента корреляции, равным +1 или —1, и достигается либо при измерении связи признака с самим собой (тогда, очевидно, гл= 1), либо при наличии линейной функциональной связи между ?</) и ?<*>, т. е. в случае 155
!<•/> = 60 + feil(fe>, где b0 и Ьг — некоторые постоянные вели- величины (при этом если fci>0, то связь называется положитель- положительной, а если &i<0, то связь называется отрицательной); в) если случайные компоненты ?</> и ?<*> статистически независимы, то rjk = О (следует непосредственно из того факта, что для независимых случайных величин ?</> и ?<*) щи) . ?<*>) = (Е?</>) (Е?<«)). Обратное утверждение (из rift = 0 следует независимость ?0") и ?<*>) верно лишь для некоторых частных случаев (например, для нормально распределенных пар (l(i>, l(k))) и неверно в общем случае. Выводы 1. Случайная величина (случайный признак) определяет пе- перечень показателей — количественных, ординальных (по- (порядковых) или номинальных (классификационных), которые подлежат статистическому исследованию в ходе проводимых случайных экспериментов (наблюдений). 2. Возможные значения1 случайной величины определя- определяются природой и составом пространства элементарных со- событий Q: каждому элементарному исходу (о соответствует свое «возможное значение» х(<й) исследуемой случайной величины ?, поэтому последнюю можно определить как функцию ?=?((о), заданную на множестве элементарных событий. 3. Наблюденные значения Хъ Х2, ..., Хп случайной вели- величины — это практически осуществившиеся в п прове- проведенных экспериментах (или зарегистрированные в п на- наблюдениях) конкретные числовые, векторные или матрич- матричные значения исследуемого признака. Общее число наблю- наблюденных значений п может превышать, может быть равным или меньшим общего числа теоретически возможных зна- значений. 4. Закон распределения вероятностей исследуемой случай- случайной величины позволяет сопоставлять с любой измеримой областью АХ возможных значений вероятность р(&Х) со- события, заключающегося в том, что реализовавшееся в ре- результате случайного эксперимента (наблюдения) значение 1 Помимо числовой (скалярной) формы эти «возможные значе- значения» могут быть представлены и в векторной, и в матричной форме и, более того, могут быть определены в пространстве самой общей природы (в зависимости от сущности и целей исследуемого случай- случайного эксперимента). 156
данной случайной величины окажется принадлежащим этой области, т. е. 5. Для описания закона распределения вероятностей мно- многомерного признака ?=(?A\ ..., |(р)) могут, как и в одномер- одномерном случае, использоваться функция распределения Fi(xll\ ..., л:^))=Р{|<1)<^A) ,..., Ъ(р> < х<р)} и функция плотности /s (x<1), ..., *<p>) = d"F6 (х^\ ..., *рУIдхР\ ..., дхм. Однако в отличие от одномерного случая исчерпывающей формой задания многомерного закона распределения является только функция плотности вероятности. 6. Зная совместный закон распределения многомерной слу- случайной величины ?=(?A), ?B), ..., 1(р))У можно получить частный (маржинальный) закон распределения любого под- вектора 6г = F<4 6<Ч ..., lUk))9 l^tg<p, 1<^<р, а также условный закон распределения, описывающий распределение любого подвектора |lf когда все или какая-то часть осталь- остальных компонент исходного векторного признака фиксируют- фиксируются на заданных уровнях (см. E.15) и E.16)). 7. Если компоненты ?(х\ ?<2>, ..., ?<р> анализируемого слу- случайного признака Е—(?A\ ..., Ъ^р)) статистически незави- независимы, то многомерный закон распределения f^(x^\ ..., #<*>>) может быть описан р частными одномерными законами, так как в этом случае, по определению, 8. Понятие генеральной совокупности является удобным (для статистических приложений) синонимом понятий «ве- «вероятностное пространство», «случайная величина», «закон распределения вероятностей» и определяется как совокуп- совокупность всех мыслимых наблюдений, которые могли бы быть сделаны в данном реальном комплексе условий. 9. Выборка — это статистически обследованная часть гене- генеральной совокупности, по которой мы хотим судить об ин- интересующих нас свойствах генеральной совокупности в це- целом. Вопрос представительности (репрезентативности) вы- выборки с учетом обычной ограниченности времени и средств на ее получение требует от исследователя знания и исполь- использования различных специальных форм организации выбо- выборочных обследований. 10. При практическом изучении поведения исследуемого случайного признака ? зачастую оказывается достаточным 157
знания ограниченного набора его числовых характеристик: среднего значения Е?, дисперсии D?, коэффициентов асим- асимметрии и эксцесса фг и р2), а в многомерном случае — еще элементов Ojk ковариационной матрицы 2. 11. Для вычисления теоретических значений упомянутых характеристик необходимо знание плотности (или полиго- полигона) распределения анализируемого закона. Однако на прак- практике их заменяют эмпирическими (выборочными) аналогами, вычисляемыми только на основании имеющихся в нашем распоряжении выборочных данных Хъ Х2, ..., Хп. Объяс- Объяснением правомерности подобной приближенной замены яв- является интерпретация выборки как уменьшенной модели исследуемой генеральной совокупности, в которой наблю- наблюденные (т. е. практически реализованные) значения Xlf Х2, ..., Хп интерпретируются как возможные, а вероятности осуществления этих возможных значений принимаются рав- равными зарегистрированным относительным частотам их по- появления, т. е. 1/п. 12. Полезным приемом в исследовании свойств анализируе- анализируемой одномерной случайной величины является расположе- расположение имеющихся наблюдений хъ х2, ..., хп в порядке их воз- возрастания: *A), xBN, ...,х(п),такчто {*(t)}/=7"n — это те же са- самые наблюдения {#J/==- n только упорядоченные (т. е. хи)<хи+1) для всех /= 1, 2, ..., п— 1). Ряд {x(i)}iz==l- называют вариационным рядом, а его члены — порядковы- порядковыми статистиками. Они широко используются при построе- построении так называемых непараметрических оценок и непарамет- рических критериев (см. § 8.6, 10.4, 11.2, 11.3) 13. Следует иметь в виду, что, говоря о выборке (или о ва- вариационном ряде), в зависимости от контекста подразуме- подразумевают один из двух различных вариантов интерпретации этого понятия. В первом (практическом) варианте под Хъ Х2, ..., Хп понимают фактически наблюденные в данном конкрет- конкретном эксперименте значения исследуемой случайной величи- величины, т. е. конкретные числа или векторы. Во втором (гипо- (гипотетическом) варианте под Xi9 X2, ..., Хп понимают лишь обозначение тех п значений (чисел или векторов), которые могли бы быть получены при реализации /г-кратного экспе- эксперимента (наблюдения) в реальном комплексе условий, ин- индуцирующем исследуемую генеральную совокупность. В по- последнем случае сами Л"г и любые функции от них выступают уже не в качестве конкретных чисел или векторов, а в ка- качестве случайных величин. 158
Глава 6. модели законов распределения ВЕРОЯТНОСТЕЙ, НАИБОЛЕЕ РАСПРОСТРАНЕННЫЕ В ПРАКТИКЕ СТАТИСТИЧЕСКИХ ИССЛЕДОВАНИЙ Говоря о распространенности той или иной модели распре- распределения в практике статистических исследований, следует иметь в виду две возможные роли, которые эта модель мо- может играть. Первая из них заключается в адекватном опи- описании механизма исследуемого реального процесса, инду- индуцирующего подлежащую статистическому анализу гене- генеральную совокупность. В этом случае выбранная по тем или иным соображениям (или выведенная теоретически) модель описывает закон распределения вероятностей непо- непосредственно анализируемой и имеющей четкую физическую интерпретацию случайной величины (заработной платы ра- работника, дохода семьи, числа сбоев автоматической линии в единицу времени, числа дефектных изделий, обнаружен- обнаруженных в проконтролированной партии заданного объема, и т. д.)- Подходы к построению таких моделей, методы их анализа и обоснования относятся к области «реалистиче- «реалистического» (или содержательного) моделирования (см. гл. 3). Другая роль широко распространенных в статистиче- статистических исследованиях моделей — использование их как вспомо- вспомогательное техническое средство при реализации методов статистической обработки данных. С помощью моделей этого типа описываются распределения вероятностей некоторых вспомогательных функций от исследуемых случайных ве- величин, используемых для построения разного рода статис- статистических оценок и статистических критериев (о способах построения оценок и критериев см. § 8.1—8.6, 9.1—9.6). К распределениям этого типа относятся в первую очередь распределения «хи-квадрат», Стьюдента (/-распределение) и jF-распределение. Зтой условной классификации распределений мы и бу- будем придерживаться при изложении содержания данной главы. 6.1. Законы распределения, используемые для описания механизмов реальных процессов или систем 6Л.1. Распределения, возникающие при анализе последо- последовательности испытаний Бернулли: биномиальное и отри- отрицательное биномиальное. Широкий класс случайных ве- 159
личин, которые приходится изучать в практике статистиче- статистических исследований, индуцируется последовательностью не- независимых случайных экспериментов следующего типа: в результате реализации каждого случайного эксперимента (наблюдения) некоторое интересующее нас событие А может произойти (с некоторой вероятностью р) или не прои- произойти (соответственно с вероятностью q = 1 — р); при мно- многократном (m-кратном) повторении этого эксперимента ве- вероятность р осуществления события А остается одной и той же, а наблюдения, составляющие эту последовательность экспериментов, являются взаимно независимыми. Серию экспериментов подобного типа принято называть после- последовательностью испытаний Бернулли. Можно описать эту последовательность в терминах случайных величин, сопо- сопоставляя с 1-м по счету экспериментом данной последователь- последовательности случайную величину ( 1, если событие А произошло; ,~ - \ 0, если событие А не произошло. Тогда «бернуллиевость» последовательности ?х, |2, ..., ?т означает, что Р{Ъ1=\}=Р{12=1}=...=Р{1т=\}=р, при- причем случайные величины |1э |2, •••» ?т статистически неза- независимы (определение статистической независимости слу- случайных величин см. в п. 5.5.3). При определенных (как правило, приблизительно со- соблюдающихся на практике) условиях в схему испытаний Бернулли хорошо укладываются такие случайные экспе- эксперименты, как бросание монеты или игральной кости, про- проверка (по альтернативному признаку) изделий массовой продукции, обращение к «обслуживающему устройству» (с исходами «свободен — занят»), попытка выполнения не- некоторого задания (с' исходами «выполнено— не выполне- выполнено»), стрельба по цели (с исходами «попадание — промах») и т. п. «Единичное» испытание Бернулли можно интерпретиро- интерпретировать и как извлечение объекта из бесконечной генеральной совокупности, в которой доля р объектов обладает некото- некоторым интересующим нас свойством. Тогда интересующее нас событие А заключается в том, что при этом извлечении мы «вытащим» один из объектов, обладающих упомянутым свой- свойством. Биномиальный закон описывает распределение случайной величины vp(m)=?1+?2+...+Smf T- е- числа появления ин- интересующего нас события в последовательности из т не- 160
зависимых испытаний, когда вероятность появления этого события в одном испытании равна /?. Из определения биномиальной случайной величины сле- следует, что ее возможными значениями являются все целые неотрицательные числа от нуля до т. Для вывода вероятно- вероятностей P{vp(m)=x} (лг=О, 2, ..., т) рассмотрим внимательнее пространство элементарных событий, порожденное последо- последовательностью испытаний Бернулли. Очевидно, каждому элементарному событию (о соответствует последовательность из нулей и единиц длины т 8,D 8» К И- F.2) Разобьем эти последовательности на классы, включая в один (лг-й) класс все последовательности типа F.2), содержащие одинаковое число х единиц: лг = О: @, 0, .... О, 0)=г:а>@) x=U A. О,...,О, 0)=«10) (О, 1 0. 0)=ш,A) (О, 0 О, 1)=а)Г2A) = k: Aа 1, 1 1, 0... ,0, 0) = @, 1 0 0. 0) =«>,(/<) k = m: (I, 1 1,... , 1. 1)=ш(/я). Имея в виду, что число N(x) элементарных событий в клас- классе с номером х равно Cm (поскольку х единиц можно разме- разместить на т местах Ст различными способами), а также тот факт, что вероятность осуществления любого элементар- элементарного исхода, входящего в класс с номером х, равна, как нетрудно подсчитать, величине рх A—р)т~-х, получаем Р {Vp (т)=х}*=Р{*1 (х) +ш2 (х) + ... +«с, (х)} = сх т 1 F.3) 6 Зак. 1035
Это и есть формула (аналитическая запись, модель) биномиального закона1 распределения. Подсчет его основ- основных числовых характеристик (который в данном случае легче реализовать, не используя прямые формулы типа E.21), а опираясь на соотношение vp(m)=51+... + gm, вза- взаимную независимость ^ и простоту вычисления их момен- моментов) дает: среднее Evp (т) = тр\ дисперсия Dvp(m) = асимметрия pt = 1—6/7A—/?) эксцесс р2 = — — Биномиальное распределение широко, используется в теории и практике статистического контроля качества про- продукции, при описании функционирования систем массового обслуживания, в теории стрельбы и в других областях практической деятельности. Отрицательный биномиальный закон описывает распре- распределение случайной величины vj(k), определяемой испыта- испытаниями Бернулли ?1э |2» ••• (см. F.1)) следующим образом: *•>(*)-! v*p(*) Другими словами, vj(k) — это число испытаний в схеме Бернулли (с вероятностью р появления интересующего нас события в результате проведения одного испытания) до ?-го появления интересующего нас события (включая по- последнее испытание). Нетрудно вывести аналитический вид распределения случайной величины Vp (k). Зафиксируем лю- любое ее возможное значение х. Из того, что при числе испыта- испытаний vj^(k)=x впервые осуществилось заданное число k появ- появлений интересующего нас события, следует, что на предыду- 1 «Биномиальным» этот закон называется потому, что правая часть F.3) представляет собой *-й член биномиального разложения (р+A—р))т. Этот же факт позволяет легко проверить соблюдение аксиомы о нормировке вероятностей, т. е. справедливость тождества т тх 162
щем шаге, т. ё. при числе испытаний, равном л;—-1, мы имё* ли k—1 появлений того же события. Следовательно, опи- опираясь на теорему умножения вероятностей, мы можем за- записать: р {v; (ky=x} = [С*:У"' A - pf-"-*-\p = Название данного закона объясняется тем, что правые части F.4) являются последовательными членами разложе- разложения бинома с отрицательным показателем: /?ft(l—(I—-p))~k Основные числовые характеристики закона: _ k среднее Ev~(k)=—; дисперсия Dv~ (&) =s= ' ~~2Р ; асимметрия рж = у эксиесс В - i+4(i эксцесс р2— k(\ — p) Модель отрицательного биномиального распределения применяется в статистике несчастных случаев и заболева- заболеваний, в задачах, связанных с анализом количеств индиви- индивидуумов данного вида в выборках из биологических совокуп- совокупностей, в задачах оптимального резервирования элементов, в теории стрельбы. 6.1.2. Гипергеометрическое распределение. В одном из ва- вариантов интерпретации биномиальной случайной величины vp(m) мы рассматривали бесконечную генеральную сово- совокупность, доля р объектов которой обладает некоторым ин- интересующим нас свойством. Тогда vp (m) означает число объектов, обладающих этим свойством среди m объектов, случайно извлеченных из данной генеральной совокупно- совокупности. Гипергеометрическую случайную величину vMn (m) можно считать модификацией биномиальной случайной ве- величины vp (m), приспособленной к случаю конечной гене- генеральной совокупности, состоящей из N объектов, среди которых имеются М объектов с интересующим нас свойст- свойством. Иначе говоря, v^v (m) — это число объектов, обла- обладающих заданным свойством среди т объектов, случайно извлеченных (без возвращения) из совокупности N объек- объектов, М из которых обладают этим свойством. Очевидно, воз- 6* 163
можными значениями случайной величины vMN (m) будут все целые неотрицательные числа от max {0, т—(N—М)} до min {m, M]. Для вывода аналитического вида ее закона распределения подсчитаем вероятность события {vmn (#0 = = х) как отношение числа всевозможных выборок объема т, приводящих к осуществлению этого события (числа «благоприятных» исходов), к общему числу способов, кото- которыми можно выбрать т объектов из N (к числу всех возмож- возможных исходов). Очевидно, каждому набору из х объектов с заданным свойством соответствует C^Zm способов, кото- которыми можно отобрать остальные т—х объектов из числа объектов, не обладающих этим свойством. А поскольку та- такие наборы из х объектов с заданным свойством можно сформировать См различными способами, то общее число «благоприятных» (для события {чМы{т) = х}) исходов будет См • C^ZV Учитывая, что число всех возможных исходов, т. е. всех возможных способов, которыми можно извлечь пг объектов из N предложенных, равно С$, получаем QX QtU—X РКИ4 %N'M Этот закон широко используется в практике статистиче- статистического приемочного контроля качества промышленной про- продукции, а также в различных задачах, связанных с органи- организацией выборочных обследований. Его основные числовые характеристики: среднее EvM N(m) = m—; дисперсия Dv M асимметрия В. = ;. X у *it{i—t) v (N — 2m) V N — М I М эксцесс р2 = _ -±- L + Сз 164
где _ 2) (N — 3) (IV —т) 31 ' ~~ [ (# — 2) (N - 3) (Л' — m) (N — 2) Ш — 3)~" M/ Л1 1 M ; (^V _ 2) (^V — 3) m -^1 j^- — \)Nm (N — 2) (Л^ — 3) (N — m) • При jV->oo правая часть F.5) стремится, как и следовало ожидать, к выражению для биномиального закона распре- распределения F.3), и соответственно среднее значение, дисперсия, асимметрия и эксцесс гипергеометрического распределения сходятся к аналогичным числовым характеристикам бино- биномиально распределенной случайной величины (что легко устанавливается с помощью соответствующего предельного перехода). 6.1.3. Распределение Пуассона. Если рас интересует число наступлений определенного случайного события за единицу времени, когда факт наступления этого события в данном эксперименте не зависит от того, сколько раз и в какие мо- моменты времени оно осуществлялось в прошлом, и не влияет на будущее, а испытания производятся в стационарных ус- условиях, тб для описания распределения такой случайной величины обычно используют закон Пуассона (данное рас- распределение впервые предложено и опубликовано этим уче- ученым в 1837 г.). Этот закон можно также описывать как предельный случай биномиального распределения, когда ве- вероятность р осуществления интересующего нас события в единичном эксперименте очень мала, но число экспери- экспериментов т, производимых в единицу времени, достаточно велико, а именно такое, что в процессе /ь-^0 и т-*-оо произ- произведение тр стремится к некоторой положительной постоян- постоянной величине А, (т. е. mp->k). Поэтому закон Пуассона часто называют также законом редких событий. Обозначим пуас- соновскую случайную величину v0(oo) или просто v0 (имея в виду предельный переход от биномиальной случайной 165
величины vp (т) по р -> 0 и т->оо) и выведем ее закон распределения: P{vo = ;t} = lim P{vp(m) = x} = limCxmpx(l^pr'x= л! ' m* ' \l m) — =^-е Х (х = О. 1, 2,...). F.6) Как видим, закон распределения Пуассона зависит от единственного параметра А,, содержательно интерпретируе- интерпретируемого как среднее число осуществления интересующего нас события в единицу времени. С помощью «прямого счета» по формулам E.21) могут быть подсчитаны основные числовые характеристики пуас- соновской случайной величины: среднее Evo = 2; дисперсия Dvo = 2; асимметрия pi=-p=; эксцесс р2 =—. Пуассоновская случайная величина используется для описания числа сбоев автоматической линии или числа от- отказов сложной системы (работающих в «нормальном» ре- режиме) в единицу времени; числа «требований на обслужива- обслуживание», поступивших в единицу времени в систему массового обслуживания; статистических закономерностей несчастных случаев и редких заболеваний. Привлекательные прикладные свойства этого закона не исчерпываются вычислительными удобствами и лаконич- лаконичностью формулы F.6) (модель зависит всего от одного число- числового параметра А,!). Оказывается, эта модель остается рабо- работоспособной и в ситуациях, отклоняющихся от вышеописан- 166
ной схемы ее формирования. Например, можно допустить, что разные бернуллиевские испытания имеют разные ве- вероятности осуществления интересующего нас события ри р2, ...,рп. В этом случае биномиальный закон применитель- применительно к такой серии испытаний уже не может быть применен, в то время как выражение F.6) остается приблизительно справедливым и дает достаточно точное описание распреде- распределения интересующей нас случайной величины, если только в него вместо Х=п*р подставить величину Х=п»р, где /?= = (Pi+---+ РпУп- Сказанное означает, что можно предполо- предположить, что анализируемая совокупность состоит из смеси множества разнородных подсовокупностей, таких, что при переходе из одной подсовокупности в другую меняется доля р содержащихся в них объектов с заданным свойством, а следовательно, меняется и среднее число X осуществления интересующего нас события в единицу времени. Можно да- далее показать, что если вместо использования среднего зна- значения этих р (или X) (при котором мы остаемся в рамках модели F.6)) ввести в рассмотрение закон распределения меняющегося параметра X, интерпретируемого как слу- случайная величина, то мы придем к другому, но в определенном смысле близкому к пуассоновскому закону распределения. Так, например, если предположить, что функция плотно- плотности распределения случайного параметра X имеет вид h W— r(k) x e CO где Г (k) = J xk-1e-x dx — гамма-функция Эйлера, положи- o тельные числа k и р — параметры закона, а ^>0 — возмож- возможные значения Я, число осуществления (в единицу времени) интересующего нас события будет подчинено известному нам отрицательному биномиальному закону F.4) (подробнее о распределении f% (x) см. в п. 6.2.5). 6.1.4. Полиномиальное (мультиномиальное) распределение. Полезным обобщением биномиального распределения на случай более чем двух возможных исходов является поли- полиномиальная (мультиномиальная) генеральная совокуп- совокупность. Она является бесконечной и содержит объекты клас- классов (свойств) 1,2,...,/ (?>2), представленных соответственно в долях /?ь /?2, ..., рi (в биномиальной генеральной сово- совокупности мы имели 1=2, рг=р и р2=1—р). Таким образом, в результате одного случайного эксперимента (случайного 167
извлечения объекта из этой бесконечной совокупности) объект класса / появляется с вероятностью pjt Нас будет интересовать распределение многомерной случайной вели- величины (v(pl) (m), vfyn), ¦•., v(Pl) (m)), порожденной m-кратным случайным экспериментом (т. е. выборкой из т объектов), где vpJ) (m) — число объектов /-го класса, оказавшихся в этой выборке, а р=(ръ Ръ •••» Pi) (очевидно У Pj=1 и / = i ? v<7) (m) = m). /=i Соответствующее многомерное дискретное распределение описывается выражением (доказывается прямым вероятност- вероятностным рассуждением) где л;A>, х<2>, ..., л:(/) — любые (заданные) целые неотрица- неотрицательные числа, подчиненные условию 2 *(i) = т, а выраже- ние F.7) определяет вероятность того, что среди т извле- извлеченных объектов оказалось ровно яA> объектов 1-го класса, *B> объектов 2-го класса и т. д. Можно также связывать полиномиальную случайную величину с m-кратным слу- случайным экспериментом, каждый из которых может закон- закончиться одним из / возможных исходов Аи Л2, ..., Аь причем вероятность исхода Aj в единичном эксперименте равна р}. Название распределения объясняется тем, что выраже- выражение F.7) является общим членом разложения многочлена (полинома) (p1+p2+"-+Pi)m- Вектор средних значений (Ег{,°(т), ..., Evj/* (m)) и ко- вариации а/Л = Е{(^7) (т)— Evf (m)) (v(pk) (m) — Ev{pk) (m))} компонент исследуемой многомерной случайной величины определяются соотношениями: средние Ev(/) (/n) =/n/?y; / = 1, 2 /; дисперсии Dv(/) (m) = au = mpj (I — Pj)r /= 1, 2 /; ковариации ojk = — mpjpk; j, fe=l, 2,...,/, \ФК 166
Полиномиальное распределение применяется главным образом при статистической обработке выборок из больших совокупностей, элементы которых разделяются более чем на две категории (например, в различных социологических, экономико-социологических, медицинских и других выбо- выборочных обследованиях). 6.1.5. Нормальное (гауссовское) распределение. Это рас- распределение занимает центральное место в теории и практике вероятностно-статистических исследований. В качестве не- непрерывной аппроксимации к биномиальному распределению оно впервые рассматривалось А. Муавром еще в 1733 г. (см. ниже теорему Муавра — Лапласа, § 7.3). Некоторое время спустя нормальное распределение было снова откры- открыто и изучено независимо друг от друга К. Гауссом A809 г.) и П. Лапласом A812 г.). Оба ученых пришли к нормальной функции в связи со своей работой по теории ошибок на- наблюдений. Идея их объяснения механизма формирования ьормально распределенных случайных величин заключается в следующем. Постулируется, что значения исследуемой непрерывной случайной величины формируются под воз- воздействием очень большого числа независимых случайных фак- факторов, причем сила воздействия каждого отдельного фактора мала и не может превалировать среди остальных, а харак- характер воздействия — аддитивный (т. е. при воздействии слу- случайного фактора F на величину а получается величина а+ A(F), где случайная «добавка», А^) мала и равноверо- равновероятна по знаку х . Можно показать, что функция плотности случайных величин подобного типа имеет вид *(*;«. e«) = Fi-e""Er"f F.8) где а и о2 — параметры закона, интерпретируемые соответ- соответственно как среднее значение и дисперсия данной случай- случайной величины (в виду особой роли нормального распределе- распределения мы будем использовать специальную символику для обозначения его функции плотности и функции распреде- распределения). Соответствующая функция распределения нормальной случайной величины 1(а, а2) обозначается Ф (л:; а, о2) 1 Строгая теоретическая формализация этих условий содер- содержится, например, в центральной предельной теореме, см. § 7.3. 169
и задается соотношением =^ j e 2°a dt. F.8') Условимся называть нормальный закон с параметрами а=0 и а2=1 стандартным, а его функции плотности и рас- распределения обозначать соответственно ф(#)=ф(я; 0,1) и Ф(*) = Ф(*; 0,1). Во многих случайных величинах, изучаемых в экономи- экономике, технике, медицине, биологии и в других областях, ес- естественно видеть суммарный аддитивный эффект большого числа независимых причин. Но центральное место нормаль- нормального закона не следует объяснять его универсальной прило- приложимостью, как это было принято долгое время (по-видимому, под влиянием блестящих работ К. Гаусса и П. Лапласса) В этом смысле нормальный закон — это один из многих типов распределения, имеющихся в природе, правда, с от- относительно большим удельным весом практической прило- приложимости. И потому нам понятна ирония, звучащая в извест- известном высказывании Липмана (цитируемом А. Пуанкаре в своем труде «Исчисление вероятностей», Париж, 1912 г.): «Каждый уверен в справедливости нормального закона: экспериментаторы — потому, что они думают, что это ма- математическая теорема; математики — потому, что они ду- думают, что это экспериментальный факт». Однако не следует упускать из виду, что полнота теоретических исследований, относящихся к нормальному закону, а также сравнительно простые математические свойства делают его наиболее при- привлекательным и удобным в применении. Даже в случае отклонения исследуемых экспериментальных данных от нормального закона существует по крайней мере два пути его целесообразной эксплуатации: а) использовать его в ка- качестве первого приближения; при этом нередко оказывается, что подобное допущение дает достаточно точные с точки зре- зрения конкретных целей исследования результаты; б) по- подобрать такое преобразование исследуемой случайной ве- величины g, которое видоизменяет исходный «не нормальный» закон распределения, превращая его в нормальный. Удоб- Удобным для статистических приложений является и свойство «самовоспроизводимости» нормального закона, заключаю- заключающееся в том, что сумма любого числа нормально распреде- распределенных случайных величин тоже подчиняется нормальному закону распределения. Кроме того, закон нормального рас- 170
пределения имеет большое теоретическое значение: с его по- помощью выведен целый ряд других важных распределений, построены различные статистические критерии и т. п. (Х2-, /- и ^-распределения и опирающиеся на них крите- критерии, см. п. 6.2.1—6.2.3, а также гл. 11). Графики нормальных плотностей приведены на рис. 5.5, 5.6, 5.10 и 5.11. Основные числовые характеристики нормального закона: среднее, мода, медиана EZ = xmod = xmQd = a\ дисперсия D6 = (j2; асимметрия рх == 0; эксцесс рг=0. Двумерный нормальный закон описывает совместное рас- распределение двумерной случайной величины ?=(?A),?B)) с не- непрерывными компонентами g*1) и ?<2>> механизм формиро- формирования значений которых тот же, что и в одномерном Случае, причем множества случайных факторов, под воздействием которых формируются значения g*1) и g<2>, вообще говоря, пересекаются (отсюда возможная зависимость ?<*> и ?B>). Введем в рассмотрение основные числовые характеристи- характеристики двумерной случайной величины 5=EA)» ?B)): / соN вектор средних М1 = [ 1 ), где лгг{° = Е?@; \т[2)} ковариационная матрица 2 = ( п ffl2V \а21 °22/ коэффициент корреляции г = Совместная двумерная плотность ф(, )/|( л;B>) нормального закона может быть записана в виде ~2г ^72 а22 171
или в виде _L_.e где X = ( B)], верхний индекс «штрих» означает транс- транспонирование матрицы или вектора, |2 |=det B) — опре- определитель ковариационной матрицы, а 2 — матрица, об- обратная к ковариационной. Изображение поверхности плот- плотности двумерного нормального закона приведено на рис. 5.7. Частные плотности срло (*A)) и Ф*<2) (дс<2)) могут быть получены из совместной по формуле E.15): Эти формулы означают, что частные законы распреде- распределения компонент двумерного нормального закона сами яв- являются одномерными нормальными законами с параметрами соответственно (mi°, an) и (т\г\ а22). Условные плотности qyn (*A>) | SB) = ^<2)) и Ф^(г) (^B) I ^A) =^A)) получаются с использованием общих Формул E.16) и E.16'): Отсюда следует^, в частности, что условное распределе- распределение компоненты ?<*> при фиксированном значении другой компоненты (|</> = л;</>) снова описывается нормальным 172
законом, параметр среднего значения которого, как и сле- следовало ожидать, зависит от фиксированного значения я*(/>: и дисперсия которого не зависит от х(/> и равна D^P') = «<'>) = */,A -r2). Многомерный нормальный закон описывает совместное распределение /7-мерной случайной величины ?=(?A\ ?B\ ..., |<р>) с непрерывными компонентами ?</>, механизм фор- формирования значений каждой из которых тот же, что и в од- одномерном случае, причем множества случайных факторов, под воздействием которых формируются значения ?A>, ?B\ ..., ?<р>, вообще говоря, пересекаются (отсюда их возмож- возможная взаимозависимость). Задавшись /7-мерным вектор-столб- вектор-столбцом М! средних значений компонент и (р Х/7)-матрицей кова- риаций 2 (см. п. 5.6.7), можно выписать /7-мерную совмест- совместную плотность многомерного нормального закона: F.10) Здесь, как и прежде, Х=(^1>, х<2>, ..., дс(р>)' — вектор- столбец текущих переменных, а |2 | = det (S) — опреде- определитель ковариационной матрицы. Вырожденность матрицы 2 (т. е. равенство нулю опре- определителя | 2 |) делает соответствующее многомерное рас- распределение вырожденным (или несобственным); это означает, в частности, что разброс значений исследуемого многомер- многомерного признака сосредоточен в подпространстве меньшей, чем /7, размерности. За исключением некоторых специаль- специальных случаев мы всегда будем полагать, что нами уже осу- осуществлен переход в это подпространство меньшей размер- размерности, так что в наших рассуждениях предполагается |2|>0 6.1.6. Логарифмически-нормальное распределение. Случай- Случайная величина т) называется логарифмически-нормально рас- распределенной, если ее логарифм (lnrj) подчинен нормальному 173
закону распределения. Это означает, в частности, что значе- значения логарифмически-нормальной случайной величины фор- формируются под воздействием очень большого числа взаимно независимых факторов, причем воздействие каждого отдель- отдельного фактора «равномерно незначительно» и равновероятно по знаку. При этом в отличие от схемы формирования меха- механизма нормального закона последовательный характер воз- воздействия случайных факторов таков, что случайный при- прирост, вызываемый действием каждого следующего фактора, пропорционален уже достигнутому к этому моменту зна- значению исследуемой величины (в этом случае говорят о мультипликативном характере воздействия фактора). Мате- Математически сказанное может быть формализовано следую- следующим образом. Если т]0=а — неслучайная компонента иссле- исследуемого признака г\ (т. е. как бы «истинное» значение ц в идеализированной схеме, когда устранено влияние всех случайных факторов), a glf |2,..., lN — численное выраже- выражение эффектов воздействия упомянутых выше случайных факторов, то последовательно трансформированные дей- действием этих факторов значения исследуемого признака будут: Отсюда легко получить ¦N-\ F.11) где Дт)? = т)т — r\t. Но правая часть F.11) есть результат аддитивного действия множества случайных факторов, что при сделанных выше предположениях должно приводить, как мы знаем (см. п. 6.1.5, а также § 7.3, посвященный цент- центральной предельной теореме), к нормальному распределе- распределению этой суммы. В то же время, учитывая достаточную мно- многочисленность числа случайных слагаемых (т. е. полагая N -»• оо) и относительную незначительность воздействия каж- каждого из них (т. е. полагая ДтL-г0), можно от суммы в левой 174
части F.11) перейти к интегралу f ^L = ln t\ — In \ = In t\ — In а. Это. и означает в конечном счете, что логарифм интере- интересующей нас величины (уменьшенный на постоянную вели- величину In а) подчиняется нормальному закону с нулевым средним значением, т. е. In* (l—lna) откуда дифференцированием по х левой и правой частей этого соотношения получаем — (\пх—In a)* F.12) (правомерность использованного при вычислении Д, (х) тож- тождества Р{т]<л:}=Р{1п/п<1пд:} вытекает из строгой монотон- монотонности преобразования lnrj). Описанная схема формирования значений логарифмиче- логарифмически-нормальной случайной величины оказывается характер- характерной для многих конкретных физических и социально-эко- социально-экономических ситуаций (размеры и вес частиц, образующихся при дроблении; заработная плата работника; доход семьи; размеры космических образований; долговечность изделия, работающего в режиме износа и старения и др.; см., напри- например, [21, [31, [91]). Пример 6.11. В качестве случайной величины tj рассматривается душевой месячный доход (в долларах) семьи некоторой совокупности семей. Обследовано п=750 семей. В табл. 6.1 и 6.2 приведены результаты группировки выбо- 1 Данные для этого условного примера заимствованы из «Intro- «Introduction to Frequency Curves». Бюл. Амер. телеф. и телегр. компании, 1953, № 1, сер. стат. 175
Таблица 6.1 Номер интервала 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 Число выборочных данных, попавших в этот интервал 2 15 44 83 108 ПО 83 75 49 34 27 21 24 13 13 19 8 3 2 2 Номер интервала 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 Число выборочных данных, попавших в этот интервал ' 1 3 1 2 0 1 0 1 1 2 0 1 0 0 0 0 1 0 0 1 Таблица 6.2 Номер интервала 1 2 3 4 5 6 7 8 9 Число выборочных данных, попавших в этот интервал 1 1 0 7 8 15 39 73 109 Номер интервала 10 11 12 13 14 15 16 17 18 Число выборочных данных, попавших в этот интервал 141 123 86 65 52 14 8 5 3 176
рочных данных (xt) и их логарифмов (\пхг) соответственно (ширина интервала группирования равна 25 долларам). На рис. 6.1, а, б изображены гистограммы и плотности соответственно логарифмически-нормального и нормального законов распределения. Ниже приводятся результаты вычисления основных чис- числовых характеристик логарифмически-нормального распре- 3,0 3,5 4,0 4,5 5,0 I I I I 5,5 6,0 6,5 7,0 ! tn х Рис. 6 1. Гистограмма и теоретическая (модельная) плотность, ха- характеризующие распределение семей по среднедушевому месячному доходу (а) и по логарифму среднедушевого месячного дохода (б) 177
деления (в терминах tiap?Metpofc закона а и а2): среднее Ет] == ае мода xm0A = aer** ' медиана л:теA = а; дисперсия Dt] = (Ет)J(е°' -1) = а2еа9(е09 - 1); асимметрия pt = (е°* — 1J (е°9 + 2); 2 == (е°а - 1) (е3'а + Зе2" + бе0' + 6). Из этих выражений видно, что асимметрия и эксцесс логарифмически-нормального распределения всегда поло- положительны (и тем ближе к нулю, чем ближе к нулю а2), а мода, медиана и среднее выстраиваются как раз в том по- порядке, который мы видим на рис. 5.8, причем они будут стремиться к слиянию (а кривая плотности — к симметрии) по мере стремления к нулю величины а2. При этом, хотя значения логарифмически-нормальной случайной величины образуются как «случайные искажения» некоторого «ис- «истинного значения» а, последнее в конечном счете выступает не в роли среднего значения, а в роли медианы. 6.1.7. Равномерное (прямоугольное) распределение. Слу- Случайная величина | называется равномерно распределенной на отрезке [а, 6], если ее плотность вероятности /&(^) по- постоянна на этом отрезке и равна нулю вне его, т. е. I 0 при л;<а и x>b. Так как график функции /s (x) изображается в виде прямо- прямоугольника (см. рис. 6.2), то такое распределение также на- называют прямоугольным. Соответственно функция распределения F% (x) равномер- равномерного закона задается соотношениями: 0 при х<а; при <2<^jc<=0; (b.lo) 1 при 178
Примерами реальных ситуаций, связанных с необхо- необходимостью рассмотрения равномерно распределенных слу- случайных величин, могут служить: анализ ошибок округле- округления при проведении числовых расчетов (такая ошибка, как правило, оказывается равномерно распределенной на интервале от —5 до +5 единиц округляемого десятичного знака); время ожидания «обслуживания» при точно перио- периодическом, через каждые Т единиц времени, включении Рис. 6.2. Функция плотности равномерной случайной ве- величины (fg (я)) и суммы двух (fg (я)) и трех ({^(х)) независимых равномерно распределенных на [0, 1] случай- случайных величин (прибытии) «обслуживающего устройства» и при случайном поступлении (прибытии) заявки на обслуживание в этом интервале (например, время ожидания пассажиром прибы- прибытия поезда метро при условии точных двухминутных ин- интервалов движения метро и случайного момента появле- появления пассажира на платформе будет распределено приблизи- приблизительно равномерно на интервале [0 мин, 2 мин]). Отметим еще две важные ситуации, в которых использу- используется равномерный закон. Во-первых, в теории и практике статистического анализа данных широко используется вспо- вспомогательный переход от исследуемой случайной величины I с функцией распределения F(x) к случайной величине rj=/7(g), которая оказывается равномерно распределенной на отрезке [0, 1] (см. § 7.4). Этот прием является полезным при статистическом моделировании наблюдений, подчинен- подчиненных заданному закону распределения вероятностей (см. § 6.3.), при построении доверительных границ для иссле- исследуемой функции распределения и в ряде других задач ма- 179
тематической статистики. Во-вторых, равномерное распреде- деление иногда используется в качестве «нулевого прибли- приближения» в описании априорного распределения анализи- анализируемых параметров в так называемом байесовском подходе в условиях полного отсутствия априорной информации об этом распределении (см. п. 8.6.6). Числовые характеристики равномерного закона: среднее, медиана Е5 = лгтеA = —^—; диск ерси я К = ~2 ; асимметрия pt = 0; эксцесс р2 = — 1, 2. Отметим в заключение одно важное свойство суммы п независимых равномерно распределенных случайных ве- величин: распределение этой суммы очень быстро (по мере роста числа слагаемых) приближается к нормальному за- закону. В частности, если \t— равномерно распределенные на отрезке [0,1] и независимые случайные величины, то можно показать (см., например, [48, с. 271]), что плотность /Лп (х) случайной величины у\п = 1г +... + ?„ имеет вид 1 1 при при 2<л;<3; 1 (я— 1I -1—C^U— 1)"-1 п ' (область возможных значений случайной величины т]п, оче- очевидно, задается отрезком [0, п]). Геометрическое изображе- изображение последовательного изменения вида плотности /л (х) по мере роста числа слагаемых п (для лг = 1,2, 3) дано на рис. 6.2. Это свойство используется, в частности, при статис- статистическом моделировании нормально распределенных на- наблюдений. 180
6.1.8. Распределение Вейбулла и экспоненциальное (пока- (показательное). Рассмотрим один общий механизм формирова- формирования распределений, относящийся, в частности, к случай- случайным величинам, характеризующим длительность жизни элемента, сложной системы или индивидуума (задачи теории надежности, анализ коэффициентов смертности в демогра- демографии и т. п.). Пусть I —время жизни анализируемого объек- объекта (системы, индивидуума) и F (t) =/>{Б</} — его функция распределения, которую мы полагаем непрерывной и диф- дифференцируемой. В задачах данного профиля важной ха- характеристикой является интенсивность отказа (коэффи- (коэффициент смертности) X (t) исследуемых элементов возраста /, определяемая соотношением Я Q) у M-n(t) ' {D'lV где п @ — число объектов, «доживших» до возраста /, а Д/— достаточно малый отрезок времени. Это означает, что ста- статистически (экспериментально) интенсивность отказа (коэф- (коэффициент смертности) определяется как отношение удельно- удельного числа (т. е. приходящегося на единицу времени) «выбыв- «выбывших» в возрасте / элементов к общему числу доживших до этого возраста элементов п (t). Справедливость приближен- приближенного равенства F.14) вытекает из соотношения [/*-/*(* + А/)] — f/2—/2@] n(t)—n(t + M) Ы-п ft @ где п — общее число «прослеживаемых» во времени (начи- (начиная с /=0) элементов одинакового возраста, а п—п (t) — число тех из них, которые не дожили до возраста t (соответ- (соответственно отношение (п—п (t))ln определяет относительную частоту события {?<0)- Разрешая уравнение F.14) относительно функции рас- распределения Fi (/), получаем t ^0)=1--е ° F.15) Таким образом, конкретизация вида функции распреде- распределения Fi (t) полностью определяется видом функции ин- 181
тенсивности отказов (временной зависимостью коэффициен- коэффициентов смертности) К (/). Многочисленные экспериментальные данные (и в облас- области демографии, и в области анализа надежности техниче- технических элементов и систем) показывают, что в широком клас- классе случаев функция К (t) имеет характерный вид кривой, изображенной на рис. 6.3. Из этого графика видно, что весь интервал времени можно разбить на три периода. На пер- K(t)-1№ 74,9 ppupa ботка 14 19 24 29 34 $9 44 49 54 59 64 69 74 t, Лет П нормальная [ Старение и износ "эксплуатация 1 Рис. 6.3. Типичное поведение кривой смертности (интенсивно- (интенсивности отказов) и реальная (ступенчатая) кривая, описывающая изменение коэффициента смертности мужского населения Франции по данным 1955 г. вом из них функция % (/) имеет высокие значения и явную тенденцию к убыванию. На техническом языке это можно объяснить Наличием в исследуемой совокупности элементов с явными и скрытыми дефектами (сборки, некондиционности отдельных свойств и т. п.), которые приводят к относитель- относительно быстрому выходу из строя этих элементов. Этот период принято называть периодом «приработки» (или «обкатки»). Затем наступает период нормальной эксплуатации, харак- характеризующийся приблизительно постоянным и сравни- сравнительно низким уровнем «смертности» элементов. Природа смертей (или «отказов») в этот период носит внезапный ха- характер (аварии, несчастные случаи и т. п.) и не зависит от возраста объекта. И наконец, последний период жизни (или эксплуатации) элемента — период старения и изно- 182
са. Природа «отказов» в этсУг период — fe необратимых фи* зиологических или физико-химических явлениях, приво- приводящих к ухудшению качества элемента, к его «старению». Ниже абстрактной кривой на рисунке построена реальная ступенчатая кривая, описывающая изменение коэффициен- коэффициента смертности мужского населения Франции по данным 1955 г.1 По оси ординат отложено количество умерших, приходящееся на 1000 человек данного возраста. В соответ- соответствии с этой кривой смертности периоду «приработки» со- соответствует возраст от 0 до 4 лет, периоду «нормальной эксплуатации» — от 4 до 39 лет, а периоду «старения» — возраст после 39 лет. Каждому периоду соответствует свой вид функции Я (/), а следовательно, и свой закон распределения времени жизни ?. Рассмотрим класс степенных зависимостей, описываю- описывающих поведение X (/), а именно X(t)=XQ-a-t*~l , F.16) где Хо>0 и а>0 — некоторые числовые параметры. Оче- Очевидно, значения а<1, а^=1 и а>1 отвечают поведению функции интенсивности отказов соответственно в период приработки, нормальной эксплуатации и старения. Подставляя F.16) в F.15), получаем вид функции рас- распределения F% (t) времени жизни | элемента: Fl{t) = l -e~va, t^O. F.17) Соответственно плотность вероятности /6(*) = Я#.а.*в-1 -е-'Л t^O. F.17') Это и есть распределение Вейбулла. К тому же самому типу распределения можно прийти, отправляясь от ши- широкого класса различных вероятностных законов и интере- интересуясь распределением крайних членов их вариационных рядов (см., например, [26]). Основные числовые характеристики распределения Вейбулла: —-L среднее Е5 = Я a -'. 1 См.: Пресса Р. Народонаселение и его изучение (демогра- (демографический анализ). Пер. с фр. М., Статистика, 1966, с. 78. 183
мода 10, если а <; 1; Яо «М _JLje, если а 3*1; дисперсия В?=ЛО~[Г (l + -L) - Г2 (l + -!•)] I момент k-zo порядка mk = Eik = X0 а -Г/l-f- —) (здесь Г (г) — так называемая гамма-функция Эйлера, оо т. е. Г B) = J jc*— » e-*d*). Экспоненциальное (показательное) распределение хотя и является частным случаем распределения Вейбулла (когда А,о=1), но, безусловно, представляет большой само- самостоятельный интерес. Из вышесказанного следует, что оно адекватно описывает распределение длительности жизни элемента, работающего в режиме нормальной эксплуата- эксплуатации. Экспоненциальный закон (и только он) обладает, в частности, тем важным свойством, что вероятность бе- безотказной работы элемента на данном временном интервале (/, /+А) не зависит от времени предшествующей работы /, а зависит только от длины интервала А. Экспоненциально распределенную случайную величину можно интерпре- интерпретировать также как промежуток времени между двумя пос- последовательными наступлениями «пуассоновского» собы- события. Прикладная популярность экспоненциального зако- закона объясняется не только разнообразными возможностями его естественной физической интерпретации, но и исклю- исключительной простотой и удобством его модельных свойств. Ниже приводятся его функция распределения и плотность вероятности, а также его основные числовые характерис- характеристики: FE (х) = 1 - е~>0* среднее Е? = — - До мода -^mod^0; 184
медиана xmQd = -^--In 2; дисперсия DS^v-y-; Л о асимметрия $х = 2; эксцесс ра = 6. Двустороннее экспоненциальное распределение (распре- (распределение Лапласа). Симметричная унимодальная функция плотности этого закона с «острым» максимумом в точке л: = 0 часто используется для описания распределения остаточных случайных компонент («ошибок») е в моделях типа C.5), C.9). График этой функции плотности представ- представляет собой как бы результат «склеивания» графика показа- показательного распределения со своим зеркальным — относи- относительно вертикальной оси — отражением (с учетом необхо- необходимой нормировки), так что уравнение функции плотности имеет вид f(x)=-L*.e-X|" (-сх><х<оо). Нетрудно подсчитать основные числовые характеристики этого закона распределения: среднее Е5 —0; М0дп Xmod=°'> медиана xmed = 0\ дисперсия Dg -= 2/А2; асимметрия ^ = 0; эксцесс р2 = 3. 6.1.9. Распределение Парето. В различных задачах при- прикладной статистики довольно часто встречаются так назы- называемые «усеченные» распределения. Такие распределения описывают вероятностные закономерности в неполных («усеченных») генеральных совокупностях, т. е. в таких совокупностях, из которых заранее изъяты все элементы с количественным признаком, превышающим некоторый за- заданный уровень с0 (или, наоборот, меньшим, чем с0). Ска- Скажем, налоговые органы обычно интересуются распределе- распределением годовых доходов тех лиц, годовой доход которых превосходит некоторый предел х0, установленный законами 185
о налогообложении. Это и некоторые аналогичные распре- распределения иногда оказываются приближенно совпадающими с распределением Парето, задаваемым функциями: В этих формулах а>0, a x>co> т. е. область мыслимых значений данной случайной величины | есть полупрямая (с0, + оо). Функция плотности имеет вид монотонно убы- убывающей кривой, выходящей из точки (с0, а/с0). Основные числовые характеристики этого распределе- распределения существуют не всегда, а лишь при соблюдении опреде- определенных требований к величине параметра а: среднее ЕЬ = -^--гс0 (существует при а>1); мода xmod = c0; медиана хтЫ = 2 а • с0; дисперсия В?= , __ пГ(а_2) °2о (существует при а>2); момент k-zo порядка E?fe = ^ fe ck0 (существует при а>Л). Более полные сведения о распределении Парето можно найти в работах Хагстрема: La loi de Pareto et la reassu- reassurance. — Skandinavisk Akturiet A925), 65; Inkomstutjam- ningen i Sverige. — Skandinavsk Bankens Kvart, skr., April A944). 6.1.10. Распределение Коши. Этот закон весьма специфи- специфичен, поскольку ни один из его моментов положительного по- порядка (в том числе даже среднее значение) не существует. Распределение Коши унимодально, симметрично относи- относительно своего модального значения (которое, следователь- следовательно, одновременно является медианой) и задается функцией плотности вероятности 186
где ?>0 — параметр масштаба я а — параметр центра груп- группирования, определяющий одновременно значение моды и медианы. Соответственно функция распределения задается соот- соотношением Отметим два важных свойства («самовоспроизводи- («самовоспроизводимости») распределения Коши (см., например, [48, с. 273]): 1. Если случайная величина ? имеет распределение Ко- Коши с параметрами с и а, то любая линейная функция Ьо+ +Ьг ? имеет распределение того же типа с параметрами с'= \ЬХ |-с и а'=Ьг-а+Ь0; 2. Если случайные величины ?lf ?a, ..., %п независимы и имеют одно и то же распределение Коши, то среднее ариф- арифметическое | = (?i+ ... +?п)//г имеет то же самое распреде- распределение, что и каждое g4. 6.1.11. Некоторые комбинации основных модельных распре- распределений, используемые в прикладной статистике. Сущест- Существуют модели законов распределения, получающиеся в результате конструирования тех или иных комбинаций опи- описанных выше (и других) модельных распределений. Неко- Некоторые из таких «удобных» в методологически-прикладном плане комбинаций описываются ниже. Модель, близкая к нормальной, но учитывающая нали- наличие ненулевых значений асимметрии фг) и эксцесса (Р2» см. п. 5.6.6), может быть задана плотностью = * (х) - -§[¦ ?C) (х) + \ <Р<4) (х). где ф (л:) — плотность нормального закона, а ф<*> (х) — ее производные. Эта модель возникла из асимптотических разложений в центральной предельной теореме (см. [48]), показывающих, как распределение суммы независимых случайных величин сближается с нормальным законом. Как влияет на плотность / (х) учет ненулевых значений асимметрии и эксцесса, легко видеть из рис. 6.4. Следует иметь в виду, что приведенное выше представление функции / (л:) получено из асимптотических соображений, поэтому оно, вообще говоря, не при всех значениях рх и E2 задает плотность распределения. Для того чтобы иметь некоторое представление о зна- значениях рх и E2> встречающихся в приложениях, укажем, 187
следуя [87], что для ряда распределений в технике, биоло- биологии, химии и метеорологии —0,9^0x^0,9 и —0,6^Р2<1,8. Вместе с тем в демографии встречаются очень большие зна- значения рх и р2; так, для распределения возраста невест, вы- выходящих замуж в Австралии в 1907—1914 гг., — B,0; 6,3) то же и для распределения возраста женихов — B,0; 5,3). Модель смеси рас- распределений заданного типа fj (x; 8;) описы- описывается формулой k Рис. 6 4. Плотность нормального закона Ф(дг) и ее производные <р<3>(*) и <р<4>(*) в которой fj (х; Qj) и / (л:) — плотности (в непрерывном случае) или полигоны частот (в дискретном случае) соответственно /-й компоненты смеси и результирующего за- закона распределения, Я/ — априорная веро- вероятность появления в случайной выборке наблюдения С законом распределения fj(x; 6,) (т. е. удельный вес таких наблюдений в общей генеральной совокупности), a k — число компонент смеси. С законами распределения подобной структуры исследователь сталкивается, напри- например, в ситуациях, когда ему приходится анализировать ге- генеральную совокупность, объединяющую в себе несколько подсовокупностей, каждая из которых в определенном смысле однородна (что выражается, например, в унимодаль- унимодальности соответствующего закона распределения fj (x; 8,)), но существенно отличается от других (например, значением параметра 9;). При этом параметр 8,- может определять как центр группирования соответствующих наблюдений (тогда он интерпретируется как параметр сдвига), так и их меру случайного рассеивания (тогда он интерпретируется как параметр масштаба). Более подробные сведения о смесях распределений можно найти в [8, с. 57—74]. Примеры естественных реаль- 188
мых механизмов распределения в экономике и природе, приводящих к необходимости рассмотрения смеси, описаны, например, в [79], [105]. Упомянем здесь лишь о тех частных случаях модели смеси, в рамках которых ряд исследователей рассматривает различные аспекты получения устойчивых статистических выводов. Модель Тьюки «засоренного» нормального закона рас- рассматривается, например, при исследовании влияния «утя- «утяжеленных хвостов» распределения на свойства оценок не- неизвестного среднего значения (см. п. 8.6.4). При этом ис- исходят из того, что наблюдения «извлекаются» из генераль- генеральной совокупности, заданной функцией плотности вида / (х) = A - s) 7 (*; а; О + е • <р (х; а, о2,), где ф (х; а, а2) — плотность нормального распределения со средним значением а и дисперсией а2; е — доля (обычно от- относительно небольшая) «засоряющих» наблюдений, а меж- между дисперсиями двух компонент имеет место неравенство 2V Модель засорения Шурыгина. Встречающиеся на прак- практике засорения" часто несимметричны. Для того чтобы от- отразить этот факт, в модель смеси распределений можно ввести дополнительный параметр а, отражающий сдвиг за- засорения относительно основного распределения, имеющего функцию плотности г|) (л:, 0, а). Тогда следует рассмотреть модель смеси вида f(x) = (l — е)ф(лг, 9, а) + еЛ(д:-,в —д), где 0 и а — параметры места группирования (сдвига) и мас- масштаба соответственно, ah — плотность некоторого симмет- симметричного закона распределения. Чтобы снять неопределен- неопределенность в выборе Л и громоздкость в представлении результа- результатов исследования модели для разных значений а, было предложено (см. [90]) рассматривать схему серий испыта- испытаний, таких, что внутри серии производится обычная выбор- выборка из смеси, причем для простоты предполагается, что засо- засорение всегда сосредоточено в одной точке @+я), но пара- параметр а при переходе из одной серии к другой выбирается случайным образом из некоторого нормального закона с нулевым средним и стандартным отклонением ke. Модель Шурыгина оказалась удобной для аналитического исследо- исследования. 189
6.2. Законы распределений вероятностей, используемые при реализации техники статистических вычислений 6.2.1. Х2-распределение. Ниже описываются пять законов, основное назначение которых — предоставление исследова- исследователю необходимого аппарата для построения разного ро- рода статистических критериев и интервальных оценок па- параметров: ^-распределение («хи квадрат»-распределение); ^-распределение (Стьюдента); ^-распределение (распределе- (распределение дисперсионного отношения); В-распределение (бета- распределение) и Г-распределение (гамма-распределение). Объяснение механизма их действия можно связывать со «статистикой нормального закона», т. е. с изучением рас- распределений некоторых функций от набора независимых и одинаково стандартно нормально распределенных слу- случайных величин. В связи с гауссовской теорией ошибок астроном Ф. Хельмерт исследовал суммы квадратов нормально распределенных случайных величин, придя таким обра- образом к функции распределения FX2{m) (x), которую позд- позднее К. Пирсон назвал функцией распределения «хи квад- квадрат»1. Для отрицательных х функция F%2(m) (#)=0, а для неотрицательных х F.18) где параметр закона т — целое положительное число, ко- которое принято называть числом степеней свободы, а Г (у) — значение гамма-функции Эйлера в точке у. Соответствующая плотность вероятности задается функ- функцией т х F.18') 1 Hel mer t F. R. Cber die Wahrscheinlichkeit von Potenz- summen der Beobachtungsfehler etc. Z. F. Math, und Phys., 21 A876); Pearson K. On the criterion that a given system of deviation from the probable in the case of correlated system of variables..., «Phil Mag.», V, 50 A900), 157. 190
При /п^2 функция плотности постоянно убывает (для х>0), а при /л>2 имеет единственный максимум в точке xmod = m — 2. Распределение %2 появилось впервые при исследовании распределения последовательности независимых и оди- одинаково стандартно нормально распределенных случайных величин glf ?2,..., lm- Выяснилось, что случайная величина %2{т) = l2i+ ... +im подчиняется закону ^-распределения с т степенями свободы. Это является основанием для по- получения следующего важного результата: если s2 (n) = т — 2 (xi—х{п)J1п — выборочная дисперсия, построен- ная по независимым наблюдениям хъ х2, ..., хп (а, о2)- нормально распределенной случайной величины, то слу- случайная величина ns2 (п)/о2 подчиняется закону распреде- распределения х2 с п—1 степенями свободы, т. е. ^ = Хг(«-1). F-19) Приведем здесь еще два важных результата, связанных с применением %2"РаспРеДеления в технике статистической обработки данных. Пусть исследуемый случайный признак | имеет функцию распределения F% (x; 8lf ..., Э^), достаточно гладко1 зави- зависящую от s неизвестных параметров 81э ..., 6S. Предпо- Предположим, что по имеющейся выборке хъ х2, ..., ^значений признака ? нам удалось построить достаточно хорошие (эффективные или асимптотически эффективные, см. § 8.3) оценки 8lf 02 ,..., Qs для неизвестных значений парамет- параметров 61э 82, ..., 8в (в нормальном распределении такими па- параметрами 8j и 82 будут соответственно среднее значение т и дисперсия а2, а их оценками — функции от результатов наблюдений х (п) и s2 (n)). Определим далее вероятности: если с дискретна; Ft 0^ iA.il К •.. >$s) — Ft (x\; ? С), если непрерывна, 1 Для справедливости излагаемого далее результата, объеди- объединяющего теоремы К. Пирсона A900 г.) и Р. Фишера A922 г.), до- достаточно потребовать существование непрерывных частных произ- 6F водных-— (/=1, 2, ..., s). 191
х? и л:? — соответственно r-е возможное значение дискрет- дискретного признака и левый конец 1-го интервала группиро- группирования, на которые разбит статистически обследованный диапазон изменения значений непрерывной случайной ве- величины (f = 1,2 ,..., k)\ k — общее число возможных значе- значений или интервалов группирования, причем значения F% в крайних точках полагаются равными нулю (в точке х?х или jc0!) и единице (в точке х%+\ или х%+\). Если vt (i = = 1, 2, ..., k) — число наблюдений нашей выборки, равных возможному значению х? (или попавших в f-й интервал группирования), то распределение приведенной ниже ин- интегральной меры расхождения выборочных относительных частот — и соответствующих им вероятностей pt *¦<*-,-.j-.jtlLjjacaE. ,6.20) / = 1 * = I стремится при л-voo к распределению %2 с k — s — 1 степе- степенями свободы. Этот результат используется при проверке статистических гипотез о виде исследуемого закона рас- распределения (см. § 11.1). Если при условиях и обозначениях предыдущего ре- результата добавить вторую выборку х[% х'2 ,..., хП' из той же самой генеральной совокупности (соответствующие ей относительные частоты равны vj/n'), то величина ,.',*-. ,_..«¦ ?--i_(i_?)' F.2!) будет иметь распределение, сходящееся при min (n, п') -> оо к распределению %2 с k—1 степенями свободы. Этот резуль- результат используется при проверке статистической гипотезы о принадлежности двух различных выборок к одной и той же генеральной совокупности и может быть обобщен на случай более двух выборок (см. § 11.2). Основные числовые характеристики х2 (^-распреде- (^-распределения: среднее Еу2 (т) = т\ той = т— 2 (т>2); дисперсия Dy*(m) — 192
23/2 асимметрия р1 = -^=г; 12 Эксцесс р2 = —. 6.2.2. Распределение Стьюдента (/-распределение). Ана- Анализируя случайные отклонения выборочной средней х (п) от истинного среднего значения ml=E^ исследуемой случай- случайной величины ?, английский статистик В. Госсет (писав- (писавший под псевдонимом «Стьюдент») получил в 1908 г.1 сле- следующий результат. Пусть ?0» ii »•••> ?m — независимые @, а2)-нормально распределенные случайные величины. Тогда плотность распределения случайной величины t(m)= описывается функцией (т + ] (—оо < Распределение F.22) получило название распределения Стьюдента с т степенями свободы (или t (т)-распределе- ния). Из выражения F.22) следует, что функция плотности ft (x) не зависит от дисперсии а2 случайных величин ?; и, кроме того, является унимодальной и симметричной отно- относительно точки л:=0. Приведем несколько результатов, используемых при статистической обработке выборочных данных, извлечен- извлеченных из нормальной генеральной совокупности. 1. Если х19 х2 ,..., хп — выборка, извлеченная из нор- нормальной генеральной совокупности с параметрами а= = Е? и о2=^= D?, а 1с (п) и s2 (n) — соответственно выборочная средняя и выборочная дисперсия, построенные по наблю- 1 Student. The probable error of a mean. — Biometrika, B, 6 A908), 1. 7 Зак. 103 5 193
дениям данной выборки, то случайная величина t{n-\)= (*(n)-a)^— подчинена распределению Стьюдента с п— 1 степенями сво- свободы. Этот результат используется при построении интер- интервальных оценок для неизвестного значения параметра а— Е?, а также при проверке статистической гипотезы о том, что данная выборка извлечена из нормальной гене- генеральной совокупности с заданным значением Е?=а (см. гл. 8 и 9). 2. Если к условиям и исходным данным предыдущего примера добавить вторую выборку х'ъ х\ ,..., х'п» из той же самой генеральной совокупности (и вычисленные по ней выборочные среднее хг (п') и дисперсию s'2 (n'))y то сле- следующая нормированная мера расхождения двух выбороч- выборочных средних w (()()) К TTTv t (П + п* - 2) = = w n^n F.24) v ^ ; 5(п, п') к ] подчиняется распределению Стьюдента с п+п'—2 степеня- степенями свободы (общее среднее квадратическое отклонение & (п, п') в формуле F.24) определяется соотношением Этот результат используется при проверке однородности выборочных средних, вычисленных по двум различным выборкам, извлеченным из нормальных генеральных сово- совокупностей (см. п. 11.2.5). Основные числовые характеристики t (/^-распределе- (/^-распределения: среднее, мода, медиана Et(ni) = xmod = xmed = ®> дисперсия Dt (т) = ™ о (существует только при т>2); асимметрия р, = 0; эксцесс р2 = г (существует только при яг>4). 6.2.3. F-распределение (распределение дисперсионного от- отношения). Анализируя поведение отношения двух вы- 194
борочных дисперсий s2 (n) и s'2 (n')t вычисленных по на* блюдениям двух выборок: х1% х2 ,..., хп и х\, х\ ,..., х'п»9 извлеченных из одной и той' же нормальной генеральной совокупности, английский статистик Р. Фишер в 1924 г. пришел к распределению1, которое в дальнейшем стали на- называть F-распределением и которое может быть определено в общем случае следующим образом. Рассмотрим тх-\-т2 независимых и @, а2)-нормально распределенных величин %х ,..., ?mi; % ,..., rjm2 и положим m2) = Очевидно (см. п. 6.2.1), та же самая случайная величи- величина может быть определена и как отношение двух независи- независимых )\ соответствующим образом нормированных х2"Рас" пределенных величин %2 (тх) и х2 (т2)> т. е. F(mv m,) = Можно показать, что плотность вероятности случайной величины F (ти т2) задается функцией h («.. m.) (*) = Г7шГ\Т7«Г\ Х m, X ^^r- (o<^<~). F-25) где, как обычно, Г (у) — значение гамма-функции Эйлера в точке у, а сам закон называется /^-распределением с чис- числами степеней свободы числителя и знаменателя, равными соответственно тх и /л2. 1Fishar R. On a distribution yielding the error functions of several well — known statistics. — Proc. Intern. Math. Congr. Toronto, 1924, 805. 7* 195
При реализации статистических процедур обработки данных используются следующие результаты, связанные с /'-распределением. 1. Если "? (п) = У. (xt —"х (п)J/(п — 1) и ?2(я') = п — = 2 (xi—х' (п)J—эмпирические дисперсии, построенные по независимым выборкам х19 ..., хп и х\ ,..., хп» из од- одной и той же нормальной генеральной совокупности, то отношение s2 (n)/s'2 (л') подчиняется /^-распределению с числами степеней свободы п—1 и п'—1. 2. Пусть Х19 Х2, ..., Хп — выборка из р-мерной нор- нормальной генеральной совокупности с вектором средних ЕХ=М и ковариационной матрицей Е{(Х—т) (X—/я)'}= = 2. И пусть X (п) и S (п) — соответственно выборочный вектор средних и выборочная ковариационная матрица, построенные по данной выборке (см. п. 5.6.7). Тогда слу- случайная величина ~-х • Ч^Е- • (X - М)г S" \Х - М) F.26) подчиняется F (/?, п—/^-распределению. В выражении F.26) множитель 7'2 = п (X {п) -M)'S-l(X (п) - М) F.26') является многомерным обобщением /-статистики Стьюдента F.23), используемой при проверке гипотезы о величине среднего значения, и может быть интерпретирован как характеристика геометрической удаленности (в смысле метрики махаланобисовского типа, см. [12, с. 80]) выбороч- выборочного среднего X (п) от соответствующего теоретического значения М. 3. Дополним рассмотренные выше условия и данные вто- второй выборкой Х\ ,..., Х'п* из той же самой р-мерной нор- нормальной генеральной совокупности и соответствующими ей эмпирическими характеристиками: вектором средних Xf (ri) и ковариационной матрицей S' (п'). Введем в рас- рассмотрение эмпирическую ковариационную матрицу 1} (я, я'), построенную по двум имеющимся у нас выборкам: 196
Многомерным аналогом /-статистики F.24), используе- используемой для проверки однородности двух выборочных средних, будет величина Т*=>Т^г (X (п) - X* (п'))' S1 (л, п').(Х(п) - X* (п% причем случайная величина оказывается распределенной по закону F (/?, п-\-п'—р—1)- распределения. Основные числовые характеристики F (пгъ т2)-распре- деления: среднее EF (tnv m2) ¦= m<l (существует при /7*2 "—~" ^ дисперсия DF(mv m2) = асимметрия р|= Bщ +m2--2)Vs(m2-4) >6 Отсюда непосредственно следует, что при тъ т2>2 ^-распределение всегда имеет модальное значение, мень- меньшее единицы, и среднее значение, большее единицы. Это означает, в частности, что данное распределение имеет положительную асимметрию не только при /л2>>6 (что вы- вытекает из вида рх), но и при т19 /л2>2. Р. Фишером данный тип распределений выводился не для случайной величины F (тъ /п2), а для ее натурального логарифма (поделенного пополам), т. е. для случайной ве- величины ? = у In f (mlf m2). Распределение этой случай- случайной величины часто называют z-распределением Фишера. Однако в современной статистической практике предпо- предпочитают использовать ^-распределение, обладающее более простыми свойствами. 6.2.4. Замечание о нецентральных %2-, F- и t-распределе- ниях. В этом разделе вводятся распределения, с помощью которых изучается мощность статистических критериев, используемых при работе с линейными моделями. 197
Будем говорить, что х имеет распределение N (ji, а2), если х нормально распределена со средним значением (х и дисперсией а2. Нецентральным %2-распределением с т степенями свобо- свободы называется распределение случайной величины и = т ^ 2**?» гДе Xi »•••> хт — независимые случайные вели- чины; xt имеют распределение N (\ih 1). Величина б = т = ( 2 W*I/2 называется параметром нецентральности этого распределения. Обычно такое распределение обоз- обозначают х2 (т> 6)- Это обозначение корректно, поскольку распределение и зависит от \хи ..., \im только через величи- величину 6. В случае, когда 6=0, говорят, что и имеет центральное ^-распределение и обозначают его %2 (т). Среднее и дисперсия %2 (mt 6): E(x2(m, Ь))=:щ + Ь\ Dx2(w, 6) = 2/тг + 452. Сложение нецентральных %2 случайных величин. Если X2 (/nlf 6i) и х2 (^2» ^г) независимы, то их сумма тоже имеет нецентральное х2 (т> б)-распределение с т=тг+т2, 6= F2 6V/» (i V Если случайные величины х2 (^i» б) и х2 (щ) независи- независимы, то распределение отношения F (mlt тг\ 6) = ^ оГ11,1 называют нецентральным F-распределением с тг и т2 степенями свободы и параметром нецентральности б. Если х имеет распределение N (ц, 1) и х2 (^) распреде- распределено независимо от х, то распределение отношения / (т,б) = : называют нецентральным t-распределением т х с т степенями свободы и параметром нецентральности б= |fx |. Очевидно, что t2 (m, 6)=F (I, m; б). 6.2.5. Г-распределение. Описанные ниже два типа распреде- распределения представляют весьма широкие и гибкие двухпарамет- рические семейства законов, которые включают в себя в качестве частных случаев различные комбинации уже из- известных нам случайных величин. Основное прикладное значение Г- и В-распределений — в их богатых вычисли- вычислительных возможностях: функции распределения х2» U F и ряд других могут быть вычислены (после подходящего преобразования переменных) в терминах Г- или [3-распре- делений (см., например, [16]). Кроме того, Г-распределе- 198
ние иногда используется и при реалистическом моделиро- моделировании: с его помощью описывается, например, распределе- распределение доходов и сбережений населения в определенных спе- специальных ситуациях (см. [2], [3]). Двухпараметрический закон Г-распределения случай- случайной величины у (а, Ь) описывается функцией плотности: fuab){x) = t-^^-^-lX при 0<Л<оо; F28) 10 , при х < 0, где Г (а) — Г-функция Эйлера, ооО — параметр «формы» и 6>0 — параметр масштаба. Легко понять, что Г-распре- деленная случайная величина с параметрами а и Ь (будем обозначать ее у (а, Ь)) связана 'со случайной величиной у (а, 1) простым соотношением (см. также § 7.4): ^Y (#» ^) = Y(#' О* Отметим несколько полезных свойств Г-распределения. 1. Из вида функции плотности %2 (т)-распределения (см. F.18')) непосредственно следует, что оно является частным случаем Г-распределения: достаточно положить в F.28) а=т/2 и fc=V2. 2. Сумма любого числа независимых Г-распределенных случайных величин (с одинаковым параметром масштаба Ь) ?i (^1» Ь)+у2 (а2* Ь)+ ... +уп (ап> Ь) также подчиняется Г-распределению, но с параметрами аг+ ... +ап и Ь. Основные числовые характеристики случайной величи- величины у (а, Ь): среднее мода ^mod = дисперсия Dy (а, Ь) = -?¦; 2 асимметрия р, =—^; V а эксцесс р2= —. 6.2.6. В-распределение. Как отмечалось выше, двухпара- двухпараметрический закон В-распределения обладает весьма вы- высокой гибкостью и общностью: в частности, через функцию В-распределения могут быть вычислены такие часто ис- 199
пользуемые распределения, как /2, F, биномиальное, от- отрицательное биномиальное и др. В-распределение исполь- используется и для описания некоторых реальных распределе- распределений, сосредоточенных на отрезке [0,1] (например, для опи- описания распределения величин субъективных вероятностей, полученных в ходе экспертного опроса, см. п. 4.1.3). Слу- Случайная величина р (а19 (%), подчиняющаяся закону В-рас- пределения с параметрами аг и а2 @<ах<оо, 0<а2<оо), имеет плотность вероятности О для остальных значений х. F.29) Отметим несколько полезных свойств В-распределе- ния. 1. Если у (аг,-Ь) и у (a2t b) — две независимые Г-рас- пределенные случайные величины, то отношение р (аи а2)= = у (аи Ь)/(у {аъ Ь) + у (а2, Ь)) подчиняется закону В-рас- пределения с параметрами ах и я2. 2. Случайная величина р A, 1) распределена равномер- равномерно на отрезке [0, 1} (см. п. 6.1.7). 3. Функция распределения квадрата стьюдентовской величины t2 (m) (см. п. 6.2.2) связана с функцией распреде- распределения случайной величины р соотношением Р f (т) (•*) = f 4. Функция распределения случайной величины F (ти т2) (см. п. 6.2.3) связана с функцией распределения слу- случайной величины р соотношением "(%mi)! 5. Между функцией распределения случайной величи- величины Р и распределениями биномиального типа (см. п. 6.1.1) существуют соотношения: k=n 200
6. Непосредственный ана- fo(a лпз плотности F.29) обнару- * ; живает симметричность плот- 2>° НОСТеЙ /р (flb пг) (х) И /р (д2, fll) (*) относительно прямой х = 0,5 (см. рис. 6.5), что в терминах соответствующих функций 1$о\ распределения может быть записано в виде ^(а*' пх)> Рис. 6.5. Графики функций плотности и-распределения (поэтому, в частности, при при различных значениях па- составлении таблиц В-распре- раметров^! и^ а2: 1 --,ai*J^_ деления обычно ограничива- ^ = 1/2, а2=Г/2* ^"" ' ются случаем 0 < ах ^ а<^. Основные числовые характеристики В-распределенной (с параметрами ах и а2) случайной величины р (а1э а2): среднее E${av a2) = --?i_ Dp (a,, a2)= 3^ (при at 6.3. Техника статистического моделирования наблюдений, подчиняющихся заданному распределению 6.3.1. Получение равномерно распределенных на отрез- отрезке [0, 1] случайных чисел. Для получения в ЭВМ случай- случайных чисел можно использовать два метода: «физический», когда с ЭВМ соединяется тот или иной «физический» дат- датчик случайных чисел (например, счетчик числа а-частиц, вылетающих из некоторого радиоактивного источника за фиксированный промежуток времени), и математический, когда в ЭВМ с помощью стандартных машинных команд генерируется регулярная последовательность чисел, яв- 201
ляющаяся для внешнего наблюдателя случайной и удов- удовлетворяющая основным неравенствам, которым должны удовлетворять настоящие случайные числа. Эту последо- последовательность часто называют последовательностью псевдо- псевдослучайных чисел. В настоящее время чаще используется ма- математический метод. Для этого есть несколько причин. Прежде всего в статистическом моделировании важно иметь возможность воспроизвести последовательности случайных чисел, чтобы, например, посмотреть, как на тех же данных будет работать другой метод статистической обработки. Далее, трудно гарантировать постоянную удовлетворитель- удовлетворительную работу физических датчиков. И наконец, в настоящее время найдены и проверены простые и вместе с тем надеж- надежные математические датчики. Для получения последовательности псевдослучайных чисел Б1э g2» •••> 5п» ••• чаи}е ДРУГИХ применяется метод вы- вычетов (мультипликативный датчик): и0 — целое <2m, un = un-l-M(mod2m), tn = un-2-m, F.30) где т и М — специально подобранные целые постоянные. Фиксация начального значения и0 однозначно определяет последовательность ?,-. Поскольку число различных зна- значений ип не превосходит числа различных вычетов по мо- модулю 2т, последовательность ?г имеет период L^2m. Пе- Период, вообще говоря, зависит от значения и0. Формулу F.30) можно представить в виде Е0 = и02-"\ ^{МЪ-г}. F.31) где {V} означает дробную часть числа V. Формула F.31) дает возможность четче представить ха- характер зависимости между lt. Для этого разложим ?0 в бес- бесконечную дробь по степеням М~\ т. е. %0 = а1М+а2М~2+ +а3М~3+ ..., что может быть представлено в виде %>0=09 аг аг а3 ..., где каждое из at может принимать значения от 0 до М—1. Из формулы F.31) тогда следует, что Sn—0, ап ап+1 ..., т. е. операция получения %п состоит в перенесе- перенесении в |0 запятой на п позиций вправо и в отбрасывании це- целой части, равной ахаг ... ап_х. На практике хорошо себя зарекомендовали следующие значения т и М: m = 23e, М = 515 [34]; т— 240, УИ = 517 [34]; т = 2>\ M = 5IS [42]; m = 235, Af = 2718281821 [42]. 202
„ Проверка последовательности псевдослучайных чисел обычно сводится к тому, что для k= 1, 2, ..., /С, где К поряд- порядка нескольких десятков, проверяется, насколько равно- равномерно при п->оо заполняют единичный /г-мерный куб ft-мер- ные векторы 4i ==№л(Я-1) + |. ••• . Ink)- Результаты проверки датчика для БЭСМ-6 можно найти в [34]. Наиболее систематически и полно математические вопросы, связанные с построением датчиков псевдослучай- псевдослучайных чисел, освещаются во втором томе монографии Кну- Кнута [42]. Там же описывается прием, как, используя два «не- «независимых» датчика, имеющих периоды Lx и L2, получить датчик с периодом порядка Lx-L». Этот прием может быть полезен при получении псевдослучайных чисел на ЭВМ с короткими словами. В дальнейшем при описании способов получения слу- случайных величин используется алгоритмический язык Фортран и предполагается, что в основной программе опи- описан датчик псевдослучайных чисел, обращение к которому осуществляет оператор CALL RAND (R), где R — имя псев- псевдослучайного числа. Подпрограмма RAND (R) на основа- основании заложенного в ней алгоритма по числу, стоящему в ячейке R, вычисляет следующее за ним псевдослучайное число %>п+1 и помещает его в ту же ячейку. 6.3.2. Моделирование дискретных случайных величин. Стан- Стандартный метод. Общий прием моделирования дискретной случайной величины X, принимающей значения xk с ве- вероятностями phy /г=1 ,..., т\ ^pk—U основан на следую- k щей очевидной формуле: где для удобства записи положено Ро—0» а ? — равномерно распределенная на отрезке [0, 1] случайная величина. Предположим, что значения xk и рк записаны соответст- соответственно в ячейках Ак и Phi k = 1,..., /С. Программа (на Форт- 203
ране) для нахождения значений случайной величины X в этом случае имеет вид: SUBROUTINE DISCR (К, А, Р, X) 1. DIMENSION А (К), Р (К) 2. CALL RAND (R) 3. DO I = 1,K 4. R = R — P (I) 5. IF (R) 6, 6, 8 6. X - X (I) 7. GO TO 9 8. CONTINUE 9. RETURN 10. END В случае, когда вероятности ph связаны простыми ре- рекуррентными соотношениями pk + i — Рп г(&)» массив Р можно заранее не вводить, а вычислять значения pk в программе. Например: а. Для биномиального распределения с параметрами A=CV A - P)-k и г (*) = *%¦=-%& т^ k—o, i,.... л- i. б. Для распределения Пуассона с параметром к Л = -?-е-х и г(*) = А/(*+1); * = 0, 1,....... а. Биномиальное распределение. Чтобы получить зна- значения случайной величины X, имеющей биномиальное рас- распределение с параметрами р и п, можно также воспользо- воспользоваться статистическим моделированием, а именно осущест- осуществить п независимых реализаций равномерно распределен- распределенной случайной величины ?i» i=l ,..., п, и положить X равным числу случаев, когда L<P- Соответствующая про- программа (на Фортране) имеет вид: SUBROUTINE BINOM (N, Р, X) 1. X = 0.0 2. DO 6 I = 1, N 3. CALL RAND (R) 4. IF (R — P) 5, 5, б 5. X = X + 1.0 6. CONTINUE 7. RETURN 8. END 204
6. FltjaccoHCGCKoe распределение. Моделирование выбо- выборочных значений случайной величины X, имеющей пуассо- новское распределение с параметром X, также проводится методом прямого статистического моделирования и осно- основывается на том, что X можно определить [63] как Х= min j/г: Д gf- <exp {-A} J. Соответствующая программа (на Фортране) имеет вид: SUBROUTINE POISSN (Р, X) 1. X = 0.0 2. В = ЕХР {— Р} 3. TR = КО 4. CALL RAND (R) 5. TR = TR * R 6. IF (TR — B) 9, 7, 7 7. X = X + 1.0 8. GO TO 4 9. RETURN 10. END Здесь ЕХР (X) — обращение к стандартной процедуре вычисления ехр {х}. Формальный параметр р заменяет К. 6.3.3. Моделирование непрерывных распределений. Рассмот- Рассмотрим сначала стандартный прием. Пусть случайная вели- величина г) имеет функцию распределения F (х). Общий прием моделирования х\ основан на том, что случайная величина F (л) имеет равномерное распределение, и, следовательно, случайная величина F'1 (%) распределена как т), где F (•) — функция, обратная к F (х). В качестве примера рассмотрим случай, когда г| имеет показательное распределение, т. е. Р {г)<л;}=1— ехр{—1х). Тогда F-1 (м)=— In A—vi)ll и г\ может быть смоделировано как TJ = F- ({;) = -- 1П A - или, поскольку ? и 1—| одинаково распределены, как Фортран-программа: SUBROUTINE ЕХР (L, X) 1. CALL RAND (R) 2. X = — LN (R)/? 3. RETURN 4. END 205
Моделирование одномерной нормальной случайной вели- величины. Согласно центральной предельной теореме (см. п. 7.3.1) случайная величина имеет приближенно нормальное распределение с парамет- параметрами 0 и 1. Фортран-программа: SUBROUTINE NORMAL (EX, STDX, X) 1. SUM = 0.0 2. DO 4 I = 1, 12 3. CALL RAND (R) 4. SUM = SUM + R 5. X = STDX * (SUM — 6) + EX 6. RETURN 7. END Формула F.32) при п=\2 часто используется для моде- моделирования нормального закона в том случае, когда большие (>3) значения |r| | не играют существенной роли. Л. Н. Большевым для улучшения приближения предло- предложена [15] нелинейная поправка для т) (п): Однако в том случае, когда исследователя интересуют боль- большие отклонения \ц | или необходимо много реализаций нормального закона, можно воспользоваться точными фор- формулами, требующими меньшего числа псевдослучайных чи- чисел. В этом случае @,1)-нормально распределенные случай- случайные величины получаются попарно: 41=V-21n61sinBi«I) и 11Ш = У-2Ы, cos (Ы^. F.33) Формулы F.33) основаны на известном свойстве, характер- характерном для нормального закона и заключающемся в том, что если т)х и гJ — независимые @,1)-нормально распределен- распределенные случайные величины, то распределение величины угла между осью абсцисс и вершиной случайного вектора Oli» ^2) равномерное и не зависит от значения Vr\\+rJ2. Квадрат длины вектора (т]1э тJ) имеет в этом случае %2-рас- пределение с двумя степенями свободы и моделируется как частный случай показательного распределения с /=0,5. Моделирование невырожденного многомерного (М, S)- нормального вектора. Сначала с помощью одного из опи- 206
санных выше методов моделируется вектор i\'=Di ,..., Лр)> где r\i (i=l, ...» р) — независимые @, 1)-нормально распре- распределенные случайные величины, и далее с помощью преоб- преобразования g=Aii+Af, где А — треугольная матрица, та- такая, что АА' = 2, находится вектор ?. Выводы В табл. 6.3 приводятся свойства законов распределения вероятностей, наиболее распространенных в практике ста- статистических исследований. Таблица резюмирует содержа- содержание данной главы. При использовании этой таблицы сле- следует иметь в виду, что: в столбце 3 таблицы, посвященном описанию общей схемы (или механизма) формирования значений той или иной случайной величины, дается описание лишь одного из возможных вариантов такого механизма; к содержимому столбца 6 (статистические оценки пара- параметров, участвующих в аналитической записи закона рас- распределения) следует вернуться лишь после прочтения гл. 8, из которой можно составить представление о способе по- получения приведенных в этом л* столбце оценок; в самой таблице метод получения оценок называется лишь в случае, если не использо- использовался метод максимального правдоподобия; приводимый в столбце 4 набор примеров реальных ситуаций, в которых умест- уместно использовать данный за- 0,8 0,5- 0,2 0.1 0,08 0,05 кон распределения, конеч- конечно, далеко не полон и не претендует на детальность и строгость описания. Рис. 6.6. Номограмма для оп- определения оценки параметра формы а в распределении Вейбулла по значению квадра- квадрата выборочного коэффициента вариации v'f 0,02 0,01 0,008 0,005 0,002 0,001 0,0007 / / А 1 / / f J lf> OO*-. ч CV4 ¦1М 207
Название закона и условное обозначение соответству- соответствующей слу- случайной величины Общая схема (механизм) формирования случай! ных величин данной природы Примеры реальных признаков, подчиняющихся данному закону Биноми- Биномиальный vP (m) Число Vp(m) появления интересующего нас со- события в последователь- последовательности из т независимых экспериментов, когда вероятность появления этого события в одном испытании остается по- постоянной и равна р 1. Число дефектных из- изделий в партии опреде- определенного объема (т), отобранной из массовой продукции, производи- производимой в стационарном ре- режиме 2. Число индивидуумов (объектов), обладаю- обладающих заданной комбина- комбинацией свойств, оказав- оказавшихся среди т случай- случайно отобранных из иссле- исследуемой генеральной со- совокупности Отрица- Отрицательный биноми- биномиальный Vp (k) Число vp (k) независи- независимых экспериментов, которое пришлось про- произвести в ожидании за- заданного числа (k) появ- появления интересующего нас события, когда ве- вероятность появления этого события в одном испытании остается по- постоянной и равна р 1. Долговечность систе- системы (в числе циклов функционирования), имеющей k—1 резерв- резервных (автоматически подключающихся) эле- элементов 2. Объем выборки, необ- необходимой для получения k объектов с заданными свойствами при их слу- случайном извлечении из генеральной совокупно- совокупности Гипергео- метриче- метрический Число объектов vm, N(tn), обладающих задан- заданным свойством среди т объектов, случайно из- извлеченных (без возвраще- возвращения) из совокупности N объектов, М из которых обладают этим свойст- свойством Число дефектных изде- изделий в выборке объема т, случайно извлеченной из партии изделий объ- объема N, в которой содер- содержалось М дефектных из- изделий 208
Таблица 6.3 Аналитическое задание (модель) закона: поли- полигон частот Р {? = *} для дискретных случай- случайных величин и плотно- плотности f(x) для непрерыв- непрерывных и область возмож- возможных значений случай- случайной величины Приближенные значе- значения (статистические оценки) параметров закона, построенные по результатам наблю- наблюдения хх, х7 хп исследуемой случайной величины Выражение среднего значения (Е?), дис- дисперсии (D?). коэффи- коэффициентов асимметрии (р\) и эксцесса (&). а также (в многомер- многомерном случае) ковариаций (Ojk) через параметры закона /г и /1 2, т Е v7)(m)=mp p(m) =mp(l—p) 1—2р где X» — число появ- появлений интересующе- интересующего нас события в 1-м наблюдении, т. е. в 1-й m-кратной се- серии независимых экспериментов /ирA-р) ллг-ft где x? — зафиксиро- зафиксированное в i-м наблю- наблюдении число экспери- экспериментов, произведен- произведенных до момента &-го появления интересу- интересующего нас события в ходе данного наблю- наблюдения У k(i-P) 1 + 4 A-р) . (l-/>L = max{0, m — — (N— M)}, max {0, m — Af-M)}+1, ... min {m, M) При известном зна- значении параметра N: п 2 *t где Xi — зафиксиро- зафиксированное в t-м наблю- наблюдении число объек- объектов, обладающих за- М > N(m)=m— Ml M\ 209
№ п/п Название закона и условное обозначение соответству- соответствующей слу- случайной величины Общая схема (механизм) формирования случайных величин данной природы Примеры реальных признаков, подчиняющихся данному закону Пуассона (редких событий) Vo Число наступления ин- интересующего нас собы- события за единицу времени, когда факт наступления такого события в дан- данном эксперименте (ис- (испытании, наблюдении) не зависит от того, сколько раз и в какие моменты времени оно наступило в прошлом и не влияет на будущее, а испытания проводятся в стационарном режиме 1. Число сбоев отлажен- отлаженного производственного процесса (т. е. функцио- функционирующего в режиме нормальной эксплуата- эксплуатации) в единицу времени 2. Число требований, поступающих в единицу времени в систему мас- массового обслуживания 3. Число несчастных слу- случаев (или смертей от редких заболеваний), происходящих в едини- единицу времени в данной со- совокупности индивиду- индивидуумов Полиноми- Полиномиальное (мультино- (мультиномиальное) vp (m) = Числа v{pl)(m),v(p2)(m), ... ..., vj^ (m) появления интересующих нас собы- событий, соответственно Аи А2, ..., Ai (образующих полную систему собы- событий, т. е. взаимно несов- несовместных и Набор чисел, задающий распределение т объек- объектов по / заданным свой- свойствам при независимом случайном извлечении этих объектов из иссле- исследуемой генеральной со- совокупности, когда каж- каждый из объектов этой совокупности обязатель- 210
Продолжение Аналитическое задание (модель) закона: поли- полигон частот Р {?=*} для дискретных случай- случайных величин и плотно- плотности f{x) для непрерыв- непрерывных и область возмож- возможных значений случай- случайной величины Приближенные значе- значения (статистические оценки) параметров закона, построенные по результатам наблю- наблюдения хи х2, .... хп исследуемой случайной величины Выражение среднего значения (Е?), дис- дисперсии D(|), коэффи- коэффициентов асимметрии (Р,) и эксцесса (&), а также (в многомер- многомерном случае) ковариаций (ojk) через параметры закона данным свойством среди т случайно из- извлеченных из сово- совокупности, состоящей из N объектов 1-Х = (см. п. 6.1.2) P{v0 = *> = -? * = 0, 1, 2, n i = i где Xi — число появ- появлений интересующе- интересующего нас события в те- течение 1-й проконтро- проконтролированной едини- единицы времени .., v </> (*) = ml /) = 0, 1, 2 m (/=1, 2, ..., /) mn где х\1^ — число по- появлений интересую- интересующего нас события Aj в 1-м наблюдении, т. е. в /-й т-кратной серии независимых экспериментов Ev</> (m) / = !. 2, ..., / / = !. =1, 2, 211
п/п Название закона и условное обозначение соответству- соответствующей слу- случайной величины Общая схема (механизм) формирования случайных величин данной природы Примеры реальных признаков, подчиняющихся данному закону в сумме дающих досто- достоверное событие), в по- последовательности из т независимых экспери- экспериментов, когда вероят- вероятность появления собы- события А} в результате осу- осуществления одного экс- эксперимента остается по- постоянной и равна pj но обладает одним рассматриваемых свойств из Нормаль- Нормальный (гаус- совский) 1 2) Значения случайной ве- величины формируются под действием большого числа взаимно независи- независимых случайных факто- факторов, причем сила воз- воздействия каждого от- отдельного фактора мала и не может превалировать среди остальных, а ха- характер воздействия — аддитивный, т. е. при воздействии случайного фактора на величину а получается величина а + А, где случайный остаток Л относительно мал и равновероятен по знаку 1. Отклонения от номи- номинала в значениях пара- параметров изделий, произ- производимых в условиях стационарного массо- массового производства 2. Ошибка измерения 3. Ошибки при стрельбе по цели 212
Продолжение Аналитическое задание (модель) закона: поли- полигон частот Р{? = *} для дискретных случай- случайных величин и плотно- плотности f(x) для непрерыв- непрерывных и область возмож- возможных значений случай* ной величины Приближенные значе- значения (статистические оценки) параметров закона, построенные по результатам наблю- наблюдения Хи ЛГ2 Хп исследуемой случайной величины Выражение среднего значения (Е?), дис- дисперсии D(?), коэффи- коэффициентов асимметрии (Pi) и эксцесса (р2). а также (в многомер- многомерном случае) ковариаций (Ojk) через параметры закона Одномерный случай: У2лст — со Многомерный случай: /(*) = E|(o, o2) = Dl(a, a2)=o Px=O (/, ft = l, 2, .... p) I Bл) 1 = 1. 2 p) -~00<JC@<00, « = 1, 2, ..., р% где Х = (*<1>, ..., х(р)} — вектор-стол- вектор-столбец заданных (теку- (текущих) значений ком- компонент исследуемого многомерного призна- где ^^(т'!1' т(/>)' и 213
и/и Название закона и условное обозначение соответству- соответствующей слу- случайной величины Общая схема (механизм) формирования случайных величин данной природы Примеры реальных признаков, подчиняющихся данному закону Логариф- Логарифмически- нормальный Значения случайной ве- величины формируются под действием большо- большого числа взаимно неза- независимых случайных факторов, причем воз- воздействие каждого от- отдельного фактора «рав- «равномерно незначительно» и равновероятно по зна- знаку, а характер его воз- воздействия — мультипли- мультипликативный: случайный «прирост», обусловлен- обусловленный действием каждого следующего фактора, пропорционален уже до- достигнутому к этому мо- моменту значению иссле- исследуемой величины, т. е. при воздействии факто- фактора на величину а полу- получается величина а 4-Да, где случайный коэффи- коэффициент Л относительно мал и равновероятен по знаку 1. Заработная плата в совокупности всех ра- работников 2. Среднедушевой доход в совокупности семей заданного размера 3. Долговечность изде- изделия, эксплуатируемого в режиме износа и старе- старения 4. Размеры и объем ча- частиц при дроблении Равномер- Равномерный (пря- моуголь- моугольный) g Механизм формирова- формирования значений случайной величины действует та- таким образом, что веро- вероятность получить наблю- наблюдение из любой окрест- окрестности заданного диапа- диапазона [а, Ь] ее возмож- возможных значений зависит только от ширины этой окрестности и не зави- зависит от того, в каком именно месте диапазона [а, Ь] она располагается 1. Ошибка округления при проведении число- числовых расчетов с фиксиро- фиксированным числом десятич- десятичных знаков 2. Время ожидания об- обслуживания при точно периодическом включе- включении (прибытии) обслу- обслуживающего устройства и при равномерно слу- случайном поступлении (прибытии) заявки на обслуживание в этом интервале 214
Продолжение Аналитическое задание (модель) закона: поли- полигон частот Р {? = *} для дискретных случай- случайных величин и плотно- плотности f(x) для непрерыв- непрерывных и область возмож- возможных значений случай- случайной величины Приближенные значе- значения (статистические оценки) параметров закона, построенные по результатам наблю- наблюдения Х\, Х2 Хп исследуемой случайной величины Выражение среднего значения (Е?), дис- дисперсии D(g), коэффи- коэффициентов асимметрии (р\) и эксцесса (р*2), а также (в многомер- многомерном случае) ковариаций (ojk) через параметры закона /(*) = V2U •X Хе ох (In x-\na)* 2 а8 me( и 5.6.4.); i=ae 2 0<*<оо -X 1 1па)« Х(е°Ч2) Х(е3а2+3е2а' при а< О при и /2-1 где 215
Название закона и условное обозначение соответству- соответствующей слу- случайной величины Общая схема (механизм) формирования случайных величин данной природы Примеры реальных признаков, подчиняющихся данному закону 3 «Нулевое» приближе- приближение в описании априор- априорного распределения ана- анализируемых параметров в байесовском подходе (см. п. 8.6.6) Экспонен- Экспоненциальный (показа- (показательный) I Случайный промежуток времени между двумя событиями пуассонов- ского типа (см. п. 4 дан- данной таблицы) 1. Время обслуживания обслуживающим уст- устройством в некоторых си- системах массового обслу- обслуживания 2. Долговечность изде- изделия, работающего в нормальном режиме экс- эксплуатации (см. п. 6.1.8) 3. Длительность некото- некоторой технологической операции 4. Промежуток времени между двумя последова- последовательными сбоями обору- оборудования, работающего в отлаженном стационар- стационарном режиме Вейбулла (третий тип пре- предельных распреде- распределений крайних выборочных значений) Первый вариант: наблю- наблюдения, подчиненные рас- распределению Вейбулла, генерируются испыта- испытаниями «на долговеч- долговечность» в ситуациях, ког- когда функция интенсивно- интенсивности отказов («коэффи- («коэффициент смертности») Я(/) относится к классу сте- степенных зависимостей, т. е. Я (а>0) 1. Долговечность систе- системы или изделия, функ- функционирующего в режиме «приработки» @<Са<С <1), нормальной экс- эксплуатации (<х=1) или износа и старения () 2. Число циклов (дли- (длительность) до момента разрушения образца в усталостных испытани- испытаниях 216
Продолжение Аналитическое задание (модель) закона: поли- полигон частот Р{?=*} для дискретных случай- случайных величин и плотно- плотности f(x) для непрерыв- непрерывных и область возмож- возможных значений случай- случайной величины Приближенные значе- значения (статистические оценки) параметров закона, построенные по результатам наблю- наблюдения Х\, X? Хп исследуемой случайной величины Выражение среднего значения (Е?), дис- дисперсии D(g), коэффи- коэффициентов асимметрии (Pi) и эксцесса @2), а также (в многомер- многомерном случае) ковариаций (ojk) через параметры закона /(*) = при О при —xmin (п) Pi =2 #= при О при х<0, 0<*<оо Сначала оценка а па- параметра а определя- определяется как корень уравнения где V% — выбороч- выборочный коэффициент ва риации исследуемо- 217
п/п Название закона и условное обозначение соответству- соответствующей слу- случайной величины Общая схема (механизм) формирования случайных величин данной природы Примеры реальных признаков, подчиняющихся данному закону Второй вариант: зако- законом Вейбулла описыва- описывается распределение наи- наименьших значений в больших выборках, из- извлеченных из генераль- генеральных совокупностей с ограниченным слева диапазоном возможных значений соответству- соответствующих случайных вели- величин 3. Минимум (за ряд лет) некоторого потреб- потребляемого в год количест- количества (например, минимум годового расхода воды за ряд лет в анализе за- засух) 11 Лапласа (двусто- (двустороннее экспонен- экспоненциальное) Е Распределение остаточ- остаточной случайной компо- компоненты е в некоторых мо- моделях регрессионного типа У=/(А*; 8)+е 218
Продолжение Аналитическое задание (модель) закона: поли- полигон частот Р {?=*} для дискретных случай- случайных величин и плотно- плотности f(x) для непрерыв- непрерывных и область возмож- возможных значений случай- случайной величины Приближенные значе- значения (статистические оценки) параметров закона, построенные по результатам наблю- наблюдения Xi, хъ, ..., хп исследуемой случайной величины Выраженне среднего значения (Е?), дис- дисперсии (О%). коэффи- коэффициентов асимметрии C,) и эксцесса C2). а также (в многомер- многомерном случае) ковариаций ((Т/л) через параметры закона го признака ? (см. п. 5.6.3, а также рис. 6.6), а затем вычис- вычисляется оценка 4=1 (метод моментов) xr i + — U 1 — 00<*<0О 1 « п i=\ 219
No. п/п Название закона и условное обозначение соответству- соответствующей слу- случайной величины Общая схема (механизм) формирования случайных величин данной природы Примеры реальных признаков, подчиняющихся данному закону 12 Парето Характер случайного варьирования исследуе- исследуемою признака в гене- генеральных совокупностях, из которых заранее изъ- изъяты все элементы со значением данного при- признака, не превосходя- превосходящим заданного порого- порогового уровня с0 Распределение средне душевого семейного до хода в совокупности только тех семей, сред недушевой доход кото рых не менее заданного уровня со (руб.) 13 Коши Е Отношение двух незави- независимых нормальных слу- случайных величин со сред- средним значением а = 0 и с дисперсией с2=1 под- подчиняется распределению Коши с параметрами а = 0 и с=1 220
Продолжение Аналитическое задание (модель) закона: поли- полигон частот Р {?=*} Для дискретных случай- случайных величин и плотно- плотности f(x) для непрерыв- непрерывных и область возмож- возможных значений случай- случайной величины Приближенные значе- значения (статистические оценки) параметров закона, построенные по результатам наблю- наблюдения Х\, Х2, ..., ХП исследуемой случайной величины Выражение среднего значения (Е?), дис- дисперсии <D|), коэффи- коэффициентов асимметрии (р\) и эксцесса (р*2), а также (в многомер- многомерном случае) ковариаций (Ojk) через параметры закона /(*) = *+х при х>со О при 1. Метод моментов, для случая а;>2 (см. п. 8.6.2): ч = - <х с0 ) = 1+К где j/* — выбороч- выборочный коэффициент ва- вариации 2. Приближенная ре- реализация метода максимального прав- правдоподобия (см. п. 8.6.1): — 1 () а-1 (существует при а>1) (существует при а>2) a—k w ?=3,4, ... (существует при 2 г)]"" = min{*1, ..., хп} я Метод приравнива- приравнивания теоретических и выборочных кванти- квантилей: Не существуют где [Л] — целая часть числа Л; 221
п/п Название закона и условное обозначение соответству- соответствующей слу- случайной величины Общая схема (механизм) формирования случайных величин данной природы Примеры реальных признаков, подчиняющихся данному закону «Хи-квад- рат»-рас- пределение (с т сте- степенями свободы) 2№ Сумма квадратов т не- независимых нормально распределенных случай- случайных величин ?i@,l), 62@,1), ..., 6m @,1) СО средними значениями, равными нулю, и с дис- дисперсиями, равными еди- единице: 1. Пронормированная выборочная дисперсия, построенная по выборке из нормальной генераль ной совокупности (см. F.19)) 2. Мера отклонения эм- эмпирического распреде- распределения от гипотетичного теоретического (см. F.20)) Стьюдента (с т сте- степенями свободы) t(m) 1 У<0,О»I2 mi=\ I где go@, a2), ?i@, а2), ..., 1т @, а2) независи- независимые @, а2)-нормально распределенные случай- случайные величины (а2 — про- произвольное положитель- положительное число) 1. Нормированная мера расхождения двух выбо- выборочных средних, вычис- вычисленных по двум незави- независимым выборкам из нор- нормальной генеральной со- совокупности (см. F.24)) 2. Нормированное от- отклонение выборочного среднего (построенно- (построенного по выборке из нор- нормальной генеральной совокупности) от соот- соответствующего теоретиче- теоретического значения (см. F.23)) 222
Продолжение Аналитическое задание (модель) закона: поли- полигон частот Р {?=*} длят дискретных случай- случайных величин и плотно- плотности f(x) для непрерыв- непрерывных и область возмож- возможных значений случай- случайной величины Приближенные значе- значения (статистические оценки) параметров закона, построенные по результатам наблю- наблюдения X\t х2, ...» хп исследуемой случайной величины Выражение среднего значения (Е|), дис- дисперсии (D|), коэффи- коэффициентов асимметрии @,) и эксцесса (Э2). а также (в многомер- многомерном случае) ковариаций (аул) через параметры закона A'med(rt) — ВЫборОЧ- ная медиана, а л'([о,75п+щ — выбо- выборочная квантиль уровня 0,75 (т. е. [0,75/г-Ь 1 ] -й член вариационного ряда, построенного по име- имеющейся выборке, см. п. 5.6.4—5:6.5) /(*) = - 22Г X (т\ XX Hi И- где [Л] — целая часть числа Л (ме- (метод моментов) (т) = т Г упт Х х м-fl XI 1+— ) Г — оо<л;<оо m = где [Л] — целая часть числа А, а выборочная диспер- дисперсия (метод момен- моментов) D/(m)-^ (существует при 71 > 2) (существует при m>4) 223
Название закона и условное обозначение соответству- соответствующей слу- случайной величины Общая схема (механизм) формирования случайных величин данной природы Примеры реальных признаков, подчиняющихся данному закону Фишера (F-pacnpe- деление с числом степеней свободы числителя т{ и чис- числом степе- степеней свобо- свободы знаме- знаменателя т2) F(mlt m2) F(mlt ma) = — 2 И^°2) где ^@, о*), %г @, о»), независимые @,о2)-нор- @,о2)-нормально распределенные случайные величины (а2 — произвольное по- положительное число) 1. Отношение двух вы- выборочных дисперсий, по- построенных по двум не- независимым выборкам, извлеченным из нор- нормальной генеральной со- совокупности (см. п. 6.2.3) 2. Многомерный аналог /-статистики Стьюден- та — статистика Т2У описывающая расхож- расхождение двух выборочных векторных средних, по- построенных по двум не- независимым выборкам, извлеченным из много- многомерной нормальной ге- генеральной совокупно- совокупности (см. F.27)) Гамма- распреде- распределение (Г-распре- деление) 224
Продолжение Аналитическое задание (модель) закона: поли- полигон частот Р {\—х ) для дискретных случай- случайных величин и плотно- плотности f(x) для непрерыв- непрерывных и область возмож- возможных значений случай- случайной величины Приближенные значе- значения (статистические оценки) параметров закона, построенные по результатам наблю- наблюдения, х, х2, ..., хп , исследуемой случайной величины Выражение среднего значения (Е?), дис- дисперсии (D?), коэффи- коэффициентов асимметрии (р\) и эксцесса @2). а также (в многомер- многомерном случае) ковариациЛ (а .^) через параметры (mlt тг) Для случая т2>4: Г2 * 1 U-i J EF (т1у m2— 2 (существует при т2>2) X X Хпг12 т22 X (ш1х+ т2) 2 0<л:<оо X .{ где [А] — целая часть числа Л, а х и s2 — выборочные среднее и дисперсия (метод моментов) (существует при т2>4) —2J(/Ло — 4) 2)X (т2—6)Х -4) a—2 (существует при ш2>6) где х и s2 — выбо- выборочные среднее и дисперсия (метод моментов) EV(a, Ь)= — 0<д:<оо Зак. 1035 225
п/п Название закона и условное обозначение Соответству- Соответствующей слу- случайной величины Общая схема (механизм) формирования случайных величин данной природы Примеры реальных признаков, подчиняющихся данному закону 18 Бета-рас- Бета-распределение (В-распре- деление) P( а2) Широкий класс исследу емых признаков, воз- возможные значения кото рых заключены в интер- интервале [0,1] (например экспертным путем полу- полученные субъективные ве- вероятности интересующе- интересующего нас события) 220
Продолжение Аналитическое задание (модель) закона: поли- полигон частот Р {?—*} Аля дискретных случай- случайных величин и плотно- плотности f(x) для непрерыв- непрерывных и область возмож- возможных значений случай- случайной величины Приближенные значе- значения (статистические оценки) параметров закона, построенные по результатам наблю- наблюдения #i хг, ..., хп исследуемой случайной величины Выражение среднего значения (Е?), дис- дисперсии (D^), коэффи- коэффициентов асимметрии (Pi) и эксцесса (Эг). а также (в многомер- многомерном случае) ковариациЙ (<Jj.?) через параметры закона /(*)= Г(а1+а,) Г(а1)Г(о1) X при 0<л:< 1; О при других значениях х> ^a -.)• где х и s2 — выбо- выборочные среднее и дисперсия (метод моментов) а,а, В _ 2(at-ai) fli(fli—e«) —3 227
Глава 7. ОСНОВНЫЕ РЕЗУЛЬТАТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ Выше изложены основные понятия теории вероятностей, включая набор моделей законов распределения, наиболее распространенных в теории и практике статистической об- обработки данных. Настоящая глава посвящена описанию некоторых связей, существующих между этими понятиями и моделями, а также отдельных их свойств, полезных для понимания сущности излагаемых далее методов вероятност- вероятностно-статистического моделирования и первичной обработки данных. 7.1. Неравенство Чебышева В п. 5.6.3 мы познакомились с основной характеристикой степени случайного разброса значений случайной величи- величины — с ее дисперсией а2 = D?. Из смысла этой характерис- характеристики следует, что вероятность зафиксировать при наблю- наблюдении случайной величины ? значение, отклоняющееся от ее среднего а= Е? не менее чем на заданную величину А, должна расти с ростом а2. Чем больше величина дисперсии а2, тем более вероятны значительные отклонения значений исследуемой случайной величины от своего центра группи- группирования а= Eg. Конечно, зная плотность (или полигон) распределения вероятностей /s (jc), можно точно вычислить вероятность событий вида {| g—а |^ А}, а именно f^ (x) dx, если Е непрерывна; x:\ x—a\ ^ Д 2 Рь если ^ дискретна. G.1) Так, например, если g подчиняется (а, о2)-нормальному закону распределения, то вероятность событий вида |?— — а |^5 А зависит только от того, сколько раз в заданной ве- величине отклонения А «уложится» среднеквадратическое от- отклонение а = 228
Однако хотелось бы уметь оценивать вероятности та- таких событий, опираясь только на знание величины дисперсии а2 = D?, не обращаясь к точному знанию закона распределе- распределения анализируемого признака |.Именно эта задача и реша- решается с помощью неравенства, выведенного русским мате- математиком П. Л. Чебышевым1: где а = Eg и а2 = D? - Е (? — а)\ Доказательство этого неравенства несложно: fK(x)dx< J (^ х:\ х—а |^д x:\x-a | (в случае дискретного признака доказательство проводится аналогично с заменой «элементов вероятностей» /g (х) dx вероятностями pt — Р{%>=х?}у а интегралов — соответст- соответствующими суммами). Из хода доказательства-видно, что если распределение ис- исследуемого признака ? симметрично (относительно а= = Е?), то имеют место и односторонние аналоги неравенсг- ва: Р{6-а>Д} = Р{а-5>Д}<-^. G.2') Как и всякий общий результат, не использующий све- сведения о конкретном виде распределения случайной вели- величины ^, неравенство Чебышева дает лишь грубые оценки сверху для вероятностей событий вида { |?—а |^А}. Так, например, если оценивать вероятность события { |?—а|> >3 а} для нормального признака ?, не зная, что он подчи- 1 См.: Ч е б ы ш е в П. Л. О средних величинах. — Математи- Математический сборник, 1867, II. В том же 1867 г. во французском журнале «Journ. math, pures et appl», XII, была опубликована работа Бье- нэме, также содержащая как идею доказательства этого неравен- неравенства, так и само неравенство. Поэтому неравенство G.2) часто назы- называют также неравенством Бьенэме — Чебышева. 229
няется гауссовскому закону (т. е. используя неравенство Чебышева), то получим Интересно сравнить эту величину с точным значением этой же вероятности, которое получается с помощью таб- таблиц нормального распределения и равно 0,0027: мы видим, что точное значение вероятности в 40 (!) раз меньше ее гру- грубой оценки, полученной на основании неравенства Чебы- Чебышева. 7.2. Свойство статистической устойчивости выборочных характеристик: закон больших чисел и его следствия Давно было замечено, что результаты отдельных наблюде- наблюдений (будь то экономические, демографические, физические, метеорологические или иные наблюдения), хотя и произве- произведенных в относительно однородных условиях, колеблются сильно, в то время как средние из большого числа наблю- наблюдений обнаруживают замечательную устойчивость. К та- такого рода выборочным средним относятся и все введенные нами выше эмпирические (т. е. построенные по выборке) характеристики: как выборочные моменты (начальные и центральные) mh (п) и т(к0)(п) — см. §5.6, так и эмпири- эмпирические функция распределения р?П) (х), функция плот- плотности /^(х) и относительные частоты рг (п)— см. § 5.5 (при интерпретации F^n\ /<"> и р}п) в качестве выборочных средних нужно лишь помнить о возможности их выраже- выражения в терминах сумм случайных величин ?1э ..., ?п, где ?? р авно 1 и 0 в зависимости от того, попало или нет наблю- наблюдение хг в заранее определенную нами область возмож- возможных значений, см. ниже G.4)). Математическим основанием этого факта служат раз- различные формы так называемого закона больших чисел. Формулировку первого частного варианта этого закона свя- связывают с именем французского математика С. Д. Пуассо- Пуассона (Р о i s s о п S. D. Recherches sur la probabilite de jugements en matiere criminelle et en matiere civile..., Pa- Paris, Gauthier —Villars, 1837). В формулировке, приведенной ниже, этот закон был впервые доказан А. Я. Хинчиным 230
(см. Н i n t с h i n A. Sur la loi des grands nombres Comptes rendus de Г Academie des Sciences, 189 A929), 477—479). 7.2.1. Закон больших чисел. Пусть glt ?2» •••> 5n — после- последовательность независимых и одинаково распределенных случайных величин. Если среднее значение а = Е?? суще- существует, то среднее арифметическое случайных величин ?i !•••> 5л по мере неограниченного роста числа слагаемых (т. е. при /г->-оо) сходится по вероятности к этому теорети- теоретическому среднему значению а, т.е. для любых сколь угодно малых положительных величин е и б наступает такой «мо- «момент» п0, начиная с которого (т. е. при всех п^п0) будет справедливо неравенство -8. G.3) Доказательство этого утверждения не вызывает затруд- затруднений, если дополнительно потребовать существования ко- конечной дисперсии случайных слагаемых lif т. е. существо- существования D^ = <j2<oo. Действительно, в этом случае для до- доказательства G.3) достаточно воспользоваться неравенст- неравенством Чебышева G.2) применительно к случайной величине Е (п) — ^ + ... + Еп)/л. Легко подсчитываются Е? (п)=а и D? (n)—o2/n, и, следовательно, в соответствии с G.2) Выбрав п0 ^ -g-2 , мы, как легко видеть, обеспечим вы- выполнение G.3) при любых заданных значениях г и б, Доказательство G.3) в общем случае можно найти, на- например, в [83]. В качестве следствия закона больших чисел рассмотрим следующий важный результат, объясняющий эффект устой- устойчивости относительных частот1. 7.2.2. Теорема Я. Бернулли. Пусть производится п неза- независимых случайных экспериментов (или наблюдений слу- случайной величины ?), в результате каждого из которых мо- может осуществиться или не осуществиться некоторое инте- 1 Теорема Я. Бернулли исторически появилась как первая само- самостоятельная версия закона больших чисел намного раньше более сильной теоремы G.3) — в 1713 г. Однако в современном изложении ее, естественно, удобнее подавать как простое следствие результата G.3). 231
ресующее нас событие А (например событие, заключающе- заключающееся в том, что g ? ДХ, где АХ — заданная измеримая об- область возможных значений случайной величины ?). Тогда при неограниченном увеличении числа экспериментов п относительная частота /?<л> (А) появления события А схо- сходится по вероятности к вероятности этого события р (Л), т. е. для любых наперед заданных и сколь угодно малых по- положительных величин е и б наступит такой «момент» (в про- проведении эксперимента) п0, что для всех п^п0 будет справед- справедливо неравенство •Р{\р{П)(А)-Р(А)\<ш}>1-Ь. G.3') Доказательство этого утверждения получается из G.3), если в качестве участвующих там случайных величин |г рассмотреть признаки М, если в результате *-го эксперимента осуще- ^ :='ствилось событие А\ [О — в противном случае. G.4) Из определения следует, что все эти случайные величи- величины li ,..., ln имеют один и тот же закон распределения, в частности: -(l - р (А)) = р (А); G.5) D|, = A - р (А)У-р(А) + @ - р (А))г (\-р (Л)) = Очевидно, в этом случае !(«)=(?!+ ... +in)/« есть не что иное, как относительная частота р("> (А) появления со- события А в п произведенных случайных экспериментах, причем G.6) Применяя к случайным величинам G.4) закон боль- больших чисел G.3), мы и получаем, с учетом G.5) и G.6), дока- доказательство теоремы Я. Бернулли G.3'). 7.2.3 Статистическая устойчивость выборочных характе- характеристик. Закон больших чисел и теорема Я. Бернулли 232
позволяют теоретически обосновать устойчивость основ- основных эмпирических характеристик распределения — сред- среднего значения, дисперсии, асимметрии, эксцесса, функции распределения и плотности, построенных по выборке хъ х2У ..., хп. При этом, как всегда, когда речь идет об ис- исследовании выборочных характеристик, мы, во-первых, подразумеваем, что имеем дело с выборкой, состоящей из независимых наблюдений, и, во-вторых, интерпретируем вы- выборку во втором, гипотетическом смысле — как совокуп- совокупность независимых наблюдений, которые могли бы быть произведены над анализируемой случайной величиной (см. сноску в п. 5.6.4). При такой интерпретации наблюде- наблюдения хъ х2 ,..., хп суть независимые и одинаково распреде- распределенные случайные величины и к ним применимы результа- результаты G.3) и G.3'). Покажем, как из закона больших чисел и теоремы Я. Бернулли можно получить статистическую устойчивость основных выборочных характеристик. а. Устойчивость выборочных начальных моментов mh (n) и любых рациональньрс функций от них. Пусть су- существуют все моменты mh =Elk (k = 1, 2, ..., 2 k0) для за- заданного порядка k0 исследуемой случайной величины ?. Тогда, применяя закон больших чисел к случайным вели- величинам Ъг = **, %2 = х|, ..., %п = xkn, где xt — результат 1-го наблюдения исследуемого признака, мы немедленно получаем доказательство сходимости по вероятности всех п выборочных начальных моментов mk (п) = ( 2 xwn к соответствующим теоретическим моментам mk = E?fe (к = 1, 2, ..., Kq). Непосредственно применить закон больших чисел к центрированным наблюдениям хг — х (л), ..., хп — х (п) нельзя, так как после центрирования наблюдения стано- становятся зависимыми. Однако воспользовавшись теоремой Е. Е. Слуцкого1 о том, что из сходимости (при /г-^оо) по вероятности случай- случайных величин li(n) к некоторым постоянным числам at (i = 1, 2, ..., kQ) следует сходимость по вероятности любой рациональной функции <р (Ъг (л), ?2 (п) ,..., %ho (n)) к ее значению в точке (аъ а2 ,..., айо), т. е. к величине ср (а19 а2 »•••! flfco) (если последняя существует), мы немедленно получаем доказательство сходимости по вероятности всех 1 SlutskyE. Ober stochastische Asymptoten und Grenzv/erte.— Metron, 5, No 3 A925), 3. 233
интересующих нас выборочных Центральных моментов, асимметрии и эксцесса к -соответствующим теоретическим значениям (если таковые существуют). При этом, конечно, мы учитываем, что центральные моменты, асимметрия и эксцесс являются рациональными функциями от началь- начальных моментов (см. соотношения E.22)). б. Устойчивость эмпирических функций распределе- распределения и плотности и относительных частот, т. е. их сходи- сходимость (при неограниченном увеличении объема выборки, по которой они построены) к соответствующим теоретиче- теоретическим функциям и вероятностям следует непосредственно из G.3) и G.3'). Продемонстрируем это на примере эмпири- эмпирической функции распределения F<n> (x). Введем в рассмот- рассмотрение случайные величины G.4), где событие А мы опре- определяем как {xt < х}у т. е. е _t/y4_ f1. если *1<*\ 10, если xt >x. Очевидно, ?1э ?2, •••> In — независимые, одинаково рас- распределенные случайные величины, причем Е^ = F (х) и Dlt = F (x) A—F (х))9 где F (х)=Р {1<х} — функция распределения исследуемой случайной величины ?. А п Легко видеть, что F<"> (*) = ( 2 li)ln = I (n), и, следова- тельно, в соответствии с законом больших чисел Л"> (х) -> F (х) (по вероятности), когда п-^оо. 7.3. Особая роль нормального распределения: центральная предельная теорема Смысл результатов § 7.2 заключается, грубо говоря, в том, что при осреднении большого числа (п) случайных слагае- слагаемых все менее ощущается характерный для случайных ве- величин неконтролируемый разброс в их значениях, так что в пределе по п-+оо этот разброс исчезает вовсе или, как при- принято говорить, случайная величина вырождается в неслу- неслучайную. Однако при любом конечном числе слагаемых п случайный разброс у среднего арифметического этих сла- слагаемых остается. Поэтому возникает вопрос исследования (опять-таки асимптотического по п-+оо) характера этого раз- разброса. Фундаментальный результат в этом направлении (известный как «центральная предельная теорема») был рпервые сформулирован в упомянутом выше труде Лапласа 234
A812 г.), и заключался он в том, что для широкого класса независимых случайных величин 1г ,..., 1п предельный (по /г-> со) закон распределения их нормированной суммы вне зависимости от типа распределения слагаемых стре- стремится к нормальному закону распределения. Однако эта формулировка нуждается в уточнениях: что значит «норми- «нормированная» сумма случайных величин и в каком именно смысле закон распределения одной случайной величины стремится к закону распределения другой? Существует несколько ва- вариантов точных формулировок центральной предельной тео- теоремы, отличающихся друг от друга степенью общности и видом постулируемых ограничительных условий. Мы приведем здесь формулировку Линдеберга и Леви1. 7.3.1. Центральная предельная теорема. Если ?ь g2, ..., ln— независимые случайные величины, имеющие один и тот же закон распределения со средним значением Е^ == а и с дисперсией D^ = а2, то по мере неограниченного увеличе- увеличения п функция распределения случайной величины 1 - ( + + Ы стремится к функции распределения стандартного нормаль- нормального закона при любом заданном значении их аргументов, т. е. /\_ (х) —> Ф (х) при п —> со 1 х -1 для любого значения х, где Ф (х) — ¦ С е 2 ш. Т/2л J Таким образом, центральная предельная теорема дает математически строгое описание условий, индуцирующих механизм нормального закона распределения (см. нефор- неформальное обсуждение этих условий в п. 6.1.5). Она оправды- оправдывает, в частности, закономерность той центральной роли, которую играет нормальное распределение в теории и прак- практике статистических исследований. Содержание цент- центральной предельной теоремы можно считать дальнейшим (после закона больших чисел) уточнением стохастического поведения среднего арифметического из ряда случайных величин. 1 L ё v у P. Calcul des probabilites. Paris, 1925; L i n d c- b e г g J. W. Eine neue Herieitung des Exponentialgesetzes in dcr Wahrscheinlichkeitsrechung. — Math. Zeitschr,, 15 A922), 211. 233
Центральная предельная теорема может быть распро- распространена в различных направлениях: когда случайные сла- слагаемые не являются одинаково распределенными (форму- (формулировка А. М. Ляпунова); когда компоненты ^ не явля- являются независимыми; наконец, когда случайные величины ^ являются многомерными. 7.3.2. Многомерная центральная предельная теорема (см. [12, с. 105]). Пусть 1и Ъ2 >•••» In — независимые и оди- одинаково распределенные р-мерные случайные величины с вектором средних значений М = E%t = (Eg/0, Eg/2), ..., ..., EIJP)Y и ковариационной матрицей 2= E{(|f—М)Х X(?i—Щ'}- Тогда при п-+оо совместная функция распре- п t деления случайного вектора ?* (п) = I 2 (?i —M)W n i = i сходится (для любого значения векторного аргумента X) к совместной функции распределения р-мерной нормальной случайной величины, имеющей вектор средних 0 = @, 0 ..., ,...,0)' и ковариационную матрицу S. Замечание 1. Необходима известная осторож- осторожность при использовании центральной предельной теоремы в практике статистических исследований. Во-первых, если предельный вид распределения суммы случайных слагаемых при определенных условиях всегда нормален и не зависит от вида распределения самих слагае- слагаемых, то скорость сходимости распределения суммы к нор- нормальному закону существенно зависит от типа распределе- распределения исходных компонент. Так, например, при суммирова- суммировании равномерно распределенных случайных величин уже при 6—10 слагаемых можно добиться достаточной близости к нормальному закону, в то время как для достижения той же близости при суммировании х2-РаспРеДеленных слагаемых понадобится более 100 слагаемых. Во-вторых, центральной предельной теоремой вообще не рекомендуется пользоваться для аппроксимации вероят- вероятностей на «хвостах» распределения, т. е. при оценке ве- вероятностей ^событий вида {1* (n)<lcmin) и {1* (п)'^хтЛТ}9 где л:ш1п и хтах — возможные значения, близкие соответст- соответственно к левой и правой границам диапазона изменения исследуемого признака ?* (п). Поскольку в этом слу- случае числовые значения вероятностей Р {?* (^)<xmjn}~ = Ft*(n) (*min) и Р {I* (п) > хтах} =1 — F f4n) (хтах) малы, 236
fO ИЗ МаЛОСТИ раЗНОСТеЙ Ff*(n) (*min) — Ф (*mln) и Fv(n) (xmax) — ®(*max) (которая вытекает из центральной предельной теоремы) вовсе не следует малость относитель- относительных ошибок аппроксимации (n) (Xmin) * - FT* которые, как правило,_оказываются чрезмерно большими. Так, например, пусть ?* (п) — нормированный среднеду- среднедушевой доход в семье (соответственно ?1» ?2> •• — заработная плата работающих членов семьи и другие составляющие семейного дохода) и пусть нас интересует доля q семей с очень высоким доходом, а именно с доходом, не меньшим некоторого достаточно высокого уровня хтах (руб.). Ис- Исследования показали, что точное значение этой доли q= = 1 — Fj*(n) (xmax) = 0>03, в то время как соответствующая нормальная аппроксимация дала результат q — 1 — — Ф(*тах) = 0|003. Разность q — q сама по себе мала (как и следует из центральной предельной теоремы), однако от- относительная погрешность нормальной аппроксимации в данном случае составляет десятикратную величину, т. е. 1000 %! Особенно важным это предостережение оказывается при попытках использования нормальных аппроксимаций в задачах расчета зависимостей типа «предельная прочность (или пропускная способность) системы — вероятность раз- разрушения (отказа в обслуживании)». Замечание 2. Центральная предельная теорема позволяет проследить асимптотические связи, существую- существующие между различными модельными законами распределе- распределения (см. гл. 6), с одной стороны, и нормальным законом — с другой. Опираясь на центральную предельную теорему, можно объяснить, в частности, следующие полезные для статистической практики факты: 1. Распределение (/?, л)-биномиальной случайной ве- величины I (р, п) асимптотически (по п->оо) нормально1 с па- 1 Случайная величина ?(л), зависящая от параметра л, назы- называется асимптотически (по п) нормальной, если существуют такие нормирующие не случайные переменные А(п) и В(п), что функция распределения случайной величины ц(п)=А(п) *5(л)+В(л) стре- стремится при п -* оо к функции распределения стандартного нормаль- нормального закона при любом заданном значении их аргумента х. 237
раметрами Е? (/?, п) = пр и D ? (р, п)—пр A—р). Данный результат известен как теорема Муавра — Лапласа (дока- (доказана впервые Муавром в 1733 г., когда еще не была извест- известна центральная предельная теорема) и является прямым следствием центральной предельной теоремы, примененной к случайным величинам G.4) с учетом G.5). 2. Распределение Х-пуассоновской случайной величины I (к) асимптотически (по Х->оо) нормально с параметрами Eg (Ь)=А, и D? (к) = X. 3. Распределение (TV, М, л)-гипергеометрической случай* ной величины ? (N> М, п) асимптотически (по iV->oo, M->- м ->оо,г^-^/?>0ил->оо) нормально с параметрами Е? (Л^, УИ, п) = пр и Dl (N, М, п) = пр{\ — р). 4. Функция распределения нормированной fe-мерной (Pi> Рг» •••» PhJ п)-полиномиальной случайной величины Е— при я-*оо стремится к функции распределения несобствен- несобственного (вырожденного) fe-мерного нормального закона с век- вектором нулевых средних значений и с ковариационной матрицей V7, имеющей ранг, равный ft—1 (см., например, «Приложение» в [12]) *. 5. Распределение случайной величины у?(т) асимпто- асимптотически (по т~>оо) нормально с параметрами Е%2(т)=т и D %\т) = 2т. 6. Распределение случайной величины t(m) асимптоти- асимптотически (по т->оо) нормальное параметрами Е/(т) = 0 и Ш{т) = 1. * Здесь и далее символ I& означает единичную матрицу размер- размерности k. 238
7.4. Закон распределения вероятностей случайных признаков, являющихся функциями от известных случайных величин В теории и практике статистических исследований очень важно уметь вычислять закон распределения вероятностей для функций от случайных величин, распределение кото- которых известно. Именно на этом главным образом основана теория статистического оценивания и проверки статисти- статистических гипотез (см. гл. 8), так как и статистическая оцен- оценка, и критическая статистика, используемые соответ- соответственно при оценивании неизвестных значений параметров и при построении критериев статистической проверки ги- гипотез, суть не что иное, как функции от результатов на- наблюдения исследуемой случайной величины ?. Для того чтобы ими осмысленно пользоваться и знать их статисти- статистические свойства, мы должны уметь восстанавливать их закон распределения по распределению изучаемой случай- случайной величины I (а значит, и ее наблюдений). Ниже описы- описываются основные правила, руководствуясь которыми мож- можно решать эту задачу. 1. Пусть случайная величина ц является монотонно возрастающей непрерывной функцией от заданной непре- непрерывной случайной величины |, имеющей всюду дифферен- дифференцируемую функцию распределения Р%(х), т.е. Ц=ёA)- Каждому возможному значению х случайной величины ? будет соответствовать возможное значение y=g(x) случай- случайной величины г). В силу монотонности и непрерывности преобразования g по заданному значению г\ можно однозначно восстановить соответствующее ? с помощью преобразования, обратного к g (обозначим его g), т. е, |=^(л)- Аналогичное соот- соотношение связывает и возможные значения этих случайных величин, т. е. x = g~1 (у). Попробуем выразить функцию распределения F4 (у) в терминах заданных нам функций F% (x), g и g~b. Fi(g-4y)). G.7) Дифференцирование обеих частей G.7) по у дает ^L. G-8)
Точно такие же рассуждения в случае монотонно убы- убывающей функции g(x) приведут нас к некоторому видоизме- видоизменению формулы G.8): ^) G-8') Можно объединить формулы G.8) и G.8') в одной, спра- справедливой для любого взаимно-однозначного преобразова- преобразования g: Пример 7.1. Вычислить функцию плотности слу- случайной величины г| = е^, если известно, что ? подчиняется (а, а2)-нормальн6му закону. В данном примере g(x) = e*, ~1(у) — 'п У* следовательно, ё dy — йу — у # Подставляя это в G.8/у), получаем ~Aп у—а)' т. е. плотность логарифмически-нормального закона (см. п. 6.1.6). Пример 7.2. Вычислить функцию плотности слу- случайной величины r\=a+bl, если известна плотность /g (х) случайной величины ?. В данном случае g(x) = a+bx, g~l(y) = (y—a)/b и (dg-1(y)/dy)=l/b. В соответствии с G.7) и G.8") имеем: G.9) Это правило пересчета функций распределения и плот- плотности позволяет, в частности, использовать таблицы стан- стандартного (т. е. @,1)-) нормального закона для определения значений функции распределения и функции плотности нормальной случайной величины Ца, о2) с произвольными параметрами а= Е?(а, а2) и а2 = Dl(a, а2). При этом, как легко видеть, роль % играет стандартная нормальная вели- 240
чина | @,1), а роль ^ — произвольная нормальная вели- величина Н(а, а2), т. е. *(а, о)» = а + а.6@, 1). G.10) 2. ?с,ш интересующее нас преобразование r\= g(Q не является взаимно-однозначным, то сколько-нибудь общие формулы получать нецелесообразно. Вместо этого прихо- приходится каждый раз решать определенный тип задач, при- прилаживаясь к их специфике. Рассмотрим, например, слу- случай у\ = 12: Следовательно, К (у) = h №) Применение данной формулы к случаю, когда ? является стандартной нормальной величиной, дает 1_ Г t i / e что является частным случаем гамма-распределения с па- параметрами а^=Ь=1/2 (см. п. 6.2.5). 3. Обобщим формулу G.8") на многомерный случай. Пусть 1=A{1\ ?B> ,..., |(р))—р-мерная случайная величи- величина с известной функцией распределения t\ (X) и плот- плотностью вероятности /6 (X) и пусть другая /?-мерная случай- случайная величина ^(т]*1), ..., г]^>) определяется как заданная непрерывная векторная функция g"(?) от компонент ?, т. е. Предполагается, что соответствие T]=g(?) является вза- взаимно-однозначным, т. е. существует обратное преобразова- 241
мие gn1, позволяющее пб заданному «значению» г\ одйб* значно восстанавливать соответствующее «значение» ?: Соответственно между многомерными возможными «зна- «значениями» Х = (*<*>, ..., х^) и Y = (y^\ ..., у(р)) случайных величин ? и т) имеют место векторные соотношения и Л = Тогда совместная плотность вероятности случайных ве- величин п=(г|A>| ..., г)<р)) равна G.11) где определитель преобразования (якобиан) ](?) = дуA) дуB) ду(Ч дуB) 1 (У) дуA) дуB) dyW так же, как и в формуле G.8"), берется по абсолютной величине. 4. Выведем распределение суммы двух независимых слу- случайных слагаемых (формулу композиции). Пусть независи- независимые случайные величины |х и ?2 имеют плотности вероят- вероятности соответственно /^ (х) и Д2 (у). Требуется произвести композицию этих плотностей, т. е. найти плотность рас- распределения случайной величины /n = ?i+?2- По существу, мы должны рассмотреть совместное двумерное распреде- распределение /glt |2 (х, у) и для определения функции распреде- распределения случайной величины т) найти в плоскости хОу об- область возможных значений (|1э |2)> соответствующих со* 242
бытию {v)<Zz}. На рис. 7.1 эта область заштрихована и обозначена Az. Получаем =Я = Я = J J fi,w^ G.12) Здесь мы воспользовались тождеством /(^ь ^2) (#, y)=fil (х) х xfb (У) (справедливым в силу независимости ^ и ?2), а при интегрировании по об- области Аг пределы интегрирова- интегрирования по оси Од; брали от —с» до + оо, а по оси Оу — от —с» до прямой у = z — х. Дифференцирование по z ле- левой и правой частей соотноше- соотношения G.21) дает fn(z)= Рис. 7.1. Попадание в об- G.13) ласть Лг на плоскости хОу соответствует событию Формулу G.13) называют формулой композиции двух рдс- пределений или формулой свертки. Для обозначения композиции (свертки) законов распределения часто при- применяют символическую запись Воспользовавшись формулой G.13), можно вывести упомянутое в п. 6.1.5 и 6.1.10 свойство «самовоспроизводи- «самовоспроизводимости» законов Гаусса и Коши (сумма нормальных слу- случайных величин сама распределена по нормальному зако- закону; сумма одинаково по Коши распределенных случайных величин сама подчиняется закону распределения Коши), 243
а также получить формулы для плотности распределения сумм равномерно распределенных величин, приведенные в п. 6.1.7. Выводы 1. Следует выделить три типа основных результатов тео- теории вероятностей: доасимптотические, позволяющие анализировать ос- основные закономерности в поведении случайной величины по ее главным числовым характеристикам — среднему значению, дисперсии и т. п. — без апелляции к знанию общего вида закона ее распределения; асимптотические, позволяющие анализировать основ- основные закономерности в поведении сумм большого числа случайных слагаемых (а именно устанавливать их асим- асимптотическую устойчивость, т. е. их сходимость к некото- некоторым постоянным значениям по мере роста числа слагае- слагаемых, или описывать асимптотический вид закона распре- распределения этих сумм) без точного знания законов распределе- распределения отдельных слагаемых; относящиеся к теории преобразований случайных вели- величин, позволяющие находить закон распределения интере- интересующих нас функций от набора случайных величин, сов- совместное распределение которых нам известно. 2. Первый тип результатов представлен в данном издании неравенством Чебышева, позволяющим оценивать вероят- вероятность зафиксировать при наблюдении случайной величи- величины I значение, отклоняющееся от ее среднего значения а= Е? не менее чем на заданную величину А, без знания закона распределения исследуемой случайной величины I (см. G.12)). 3. Закон больших чисел и его следствия относятся.к первому (менее глубокому) уровню асимптотических результатов и позволяют устанавливать сходимость (по вероятности) нормированных сумм большого числа случайных слагаемых к некоторым постоянным значениям — по мере роста чис- числа слагаемых — практически независимо от вида распре- распределения самих слагаемых. Из этих результатов непосред- непосредственно следует, в частности, важное свойство статисти- статистической устойчивости основных выборочных числовых ха- характеристик исследуемой случайной величины — среднего, дисперсии, относительных частот и т. д. (см. G.3), G.3')). 244
4. Центральная предельная теорема относится к следую- следующему (более глубокому) уровню асимптотических резуль- результатов. Она утверждает, в частности, что закон распреде- распределения нормированной суммы большого числа случайных слагаемых практически вне зависимости от типа распреде- распределения самих слагаемых стремится (по мере роста числа слагаемых) к нормальному (гауссовскому) закону распре- распределения (см. п. 7.3.1). Однако необходима известная осторожность при прак- практическом использовании центральной предельной тео- теоремы: во-первых, часто можно подобрать весьма про- простые (и более точные, чем нормальные!) аппроксимации для распределения суммы небольшого конечного числа случайных слагаемых; во-вторых, центральная .предель- .предельная теорема плохо работает на «хвостах» распределе- распределений, т. е. при оценке вероятностей больших уклонений анализируемой суммы случайных величин от своего среднего значения. 5. Основным результатом теории преобразования случайных величин является правило G.8") (или G.11) в многомерном случае), позволяющее вычислять закон распределения (функцию плотности или полигон частот) случайной вели- величины, являющейся заданной функцией от набора исходных случайных величин, совместный закон распределения ко- которых нам известен.
Раздел III. ОСНОВЫ МАТЕМАТИЧЕСКОЙ СТАТИСТИКИ Глава 8. статистическое оценивание ПАРАМЕТРОВ Одна из главных целей, которые ставит перед собой иссле- исследователь, приступая к статистической обработке исходных данных, заключается в том, чтобы добиться удобной лако- лаконичности в описании интересующих его свойств исследуе- исследуемой совокупности (или исследуемого явления), т. е. пред- представления множества обрабатываемых данных в виде срав- сравнительно небольшого числа сводных характеристик, . по- построенных на основании этих исходных данных. При этом желательно, чтобы потеря информации, существенной для принятия решения, была минимальной. Упомянутые свод- сводные характеристики являются функциями от исходных результатов наблюдения Хъ Х2, ..., Хп и называются ста- статистиками (таким образом, мы уже имеем, как минимум, три различных обиходных варианта термина «статистика»: научная дисциплина, исходная информация и любая функ- функция от результатов наблюдения). В предыдущей главе мы уже имели дело с примерами таких сводных характерис- характеристик (статистик): к ним относятся все выборочные (эмпири- (эмпирические) характеристики генеральной совокупности — сред- средние значения, дисперсии, коэффициенты эксцесса и асим- асимметрии, ковариации и корреляции, наконец, эмпиричес- эмпирическая функция распределения и эмпирическая плотность (см. формулы E.6), E.8), E.19), E.20'), E.2Г), E.23'), E.34'), E.35'), E.36'), E.37'), E.?"')). Добиться лаконичности в описании информации, со- содержащейся в массиве обрабатываемых данных, помогает целый набор прикладных методов математической статис- статистики: выбор и обоснование математической модели меха- механизма изучаемого явления (см. гл. 3); изучение свойств анализируемой системы или механизма .функционирования с помощью моделирования на ЭВМ (§ 3.2 и 6.3); наглядное представление (визуализация) исходных данных с целью формирования рабочих гипотез о механизме изучаемого явления (см. § 10.5) и другие методы описательной ста- 246
тистики (изучение эмпирических распределений, работа с разнотипными признаками и т. п., см. § 10.2, 10.3); анализ природы обрабатываемых данных (гл. 11); описание инте- интересующих исследователя статистических связей между анализируемыми признаками и т. д. Все эти методы в той или иной степени опираются на две основные составные час- части математического аппарата статистики: 1) теорию статистического оценивания неизвестных значений пара- параметров, участвующих в описании анализируемой модели; 2) теорию проверки статистических гипотез о параметрах или природе анализируемой модели. Изложению основных элементов первой из этих двух составных частей аппарата математической статистики и посвящена настоящая глава. 8.1. Начальные сведения о задаче статистического оценивания параметров 8.1.1. Постановка задачи. Пусть мы располагаем исход- исходными статистическими данными — выборкой XvXv....Xn (8.1) из исследуемой генеральной совокупности и пусть интере- интересующие нас свойства этой генеральной совокупности мо- могут быть описаны с помощью уравнения (математической модели) М(Л\е) = 0, (8.2) где Хг=(х^\ л:/2), ..., xjp))'—i-e наблюдение в выборке (8.1), X — текущее (т. е. подставляемое по нашему усмот- усмотрению) значение исследуемого ^-мерного случайного приз- признака, а 9 = F<1), ..., 8<fe>)—^-мерный параметр, участвую- участвующий в записи модели (8.2), значения которого нам были не известны до получения выборки (8.1). Задача статистического оценивания неизвестных пара- параметров 9 по выборке (8.1) заключается, грубо говоря, в построении такой fe-мерной векторной функции 9(Х1э..., Хп) - (в*1) (Хи ..., Хп),..., §м (Хг, ..., Хп))' от имеющих- имеющихся у нас наблюдений (8.1), которая давала бы в определен- определенном смысле наиболее точные приближенные значения для истинных (не известных нам) значений параметров 0 = = (б*1), ..., 8<*>)'. Здесь не уточняется пока, в каком имен- 247
но смысле приближенные значения 6<1>, ..., 0<fe> соответ- соответственно параметров 0A\ ..., 0(fe> являются наилучшими. В качестве моделей (8.2) могут рассматриваться модели законов распределения вероятностей (см. гл. 6), модели статистических зависимостей, существующих между ана- анализируемыми показателями (см. гл. 3) и т. п. Пример 8.1. Пусть нашей целью является иссле- исследование закона распределения наблюдаемой непрерывной одномерной случайной величины I с неизвестной плот- плотностью вероятности Д(л;) и пусть предварительный анализ природы исходных данных (8.1) (осуществленный с помощью методов, описанных в гл. 10 и 11) привел нас к выводу, что этот закон может быть описан нормальной моделью (см. п. 6.1.5). В этом случае , где 8^) = а = Е? и 0B) = a2 = DE; М (х; в) = f ^ (х) * 2 е 29B) и можно показать (см., например, [71]), что вся информа- информация о параметрах 6<1) и 0<2> (а следовательно, и о всей модели) содержится всего в двух статистиках х(п) и s2(n)t где Выше (см. § 7.2) показано, что есть основания исполь- использовать статистики (8.3) и (8.4) в качестве приближенных значений (оценок) параметров а и а2, поскольку по мере роста объема выборки, т. е. при л->оо, эти оценки сходятся по вероятности к соответствующим истинным значениям а и а2. Однако вопрос о том, являются ли эти оценки на- наилучшими, пока остается открытым. Чтобы иметь возмож- возможность обсуждать этот вопрос, нам придется ввести и обсу- обсудить ряд понятий. 8.1.2. Статистики, статистические оценки, их основные свойства. Любая функция у (Хи ..., Хп) от результатов 248
наблюдения Хъ Х2, ..., Хп исследуемой, вообще говоря, многомерной, случайной величины I называется статис- статистикой. Мы уже познакомились в гл. 5 с целым рядом ста- статистик: выборочное среднее E.20'); выборочная ковариа- ковариационная матрица E.36'); выборочные коэффициенты асим- асимметрии Рх(п) и эксцесса |$2(п) (формулы E.33') и E.34')); эмпирические функции распределения ?<л> (X) и плот- плотности /<«> (X) (формулы E.12) и E.23)). Статистика в, используемая в качестве приближен- приближенного значения неизвестного параметра 0, называется статистической оценкой. Так, например, статистики Х(п), S(n)y Px(n) и $2(п) можно рассматривать как статис- статистические оценки соответственно параметров М=Е?, 2 = Е[(?—М) (I—М)'1, рх и р2» поскольку в соответствии с § 7.2 все эти статистики при /г->оо сходятся по вероят- вероятности к истинным значениям соответствующих параметров. Обращаем внимание читателя на тот факт, что, говоря о статистиках и статистических оценках, мы используем всегда гипотетический вариант интерпретации выборки (8.1) (см. сноску в п. 5.6.4), т.е. вариант, при котором под Хъ ..., Хп подразумеваются лишь обозначения тех п значений исследуемого признака ?, которые мы могли бы получить, проводя л.-кратный случайный эксперимент (или производя п независимых наблюдений) в данном реальном комплексе условий. Следовательно, все статистики и статистические оценки являются случайными величинами: при переходе от одной выборки к другой (даже в рамках одной и той же генеральной совокупности) конкретные значения статистической оценки, подсчитанные по одной и той же формуле (8.3) (т. е. значения, полученные с по- помощью подстановки в эту формулу соответственно различ- различных конкретных значений аргумента), будут подвержены некоторому неконтролируемому разбросу. Правда, значе- значения статистической оценки, подсчитанные по разным вы- выборкам, хотя и подвержены случайному разбросу, но должны (если наша оценка «хороша»!) концентрироваться около истинного значения оцениваемого параметра. Возникает вопрос о требованиях, которые следует предъявить к статистическим оценкам, чтобы эти оценки были в каком-то определенном смысле надежными. Эти тре- требования формулируются обычно с помощью следующих трех свойств оценок: состоятельности, несмещенности и эффективности. 249
8.1.3. Состоятельность. Оценка в=ё(Хц ..., Хп) неиз- неизвестного параметра Э называется состоятельной, если по мере роста числа наблюдений п (т. е. при п-~>оо) она стре- стремится по вероятности к оцениваемому значению 8, т. е. если для любого сколь угодно малого ?>0Р{ |0—0 |> >?}-^0 при п-^оо (если оцениваемый параметр 0 вектор- векторный, то для состоятельности соответствующей векторной оценки 0 требуется состоятельность отдельно всех ее ком- компонент). Все упомянутые выше оценки (Х(п), S2(az), F<n)(X)> ftn) (X) и т. д.) являются, как это показано в § 7.2, состоя- состоятельными оценками соответствующих параметров. С одной стороны, требование состоятельности представ- представляется необходимым для того, чтобы оценка имела практи- практический, смысл (так как в противном случае увеличение объема исходной информации не будет «приближать нас к истине»), а потому это свойство должно проверяться в первую очередь. С другой стороны, свойство состоятельности — это асимптотическое (по числу наблюдений п) свойство, т. е. оно может проявляться лишь при столь больших объемах выборок, до которых мы в нашей практике не «добираем- «добираемся». Кроме того, в большинстве ситуаций можно предло- предложить несколько состоятельных оценок одного и того же параметра. Например, оценки 0!=f^(az) и 62==(^min (n) + + *тах (п))/2 являются состоятельными оценками неизвест- неизвестного истинного среднего значения 8=Е? симметрично рас- распределенной случайной величины, если это среднее 0 су- существует (здесь х(п) — выборочное среднее, определенное по формуле (8.3), a *mIn (п) и *тах (п) — соответственно ми- минимальное и максимальное значения среди п наблюдений исследуемого признака). Все это говорит о том, что свойства состоятельности не достаточно для полной характеристики надежности оценки. Поэтому его надо дополнить рассмотрением двух других свойств. 8.1.4. Несмещенность. Оценка B = Q(XU ..., Хп) неиз- неизвестного параметра 0 называется несмещенной, если при любом объеме выборки п результат" ее осреднения по всем возможным выборкам данного объема приводит к точному истинному значению оцениваемого параметра, т. е. Е0=0 (если оцениваемый параметр 0 векторный, то для несме- 250
щенности соответствующей векторной оценки 0 требуется несмещенность отдельно всех ее компонент). Проверим, например, являются ли оценки (8.3) и (8.4) несмещенными оценками параметров а=Е% и о2=0% нормального закона (см. пример 8.1): (n) = -L E К] ((л-, -a)-(x (х,_О)«_2п-яJ(.*,-а <=i -/=1 1 / о о2 \ , Л 1 \ n \ n I [ n I (в ходе вычисления Es2(n) мы воспользовались тем фактом, что в случае независимых и одинаково распределенных, с дисперсией о2, наблюдений хи х2, ..., хп имеем см. свойства б) и г) дисперсии в п. 5.6.3). Мы видим, что х(п) является несмещенной оценкой па- параметра а, в то время как оценка s2(n) параметра о2 имеет отрицательное смещение, равное о2/п. В отличие от состоятельности несмещенность характе- характеризует «доасимптотические» свойства оценки, т. е. является характеристикой ее хороших свойств при каждом конеч- 251
ном объеме выборки. Удовлетворение требованию несме- несмещенности устраняет систематическую погрешность оцени- оценивания, которая, вообще говоря, зависит от объема выборки пив случае состоятельности оценки стремится, как пра- правило, к нулю при п->оо. Если смещение оценки удалось выяснить, то оно легко устраняется. Так, в нашем примере для устранения смещения достаточно перейти к оценке которая, как легко понять, уже будет несмещенной. Из сказанного следует также, что требование несмещенности (при соблюдении требования состоятельности) особенно существенно при малом количестве наблюдений. 8.1.5. Эффективность. Представим себе, что мы имеем две состоятельные и несмещенные векторные оценки @i(Xlt ..., Хп) и &2(Xi, ..., Хп) неизвестного векторного параметра в. Для возможности геометрической интерпре- интерпретации примера будем полагать размерность k векторного параметра равной двум (fe=2). Для анализа свойств двух конкурирующих оценок будем производить многократное (в данном примере двадцатикратное) оценивание неизвест- неизвестного параметра Э = (О*1),©*2))' каждым из двух рассматрива- рассматриваемых способов. С этой целью подсчитываем значения @и и ©2г (*=1» 2, ..., 20), являющиеся результатом подста- подстановки в функции вх и в2 /-й по порядку выборки объема пу т. е. извлекаем первую выборку объема п—ХП1 Х12,..., Х1п, вставляем эти наблюдения в качестве аргументов функций Ох и 02 — получаем первую пару оценок 6П и Э21; затем извлекаем вторую выборку объема п—Х21, Х22, ..., Х2п, вставляем эти наблюдения в качестве аргу- аргументов тех же функций вд и в2 — получаем вторую пару оценок 612 и в2г» и т- Д« На рис. 8.1 по горизонтальной оси отложены первая компонента неизвестного (оценивае- (оцениваемого) параметра (б*1)) и первые компоненты ее двух оценок ф\Г на рис. 8.1, а и Ь{2}} на рис. 8.1, б), а по вертикальной оси — вторая компонента неизвестного (оцениваемого) па- параметра F<2)) и вторые компоненты ее двух оценок @1?} на рис. 8.1,а и Ъ{2? на рис. 8.1, б). Таким образом, взаим- взаимное расположение точки фи\ SlJ}) и крестика @*1), 0<2>) 252
на рис. 8.1, а дает наглядное представление о близости оценки 0И, полученной первым способом с использова- использованием j'-й выборки, к истинному значению оцениваемого па- параметра в (аналогичная картина для второго способа оце- оценивания представлена на рис. 8.1, б). Более тесная кон- концентрация оценок, полученных первым способом, около истинного значения, очевидно, склонит нас к мысли о большей эффективности оценки 0Х по сравнению с оцен- оцен2A) щ d) Ad) I *(V h ? Рис. 8.1. Два способа состоятельного несмещенного оценивания многомерного параметра 0=@A>, 0B>), характеризующегося раз- разной эффективностью: а) более эффективная оценка; б) менее эффективная оценка кой 02. Именно этот критерий как мера разброса оценен- оцененных значений 0 около истинного значения в в соответ- соответствующем й-мерном пространстве и положен в основу опре- определения эффективности оценки. Оценка 0 параметра 0 называется эффективной, если она среди всех прочих оценок того же самого параметра обладает наименьшей мерой случайного разброса относительно истинного значения оце- оцениваемого параметра. Эффективность является решающим свойством, определяющим качество оценки, и оно, вообще говоря, не предполагает обязательного соблюдения свойст- свойства несмещенности. Остается уточнить, как именно измеряется степень случайного разброса значений оценки 0 относительно истинной величины параметра 0. В случае, когда 0 — скаляр (т. е. размерность оценки &=1), в качестве такой естественной меры берется средний квадрат отклонения, т.е. величина а2 @) = Е@ — 0J, 253
чта аля несмещенных оценок совпадает с их дисперсией, так как в этом случае D0 = Е@— Е0J= Е@ — 0J. В случае, когда оценка 0 — вектор (т. е. размерность оценки k ^2), в качестве меры отклонения от истинного значения векторного параметра 0 обычно рассматривается ковариационная матрица оценки 0, т. е. симметричная и неотрицательно-определенная матрица размера fexfe, которую мы будем обозначать 2 @). Соответственно оцен- оценка 0Х параметра 0 считается более эффективной, чем оценка 02, если существуют их ковариационные матрицы 2 @^ и 2@2) и матрица Д2 = 2@^ — 2@2) является неотрицательно-определенной. Для векторных оценок возможны случаи, когда, не- несмотря на существование матриц 2 @^ и 2 @2), нельзя ответить на вопрос, какая из двух оценок эффективнее в вышеуказанном смысле. Эта неопределенность устраняется, если в качестве меры отклонения векторной несмещенной оценки 0 от истинного значения оцениваемого параметра 0 рассматривать не саму ковариационную матрицу оцен- оценки 2@), а ее определитель det2@) (обобщенная дисперсия, см. п. 5.6.7) или след Sp2@). 8.2. Функция правдоподобия. Количество информации, содержащееся в п независимых наблюдениях относительно неизвестного значения параметра Пусть (8.1) — выборка, состоящая из п независимых р- мерных наблюдений, извлеченная из исследуемой гене- генеральной совокупности. Закон распределения вероятностей наблюдаемой р-мерной случайной величины ? описывается функцией /(X, 0), зависящей от неизвестного параметра 0, причем мы будем понимать под /(X, 0) вероятность Р{?>=Х}, если | дискретная, и значение плотности вероят- вероятности в точке X, если ? непрерывна. Если рассматривать выборку (8.1) в гипотетическом смысле, то каждая конкрет- конкретная выборка (X*, Х?, ..., Х?) представляется определен- определенной точкой в (/?Хп)-мерном пространстве выборок перемен- переменных Хь Х2, ..., Хп и имеет смысл говорить о совместном распределении вектора Х=(Хг, ..., Хп). Поскольку при гипотетическом варианте понимания случайной выборки 254
A"i, X2, ..., Xn суть независимые и одинаково распределен- распределенные случайные величины, то для любого заданного набора значений X*, Х?, ..., Х„ их совместная плотность (ве- (вероятность) будет L(X*ltX\,;... X\\ Q) = f(X\; 9П(Х\; в). •..-f(XV. в). (8.5) Таким образом, функция L(X*, Э), определенная ра- равенством (8.5), задает вероятность получения, при извле- извлечении выборки объема я, именно наблюдений X?, ..., Х*п (или величину, пропорциональную вероятности получения выборочных значений в непосредственной близости от точ- точки X * в непрерывном случае). Поэтому, чем больше зна- значение L(X*, Э), тем правдоподобнее (или более вероятна) система наблюдений Х* = (Х?, ..., Хп) при заданном зна- значении параметра Э. Отсюда и название функции L — функция правдоподобия. Функция правдоподобия -в зависимости от постановки задач и целей исследования может рассматриваться либо как функция параметра в (при заданных фиксированных наблюдениях X*, ..., Хп), либо как функция текущих значений наблюдений Xlf ..., Хп (при заданном фиксиро- фиксированном значении параметра G), либо как, функция обеих переменных X и в. Интересно попытаться проследить характер изменения вероятности (8.5) в зависимости от изменения значения параметра 0. Очевидно, чем резче проявляется эта зави- зависимость, тем больше информации заключено в конкретных значениях величин X и в друг о друге. При этом под информацией о неизвестном параметре Э, содержащейся в случайной величине X, понимают степень уменьшения неопределенности, касающейся неизвестного значения 0, после наблюдения над данной случайной величиной. Если по наблюденному значению X* случайной величины X можно с вероятностью 1 точно восстановить значение пара- параметра 0, то это значит, что случайная величина (или ее наблюдение) содержит максимально возможную информа- информацию о параметре. И наоборот, если распределение (8.5) случайной величины X одно и то же при всех значениях параметра 0, то нет никаких оснований делать какие-ли- какие-либо заключения о 0 по результатам наблюдений этой слу- случайной величины (ситуация нулевой информации относитель- относительно значения неизвестного параметра, содержащейся в на- наблюдении). Чувствительность случайной величины к па- 255
раметру может быть измерена величиной изменения рас- распределения этой случайной величины при изменении зна- значения параметра. Наиболее часто используемой характе- характеристикой, на основании которой измеряют расстояние между распределениями (8.5) при двух различных значе- значениях параметра G, является так называемое количество информации Фишера (содержащееся в наблюдениях Х = = (Х1э X2i ..., Хп)), которое определяется для скалярного параметра 9 (т. е. при размерности параметра G, равной единице) следующим образом: I (8; X) = Е [(^)]=j(w In L (X, 0)J L (X; 6) dX. (8.6) Учитывая независимость и одинаковую распределен- ность наблюдений Хи Х2> ..., ХП1 получаем 6) dX = nl F; X). (8.6') Если параметр G = (9^), ..., 9<*)) fe-мерный, причем 2, то вместо количества информации (8.6) рассматрива- рассматривается информационная матрица Фишера I @, X) размер- размерности kxk с элементами )] (8.7) Эти понятия были введены Фишером в 20-х годах на- нашего столетия. Воспользовавшись формулой (8.6), нетрудно подсчи- подсчитать количество информации /(9; X), содержащееся в одном наблюдении о параметре 9, в ряде конкретных примеров. 1. Одномерная величина Х=х подчинена (а, а2)-нор- мальному закону с плотностью ф(л:; а, а2) (см. п. 6.1.5), ^ котором среднее значение а=9 — неизвестный параметр, а дисперсия а2 известна. Тогда —00 (8.8) Результат естественно интерпретируется следующим образом: чем больше дисперсия а2, тем больше разброс в 256
наблюденных значениях исследуемой случайной величины, тем меньше информации о величине ее среднего значения заключено в одном наблюдении. 2. Одномерная случайная величина Х=х подчинена (я, а2)-нормальному закону с плотностью ср(л;; а, а2) (см. п. 6.1.5), в котором среднее значение а известно, а дис- дисперсия а2=0 является неизвестным параметром. Тогда —00 «• Od^^-ir. (8-9) 3. Одномерная случайная величина Х=х подчинена гамма-распределению с параметрами (а, Ь), причем пара- параметр а известен, а Ъ является неизвестным параметром (см. п. 6.2.5). Тогда 8.3. Неравенство Рао — Крамера — Фреше и измерение эффективности оценок 8 п. 8.1.5 введено понятие эффективности оценки в не- неизвестного параметра в, которое определяется средним квадратом отклонения оценки от истинного значения па- параметра, т. е. величиной Е (Э—вJ. В связи с этим возни- возникает вопрос: нельзя ли описать ту границу эффективности, т. е. тот минимум (по всем возможным оценкам 0) сред- среднего квадрата Е@ — вJ, улучшить которую невозможно? Этот минимум и явился бы тогда той точкой начала отсчета эффективности оценки, отправляясь от которой можно было бы ввести абсолютную шкалу измерения эффектив- эффективности оценок. На этот вопрос дает ответ неравенство Рао— Крамера — Фреше, известное также как неравенство ин- информации. Рассмотрим класс всевозможных оценок 9 скалярного параметра 9, от которого зависит плотность вероятности 9 Зак. 1035 257
f(X; в) исследуемой генеральной совокупности. Обозначим Е?-= ft(Xv .: , Хп) L (X, Хп; -6) йХ, ... йХп = F), (8.11) т. е. величина Ь~ (б) дает нам смещение оценки 8 (очевидно, 0 если оценка 0 несмещенная, то &^F)=0). Если плотность f{X\ 0) удовлетворяет некоторым усло- условиям регулярности (в смысле характера ее зависимости от параметра 0), а именно: а) область возможных значений исследуемой случайной величины, в которой /(X; 0)=^О, не зависит от 0; б) в формуле (8.11) и в тождестве J L{Xly ..., Хп; 0) dX^.. ...dXns=l допустимо дифференцирование по G иод знаком интеграла; в) величина /@; X), определенная соотношением (8.6'), не равна нулю, то для любой оценки 0 неизвестного параметра 0 имеет место следующее неравенство: (8.12) ^[ir1^)'} или, что то же, V 1+ Имеется обобщение неравенства (8.12) на случай /г-мер- ного параметра 0 = @<1), ..., '0^)), fe>2. В этом случае при тех же условиях регулярности а)—в) для любой век- векторной несмещенной оценки Э неизвестного параметра в матрица 2F)--^-Г1 (в. X) (8.13) п является неотрицательно-определенной. Здесь 2F) — ко- ковариационная матрица векторной оценки 0 = @A), ..., 0(А>), а 1~1@, X) — матрица, обратная к информацион- 258
ной матрице, определенной соотношениями (8.7) при Х=Х (т. е. при единственном наблюдении X). Неравенства информации (8.12)—(8.13) дают возмож- возможность ввести количественную меру эффективности оценок в классе регулярных (в смысле соблюдения условий а)— в)) генеральных совокупностей. Естественно, в частности, измерять степень эффективности скалярной несмещенной оценки 9 неизвестного значения параметра 9 отношением еф) минимально возможной величины дисперсии оценки, определяемой правой частью неравенства (8.12), к диспер- дисперсии данной конкретной оценки 9, т. е. Подсчитаем эффективность некоторых оценок парамет- параметров а и а2 в условиях примера 8.1. 1. Рассмотрим в качестве оценки среднего значения а нормальной случайной величины среднюю арифметичес- арифметическую (выборочное среднее), т. е. положим Так как наблюдения хг независимы и одинаково распре- распределены, имеем: 1=1 1=1 n n Поскольку (см. (8.8)) 1(а, х) — 1/о2, то в соответствии с (8.14) получаем, что е(х(п)) = 1, т. е. оценка ~х(п) в данном случае — в случае оценивания среднего значения нормаль- нормальной генеральной совокупности — является неулучшаемой. 2. Рассмотрим в качестве оценки дисперсии о2 нормаль- нормальной случайной величины «подправленную» на несмещен- несмещенность выборочную дисперсию 259
Выше (см п. 8.1.4) подсчитано, что Es2(/i)=a2, т. е. s2(n) является несмещенной оценкой дисперсии а2. Необходи- Необходимые вычисления (см., например, [48, с. 382—383]) дают Поскольку (см. (8.9)) /(а2, х)=1/2о*, то в соответствии с (8.14) получаем e(s2(n)) = (n—1)/п, т. е. оценка s2(n) не является эффективной, хотя и близка к ней при больших объемах выборок. В то же время можно показать, что если в качестве оценки а2 взять статистику что в данных условиях допустимо, так как среднее значе- значение а считается известным, то она окажется точно эффек- эффективной. Подчеркнем в заключение, что информационное нера- неравенство справедливо лишь в классе регулярных (в смысле соблюдения условий а)—в) § 8.3) генеральных совокупнос- совокупностей. В частности, если область возможных значений иссле- исследуемой случайной величины, для которых плотность f(x\ 8) положительна, зависит от оцениваемого параметра, то неравенство информации «не работает». Именно такими нерегулярными плотностями являются, например, равно- равномерное распределение (в котором параметрами служат концы диапазона изменения соответствующей случайной величины, см. п. 6.1.7) и экспоненциальное распределение со сдвигом 0, т. е. распределение, задаваемое плотностью /(.г,е) К ' @ при ;с<0. Если, не обращая внимания на то, что эта плотность не удовлетворяет условиям а)—в), вычислить по формуле (8.6) количество информации, содержащейся в п незави- независимых наблюдениях, то получим /@; хг, ..., хп)=п. Сле- Следовательно, в соответствии с информационным неравен- неравенством (8.12) мы должны были бы прийти к выводу, что дисперсия любой оценки 9 параметра 0 не может быть 260
меньше Мп. В то же время нетрудно вычислить (см. ниже, п. 8.6.5), что для оценки где, как обычно, xmim (n) — это минимальное значение в выборке хъ ..., хПУ мы имеем: Так что если для измерения эффективности оценки (8.15) воспользоваться формулой (8.14), то получим, что эффективность оценки 9 не просто больше единицы, но и стремится к бесконечности по мере роста объема выборки п (так как e(Q)=- : -ъ—п). В подобных ситуациях оценки называют иногда «сверхэффективными». Замечание о дискретных случайных величинах. Все вы- вышеизложенные результаты (понятие количества информа- информации, неравенство информации, измерение эффективности оценки) распространяются на случай дискретных призна- признаков при соблюдении тех же ограничений а)—в) с помощью внесения очевидных видоизменений: плотности f(x\ 9) за- заменяются вероятностями рь ф)=Р{1=х? |9}, а интегри- интегрирование — суммированием по всем возможным значениям анализируемой дискретной случайной величины. Таким образом, в качестве дискретных аналогов количества ин- информации (8.6) и информационного неравенства (8.12) будем иметь: /(9; *,,..., *„)=/*/(в; х) = пУ(^ШР1ф)\ (8Л6) d9 В качестве примера рассмотрим случайную величину ?, подчиненную распределению Пуассона (см. п. 6.1.2), т.е. 261
= Р(Е = /|Л>=-^е-\ /=0. i=0 i=0 т. е. дисперсия любой несмещенной оценки К параметра X не может быть меньше, чем \1п \{Х, х)=Х/п. Если рассмот- рассмотреть в качестве оценки X выборочное среднее х(п), то будем иметь: Таким образом, оценка Х=х(п) параметра X в распреде- распределении Пуассона является эффективной. 8.4. Асимптотические свойства оценок Всякая оценка 6(Ar1? ..., Хп) как функция от «гипотети- «гипотетических» результатов наблюдения является случайной вели- величиной, и, следовательно, ее свойства определяются, в ко- конечном счете, функцией ее распределения F§(u\ n). По- Поскольку оценка строится по выборке конечного объема п, то и ее функция распределения зависит, вообще говоря, от /2, что и отражено в ее записи. Однако практическое определение законов распределения оценок при конечных объемах выборок в большинстве ситуаций весьма затрудни- затруднительно, зато гораздо проще вычислять их асимптотичес- асимптотическое (по я->оо) распределение (при соответствующей норми- нормировке). В частности, пусть бГ— оценка неизвестного пара- параметра 6 и пусть существует такая непрерывная и дифферен- дифференцируемая функция распределения F§ (и), что в лю- о норм бои точке и имеет место сходимость Р {VtT (б - 6)< и) — F (и) при а -> оо. (8.18) норм В этом случае функцию F^(u)=^F^ (Vn и) называют ° "норм функцией асимптотического распределения оценки 9, а 262
значения ±[1 (и)йи (в) = -i= Г [и - Г V • L (") dttff^ («) Vя J J 9НОр.М 01IOPM НОр.М 01IOPM соответственно асимптотическим смещением и асимптоти- асимптотической дисперсией этой оценки. Если асимптотическое смещение равно нулю, оценка называется асимптотически-несмещенной. Из асимптоти- асимптотической несмещенности оценки не следует ее несмещенность в обычном смысле, и, наоборот, несмещенность оценки, вообще говоря, не гарантирует ее асимптотическую несме- несмещенность. Однако на практике несмещенность рассматри- рассматривается как более сильное свойство и несмещенные оценки обычно являются асимптотически-несмещенными. Анало- Аналогично совсем не обязательно, чтобы при я->оо происходило в надлежащей нормировке сближение olc и дисперсии оценки. Последняя вообще может не существовать. Вместе с тем утверждение, что асимптотическая дисперсия оценки всегда не превосходит дисперсию оценки, если последняя существует, тоже не верно, хотя на практике обычно име- имеет место. Пример 8.2 (частота как оценка вероятности). Со- Согласно центральной предельной теореме (см. § 7.3) р=~- = - — частота осуществления некоторого события в се- серии из п опытов — имеет асимптотически-нормальное рас- распределение со средним, равным соответствующей вероят- вероятности р=Ер> и дисперсией о2=р(\—р)/п, т.е. Р{(Р — Р)/а<и}—+Ф(и) при /г~>оо. Рассматривая р как оценку параметра ру мы видим, что р — оценка несмещенная и асимптотически-несмещенная, а ее дисперсия и асимптотическая дисперсия равны о2. В случае векторной оценки в вектора в можно но аналогии с (8.18) определить й-мерную функцию распреде- распределения Fqhq m ((У). Для этого в (8.18) надо только заме- заменить 9, 9, и на соответствующие векторы в, G, U и не- неравенство понимать так, что оно выполняется одновременно 263
по всем координатам. Предположим далее, что 0 — асимпто- асимптотически-несмещенная оценка 0, т. е. J U-f® (t/)dt/^=O, и что существует ковариационная матрица (U)dU\lij = Tjk. норм Тогда матрицу /г*^ будем называть асимптотической ко- ковариационной матрицей оценки 0. Определим понятие асимптотической эффективности оценки. Пусть 0Х и 02 — две различные асимптотически- несмещенные оценки параметра 0. Оценка 0Х называется асимптотически более эффективной, чем оценка 02, если асимптотическая дисперсия 0Х меньше асимптотической дисперсии 02. В случае векторных асимптотически-несме- асимптотически-несмещенных оценок оценка 0Х считается асимптотически более эффективной по сравнению с оценкой 02, если существуют определенные выше асимптотические ковариационные мат- матрицы этих оценок Si и 22 и, кроме того, матрица 22—2j является неотрицательно-определенной. Для векторных оценок возможны случаи, когда, несмотря на существова- существование матриц 2Х и 22> нельзя ответить на вопрос, какая из двух оценок эффективнее. 8.5. Понятие об интервальном оценивании. Построение доверительных областей Вычисляя на основании имеющихся у нас выборочных дан- данных оценку в(Х1у ..., Хп) параметра 0, мы отдаем себе от- отчет в том, что на самом деле величина 0 является лишь приближенным значением неизвестного параметра 0 даже в том случае, когда эта оценка состоятельна (т. е. стремится к 0 с ростом п)у несмещенна (т. е. совпадаете 0 в среднем) и эффективна (т. е. обладает наименьшей степенью случай- случайных отклонений от 0). Возникает вопрос: как сильно может отклоняться это приближенное значение (оценка) от ис- истинного? В частности, нельзя ли указать такую величину А, которая с «практической достоверностью (т. е. с заранее заданной вероятностью, близкой к единице) гарантировала бы выполнение неравенства |0—-0 |< А? Или, что то же, 264
нельзя ли указать такой интервал вида (Э—Д, 9+Л), ко- который с заранее заданной вероятностью (близкой к едини- единице) накрывал бы неизвестное нам истинное значение 8 искомого параметра? При этом заранее выбираемая иссле- исследователем вероятность, близкая к единице, обычно называ- называется доверительной вероятностью, а сам интервал @—Л, 6+А) — доверительным интервалом (или интервальной оценкой, в отличие от точечных оценок 0). Доверительный интервал по своей природе случаен (потому и идет речь о вероятности накрыть некоторую не известную нам, но не случайную точку 0!) как по своему расположению (ведь 0 — случайная величина), так и по своей длине (величина Д, как правило, тоже строится как функция выборочных данных Хъ ..., Хп). Ширина доверительного интервала существенно зависит от объема выборки п (уменьшается с ростом п) и от величины доверительной вероятности (уве- (увеличивается с приближением доверительной вероятности к единице). Все данные здесь определения и понятия без труда пе- переносятся на случай векторного параметра в = @A\ ..., 0(А:)) с заменой доверительного интервала доверительной об- областью в соответствующем fe-мерном пространстве (см. очертания таких областей на рис. 8.1, а и б). 8.6. Методы статистического оценивания неизвестных параметров В предыдущем параграфе рассмотрены различные вариан- варианты использования функций от исходных наблюдений Х1у Х2> ..., Хп в качестве оценок неизвестных параметров, анализировались их свойства. Однако пока не ясно, ка- каким способом устанавливаются именно те комбинации результатов наблюдений (статистики), с помощью которых производится (да еще наилучшим в определенном смысле образом!) оценивание того или иного параметра. Каким образом, например, было установлено, что именно комбина- комбинации х{п)у s2(n) (см. (8.3), (8.4)) лучше всего использовать в качестве оценок неизвестных параметров соответственно среднего значения а=Е% и дисперсии o2=Dl нормальной генеральной совокупности? И как конкретно строить опи- 265
санные выше доверительные интервалы и области для не- неизвестных значений параметров? Описанию основных приемов, позволяющих получать ответы на данные вопросы, и посвящен настоящий параграф. 8.6.1. Метод максимального (наибольшего) правдоподобия. В соответствии с этим методом оценка Эмп неизвестного параметра G по наблюдениям Хъ ..., Хп случайной вели- величины ? (подчиненной закону распределения Д (X, в), где / — плотность или вероятность Р{1=Х}) определя- определяется из условия L(XV...9 Хп; 9Mn) = maxL(X1, ..., Хп\ 6), (8.19) где L — функция правдоподобия, определенная соотно- соотношением (8.5). Таким образом, в формальной записи оценка максималь- максимального правдоподобия вмп параметра в по независимым наблюдениям Хъ ..., Хп может быть представлена в виде вмп=агБтахД/(Лу, в). (8.19') Естественность подобного подхода к определению ста- статистических оценок вытекает из смысла функции правдо- правдоподобия. Действительно, по определению (см. § 8.2), функ- функция Ь(ХЪ ..., Хп\ в) при каждом фиксированном значении параметра G является мерой правдоподобности получения системы наблюдений, равных Xlf X2, ..., Хп. Поэтому, из- изменяя значения параметра G при данных конкретных (имеющихся у нас) величинах Хи Х2, ..., Хп, мы можем проследить, при каких значениях в эти наблюдения явля- являются более правдоподобными у а при каких — менее и выб- рать в конечном счете такое значение параметра вмп, при котором имеющаяся у нас система наблюдений Хъ ..., Хп выглядит наиболее правдоподобной (очевидно, что это значение 6МП определяется конкретными величинами на- наблюдений Х1У Х2, ..., ХПУ т. е. является некоторой функ- функцией от них). Так, например, пусть \ — заработная плата работников, подчиненная логарифмически-нормальному распределению (см. п. 6.1.6). И пусть с целью приближен- приближенной оценки средней величины логарифма заработной платы работников а= ЕAп?) мы зафиксировали значения заработ- 266
ной платы ^ = 190 руб., д:2= 175 руб. и *3=205 руб. у трех случайно отобранных из интересующей нас совокупности работников. Тогда, расположив y—Xnxi A=1,2,3) на оси возможных значений нормально распределенной слу- случайной величины т] = 1п|, мы будем стараться подобрать такое значение аып параметра а в (а> о2)-нормальном рас- распределении, при котором наши наблюдения уъ у2, у3 вы- выглядели бы наиболее правдоподобными, а именно при ко- котором произведение трех ординат плотности ср(#; а\ а2), Y(t/;5M3;0,0S) /IV 5,00 5,10 5,16 Рис. 8.2. Графики нормальной функции плотности при двух значе- значениях параметра а вычисленных в точках соответственно ^=111190=5,25, #2=1п175=5,16 и у3=\п205=5,32, достигало бы своего максимального значения. На рис. 8.2 изображены графики функции плотности ф(г/; а; а2) при значении параметра аып=у=^5,243, соответствующем наибольшей правдоподоб- правдоподобности наблюдений ^=5,25, г/2=5,16 и уъ—5,32 (сплошная кривая), и при значении параметра а=5,443, при котором наши наблюдения выглядят явно неправдоподобными — пунктирная кривая (значение дисперсии о2 определено в обоих случаях с помощью подправленной на несмещен- несмещенность оценки максимального правдоподобия и равно 0,0064). Отмеченная естественность подхода, исходящего из максимальной правдоподобности имеющихся наблюдений, подкрепляется хорошими свойствами оценок, получаемых с его помощью. Можно показать, в частности, что при до- достаточно широких условиях регулярности, накладываемых на изучаемый закон распределения /(X; 0) (см., например, 171, с. 314—317]), оценки максимального правдоподобия 267
0МП параметра в являются состоятельными, асимптоти- асимптотически-несмещенными, асимптотически-нормальными и асимп- асимптотически-эффективными (т. е. их ковариационная матри- матрица 2(вмп) асимптотически имеет вид 2@МП) = n~x x XI'H©; X), где I (в; X)— информационная матрица Фи- Фишера, определенная соотношениями (8.7) применительно к единственному наблюдению, т. е. при Х=Х). Однако из этого не следует, что оценки максимального правдоподобия будут наилучшими во всех ситуациях. Во- первых, их хорошие свойства проявляются часто лишь при очень больших объемах выборок (т. е. являются асимпто- асимптотическими, см. § 8.4), так что при малых п с ними могут конкурировать (и даже превосходить их) другие оценки, например оценки метода моментов, метода наименьших квадратов и т. д. (см., ниже, п. 8.6.2—8.6.5). Во-вторых, и это, пожалуй, главное «узкое место» данного подхода, для построения оценок максимального правдоподобия и обеспечения их хороших свойств необходимо точное зна- знание типа анализируемого закона распределения f(X; 0), что в большинстве случаев оказывается практически не- нереальным. В подобных ситуациях бывает выгоднее искать не оценку, являющуюся наилучшей в рамках данного кон- конкретного общего вида f(X; 0) (но, как часто бывает, резко теряющую свои хорошие свойства при отклонениях реаль- реального распределения от типа f(X; в)), а оценку, хотя и не наилучшую в рамках совокупности f(X; 9), но обладаю- обладающую достаточно устойчивыми свойствами в более широком классе распределений, включающем в себя f(X\ 0) в ка- качестве частного случая (см. ниже, п. 8.6.4). Подобные оцен- оценки принято называть устойчивыми или робастными (ан- (английский термин robust estimation означает грубое, или устойчивое, оценивание). И наконец, оценки максималь- максимального правдоподобия могут не быть даже состоятельными, если число k оцениваемых по выборке параметров 6^ ..., Qk велико (имеет тот же порядок, что и объем выборки п) и растет вместе с увеличением числа наблюдений. Ниже приведен пример подобной ситуации (см. пример 8.7). Попытаемся ответить на вопрос, как конкретно нахо- находятся оценки максимального правдоподобия, т. е. как проводится решение оптимизационной задачи типа (8.19). Если функция f(X; 9) удовлетворяет определенным условиям регулярности (дифференцируемость по 9 и т. п., см. условия а)—в) § 8.3) и экстремум в (8.19) достигается 268
во внутренней точке области допустимых значений неиз- неизвестного параметра 0, то в точке 0МП должны обращаться в нуль частные производные функции L(XU ..., Хп\ 0), а следовательно, и логарифмической функции правдоподобия l(Xv... ,Xn; в) = In L (AT,, .... ДГл;в)= %lnf(XhS) (8.20) в силу монотонного характера этой зависимости: последняя удобнее для вычислений. Значит, в данном случае оценка максимального правдоподобия 0мп=@мп\ •••» ^мп) долж- должна удовлетворять уравнениям: •••' *":в)-0, /=1, 2 к, (8.21) и может определяться в качестве решения этой системы уравнений. Однако могут быть ситуации (случай нерегулярных по 0 законов распределения), когда система (8.21) не определена или не имеет решений, в то время как решение .•-^ (8.19') существует. В подобных ситуациях оценку 0МП следует искать другими способами, в том числе с помощью непосредственного подбора решения (8.19) (см. ниже при- примеры 8.5 и 8.6). Пример 8.3. Исследуемая случайная величина ? имеет нормальную плотность вероятности с неизвестным средним значением я=Е? и неизвестной дисперсией g2=D?. В соответствии с (8.5) функция правдоподобия в этом случае будет L(xv .... хп\ а, аг)=—1 '=' Bг.J о" 269
Соответствующая логарифмическая функция правдоподо- правдоподобия Дифференцируя / по а и о2 и последовательно приравнивая соответствующие частные производные к нулю, получаем конкретный вид системы (8.21): п дЦх, хп\ д, а2) 1_ да о2 dt(xu ... , хп\ а, о2) __ п 1__ ; L-Ylfo. _ а)з = 0 Решение этой системы относительно а и а2 дает оценки максимального правдоподобия этих параметров: Выше (см. § 8.3) установлено, что оценка амп = является эффективной оценкой параметра а (так как ее эффективность e(aMn) = l)t а оценка а„п =s2(ri) — асимпто- тически-эффекгивной оценкой параметра а2 (так как ее эффективность e(oln) =(п—\Iп). Пример 8.4. Исследуемая случайная величина ? подчинена закону распределения Пуассона, т. е. f(x; а) = Р{6 = *}==2?е~* (jc = O, 1, 2,...), с неизвестным значением параметра X. В соответствии с (8.20) логарифмическая функция прав- правдоподобия, построенная по выборке хг, х2, ..., хп, имеет вид = (In Я) • 2 jcf - 2 In (л:,!) - 270
Отсюда после дифференцирования по к получаем уравне- уравнение метода максимального правдоподобия откуда п Легко видеть, что эта оценка несмещенная, так как i ;i Вычислим эффективность оценки \1П. Нижняя граница дисперсии по всем возможным оценкам параметра К может быть вычислена в соответствии с неравенством информации (8.12): nE(x-l) Дисперсию оценки Ямп вычислим, опираясь на следую- следующий известный факт (см., например, [48, с. 229]): сумма независимых случайных величин xlt x2, ..., хп> подчиняю- подчиняющихся распределению Пуассона со средними значениями соответственно Х1^к2> •••> ^п, имеет распределение Пуассона со средним значением, равным ^+^+...4-^. Поэтому дисперсия Сравнивая (D ^)min с D Хмп, убеждаемся, что оценка максимального правдоподобия среднего значения пуассо- новской случайной величины является эффективной. Пример 8.5. Исследуемая случайная величина \ распределена по равномерному закону (см. п. 6.1.7), т. е. если — в противном случае, где параметры а и Ъ неизвестны (подлежат оцениванию). 271
Легко проверить, что это — случай нерегулярный (в первую очередь потому, что область возможных значений исследуемого признака, в которой плотность положительна, зависит от оцениваемых по выборке параметров а и Ь). Поэтому обычная техника, использующая уравнения (8.21) метода максимального правдоподобия, здесь непри- неприменима. Однако в этом случае экстремальная задача (8.19) может быть решена непосредственно. Действительно, L{xlt..., хп\ а, Ь)={Ь2а)П , причем область допустимых значений параметров а и 6, где производится поиск тех значений амп и &мп, при кото- которых l/(fc—a)rt=max, описывается соотношениями: Ь a<min {xi} = xmln(n); max {x,} = xmsx(n), где Xi, x2, ..., хп — имеющиеся- в нашем распоряжении наблюдения исследуемой случайной величины. Очевидно, решение экстремальной задачи дается соотношениями: Опираясь на результаты п. 5.6.4 (см. также п. 8.6.4), можно подсчитать: Dam = Dxmln (п) = {п+1)пШ{п + 2) (b - aJ; (8.22) ^m = Exm3X(n)=b-b^; ^ = Dxmax (л) = (д+1)?(я + 2) F - a)\ 272
Использовать неравенство информации для вычисления нижней границы дисперсии этих оценок мы не можем, так как случай нерегулярный. Из (8.22) видно, что величины D амп и D Ьшп характеризую? одновременно средний квад" рат отклонения «подправленных на несмещенность» оценок ^Г у (м\ *П ** мп ^min v*7 *— и ~~~~ от истинных значений параметров а и Ь. Пример 8.6. Снова рассмотрим задачу оценивания параметра сдвига Э в экспоненциальном распределении, задаваемом плотностью при х < 6. Как и в предыдущем примере, имеем дело с нерегуляр- нерегулярным случаем. Поэтому приходится непосредственно решать экстремальную задачу вида ^! хп; 0) = maxe е 9 min {xl} = xmln(n). (8.22') Легко видеть, что 9мп=хт,п (п) является решением этой задачи: при любом другом 9, удовлетворяющем условию (8.22'), очевидно п п ^ п и, следовательно, L(x,,..., xn; fMn)>Z.(jr, хя; 6). 273
Опираясь на результаты п. 5.6.4 (см. также п. 8.6.4), можно подсчитать: Оем„ = Е (xmin {п) - Exmin (n)f = ^; (8.23) Однако оценка 9мп =9МП » получающаяся из оценки 0МП «подправлением на несмещенность», будет иметь сред- средний квадрат отклонения Е(е'мп-6J=^-. (8.24) Пример 8.7 (заимствован из [22, с. 187]). Рассмот- Рассмотрим ситуацию, когда метод максимального правдоподобия не приводит к состоятельной оценке. С целью оценки п концентраций некоторого элемента аи а1у ..., ап в лаборатории производились двукратные изме- измерения (xh yt) каждой из концентраций at. Предполага- Предполагается, что все 2п результатов измерений хи уи х2, уг> ..., хп> Уп имеют одинаковую точность и являются независи- независимыми нормальными случайными величинами (см. п. 6.1.5), так что в качестве функции правдоподобия получаем L(xlt #,,..., xtv yn\ av a2 an; o2) = n Неизвестными параметрами являются п средних значе- значений аи аъ ...; ап и дисперсия а2. Нетрудно получить оцен- оценки максимального правдоподобия параметров at: Решая теперь уравнение максимального правдоподобия N. (8.21), в которое вместо at подставлены значения аЫю получаем п ? — ] МП Ап 274
Нетрудно подсчитать, что И<ЗмП~<з212у т. е. метод мак- максимального правдоподобия дает в этом сЛучае оценку пара- параметра а2 с постоянным (асимптотически-неустранимым) отрицательным смещением, равным —а2/2. В качестве наи- наилучшей несмещенной оценки следовало бы выбрать в дан- данном случае статистику 8.6.2. Метод моментов. Пусть, как и прежде, | — ис- исследуемая /7-мерная случайная величина, подчиняющаяся закону распределения f(X; 0), где функция f{X\ 0) — плотность вероятности, если \ непрерывна, и вероятность Р{1=Х |0}, если ? дискретна, зависит от некоторого, во- вообще говоря, многомерного параметра 0=(9A>, ..., 6<*>). И пусть мы хотим оценить неизвестное значениехэтого па- параметра, т. е. построить оценку 0 по имеющейся в нашем распоряжении выборке, состоящей из независимых' на- наблюдений Х19 .... Хп, где Х~{х\'\х\2\ ..., х\р)У. Метод моментов заключается в приравнивании опреде- определенного количества выборочных моментов к соответствую- соответствующим теоретическим (г, е. вычисленным с использованием функции f(X\ 0)) моментам исследуемой случайной вели- величины, причем последние, очевидно, являются функциями от неизвестных параметров б*1),...,^*). Рассматривая ко- количество моментов, равное числу k подлежащих оценке параметров, и решая полученные уравнения относительно этих параметров, мы получаем искомые оценки. Таким об- образом, оценки Ймм^-^&мм по методу моментов неизвест- неизвестных параметров 8*1), ..., 0(*) являются решениями системы уравнений: в) dA-=-i-2j ^" •/=1'2 ^ II m)J(y\ U\AY J_ \^ y(l) v(m) (8.25) /, m= 1, 2, ... , /7; 275 1
(очевидно, если анализируемая случайная величина ? дискретна, интегралы в левых частях (8.25) следует заме- заменить соответствующими суммами типа 2X°,k • Р{1=Х°.\е}). Число уравнений в системе (8.25) должно быть равным числу k оцениваемых параметров. Вопрос о том, какие имен- именно моменты включать в систему (8.25) (начальные, цент- центральные или их некоторые модификации типа коэффициен- коэффициентов асимметрии или эксцесса), следует решать, руковод- руководствуясь конкретными целями исследования и сравнитель- сравнительной простотой формы зависимости альтернативных теоре- теоретических характеристик от оцениваемых параметров 9A>,..., 0(А>). В статистической практике дело редко доходит даже до моментов четвертого порядка (исключение составляет, пожалуй, практика эксплуатации так называемой «систе- «системы кривых Пирсона», см., например, [16, с. 101], однако этот чисто формальный аппарат подгонки эмпирического распределения под одну из теоретических кривых практи- практически не в состоянии, с нашей точки зрения, решать сколь- нибудь интересные задачи содержательного статистичес- статистического анализа данных). К достоинствам метода моментов следует отнести его сравнительно простую вычислительную реализацию, а так- также то, что оценки, полученные в качестве решений системы (8.25), являются функциями от выборочных моментов. Это упрощает исследование статистических свойств оценок ме- метода моментов: можно показать (см. [48, гл. 27 и 28]), что при довольно общих условиях распределение оценки такого рода при больших п асимптотически-нормально, сред- среднее значение такой оценки отличается от истинного значе- значения параметра на величину порядка п, а стандартное отклонение а(Эмм) асимптотически имеет вид сп~1/29 где с — некоторая постоянная величина. В то же время, как показал Р. Фишер (см. [48]), асимпто- асимптотическая эффективность оценок, полученных методом момен- моментов, оказывается, как правило, меньше единицы, и в этом отношении они уступают оценкам, полученным методом максимального правдоподобия. Тем не менее метод моментов часто очень удобен на практике. Иногда оценки, получае- получаемые с помощью метода моментов, принимаются в качестве первого приближения, по которому можно определять дру- другими методами оценки более высокой эффективности. Вернемся к нашим примерам. 276
В примере 8.3 в качестве системы (8.25) имеем: что дает уже знакомые нам по методу максимального прав- правдоподобия оценки для параметров: I — 1 П 1 Wj с /"""" / \\Щ I S *< <•* w4 Нормальное распределение, так же как и распределение Пуассона (в чем легко убедиться, обратившись к примеру 8.4), относится к тем редким случаям, когда оценки по мето- методу моментов совпадают с оценками по методу максимального правдоподобия. Построение системы (8.25) в примере 8.5 дает: Откуда легко получаем оценки: (n); (8.26) Можно сравнить асимптотическую эффективность оце- оценок, полученных методом максимального правдоподобия и методом моментов: учитывая, что дисперсия оценок (8.26) как дисперсия функций выборочных моментов х(п) и s2(n) имеет порядок п~х (см. [48, с. 388]), и принимая во внимание соотношение (8.22), в соответствии с которым дис- дисперсии оценок по методу максимального правдоподобия 277
тех же параметров имеют порядок п, получаем, что эффек- эффективность амм и 6ММ в сравнении с эффективностью амп и Ьип стремится к нулю при п-^оо. Реализация метода моментов в примере 8.6 дает Следовательно, 0мм=л;(п)—1. Для подсчета среднего значения и дисперсии оценки 0ММ воспользуемся следующими фактами: а) случайную ве- величину хь распределенную экспоненциально с параметром Х=1 и с параметром сдвига 0 (см. п. 6.1.8), можно интер- интерпретировать как частный случай гамма-распределенной слу- случайной величины с параметрами а=1, Ь=\ и с параметром сдвига 0 (см. п. 6.2.5); б) сумма п независимых случайных величин хи x2i ..., xnf каждая из которых распределена по закону гамма с параметрами а=1 и b=l и с параметром сдвига 0, подчиняется гамма-распределению с параметрами а=п, Ь—\ и с тем же самым параметром сдвига 0 (см. п. 6.2.5). Поэтому Е0ММ = Е U (п) - 1) = ~^-1 = 9; Е (9мм ~ 9J = D0MM = D (* (п) - 1) = -%г~. Учитывая выражение (8.24) для среднего квадрата ошиб- ошибки «подправленной» оценки по методу максимального прав- правдоподобия 0мп того же параметра 0, получаем 1 Е(Г'МП —вJ 1 п —!—мл '-—= ~j—— „о при /г-^оо, Е(Сш-8J — п т. е. и в этом случае асимптотическая эффективность оценки по методу моментов стремится к нулю. 8.6.3. Метод наименьших квадратов. Рассмотрим функцию известного вида г[)(в, X) от неизвестного векторного пара- параметра 0=@<х>, ..., 9<*)) и многомерной (неслучайной) переменной Х = (хA), ..., х(р))\ характеризующей условия проведения случайного эксперимента (наблюдения). Пусть в результате /-го эксперимента (наблюдения) мы регистри- регистрируем (при точном знании величины «сопутствующей» пе- 278
ременной Xt) значение yt функции i|)@; Xt) со случайной ошибкой 8; *(см. также C.9)): &=Ф (в; *,)+*„ 1=1, 2,..., /г. Требуется по наблюдениям (уъ Хх), ..., (#n, Xn) как можно точнее оценить параметры ЭA>, ..., 9<*>. В отличие от предыдущих схем оценивания (см. п. 8.6.1, 8.6.2) в дан- данном случае мы не обязаны задаваться общим видом закона распределения ошибок et (а следовательно, и случайных ве- величин yt). Метод наименьших квадратов определяет оценку 0НК неизвестного параметра 0 из условия S tot ~ Ф ft*; Хг))ш = тт2 {у, - ф (8, *,))"• (8.27) «=1 в4 «=i При весьма общих предположениях о природе случай- случайных ошибок е и структуре функций я|>(в; X*) оценки, удов- удовлетворяющие соотношению (8.27), являются состоятель- состоятельными, асимптотически-несмещенными, асимптотически-нор- асимптотически-нормальными и асимптотически-эффективными (см., напри- например, [71, гл. 4]). Укажем здесь лишь некоторые основные требования к ef и if>@; X), соблюдение которых обеспечи- обеспечивает хорошие свойства оценок по методу наименьших квад- квадратов: а) случайные остатки е^ имеют нулевые средние значе- значения (Ее^=0) и одинаковые конечные дисперсии De^o2, не зависящие ни от номера наблюдения *, ни от параметра в1; б) функция я|)@, X) непрерывна и дифференцируема по всем параметрам Э^>, ..., 8<*>. Способ вычисления оценок наименьших квадратов 0НК опирается на тот факт, что если 0НК является точкой ми- минимума критерия 2 Cfifi — ф (в. Л",))*. (8.27') 1 На самом деле существенным является лишь требование не- независимости распределения ошибок е^ от величины оцениваемого параметра 0: при нарушении этого требования оценки наименьших квадратов перестают быть состоятельными. В случае же зависи- зависимости типа De^= o\ все хорошие свойства оценок наименьших квад- квадратов сохраняются при условии введения в слагаемые критерия (8.27) «весов» со,-, пропорциональных сг2, 279
то оценки ^н!Л •••! внк} должны удовлетворять системе так называемых нормальных уравнений: dQ}f»K) =0, /=1, 2,..., k. Или, что то же, оценки наименьших квадратов 0™\ ..., Эн^ неизвестных параметров Э{1>, ..., в<*> определяют- определяются как решение системы уравнений: /=1, 2 ft. (8.28) Представим описанные результаты в частном случае, когда функция г|э является линейной и по сопутствующим переменным X, и по параметрам 0. Вновь -возвращаясь к матричным обозначениям гл. 3, а именно вводя в рассмот- рассмотрение матрицу наблюдений (или «матрицу плана») Y(DYB) Y(p) и вектор-столбцы наблюдений исследуемой зависимой пере- переменной Y=(ylf y2, ..., упУ и остаточных случайных компо- компонент Е=(е1, ..., епу, имеем (см. также C.5)) К=Хв+е1. Соответственно Q (в) — (У - Хв)' (У - Хв), (8.27/г) а система нормальных уравнений имеет вид Х'Хв = Х'У. (8.28;) Матричная запись решения этой системы дает ХТ. (8.29) Геометрическая интерпретация мнк-оценок в линейном случае. Рассмотрим n-мерное пространство векторов (Rn), 1 Чтобы обеспечить присутствие в данном уравнении коэффи- коэффициентов, являющихся свободными членами, в качестве первого столбца матрицы X записывают значения «фиктивной» переменной, тождественно равные единице. 280
введем в нем расстояние р([/, V) между двумя векторами (/, V ? Rn> положив Р2(!7, V) = (U-V)'(U-V). В пространстве /?л выделим линейное подпространство Т, натянутое на вектор-столбцы матрицы X, или, что то же са- самое, подпространство, образованное всеми векторами вида Х9, где 0 ? Rp. Очевидно, что размерность Т совпадает с г — рангом X, а потому не превосходит р и равна р только тогда, когда г=р. Обозначим через S совокупность векторов в Rn, каждый из которых перпендикулярен подпространст- подпространству Т. Размерность S равна п—г. Любой вектор U в Rn однозначно разлагается на два взаимно перпендикулярных слагаемых: f (8.30) таких, что Ut 6 Т и Us ? S. При этом Uj является проекцией U на Т, a Us — проекцией U на S. Оценка по методу наименьших квадратов (мнк-оценка) 0 дает такое значение вектору Х0 (= Т, при котором длина вектора остатков Y—Х0 минимальна, а это означает, что поиск мнк-оценки соответствует проектированию Y на Т и что Y— Х0 ? S. Поскольку разложение любого вектора в виде суммы вида (8.30) единственно, величина критерия (8.27") имеет одно и то же значение для всех мнк-оценок, о чем уже сказано выше. Рассмотрим теперь более подробно проекции Y на Т и S. Согласно базовому предположению C.6) вектор оши- ошибок имеет нормальное распределение в Rn с нулевым сред- средним и дисперсией по любому направлению, равной а2. Представим его в виде е—eT+es- Тогда Ут_Х6 + ет; (8.31) ys=eS. (8-32) Из (8.32) с учетом размерности S и определения %2 (см. п. 6.2.1) сразу же следует, что Q@HK)y/(j2 имеет %2(п—г)- распределение. Отсюда для а2 может быть предложена не- несмещенная оценка ?=Q($JI(n-r). (8.33) Оптимальное свойство мнк-оценок. В случае, когда г=/?, единственная мнк-оценка определяется формулой 281
(8.29), из которой с учетом предположений C.6) следует, что Е0НК=0, (8.34) т. е. что единственная мнк-оценка является несмещенной (см. § 8.1). Покажем теперь, что среди всех линейных не- несмещенных оценок векторного параметра 0 вида 0 = АУ (таких, что AX0 = 0) 0пк имеет наименьшую обобщенную дисперсию (см. п. 5.6.7), равную ААк = з2|(Х'ХГ|. (8.35) Для этого каждую вектор-строку матрицы А спроектируем на подпространства Т и S и из проекций соберем соответст- соответственно матрицы Ат и As. Поскольку A=AT+As, то 0 = AY = АТУ + ASK; (8.36) Е0= АтХ0 + AsX0. (8.37) Вектор-строки матрицы As принадлежат S, т. е. перпенди- перпендикулярны вектор-столбцам X, и, следовательно, второе ела- гаемое в (8.37) равно нулю. С учетом несмещенности 0 отсюда следует, что векторы Ат Х0 и 0 должны совпадать при всех значениях 0. Это, принимая во внимание ранг X и принадлежность вектор-строк матриц Ат и (Х'Х)~1Х/ к подпространству Т, возможно лишь когда АТ = (Х'Х)-1Х'. (8.38) С другой стороны, учитывая разложение (8.30) для К, полу- получаем, что ASY = А8УТ + А8У8 = As^s, (8.39) так как вектор-строки As и Ут принадлежат взаимно пер- перпендикулярным пространствам. Из (8.36), (8.38) и (8.39) следует, что произвольная линейная несмещенная оценка 0 представима в виде причем оба слагаемых в правой части (8.40) лежат в перпен- перпендикулярных подпространствах, а потому независимы. Ут- Утверждение об оптимальности мнк-оценки следует сразу же 282
из представления (8.40). Й самом деле, ковариацибнная мат- матрица компонент оценки 0 равна Е (§ - в) (в - в)' = Е (@1Ж - в) (внк -0)' + + EAsVsF'sA's = (Х'Х)" 'XEYY'X' (Х'Х)"' + где 2* — некоторая неотрицательно-определенная матрица. Рассмотрим некоторые частные примеры. 1. В частном случае условия проведения наших наблюде- наблюдений могут оставаться неизменными, тогда анализируемая функция г|;(в, X) не будет зависеть от сопутствующей переменной X. Пусть, в частности, я|)@) = 0, так что r/i = e +&h т. е. задача сводится к оценке наблюдаемого со случайной ошибкой параметра G и, быть может, диспер- дисперсии этой ошибки <72=Оег. Критерий метода наименьших п квадратов в данном примере имеет вид Q(Q)=%(yi—ВJ. Система нормальных уравнений (8.28) (состоящая в данном случае из одного уравнения) имеет вид откуда п Если дополнительно предположить нормальность ошиб- ошибки е, то оценка по методу наименьших квадратов 8НК совпадает с оценкой 6МП, полученной ранее методом макси- максимального правдоподобия, неизвестного среднего значения нормальной случайной величины. 2. Пусть в-FA), 6<2>)', Х-^1), *<2>), причем х^=1 (т. е. не меняется в ходе наблюдений), а г|;(в, Х) = 0'-Х = -6A).л:<1)+е<2)-л:B)=еA)+е<2>л:B). В качестве наблюде- наблюдений мы имеем Требуется оценить по этим наблюдениям параметры 0(х) и 0<2> (задачу оценивания параметров в линейной моде- модели парной регрессии, см., например, [6]). 283
Критерий метода наименьших квадратов в данном при- примере Система нормальных уравнений (8.28') запишется: «=I «=! откуда получаем: 2 У1*12)- где //(/г) и л:B)(/г), как обычно, средние арифметические ве- величин соответственно уи ..., уПУ и x(i}, ..., х{п2К Подробные сведения о методе наименьших квадратов можно найти, например, в [48], [71]. История развития метода, по-видимому, начинается с ра- работы Лежандра 1805 г. «Новые методы определения орбит комет», в которой был впервые предложен функционал вида (8.27') как критерий качества оценивания. Первое теоретико-вероятностное обоснование метода наи- наименьших квадратов дано в работах Гаусса в 1809 и 1821 гг. В более общем виде теорема Гаусса о свойствах оценок наи- наименьших квадратов сформулирована и доказана А. Марко- Марковым в 1912 г. Метод наименьших квадратов получил самое широкое распространение в практике статистических исследований в первую очередь благодаря двум главным своим преиму- преимуществам: во-первых, он не требует знания закона распре- распределения обрабатываемых наблюдений, во-вторых, он доста- достаточно хорошо разработан в плане вычислительной реали- реализации. 284
8.6.4. Оценивание с помощью «взвешенных» статистик; цензурирование, урезание выборок и порядковые статистики как частный случай взвешивания. Выборочные моменты mh(ri) всегда являются состоятельными оценками соответ- соответствующих теоретических моментов mh, если последние су- существуют (см. § 7.2). Однако не во всякой генеральной со- совокупности они являются наиболее эффективными оценками. Так, например, мы видели (см. п. 8.6.1 и 8.6.2), что эффек- эффективность оценки среднего значения тг исследуемой случай- случайной величины с помощью выборочного среднего х(п)=т1(п) существенно зависит от типа анализируемой генеральной со- совокупности: для нормальной генеральной совокупности она равна единице (см. пример 8.3 в п. 8.6.1), а для совокупно- совокупности, подчиненной равномерному закону распределения, существенно меньше единицы и в сравнении, например, с эффективностью оценки а (я) = 4" (*«. имеет (асимптотически по п~>оо) порядок п (см. пример 8.5 в п. 8.6.1, 8.6.2). Для построения оценки (8.41) нами использованы только два наблюдения из п имеющихся—наи- имеющихся—наименьшее и наибольшее, т. е. оценка (8.41) относится к клас- п су «взвешенных» порядковых статистик 2 е0* #ш» рАе XU)— i-e по величине (в порядке возрастания) наблюдение, а со?— его «вес» (очевидно, в статистике (8.41) принято (Dl=(on = =0,5, а все остальные со^ равны нулю). В реальной ситуации исследуемое распределение может не укладываться (в точности) ни в одну из используемых мо- моделей, описанных, например, в гл. 6, а занимать в некото- некотором смысле «промежуточное» положение. Один из вариантов формального описания такого промежуточного положения для симметричных (относительно параметра группирова- группирования 6) распределений предложен Дж. Тьюки (см. [141], а также п. 6.1.11): f(x\ а; е) = A —?)9(х; а\ a2)-\-s-h(x\ a; 6), где f{x\ a\ е) — плотность вероятности исследуемой случай- случайной величины; ф(д:; а\ а2) — плотность нормального закона со средним значением а и дисперсией a2; h(x\ а; 6) — плот- плотность некоторого другого («засоряющего») закона распре- распределения, симметричного относительно того же самого центра 285
группирования и зависящего, быть может, от какого-то еще параметра G, а е>0 — доля «засорения», т. е. доля тех наблюдений в исследуемой общей генеральной совокуп- совокупности, которые подчинены закону «засоряющего» распреде- распределения h(x; a; 0). В табл. 8.1 представлены значения эффективностей оце- оценок х(п) (выборочного среднего) и *med(tt) (выборочной ме- медианы) параметра а в зависимости от характера и степени засорения анализируемого распределения. Расчеты произ- произведены с помощью сочетания аналитического метода, ис- использующего знание вида распределения xmed (n) в различ- различных генеральных совокупностях (см. п. 5.6.4) — и метода Таблица 8.1 с с *% 1 2 3 4 Вид засорения Л (х) , -(А— 1 ¦ОJ Хе 2-Cа>2 (нормальное) h (х) - (Лаплас. Л(*)=- (равноме [а —За, 0 —, если х ? 6-а 6[а—За,а+3а]; 0, если х $ [а— \ —За, а + За] рное на отрезке а + Зо)) h (х) —. я[1+(х-а)*] (Коши) Оценка х(п) *тед (п) х(п) Xmed (n) х(п) Xmed (n) х(п) *med (n) Степень засорения Е = 0 1 2 я = 0,637 1 2 я = 0,637 1 2 я = 0,637 1 2 я = 0,637 е=0.05 0,808 0,669 0,682 0,894 0,362 0,781 0,282 0,765 8=1 . 1 2 я = 0,637 0,500 i 0,063 0,835 0,032 8 я2 ~ = 0,811 286
статистического моделирования на ЭВМ (см. § 6.3) на доста- достаточно больших выборках из обсуждаемых генеральных со- совокупностей (п^200). Мы видим, что, чем «тяжелее хвосты» засоряющего рас- распределения (т. е. чем медленнее стремится к нулю плот- плотность h(x) по мере удаления х от центра группирования а), тем резче ослабевает эффективность оценки x(n)t в то время как выборочная медиана хтЫ(п) демонстрирует удивитель- удивительную устойчивость своих хороших свойств. Выборочная медиана xmed (n) относится к классу «взвешенных» порядко- ii вых статистик, т. е. статистик вида S^Wo"» Для ее получения i в качестве частного случая статистик этого класса достаточ- достаточно положить нулю все веса юг> кроме одного (со/2+, =1, 2 если п нечетно) или кроме двух (<оп =соп = ^ , если п четно). Далее, в п. 10.4.4, 10.4.5 и 10.4.6, а также в § 11.5, рассматриваются некоторые конкретные задачи статистиче- статистического оценивания неизвестных параметров, при решении которых используются различные варианты взвешенных статистик. Здесь же мы коротко остановимся лишь на опи- описании основных подходов, связанных с использованием взве- взвешенных статистик, и на классификации их типов. Взвешивание выборочных данных Хх, ..., Хп. В общем случае наблюдению Xt приписывается вес со? =o)(Xj)^O, который определяется как некоторая функция от его теку- текущего значения. Обычно веса подчиняют условию нормиров- п ки ^ о) (Хг) = 1. В частности, можно рассматривать со- i=i взвешенные моменты случайной величины I с плотностью fl(X), как выборочные tnk (n, со), так и теоретические 1 Если X=(jcA\ ..., х(р))' — многомерный признак, то под Хк понимается любое произведение вида (*(il))frl (х^г))кг... (л:') 1% в котором индексы // могут принимать значения от I до р, а Аг2+ 297
Возможности и сущность этого подхода рассматриваются в п. 10.4.6. Если имеют дело с результатами наблюдения одномер- одномерной случайной величины хг, ..., хп, то часто вес наблюде- наблюдения Xi определяют в зависимости от его порядкового номера в упорядоченном (по возрастанию) ряду наблюдений, т. е. располагают наблюдения в вариационный ряд (см. п. 5.6.4) *(О> *B)» •••> Х(п) и каждому члену вариационного ряда Ха) ставят в соответствие некоторый вес со*. Примеры такого рода взвешивания (которое приводит к так называемым порядковым статистикам) приведены вы- выше. Некоторые другие варианты оценок этого типа рассмот- рассмотрены в п. 10.4.4 и 10.4.5. Цензурирование выборки. Этот прием заключается в при- приписывании ряду «хвостовых» членов вариационного ряда нулевых весов, а остальным — одинаковых положительных. Если приписывание нулевых весов производится по призна- признаку выхода текущих значений наблюдений за пределы задан- заданного диапазона [а, Ь], т. е. 0, если X(i)<^a или х^ то говорят о цензурировании типа I. Очевидно, в этом слу- случае число v оставшихся в рассмотрении наблюдений есть величина случайная (v<n). Если же нулевые веса приписываются фиксированной доле а крайних малых значений и фиксированной доле |5 крайних больших значений, то говорят, что производится цензурирование типа II уровня (а, ($). В этом случае число v оставшихся в рассмотрении наблюдений является величи- величиной заранее заданной и равной, в частности, п{\—а—($). Исследователь может прибегнуть к цензурированию вы- вынужденно или добровольно. Вынужденное цензурирование обусловлено соответствующими условиями эксперимента: например, мы ставим на разрушающие испытания п из- изделий, но можем производить эксперимент в течение огра- ограниченного времени Т. Очевидно, мы будем вынуждены про- произвести в данном случае одностороннее цензурирование ти- тина I, при котором из дальнейшего рассмотрения исключают- исключаются точные значения долговечностей (времени до разрушения) всех тех изделий, которые не разрушились за время Т. С другой стороны, в классе оценок, построенных по цензу- рированным выборкам, часто можно найти оценки, хотя и не 288
являющиеся наилучшими в жестких рамках генеральной совокупности определенного типа, но обладающие выгодны- выгодными свойствами устойчивости своих хороших качеств по от- отношению к тем или иным отклонениям от априорных допу- допущений (см. выше пример со сравнением выборочного сред- среднего и медианы). Урезание распределения. Это понятие связано с ситуа- ситуациями, когда исследуемый признак g просто не может быть наблюдаем в какой-либо части области его возможных зна- значений. Так, например, если мы исследуем распределение семей по доходу, но по условиям выборочного обследования лишены возможности наблюдать семьи со среднедушевым доходом, меньшим некоторого заданного уровня а (руб.), то в подобных случаях говорят, что распределение урезано слева в точке а. В отличие от цензурированиях выборок в выборках из урезанных распределений мы не имеем воз- возможности оценить даже доли наблюдений, располагаю- располагающихся за пределами порога урезания. Весьма подробные сведения об использовании в задачах статистического оценивания параметров взвешенных и, в частности, порядковых статистик и статистик, построен- построенных по цензурированным выборкам, с обсуждением различ- различных вопросов устойчивости получаемых при этом оценок читатель найдет, например, в [40, гл. 32]) и [29]. 8.6.5. Построение интервальных оценок (доверительных областей). В § 8.5 введено понятие интервальной оценки неизвестного параметра в==@<1), ..., 6<*>)', которую назы- называют также доверительным интервалом, а при многомерном параметре, т. е. при к^2,— доверительной областью. Как же конкретно построить по выборочным данным Хи ..., Х}1 такую случайную область &@Р(Х1У ..., Хп), которая с на- наперед заданной доверительной вероятностью Р накрывала бы неизвестное нам значение параметра 0? Очевидно, эта область должна конструироваться вокруг точечной оценки Э параметра в, а ее точный вид и объем определяются ха- рактером закона распределения случайной величины 0, в частности ее функцией распределения F§(U; 0), которая, к сожалению, тоже зависит от неизвестного истинного зна- значения параметра 0. Существует два подхода к преодолению этой трудности. Первый подход, если его удается реализовать, приводит к построению точных (при каждом конечном объеме выбор- выборки п) доверительных областей Д0р(Хх, ..., Хп) и основан Ю Зак, 1035 289
на подборе таких функций ^ и i|->2 ot к переменных и таких не зависящих от 0 нормирующих констант A(Xlt ..., Хп) и В(Х1э ..., Хп), что распределение статистик типа или может быть точно описано (например, с помощью одного из стандартных затабулированных законов, см. п. 6.1.5, 6.2.1, 6.2.6) и не зависит от неизвестного параметра ©. В качестве примера рассмотрим задачу интервального оценивания параметров а и а2 нормальной генеральной со- совокупности (см. пример 8.3 в п. 8.6.1). Как известно (см. п. 6.2.2), статистика Тх(п) — а) "\/п — 1 ф) подчинена закону распределения Стьюдента с я— 1 степе- степенями свободы (в данном случае функция ^(8—6) = 9—Э, а нормирующая константа A(xlt ..., xn)=='Vn—l/s(n)). Поэ- Поэтому, определив из таблиц по заданной вероятности Р процентные точки уровня q=(l—P)/2 и 1— q==(l+P)/2 t- распределения с п—1 степенями свободы (т. е. 100^-про- центную точку wloog(t(n—1)) и 100A—qynponenmyib точку i-g) У(п—О)» причем в силу симметрии распределения 1-а) =—шюо я> см- п- 5.6.5), мы можем утверждать, что неравенство __ <7(п) 7 выполняется с вероятностью Р=1—2^. А это означает, что случайный доверительный интервал n - 1)). накрывает неизвестное среднее значение а с заданной ве- вероятностью Р. Для построения интервальной оценки параметра а2 вос- воспользуемся тем фактом, что статистика /2S 2 подчинена 290
уЛквадрат распределению с п—1 степенями свободы (см. п. 6.2.1). Таким образом, в данном случае функция г|J(9/6) = = 8/0, а нормирующая константа В(х1у ..., хп)=п. Поэтому, определив из таблиц процентные точки %2-распределения с п—1 степенями свободы: wx_g(%2(n—1)) и wg(%2(n—l))9 где, как и прежде, <7=A—P)/2t a P— заданная довери- доверительная вероятность, имеем неравенство которое выполняется с вероятностью P==l—2q. А это озна- означает, что случайный доверительный интервал 8{П) ^(Х«(я—I)) J накрывает неизвестное значение дисперсии а2 с заданной вероятностью Р. Второй подход к построению доверительных, областей более прост и универсален, однако он основан на асимпто- асимптотических свойствах оценок, а поэтому дает приближенные результаты и пригоден лишь при достаточно больших объе- объемах выборок п. Этот подход использует тот факт (см. § 8.4), что как оценки максимального правдоподобия, так и оценки по методу моментов имеют асимптотически-нормальное совместное распределение, т. е. распределение /г-мерного вектора ?(n) = V>z@— ©) стремится к многомерному нор- нормальному закону с нулевым вектором средних значений и с ковариационной матрицей 2 (в), зависящей от неизвест- неизвестного параметра 0. При этом приближенном подходе допус- допускаются две «натяжки»: во-первых, асимптотический вид распределений случайной величины ?(п) используется при конечных объемах выборки п и, во-вторых, вместо неизвест- неизвестного значения параметра 0 в матрицу 2@) вставляется его оценочное значение 0. Теперь, для того чтобы построить доверительную об- область для неизвестного параметра в=FA>, ..., 6(*>)'f мы должны воспользоваться следующим известным фактом (см. [12, с. 77]): если ^-мерный вектор Ъ(п)~Уп (в—в) рас- распределен нормально с параметрами 0 и 2g (в), то случай- 10* 291
ная величина (@e)'S (в) (в-0) имеет х2-распределение с k степенями свободы. Определив из таблиц по заданной величине доверитель- доверительной вероятности Р процентные точки х~-распределения с k степенями свободы ^_д(х2(й)) и wq{%2{k))y где q=(l— P)/2, и заменив в известной матрице 2 @) неизвестное значение параметра 0 его приближенным значением 0, мы можем утверждать, что неравенство выполняется с вероятностью, приблизительно равной Р. Замечание 1. В случае единственного оценивае- оцениваемого параметра 0 (т. е. при k=l) можно воспользоваться непосредственно @, - а|(Э))-нормальностью разности 0—0 и записать вместо (8.42) где wg (?@,1))—ЮО^-процентная точка стандартного нор- нормального распределения, а а|(8) — дисперсия оценки 8. Из (8.42') следует запись соответствующего доверительного интервала: (8.42") Замечание 2. Если в качестве 0 используются точечные оценки максимального правдоподобия, то кова- ковариационная матрица 2g (В) вектора Уп@— G) однозначно определяется информационной матрицей Фишера (см. § 8.3 и 8.4): в 292
где элементы матрицы 1 (G) определяются соотношениями (8.7). Замечание 3. Положительная определенность и симметричность матрицы 2§ обусловливают эллипсоидаль- эллипсоидальный характер доверительного множества, задаваемого соот- соотношением (8.42). Пример 8.8. Рассмотрим задачу интервальной оцен- оценки по наблюдениям хг, ..., хп параметра/? биномиального закона (см. п. 6.1.1), т.е. закона распределения дискретной случайной величины ?, определяемого вероятностями f(x; pt~N) = P{i = X} = CxNpx(l-pf-xt х = 0, 1.....ЛГ, где N —известное целое положительное число, ар — пара- параметр, подлежащий оценке @</?<1). Сначала в соответствии с техникой, описанной в п. 8.6.1, подсчитаем точечную оценку р максимального правдоподо- правдоподобия параметра р. Логарифмическая функция правдоподобия в данном слу- случае п х п /(*,. х* хп\ р. Щ =2 In С*'+ In/>2 xi + <=i 1=1 Соответствующее уравнение максимального правдоподо- правдоподобия Решая его относительно р, получаем оценку максималь- максимального правдоподобия: п Пользуясь независимостью xt и тем фактом, что Ext = = Np и DXi = Np(l—p) (см. п. 6.1.1), имеем: 293
Задавшись доверительной вероятностью Р=0,95, ис- используя факт асимптотической нормальности разности р—р и подставляя в выражение для дисперсии Dp вместо р его приближенное значение /?, получим в соответствии с (8.42") интервальную оценку для р (с уровнем доверия 0,95): И~ VnN 8.6.6. Байесовский подход к статистическому оцениванию. Основная идея байесовского подхода состоит в использова- использовании при оценке параметра 0 @ может быть векторной вели- величиной) наряду с информацией, получаемой из выборки X, дополнительной априорной информации об оцениваемом параметре. Предполагается, что оцениваемый параметр 9 является случайной величиной и имеет некоторую извест- известную исследователю априорную плотность распределения Л0(в). С помощью формулы Байеса (см. п.4.1.3, 4.2.2) можно получить апостериорную плотность распределения Л@/Х) параметра 0 после наблюдения выборки X: А (О |Х) =-??$_ Л, (в). где /(X 10) — плотность условного распределения выборки X при данном 0, т. е. введенная в § 8.2 функция правдопо- правдоподобия; g(X) = J/(X 10)fto@)d9 —- нормирующая константа, не зависящая от 0. Используя плотность h(Q |X), можно построить, напри- например, байесовский доверительный интервал для параметра 0. Точенной байесовской оценкой для 0 служит среднее зна- значение, вычисленное по апостериорному распределению: \ (X) = Еб [91 X] = J 6А @1 X) d6. (8.43) Отметим одно важное свойство оценки QBl. Пусть /(X) — некоторая оценка, зависящая от выборки X. Апостериор- Апостериорным байесовским риском называется величина Mt (X) = EQ [@ t (X)J1XI = J (9 - t (X)J Л (91 X) dO-. (8.44) 294
Оценка 8в, как математическое ожидание условного рас- распределения 0 при заданном X минимизирует Mt(X), и зна- значение Л1;(Х) есть просто дисперсия апостериорного рас- распределения1). Из свойств условного математического ожи- ожидания (см. п. 5.6.7) следует, что dBl минимизирует и пол- полный средний квадрат ошибки, т. е. 1^ = argmin M(t где = Ex\Mt(X)\ = EB[Mt№\ УИ, F) = Ех [F — ^ (X)J1 б]. а ошибка Mt{\) определена в (8.44). Другая байесовская оценка &в2 получается, если выби- выбирать значение 6, дающее максимум условной апостериорной плотности /i@ |X): ^=argmaxA(e|X), (8.46) в т. е. это «подправленная» наличием априорной плотности Ло@) оценка максимального правдоподобия. При достаточно слабых ограничениях на /(X |Э) и /io(9) обе оценки 0#t и 6#2 сходятся при я->оо к оценке максимального правдопо- правдоподобия независимо от выбора априорной плотности ЛоF) Пример 8.9. Рассмотрим задачу оценивания неиз- неизвестной вероятности р в схеме испытаний Бернулли на ос- основании п независимых испытаний. В качестве априорного распределения для р возьмем р-распределение (см. п. 6.2.6) с плотностью Пусть в результате п испытаний получилось г успехов. Тогда апостериорная плотность B(a + r, b + n-r) ' т. е. это тоже плотность р-распределения, но с другими па- параметрами. Взяв математическое ожидание с h{plr), полу- 1 Более общий подход определяет байесовские оценки из усло- условия минимума интеграла типа (8.44), но с функцией потерь w( |9— — /(X) |), которая может отличаться от квадратичной, см. {36]. 295
чим байесовскую оценку - а + г Р что отличается от обычной оценки г/п. Пример 8.10. Рассмотрим случай дискретного ска- скалярного параметра 9. Переход от непрерывного случая, описанного выше, очевиден и не вызывает затруднений. Пусть для определенности параметр 9 может принимать только два значения: 9х=0 и 92=1. Априорное распределе- распределение задается априорными вероятностями qt для значений 0.(^=1^2). Пусть теперь сделано одно наблюдение X (т. е. получена выборка из одного наблюдения). Тогда апосте- апостериорное распределение параметра 9 будет таким: /iff) 0LY1- h{b=\\X)=\ -h(b = Для получения байесовской оценки воспользуемся (8.46), что дает -р ( 1, если h{i=llX)>h{Q = 0\X): "в> @, если h{b=l/X)<h{Q=0\X). По существу, мы получили байесовское решающее правило для отнесения наблюдения X к одной из двух совокупно- совокупностей с априорными распределениями ЦI(Х)=[(Х |9=0) и Ф2(Х)=/(Х |0 = 1), называемое решающим правилом по мак- максимуму апостериорной вероятности. Правило (8.47) экви- эквивалентно решающему правилу у A, если f(X\l)/f(X\0)>qt/qt- в' \0,evmf(X\l)/f(X\0)<qtlql. Величина f(X \l)/f(X |0) носит название отношения правдо- правдоподобия (см. § 9.3). Оценка 9а2 (правило классификации по максимуму апос- апостериорной вероятности) оптимальна в том смысле, что ми- минимизирует среднюю вероятность ошибочной классификации где РA |0) — вероятность ошибочно оценить параметр 9 какг9= 1, когда на самом деле 9=0 (смысл Р@| 1) поясняется аналогично). 296
Применение байесовского оценивания ограничено тем, что задача обоснованного выбора априорного распределе- распределения весьма трудна и, по-видимому, не имеет еще общего удовлетворительного решения (см. [44]). В ряде случаев, однако, может иметься информация о виде априорной плотности с точностью до небольшого числа неизвестных параметров, которые можно оценить по выборке одновременно с оцениванием параметра 0. Такой метод получил название эмпирического байесовского подхода. Рассмотрим теперь важный класс оценок, позволяющий избежать каких-либо предположений об априорном рас- распределении, так называемые минимаксные оценки. Пусть /(X) есть некоторая оценка 0. Если априорное распределе- распределение для 0 известно (например, задана плотность ho(Q)), то полное среднее значение квадрата ошибки N[t определя- определяется выражением (8.45). Из (8.45) следует, что минимальное значение Mt достигается при t= E0[0 |Х], так что при из- известном априорном распределении задача оценивания реша- решается до конца. Пусть теперь /io@) неизвестна. Тогда для измерения ка- качества оценок можно воспользоваться величиной sup Mt(Q) е т. е. наибольшей возможной погрешностью. В соответствии с мерой sup Mt* @) оценка /* лучше 0 оценки t, если Принцип минимакса предписывает выбор оценки /*, для которой sup Mt* @) минимален. Если такая оценка сущест- е вует, то sup M/# F) < sup Mt F) дЛя всех t=?t* 8 8 и оценка /* называется минимаксной оценкой. Хотя минимаксная оценка может оказаться хуже, чем дру- другие оценки в большой области параметрического прост- пространства, достоинством ее является то, что верхняя величина погрешности для нее заведомо не хуже, чем у любой дру- другой оценки. Пример 8.11. Для оценки неизвестной вероятности р в схеме испытаний Бернулли в условиях примера 8.2 ми- 297
нимаксной оценкой неизвестной вероятности будет (t34j, [65]) *p* = (r+Vn/2)/(n+Vn). Подробное обсуждение вопросов, связанных с байесов- байесовским подходом к оцениванию, содержится в работах [36], [44]. Выводы 1. Одна из центральных задач статистического анализа реальной системы заключается в вычислении (на основа- основании имеющихся статистических данных) как можно более точных приближенных значений (статистических оценок) для одного или нескольких числовых параметров, характе- характеризующих функционирование этой системы. Принципиаль- Принципиальная возможность получения работоспособных приближений такого рода на основании статистического обследования лишь части анализируемой генеральной совокупности (т. е. на основании ограниченного ряда наблюдений, или выбор- выборки) обеспечивается замечательным свойством статистиче- статистической устойчивости выборочных характеристик (см. § 7.2). 2. Статистическая оценка строится в виде функции от ре- результатов наблюдений, а потому сама по природе является случайной величиной. При повторении выборки из той же самой генеральной совокупности и при подстановке новых выборочных значений в ту же самую «функцию-оценку» мы, вообще говоря, получаем другое число в качестве при- приближенного значения интересующего нас параметра, т. е. имеется неконтролируемый разброс в значениях оценки при повторениях эксперимента (в данном случае — вы- выборки)! 3. В качестве основной меры точности статистической оцен- ки 0 неизвестного параметра в используется средний квад- квадрат ее отклонения от оцениваемого значения, т. е. величина Е@—бJ, а в многомерном случае— ковариационная мат- рица компонент векторной оценки 0. Очевидно, чем мень- ше эта величина (или обобщенная дисперсия оценки 0 в многомерном случае), тем точнее {эффективнее) оценка. Для широкого класса генеральных совокупностей сущест- существует неравенство (неравенство Рао— Крамера—Фреше (8.12), (8.13)), задающее тот минимум Д&ц, (по всем возможным оценкам) среднего квадрата Е(9—бJ, улучшить который 298
невозможно. Естественно использовать этот минимум Дтш в качестве начальной точки отсчета меры эффективности оценки, определив эффективность е(&) любой оценки ^ параметра 9 в виде отношения () Е (?— 8J 4. Свойство состоятельности оценки 0 (см. § 8.1) обеспе- обеспечивает ее статистическую устойчивость, т. е. ее сходимость (по вероятности) к истинному значению оцениваемого па- параметра 9 по мере роста объема выборки, на основании ко- которой эта оценка строится. Свойство несмещенности оценки 0 (см. § 8.1) заключается в том, что результат усреднения всевозможных значений этой оценки, полученных по раз- различным выборкам заданного объема (из одной и той же ге- генеральной совокупности), дает в точности истинное значе- значение оцениваемого параметра, т. е. Е0=0. Далеко не всегда следует настаивать на необходимом соблюдении свойства несмещенности оценки: несущественное само по себе уже при умеренно больших объемах выборки, оно может чрез- чрезмерно обеднить класс оценок, в рамках которого решается задача построения наилучшей оценки. 5. С учетом случайной природы каждого конкретного оце- оценочного значения 0 неизвестного параметра 0 представляет интерес построение целых интервалов оценочных значений А0, а в многомерном случае — целых областей, которые с наперед заданной (и близкой к единице) вероятностью Р накрывали бы истинное значение оцениваемого парамет- параметра 0, т. е. P{0G Ap(Q)}=P. Эти интервалы (области) при- принято называть доверительными (или интервальными оцен- оценками). Существует два подхода к построению интервальных оценок: тонный (конструктивно реализуемый лишь в срав- сравнительно узком классе ситуаций) и асимптотически-при- асимптотически-приближенный (наиболее распространенный в практике ста- статистических приложений), см. п. 8.6.5. 6. Основными методами построения статистических оценок являются: метод максимального правдоподобия (см. п. 8.6.1); метод моментов (см. п. 8.6.2); метод наименьших квадратов (см. п. 8.6.3); 299
метод, использующий «взвешивание» наблюдений, — цензурирование, урезание, порядковые статистики (см. п. 8.6.4). Различные варианты метода, использующего «взвеши- «взвешивание» наблюдений, находят все большее распространение в связи с устойчивостью получаемых при этом статистиче- статистических выводов по отношению к возможным отклонениям ре- реального распределения исследуемой генеральной совокуп- совокупности от постулируемого модельного. 7. Наличие априорной информации об оцениваемом пара- параметре, позволяющей сопоставить с каждым возможным зна- значением неизвестного параметра некую вероятностную меру его достоверности, т. е. сведений об априорном вероятност- вероятностном законе распределения оцениваемого параметра, позво- позволяет существенно уточнить оценки, полученные традицион- традиционными методами (методом максимального правдоподобия, методом моментов и т. п.) в условиях отсутствия такой ин- информации. Построение таких оценок осуществляется с по- помощью так называемого байесовского подхода (см. п. 8.6.6), а сами оценки называются байесовскими. Глава 9. СТАТИСТИЧЕСКАЯ ПРОВЕРКА ГИПОТЕЗ (статистические критерии) На разных стадиях статистического исследования возникает необходимость в формулировке и экспериментальной про- проверке некоторых предположительных утверждений (гипо- (гипотез) относительно природы или величины неизвестных па- параметров рассматриваемой стохастической схемы. Напри- Например, исследователь высказывает предположение: «иссле- «исследуемые наблюдения извлечены из смеси двух нормальных генеральных совокупностей» или «вектор средних значений А=(а{1\ аB), ..., a^)f исследуемых наблюдений равен «нулевому» вектору О=@,0, ..., 0)'» и т. д. Будем обозна- обозначать в дальнейшем высказанное нами предположение (ги- (гипотезу) с помощью буквы Я. Наша цель — проверить, не противоречит ли высказанная нами гипотеза Н имеющимся выборочным данным. Процедура обоснованного сопоставления высказанной гипотезы с имеющимися в нашем распоряжении выбороч- выборочными данными Xlf Х2у ...» Хп осуществляется с помощью того или иного статистического критерия и называется статистической проверкой гипотез. 300
Результат подобного сопоставления может быть либо отрицательным (данные наблюдения противоречат выска- высказанной гипотезе, а потому от этой гипотезы следует отка- отказаться), либо неотрицательным (данные наблюдения не противоречат высказанной гипотезе, а потому ее можно принять в качестве одного из естественных и допустимых решений). При этом неотрицательный результат статис- статистической проверки гипотезы не означает, что высказанное нами предположительное утверждение является наилучшим, единственно подходящим: просто она не противоречит имею- имеющимся у нас выборочным данным, однако таким же свойст- свойством могут наряду с Н обладать и другие гипотезы. Так что даже статистически проверенное предположение Н следует расценивать не как раз и навсегда установленный, абсолют- абсолютно верный факт, а лишь как достаточно правдоподобное, не противоречащее опыту утверждение. По своему прикладному содержанию высказываемые в ходе статистической обработки данных гипотезы можно подразделить на несколько основных типов. 9.1. Основные типы гипотез, проверяемых в ходе статистической обработки данных 9.1.1. Гипотезы о типе закона распределения исследуемой случайной величины. При обработке ряда наблюдений XvXtt...9Xn (9.1) исследуемой случайной величины ? очень важно понять механизм формирования выборочных значений Хи т. е. по- подобрать и обосновать некоторую модельную функцию рас- распределения Fm0&(X) (например, из числа описанных в гл. 6), с помощью которой можно адекватно описать ис- исследуемую функцию распределения F^ (X). На опреде- определенной стадии исследования это приводит к необходимости проверки гипотез типа H:Fl{X)BmFma(X), (9.2) где гипотетичная модельная функция может быть как за- заданной однозначно (тогда Fi(X)=F0(X), где F0(X) — пол- полностью известная функция), так и заданной с точностью до принадлежности к некоторому параметрическому се- семейству vTorAa Fmod (X)=F(X; 0), где 0 — некоторый, вообще говоря, fe-мерный параметр, значения которого не- 301
известны, но могут быть оценены по выборке (9.1) с помощью методов, изложенных в § 8.6). Проверка гипотез типа (9.2) осуществляется с помощью так называемых критериев согласия и опирается на ту или иную меру различия между анализируемой эмпирической функцией распределения F%n) (X) и гипотетическим модель- модельным законом Fmod(X) (см. § 11.1). 9.1.2. Гипотезы об однородности двух или нескольких обра- обрабатываемых выборок или некоторых характеристик анали- анализируемых совокупностей. Наиболее типичные задачи такого рода характеризуются следующей общей ситуацией. Пусть мы имеем несколько «порций» выборочных данных типа (9.1): 1-я : XI I 2-я :X2lX 2lX2V 3) 1-я:Хп, Xlv Эти порции могли образоваться, например, естествен- естественным образом — в ходе проведения выборочного обследова- обследования (скажем, за счет разделенности условий их регистра- регистрации во времени или пространстве). Обозначая функцию рас- распределения, описывающую вероятностный закон, которому подчиняются наблюдения /-й выборки, с помощью Fj (X) и снабжая тем же индексом все интересующие нас эмпири- эмпирические и теоретические характеристики этого закона (сред- (средние значения cij (nj) и а/, дисперсии of (nj) и oj и т. д.), основные гипотезы однородности можно записать в виде: Нр: F, (X) = F, (X) г... в F, (X); (9.3а) Ha:ax = at — ... = al\ (9.36) tfe:o\ = o*t=...=oV (9.3в) В случае неотрицательного результата проверки этих гипотез говорят, что соответствующие выборочные харак- теристики (например, аг (п2), а2(п2), ..., а1 (п^) различаются статистически незначимо. Отметим частный случай гипотез типа (9.3а), когда число выборок /=2, а одна из выборок содержит малое количество наблюдений (в частном случае — одно). В таком виде про- 302
верка гипотез типа (9.3а) означает проверку аномальности одного или нескольких резко выделяющихся наблюдений. Опи- Описание критериев проверки гипотез типа (9.3а)-—(9.Зв) при- приводится в § 11.2 и 11.5. 9.1.3. Гипотезы о числовых значениях параметров исследуе- исследуемой генеральной совокупности. Пусть, например, ряд на- наблюдений (9.1) дает нам значения некоторого параметра из- изделий, измеренные на п изделиях, случайно отобранных из массовой продукции определенного станка автоматиче- автоматической линии, и пусть а0 — заданное номинальное значение этого параметра. Каждое отдельное значение Xt может, естественно, как-то отклоняться от заданного номинала. Очевидно, для того чтобы проверить правильность настрой- настройки этого станка, надо убедиться в том, что среднее значение параметра у производимых на нем изделий будет соответ- соответствовать номиналу, т. е. проверить гипотезу типа Н: ЕЬ^а0. (9.4) К гипотезе аналогичного типа мы придем, если попы- попытаемся проверить статистическую незначимость отличия от нуля выборочного коэффициента корреляции г(х^\ л;B>), построенного по совокупности двумерных наблюдений Х~ = W1}t x\2))\ t=lf 2, ..., п (см. п. 5.6.7), что применительно к соответствующей теоретической характеристике может быть записано как предположительное утверждение Н: г(хМ, ¦*<*>) = 0 (9.4') В общем случае гипотезы подооного типа имеют вид: Яо: 0 = ДО, (9.4") где 0 — некоторый параметр, от которого зависит исследуе- исследуемое распределение, а До — область его конкретных гипоте- гипотетических значений, которая может состоять всего из одной точки. Одному из частных случаев гипотез вида (9.4") — про- проверке гипотезы Pi=0 (т. е. проверке гипотезы симметрич- симметричности распределения) посвящен п. 11.2.4. К такому же типу (9.4") сводятся и гипотезы независимости и стацио- стационарности обрабатываемого ряда наблюдений (см. ниже, п. 9.1.5, а также § 11.3). 9.1.4. Гипотезы о типе зависимости между компонентами исследуемого многомерного признака. Подобно тому как при исследовании закона распределения обрабатываемых зоз
наблюдений бывает важно правильно подобрать соответст- соответствующий модельный закон (см. п. 9.11), так при исследо- исследовании статистической зависимости, например компоненты хB> от компоненты х{1) анализируемого двумерного признака Х = (л;A\ л:B))', бывает важно проверить гипотезу об об- общем виде этой зависимости. Например, гипотезу о том, что хB) и хA> связаны линейной регрессионной связью (см. п. 8.6.3, а также § 3.5), т. е. Н: Е(*B> | *<*>) = х = Ьо + Ъхх, (9.5) где Ьо и Ьг — некоторые неизвестные параметры модели. Статистические критерии, с помощью которых, проверя- проверяются гипотезы типа (9.5), часто называют критериями адек- адекватности (см., например, [6, с. 118]). 9.1.5. Гипотезы независимости и стационарности обраба- обрабатываемого ряда наблюдений. Вопрос о том, можно ли считать наблюдения (9.1) независимыми или по меньшей мере стационарными, т. е. сохраняющими одно и то же рас- распределение в ходе статистического обследования, вовсе не праздный: от правильности его решения зависит успех в выборе наиболее подходящих, наиболее эффективных методов статистической обработки этого ряда. В зависимо- зависимости от конкретных целей исследования формализация соот- соответствующих гипотез может иметь, например, вид: Я: Ел:,. = а = const, i=- I, 2, ..., п\ (9.6) Я: r{xit х/+1) = 0, i = l, 2, .... п- 1, (9.6') т. е., строго говоря, гипотезы этого типа вкладываются в качестве частного случая в гипотезы вида (9.4"). Соответ- Соответствующие статистические критерии описаны в § 11.3. 9.2. Общая логическая схема статистического критерия По своему назначению и характеру решаемых задач ста- статистические критерии чрезвычайно разнообразны. Однако их объединяет общность логической схемы, по которой они строятся. Коротко эту логическую схему можно описать так. 1. Выдвигается гипотеза //0. 2. Задаются величиной так называемого уровня значи- значимости критерия а. Дело в том, что всякое статистическое 304
решение, т. е. решение, принимаемое на основании ограни- ограниченного ряда наблюдений, неизбежно сопровождается неко- некоторой, хотя может и очень малой, вероятностью ошибочного заключения как в ту, так и в другую сторону. Скажем, в какой-то небольшой доле случаев а гипотеза Но может оказаться отвергнутой, в то время как на самом деле она является справедливой, или, наоборот, в какой-то неболь- небольшой доле случаев Р мы можем принять нашу гипотезу, в то время как на самом деле она является ошибочной, а справедливым оказывается некоторое конкурирующее с ней предположение — альтернатива Н1. При фиксированном объеме выборочных данных величину вероятности одной из этих ошибок мы можем выбирать по своему усмотрению. Если же объем выборки можно как угодно увеличивать, то имеется принципиальная возможность добиваться как угод- угодно малых вероятностей обеих ошибок а и р при любом фик- фиксированном конкурирующем предположительном утвержде- утверждении Нх. В частности, при фиксированном объеме выборки обычно задаются величиной а вероятности ошибочного от- отвержения проверяемой гипотезы Яо, которую часто назы- называют «основной» или «нулевой». Эту вероятность ошибочного отклонения «нулевой» гипотезы принято называть уровнем значимости или размером критерия. Выбор величины уров- уровня значимости а зависит от сопоставления потерь, которые мы понесем в случае ошибочных заключений в ту или иную сторону: чем весомее для нас потери от ошибочного от- отвержения высказанной гипотезы Яо, тем меньшей выбира- выбирается величина а. Однако поскольку такое сопоставление в большинстве практических задач оказывается весьма затруднительным (часто трудно даже вообще сказать, в ка- какую сторону ошибка является для нас более опасной), то, как правило, пользуются некоторыми стандартными значениями уровня значимости. К таким стандартным зна- значениям можно причислить величины а=0,1; 0 05; 0,025; 0,01; 0,005; 0,001. Особенно распространенной является ве- величина уровня значимости а, равная 0,05. Она означает, что в среднем в пяти случаях из 100 мы будем ошибочно от- отвергать высказанную гипотезу при пользовании данным ста- статистическим критерием. 3. Задаются некоторой функцией от результатов наблю- наблюдения (критической статистикой) 7(п) =y(Xl9 X2, ..., Хп). Эта критическая статистика у<п\ как и всякая функция от результатов наблюдения, сама является случайной вели- величиной (см. § 8.1) и в предположении справедливости ги- 305
потезы Но подчинена некоторому хорошо изученному (зата- булированному) закону распределения с плотностью /v(«) (")• Принцип построения критической статистики (принцип отношения правдоподобия) описан в следующем параграфе. Поясним здесь лишь общий содержательный смысл этой статистики: как правило, ею определяется мера расхож- расхождения имеющихся в нашем распоряжении выборочных дан- данных (9.1) с высказанной (и проверяемой) гипотезой Яо. Так, в гипотезах типа рассмотренных в п. 9.1.1 критиче- критическая статистика y(ai) определяет меру различия между ана- • лизируемой эмпирической функцией распределения Я">(Х) и гипотетической моделью функции Fmod (X). В гипотезах типа рассмотренных в п. 9.1.2 величина yW измеряет сте- степень расхождения соответствующих выборочных характе- характеристик в различных выборках; в гипотезах типа рассмот- рассмотренных в п. 9.1.3 — отклонения выборочных характерис- характеристик от соответствующих гипотетических значений и т. д. 4. Из таблиц распределения / (п) (и) находятся 100A — — ^) %-ная точка 7а/2П) и 1001 %-ная точка y«7Sx) (cm. § 5.6), разделяющие всю область мыслимых значений слу- случайной величины y(/i) на три части: область неправдоподобно малых (I), неправдоподобно больших (III) и естественных, или правдоподобных (в условиях справедливости гипотезы Яо), значений (II) (рис. 9.1). В тех случаях, когда основную опасность для нашего утверждения представляют только односторонние отклонения, т. е. только «слишком малень- маленькие» или только «слишком большие» значения критической статистики у(п), находят лишь одну процентную точку: либо 100A—а) %-ную точку Yamm\ которая будет разде- разделять весь диапазон значений У0 на две части: область не- неправдоподобно малых и область правдоподобных значений; либо 100а%-ную точку т?тах); она будет разделять весь диа- диапазон значений 7(п) на область неправдоподобно больших и область правдоподобных значений. 5. Наконец, в функцию y(/2> подставляют имеющиеся конкретные выборочные данные Хи ..., Хп и подсчитывают численную величину у('гК Если окажется, что вычисленное значение принадлежит области правдоподобных значений у{п\ то гипотеза Но считается не противоречащей выбороч- выборочным данным. В противном случае, т. е. если у(п) слишком 306
мала или слишком велика, делается вывод, что y(/° на самом деле не подчиняется закону fy{n) (и) (этот вывод, как легко понять, сопровождается вероятностью ошибки, равной а), и это несоответствие мы вынуждены объяснить ошибочно- ошибочностью высказанного нами предположения Яо и, следователь- следовательно, отказаться от него. Таким образом, решение, принимаемое на основании лю- любого статистического критерия, может оказаться ошибоч- Рис. 9.1. График плотности распределения критической ста- статистики уп и выделение областей «правдоподобных» II и «не- «неправдоподобных» (I и III), в условиях справедливости гипо- гипотезы Яо, значений этой статистики ным как в случае отклонения проверяемой гипотезы Но (с вероятностью а), так и в случае ее принятия (с вероят- вероятностью Р). Вероятности аир ошибочных решений называют также ошибками соответственно первого и второго рода, а величину 1—р— мощностью критерия. Очевидно, из двух критериев, характеризующихся одной и той же вероят- вероятностью а отвергнуть в действительности правильную гипо- гипотезу #0, следует предпочесть тот, который сопровож- сопровождается меньшей ошибкой второго рода (или большей мощ- мощностью). Если проверяемое предположительное утверждение сво- сводится к гипотезе о том, что значение некоторого параметра в в точности равно заданной величине Эо (см. выше ги- гипотезы, рассмотренные в п. 9.1.3), то эта гипотеза называ- называется простой. В других случаях гипотеза будет называться вложной. 307
9.3. Построение статистического критерия; принцип отношения правдоподобия Попытаемся выяснить, как конкретно получаются те функ- функции от результатов наблюдения (критические статистики Y(n))» по значениям которых принимается окончательное решение о том, соответствует ли проверяемая гипотеза имеющимся у нас данным (9.1) или противоречит им. 9.3.1. Сущность принципа отношения правдоподобия. Для пояснения общего принципа, приводящего к построению наилучших (наиболее мощных при заданной величине уров- уровня значимости) критериев, вернемся к условиям примера с заработной платой (см. п. 8.6.1) и соответственно к рис. 8.2. В этом примере исследовалась логарифмически нор- нормально распределенная заработная плата ? работников оп- определенной совокупности, а в качестве исходных данных мы располагали тремя наблюдениями (тремя обследованны- обследованными работниками): Xx=190py6; лг2=175руб.; х3:=205 руб. Пусть мы хотим проверить основную гипотезу (простую) о среднем значении нормально распределенной случайной величины 1п?: Яо: Е In & = 5,240 = а0 против простой альтернативы Я, :Е1п6=51443 = а1. Из рис. 8.2 видно, что гипотеза Яо не противоречит имеющимся наблюдениям (более того, в данном случае на- наши наблюдения выглядят наиболее правдоподобными имен- именно при гипотезе Яо, в то время как те же наблюдения оказы- оказываются малоправдоподобными в условиях справедливости гипотезы Нг. В общем случае представление о сравнительной правдо- правдоподобности имеющихся наблюдений Хи ..., Хп (в отноше- отношении проверяемой и альтернативной гипотез) дает нам со- сопоставление соответствующих функций правдоподобия (см. формулу (8.5)) и, в частности, их отношение _ Lttt{xl.....xn;e)_L{Xlt...,xn;el) Т ~h^Xx Хп,В)~ ЦХХЩ ...,Хп;в0)' VJ) где LHx и Lh0 — значения функций правдоподобия наблю- наблюдений Хъ ..., Хп, вычисленные в предположении справед- справедливости соответственно гипотез Нг: 0 = &г и Я2: 0 = 0О. 308
Очевидно, чем правдоподобнее наблюдения в условиях ги- гипотезы #0, тем больше функция правдоподобия LHq и тем меньше величина у(п\ Если fyin) (и) — плотность распре- распределения статистики у(п> при условии справедливости гипо- гипотезы #0, то построение критерия проверки гипотезы Но с заданным уровнем значимости ос сводится к определению 100а %-ной точки уа распределения fv{n)(u) и к реали- реализации следующего правила: если Y(/2)>Ya' то гипотеза Яо отвергается с вероятностью ошибиться, равной а, так как в соответствии с законом f ,п)(и) и при справед- справедливости гипотезы Но возможно осуществление события {т(/г)>Та} с вероятностью а, т. е. (9.8) если Y(A2)<Ya' то гипотеза Яо не отвергается. Критерии, основанные на статистиках у^ вида (9.7) и процедурах (9.8), носят название критериев отношения правдоподобия, а их практическая реализуемость и предпоч- предпочтительность по отношению к другим возможным критериям подкреплены следующими фактами (справедливыми в до- достаточно широком классе ситуаций, см., например, [48]). 1. Критерии отношения правдоподобия являются наи- наиболее мощными среди всех других возможных критериев (лемма Неймана — Пирсона). 2. Плотность /Y(rt) (и) распределения критической ста- статистики у(п\ как правило, без труда восстанавливается по функции правдоподобия L наблюдаемой случайной величи- величины. Обобщая рассмотренный пример с проверкой гипотезы о среднем значении нормальной случайной величины | (при известном значении дисперсии а2), имеем: Н . 1' » я> / 1» /' (/ = 0.1). 309
так что -55-2 IU,~n.)'--(*,—во)»] (дс-п.)^» I '=' е где с = ]/д (aj — а0)—. Предположим для определенности а{>а0 (в приведенном выше примере п=3; а2=0,16; ^=5,443 и #0=5,240). Тогда О>0, и если мы положим где Q (а) = 100-2а %- и «q—Q %-ная точка стандартного нормального распределения, то неравенство будет выполняться на множестве всех таких выборок (xlt ..., хп), для которых Уп (х(п)—ao)->uQ{a), или, что то же, Получившееся правило проверки гипотезы не зависит от альтернативного значения параметра аъ а потому явля- является (принимая во внимание лемму Неймана — Пирсона) наиболее мощным при всех возможных альтернативных зна- значениях параметра а{>>а0У или, как принято в таких случаях говорить, равномерно наиболее мощным. 9.3.2. Проверка простой гипотезы с помощью критерия логарифма отношения правдоподобия. Пусть известно, что ряд наблюдений Хи ..., Хп можно рассматривать как неза- независимую выборку из распределения, принадлежащего се- семейству распределений F(X\ Э), где Э—/г-мерный па- параметр. Требуется проверить гипотезу о том, что 0 = 0О (гипотеза (9.4") п. 9.1.3). Рассмотрим критерий Y<"> = -21n{L(Xlf ...,X.;60)/L(XJ, .... Хп\ % (9.9) 310
где 0 — оценка (введенная в п. 8.6.1) максимального прав- правдоподобия (ОМП) параметра 0 по выборке Xlt ..., Хп. При наложении на семейство F(X; 0) и на значение 0О дополнительных требований, гарантирующих оптимальные свойства оценок максимального правдоподобия (см. п. 8.6.1), величина у(/2> имеет асимптотически (при п->оо) ^-распределение с k степенями свободы (см. п. 6.2.1). В качестве примера применения критерия y(/2) рассмот- рассмотрим еще раз задачу проверки гипотезы о среднем значении нормальной совокупности, приведенную в п. 9.3.1. В вве- введенных там обозначениях с учетом того, что оценка макси- 1 п мального правдоподобия параметра а0есть х= ~ 2**> имеем: 1 = 1 ' Поскольку х нормально распределено со средним а0 и дис- дисперсией о2/п, Y(rt) имеет %2-распределение с одной степенью свободы. В качестве второго примера рассмотрим задачу провер- проверки гипотезы #0 : pi=pOi1 r=l,2, ..., /, о значениях пара- параметров plt p2y ..., pt полиномиального распределения, вве- введенного в п. 6.1.4. Учитывая, что оценками максимального правдоподобия для параметров pt являются отношения Vi(n)/n (см. п. 8.6.1), получаем, что 7<л> =22 vf (n) (In V,- (п) - In npQi) имеет асимптотически %2-распределение с (/—1) степенями свободы. 9.3.3. Проверка сложной гипотезы. Рассмотрим модифика- модификацию критерия (9.9) для случая, когда в гипотезе конкрети- конкретизируются значения не всех параметров, как в предыдущем пункте, а лишь части ианих. Пусть 0 = (Ql9 ..., 0z) — вектор неизвестных параметров распределения и гипотеза состоит в том, что (9.10) 311
Удобно разбить вектор 9 на две части: 0j = (Ql9 ..., G,.) и 02 = (Ог+1, ..., 6,). Обозначим 02 оценку максималь- максимального правдоподобия G2 по выборке Хъ ..., Хп при извест- ном значении вг = в01 и (в1э 62) — оценку максимального правдоподобия (@lt ©2). Критерий для проверки гипотезы Н01 имеет вид: Y(/I)=- Можно - 2 In {L (, доказать, Y, X что при я; ©о. ef)/i выполнении < №. ряда (9. дополнительных требований, гарантирующих оптимальные свойства оценок максимального правдоподобия (см. п. 8.6.1), величина y<"> имеет асимптотически (при п->оо) ^-распределение с г степенями свободы. 9.4. Характеристики «качества» статистического критерия Характеристиками точности статистического критерия про- проверки простых или сложных гипотез типа (9.4") служат: а @) — вероятность отвергнуть основную гипотезу #0, подсчитанная в предположении, что истинное значение «проверяемого» параметра равно 0; величину 1—а@) на- называют оперативной характеристикой критерия, а значе- значение а@о) в задаче проверки простой гипотезы «Но : 0 = = 0О» есть не что иное, как уровень значимости (размер) критерия (ошибка первого рода); Р @) — вероятность отвергнуть конкурирующую (с ос- основной) гипотезу, подсчитанная в предположении, что ис- истинное значение «проверяемого» параметра равно 0; ве- величину 1—р @) называют мощностью (или функцией мощ- мощности) критерия, а значение P(©i) в задаче проверки про- простой гипотезы «Но : 0 = 0О» против альтернативы «Н1 : 0'== = ©х» есть не что иное, как ошибка 2-го рода. Обсудим эти характеристики и зависящие от них свой- свойства критерия. Пусть Гп — область возможных значений критической статистики -у(п), а Г^° и Г^1 — описанные в § 9.2 соответ- соответственно области «правдоподобных» и «неправдоподобных» (в условиях справедливости гипотезы Но) значений у^п). 312
Тогда очевидно: n = j /т(я)(и;в)с/?/, n (9.12) где РеМ} и /v(n) (u; G)— соответственно вероятность события А и плотность распределения критической статис- статистики у(п>, подсчитанные в предположении, что истинное зна- значение проверяемого параметра равно в. В условиях проверки параметрических гипотез вида (9.4") с заданным уровнем значимости а0 критерий {у{п), Г^0} называется несмещенным, если при всех Э ? До; при всех в Eё До. И наконец, критерий {v(n), Г^0} называется состоя- состоятельным, если limart@)=l при всех 0^ЁДо. Последнее соотношение означает, в частности, что функ- функция мощности состоятельного критерия 1—Рп@) стре- стремится (при п->оо) к единице при любом значении 0, не входящем в область До гипотетичных (в соответствии с ги- гипотезой Яо) значений параметра. Из (9.12) очевидно, что при любом фиксированном объеме выборки п перестройка критерия в направлении уменьше- уменьшения уровня значимости а (т. е. сужения области Г^1) связана с одновременным увеличением ошибки 2-го рода, а в общем случае — с уменьшением значений функции мощ- мощности 1—Р @) (так как при этом расширяется область Г^° отклонения альтернативы Нх). И наоборот: перестройка критерия (в любом фиксированном классе критериев, в том числе и в классе наиболее мощных критериев) в направле- направлении увеличения его мощности связана (при фиксирован- фиксированном объеме выборки п) с неизбежным одновременным уве- увеличением его уровня значимости. 313
В то же время неограниченным увеличением объема вы- выборки (т. е. при п->оо) можно добиваться сколь угодно малых значений для вероятностей ошибок вида К (©*). где 0* ? Д*в с До, или аХ"=|таха„(в); ( К (в**), где в** ф До, или Для больших объемов выборок (т. е. асимптотически по п->оо) существуют соотношения, связывающие между собой характеристики aj, PJ и п (см., например, [40, с. 310—311]). Остановимся здесь на одном полезном соот- соотношении такого типа, позволяющем, в частности, опреде- определять объем выборки л (a, Р; р), необходимый в критерии от- отношения правдоподобия (Неймана — Пирсона) для разли- различения двух простых гипотез Но: выборка извлечена из генеральной совокупности в0); (913) Нх: выборка извлечена из генеральной совокупности f (A-; ej с ошибками первого и второго рода, не превосходящими заданных значений соответственно аир (величина р = р (#0, Hi) характеризует «расстояние» между гипотезами Яо и #! и определяется по формуле р(#0, Нх)= J In'. *'т $ ШХ\ Gx) — /(X; Q0)]dX9 где интегрирование ведется по всей об- области возможных значений наблюдаемой случайной вели- величины X, а /(X; в) — ее плотность распределения). В [4] показано, что в достаточно широком классе случаев при различении близких простых гипотез (т. е. при малых зна- значениях р) справедлива приближенная (асимптотическая) формула в которой иду как и прежде, квантиль уровня q (или q- квантиль) стандартного нормального закона распределения (см., например, табл, 1,3 в [16]). 314
Замечание. Обратим внимание читателя на прак- практическую неизбежность проявления двух «невыгодных» для всей теории проверки статистических гипотез эффектов: эффекта «слишком малого объема выборки» и эффекта «слишком большого объема выборки». Эффект «слишком малого объема выборки» состоит в том, что при заданной величине уровня значимости критерия (а) и малом числе наблюдений (п)> на основании которых принимается решение, мощность критерия, т. е. вероят- вероятность отклонить проверяемую «нулевую» гипотезу Но в си- ситуации, когда она в действительности не имеет места, ока- оказывается слишком маленькой (приближенное представле- представление о взаимосвязи величин а, Р и п дает формула (9.14)). Есть два выхода из этой ситуации: либо увеличить объем выборки п, либо несколько увеличить уровень значимости а, что повлечет соответствующее уменьшение р (т. е. уве- увеличение мощности критерия 1—Р). Для пояснения эффекта «слишком большого объема вы- выборки» приведем рассуждение Берксона (Journ. Amer. Statist. Assoc, 33 A938), p. 526): «Никто в действительно- действительности не считает, что какая-либо гипотеза выполняется точно: мы просто строим абстрактную модель реальных событий, которая в какой-то мере обязательно отклоняется от исти- истины. Однако, как мы видим, огромная выборка почти навер- наверняка (т. е. с вероятностью, стремящейся к единице при не- неограниченном возрастании пI отвергает в этом случае на- нашу гипотезу при любом заданном уровне значимости а». Казалось бы, налицо «тупиковая» ситуация: при малых выборках вывод статистически ненадежен, а при слишком больших — однозначно предопределен. Так, например, авторы неоднократно наблюдали обескураживающее дей- действие эффекта больших п на прикладника-исследователя, пытающегося с помощью критериев согласия подобрать подходящий модельный закон Fmo&{x) для описания рас- распределения исследуемой генеральной совокупности и не- неизменно приходящего при этом к отрицательному резуль- результату (т. е. к отвержению проверяемой гипотезы). Чтобы избежать эффекта большой выборки, априорное задание характеристик точности1 критерия (уровня значи- значимости а и ошибки второго рода Р) необходимо увязывать с объемом имеющихся данных (п): выигрыш в «чувстви- «чувствительности» критерия, получающийся в результате увели- 1 Это следует из свойства несмещенности критерия (см. выше). 315
чения п, целесообразно использовать для уменьшения как а, так и р. В частности, если определить уменьшение а при возрастании п> то очень малые отклонения от Но уже не приведут к обязательному отвержению этой гипоте- гипотезы: вероятность этого факта будет зависеть от того, с какой «скоростью» (с ростом п) убывает а. 9.5. Последовательная схема принятия решения (последовательные критерии) 9.5.1. Последовательная схема наблюдений. Если число на- наблюдений, на основании которых статистик принимает ре- решение, не фиксируется заранее, но ставится в зависимость от результатов зарегистрированных на каждой данной ста- стадии эксперимента наблюдений, то говорят об использова- использовании последовательной схемы наблюдений. Поскольку ре- результаты наблюдений на каждой фиксированной стадии эксперимента представляют собой случайную выборку из генеральной совокупности и, следовательно, случайны по своей природе, то и момент прекращения наблюдений (опре- (определение которого зависит от этих результатов) также яв- является величиной случайной. Впервые идея об использовании последовательной схе- схемы наблюдений возникла в ходе конструирования эконом- экономных планов выборочного статистического контроля качест- качества продукции1. Речь шла о выборочной проверке того фак- факта, что неизвестная нам истинная доля р дефектных изде- изделий во всем производстве не превосходит некоторого поро- порогового значения (предельно допустимой доли брака) р0. Авторы упомянутой работы предложили для этой цели ме- методику проверки с двукратной выборкой. На первом этапе предложенной ими последовательной схемы извлекается одна выборка изделий объема пх и оценивается доля брака Pi(fti) в этой выборке. Решение о необходимости контроля второй выборки принимается на основании результатов наблюдений в первой выборке: грубо говоря, если доляГ брака в первой выборке /?i(tti) оказалась существенно мень- меньше (или существенно больше) заданного порогового значе- значения pQ, to необходимости в повторной выборке нет и при- 1 Dodge H. F., Romig H. G. A method of sampling inspection. — The Bell System Techn. Journ., 8 A929), 613—631. 316
нимается гипотеза р^р0 (или соответственно альтернатива /7>ро);если же доля брака Pi{n^) в первой выборке несу- несущественно отличается от заданного порогового значения р0 (или, как говорят, находится в «зоне неопределенности», или в «зоне безразличия»), то принимается решение о про- продолжении наблюдений и, в частности, об извлечении вто- второй выборки объема пг. При такой методике достигается заметный выигрыш (в среднем) в числе наблюдений, необходимом для различе- различения интересующих нас гипотез с заданными характеристи- характеристиками точности (уровнем значимости а и мощностью 1—Р) по сравнению с критерием Неймана — Пирсона, являющимся наилучшим (наиболее мощным, см. п. 9.3.1) среди всех критериев, основанных на классической схеме наблюде- наблюдений (т. е. построенных на базе выборок заранее заданного объема п). Поэтому к последовательной схеме наблюдений целесообразно обращаться в ситуациях, когда каждое на- наблюдение является дорогостоящим или труднодоступным и по условиям эксперимента исследователь имеет практиче- практическую возможность реализовать эту схему (далеко не всегда исследователь находится в подобных условиях). К величинам а (в) и р (в), характеризующим «качество» всякого критерия (см. § 9.4), при рассмотрении последова- последовательных критериев добавляется еще средний объем выборки Е0 v(a, P), необходимый для проверки гипотез вида (9.4") с заданными характеристиками точности (a, P). 9.5.2. Последовательный критерий отношения правдопо- правдоподобия (критерий Вальда) и его свойства. Построение ста- статистического критерия При фиксированном объеме выборки п (см. п. 9.3.1) сводится в конечном счете к разбиению об- области возможных значений критической статистики yW = =у(х1у ..., хп) на две части: область правдоподобных и об- область неправдоподобных (в условиях справедливости про- проверяемой гипотезы Но) значений у<пК При попадании кон- конкретного значения у(Х1э..., Хп) в область неправдоподоб- неправдоподобных значений принимается решение об отклонении прове- проверяемой гипотезы. Последовательный критерий, т. е. критерий, основанный на последовательной схеме наблюдений, построен по той же логической схеме с одним отличием: последовательно для каждого фиксированного объема выборки v=l,2, ...,я, п+1, ... область Fv возможных значений критической ста- статистики y(Xlf ..., Xv) разбивается на три непересекающиеся 317
части: область Fv0 правдоподобных, область Fv* неправ- неправдоподобных и область Гу сомнительных (в условиях спра- справедливости проверяемой гипотезы Но) значений, т. е. На каждом v-м шаге последовательной схемы наблюде- наблюдений, т. е. при наличии наблюдений Хх, ..., Xv, v=l,2,..., решение принимается по следующему правилу: если у(Х1У ..., Xv) ? Г^°, то проверяемая гипотеза #0 принимается; если у{Х1у ..., Ху)?Ту1, то проверяемая гипотеза Но отвергается (или принимается некоторая альтерна- альтернатива #i); если у(Хг, ..., Xv) ? Г*, то окончательный вывод откла- откладывается и производится следующее (v+l)-e наблюдение (поэтому область Г* иногда называют областью неопре- неопределенности или областью продолжения наблюдений). Таким образом, для того чтобы иметь какой-то конкрет- конкретный статистический критерий, надо конкретизировать: а) тип проверяемой гипотезы; б) способ построения крити- критической статистики y(Xlt ..., Хп); в) способ построения об- областей r(f°, Г^1 и Fv по заданным(требуемым) значе- значениям характеристик точности критерия. В качестве конкретного примера последовательного кри- критерия рассмотрим известный критерий отношения правдопо- правдоподобия Вальда [21], предназначенный для различения двух простых гипотез вида (9.13). Критическая статистика этого критерия для последова- последовательности независимых наблюдений Xl9 ..., Xv определяется соотношением в.)-/(*,:».) _«h e)f(^;e) >J n (9.15) Области правдоподобных (Г^°), неправдоподобных (Ту1) и сомнительных (Г*), в условиях справедливости гипотезы #0, значений критической статистики y(v) приближенно за- 318
даются соотношениями: (9.16) А. Вальдом и Дж. Вольфовицем [21, с. 292] была дока- доказана оптимальность этого критерия среди всех других возможных последовательных критериев, а именно: среди всех критериев, различающих гипотезы (9.13) с ошибками первого и второго рода, не превосходящими заданных ве- величин, соответственно аир, критерий (9.15)—(9.16) тре- требует наименьшего среднего числа наблюдений E0.v(oc, Р) как в условиях справедливости гипотезы #0(*=0), так и в условиях справедливости гипотезы H1(i=l). А. Вальд предполагал [21, с. 15], что его критерий примерно в два раза выгоднее (по затратам на наблюдения), чем наилучший из классических критериев — критерий Неймана — Пир- Пирсона. Однако в 1959 г. С. А. Айвазяном были получены асимптотически (по сближению различаемых гипотез) точ- точные формулы для Е0. v(a, P) [4, с. 89]: с , оч 2о (а, р) _ . D4 %» (g. «) где со (л:, у) = {\ — х) а р(Я0, Нг) — «расстояние» между различаемыми гипоте- гипотезами (см. §9.4), что с учетом формулы (9.14) позволило сравнить оптимальные свойства критериев Вальда и Ней- Неймана — Пирсона: В табл. 9.1 приводятся значения функции co(a, P) для наиболее употребительных величин ошибок первого и вто- второго рода, 319
320 о о о <м о о о ю о о о ,001 о <м о о ю о о о о Ю о с» 0U / о со о 00 о со LO со о 650 о СО CD о о со о со о 00 CN со о со со о 605 о S о CN о CD о [ со CD о со CN СО О 610 о СП а о О5 LO О LO о LO LO О LO LO LO О 534 о 00 s о —« о О5 LO О oo LO о LO о 567 о 00 LO о со LO о O5 CN LO о LO о СП 9 о 466 о о Ю о о 8 LO о CN LO о LO LO о 504 о со О5 о о о со о со о LO о со 8 о •со о CN о о со о 00 о со 1^ о 462 о о о CN со о со о 00 О5 со о СП со со о 342 о о о о со 00 о см Ю о 00 со о 426 о о LO О5 со о СП со о о 8 о со со о 304 о CN о LO 8 о CN CN о CN о 00 о 386 о со о LO Ю со о со о о CN со о 00 CN о 264 о CN о CN 8 о со о 00 со о со со о 361 о 00 со о со о со о LO о 260 о 237 о 8 о 8 о Ю со о LO о о 8 о 339 о CD со о 00 со о CN о CN о LO CN о 220 о 00 00 о 8 о О> со о о со о CD CN со о 314 ° CN ы о СО 00 CN о со CN о о LO CN о со CN CN о 198 о t^ о о CN о о о о со со со о со CN со о ел 8 о 298 о со ОО CN о CN 00" CN о CN CN о CN о 00 CN о 184 о о о о о о
По данным таблицы видно, что практически коэффициент выгоды в наблюдениях в критерии Вальда по сравнению с критерием Неймана — Пирсона колеблется между двумя и тремя, хотя для некоторых сочетаний ошибок он может быть существенно большим (можно показать, в частности, что lim со(а, Р) = lim со(р, а) = -). 9.5.3. Различение сложных гипотез в схеме обобщенного последовательного критерия. На практике различение двух сложных гипотез вида Но : 0 ? До и Нг : Э ? Д1э где в — параметр (вообще говоря, /-мерный), от которого зависит закон распределения наблюдаемой случайной величины, а До и Дх — некоторые непересекающиеся области его воз- возможных значений, как правило, сводят к задаче различе- различения двух простых гипотез вида (9.13), где 0О и 0! — не- некоторые («подходящим образом» выбранные) точки соответ- соответственно из областей До и Д1# Однако в такой модифицированной постановке задачи описанный выше критерий Вальда теряет свои оптималь- оптимальные свойства, поскольку истинное значение тестируемого параметра может быть равным некоторому «промежуточно- «промежуточному» (между 0О и вг) значению 0*, а минимальность сред- среднего числа наблюдений Ее. v(a, Р) имеет место только в си- ситуации, когда это среднее подсчитывается в условиях 0 = 0О или 0 = ©!. В [5] предложен приближенный метод построения оптимального обобщенного последовательного критерия (ООПК), предназначенного для проверки гипотез вида (9.13) в ситуации, когда истинное значение параметра может быть равным 0*, где 0* Ф&0 и 0* Ф@г. Оптимальность этого критерия выражается в том, что среди всех критериев, различающих гипотезы Яо и Нх с ошибками первого и вто- второго рода, не превосходящими заданных величин, соответ- соответственно а и р, он характеризуется минимальным значением среднего объема необходимых наблюдений, вычисленного в условиях «самой неблагоприятной ситуации», т. е. мини- минимальным значением величины max Eev(a, p). Критиче- е екая статистика ООПК так же, как и в критерии Вальда, задается соотношением (9.15). Области принятия гипотезы #0 (область Г^°), принятия гипотезы Нх (область Г^1) и продолжения наблюдений (область Г?) задаются соотно- соотношениями: И Зак. 1035 321
8In min(a,g) ^ 81n(l/min(a, Г* — (y-- Лl V 8 1n(l/min(o, 8(ln(l/min(a, 3) где с0 и q — положительные числа, грубо приближенно равные соответственно 2 In ^ и 2 In -. Если рассматоивать области Г^ и Г* в плоскости (v, y(v)), то в последовательном критерии Вальда их гра- границы задаются поямыми у^ = —In ~^ и y(v> = In параллельными горизонтальной оси, в то время как в ООПК их границами являются две сходящиеся прямые, пересе- пересекающиеся в точке v* = —7т—ггч-81п —т—.—^. Это означает, р(//0, Hi) min(a, p) в частности, что ООПК является усеченным последователь- последовательным критерием, т. е. таким, число наблюдений v в кото- котором не может превзойти некоторого порогового значения v*. Подробное описание ООПК дано в [5]. Выводы 1. Процедура обоснованного сопоставления высказанного исследователем предположительного утверждения (гипо- (гипотезы) относительно природы или величины неизвестных па- параметров рассматриваемой стохастической системы с име- имеющимися в его распоряжении результатами наблюдения осуществляется с помощью того или иного статистического критерия и называется статистической проверкой гипотез. 2. По своему прикладному содержанию высказываемые в ходе статистической обработки данных гипотезы подразде- подразделяют на следующие типы: об общем виде закона распределения исследуемой слу- случайной величины; об однородности двух или нескольких обрабатываемых выборок; о числовых значениях параметров исследуемой генераль- генеральной совокупности; 322
об общем виде зависимости, существующей между ком- компонентами исследуемого многомерного признака; о независимости и стационарности ряда наблюдений. 3. Все статистические критерии строятся по общей логи- логической схеме. Построить статистический критерий — это значит: а) определить тип проверяемой гипотезы; б) пред- предложить и обосновать конкретный вид функции от результа- результатов наблюдения (критической статистики v(n))» на основа- основании значений которой принимается окончательное реше- решение; в) указать такой способ выделения из области возмож- возможных значений критической статистики y(az) области Г^1 отклонения проверяемой гипотезы #0, чтобы было соблю- соблюдено требование к величине ошибочного отклонения гипо- гипотезы #0 (т. е. к уровню значимости критерия а). 4. «Качество» статистического критерия характеризуется уровнем значимости а, мощностью 1—р, свойствами не- несмещенности и состоятельности. В состоятельных крите- критериях можно добиваться сколько угодно малых величин ошибок первого и второго рода (а и Р) лишь за счет увели- увеличения объема выборки /г, на основании которой принимает- принимается решение. При фиксированном объеме выборки можно делать сколь угодно малой лишь одну из ошибок (а или Р), что сопряжено с неизбежным увеличением другой. 5. Наряду с классической схемой наблюдения, когда объем выборки п заранее зафиксирован, в практике статистиче- статистических обследований используется и последовательная схема наблюдения, при которой на каждом из последовательно во времени проводимых этапов наблюдения принимается одно из трех решений: «принять гипотезу Яо», «отклонить гипотезу Яо», «не принимать окончательного решения и продолжить наблюдения». При этом выбор решения ста- ставится в зависимость от результатов всех предыдущих на- наблюдений, а число наблюдений v, произведенных до момен- момента принятия окончательного решения, оказывается величи- величиной случайной. 6. Оптимальные последовательные критерии отношения правдоподобия (критерий Вальда, обобщенный последова- последовательный критерий и др.) оказываются более экономными по затратам на наблюдения, на основании которых можно раз- различить проверяемые гипотезы с заданной точностью (а, Р). Исследования показали, что, применяя последовательные критерии, можно добиваться двух-, трех- и даже четырех- четырехкратного снижения необходимого числа наблюдений по сравнению с классическими оптимальными критериями. 11* 323
Раздел 1У.ПЕРВИЧНАЯ СТАТИСТИЧЕСКАЯ ОБРАБОТКА ДАННЫХ Глава 10. описательная статистика ЮЛ. Документирование исследования; организация ввода и хранения данных в ЭВМ; просмотр данных ЮЛ Л. Документация. Даже для малых по объему разовых статистических исследований полностью окупаются уси- усилия, затраченные на своевременное и полное описание ис- используемых массивов, входящих в них переменных и всех шагов статистического анализа. Раннее и тщательное изго- изготовление документации снимает много недоразумений. Боль- Большие статистические исследования выполняются коллек- коллективно, состав участников работы частично меняется в про- процессе ее осуществления, обработка собранных материалов растягивается во времени и проводится итеративно, когда вновь и вновь обращаются к данным для проверки возника- возникающих по ходу анализа гипотез. Во многих исследованиях (например, медицинских) часто к тому же происходит по- постоянное пополнение данных новыми сведениями. В этих ус- условиях продуманное и тщательное ведение документации ста- становится просто необходимым как важнейшее условие обес- обеспечения преемственности в осуществлении исследования. Остановимся кратко на отдельных аспектах этого процесса. Паспортизация исследования, массивов, переменных, способов анализа. Для каждого из указанных выше объек- объектов желательно в ЭВМ иметь следующее: 1) краткое имя, обязательно появляющееся во всех выдачах; 2) полное имя, идущее в основном в отчеты, но иногда и в выдачи, когда краткого имени недостаточно для однозначного понимания их смысла; 3) описание, которое для исследований кратко раскрывает содержание работы и указывает связь между массивами; для массивов уточняет условия их сбора или формирования; для переменных дает способ их получения, измерения или регистрации; для способа анализа — ссылки на источники, где может быть найдено точное описание метода. Описания используются в основном при формиро- 324
вании отчетов и иногда в качестве вспомогательного ком- комментария, облегчающего понимание отдельных выдач; и только для переменных 4) указание пределов изменения или принимаемых значений, которые обязательно должны использоваться для контроля при вводе данных, а также при построении выходных таблиц. Если по ходу анализа выделяются отдельные массивы или вводятся новые вспомогательные переменные, то их необходимо описывать столь же подробно, как и основные массивы и переменные. Описанная выше автоматизация документирования ис- исследования достигается при современном уровне развития математического обеспечения довольно простыми средст- средствами, но позволяет решать очень важные задачи: осущест- осуществляет контроль переменных при вводе; обеспечивает «ав- «автономную читаемость» всех выдаваемых таблиц; повышает вероятность обнаружения неточностей и ошибок в описа- описаниях; облегчает составление отчетов. Кроме того, желательно ведение в ЭВМ или с помощью специальных картотек учета: какие виды анализа (про- (программы) и к каким подмассивам применялись; какова при этом была выявленная мера зависимости между признака- признаками, успешности прогноза, адекватности отображения объек- объектов в пространство меньшей размерности и т. п.; адресов, где хранятся в ЭВМ или на полках соответствующие выда- выдачи, а также ведение разноцелевых текстовых коммента- комментариев как по логике и ходу анализа, так и к отдельным распечаткам. 10.1.2. Ввод и хранение данных. Для ввода обычно ис- используются либо перфокарты, либо дисплей с высвечива- высвечиванием шаблона, в который вписываются кодированные зна- значения, либо дисплей с высвечиванием списка возможных значений переменной — так называемого «меню». Послед- Последние два способа позволяют сразу же обнаруживать грубые ошибки при вводе. Использование «меню» требует большего времени на ввод. «Меню» должно настраиваться автомати- автоматически по описанию переменных. Хранение данных должно быть организовано так, чтобы их можно было легко редак- редактировать и пополнять. 10.1.3. Просмотр данных. Очень существенно, чтобы соб- собранные в статистическом исследовании данные были тща- тщательно просмотрены и отредактированы прежде, чем к ним будет применена основная статистическая техника. Ошибки 325
в данных могут привести к неожиданным результатам, иногда интерпретируемым, иногда нет, но всегда неверным. Просмотр данных преследует следующие цели: 1) обнаружение грубых ошибок в словаре исследования, а также ошибок, допущенных при кодировании, перфора- перфорации и вводе данных в ЭВМ; 2) указание возможных выбросов или аномальных, т. е. резко выделяющихся по своей величине наблюдений, ко- которые могут быть нерепрезентативными для изучаемой популяции (более подробно см. § 11.5); 3) получение первого, грубого представления об одно- одномерных и, частично, двумерных распределениях. Укажем некоторые приемы, облегчающие проведение просмотра данных, или, как иногда говорят, скрининга. Распечатка введенных в ЭВМ данных в табличной форме по объектам, иногда с их предварительной сортировкой по величине какого-либо признака. При этом проверяются наличие грубых ошибок при задании формата данных, пра- правильность и удобочитаемость названия исследования и имен переменных, полнота введенного материала и отсутствие лишних данных, а также попадание численных значений переменных или их кодов в предусмотренный диапазон. Просмотр расположенных по столбцам переменных позво- позволяет обычно сразу же выделить грубые ошибки. При жела- желании столбцы можно просмотреть и на экране дисплея. Од- Однако хорошо оформленная бумажная распечатка является удобным справочным документом и по другим вопросам, которые могут возникнуть на последующих стадиях ана- анализа. Построение одномерных распределений. Если ЭВМ стро- строит гистограмму (см. § 10.3), то ее столбцьгудобно заполнять номерами наблюдений. В крайнем случае если наблюдений слишком много, то указывать отдельно номера наблюде- наблюдений, вышедших за 5 %- и 95 %-ные квантили. Указание номеров наблюдений удобно использовать и при построении двумерных распечаток. Если в одну точку попадает несколько наблюдений, на графике ставится спе- специальный знак, а номера наблюдений печатаются ниже. Двумерные широкоформатные распечатки очень удобны для формирования предварительных содержательных ги- гипотез о связи переменных. Математические вопросы по- построения эмпирических распределений рассматриваются в § 10.3. 326
10.2. Шкалы измерений Каждое измерение над объектом производится в определен- определенной шкале. Различные координаты одного вектора наблю- наблюдений могут быть выражены в разных шкалах. Так, в § 5.1 приведен пример вектора наблюдений (табл. 5.1), у которо- которого первые координаты носят характер условных меток (социальная принадлежность семьи, пол и профессия главы семьи, качество жилищных условий), в то время как ос- остальные выражаются числами (число членов семьи, коли- количество детей, среднегодовой доход и т. п.). Свойства этих шкал сильно различаются между собой. Так, про пол гла- главы семьи можно сказать только, что он или мужской или женский и что пол мужской отличается от пола женского; про жилищные условия—что они совпадают или отличаются и что в отдельных случаях одни жилищные условия луч- лучше других; про расходы можно сказать, что расходы на питание одной семьи меньше, равны, больше расходов другой, можно оценить разность в расходах между семьями и подсчитать, во сколько раз расходы одной семьи отли- отличаются от расходов другой. Ниже описываются основные типы шкал и математиче- математические приемы унификации данных, выраженных в разных шкалах, которые обычно предшествуют применению мето- методов многомерного анализа. 10.2.1. Номинальная шкала. Эта шкала используется толь- только для того, чтобы отнести индивидуум, объект в определен- определенный класс. Если описаны заранее возможные классы и правила отнесения объекта в них, то говорят о категоризо- ванной шкале, если нет, то о некатегоризованной. Примером категоризованной шкалы является пол. В исследовании индивидууму приписывается одно из двух значений: буква М или Ж, специальный знак или число 1 или 2. В принципе можно было бы приписывать и другие буквы и цифры, важно только, чтобы сохранялось взаимно-однозначное соот- соответствие между кодами. Для ввода категоризованных дан- данных удобно использовать «меню», т. е. перечень возможных категорий с их кодами. Примерами некатегоризованных номинальных переменных являются имя, фамилия, место рождения. Другой важный источник некатегоризованных номи- номинальных данных указан в § 5.3. Это случай, когда наблю- наблюдение задается над парой объектов, и переменная указы- указывает только, принадлежат ли объекты, к одному классу
или нет, и не указывает, к каким классам они принадле- принадлежат. Последнее обстоятельство не надо рассматривать в ка- качестве курьеза. Конечно, если классы заранее определены и нетрудно каждый объект отнести в определенный класс, то это следует сделать и записать, к какому классу объект принадлежит. Но иногда классы заранее не описаны, созда- создание их полной классификации как раз и является целью работы, а вместе с тем оценить принадлежность объек- объектов одному классу можно. Например, можно говорить о «близком», «похожем» течении болезни у двух больных, хотя все варианты течения заболевания и не описаны. Бо- Более того, выделение эмпирически близких вариантов тече- течения болезни может служить отправным пунктом для выде- выделения и описания всех возможных вариантов развития па- патологического процесса. То же относится к выделению со- социально-экономических групп и т. п. Одна и та же переменная может в зависимости от цели использования выступать в разных качествах. Так, напри- например, некатегоризованная номинальная переменная — имя программы — служит только для индивидуализации про- программы и, если программ немного, может быть найдена пря- прямым просмотром списка программ. Вместе с тем если имена программ в списке каким-либо образом упорядочить (на- (например, в алфавитно-цифровом порядке), то имя програм- программы как поисковый образ несет в себе элементы порядковой величины. Про каждые два имени можно сказать, что они или совпадают, или одно из них предшествует другому при принятом способе упорядочивания. При изменении способа упорядочивания меняется и отношение следования. Арифметические операции над величинами, измеренны- измеренными в номинальной шкале, лишены смысла. Следовательно, и медиана, и среднее арифметическое не могут быть исполь- использованы в качестве осмысленной меры центральной тенден- тенденции. Более подходящая статистика здесь мода. 10.2.2. Порядковая (ординальная) шкала. В дополнение к функции отнесения объектов в определенный класс эта шкала также упорядочивает классы по степени выражен- выраженности заданного свойства. Каждому классу приписывается свой собственный символ таким образом, чтобы заранее установленный порядок символов соответствовал порядку классов. Так, если классам будут приписаны числовые зна- значения, то классы будут упорядочены согласно числовой последовательности; если буквы, то классы будут упорядо- упорядочены в алфавитном порядке, а если слова, то классы будут 328
упорядочены согласно значениям зтих слов. Например, в § 5.3 приводится пример порядковой шкалы для описа- описания качества жилищных условий с четырьмя градациями (классами): «плохое», «удовлетворительное», «хорошее», «очень хорошее». Естественно, что эти классы могли бы быть занумерованы числами 1,2,3,4, или 4,3,2,1, или бук- буквами а,б,в,г и т. п. Другими известными примерами порядковых шкал яв- являются: в медицине — шкала стадий гипертонической бо- болезни по Мясникову, шкала степеней сердечной недостаточ- недостаточности по Стражеско — Василенко — Лангу, шкала степени выраженности коронарной недостаточности по Фогельсо- ну; в минералогии — шкала Мооса (тальк —1, гипс — 2, кальцит — 3, флюорит — 4, апатит — 5, ортоклаз — 6, кварц — 7, топаз — 8, корунд — 9, алмаз — 10), по которой минералы классифицируются согласно критерию твердо- твердости; в географии — бофортова шкала ветров («штиль», «слабый ветер», «умеренный ветер» и т. д.). Структура порядковой шкалы не разрушается при любом взаимно-однозначном преобразовании кодов, которое сохра- сохраняет порядок. Так же, как и в случае номинальной шкалы, арифметические операции не сохраняют своего смысла при преобразовании порядковых шкал, поэтому желательно ими не пользоваться. Нетрудно показать, что если опи- опираться только на свойства шкал и не привлекать дополни- дополнительных, внешних по отношению к шкалам соображений, то единственными разрешенными статистиками при исполь- использовании порядковых шкал являются члены вариационного ряда [65]. 10.2.3. Количественные шкалы. Шкала, в которой можно от- отразить, на сколько по степени выраженности заданного свой- свойства один из объектов отличается от другого, называется интервальной. Для того чтобы задать интервальную шкалу, надо определить объекты, соответствующие начальной точке и единице измерения. И далее при измерении ставить в соот- соответствие каждому объекту число, показывающее, на сколь- сколько единиц измерения этот объект отличается от объекта, принятого за начальную точку. Простейшим примером ин- интервальной шкалы является температура в градусах Цель- Цельсия, где 0° — начальная точка и Г — единица измерения. Структура интервальной шкалы не меняется при линей- линейных преобразованиях вида у=ах+Ь> а>0. Эффект такого преобразования заключается в сдвиге начальной точки на Ъ единиц и умножении единицы измерения на а. Например, 329
путем преобразования у= -=х+32, где х — температура в С°, можно перейти к температуре в градусах Фаренгейта. Если начало в интервальной шкале является абсолют- абсолютной нулевой точкой, то возникает возможность отразить в шкале, во сколько раз одно измерение отличается от дру- другого. Соответствующая шкала называется шкалой отноше- отношений. Шкала отношений допускает преобразования вида у^аХу а>0. Большинство шкал, используемых в физике, являются либо интервальными (для измерения температу- температуры, потенциальной энергии), либо шкалами отношений (для измерения времени, массы тела, заряда, расстояния). Поскольку количественные шкалы допускают арифме- арифметические преобразования, среднее арифметическое может использоваться для описания интегральной тенденции в группировке данных. 10.2.4. Унифицированное представление разнотипных дан- данных. Каждому типу шкалы соответствует своя статисти- статистическая техника. Так, для переменных, измеренных в номи- номинальной шкале, можно использовать %2-критерий для поли- полиномиальных распределений, %2-критерий для проверки от- отсутствия ассоциаций в таблицах сопряженности, критерии для проверки гипотез о вероятности в биномиальном рас- распределении. Порядковой шкале отвечают методы, основан- основанные на использовании рангов (ранговая корреляция, не- непараметрические критерии для проверки гипотез типа F(x)^G(x) и т. п.). При интервальной шкале может быть использован весь арсенал статистических методов. Более того, разработаны статистические процедуры для случаев, когда наблюдаются векторы, одни координаты которых измерены в одной шкале, а другие — в другой. Типичным примером является обычный дисперсионный анализ (см. § 3.5), в котором факторы измеряются в номи- номинальной шкале, а соответствующие их комбинациям от- отклики — в интервальной. Тем не менее в целом ряде статистических методов, особенно в современных методах многомерного анализа, предполагается, что данные измерены в однотипных шка- шкалах. Чтобы иметь возможность применять эти методы в об- общем случае разнотипных данных, были предложены раз- различные приемы унификации данных. Познакомимся с важ- важнейшими из них. Сведение к двоичным переменным. В основе этого метода лежит введение вместо каждой исходной случайной пере- 330
менной серии случайных величин, принимающих только два значения: 0 и 1. Для номинальной величины х, имею- имеющей k градаций хъ ..., xk, вводится k таких величин у19 •••» Уь> что yt = ly когда х=xit и yt=09 когда хфхгA=19 ..., Л). Этот же прием иногда используют и при сведении к дво- двоичным переменным случайной величины, измеренной в по- порядковой шкале. Однако в ряде случаев оказывается удоб- удобным выделять не событие x=xh, а событие х^хк. Для сравнения относительных достоинств этих двух способов рассмотрим следующую модельную задачу. Пусть ? — равномерно распределенная на отрезке [0, 1] случайная величина, б — малое число; 8/2<л;<*/-8< 1-36/2; <и = и(х) = 1, если *-8/2<6<;t + 8/2; \и(х) = 0 в противном случае; (v = v(x) = l, если \^х\ \и(д-) = 0, если ?<х. Функция и(х) моделирует, очевидно, первый способ пе- перехода к двоичным переменным, а функция v(x) — второй. После несложных подсчетов получаем: cortf. и{х)) = (х~0,5)уЬ.у 12/|/1-S; A0.1) cor(u(*), и @)) = -8/A -6); A0.2) T3cJ7. A0.4) Из формул A0.1), A0.2) следует, что корреляция между I и и(х) зависит от величины х. Коэффициент корреляции имеет разный знак в левой и правой половинах отрезка [0, 1], а при лг=0,5 обращается в нуль. Корреляция между и(х) и и(у) не зависит от взаимного расположения х и у. При втором способе перехода к двоичным переменным знак корреляции между ? и v(x) неизменен на всем отрезке и корреляция наибольшая при л:=0,5 (формула A0.3)). Корреляция между v(x) и v(y) всегда положительна и тем больше, чем х ближе к у (формулаA0.4)), что весьма естест- естественно. Таким образом, при втором способе перехода к двоич- 331
ным переменным в большей степени сохраняется интерпре- интерпретация корреляционных связей. В том случае, когда имеют дело с непрерывной количест- количественной переменной, ее значения сначала квантуют, объеди- объединяют в несколько градаций и далее поступают так же, как в случае порядковой шкалы. Основной недостаток изложенной техники — это введе- введение большого числа новых переменных и частичная потеря информации, содержащейся в данных, как из.-за квантова- квантования, так и из-за искусственного снижения уровня исполь- используемой шкалы. Оцифровка номинальных и порядковых переменных. Этот метод прямо противоположен только что изложенному, в нем все переменные поднимаются, подтягиваются до уров- уровня количественных путем приписывания их градациям числовых значений. Иногда приписываемые значения назы- называют метками. Выбор меток существенно зависит от цели, с которой производится оцифровка. Так, если изучается величина связи между двумя номинальными признаками, то метки можно выбрать из условия максимизации коэффициента корреляции между ними [33], [123]. Если речь идет об отне- отнесении наблюдений к одному из заранее определенных клас- классов (дискриминантный анализ), то выбор меток можно связать с условием максимизации нормированного расстоя- расстояния в многомерном выборочном пространстве между цент- центрами изучаемых популяций (расстояния Махаланобиса). Иногда эту задачу упрощают и метки приписываются по- покоординатно так, чтобы максимизировать только нормиро- нормированное расстояние между средними значениями данной ко- координаты. Статистическое сравнение на примере одной част- частной задачи эффективности глобального и покоординатного подхода к оцифровке в дискриминантном анализе может быть найдено в [57, 59]. Изложенные приемы оцифровки, когда метки выбирают- выбираются из условия максимизации соответствующим образом по- подобранного функционала, укладываются в рамки упомя- упомянутого в § 1.2 экстремального подхода к формулировке основных проблем математической статистики. В целом оцифровка качественных переменных является задачей сложной как в вычислительном, так и в чисто ста- статистическом плане. Отдельные аспекты этой проблемы об- обсуждаются в работах [31, 33, 40, 47, 123]. 332
10.3. Изучение эмпирических распределений Данные в том- виде, как они получены при наблюдении, обычно труднообозримы. Для того чтобы начать анализ, в них надо внести некоторый порядок и придать им удобный для исследования вид. В частности, сначала желательно получить представление о распределении случайных вели- величин, входящих в данные. 10.3.1. Гистограмма. В случае когда число возможных зна- значений случайной величины не велико, представление о ее распределении дает набор частот появления каждого из значений. В общем случае значения случайных величин или при- признаков, полученных при наблюдении, группируют, объеди- объединяют в разряды и подсчитывают, сколько раз встретились значения в каждом разряде. В результате вместо многочис- многочисленных отдельных записей получается вполне обозримая статистическая таблица. Подробнее о технике перехода к группированным данным см. § 5.4. Для того чтобы представить распределение более на- наглядно, принято в прямоугольной системе координат стро- строить специальный чертеж, называемый гистограммой рас- распределения. Для этого горизонтальная ось разбивается на равные отрезки, соответствующие разрядам, и на каждом из отрезков, как на основании, строится прямоугольник с высотой, пропорциональной частоте данного разряда. Полученная таким образом прямоугольная гистограмма за- зависит от выбора длины разрядов. Чтобы уменьшить эту зависимость, прямоугольные гистограммы сглаживают. Один из приемов сглаживания заключается в том, что прямыми линиями соединяют середины соседних площадок гистограммы. Пример 10.1. В табл. 10.1 приведены значения и — логарифма заработной платы (в условных единицах) рабо- рабочих-сдельщиков. Известно, что эта величина имеет прибли- приближенно нормальное распределение. Для иллюстрации влия- влияния на форму гистограммы длины интервалов группирова- группирования на рис. 10.1 показаны прямоугольные гистограммы с ша- шагом h=0y05 и /i=0,10. Как видно из рисунка, гистограмма с большим шагом (пунктирная линия) более гладкая. Тот же эффект хорошо виден и на рис. 10.2, где приведены сглаженные гистограммы. Иногда группированные данные используются для пид- счета моментов случайной величины вместо истинных зна- 333
5,44 5,37 5,36 5,42 5,50 5,68 5,33 5,25 5,52 5,52 5,56 5,63 5,51 5,53 5,61 5,52 5,46 5,40 5,15 5,41 5,34 5,45 5,37 5,41 5,48 5,43 5,09 5,69 5,34 5,17 5,54 5,32 5,51 5,31 5,46 5,50 5,39 5,60 5,66 5,44 Т а б л 5,43 5,30 5,30 5,48 5,67 5,37 5,27 5,43 5,43 5,39 ица 10.1 5,40 5,38 5,65 5,36 5,53 '5,54 5,58 5,48 чений наблюдений. При этом если все разряды имеют одну и ту же длину, а их положение выбрано случайным образом по отношению к данным, то в среднем среднее значение вы- выборки, подсчитанное по группированным данным, не ме- меняется, а дисперсия увеличивается на /i2/12 [22, 60]. Чтобы компенсировать этот эф- Л20 фект, из подсчитанного по группированным дан- данным значения дисперсии вычитают величину /i2/12 (поправка Шеппарда). В частности, при h=a/2 влияние группировки на оценку о порядка 1 % и им можно пренебречь. Пример 10.2. В табл. 10.2 для данных, приведенных в табл. 10.1, подсчитаны оценки среднего и дисперсии по группированным (рис. 10.1) и негруппирован- ным (табл. 10.1) данным. Как видно из данных табл. 10.2, средние зна- значения действительно из- изменяются в нашем слу- случае мало, дисперсия же растет, но в значитель- значительной степени компенси- Рис. 10.2. Гистограмма рис. 10.1 РУется поправкой Шеп- после сглаживания парда. 5,0 5,2 Рис. 10.1. Прямоугольные гистограм- гистограммы распределения величины для двух интервалов группирования (по оси ординат — число наблюдений, по оси абсцисс — и) 5,6 5,6 рис. 10.1 334
Данные Исходные Первая группировка Вторая группировка и 5,439 5,434 5,434 Та 0,01633 0,01681 0,01703 блица 10.2 Поправка Шеппарда 0 0,00021 0,00083 10.3.2. Непараметрические оценки плотности. Наряду с ги- гистограммами для оценки плотности используются также оценки вида Ц(х(-х)/Ь)9 A0.5) 3,0 2.0 1.0 6-0,2 где b — малый параметр, a k(u) — функция, удовлетворяю- удовлетворяющая следующим условиям: k(u) ^ 0, k(u)^k{—u), J k(u)du = = 1, k(u)-+0 ( \и |->оо). Часто в качестве k(u) берут плот- плотность нормального закона с А параметрами @,1). Основное достоинство этих оценок по сравнению с гистограммами заключается в том, что они не зависят от выбора положения разрядов. По этой причине они легко обобщаются на мно- многомерный случай. Правда, вы- выбор параметра b так же, как длины разряда, остается про- произвольным. Чтобы дать представление о том, как работают эти оцен- оценки, на рис. 10.3 для данных табл. 10.1 построены для трех значений b непараметрические оценки плотности типа A0.5). Сравните этот рисунок с прямоугольниками и сгла- сглаженными гистограммами рис. 10.1 и 10.2. 10.3.3. Оценки функции распределения. Пусть даны п на- наблюдений х1у ..., х119 извлеченных из генеральной совокуп- совокупности с функцией распределения F(t). Тогда за оценку F(t) принимают 5,0 5.2 5,6 58 Рис. 10.3. Непараметрические оценки плотности распределе- распределения и для трех значений b 335
где суммирование проводится по всем xt <Zt. Из централь- центральной предельной теоремы (см. § 7.3) следует, что для каж- каждого t и произвольного Р {| F(t) - F (t) | > s} — 0 при а оо. v 99 Близкую оценку F(t) можно получить и путем интегриро- интегрирования от -—оо до / непараметрической оценки плотности A0.5). В тех случаях, когда требуется проверить гипотезу, что случайная величина имеет функцию распределения G@, принадлежащую семейству вида F((t—fx)/cr), где F(<) ' — известная непрерывная функция распределения, можно рекомендовать при построении F ис- использовать специальную шкалу, откладывая по оси ординат вместо F(t) 5,0 5,2 5,ь 5,6 5,8t величину v^F^Fit)), где F~* — функция, об- Рис. 10.4. Функция распределения и ратная к F. В ЭТОМ слу- У на нормальной вероятностной бумаге чае в координатах (t, v) график G(t) превращает- превращается в прямую линию, по положению которой легко оценива- оцениваются параметры \i и а (см. п. 10.4.3). Наибольшее распрост- распространение в практической работе получила нормальная вероят- вероятностная бумага с и=Ф~г, где Ф(-) — стандартная функция нормального распределения. На рис. 10.4 на нее нанесена эмпирическая функция распределения данных из табл. 10.1. Визуальное согласие с прямой линией для п=58 удовлет- удовлетворительное, т. е. распределение и можно считать прибли- приближенно нормальным. 10.3.4. Преобразование переменных. Практически все ме- методы многомерного анализа в той или иной степени опира- опираются на предположение о нормальном характере (гауссо- вости) распределения входящих в модели случайных вели- величин. Поэтому в случае негауссовских распределений воз- возникает желание подобрать такое преобразование перемен- переменных, чтобы после него распределения стали бы приближенно нормальными. Из геометрических соображений видно, что любое непрерывное распределение путем монотонного не- непрерывного преобразования случайной величины может 336
быть превращено в нормальное. Первоначально в практиче- практической работе использовались преобразования вида y=Vx, y=\g(x+a). В известной монографии Хальда [85] приведен ряд хорошо подобранных примеров, иллюстрирующих поль- пользу таких преобразований. Дж. Бокс и Д. Кокс [101] рекомендуют использовать следующие одно- и двухпараметрические семейства преоб- преобразований: A0.7) In л: (А = 0); V, к 1 ' " (Ю.8) Следует специальное внимание обратить на связь f(x) — плотности распределения у и р(х) — плотности распределе- распределения х (см. § 7.4): В случае однопараметрического семейства A0.7) 1п~~ = (А — 1Iпл\- (Ю.9) в случае двухпараметрического семейства A0.8) Подходящие значения параметров можно искать графиче- графически, как рекомендовано в [85], или с помощью метода мак- максимума правдоподобия, рассматривая X(Klt X2) в качестве параметра (параметров) распределения и записывая функ- функцию правдоподобия для исходных переменных. 10.3.5. Таблицы сопряженности. Многомерные выборочные распределения, особенно распределения случайных вели- величин, измеренных в номинальных и порядковых шкалах, часто представляют в виде прямоугольных таблиц с двух-, трех- или многосторонней классификацией. В клетке, со- 337
ответствующей /х-й градации первой классификации, L — второй, ..., if — 1-й классификации, указывается Xi /.,.../г — число объектов, имеющих одновременно соот- соответствующие градации каждого признака. Такие таблицы называют таблицами сопряженности (англ. — contingency tables). Им посвящена обширная статистическая литерату- литература. Традиционная техника работы с таблицами сопряжен- сопряженности изложена в [22, 41, 48], а современное изложение предмета, включающее так называемые логарифмически линейные модели, — в [93, 97, 116, 131]. 10.4. Оценивание параметров сдвига и масштаба .10.4.1. Постановка задачи. На практике часто встречаются распределения, близкие к нормальным. Они возникают или при непосредственной регистрации наблюдаемых пере- переменных, или в результате описанного в конце § 10.3 пре- преобразования эмпирических данных. Основными характе- характеристиками, используемыми при работе с этими распреде- распределениями, являются так или иначе введенные параметры сдвига и масштаба. Поскольку точная аналитическая форма эмпирических распределений обычно не известна, да подчас и не интересна для исследователя, эти параметры обычно определяют с помощью вычислительной процедуры. При этом оценки параметров вводятся так, чтобы: 1) в случае гауссовского распределения выборочный па- параметр сдвига т был состоятельной оценкой среднего |х, а выборочный параметр масштаба Ъ был состоятельной оценкой стандартного отклонения а; 2) при линейном преобразовании случайной величины параметры изменялись так же, как меняются параметры нормального закона. В многомерном случае вводятся соответственно вектор сдвига М и неотрицательно определенная матрица В, сво- сводящиеся в случае гауссовского распределения к обычным вектору средних и ковариационной матрице. Каждый способ оценивания параметров сдвига и мас- масштаба приводит к определенной параметризации распреде- распределений. Обсудим здесь различные способы оценивания. Эти вопросы последние десять-пятнадцать лет привлекают боль- большое внимание профессиональных статистиков, поскольку прямое математическое моделирование показало, что ста- статистические процедуры, оптимальные для нормального 336
распределения, неожиданно быстро теряют свои оптималь- оптимальные свойства при утяжелении «хвостов» по сравнению с нормальным распределением. Прежде чем переходить к систематическому изложению, остановимся на возмож- возможных механизмах появления «тяжелых» хвостов. Нормальная выборка может быть загрязнена существенными ошибками технического характера, допущенными при регистрации наблюдений. При обработке данных эти «выбросы» жела- желательно идентифицировать и далее можно просто игнориро- игнорировать. Во втором, принципиально важном, случае мы имеем приближенно нормальное распределение с примесью другого распределения, имеющего несколько отличное среднее и большее рассеивание. Такие случаи возникают при опреде- определении «нормы» в экономике, социальных исследованиях, медицине. Здесь уже не удается трактовать «засорение» как «выброс», так как данные, регистрируемые у части вы- выборки, отличаются подчас не столько изменением пределов возможных значений переменных, сколько изменением ча- частоты отклонений от центральной тенденции «нормы». Си- Ситуация еще более усложняется тем, что здесь обычны засо- засорения несимметричные. Так, например, при оценке произво- производительности труда на предприятиях какой-либо отрасли промышленности предприятия со старой технологией бу- будут в среднем иметь худшие показатели по сравнению с ос- основной группой предприятий. Аналогично начавшаяся бо- болезнь сдвигает физиологические показатели пациента в ка- каком-то одном направление Выбор способа параметризации в этих случаях существенно зависит от цели исследова- исследования: надо ли описать всю имеющуюся популяцию или надо описать только ее центральное ядро, представляющее «ьорму», по возможности сняв эффект «засорения». Поэто- Поэтому при изучении различных способов введения параметров сдвига и шкалы внимание приходится обращать на простоту интерпретации получающихся оценок, возможность их на- настройки на решение стоящей перед исследователем задачи и выборочные статистические свойства оценок не только в г'чучае гауссовского распределения, но и для широкого сне--ст\«а моделей «загрязнения» нормальной выборки. На- Наконец, немал>*о роль играет простота технической реализа- реализации оценок, особенно в многомерном случае. 10.4.2. Оценивание параметров нормального закона. Пусть Хг9 ...1 ап — выборка объема п из многомерного нормаль- нормального распределения с параметрами (AT, 2). Тогда несме- несмещенные, эффективные (см. § 8.1) оценки параметров зада- 339
ются формулами х = 2 xtin\ s = 2 (*<• - г) (^ - *)'/(« - О*. A0.11) Ковариационная матрица оценки среднего описывается фор- формулой Е{Х — М)(Х — М)' =п-1Я. A0.12) Оценки (X, S) на сегодня наиболее употребительны и входят во все пакеты статистических программ. Но, к со- сожалению, они имеют плохие выборочные свойства для рас- распределений, хотя и близких к нормальным, но имеющих более тяжелые хвосты, о чем подробно сказано в п. 10.4.4. 10.4.3. Графический метод оценивания. Построим на нор- нормальной вероятностной бумаге прямую линию, соответст- соответствующую функции распределения (см. п. 10.3.3), и пусть иа @<а<с1) — значение абсциссы, соответствующее вероят- вероятности а. Положим ИЛИ ^0,84; 0,16= К, М-«в. 1б)/2- При таком определении \х — медиана распределения, а чис- числитель аз/4,1/4 — межквартыльный разброс. В нормальном случае эти оценки имеют следующие асимптотические (при п-^оо) дисперсии [29]: Если учесть, что в случае нормального распределения Dx= = о2/п, a Ds=cr2/Bn), эти оценки заметно менее эффективны, чем обычные оценки, используемые в нормальном случае. * Исходя из логики этого обозначения среднеквадратическую оценку дисперсии х в одномерном случае следовало бы обозначить как s. Однако в книге мы следуем общепринятому в математической статистике обозначению s2. 340
10.4.4. Проблема устойчивости оценок при небольших от- отклонениях распределения от нормального. К. Ф. Гаусс при- пришел в 1809 г. к нормальному закону из решения задачи, которая на современном языке может быть сформулирована следующим образом [110, 111]: найти распределение, для которого х — среднее арифметическое независимых наблю- наблюдений — является оценкой максимального правдоподобия для параметра сдвига. Из самой постановки задачи Гаус- Гауссом следует, что х совсем не обязательно должно иметь хо- хорошие выборочные свойства для распределений, не являю- являющихся нормальными. И это действительно так, эффектив- эффективность х как оценки параметра сдвига, даже для симметрич- симметричных распределений, быстро падает с утяжелением «хвостов» распределения. Для ряда распределений относительная эффективность х показана в табл. 8.1. Исторически уже давно было замечено, что при оценке центра распределения желательно отбросить слева и спра- справа равные небольшие доли крайних членов вариационного ряда и взять среднее арифметическое оставшихся членов. Такая оценка предлагалась в XVIII в. во Франции при оценке среднегодовой урожайности. В 1910 г. ее выдвигал А. Пуанкаре как более устойчивую альтернативу х. Та- Таким методом выводится, например, судьями средний балл в гимнастике. Однако позднее, в 30-х и 40-х годах нашего века, в математической статистике под влиянием блестящих работ Р. А. Фишера и введенных им фундаментальных по- понятий достаточности (статистики), эффективности (оценки) при четко определенном классе рассматриваемых альтер- альтернатив об устойчивости оценки забыли. В наше время пер- первым о старых предложениях вспомнил Дж. Тьюки, привлек- привлекший к проблеме устойчивости оценок внимание профессио- профессиональных статистиков [141]. Приведем еще пример того, как устойчивая, удобная, широко распространенная в начале нашего века статисти- статистика была объявлена недостаточно эффективной, к 60-м годам практически исчезла из учебников математической статистики, а в наше время полностью восстановлена в своих правах. Речь идет об оценке параметра масштаба, п так называемой средней абсолютной ошибке йд= 2ta ~~ хЬ'п- Со времен Гаусса эта оценка конкурировала со сред- неквадратической оценкой sn = у Sfo —xfl{n—\). Вообще 341
говоря, d и s — это разные параметризации распределе- распределения. Для нормального закона отношение их предельных значений равно: — = l/2/я. Г Soo Для сравнения dn и sn используем следующую асимпто- асимптотическую характеристику, показывающую относительную асимптотическую эффективность dn no отношению к sn как оценок параметра масштаба: и проведем сравнение на модели «засоренного» нормаль- нормального закона Тьюки (см. п.6.1.11).Поведение е как функции от г показано в табл. 10.3. По данным таблицы видно,что r нормальном случае (e=O)s эффективнее d на 12 %, но Таблица 10.3 0,001 0,002 0,005 0,01 0,02 0,05 0,10 0,15 0,25 0,876 0,948 1,016 1,198 1,439 1,752 2,035 1,903 1,689 1,371 уже при е=0,002 эффективнее d. Далее эффективность d продолжает быстро расти и при е=0,05 в два раза превыша- превышает эффективность 5. Поскольку d оказалась эффективнее s практически для всех значений е, из данных табл. 10.3 вытекает, что во всех случаях выборок малого и умеренного объема в практической работе предпочтительнее использо- использовать d. И только в случаях выборок очень большого объема, когда распределение оказывается очень близким (!) к нор- нормальному (е<0,002), лучше использовать s. Графические оценки, описанные в п. 10.4.3,явно устой- устойчивы к отклонениям распределения от гауссовского, но они все-таки недостаточно эффективны в случае нормаль- нормального закона. Хотелось бы более полно использовать инфор- информацию, заключающуюся в центральной части распределе- распределения. Это можно сделать, например, путем использования при определении параметров специально подобранных ве- весовых функций. В многомерном случае М — оценку век- вектора сдвига и В — оценку ковариационной матрицы можно 342
искать [89, 126] путем итерационного решения уравнений вида - М) {Xt - М)'- Щ w2 (/,) = 0, A0.14) где wx(t), w2(t) — заданные весовые функции tt = ^(Xj—M)'B~1(Xi—M)9 a p — константа, подбираемая так, чтобы компенсировать в гауссовском случае смещение в оценке ковариационной матрицы, вызванное взвешива- взвешиванием. При w1=w2 = 1 и Р = 1 формулы A0.13), A0.14) сво- сводятся к обычным для нормального закона оценкам A0.11), A0.12). 10.4.5. Оценивание положения центра симметричных рас- распределений. Старые наивные предположения по оценке па- параметра сдвига, о которых говорилось в предыдущем разде- разделе, после известной работы Тьюки [141] были возрождены на новой базе. Опишем наиболее интересные из них. Ниже х19 ..., хп — независимая выборка из симметричного рас- распределения Р(х—\х) и *(D<...<*G,) — ее вариационный ряд. Урезанное среднее (trimmed mean) уровня а @05) для хи ..., хп определяется формулой где т — наибольшее целое, не превосходящее а/г. При некоторых условиях на симметричное распределение Р(х) оценка асимптотически нормальна и имеет асимптотиче- асимптотическую дисперсию /z~1af(a), где A0.16) где f(z) — плотность P(z) и га—Я~1(а). Среднее по Винзору уровня а @^а<0,5) для xit ..., ..., хп определяется формулой (п— т— I \ J] xin+m(x{m+0+xin-m))Y (Ю.17) 343
Эта оценка также при некоторых условиях на симметрич- симметричное распределение Р(х) асимптотически нормальна с асимп- асимптотической дисперсией по^(аI где *1- of*(«)=J (Ю.18) Оценки /(а) и w(a) ориентированы на борьбу с экстремаль- экстремальными наблюдениями, которые рассматриваются как гру- грубые ошибки. Эти оценки обладают хорошими свойствами, °сли грубые ошибки появляются одинаково часто как в ле- левей, так и в правой частях вариационного ряда. Если рас- распределение асимметрично, то лучше использовать оценки, приведенные в п. 10,4.6. Изучению свойств оценок парамет- параметра сдвига симметричных распределений посвящено много работ [76, 119, 120, 126]. Если рассматривать модели «засо- «засорения» нормального распределения Ф вида Z7 С — ^) = A — е) Ф (/ — р.) + •// (/ — iJu), где Н(и) — функция распределения произвольного симмет- симметричного относительно ц=0 засорения, то минимум макси- максимальной (по Я) асимптотической дисперсии оценки fx дости- достигается на t(a)y где уровень обрезания а выбирается таким образом, чтобы а=Ф(—й), где k — решение уравнения [1211: Этот результат интересен в теоретическом плане, но для практики следует иметь в виду, что обычно и е неизвестно, и распределение Н(х) редко бывает строго симметричным. Определенным шагом к оценкам, приведенным в п. 10.4.6, служит предложение Хампеля [119] оценивать одновременно и параметр сдвига, и параметр масштаба путем минимизации З^К^-т)/*!. A0.19) где ЧГ(и)= sign(«) 1.7. 1,7<|а|<3,4; (8'57|a|), 3.4<|и|<8.5, 344
as — медиана абсолютных отклонений хь от т. Минимум отыскивается с помощью итеративной процедуры. В ка- качестве начального приближения для т берется медиана хь и для s — медиана абсолютного отклонения от т0. 10.4.6. Параметризация с помощью экспоненциально взве- взвешенных оценок (ЭВ-оценки). Если в формулах A0.23), A0.24) положить и;1(/)=о;а(/)=ехр {—kt/2}, $ = A+Х)-\ где К — малый параметр, то мы придем к однопараметри- ческому классу оценок, предложенных Л. Д. Мешалкиным в 1970 г. Это удобные, устойчивые к несимметричным за- засорениям оценки, допускающие простую вероятностную интерпретацию и обобщение на многомерный случай. В по- последние годы они интенсивно изучались [56, 89, 90, 128] и для них построена асимптотическая теория для нормаль- нормальных распределений в многомерном случае и для негауссов- ских распределений в одномерном. Наглядная геометри- геометрическая интерпретация ЭВ-оценок и простота вычислитель- вычислительных процедур позволили перенести их на задачи много- многомерной геометрии [49] и регрессии [58]. Изложение начнем с вероятностной интерпретации ЭВ- оценок. С помощью цепочки определений каждому много- многомерному распределению будет указан наиболее близкий к нему нормальный закон и параметры этого закона бу- будут приняты за параметры исходного распределения. Пусть X ? Rp, А — любое выпуклое множество в Rp и |J А | А — расстояние между распределениями F и G. Определение 1. Пусть w(X) — весовая функция, тогда вектор V = Vw (F) = J Xw (X) dF (X)/e и матрицу Л =АЮ (F) = J (Х- V) (X - V)f w (X) dF (X)/e, где e=ew (F) = $w(X)dF(X), будем называть ш-взвешенным средним и ш-взвешенной ковариационной матрицей. Определение 2. Распределения, имеющие общие йу-взвешенные ковариационные матрицы, будем называть до-подобными. Концепция до-подобия дает возможность связать произ- произвольное распределение F с до-подобным ему нормальным за- 345
коном N и использовать первые и вторые моменты N при описании F. Выбор весовой функции существенно зависит от решаемой задачи. При задаче описания центральной час- части распределения весовую функцию естественно связать с плотностью ^-подобного нормального закона. Определение 3. Пусть cp=cp(X; Л4, 2) — плот- плотность в точке X нормального закона TV с вектором сред- средних М и ковариационной матрицей 2. Будем называть за- закон N (к, С)-связанным (или короче ^-связанным) с F, если он фя-подобен F и р(/7, N)<C.C. Последнее условие введено для того, чтобы гарантировать при малых С единственность ^-связанного с F нормального закона, так как в общем слу- случае может быть несколько ср^-подобных F нормальных за- законов. Определение 4. Пусть N — ^-связанный с F нормальный закон. Вектор средних и ковариационную мат- матрицу N будем называть ^-средним и ^-ковариационной мат- матрицей F. Из этих определений, в частности, следует, что для лю- любого нормального закона егоЯ-моменты совпадают с обычны- обычными моментами. Пусть N (р) — множество всех р-мерных невырожденных, т. е. не сосредоточенных в подпространстве меньшей, чем /?, размерности нормальных распределений и М (р, е) — множество всех распределений F, для которых 9(F,N(p))= inf p(F Обращаясь к работам [56, 89], можно показать, что для любого 7/>0 существуют такие С=С(к, р) и г—г(р, Я,С)>0, что для любого F ? М(р, е): 1) существует одно и только одно ^-связанное с F нор- нормальное распределение; 2) ^-среднее (MF) и ^-ковариационная матрица B/?) — непрерывные функции F (в смысле р-расстояния); 3) при линейном преобразовании переменных ^-сред- ^-среднее и ^-ковариационная матрица F меняются так же, как соответствующие моменты нормального закона; 4) ^-моменты удовлетворяют системе уравнений М = J Л>х (X. М, S) dF (X) I J ?r (X. М, S) AF (X); A0.20) - М)' ?х (X, М. S) dF (X) 11 тх (X, M9 S) dF (X). A0.21) 34G
где <р(х, М9 2)= ехр {—(х—М)' Ъ~\х—МI2). При из- известной функции F(x) и надлежащем выборе начального приближения решение системы A0.20), A0.21) может быть найдено итерационным путем; 5) в случае оценки параметров по независимой выборке объема п интегралы в системе A0.20), A0.21) должны быть заменены на соответствующие суммы по всем наблюдениям: М=%ХяУ(Х;. М, В) /S?X(^/. Я В); A0.20') В = A + Я) 2(*/ -М)'?Х(Х,., Л?. B)/S?"(^,, M, В). A0.21') А. М. Шурыгин [89] рекомендует в нормальном случае вводить в правую часть A0.21') множитель A+т/п) как поправку на конечность выборки, где т=—AХ)+4A 2Х)*1ХAХ1\2ХJ3[5Ш 15 (р—\)(\— К—№—3,5^3)— Х(р—\){р— 2) х X @,5+^+0,5Я2)]; 6) оценки Му В состоятельны и асимптотически нормаль- нормальны. В одномерном случае их асимптотическая ковариацион- ковариационная матрица имеет вид С/г", где С может быть выражено через первые четыре Я- и 2Х-моменты. Пусть ak(k) = = j(X —7W)V(*, M, S)df(X), тогда С=КНК-1, где К, Н — симметричные квадратные матрицы порядка 2; 1 + М д4(Х) - _п , П2 Д2BХ) 423 ао(К)> П" ~~~~ ^ > } ' а\ (X) ' Д| B1) \ h "is — 2 -^ 4S о пг BХ) В практических расчетах величины а^ (Я) можно заменить их оценками по выборочным даннь!м; 7) в многомерном нормальном случае оценки М и В асимптотически независимы, асимптотическая ковариацион- ковариационная матрица М имеет вид: п-1A+Х)р+2A+2К)-р12-1Ъ. 347
Выборочные свойства Ji-моментов в одномерном случае иллюстрируются в табл. A0.4) [57], где даны оценки Л-сред- него и Х-дисперсии по ста выборкам объема 1001. Как видно по данным таблицы, введение весовой функции в нормаль- нормальном случае несколько ухудшает свойства оценок, но зато в случае «засоренного» распределения не только уменьшает Распределение \w Параметр 0 0,5 1 1,5 ЛЧОЛ) ^.-среднее о,ооо±о,О1О 0,006rh0,011 0,010±0,013 0,014±0,015 ^-дисперсия 1,011±0,013 1,030±0,016 1,026±0,023 1,о15±о,азо Та 5лица 10.4 (UW«U)+<Utf(lf3)* ^.-среднее 0,100±0,012 0,020±0,011 0,020±0,013 0,023±0,015 Л-диспсрсия 1,874+0,046 1,178±0,020 1,П8±0,025 1,083±0,031 смещение оценок, но и улучшает выборочные свойства оце- оценок (Х=0,5). На практике можно рекомендовать выбирать значения X в зависимости от объема выборки и размерности выборочного пространства р так, чтобы, с одной стороны, взвешивание «гасило» большие отклонения, а, с другой сто- стороны, потеря эффективности от взвешивания не была бы чрезмерной. Взвешенные оценки с произвольным выбором весов рас- рассматриваются в [126]. 10.5. Визуализация многомерных данных 10.5.1. Постановка задачи. Как указывается в § 1.1, со- собранные в исследовании данные часто можно рассматривать в качестве набора векторов (точек) в соответствующем мно- многомерном пространстве. В случае когда математическая модель изучаемой ситуации известна, можно с той или иной степенью точности заранее представить себе, как точки — наблюдения будут расположены в этом пространстве. Од- Однако более типичной является ситуация, когда исследова- исследование геометрии расположения точек предшествует форми- формированию гипотез и построению моделей. Математические 1 Цифры после знака ± показывают выборочное значение стан- стандартного отклонения соответствующей оценки. 348
методы, используемые, при изучении расположения точек, опираются на понятие расстояния (р) между ними. Различ- Различные примеры расстояний можно найти в [8]. Общими для всех методов визуализации данных являются два интуитив- интуитивно принимаемых предположения: 1) «реальная размерность изучаемой ситуации» значи- значительно ниже размерности выборочного пространства и 2) правильное представление о многомерном располо- расположении точек может быть получено при довольно широком наборе расстояний. Определенного пояснения требуют взя- взятые в кавычки слова «реальная размерность ситуации». Мы не будем давать им точного определения, но постараем- постараемся выявить их смысл на примере. Пример 10.3. Для выявления различия между дву- двумя группами объектов в р-мерном выборочном пространстве и выработки правила отнесения нового наблюдения к од- одной из рассматриваемых групп часто используется линей- линейный дискриминантный анализ Фишера [8, 12, 129, 140]. В этом случае предполагается, что р-мерные распределе- распределения объектов в каждой из групп являются выборками из двух р-мерных нормальных распределений с общей кова- ковариационной матрицей, но с разными векторами средних. Тем самым все многообразие распределения исходных дан- данных сводится к двум точкам в пространстве наблюдений — средним соответствующих групп и одной ковариационной матрице, т. е., по существу, к одномерной задаче. Это об- обстоятельство значительно упрощает дальнейшую работу с данными и позволяет легко оценить вероятность принад- принадлежности нового наблюдения к одной из групп. Методы визуализации данных основаны на переходе от большого числа р исходных признаков #A>, ..., х^ к новой системе признаков, являющихся функциями от исходных. Желательно, чтобы небольшое число q (для целей визуали- визуализации q может быть равно либо 1, либо 2, либо 3) новых признаков сохраняло наиболее существенные черты струк- структуры изучаемой матрицы данных, например наличие «сгуст- «сгустков» (кластеров) объектов, «цепочек», объектов, далеко от- отстоящих от основной совокупности, и других образований. В общем виде задача перехода (с наименьшими потерями информации) от набора исходных признаков л:A>, ..., х{рУ> к новому набору 2A>, ..., 2(<?> (<7< р) описана в § 1.2 как экст- экстремальная задача, в которой подбор новых показателей Z(X) = BA>(X), ..., z^(X)Y подчинен максимизации неко- некоторой экзогенно заданной меры информативности Iq(Z(X)). 349
Конкретный выбор функционала 1Q(Z) зависит от целей визуализации и имеющейся дополнительно априорной ин- информации о структуре изучаемой совокупности объектов. Если такая информация отсутствует, то используются кри- критерии информативности, нацеленные на максимальное со- сохранение информации, содержащейся в исходной матрице данных — так называемые критерии автоинформативнос- автоинформативности. На применении критериев такого типа основаны рас- рассматриваемые далее метод главных компонент и его нели- нелинейные обобщения. В качестве априорной информации наиболее часто выступает информация о неоднородности совокупности объектов, т. е. о принадлежности объектов к различным группам, например к группе больных или здо- здоровых лиц, что приводит к критериям дискриминантного анализа, нацеленным на сохранение этой информации. Как указано в § 1.1, исходные данные могут быть зада- заданы не только в виде матрицы данных, но и в виде матрицы близости (расстояний) между объектами. Задача визуали- визуализации данных в этом случае тесно связана с методами так называемого многомерного метрического шкалирования [37], при котором стремятся построить некоторую матрицу данных (конфигурацию точек) возможно меньшей размер- размерности, «объясняющую» имеющуюся матрицу расстояний. Ниже рассматриваются два метода визуализации много- многомерных данных: 1) метод главных компонент, сводящийся к построению проекций точек на двумерные плоскости, натянутые на пер- первые собственные векторы их общей ковариационной матри- матрицы; 2) представление матрицы близости между объектами (см. § 1.1) системой точек в пространстве малой размер- размерности. 10.5.2. Главные компоненты. Главными компонентами зA>, ..., z(p> многомерного признака Х = (хA\ хB>, ..., лг^>)' называют систему ортонормированных линейных комбина- комбинаций исходных признаков ир} (Ю.22) 1=\ 350
где m(/'> — математическое ожидание признака х^К В дальнейшем, если не оговорено противное, будем считать, что данные центрированы так, что т('>=0. При этом ли- линейные комбинации выбираются следующим образом. Сре- Среди всех линейных нормированных комбинаций исходных признаков вида A0.22) первая главная компонента облада- обладает наибольшей дисперсией. Геометрически это означает, что первая главная компонента ориентирована вдоль нап- направления наибольшей вытянутости эллипсоида рассеива- рассеивания исследуемой совокупности. Вторая главная компонента имеет наибольшую дисперсию среди всех линейных пре- преобразований вида A0.22), некоррелированных с перрой ком- компонентой. Она представляет собой проекцию на направ- направление наибольшей вытянутости наблюдений в гиперплос- гиперплоскости, перпендикулярной первой главной компоненте. Третья главная компонента имеет наибольшую дисперсию среди всех линейных комбинаций вида A0.22), некоррели- некоррелированных с первой и второй главными компонентами, и т. д. Более формально это означает, что набор из q первых глав- главных компонент является оптимальным по критерию A0.23) где Dz(/> — дисперсия /-й главной компоненты; DxU) — дисперсия признака л:(/). Вычисление коэффициентов главных компонент основа- основано на том факте, что векторы [Л, ..., Uo являются собствен- собственными (характеристическими) векторами (см. [12, с. 455— 459.]) матрицы ковариацин исследуемой совокупности, т. е. удовлетворяют системе уравнений Соответствующие собственные числа равны дисперсиям главных компонент. Если теперь собственные векторы упо- упорядочить в порядке убывания собственных чисел Ях ^ Х2> ...> Лр, то первой главной компоненте соответствует собственный вектор с максимальным собственным числом Кг и Vz^=Xv второй главной компоненте соответствует 351
собственный вектор со следующим по значению собствен- собственным числом %2 и D2<2)=?i2 и т. д. Всего существует р собственных векторов матрицы 2 и, следовательно, р главных компонент. Ковариационная матрица главных компонент zA\ ..., z(p> будет иметь вид: Ai О ЗБ2=| 0 h \о о ... Так как преобразование U от исходных признаков к глав- главным компонентам является ортогональным, то имеют место соотношения р р р «=1 i=i i=i т. е. обобщенная дисперсия det Sz и сумма дисперсий глав- главных компонент равны обобщенной дисперсии det 2 и сум- сумме дисперсий исходных признаков. Следовательно, вели- величина критерия A0.23) для первых q главных компонент рав- равна: 2 *<• A0.23') 1 = 1 т. е. равна доле суммарной дисперсии, «объясненной» пер- первыми q главными компонентами. Чем ближе значение этого критерия к 1, тем, можно ожидать, меньше'будет искажена картина взаимного расположения экспериментальных точек при их проектировании на гиперплоскость, натянутую на q первых главных компонент. Замечание 1. На практике теоретическое значение 2 большей частью неизвестно, поэтому вместо него берут выборочную ковариационную матрицу 2=ХХ' и говорят о главных компонентах выборки. В том случае, когда из контекста ясно, о каких главных компонентах идет речь, термин «выборочный» мы будем опускать. Принято также термином «главная компонента» называть-не только скаляр z{i\ но и соответствующий ему /-й собственный вектор Uj. 352
Замечание 2. Использование метода главных ком- компонент наиболее естественно и плодотворно, когда все ком- компоненты исследуемого вектора имеют общую физическую природу и соответственно измерены в тех же единицах. ' В случае когда признаки измеряются в разных единицах, результат может существенно зависеть от выбора масштаба измерения. Поэтому в подобных случаях часто переходят к безразмерным величинам, нормируя x{i). Например, с по- помощью преобразования x*w=xW/o..f где аи — диспер- дисперсия х^К 10.5.3. Свойства наименьшего искажения геометрической структуры для главных компонент. Приведем два утвержде- утверждения о сохранении локальной геометрической структуры ис- исходного множества точек при их проектировании на q пер- первых компонент t/lf ..., Uq. 1. Пусть L — произвольная ^-мерная гиперплоскость (q<ip), проходящая через начало координат, и пусть Zx, ..., Zn — проекции Хъ ..., Хп на эту гиперплоскость. Тог- п да величина A(L) = 2 (Xi—Z{)'(Xi—Zf), равная сумме квад- ратов отклонений Xt от L, достигает своего наименьшего значения, когда совпадает с гиперплоскостью С, натянутой на q первых главных компонент. При этом q q . A0.24) 2. Рассмотрим далее матрицу Н размера (пХп) с эле- р ментами hu= S^l^V» равными скалярному произведе- нию векторов Xt и Xjy и пусть H(L) — аналогичная мат- матрица, построенная по векторам Zlt ..., Zq. Геометрическая интерпретация этих матриц очевидна: hjj — квадрат дли- длины вектора Xjt a ft/y- пропорционально косинусу угла меж- между Xj и Xt. Оказывается, что || Н - Н (С) || = гшп Ц Н - - И (L) || = лгг (Я%+1 + ... + Я2Р), A0.25) где || Н || =/2 hjj, т. е. гиперплоскость, натянутая на «./ q первых главных компонент, в наименьшей степени иска- искажает длину и взаимные углы между проекциями. 12 Зак. 1035 353
Из A0.24), A0.25) следует, что в качестве меры сохра- сохранения геометрических свойств объектов при проектирова- проектировании на L можно использовать либо величину p-q 2 h + i либо величину p-q 2 Ъ+ Программы, обеспечивающие выполнение метода глав- главных компонент, входят практически во все пакеты статисти- статистических программ. Основные недостатки метода главных ком- понент связаны с тем, что, во-первых, оценка 2 может быть искажена из-за больших незамеченных «выбросов» в дан- данных («outliers») и, во-вторых, метод главных компонент ори- ориентирован прежде всего на выявление линейных связей. С первой из указанных проблем можно справиться пу- путем перехода, к различного рода устойчивым оценкам, на- например взвешенным оценкам (см. п. 10.4.6 и D9]), либо пу- путем предварительного удаления выбросов с помощью тех же, например, диаграмм рассеивания. Возможно также оце- оценивание не по всей выборке, а только по какой-либо ее час- части. Например, в медицинских исследованиях — по данным практически здоровых пациентов. Аналогично для улучше- улучшения обозримости диаграммы рассеивания в случае большого числа объектов целесообразно проектировать не все наблю- наблюдения, а только ту их часть, которая в первую очередь ин- интересует исследователя. Для того чтобы преодолеть второй недостаток, можно ис- использовать один из нелинейных методов отображения дан- данных б пространство малой размерности. 10.5.4. Нелинейные отображения в пространство малой раз- размерности. Пусть, как к 'ранее. Xit ..., Хп — результаты ^-мерных наблюдений в исходном пространстве, a Zlt ..., Zn — образы этих же объектов, полученные в результате 354
некоторого нелинейного однозначного отображения в q-шр- ное пространство. Как меру качества отображения рас- рассмотрим какой-либо из функционалов, отражающих сохра- сохранение локальной геометрической структуры матрицы дан- данных X, существующей в исходном пространстве. Различ- Различные типы таких функционалов приведены в [8, 78, ИЗ], Мы ограничимся рассмотрением функционала вида /(Z, a) = S (rf// где dij — расстояние между точками в исходном простран- пространстве; d*j — расстояние между точками в пространстве об- образов. В качестве расстояний могут использоваться взвешен- взвешенное евклидово расстояние 1/2 (обычное евклидово расстояние получается как частный случай, когда w1=--w2=... = l); расстояние Махаланобиса, инвариантное к линейным преобразованиям в исходном пространстве, и расстояние Колмогорова р \Чр . />>0. В ^-мерном пространстве образов также возможно ис- использование любой из перечисленных метрик. Дальше будет рассматриваться случай евклидовой мет- метрики в исходном пространстве и в пространстве образов. Переход от взвешенного евклидова расстояния и от расстоя- расстояния Махаланобиса в исходном пространстве к евклидову может быть легко осуществлен предварительным линейным преобразованием данных. Итак, пусть в пространстве образов расстояние между точками-образами задается формулой 12* 355
Подставляя это выражение в A0.26), получаем представле- представление функционала /(Z, а) как функции qXn координат Z\k) (/=1, n, k=l, q), и задача поиска минимума функцио- функционала /(Z, а) сводится к минимизации функции qXn пере- переменных. Прежде чем перейти к описанию вычислительной проце- процедуры минимизации, рассмотрим свойства критерия A0.26) в зависимости от значений параметра а. Если значение а>0, то искажение расстояния (т. е. разность (d^— d*jJ) ока- оказывает на величину критерия тем большее влияние, чем больше величина расстояния между точками в исход- исходном пространстве. Поэтому при использовании критерия с параметром я>0 следует ожидать, что чем больше расстоя- расстояние между точками в исходном пространстве, тем меньше бу- будет искажено взаимное положение этих двух точек в про- пространстве образов. По аналогичным соображениям, если значение параметра а<0, в меньшей степени будут иска- искажаться взаимные положения точек, находящихся на малом расстоянии в исходном пространстве. Более гибким является подход, основанный на исполь- использовании параметра а, значение которого меняется в зави- зависимости от величины разности й^—йц. Именно: A0.27) av если dij>d*ij. Рассмотрим случай, когда ах>0 и а2>0. Пусть yj а величина dtj велика. Тогда вес искажения (dtj—d*jJ будет мал A/d?/). С другой стороны, пусть dtj<idij и ве- величина du опять велика, тогда вес искажения (d^ — dfiJ будет большим (dff). Следовательно, при минимизации /(Z, а) будет наблюдаться тенденция искажения больших расстояний в сторону увеличения, а малых — в сторону уменьшения. Естественно ожидать, что при таком характе- характере искажений отображение исходной конфигурации будет более удачным. Во всяком случае при выделении всякого рода «сгустков», «кластеров» точек этот тип искажений может быть даже полезен, поскольку расстояние между точками, относящимися к одному кластеру, имеют тенденцию быть малыми, а между точками из разных кластеров— больши- большими, и, следовательно, искажения рассмотренного типа увеличивают «контрастность» картины при визуализа- визуализации. 356
Как уже указывалось, определение конфигурации, для которой достигается минимальное значение функционала качества /(Z, а), сводится к задаче поиска минимума функ- функции qXn переменных. Ввиду большого числа переменных наиболее применимы для решения этой задачи итерацион- итерационные схемы, являющиеся разновидностями градиентного ме- метода, Рассмотрим схему, реализованную в программе сокра- сокращения размерности в пакете ППСА [67]. Именно поиск точ- точки минимума функции /(Z, а) в qXn-мерном пространстве проводится с помощью итерационной процедуры: /. = 1, П. k=\, q), где / — номер шага итерации, Z\k)—k-я координата обра- образа /-го объекта в <7-мерном пространстве: a{zf-zf). A0.28) Таким образом, это процедура градиентного типа. Ее осо- особенность состоит в выборе шага, который равен 1/22^у. Обоснование такой величины шага аналогично обоснованию величины шага для критерия вида A0.26) при а=0, которое приведено в работе [37] (тогда величина шага, очевидно, равна 1/2п). Можно доказать сходимость итерационного процесса A0.28) к некоторой точке локального минимума функционала /(Z, а) при любом задании начальных условий. Так как точек локального минимума у функционала /(Z, а) может быть очень много, чтобы попасть в точку глобально- глобального минимума, нужно много просчетов, требующих доста- достаточно больших затрат машинного времени. Поэтому весьма существенным является вопрос о выборе начального при- приближения. В пакете ППСА [67] в качестве начального при- приближения используется проекция точек из X на q первых главных компонент. Если а—О, то главные компоненты ми- минимизируют критерий /(Z, а) в классе линейных ортого- ортогональных отображений. Хотя такой выбор начальных ус- условий и не гарантирует достижения глобального минимума, однако во многих случаях он приводит к существенному 357
улучшению отображения структуры по сравнению с мето- методом главных компонент. В заключение отметим одно важ- важное свойство нелинейного отображения — центр тяжести конфигурации, полученной в результате отображения, сов- совпадает с центром тяжести конфигурации, взятой в качестве начального приближения. 10.5.5. Многомерное метрическое шкалирование. В преды- предыдущих пунктах рассматривался вопрос визуализации дан- данных, заданных в виде матрицы данных. В некоторых слу- случаях данные задаются в виде матрицы близости D между объектами размера пХп. Мы рассмотрим здесь случай, ког- когда элементы матрицы D могут рассматриваться как расстоя- расстояния между объектами, и поставим задачу построить конфи- конфигурацию точек возможно меньшей размерности, которая порождала бы (объясняла) матрицу D. Такая задача носит название задачи многомерного метрического шкалирова- шкалирования. Для решения этой задачи снова воспользуемся функ- функционалом вида A0.26). Итерационная процедура .определе- .определения точки минимума остается той же самой. Однако вопрос задания удачной начальной конфигурации является уже более сложным. Рассмотрим подход, приводящий к выбору начальной конфигурации, эквивалентной получаемой мето- методом главных компонент. Этот подход реализован в ППСА. Введем, следуя [139], симметричную матрицу Н' раз- размера пХп с элементами A'/* = 4-^i'7 + dl/*-"dl/*)(/=1- п> *=1-4 (Ю-29) Значение i считается фиксированным. Элементы i-n строки и i-то столбца полагаются равными 0. Элемент h)k можно интерпретировать как скалярное произведение <векторов, идущих из точки с номером i в точки с номерами / и k. Действительно, для данных трех точек Xif X;«, Xh d*ik=d*lJ+d*ik-2dljdikcosbiJk. где ffjk — угол между векторами Xh—Xt и Xj—Хг. От- Отсюда простой перестановкой членов получаем difixu cos blJk= »f (d\j + d\k - d*sk). A0.30) Из сравнения равенств A0.29) и A0.30) следует, что h)k~ — (Xj—XiY(Xk—Х^), т. е. действительно является ска- скалярным произведением векторов Xj—Xt и Х^—Xit иду- 358
щих из точки X. в точки Xj и Xk. Существует п возможных матриц Н'' в зависимости от выбора точки Xt (i = l, n). Теперь можно определить матрицу скалярных произведе- произведений векторов, выходящих из центра множества точек Xlt .., Xnt т. е. матрицу размера пХп с элементами вида Элементы этой матрицы получаются из элементов матрицы Н' по формуле При этом безразлично, какая из матриц Н' использована для получения матрицы Н. Матрица Н и есть та матрица, которая теперь будет использована для получения началь- начальной конфигурации. Предполагая векторы центрированны- центрированными, можно записать Н=Х'Х. Следовательно, ранг и собст- собственные числа матриц Н совпадают с рангом и собственными числами матрицы ковариаций 2 (нам неизвестной). Каждый собственный вектор матрицы Н представляет соответствую- соответствующую главную компоненту X, т. е. /-я компонента (i = l, n) /-го собственного вектора \Н есть скалярное произведение Xt на /-й собственный вектор матрицы 2. Для целей визу- визуализации, например, положив q==2 и взяв два первых соб- собственных вектора матрицы Н в качестве координат началь- начальной конфигурации, мы придем к ситуации, описанной в пре- предыдущем пункте. Выводы 1. Тщательное ведение документации, описывающей орга- организацию сбора данных, регистрируемые переменные и ход анализа, является одним из необходимых условий успеш- успешного выполнения исследования, особенно исследования боль- большого объема. Современное состояние математического обес- обеспечения ЭВМ позволяет достигнуть высокой степени авто- автоматизации в выполнении этого процесса. Перед началом статистического анализа данные должны быть тщательно просмотрены и отредактированы. 2. Измерения могут быть произведены в разных шкалах: номинальной, порядковой, интервалов и отношений. Каж- Каждому типу шкалы соответствует своя статистическая техни- 359
ка. Существуют специальные математические методы, рас- рассчитанные на использование многомерных данных, выра- выраженных в шкалах разных типов. Однако более типичной для многомерного анализа является ситуация, когда шкалы од- однотипны. Чтобы достигнуть этого, либо переходят к пере- переменным, принимающим только два значения: 0 и 1, либо производят так называемую оцифровку номинальных и по- порядковых величин. 3. Наиболее распространенным методом оценки плотности распределения случайной величины является построение ее гистограммы или полигона частот. С помощью группиро- группированных данных можно оценивать также моменты распре- распределения, но при этом приходится вводить поправки на груп- группировку. При использовании ЭВМ доступны и так называе- называемые непараметрические оценки плотности, основанные на усреднении «весов» отдельных наблюдений, «размазанных» в окрестности каждого наблюдения, с помощью специаль- специально выбранной весовой функции. 4. Часто используются специальные преобразования слу- случайных величин для сведения их распределений к гауссов- скому. В этом случае плотность распределения исходной величины равна нормальной плотности для соответствую- соответствующего значения преобразованной величины, умноженной на якобиан преобразования (см. также G.11)). 5. При графическом изображении функции распределения принято использовать специальные вероятностные бумаги, на которых распределения вида/г((л:—|л)/а), где F — извест- известно, а ц и а —неизвестные параметры, изображаются в ви- виде прямых линий. Наибольшее распространение получила нормальная вероятностная бумага. 6. Для изображения многомерных распределений случай- случайных величин, измеренных в номинальной и порядковых шкалах, широко используются таблицы сопряженности, /, /, ...,й-й элемент которых показывает, сколько наблюде- наблюдений в выборке имеют i'-ю градацию первого признака, /-ю второго, ..., k-ю последнего. Наиболее часто проверяемая гипотеза в двумерных таблицах состоит в предположении независимости распределения первого и второго призна- признаков. 7. При работе с существенно многомерными данными часто возникает необходимость получения общего представления о взаимном расположении точек-наблюдений в соответствую- соответствующем многомерном пространстве признаков. Все используе- 360
мые здесь методы опираются на понятие «расстояния» меж- между точками. К наиболее распространенным приемам такого типа относится метод главных компонент, с помощью кото- которого строятся проекции точек-наблюдений на направления наибольшей вытянутости данных. В последние годы широкое распространение получили существенно опирающиеся на ЭВМ прямые методы поиска в пространстве невысокой размерности конфигурации то- точек, отождествляемых с наблюдаемыми объектами, такой, что расстояния между точками в этом пространстве в наиболь- наибольшей степени (измеряемой с помощью специально выбран- выбранного функционала) соответствуют расстояниям между объек- объектами. Эти методы получили название многомерного шкали- шкалирования. С теоретико-вероятностной и статистической точек зрения они изучены пока недостаточно. 8. Для описания распределений, близких к гауссовским, традиционно используются среднее арифметическое и сред- средний квадратический разброс. Однако этот подход не всегда удачен, поскольку указанные оценки быстро теряют свои оптимальные свойства при отклонениях распределений от нормального закона. В связи с этим приобретают значение методы хотя и менее эффективные в случае гауссовского рас- распределения, но более устойчивые («робастные») к отклоне- отклонениям от нормальности. В связи с этим следует вспомнить графические методы и давно забытую оценку параметра масштаба, основанную на среднем абсолютном отклонении. В последние двадцать лет предложено и много других устойчивых оценок параметров. Среди них выделяются оценки, использующие при вычислении моментов взвешива- взвешивание наблюдений с помощью степени плотности подходящим образом подобранного нормального закона. Глава 11. ПРЕДВАРИТЕЛЬНЫЙ АНАЛИЗ ПРИРОДЫ ДАННЫХ Уже на первых этапах статистической обработки исходных данных XvXv...,Xa (H.I) — наблюденных значений исследуемой случайной величины g — приходится отвечать на следующие вопросы, от пра- правильного ответа на которые зависит правомерность и эф- эффективность применяемых методов анализа: 361
можно ли считать имеющиеся в нашем распоряжении данные A1.1) результатами независимых наблюдений не- некоторой случайной величины? при наличии нескольких «порций» исходных данных можно ли считать, что все они извлечены из одной и той же генеральной совокупности? правомерно ли полагать, что закон распределения на- наблюдаемой случайной величины симметричен относительно центра группирования ее значений? какая модель больше подходит для описания закона ве- вероятностного распределения обрабатываемых данных и, в частности, как проверить соответствие выбранной модели имеющимся в нашем распоряжении наблюдениям? как строить обработку данных при наличии отдельных «пропусков» в них (например, в многомерном наблюдении X оказались не измеренными некоторые из его компонент)? как поступать с «подозрительными» наблюдениями, т. е. с данными, резко выделяющимися на общем фоне остальных наблюдений? Решение этих вопросов достигается с помощью различ- различных статистических критериев и приемов — критериев не- независимости и стационарности наблюдений, критериев од- однородности двух или нескольких выборок, критериев сим- симметрии распределения, критериев согласия и т. д. Их опи- описанию и посвящена настоящая глава. 11.1. Проверка соответствия выбранной модели распределения исходным данным (критерии согласия) Пусть нами высказано предположение, что ряд наблюдений A1.1) образует случайную выборку, извлеченную из гене- генеральной совокупности с некоторой модельной функцией распределения Fmod(X\ 6<1), ..., 6<s>), где общий вид функции Fmod (т. е. тип модели) считается известным, а параметры, от которых она зависит, могут быть как известными, так и неизвестными. Описываемые в данном параграфе критерии согласия предназначены для проверки гипотезы H.:Fl(x) = Fmoi{x;b(\...,b^ A1.2) и основаны на использовании различных мер расстояний между анализируемой эмпирической функцией распреде- 362
ления Я"> (х) (определяемой по выборке A1.1), см. § 5.5) и гипотетической модельной Fmod (х\ 0A), •••, 0(s)). 11.1.1. Критерий х2 Пирсона. Критерий согласия %2 позво- позволяет осуществлять проверку гипотезы A1.2) в условиях, когда значения параметров б*1), ..., 6<s> модельной функции распределения не известны исследователю. Для измерения степени отклонения эмпирического распределения от мо- модельного этот критерий использует введенную в п. 6.2.1 статистику %2 (см. формулу F.20)). Процедура статисти- статистической проверки гипотезы A1.2) складывается в данном случае из следующих этапов. 1. Весь диапазон значений исследуемой случайной ве- величины g разбивается на ряд интервалов группирования Д1э Д2, ..., Д& не обязательно одинаковой длины. Это раз- разбиение на интервалы необходимо подчинить следующим условиям: а) общее количество интервалов k должно быть не мень- меньшим 81; б) в каждый интервал группирования должно попасть не менее 7—10 выборочных значений ?, причем желательно, чтобы в разные интервалы попало примерно одинаковое число точек; в) если диапазон исследуемой случайной величины ? — вся числовая прямая (полупрямая), то крайние интервалы группирования будут полупрямыми (соответственно один из них). 2. На основании выборочных данных х19 хг% ..., хп стро- ятся статистические оценки 0^>, 0B>, ..., 0(s> неизвестных параметров 0A>, 0B>, ..., 0(s>, от которых зависит данный закон распределения F (о построении оценок см. гл 8). Более корректным способом действий считается тот, при котором оценки 8W, 0B>, ..., 0(s> вычисляются на основе сгруппиро- сгруппированных данных. 3. Подсчитываются числа v^ точек, попавших в каждый из интервалов группирования Дг, и вычисляются вероят- вероятности событий g ? Ah т. е. вероятности 1 Предполагается, что число s неизвестных параметров 0A>, G(s) не превосходит 7 (на практике, как правило, s^ 3). Если же отказаться от этого предположения, то требование а) следовало бы заменить более жестким: ?> max (8, s+1). 363
попадания в те же интервалы At (*°_i и х? суть левый и правый концы 1-го интервала группирования). 4. Вычисляется величина критической статистики %2(k—s— 1) по формуле Далее из табл. 2.2а [16] находятся 100A—а/2) %-ная точка Xi-a/2(fc—s—1) и 100 а/2 %-ная точка %l/2(k—s— 1) х2- распределения с k—s—l степенями свободы (а, как обычно, уровень значимости, которым мы задаемся заранее). Если x2i_a/2(^-^- 1)<х2(^-5- i)<y^a/2(^_s- l), то гипотеза о том, что исследуемая случайная величина ? действительно подчиняется закону распределения / принимается. Выполнение неравенства говорит о слишком большом отклонении исследуемого за- закона распределения от гипотетического Fmod(x)- Случай требует дополнительного исследования 1. 1 Отвержение выдвинутой гипотезы в случае «слишком ма- маленьких» значений статистики критерия у(п) на первый взгляд про- противоречит здравому смыслу. Действительно, статистика у(п) ха- характеризует степень отклонения эмпирического распределения случайной величины ? от гипотетического F: чем меньше у{п), тем меньше это отклонение. Казалось бы, идеальный случай достига- достигается при -y^feO. Однако надо отметить, что хотя у(п) и является мерой отклонения гипотетического закона F от истинного, но мерой случайной, т. е. величиной, подверженной обязательному неконт- неконтролируемому разбросу. И в этом отношении одинаково неправдо- неправдоподобными (маловероятными) следует считать как слишком большие значения у(п), так и слишком малые. О чем же свидетельствуют слишком малые значения у{п)? Одной из причин подобной «ненор- «ненормальности» может служить неудачный выбор закона F — искусствен- искусственное завышение числа параметров, от которых этот закон зависит. Другими причинами могут служить нарушения корректности или объективности техники выборочного обследования, стремление «по- «подогнать» экспериментальные данные под желаемый результат и т. п. 364
Так, например, при проверке гипотезы нормальности гипотетический закон Fmod будет иметь соответственно вид: X (и—а) 2 а в качестве оценок а и а2 двух неизвестных параметров а и а2 будут фигурировать величины k (через а:/0 обозначается, как и прежде, средняя точка интер- интервала Д;). Значения F(x^\ а, а2), необходимые для подсчета вероят- вероятностей pti можно найти, например, из табл. 1.1 [16] значе- значений функции нормированного нормального распределения с учетом соотношения F(x\ a, o2)=F(-^-; 0,1). Число сте- степеней свободь! закона распределения %2, процентные точки которого нам понадобятся, будет равно в данном случае k—3, где k — число интервалов группирования. 11 Л.2. Проверка нормального характера распределения по асимметрии, эксцессу и средним отклонениям. Для при- приближенной проверки нормальности исследуемой случай- случайной величины g по результатам ее наблюдения хъ ..., хп можно воспользоваться некоторыми характерными свойст- свойствами нормального распределения. В частности, как извест- известно, в случае нормального распределения характеристики асимметрии фг) и эксцесса (Р2) должны быть нулевыми (т. е. Pi==P2==0). a среднее абсолютное отклонение 6=Е |g—a \ связано со средним квадратичным отклонением o=VE(%—af соотношением 0/а=]/| (см. п. 6.1.5). Поскольку практически мы имеем дело лишь с прибли- приближенными, выборочными значениями асимметрии (Рх(/г)), эксцесса (E2(я))> средних абсолютного @П) и квадратическо- го (s2(n)) отклонений, которые подвержены некоторому не- 365
избежному неконтролируемому разбросу, то мы не можем требовать точного выполнения соотношений К(л) = ?,(л)=0; A1.3) JL A1.4) Однако исходя из нормального характера распределения исследуемой случайной величины ?, можно вывести и зата- булировать законы распределения для Р^/г), Р2(#), dn (или для некоторых, подходящих для наших целей их комбина- комбинаций) и тем самым определить степень «допустимых» (в пре- пределах нормальности ?) отклонений от A1.3), A1.4) или от соотношений, построенных на основании A1.3) и A1.4). Рассмотрим три варианта приближенной проверки нормаль- нормальности, основанной на вышеупомянутых свойствах р1э р2» в и а. 1. Для проверки нормального характера распределения по асимметрии (Pi(/z)) и отношению средних отклонений (dn=Qn/s(n)) в случае сравнительно небольших объемов выборок (п^ 25) целесообразно воспользоваться наличием таблиц для вычисления (по данным входным параметрам Q и п) точных значений 100ф%-ных точек распределения ста- тистик рх(п) и dn. В частности, процедура проверки нормаль- нормальности в данном случае будет следующей: по формуле E.33') вычисляем значение рх(я); величину dn подсчитываем по формуле у 4-53 Задавшись для Qt одйим из значений 0,01 или 0,05 и при- принимая во внимание объем выборки я, по табл. 4.76 из [16] находим величину lOOQi %-ной точки Yi.Qj (л); задавшись для Q2 одним из значений 0,01, 0,05 или 0,10 и принимая во внимание объем выборки /г, по табл. 4.7а из [16] находим величины 100Q2 %-ной точки dn.Qz и 100A—Q2) %-ной 366
точки dn.i_Qe; если хотя бы одно из неравенств оказалось нарушенным, то гипотеза нормальности отвер- отвергается с уровнем значимости а, подчиняющимся неравен- неравенствам 1: 2max(QllQ1)<a<2(Q1 + Q2)-2QlQa. A1.5 2. Для проверки нормального характера распределения по асимметрии (Рх(/г)) и эксцессу (Рг(я)) в случае умеренно больших объемов выборок (п^ 50), наряду с уже упоминав- упоминавшейся табл. 4.76 из [16], можно воспользоваться таблица- таблицами точных процентных точек распределения выборочного коэффициента эксцесса. Для этого следует вычислить ве- личину выборочного коэффициента асимметрии рх(лг) по формуле E.33'); задавшись (^=0,01 или 0,05, найти вели- величину lOOQx %-ной точки Yi.Q1 (n) из таблицы; вычислить величину выборочного коэффициента эксцесса C2(я) по Ф°Р" муле E.34'); задавшись Q2=0,01 или 0,05, найти величины 100Q2 %-ной точки у2-<2г(п) и 100A—Q2) %-ной точки Y2-1-Q* (п) по табл. 4.7в из [16]. Если хотя бы одно из нера- неравенств 1 При проверке гипотезы Но по двумерной критической статис- статистике y^)=(v^7^» 7*2*)» Для которой известны (затабулированы) лишь частные распределения ее компонент, мы будем использовать сле- следующие вероятностные соотношения и оценки. Пусть А — событие, связанное со случайной, величиной у("), означающее, что проверка гипотезы #0 по компоненте у^ дала неотрицательный результат. И пусть В —• такое же событие, связанное со значениями второй компоненты у("). Наличие соответствующих таблиц для частных распределений у(п) и у(") позволяет определять А и В по заданным небольшим значениям Qx и Q2 таким образом, что P(A)=l—Ql и Р(В)=\—Q2« Будем полагать далее, что имеют место соотношения Р{А |?}>Р{Л} и Р{В \АУ>Р{В}, что отвечает, как правило, ло- логической и стохастической связи, существующей между у(п) и уИ). Тогда при отвержении гипотезы Но в случае нарушения хотя бы одного из событий А и В легко вывести оценки сверху и снизу для уровня значимости а такого критерия, а именно: max (Qlt Q2)<. <a<(Q1+Q2)-Q1Qa. 367
оказалось нарушенным, то гипотезу нормальности иссле- исследуемого распределения следует отвергнуть с уровнем зна- значимости а, оцениваемым с помощью неравенств A1.5). 3. Для проверки нормального характера распреде- распределения по асимметрии и эксцессу в случае достаточно боль- больших объемов выборок (п порядка 103) целесообразно восполь- воспользоваться приближенной (асимптотической по п) нормаль- нормальностью распределения выборочных коэффициентов асиммет- асимметрии (Pi(az)) и эксцесса (Р2(/г)). Однако следует учитывать, что сходимость распределения Р2(я) к нормальному крайне медленная: даже при /г, равном нескольким сотням, можно зафиксировать существенную разницу между точными значениями процентных точек распределения Р2(/г), полу- полученными с помощью табл. 4.7в из [16], и приближенными значениями тех же процентных точек, вычисленных ис- / 6 ч/24Т; 225 \\ ходя из [-7РГг у -\\ -15л+124)] ' нормального при- ближения для распределения Р2(я). Это, в частности, яв- является причиной слишком грубых результатов проверки нормальности распределения по асимметрии и эксцес- эксцессу, когда при сравнительно небольших п для нахожде- нахождения процентных точек распределений Pi(n) и Р2(/г) исполь- используют их приближенную нормальность. Итак, если объем выборки достаточно велик (порядка 103), то можно использовать следующую процедуру провер- проверки нормальности распределения исследуемой случайной величины ? по результатам ее наблюдения х1у х2У ..., хп: по формулам E.33') и E.34') подсчитываются выбороч- выборочные коэффициенты асимметрии (Рх(/г)) и эксцесса ф2(п) ); среднеквадратические отклонения выборочных коэффи- коэффициентов асимметрии и эксцесса вычисляются по.формулам (см. [39]): = V D% = У (/I+/J (п+ 3) ~ у /2±{\ _ 225 у п у 15/2+124yj 368
для заданного q, близкого к единице (например, ^=0,95), находят с помощью таблицы величину ^-квантиля ич нор- нормального распределения; если хотя бы одно из неравенств + 1 окажется нарушенным \ то гипотеза о нормальном харак- характере распределения случайной величины ? отвергается с уровнем значимости а, оцениваемым с помощью A1.5), где Возможны различные модификации рассмотренного критерия нормальности, в частности использование неко- некоторой одномерной статистики вида где сХп\ с2п — некоторые положительные коэффициенты, зависящие от п. Так, например, к статистике вида н2 мы придем, если в качестве меры отклонения исследуемой эмпирической плотности распределения f(x) от теоре- теоретической нормальной плотности f(x; а, а2) рассмотреть непрерывный аналог статистики %2 в критерии согласия где t=(x—а)/а. Чтобы от у? прийти к ее приближенному выражению вида %2, надо воспользоваться разложением /п(/) в ряд Эджворта (см. [48, п. 17.7]), ограничившись пер- первыми тремя его членами. Однако точные распределения (при каждом фиксированном п) статистик вида %2 не вы- вычислены, а использование аппроксимаций, основанных на асимптотической нормальности рх (п) и $2(п) Дает слишком грубые результаты. 11.1.3. Критерий Колмогорова — Смирнова и его приме- применение к построению доверительных границ для неизвестной функции распределения. Критерий согласия Колмогоро- 1 Во втором из этих неравенств учтена смещенность оценки $2(п): если xlt #21 •••» хп — выборка из нормальной генеральной со- совокупности, то Ер2(я) = ——_ (а не /г+1 369
ва — Смирнова позволяет осуществлять проверку гипоте- гипотезы A1.2) в условиях, когда модельная функция FmodM = = F0(x) известна полностью, т. е. не зависит от неизвест- неизвестных параметров. Статистики критерия Колмогорова — Смирнова и их рас- распределения. Пусть Лп) (х)—эмпирическая функция рас- распределения. Введем следующие меры уклонения (рас- (расстояния) между функциями F^(x) и F0(x): Dn = s\xp\Fln)(x)-FQ(x)\; (П.6) D-=sup(F0(x)-Fin)(x)). x С Rl Статистики "VnDn и VnD,7 — являются статистиками кри- критериев Колмогорова и Смирнова соответственно. При этом D/I = max(D+l ?Г). Для практического использования критерия Колмогорова- Смирнова статистики Dn, Da, D^ представляются в виде: A1.7) Где ti = F0(X(i))9 т. е. это значение гипотетической функции распределения, взятой в i-й точке вариационного ряда1. Для статистик Dni Z),t, Dn известны точные распреде- распределения [74], [16]. Здесь приведем лишь распределение для D О, d<0; [n-nd] /=0 .1, где In—nd] — целая часть числа п—nd. 370
Для практических целей обычно достаточно предельных распределений статистик limP(y n-*co где /С(Я) = . S(X)-\ ~~ 1 ¦i-s .0, 1-е 0, 00 -2Xa, A A > (Я), <0. л^и' A1.8) A<0; A1.9) Предельное распределение для статистики VTiDn в точ- точности совпадает с S(K). Для предельного распределения статистики Колмого- Колмогорова VnDn известен следующий факт [40]: если Kn(fy есть точное распределение статистики "VnDny то при любом п Kn(h)>K(h), а максимальная ошибка от замены точного распределения на предельное для п ^ 60 имеет порядок ~0,8- Ю-2. Доверительные границы для функции распределения. Поскольку распределение статистики Колмогорова Dn сво- свободно от неизвестного распределения генеральной совокуп- совокупности и в качестве меры расстояния между Ял>(*) и Fmo(i(x) используется максимальное отклонение, можно обратить процедуру проверки гипотезы согласия и использовать Dn для установления доверительных границ для непрерывной функции распределения в целом [40]. Какова бы ни была истинная функция распределения Fmo<x(x)9 имеем: Р {Л") (х) -da< Fmod (x) < F(») (x) + da при всех х} = = 1-а, A1.10) где da—критическое значениеDn при уровне значимости а. Таким образом, доверительная область представляет собой полосу ±da вокруг выборочной функции распреде- распределения Я">(л:), и с вероятностью 1 — а истинная функ- функция Fmod (x) лежит целиком внутри этой полосы. 371
Используя этот результат, можно получить оценки объе- объема выборки, необходимые для аппроксимации функции рас- распределения с необходимой точностью. При а< 0,2 и л > 80 Положим, например, а=0,05. Тогда получаем, что при вы- выборке объема п с вероятностью 0,95 эмпирическая функция распределения отстоит повсюду от истинной не более чем на A=0,61/V/i. При п= 100 это дает Д=0э061. 11.1.4. Критерий со2 (Крамера — Мизеса — Смирнова), Статистикой критерия является среднеквадратичная мера расстояния между эмпирической и гипотетической функ- функциями распределения: W\ = пт\ = п J (F. (х) - Я») (л))* dFQ (х). A1.12) При применении критерия используется следующее пред- представление статистики: В случае справедливости гипотезы Яо функция распреде- распределения статистики ako,2z сходится при п->оо к предельному распределению а^х). Таблица .этого распределения имеется в [16]. 11.1.5. Модификация статистик критериев Колмогорова — Смирнова и со2 для выборок небольшого объема. Распреде- Распределения статистик D%, Dn, Dn и W% с ростом объема выбэрки п быстро приближаются к предельным. Если же объем вы- выборки мал, расхождение между предельным распределе- распределением и распределением для конечного п может быть сущест- существенным, что требует использования точных распределений и соответствующих таблиц. Однако имеется возможность путем несложного преобразования исходных статистик получить новые статистики Dn , Dn, Dny W2, распределения которых значительно лучше согласуются с предельным и при небольших значениях п [136]. Эти модификации приведены в табл. 11 1 372
Т а б л и ц а 11.1 Исходная статистика VnDi VnDn VnDn Модифицированная статистика Верхний хвост распределения DJ=DZ(V-n + 0A2+0,U/Vn) б„ = 1)л(Уй+0,12 + 0, И/У") ^ = ОРД-0.4/Я + 0,6/„.)A.0 + 1,0/„, Нижний хвост распределения Dn=Dn(Yn + 0,275—0,04Уя) Ц7Д = (И7Д—0,03/л)A,0 + 0,5/л) При применении соответствующих критериев на основе модифицированных статистик D? , ДГ, ^Dn> W% теперь мож- можно пользоваться только предельным распределением для VnDn у VnDn, VnDn и Wfi соответственно. 11.1.6. Статистическая техника практической реализации непараметрических критериев согласия. Методика исполь- использования рассмотренных непараметрических критериев для проверки гипотезы согласия в основном одна и та же. Пусть дальше Кп и Р(х) обозначают соответственно значение ста- статистики критерия и функцию ее распределения (точную или предельную). Для проверки гипотезы согласия следует поступать таким образом: 1) упорядочить элементы выборки в порядке возраста- возрастания; 2) вычислить значение статистики используемого крите- критерия Кп (или соответствующей модифицированной статисти- статистики); 3) вычислить вероятность а=1—Р(/Сд) или сравнить величину Кп с процентными точками соответствующего распределения. Если вероятность а=1—Р(Кп) мала (Кп велико), то это означает, что осуществилось маловероятное событие и предположение о согласии ряда наблюдений (хг, ..., хп) с предполагаемым законом F0(x) отвергается, а расхожде- 373
ние между F^n>(x) и F0(x) нельзя объяснить случайностью эксперимента. Иногда гипотезу Но отвергают и при слишком малых значениях Кп и» следовательно, при значениях а=1—Р(Кп)> близких к Iх. Пример 11.1. Рассмотрим применение критериев Dn и со„ к задаче проверки качества датчика чисел, равномер- равномерно распределенных на интервале @,36). Пусть от датчика получены числа: 23 18 1 16 2 3 20 4 7. Результаты вычислений представлены в табл. 11.2. i 1 2 3 4 5 6 7 8 9 10 0 1 2 3 4 7 16 18 20 23» ~ n 0 0,0278 0,0556 0,1833 0,1111 0,1944 0,4444 0,5 0,5556 0,6389 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 1,0 Ta( i n i 0,1 0,1722 0,2444 0,2167 0,3889 0,4056 0,2556 0,3000 0,3444 0,3611 5лица 11.2 2/ — 1 —0,05 —0,1222 —0,1944 —0,1667 —0,3389 —0,3556 —0,2056 —0,2500 —0,2944 —0,3111 Используя формулы A1.7) и A1.13), получаем в резуль- результате вычислений D10=0,4056; VnD10=^ 1,2826; Dlo= 1,3454; W\ o=O,62O9; W\0=0,5335. Соответственно, пользуясь таб- таблицами предельных функций распределения для j/n Dn и W2 из [16], получаем для модифицированных статистик Diu и WU: Р{Ъ„ > 1,3454) ^ 0,05; P(W2l0> 0,5335) ^ 0,048. Таким образом, отвергать гипотезу о равномерности распре- распределения чисел, генерируемых датчиком, нет основания. К этому же результату можно прийти, сравнивая полу- полученные значения Dlo и W\0 с процентными точками соот- соответствующих точных распределений. Так, для d=0,05 кри- критическое значение do^o5=O>4O92 и, следовательно, ?>10< <Л<10) «0,05- 1 См. вторую сноску в п. 11.1.1. 374
11.1.7. Использование критериев согласия Колмогорова и со2 в случае неизвестных параметров для проверки гипотезы о нормальном характере распределения. Когда гипотети- гипотетическая функция распределения известна с точностью до па- параметров и они оцениваются по выборке, предельные рас- распределения статистик Dn, D?, D^, оэ? уже не будут свобод- свободными от распределения. В этом состоит их недостаток по сравнению с критерием %2 (см. п. 11.1.1). Однако когда оценке подлежат параметры сдвига и масштаба, то распре- распределение будет зависеть только от формы распределения F (х), но не от его параметров [40]. Независимость предельных распределений от параметров сдвига и масштаба дает воз- возможность построить, например на основе указанных ста- статистик, критерии проверки нормального характера распре- распределения. Проверка нормального характера распределения на ос- основе со 2-критерия. Пусть требуется проверить гипотезу принадлежности неизвестной функции распределения к классу нормальных распределений. Можно выделить три ситуации. 1. Среднее т неизвестно, дисперсия а известна. Значе- Значение т оценивается средним 2. Дисперсия неизвестна, среднее известно. Значение а2 оценивается статистикой i=\ 3. Неизвестны среднее и дисперсия. Значения т и а2 оцениваются соответственно Для каждой из указанных трех ситуаций в работе [52] вычислены таблицы предельных распределений для ста- статистики W2. В табл. 11.3 приведены критические значения статис- статистики типа со2 для уровня значимости а в пределах от 0,5 375
1—a 0,50 0,60 0,70 0,80 0,85 0,90 0,95 0,99 0,995 0,999 0,9999 m 0,0627 0,0729 0,0857 0,1036 0,1164 0,1344 0,1653 0,2380 0,2698 0,3443 0,4527 T а б л и ц а Неизвестные параметры а2 0,1017 ¦ 0,1272 0,1635 0,2200 0,2631 0,3270 0,4418 0,7245 0,8506 1,1490 1,5860 \\А [106] т н о2 0,0509 0,0585 0,0680 0,0811 0,0904 0,1035 0,1260 0,1788 0,2018 0,2559 0,3344 до 0,0001. Аппроксимация верхнего хвоста соответствую- соответствующих распределений рассматривается в п. 12.2.7. Проверка нормального характера распределения на осно- основе статистики Колмогорова. Распределение статистики n 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 25 30 »>30 0,10 0,352 0,317 0,294 0,276 0,261 0,249 0,239 0,230 0,223 0,214 0,207 0,201 0,195 0,189 0,184 0,179 0,174 0,165 0,144 0,805 Уп Та б л 0,05 0,381 0,337 0,319 0,300 0,285 0,271 0,258 0,249 0,242 0,234 0,227 0,220 0,213 0,206 0,200 0,195 0,190 0,180 0,161 0,886 Уп и ц а 11.4 [106] 0,01 0,417 0,405 0,364 0,348 0,331 0,311 0,294 0,284 0,275 0,268 0,261 0,257 0,250 0,245 0,239 0,235 0,231 0,203 0,187 1,031 Уп 376
Колмогорова в случае, когда неизвестны дисперсия и сред- среднее, изучалось и табулировано в работе [124]. Критические значения статистики Dn для уровня значимости а=0,1, 0,05, 0,01 приведены в табл. 11.4 (неизвестны оба параметра т и а2). 11.2. Проверка гипотез однородности и симметрии распределения Пусть имеется k ^ 2 независимых выборок, содержащих соответственно пъ ..., nh независимых наблюдений: Гипотеза однородности состоит в том, что генеральные совокупности, из которых извлечены выборки, одинаковы и, значит, им соответствуют одинаковые функции распреде- распределения Hi:F1(x) = F2(x) = ...=Fk(x)=,F(x), A1.14) где Ft(x) —функция распределения j'-й генеральной сово- совокупности. Наиболее частый в приложениях случай, когда &=2. Проверка гипотезы симметрии рассматривается в на- настоящем параграфе как проверка симметрии распределения относительно заданной точки \i: Ht:F(x-v.)=l-Ffa-x). A1.15) Если распределение имеет плотность, то гипотеза Но соот- соответствует гипотезе симметричности плотности (относительно точки |х). 11.2.1. Критерии однородности, основанные на эмпири- эмпирических функциях распределения. Рассмотрим случай двух одномерных выборок (&=2). Пусть Хц), ..., Х(П1) и уA)у ..., У(п2) — вариационные ряды, составленные из элементов первой и второй выборок соответственно. Мы можем теперь определить две эмпирические функции распределения 377
<л«> (х) и F[n*) (x). Аналогично п. 11.1.4 вводятся следующие гатистики: статистики: D- at = sup (F^» (*) - F<"'> (x)); A1.16) />„,, Я1 = max (D- „,, D+, J = sup | F<"'> (*) - F«-> (x) |. В случае истинности нулевой гипотезы распределение статистик Dnt, «2 и ?>^1>П2 одинаково, поэтому дальше рас- рассматривается лишь статистика ?)?, „я. Без ограничения общности можно считать также, что п2^ пг. Предположим теперь, что предельные функции Fi(x) и F2(x) непрерывны и верна гипотеза Но. Пусть n2-^°o, a no=l/ ^Z12 . Тогда случайные величины ущБ^, м2, Vn0Dttl,tt2 умеют те же самые предельные распределения S(A,) и /С(А,), что и их аналоги A1.6). Распределения статистик A1.16) при ко- конечных пх ип2для случая щ=п2=п получены Б. В. Гнеден- ко и В. С. Королюком в [112] (для рациональных значений Я*/) A1.18) Таблицы точных распределений для статистик D?ltti2i Dnu n2 для общего случая приведены в [16]. На практике для сокращения объема вычислений вели- величины Dnlt n2, Dntt П2 можно находить по формулам: A1.19) 378
Отметим весьма важное свойство критериев однород- однородности, основанных на статистиках A1.17), A1.19),—они состоятельны против любой альтернативной гипотезы вида x), A1.20) т. е. при любой альтернативе вида A1.20) вероятность отвергнуть #0 (в данном случае A1.15) при k=2) стремится к 1 при nlf п.2->оо, в чем бы ни заключалось различие меж- между Fx(x) и F2(x) и как бы мало оно ни было. Для статистики ~Vn0Dnu п^ критической является об- область больших значений1, т. е. гипотеза однородности от- отвергается, если где da(nlf n2) — критическая точка распределения статис- статистики ~)/n0Dnitnt при уровне значимости а. Большие значения являются критическими и для ста- статистики D^, n2(Dnlt n2)' Однако статистика DZlf „2 (равно как и Dnlt „2) может принимать и отрицательные значения. Это означает, что одна из эмпирических функций распределе- распределения больше другой на всем интервале наблюдений, что при достаточно больших значениях пги п2 вряд ли совместимо с нулевой гипотезой о равенстве предельных функций рас- распределения. Так, в случае пг=п2, используя A1.17), имеем где через Dfni) обозначена величина Dtxtnx. При пх ^ 20 эта вероятность меньше 0,05. Поэтому, если ях и /г2>20, область отрицательных значений соответствующих статистик следует также считать критической для принятия нулевой гипотезы. Замечание. Распределения статистик критериев Dnlt n2, Dnit П2 получены в предположении, что соответствую- соответствующие предельные функции распределения F^x) и F2(x) неп- непрерывны. В то же время на практике мы часто имеем дело либо с дискретными случайными величинами, либо с сгруп- сгруппированными данными. Формулы A1.19) для статистик Dnt,n2t Dnit П2 могут использоваться без всякого измене- изменения и в этом случае, однако уровень значимости нулевой ги- гипотезы будет меньше заданного [23]. Это значит, что вероят- 1 По поводу малых значений критических статистик см. вторую сноску в п. 11.1.1. 379
ность для статистики критерия превзойти 100 а %-ную точ- точку, вычисленную в предположении непрерывности, будет меньше а и, следовательно, вероятность отвергнуть ну- нулевую гипотезу по сгруппированным данным при том же объеме выборки меньше, чем по несгруппированным. Когда число выборок fc>2 и объемы выборок равны {пх — =n2=...=ttfc), может быть использовано следующее обоб- обобщение статистик: D[*\ = max sup | F[n) (x) - F{п) (х) \ 1 i.Jx l ! A1.21) Для случая &=3 в [106] имеются таблицы распределения статистики A1.21). Пример 11.2. В табл. 11.5 приведены (условные) данные о заработной плате лгх= 100 и п2=Ю0—служащих двух отраслей народного хозяйства. Проверим с помощью статистик A1.16) гипотезу о том, что распределение зара- заработной платы служащих первой отрасли (Fi(x)) совпадает с распределением заработной платы служащих второй от- отрасли (F2(x)). Таблица 11.5 Месячная заработная плата, руб. 130—150 150—170 170—200 200—250 250—300 300—350 350—400 400—500 Количество служащих первой отрасли 4 4 15 51 22 3 1 второй отрасли 1 1 8 43 34 7 3 3 В табл. 11.5 представлены сгруппированные данные. Применение критериев на основе статистик A1.16), A1.19) носит приближенный характер. Взяв значения эмпириче- эмпирических функций распределения в правых концах интервалов, получаем следующие данные для расчета критических ста- статистик (табл. 11.6). Отсюда = - °>03; Aloo) = = 0,21. 380
Таблица 11.6 i 1 2 3 4 5 6 7 8 150 170 200 250 300 350 400 500 0,04 0,08 0,23 0,74 0,96 0,99 1,00 1,00 0,01 0,02 0,10 0,53 0,87 0,94 0,97 1,00 0,03 0,06 0,13 0,21 0,09 0,05 0,03 0 Используя распределение Гнеденко — Королюка A1.17), имеем т. е. при условии равенства распределений Fx (х) и F2 (х) (истинности гипотезы Яо) вероятность отрицательных зна- значений статистики ?)[loo> при п=100 будет меньше 0,01 и, следовательно, гипотезу равенства следует отвергнуть при размере критерия 0,01. Обратимся теперь к статистике Vn0D{n): я, = 5^-= -5. = 50. у^Л<1..>=У50.0,21 = 1,4849. Используя теперь предельное распределение статистики Колмогорова /С(Х), получим Р (/^D(loo)> 1,4849) = 1 -К A,4849) & 1 - 0,975 = 0,025. Таким образом, гипотеза о равенстве функций распре- распределения также отвергается при размере критерия 0,025. Этот же результат можно получить и путем сравнения ве- величины Vn0D(n) с процентными точками точного распре- распределения. Размеры критериев Dfn) и Vn0D(n) в данном при- примере не совпадают и согласно критерию Da гипотеза Яо менее вероятна, чем по критерию Vn0D(n). 11.2.2. Критерий однородности %2. Если данные сгруппи- сгруппированы, а это довольно часто имеет место на практике, для проверки однородности можно использовать критерий ти- типа х2. 381
Пусть имеется k > 2 выборок объемом «?(i = l, k), и данные каждой выборки сгруппированы в г групп (интер- (интервалов). Количество элементов /-й выборки, попавших в /-ю группу, будем обозначать через vu. Статистикой кри- критерия является величина [48]: A1.22) В частном случае k=2 статистику A1.22) можно записать в виде A1.23) где \ih Vj(/=1, r) — соответственно количество элементов первой и второй выборок, лопавших в i-ю группу. В слу- случае нулевой гипотезы величина %2 A1.22), A1.23) имеет распределение %2 с (г—1) (k—1) степенями свободы. Пример 11.3. Применим критерий %2 для данных примера 11.2. Величины, необходимые для вычисления зна- значения критической статистики, приведены в двух послед- последних столбцах табл. 11.7. Таблица 11.7 Интервал зара- заработной платы, руб. 130—150 150-170 170—200 200—250 250—300 300—350 350—400 400—500 Частоты *1 4 4 15 51 22 3 1 vi 1 1 8 43 34 7 3 3 5 5 23 94 56 10 4 3 3 3 7 8 —12 —4 —2 —3 Определим значение статистики критерия: Хг = п1п2 Y У"Г"^ = Y. <ы-чГ = 14,582. 382
Пользуясь таблицами процентных точек распределения %2 с г—1=7 степенями свободы, имеем Хо.об^)^ 14,067. Сле- Следовательно, гипотезу о равенстве можно отвергнуть при размере критерия %2?гЮ,05. Пример 11.4. В табл. 11.8 приведено распределение доходов по Шведской переписи 1930 г. ([48, табл. 30.6.2]). Таблица 11.8 Доходы, тыс. крон 0—1 1-2 2-3 3 4 4—6 6 Всего Все рабочие и служащие в промышленности возрастные группы 40—50 7 831 26 740 35 572 20 009 11 527 6919 nl = 108 598 50—60 7 558 20 685 24 186 12 280 6 776 4 222 я2 = 75 707 Х2 = 840,62 E степеней свободы) Заводские мастера возрастные группы 40—50 71 430 1072 1 609 1 178 158 /ii = 4 518 50-60 54 324 894 1 202 903 112 «2 = 3 489 Х2 = 4,27 E степеней свободы) Если сравнить распределение доходов у возрастных групп 40—50 лет и 50—60 лет всех промышленных рабо- рабочих, то х2=840,62 с 5 степенями свободы, что обнаруживает очень высокую степень различия между распределениями. Однако для более однородной группы заводских мастеров сравнение распределений доходов у двух возрастных групп дает %2=4,27 A—jFX2E) D,27)^0,51), так что последние две выборки можно считать однородными. 11.2.3. Ранговые критерии однородности. Ранговые крите- критерии однородности основаны на использовании номеров на- наблюдений в вариационном ряду, полученном после упоря- k дочивания объединенной выборки объема n=][ini. Номер, который получает наблюдение xt в упорядоченной выборке, называется его рангом и обозначается дальше через Rin. 383
Будем рассматривать так называемые линейные ранго- ранговые критерии, статистики котор ых имеют вид: nj К =2 *(*!.„). (П.24) 1=1 где суммирование распространяется по элементам только первой (/=1) или только второй выборки (/=2). Дальше для определенности будем считать, что суммирование проводит- проводится по наблюдениям из первой выборки. Значения функции от ранга ф (/?#, п) называют метками. С ростом объемов вы- выборок распределение статистик этих критериев быстро схо- сходится к нормальному. Предлагаемые ниже критерии состоятельны при про- проверке гипотезы неоднородности, когда неоднородность по- порождается различием в параметре положения ( например, средних значений, медиан) распределений. Для случая двух выборок альтернативные гипотезы можно записать в виде: Ни : Fx (х) = F2 (х — ц.), jx =^= 0 — распределения сдвинуты отно- относительно друг друга; Hl2' ^(^^(^-l1)' ц> 0 —второе распре- распределение сдвину- сдвинуто влево по от- .. ~- ношению к пер- \n-ZiJ) вому; Нхг: Fx (х) = F2 (х — ц.), [а < 0 — второе распре- распределение сдвину- | то вправэ по ^ отношению к первому, а нулевую гипотезу (равенства распределений) как Но : ja=O. Кроме того, эти же критерии можно использовать и против альтернатив вида Hn:Ft(x)>Ft(x), (П-26) т. е. распределение второй выборки «стохастически меньше» для #2i» чем первой, и «стохастически больше» для Я22. 384
Критерий Вилкоксона — Манна — Уитни. Статистика этого критерия имеет вид: S=%Rt,n- (П.27) Метками в этом случае являются ранги наблюдений. Иног- Иногда статистика S называется статистикой суммы рангов. Часто пользуются эквивалентной статистикой l/ = S--i-M«.+ l). A1.28) Если нулевая гипотеза верна, то имеем i ±-nin2; A1.29) ^ A1.30) Если nlf м2->оо, так что 0<Пт п1//г2—^<оо, распределе- распределение U сходится к нормальному со средним и дисперсией, определяемыми из соотношений A1.29), A1.30) соответ- соответственно. Сходимость к нормальному приближению очень быстрая, и оно уже эффективно, если и пи п2 превышают 8 [401. Еще более точной является аппроксимация вида1 р (s < о а, ф (х)+т (х) (*» - а*) "'*+"*'+">">+п; + "г , 20л,п, (я, + и2 + 1) A1.31) где Ф(х) и ф(я) :— функция и плотность стандартного нор- нормального распределения (см. п. 12.1.2) х = (t - ЕS + 0,5)/|/rDS. Критерий нормальных меток (Фишера — Йэтса — Тер- Терри — ГефдингаJ. Статистика критерия записывается в виде С = 7Tr 1 F i х Е., Hodges J. L. Significance probabilites of the Wilcoxon test. — AMS, 1955, vol. 26, 301—312. 2 T e г г у М. Е. Some rank order tests which are most power- powerful against specific alternatives. — AMS, 1952, vol. 23, 346—366. 13 Зак. 1035 385
где Е(г п) — математическое ожидание r-й порядковой ста- статистики (см. п. 12.1.11) в выборке длины п=п1+п2из стан- стандартного нормального распределения. Если верна нулевая гипотеза, то ЕГ = 0; A1.33) При п1у п2->ос предельное распределение случайной вели- величины сходится к нормальному; при п=50 величина /j n \1/3 (~ 2fE (г> я)р) ^0,97, а в дальнейшем она стремится к 1, так что при больших пИС^пг1(п-п^). Иногда используется критерий Ван дер Вардена [22] со статистикой где г|>( ) — обратная функция стандартного нормального распределения (см. п. 12.1.2). Этот критерий асимптоти- асимптотически эквивалентен критерию С. Если верна нулевая гипо- гипотеза, то Для применения критериев S, С и V выполняется сле- следующая последовательность вычислений. 1. Выборки объединяются и объединенная выборка упо- упорядочивается в порядке возрастания значений наблюдений. 2. По рангам первой (или второй) выборки вычисляется величина статистики критерия К (это может быть значение S, С, V) и затем вычисляется величина АК = (К—E/()/~l/D/(. 3. Значение величины А% сравнивается с квантилями стандартного нормального распределения (либо вычисля- вычисляется значение функции стандартного нормального распре- распределения Ф(АК)). В зависимости от альтернативной гипо- гипотезы область критических значений отвержения нулевой гипотезы при уровне значимости а определяется следующи- следующими неравенствами (в предположении, что вычисление ста- 386
тистики критерия проводилось по элементам первой выбор- выборки): а 1 _ для альтернативы Н1Х\ и^ь Для альтернатив Н12 и Н21\ иа для альтернатив Н13 и Н22. Если величины объемов выборок малы, то для получе- получения более точного результата можно использовать таблицы критических значений соответствующих статистик 1. Из рассматриваемых ранговых критериев против аль- альтернатив сдвига при достаточно больших значениях п на- наибольшей мощностью обладает критерий нормальных ме- меток, а наименьшей — критерий Вилкоксона (в случае не- небольших объемов выборок критерий Вилкоксона может ока- оказаться для некоторых типов модельных распределений бо- более мощным, чем критерий нормальных меток). В частнос- частности, для нормальных распределений критерий нормальных меток имеет такую же мощность, как и /-критерий, рассмат- рассматриваемый в п. 11.2.7. Подробный сравнительный анализ свойств рассматриваемых критериев приведен в работе [40]. 11.2.4. Непараметрическая проверка гипотезы равенства дисперсий 2. Нулевая гипотеза здесь такая же, что и преж- прежде: Ио: Fl(x)^F2(x) = F(x). Однако теперь альтернативной является гипотеза о разли- различии дисперсий распределений Нх: Fl(x) = F2(xfz) или о1/ва = х (*>0). При этом можно выделить двустороннюю гипотезу: Ип: т ф. 1 — дисперсии распределений различны, и односторонние гипотезы: 1 Для критериев Вилкоксона и Ван дер Вардена такие таблицы есть в [16]; таблица критических значений для критерия нормальных меток при tii + п2 =С 20 приведена в работе: Klotz J. On the normal scores two — sample rank test. JASA, vol. 59, 1964, 652—664. 2 Более строго нужно было бы говорить о различии параметров масштаба. Мы, однако, предполагаем, что распределения Fi(x) и F2(x) имеют дисперсию и тогда гипотеза равенства параметров мас- масштаба эквивалентна гипотезе равенства дисперсий. 13* . 387
Hl2: x > 1 — дисперсия первого распределения больше дисперсии второго; #13: * < 1 — дисперсия первого распределения меньше дисперсии второго. Нулевая гипотеза может быть записана в виде Яв: х = 1 — дисперсий распределений равны. Для применения ранговых критериев масштаба требу- требуется, чтобы оба распределения были одинакового типа, имели одинаковое значение параметра положения и плот- плотности распределений их были непрерывными. Приведенный ниже критерий для проверки равенства дисперсий принадлежит к классу линейных ранговых кри- критериев вида A1.24). Критерий Клотца *. Статистикой критерия служит ве- величина Таким образом, метками для этого критерия являются воз- возведенные в квадрат метки критерия Ван дер Вардена. Для математического ожидания и дисперсии статистики крите- критерия имеем: t Г=1 Статистика Vx распределена асимптотически нормально со средним El/j и дисперсией DVV Для малых значений пх и я2 (я1+л2^ 20) имеется таблица критических точек точ- точного распределения статистики Vx в случае нулевой гипо- гипотезы. При больших пг и п2 можно использовать асимптоти- асимптотическое распределение. Методика применения критерия для случая двусторонней и односторонних альтернатив такая 1 К 1 о t z J. Nonparametric tests for scale. — AMS, 1962, vol. 33, p. 498—512. В этой же работе имеется таблица критических значений для rti+/i2^ 20. 388
же, как и методика применения для аналогичных альтерна- альтернатив ранговых критериев сдвига. Кроме критерия Клотца для проверки равенства дис- дисперсий известны и другие линейные ранговые критерии [23], например критерий Муда, являющийся аналогом критерия Вилкоксона со статистикой Однако критерий Клотца в целом обладает большей мощ- мощностью, чем критерий Sv Условие равенства параметров сдвига (условие fj. = O) существенно для применения критерия Клотца (как и дру- других ранговых критериев масштаба), иначе уровень значи- значимости статистики критерия может быть сильно искажен. Поэтому, если имеются основания полагать параметры по- положения неравными, следует предварительно оценить их для каждой выборки, например, выборочными медианами или другими устойчивыми оценками параметра положения (см. гл. 10), вычесть полученные значения из элементов со- соответствующей выборки и лишь затем применить крите- критерий V1. Когда распределения Fx(x) и F2{x) нормальны, критерий Клотца имеет практически ту же мощность, что и наилучший для этого случая F-критерий (см. п. 11.2.8). 11.2.5. Ранговые критерии для случая k > 2 классов. Рас- Распространение ранговых критериев для проверки однород- однородности в случае /О2 выборок возможно следующим обра- образом. Вся объединенная выборка объема n1Jrn2+"-Jrnk=n упорядочивается, и наблюдениям присваиваются ранги, со- соответствующие их положению в этой выборке. Для каж- каждого из k распределений вычисляется величина где суммирование распространяется на все наблюдения, принадлежащие /-му распределению. Каждая из величин Kt имеет асимптотически нормальное распределение. Пол- ная сумма S0=2^i известна, т. е. между ними существует 389
одна линейная связь, поэтому случайная величина »_ в случае истинности нулевой гипотезы имеет %2-распреде- ление с k—1 степенью свободы. В частности, используя в качестве Kt сумму рангов, как в тексте Вилкоксона, при- приходим к критерию Крускала — Уоллиса [23] со статисти- статистикой где St — сумма рангов для наблюдений из i'-й выборки в объединенной выборке. 11.2.6. Критерии проверки симметрии распределений. Зада- Задача проверки симметрии распределений возникает при ана- анализе остатков регрессионных моделей, в дисперсионном ана- анализе и устойчивом оценивании. Рассмотрим критерии для проверки гипотезы симметрии относительно фиксирован- фиксированной точки [л. Будем предполагать, что распределение имеет, непрерывную плотность/(л:). Тогда гипотезу симметрии мож- можно записать в виде f(x-v.) A1.37) и в терминах функции распределения Яо: F(x)=l-F(x-\i). A1.38) Гипотеза A1.37) утверждает, что плотность распреде- распределения f(x) симметрична и центром симметрии является точ- точка [I. Непараметрические критерии для проверки гипотезы симметрии основаны на использовании абсолютных ран- рангов (относительно точки \i). Пусть хъ ..., хп — выборка из распределения, для ко- которого проверяется гипотеза A1.37), A1.38). Введем теперь преобразованные наблюдения z^i^.-M A1.39) и образуем из них вариационный ряд г^, ...,Z(n). Ранг ве- величины гг в этом ряду называется абсолютным рангом xt (относительно точки |л) и будет обозначаться через RttH. 390
Такое преобразование сводит задачу проверки гипотезы симметрии к задаче проверки гипотезы однородности двух распределений, образованных соответственно левым и пра- правым (относительно \х) «хвостами» исходного распределения. Пусть /+ есть множество индексов тех наблюдений xit для которых xt—\i>0, т. е. если /? /+, то xt—[i>0. Рас- Рассмотренные ниже критерии являются аналогами ранговых критериев однородности, введенных в п. 11.2.3. Одновыборочный критерий Вилкоксона г использует ста- статистику S+= 2 Rtn. (П.40) Для математического ожидания и дисперсии S+ имеем ([23]) в случае истинности нулевой гипотезы: |ES+ = — /г(л+ 1); \ (И41 Критерий Фрэзера — Клотца 2 (критерий нормальных меток) основан на статистике С+= ^ E+Wtn. n), A1.42) где Е+ (k, л)=Е( |V |(ft)) — математическое ожидание k-Pi порядковой статистики в вариационном ряду длины л, который образован абсолютными значениями случайных величин Vx, ..., Vn, имеющих стандартное нормальное рас- распределение. Имеем ([23]) в случае нулевой гипотезы: r, n)\\ 1 Введен в работе: W i 1 с о с s о n F. Individual comparisons by ranking methods. — Biometrics Ball. 1945, 1, 80—83. 2 Введен в работе: F г a s e г D. A. S. Most powerful rank- type tests. —Ann. Math. Stat. 1957, vol. 28, 1040—1043. Таблицы меток и критических значений для п ^ 10 см. в работе: К 1 о t z J. Small sample power and efficiency for the one sample Wilcocson and normal scores tests. — Ann. Math. Stat. 1963, 34, 624—632. 391
Аналог критерия Ван дер Вардена асимптотически по- подобен критерию Фрэзера — Клотиа. Статистика этого кри- критерия имеет вид [23] = у -ф ( J- + ± U \ 2 ^ 2 2 п+\ с математическим ожиданием и дисперсией 1.44) A1.45) где г|)( ) — обратная функция стандартного нормального распределения. Все введенные ранговые критерии имеют асимптоти- асимптотически нормальное распределение с параметрами, задавае- задаваемыми формулами A1.41), A1.43), A1.45) соответственно. Применение этих критериев сводится к последовательности следующих шагов. 1. Из членов исходной выборки хъ ..., хп образуется новая выборка гх = \xt—\х \ (i=l, n). 2. Величины гх упорядочиваются в порядке возраста- возрастания 3. Определяются ранги в ряду Zq), ..., Z(n), соответствую- соответствующие нормам исходных наблюдений, для которых разность xt—[х^ 0 (или хг—fx<0). 4. Вычисляется статистика критерия К+ согласно фор- формулам A1.40), A1.42) или A1.44). 5. Вычисляется величина Л+ = (/С+—Е/С+) 6. Гипотеза симметрии отвергается, если величина |Л+ | слишком велика, точнее, если выполняется одно из нера- неравенств Л+>^!_а/2 или Л+<иа/2, где а — заданный уро- уровень значимости нулевой гипотезы. Таким образом, для 392
коитерйев симметрии A1.40), A1.42), A1.44) критическа> область является двусторонней. Часто гипотетический центр симметрии неизвестен и в качестве точки fx для проверки гипотезы A1.37), A1.38) используют ту или иную оценку параметра положения, например среднее арифметическое, медиану или какую-ли- какую-либо устойчивую оценку параметра положения (см. гл. 10). В этой ситуации применение непараметрических критериев, рассмотренных выше, будет носить уже приближенный характер. 11.2.7. Обработка совпадений. При применении ранговых критериев предполагается, что наблюдаемые случайные величины имеют непрерывные распределения. Однако на практике мы всегда имеем дело с дискретным рядом воз- возможных значений случайной величины либо в силу ее при- природы (дискретная величина), либо вследствие округления или группирования наблюдаемых значений. Это приводит к тому, что в ряду наблюдений имеются группы наблюдений с совпадающими значениями. Рассмотрим некоторые мето- методы, помогающие применять ранговые критерии и в случае наличия совпадений. Если все совпавшие наблюдения в группе принадлежат одной выборке, то никакой проблемы нет — в качестве рангов можно взять номера из этой группы совпадений в произвольном порядке. В случае же попадания в группу сов- совпадений элементов из обеих выборок наиболее употреби- употребительны следующие подходы [23]. Метод случайного ранга — совпавшим наблюдениям случайным образом (равновероятно) присваиваются номера (ранги), принадлежащие группе. В этом случае вся теория о распределении статистики критерия при нулевой гипоте- гипотезе сохраняется, можно пользоваться обычными таблицами и предельными распределениями. Однако мощность крите- критерия будет меньше, чем при применении метода средней мет- метки. Метод средней метки состоит в том, что всем наблюде- наблюдениям из первой (второй) выборки, попавшим в группу сов- совпадений, присваивается среднее значение метки для наблю- наблюдений из этой группы. В этом случае предельное распреде- распределение статистики критерия остается нормальным. Матема- Математическое ожидание статистики будет прежним, а дисперсия уменьшается. Соответственно для статистик критериев Вил- коксона, нормальных меток и Ван дер Вардена имеем сле- 393
дующие формулы для вычисления диспепсий с учетом сов- совпадений: DS = DS\ 1 - i=i 1=1 g n(n-l) ^ где g— число групп, на которое разбиваются наблюдения; т; (/==lt g) — число совпавших наблюдений в /-й группе Qjtj=n); Ej и г|)у — средние метки по у-й группе соответ- соответственно для критерия нормальных меток и Ван дер Варде- на. Полученные значения дисперсий и нужно использовать при применении соответствующих ранговых критериев. С учетом A1.46) статистика критерия Крускала — Уолли- са A1.36) в случае совпадений модифицируется следующим образом: Для критериев симметрии рассмотрим только случай, когда порождающее распределение непрерывно в точке ги- гипотетического центра симметрии |х, т. е. вероятность полу- получить наблюдение с значением \х равна 0. Тогда имеем сле- следующие формулы для дисперсий: 394
где Е/ — среднее значение меток Е \х |(г) для наблюдений, попавших в у-ю группу. Аналогично определяются вели- величины гр/" для критерия Ван дер Вардена. 11.2.8. Критерии однородности нормальных совокупностей (одномерный случай). Строго говоря, описанные ниже кри- критерии (критерий Стьюдента, или ^-критерий; критерий дис- дисперсионного отклонения, критерий Бартлетта и др.) при- применимы только к выборкам (9.3), извлеченным из нормаль- нормальной генеральной совокупности: в этом случае, как легко понять, неотрицательный результат одновременной про- проверки однородности средних значений (т. е. гипотезы (9.3 б)) и дисперсий (т. е. гипотезы (9.3 в)) достаточен для неотрица- неотрицательного вывода по поводу гипотезы об однородности самих законов распределения (т. е. гипотезы (9.3а)). Специаль- Специальные исследования показали, однако, что /-критерий явля- является (особенно при больших объемах выборок п) весьма ус- устойчивым по отношению к отклонениям исследуемых гене- генеральных совокупностей от нормальных. А это значит, что он может применяться и к выборкам из негауссовских гене- генеральных совокупностей с той лишь оговоркой, что истинные значения уровня значимости и мощности критерия в этом случае будут незначительно отличаться от заданных. В случае двух выборок (k=2) критерий их принадлеж- принадлежности к общей генеральной совокупности основан на кри- критической статистике Т{пх + п2 - 2) =*»(" ~1/ + где #i(tti) и х2(п2) — средние арифметические наблюдений соответственно первой и второй выборок, a s2—«свод- s2—«сводная» оценка дисперсии по совокупности двух выборок, т. е. s2 = 1- \(пх — 1M? {пх)-\-{пг — \)~s\(n2)\\ A1.49) п Ki-xAn))*, /=1.2. A1.50) Как известно (см. п. 6.2.2), в условиях справедливости гипотезы однородности (9.3а) статистика и,пг+п2—2) под- подчинена распределению Стьюдента с n1J\-n2—2 степенями свободы. Поэтому, чтобы проверить гипотезу однородности, 395
надо из таблиц процентных точек ^-распределения (см., например, [16], табл. 3.2) по заданному уровню значимости критерия а найти 100-— %-ную точку ta{nx+n2—2) распре- деления Стьюдента с п1+п2—2 степенями свободы. Если окажется, что И(Л1+я.-2) | <t±(nt + n2-2)t A1.51) 2 то гипотеза об однородности выборок {хп, х12, ..., х1П1} и {*21, х22, ...,^2/г,} принимается (иотвергается в противном случае). Замечание 1. «Слишком большое» значение t(n1+ +п2—2), т. е. такое, при котором нарушается неравенство A1.51), может быть следствием как значимого расхождения средних (т. е. невыполнения гипотезы (9.36)), так и значи- значимого расхождения дисперсий (т. е. невыполнения гипотезы (9.3в)). Если мы хотим понять, за счет чего обнаружилась неод- неоднородность рассматриваемых выборок, то необходимо до- дополнительно произвести проверку однородности дисперсий, т. е. гипотезы (9.3в) с k=2 (иногда статистическая проверка однородности дисперсий является единственной, автоном- автономной, целью исследования). Статистический критерий од- однородности двух выборочных дисперсий основан на крити- критической статистике ?(я,-1, я,-1)= пг которая, как известно (см. п. 6.2.3), в условиях справедли- справедливости гипотезы (9.3а) подчинена закону F(nx—1, п2—1)- распределения с числами степеней свободы числителя и зна- знаменателя, равными соответственно пх—1 и п2—1. Поэтому если окажется, что « (» a)^,)«(i.^). l~2 T (H.52) то гипотеза об однородности дисперсий не отвергается (и отклоняется в противном случае). В неравенствах A1.52) 396
Fq(mly m2) обозначает 100^ %-ную точку /^распределения с числами степеней свободы числителя и знаменателя соответственно тх и т2 (находится из таблиц, см., напри- например, табл. 3.5в [16]), а а — заданный уровень значимости критерия. И наконец, возможна такая ситуация, когда дисперсии а? и а* оказались различными (т. е. оказалось нарушенным хотя бы одно из неравенств A1.52)), а^нас все-таки продол- продолжает интересовать вопрос об однородности средних значе- значений, т. е. проверка гипотезы (9.36). В этом случае удается построить приближенный критерий, основанный на кри- критической статистике I/ J_ Sf(/1,)+ J_SJ (Я,) в которой sf(tij) определены по формуле A1.50), а "~~~ 1 . 1 - —— S? (A2i) -4- ~"~=~ So (^2) «1 П8 Зависимость критической статистики t от вспомогатель- вспомогательного параметра с учтена при вычислении таблиц процент- процентных точек 7a(tti, n2, с) распределения этой случайной вели- 2 чины. Эти процентные точки можно найти, например, в [16, табл. 4.4] (в этих таблицах ta {пъ пъ с) обозначена как V(c, Vb v2, Q), где vk=nk — 1, a Q= |). Итак, если оказалось, что (nv nv с), то делается вывод об однородности проверяемых средних. Замечание 2. Во всех случаях, когда различие средних проверяется лишь в одном каком-то направлении (например, проверяется, «можно ли считать, что среднее значение первой выборки статистически значимо превыша- превышает среднее значение второй выборки?»), в качестве уровня процентной точки надо брать не a/2, a a. В случае нескольких выборок (т. е. при fc>2, см. (9.3)) критерий их принадлежности к общей генеральной совокуп- 397
ности Pk)(k основан — 1, пх • на -и критической 12-\- ••• + #*- статистике k— I 2j П!(хк{пк s*ln) A (я)) » 1.53) где /=1 * (И.54) т. e. x(n) — общее среднее арифметическое, подсчитанное по объединению всех k выборок, а выборочные дисперсии sj{tij) подсчитаны по формуле A1.50). Можно показать, что если справедлива гипотеза (9.3а), то статистика A1.53) подчиняется закону /^-распределения (см. п. 6.2.3) с числами степеней свободы числителя и зна- знаменателя соответственно k—1 и П!+п2+...+^й—к. Поэтому если окажется, что F{k)(k- I, ni+n2 + ...+nk-k)<Fa(k- 1, /г, + ... ... + /**-*), A1.55) то гипотеза об однородности выборок (9.3) принимается. Замечание 3. Как и в случае двух выборок, «слиш- «слишком большое» значение критической статистики A1.53), т. е. такое, при котором нарушается неравенство A1.55), может быть следствием как значимого расхождения средних (т. е. невыполнения гипотезы (9.36.)), так и значимого расхожде- расхождения дисперсий (т. е. невыполнения гипотезы (9.3в.)). Поэ- Поэтому представляет интерес статистическая проверка одно- однородности ряда (более чем двух) выборочных дисперсий. Эту проверку можно производить, например, с помощью критерия Бартлетта [40, п. 24.9], основанного на крити- критической статистике 398
в которой s2(n) и Si(tii) определяются формулами соответ- соответственно A1.54) и A1.50), а ?Н! + 3(Л—1) •(S^"~T~ «t + ...+ztfc-л ) ' A1.57) М. С. Бартлетт показал \ что при min (л1э я2» ..., nk)>3 и в условиях справедливости гипотезы о равенстве диспер- дисперсий (см. 9.3в) статистика К распределена приблизительно как %2-случайная величина с k—1 степенью свободы. Поэ- Поэтому если оказалось, что А,<%?(?—1), то гипотеза об одно- однородности выборочных дисперсий принимается, и отверга- отвергается в противном случае. 11.2.9. Критерии однородности многомерных нормальных совокупностей. В многомерном случае гипотеза однород- однородности формулируется аналогично одномерному случаю A1.14): Яо: Fl(X) = F9(X) = ...=Fh(X)=F(X)9 A1.58) только аргумент X есть уже /?-мерная величина. Выбор методов для проверки гипотезы A1.58) значи- значительно более ограничен, чем в одномерном случае. По су- существу, имеются лишь параметрические критерии, которые основаны на предположении, что каждое из распределений Ft(X)(i=lt ft) является многомерным нормальным распре- распределением. Как и в одномерном случае, некоторые из этих критериев, например Л, Т2, устойчивы к отклонению рас- распределений от нормального и, следовательно, могут при- применяться и к выборкам из негауссовских распределений. Как известно (см. § 6.1), многомерное нормальное рас- распределение полностью характеризуется вектором средних значений Mt и матрицей ковариаций Sf (* = 1, k). Соответ- Соответственно статистики критериев, рассматриваемых далее, яв- являются функционалами от выборочных оценок этих пара- параметров Mh 2,-(i=l, k). В случае двух выборок (k=2) критической статистикой критерия для проверки гипотезы однородности является 1 Bartlett M. S. Properties of sufficiency of statistical tests. — Proc. Roy. Soc, 1937, A-160, p. 268—282^ 399
величина [12] Г = "'*2 (М, - M2)f S"' (М, - М2). A1.59) /г, + п2 При этом априори предполагается, что выборки извлечены из совокупностей с одинаковой ковариационной матрицей, т. е. ЪХ=Ъ2 и /^ +/22 — 2 В случае истинности нулевой гипотезы величина 2~~Р^ Т2 подчинена F-распределению ери пх-\-п2—р—\ степенями свободы. В случае нескольких выборок (т. е. при &>>2) критерий их принадлежности к общей генеральной совокупности (в предположении равенства ковариационных матриц) осно- основан на Л-статистике Уилкса [71]: det (С) ' где S^ .. 2 (ni—l)Sf — оценка матрицы ковариаций общей генеральной совокупности, tt=2^ — матрица ковариаций, оцененная по выборке, получен- ной объединением всех k выборок, а М — вектор средних значений такой объединенной выборки. В терминах дисперсионного анализа матрица S называ- называется матрицей внутригруппового разброса, матрица W= = -2п^(УИ^ — М)(Мг—М)' — матрицей межгруппового раз- разброса, а матрица C = S+W — полной матрицей разброса. Можно показать, что когда k=2, величина Л равна: ~~ (I +2/V 400
т. е. Л является монотонной функцией статистики Т2, и, значит, в случае &—2 использование обоих критериев Л и Т2 приведет к одинаковым результатам. Значение Л заключено в пределах 0^ >.^ 1, и если верна нулевая гипотеза, то значение Л должно быть близ- близким к 1. Существенно меньшее, чем 1, значение Л указы- указывает на неоднородность, т. е. нулевая гипотеза должна от- отвергаться. Однако точное распределение Л очень сложно и на практике пользуются статистиками, которые являются некоторыми функциями от Л. Это, во-первых, статистика, предложенная Бартлеттом [71]: (±ttl\ A1.61) Распределение В(А) в случае нулевой гипотезы аппрокси- аппроксимируется ^-распределением с р степенями свободы. Другой статистикой, использование которой при малых объемах выборок предпочтительнее, будет статистика, пред- предложенная Рао [71]: () ( Л1'"A pk распределение которой в случае нулевой гипотезы аппрок- аппроксимируется F-распределением с kp и (ппд+1—pk/2) сте- степенями свободы. Величины п и пд не обязательно целые и вычисляются по формулам TJ. если ,' + *¦> 5; 1 , если /?2 + ?2=5. Для обеих статистик В(А) и U(A) критической является область больших значений. Как и в одномерном случае, «слишком большие» значения критериев A1.59), A1.61), A1.62) могут возникнуть из-за нарушения условия равен- равенства ковариационных матриц, хотя при этом средние зна- значения отличаются незначимо. Для проверки гипотезы 401
Используется статистика [12] к %), A1.63) / — 1 11 —k) \Г=1 / В случае справедливости Нх она асимптотически имеет %2- распределение с ^ (k—1)/?(/?+3) степенями свободы. Мето- Методология применения критерия A1.63) такая же, как кри- критерия равенства дисперсий A1.56) в одномерном случае. В одномерном случае статистика A1.63) совпадает со ста- статистикой A1.56). 11.3. Проверка независимости и стационарности ряда наблюдений Перед тем как подвер1 путь результаты наблюдений соот- соответствующей статистической обработке, необходимо убе- убедиться в том, что они действительно образуют случайную выборку, являются стохастически независимыми (альтер- (альтернативами здесь могут быть пристрастный выбор, зависимость результатов наблюдения от порядкового номера наблюде- наблюдения, например по мере роста порядкового номера наблюде- наблюдения среднее исследуемого распределения испытывает ка- какие-либо смещения монотонного или циклического харак- характера, и т. д.). 11.3.1. Критерий серий, основанный на медиане выборки. Пусть имеется выборка хг, х2, ...,#пиз некоторой генераль- генеральной совокупности. Расположим элементы выборки в поряд- порядке возрастания в вариационный ряд агA), х<2), ..., х(п). В качестве выборочного значения медианы xmed (n)> как известно (см. гл. 8), берется средний (по расположению) элемент вариационного ряда, т. е. \ = х(п+л* если п нечетн°; 1 402 ((я/2) +*(я/2 + 1)). Л П
Затем возвращаемся к исходной выборке хи х2, ..., хп и будем вместо каждого xt ставить плюс, если х{>хт^ (я)> и минус, если х* <*med (л) (члены выборки, равные хты (п) в полученной таким образом последовательности плюсов и минусов, опускаются). Полученная нами последователь- последовательность плюсов и минусов характеризуется общим числом се- серий v(n) и протяженностью самой длинной серии т(п). Под «серией» понимается последовательность подряд идущих плюсов или подряд идущих минусов (в частном случае се- серия может состоять только из одного плюса или только из одного минуса и тогда ее протяженность равна единице). Очевидно, что если наблюдения стохастически независимы (выборка случайна}* то чередование плюсов и минусов в по- последовательности должно быть более или менее «случайным», т. е. эта последовательность не должна содержать слишком длинных серий подряд идущих плюсов или подряд идущих минусов, и соответственно общее число серий v(n) не долж- должно быть слишком малым. Так что в данном критерии целе- целесообразно рассматривать одновременно пару критических статистик {v(n); т(я)}. Для построения точного статистического критерия неза- независимости, основанного на двумерной статистике {v(n)\ т(л)}, нужно было бы предварительно вывести и затабули- ровать двумерный закон распределения этой статистики. Мы ограничимся здесь изложением приближенного критерия. Для его построения мы воспользуемся: (—-—. Г" )-нор- мальным приближением одномерного (частного) распре- распределения случайной величины v(n); пауссоновским (см. п. 6.1.3) (с параметром А,=пто/2+1) распределением числа серий с длиной, большей или равной т0 (см. [6, с. 297—298]); и, наконец, оценками сверху и снизу для вероятности где vO95(n) — 95 %-ная точка частного распределения v(n), а хо,оъ(п) —5 %-ная точка частного распределения т(л). В конечном счете приходим к следующему правилу. Ес- Если хотя бы одно из неравенств A1.64) 403
окажется нарушенным, то гипотеза о стохастической неза- независимости исходных результатов наблюдения отвергается с вероятностью ошибки, заключенной между 0,05 и 0,0975 (т. е. 0,05<а<0,0975). Пример 11.5. Имеются результаты испытаний на долговечность 58 образцов, отобранных из текущей продук- продукции: 38, 33, 29, 16, ^4,_2J_, _1б, J7, Ю, 1, _22, _28, 22, 14, 7, 13,^17157^Т^Г15Г]9Г32,4,Т4,ТЗ, 2278, 30, 11, 15, 24, 26, 14, И, 25, 17, 10, 19^ 5, 6, 16, 7, 10, 1, 5, 2, 8, 14, 14, 15, 16, 13, И, 9, 11, 19, 21. (Подчеркнуты те выборочные данные, на месте которых в соответствующей последова- последовательности знаков стояли бы плюсы). Ряд факторов, от которых существенно зависит качество образцов (сырье, квалификация персонала, сменность и т. п.), подвержен неизбежным колебаниям, характер кото- которых может быть как случайным, так и систематическим. Нас будет интересовать, было ли это должным образом уч- учтено ири назначении способа отбора образцов, т. е. произ- производился ли отбор так, чтобы результаты наблюдений были бы стохастически независимыми, образовывали бы случай- случайную выборку? Так, характер изменения выборочных дан- данных во времени (порядок отбора образцов из текущей про- продукции во времени определяется в нашем примере движе- движением по строкам слева направо) наводит на мысль, что име- имела место некоторая систематическая тенденция к снижению долговечности. Ответить на вопрос, являются ли наши сом- сомнения достаточно обоснованными, нам поможет только что описанный критерий серий. Необходимые подсчеты дают: хт^ (п)=15,5; т(п)^=9; v(n)=25. Так что из двух неравенств A1.64) лишь одно (первое) оказалось выполненным. Поэтому приходится признать, что случайное перемешивание образцов в генеральной со- совокупности перед их извлечением оттуда не было вполне удовлетворительным, и соответственно результаты наблю- наблюдений, представленные выше, не являются стохастически независимыми. 11.3.2. Критерий «восходящих» и «нисходящих» серий. Этот критерий «улавливает» постепенное смещение (по ходу выборочного обследования ) среднего значения в исследуе- исследуемом распределении не только монотонного, но и более об- щего, например периодического, характера. 404
Так же, как и в предыдущем критерии, исследуется последовательность знаков — плюсов и минусов, однако правило образования этой последовательности в данном критерии иное. Исходным пунктом, как обычно, является последовательность результатов наблюдения — выборка хи х2, ..., хп\ на i-u месте этой последовательности ставится плюс, если xt+i—Xj>0, и минус, если хг+1— Л';<СО (если два или несколько следующих друг за другом наблюдений равны между собой, то принимается во внимание только од- одно из них). Очевидно, последовательность подряд идущих плюсов будет соответствовать тогда возрастанию резуль- результатов наблюдения (восходящая серия), а последователь- последовательность минусов — их убыванию (нисходящая серия). Кри- Критерий основан на том же соображении, что и предыдущий: если выборка случайна (наблюдения независимы), то в об- образованной нами последовательности знаков общее число серий не может быть слишком малым, а их протяжен- протяженность (в количестве подряд идущих плюсов или мину- минусов) — слишком большой. В частности, при уровне значимости 0,050<а<0,0975 количественное выражение этого правила имеет вид: х (Я) < ,. (Л). где под v(n) и т(п)у как и прежде, понимается соответственно общее число серий и количество подряд идущих плюсов или минусов в самой длинной серии, а величина то(п) в за- зависимости от п определяется следующим образом: п п<26 26 О < 153 153 О< 1170 Если хотя бы одно из неравенств A1.65) окажется нарушен- нарушенным, то гипотезу о случайности выборки следует отверг- отвергнуть. 11.3.3. Критерий квадратов последовательных разностей (критерий Аббе). Если выборка хь хъ ..., хп извлекается из нормальной генеральной совокупности, то для выясне- выяснения вопроса о ее случайном характере (при альтернативном предположении о возможном систематическом смещении среднего в ходе выборочного обследования) целесообразнее 405
воспользоваться критерием квадратов последовательных разностей г Для проверки стохастической независимости результа- результатов наблюдения с помощью данного критерия подсчиты- подсчитывают величину П—\ где q2(п) = 2(п~\) 5 1=1 Если окажется, что то гипотеза о стохастической независимости результатов наблюдения отвергается. При этом величина у™ш (п) для подсчитывается по формуле где иа—а-квантиль нормированного нормального распре- распределения. Величины yIJ11" (n) при п^ 60 для трех наиболее употре- употребительных значений уровня значимости а даны в табл. 4.9 [16]. 1 В этом случае данный критерий оказывается более мощным (см. п. 9.4), чем предыдущий. Это означает, в частности, что если мы воспользуемся обоими этими критериями приданном объеме выбор- выборки п и заданном уровне значимости а (т. е. при заданной вероят- вероятности ошибочного отвержения гипотезы независимости), то вероят- вероятность ошибиться в другую сторону (т. е. принять гипотезу незави- независимости, в то время как на самом деле она является ошибочной) окажется меньшей в случае критерия квадратов последовательных разностей. 406
Пример 11.6. На цементном заводе в процессе про- производства ежедневно в течение 45 дней брались пробы и определялось среднее сопротивление сжатию контрольных кубов (н/см2 или кг/см2). Результаты наблюдения: 40, 33, 75, 18, 62, 33, 38, 69, 65, 100, 124, 91, 79, 42, 63, 23, 47, 52, 98, 97, 73, 85, 88, 40, 42, 51, 23, 75, 52, 126, 90, 111, 92, 109, 72, 28, 56, 17, 52, 68, 75, 102, 107, 77, 45. 5 120 Й §700 -80 s 5? ?0 20 -i-*? 70 15 20 25 30 35 40 Номер быборки (дни) 45 Рис. 11.1. К примеру 11.6 Вычисления дают: i(jcf — ^J = 37336; s'2 = 848,5; 44 ^ xiJ = 42819"> Я2 (п) = 486,6; у (п) = 0,5735. 1=1 Зададимся уровнем значимости ос=0,05. Из табл. 4.9 [16] находим 71ОП§12Б D5)=0,7603. Это говорит о «непозволи- «непозволительной малости» величины у(п), т. е. о выполнении нера- неравенства A1.66). Следовательно, гипотезу о стохастической независимости результатов наблюдения приходится отверг- отвергнуть. Причина подобной «неслучайности» выборки кроется, по-видимому, в наличии некоторых систематических тен- тенденций в поведении среднего исследуемой случайной ве- величины (во времени). Рис. 11.1 дает наглядное представление о циклическом характере этих тенденций в данном случае. 407
11.4. Методы статистической обработки при наличии «стертых» (пропущенных) наблюдений В настоящем разделе описываются методы обработки мат- матрицы данных вида X в случае, когда в ней отсутствует часть измерений (см. § 1.1). Мы будем полагать, что отсутствие значения какого-либо признака у некоторого объекта (столб- (столбца матрицы данных) связано с причинами технического характера, например с неисправностью измерительного прибора или грубой ошибкой при подготовке данных, в результате которой истинное значение признака стало не- неизвестным и т. д., но не с состоянием самого объекта. В за- зависимости от решаемой проблемы исследователю может потребоваться либо оценить некоторые параметры при нали- наличии пропущенных значений, либо оценить сами пропущен- пропущенные значения, либо то и другое вместе. Две последние за- задачи требуют больше исходных допущений, чем задача оценки параметров. Методы их решения основаны на ис- использовании некоторой избыточной информации, которая возникает вследствие связи между признаками. Введем для дальнейшего следующие определения и обозначения. Комплектным объектом (столбцом) назовем объект, у которого измерены значения всех признаков. Аналогично комплектным признаком (комплектной стро- строкой) назовем признак, который измерен у всех объектов. Множество объектов с измеренным признаком х1' будем обозначать через /Сг-, а число таких объектов — через пг\ Для множества объектов, у которых измерены признаки х1' и *', используется обозначение Кц и для числа таких объектов — n(j. Простой подход к обработке пропущенных данных со- состоит в выделении максимально возможного фрагмента ис- исходной матрицы данных, в котором все строки и столбцы будут комплектными. Когда выборка содержит достаточное число комплектных объектов и задача заполнения пропусков не является целью обработки, этот подход следует признать наиболее целесообразным. Однако в условиях выборок ма- малых и средних объемов и высокой стоимости измерений ес- естественно попытаться использовать всю имеющуюся ин- информацию. 11.4.1. Оценивание неизвестных параметров при наличии пропущенных данных. Один из самых старых и простых способов обработки данных с пропусками состоит в замене 408
пропущенных значений признака х{ его средним арифмети- арифметическим значением, которое оценивается по имеющимся ре- реализациям. Далее заполненная матрица данных обычным образом используется, например, для оценивания элемен- элементов ковариационной матрицы (см. 10.21). Получаемая при этом оценка ковариационной матрицы будет, очевидно, смещенной, в частности, диагональные элементы (диспер- (дисперсии) будут смещены в сторону уменьшения. Смещение дис- дисперсий легко устраняется оцениванием их только по изме- измеренным значениям соответствующих признаков. С другой стороны, смещение недиагональных элементов нельзя учесть без дополнительных предположений о распределении про- пропусков в матрице данных. Приведем один результат в этом направлении, получен- полученный В. П. Булыгиным 132]. Предположим, что возникновение пропуска значения признака х? есть случайное событие, статистически неза- независимое от измерения других признаков у данного объекта и от измерения х? на других объектах. Пусть s^- есть оцен- оценка элемента ковариационной матрицы, полученная после подстановки средних значений. Тогда несмещенная оценка Su для элемента сгг-7- будет: A1.67) {1, если / = /; О, если Однако независимость возникновения пропусков редко имеет место в практических ситуациях. Поэтому более на- надежным является оценивание вектора средних значений и матрицы ковариаций только по имеющимся измерениям. В качестве оценки среднего значения и дисперсии призна- признака х\ как и ранее, используются среднее арифметическое и средний квадрат отклонения, оцененные пр имеющимся измерениям этого признака, а недиагональные элементы ковариационной матрицы оцениваются по всем объектам, у которых измерена соответствующая пара признаков —L- Y. (х, - тд (*i - Щ). A1.69) tl ij — I Jggg 409
Очевидно, для получения оценки недиагонального эле- элемента stj необходимы по крайней мере два объекта с изме- измеренной парой значений признаков х1 и х]\ Оценка A1.69) несмещена и будет состоятельна, если все пи стремятся к бесконечности с ростом п. Важной величиной, характеризующей достоверность и точность оценок A1.68), A1.69), являются числа степеней свободы п*м и /is, соответствующих этим оценкам. Число tts можно интерпретировать как эффективный объем выборки, по которому оценена матрица ковариаций, т. е. можно сказать, что оценка A1.69) имеет такую же точность, как оценка матрицы ковариаций, полученная по выборке объема nl без пропущенных значений. Аналогичный смысл имеет величина п*м для вектора средних значений. В [99] предложено использовать следующие значения для пм и nl: «•=- т. е. величины, обратные среднему геометрическому числу объектов из Kt и Кц. Величины A1.70) следует подстав- подставлять, например, в критерии проверки гипотез согласия и однородности в многомерном случае (см. п. 11.2.7). Как оценка A1.67), так и оценка A1.69) для матрицы ко- ковариаций в отличие от стандартной оценки A0.21) могут не быть неотрицательно определенными при малых объемах выборок. В частности, они могут иметь отрицательные соб- собственные числа. Другие оценки матрицы ковариаций и вектора средних значений, получающиеся одновременно с заполнением про- пропусков, рассмотрены в п. 11.4.3. П.4.2. Использование главных компонент. Нижеследую- Нижеследующий подход применим как для оценки пропусков в матрице данных, так и для оценки значений главных компонент у некоторого объекта Xt с пропущенными значениями. Предположим, что каким-либо способом получены оцен- оценки векторов коэффициентов главных компонент Ul9 U2, ..., Uq например, как собственных векторов матриц A1.67) 410
или A1.69). Тогда из свойств главных компонент слеДУёТ, что М где At — случайная величина, характеризующая погреш- погрешность представления A1.71); г\ — значения главных ком- компонент, которые необходимо оценить. Во многих случаях несколько первых главных компо- компонент (q^ p) в разложении A1.71) обеспечивают малую ве- величину нормы погрешности Дг. Пусть теперь Nt есть множество из rt номеров измерен- измеренных признаков у объекта Xt. Тогда для оценивания глав- главных компонент, используя в левой части A1.71) только измеренные значения, имеем систему из rt линейных урав- уравнений относительно q неизвестных: ¦*' = 2 "//*': (i e #,-)• Эта система решается методом наименьших квадратов, что дает систему нормальных уравнений где V1' — матрица размера qXq с элементами vst = 2 uls X l?N Xult(s, t=l, q)\ Zj —оценка вектора q первых главных ком- компонент; Ct —¦- вектор размерности q с компонентами \ (k=T7g). Так как векторы иъ ..., UQ взаимно ортогональны, то мат- матрица V* заведомо невырождена, если /*;></, т. е. число из- измеренных признаков больше, чем число оцениваемых глав- главных компонент. В работе [115] показано, что если для оцен- оценки коэффициентов векторов главных компонент использу- используется матрица A1.69), то оценки Zt будут несмещенными. Подставляя теперь полученные оценки Zt в A1.71), можно получить и оценки пропусков в векторе Xt. 11.4.3. Заполнение «пропусков» и оценивание параметров с помощью метода максимального правдоподобия. Оценки «неподвижной точки». Разобьем матрицу X на две части 411
2 и Y с совместным распределением, зависящим от вектора параметров 9. В дальнейшем под 9 понимается вектор сред- средних значений и ковариационная матрица, Y представляет собой комплектные объекты и известные признаки в неком- некомплектных объектах, a Z — совокупность пропущенных зна- чений. Пусть теперь требуется найти оценку 9, которая мак- максимизирует логарифм функции правдоподобия (см. § 8:2) / (Y; 9) при фиксированном Y. Получить такую оценку пря- прямыми вычислениями трудно. С другой стороны, значительно проще найти значение, которое максимизирует логарифм функции правдоподобия /(Z, Y; 9) при произвольном за- заполнении пропусков. Если теперь рассматривать Z как слу- случайную величину с некоторым законом распределения (за- (зависящим от Y), то можно найти и значение 9, которое мак- максимизирует математическое ожидание /(Z, Y; 9). Рассмотрим один из способов осуществления этого под- подхода [95]. Пусть /(Z |Y; 9) — плотность условного распределения Z при заданных Y, 9, a /(Z |Y; 9) обозначает In /(Z |Y; 9). Тогда /(Z. Y; 6) = /(Y; 9) + /(Z | Y; 9). A1.72) Выберем теперь некоторое начальное значение для парамет- параметров 9Л, что полностью определяет плотность /(Z |Y; 9Л), и возьмем математическое ожидание от обеих частей A1.72), интегрируя их с плотностью /(Z |Y; 9л): + J/(Z| Y;9)/(Z| \;QA) dZ, или в других обозначениях: E(/(Z | Y;9) | Y;9^ = /(Y;9)-fE(/(Z| Y; 9) | Y; QA). Определим теперь значение 9^, которое максимизирует ле- левую часть этого выражения. Величина 9# зависит от 9л, так что можно написать Это уравнение представляет собой преобразование вектора 9Л в вектор 9д. 412
Оценкой «неподвижной точки» для G назовем такое зна- значение Э, что в = ф(в), A1.73) а уравнение A1.73) назовем уравнением неподвижной точки. Отметим следующие основные свойства оценок типа «не- «неподвижной точки», связывающие их с оценками максималь- максимального правдоподобия для /(Y; 6). 1. Пусть 9С =arg max /(Y |9), т. е. 9С есть оценка мак- е симального правдоподобия по измеренным наблюдениям. Тогда вс удовлетворяет уравнению A1.75): 0c=^(9c)» т. е. принадлежит множеству оценок «неподвижной точки». 2. Если 1B | Y; 6) есть дифференцируемая функция, то любая оценка типа «неподвижной точки» (т. е. любое реше- решение уравнения A1.73)) является либо точкой максимума, либо стационарной точкой функции правдоподобия /(Y; 9). Пусть теперь X — выборка из нормального закона рас- распределения. Пусть, как и в п. 11.4.2, Nt есть множество номеров признаков, измеренных для объекта Xh a Y — множество известных значений признаков и e = (Aff 2). ВА = (МА, 2л), QB=^(QA) = (MBt 2Д). Уравнениями «неподвижной точки» в этом случае будут [951: A1.74) { r, MA, 2Л); (П.75) [kA.N, •«{¦ A I Nh ^a, 1a] A1.76) Для определения оценок максимального правдоподобия (неподвижной точки) выбирается начальное значение Ма> 2л (например, оценки A1.68), A1.69)) и организуется цик- циклическая процедура до тех пор, пока между оценками на последовательных итерациях не будет значимых различий. 413
Если *{ наблюдено, то х\а = х[у а если значение х\ пропущено, то оно оценивается величиной W v иг> l i ' XiA= 2j bi xi + ai> где ЬУ ~ коэффициент уравнения линейной регрессии признака л*' на измеренные значения вектора Xt; а\ — свободный член этого уравнения. Поправочный член <T/m,/v. вычисляется следующим об- образом: О, ее пи у Х{ признаки х1 и xk измерены; °}kA,N.— ~ 2л Ь11]0ца> ^ ес.т У Xt не измерен признак если у Х1 не измерен признак xk; r °ir л» если У Xi не измерены оба признака х1 и xk. В качестве начальных значений могут быть взяты зна- значения М и 2, полученные на основе выражений A1.68), A1.69). Если в рассматриваемой схеме ограничиться одной итерацией, то полученный результат будет таким же, какой дает метод заполнения пропусков в матрице данных с по- помощью линейной регрессии [100]. 11.4.4. Непараметрический подход к оценке пропусков в матрице данных. Рассмотренный в предыдущем пункте «метод неподвижной точки» требует аналитического зада- задания вида закона распределения, из которого извлечена обрабатываемая матрица данных, что сужает область его применения. Существуют, однако, методы заполнения про- пропусков в матрице данных, которые не требуют знания зако- закона распределения, а основаны на использовании расстоя- расстояния между парами объектов (в некоторой метрике), опре- определяемого по значениям признаков, измеренных у обоих объектов. Считается, что если два объекта близки в про- пространстве измеренных признаков, то из этого следует и их близость по неизмеренным признакам [35]. Метрика и по- пороговое значение расстояния, определяющее близость объек- объектов, вводятся в зависимости от условий конкретной зада- 414
чи — шкал, в которых признаки измерены, количества про- пропусков и т. д. Одна из возможных конкретизации этого под- подхода в общих чертах такова. Пусть у объекта Хь требуется оценить значение пропущенного признака х(/'>, т. е. оце- оценить элемент х\!) в матрице данных X. Для этого из мат- матрицы X формируется подматрица Х(/) столбцов (объектов) с измеренными значениями признака х(у'\ из которой далее выделяется однородная группа объектов, наиболее близких кХг в пространстве измеренных у этого объекта признаков. Затем неизмеренное значение х,-у) заменяется средним по выделенной однородной группе объектов значением призна- ка хР. Такая схема реализована в алгоритме «ZET», подроб- подробное описание которого дано В [35]. Как следует из при- примеров, приведенных в [35], применение этого алгоритма дает хороший результат. Рассмотрим теперь вопрос оценки качества заполнения пропусков, который относится не только к алгоритму «ZET», но и к ранее рассмотренным методам. Ввести формализо- формализованную меру качества восстановления пропущенных эле- элементов довольно трудно. Однако существует приближен- приближенный способ оценки [35]. который состоит в том, что из мат- матрицы данных X случайным образом исключается часть из- измеренных значений и далее эти пропуски заполняются тем или иным способом. Мера отклонения (например, сумма квадратов отклонений) истинных значений от значений, полученных в результате заполнения, и является мерой качества применения данного алгоритма заполнения к обра- обрабатываемой матрице данных. 11.5. Анализ резко выделяющихся наблюдений 11.5.1. Постановка задачи. В этом параграфе рассматри- рассматриваются методы выделения наблюдений, которые сильно от- отклоняются от центра распределения. Иногда такие большие отклонения возникают в результате случайного просчета, неправильного чтения показаний измерительного прибора, случайного сдвига запятой в десятичной записи числа и т. д., т. е. в результате действительной ошибки. Иногда же они отражают более тонкие моменты, такие, как несоответствие в отдельных точках действительности используемой мате- математической модели, незамеченное исследователем измене- 415
ние условий эксперимента и т. п. В любом случае с мате- математической точки зрения речь идет о выделении наблюде- наблюдений, величина которых не согласуется с распределением основной массы данных. Идентификация выделяющихся наблюдений позволяет обычно еще раз проверить условия их регистрации и процессирования и тем самым подчас вы- выявить и устранить ошибку. Если же ошибку устранить не удается, то наблюдение обычно просто исключается из дальнейшей обработки как нетипичное. Рассматриваемая задача разделяется на два этапа: вы- выявление «подозрительных» наблюдений и проверка статис- статистической значимости их отличия от основной массы дан- данных. Естественно, что оба этапа основываются на определен^- ных предположениях о распределении как основной («не- («незасоренной») части наблюдений, так и «выбросов» («засоре- («засорений»). Обычно предполагается, что наблюдения незасорен- незасоренной части имеют одномерное или многомерное нормальное распределение с неизвестными параметрами. При анализе отклонений наблюдений от математической модели иногда дополнительно предполагается, что среднее распределения отклонений равно нулю, т. е. что модель в среднем не вно- вносит смещения. Относительно моделей для засорения един- единства предположений нет. Иногда предполагается, что вы- выбросы имеют такую же дисперсию, что основная часть вы- выборки, но заметно сдвинутое среднее. Иногда, что среднее не сильно отличается от среднего основной части, но зато дисперсия значительно больше. Для удобства дальнейших ссылок запишем эти предположения в более формальном виде. Пусть xl9 x2i ..., хп — результаты наблюдения, a il9 ¦••» *л,. /1, ...,/л, (tti+tt2=tt) — наборы индексов из множества 1, 2, ..., /2, соответствующие незасоренной и засоренной частям выборки. Предположение о незасоренной части вы- выборки: xt € ЛЧи, **). A1.77) где |bt, or — неизвестные параметры. Предположения о засоренной части случай сдвига среднего: х, 6 Nfa + d, а2) A1.78) и случай большой дисперсии: х, € 41G
В случае когда из априорных соображений можно счи- считать, что среднее основной части выборки равно нулю, A1.77) переходит в xt 6 N{0, о2), A1.80) а предположения относительно засоренной части — в Xj eN(d,a2); A1.81) O> Y>!- О1-82) Прежде чем приступить к описанию конкретных мето- методов выделения выбросов, отметим, что чисто статистиче- статистический подход к проблеме идентификации и удаления нестан- нестандартных наблюдений, развиваемый в этом параграфе, тре- требует определенной осторожности при интерпретации дан- данных. Предположение однородности, лежащее в основе ста- статистических процедур, в действительности может не иметь места, и выбросы могут оказаться наиболее важными на- наблюдениями, проливающими свет на то, как собирались данные. 11.5.2 Графические методы. Назовем й-нормальной (half-normal) вероятностную бумагу, которая получается из нормальной вероятностной бумаги следующим образом: от нормальной бумаги отрезается нижняя полуплоскость, соответствующая значениям ординат, меньшим 0,5, и чис- числовые значения ординат заменяются на t'=2(t—0,5). На А-нормальной бумаге функция распределения \х |, где х ? ? N@, а2), изображается в виде прямой линии, выходящей из начала координат с угловым коэффициентом /г=1/а, т.е. с тем же угловым коэффициентом, с каким на нормальной бумаге была бы изображена функция распределения х. Рассмотрим теперь случай, когда имеют место предпо- предположения A1.80) для основной части выборки и A1.81) или A1.82) —для засоренной. Если построить на Л-нормальной бумаге функцию распределения \xt |, то полученный гра- график должен в своей левой части хорошо аппроксимировать- аппроксимироваться прямой линией, выходящей из начала координат. Пра- Правый конец графика будет отклоняться от прямой вправо и точка его отрыва даст возможность оценить долю засоре- засорения. В общем случае, когда имеют место модели A1.80), A1.81), A1.82), сначала любым устойчивым методом оценивают параметр |л (см. § 10.4) и далее наносят на й-нормальную бумагу разности \хь—\i]. Свойства и интерпретация гра- 14 Зак. 1035 417
фика такие же, что и в рассмотренном только что частном случае. В многомерном случае, когда предполагается, что ос- основная часть выборки имеет приближенно нормальное рас- распределение N(X, М9 2), параметры этого закона оценива- оцениваются с помощью Я-моментов (см. § 10.4) при таком значе- значении Ху чтобы влияние засорения на оценку было небольшим и вместе с тем оценки имели хорошие выборочные свойства. Далее строится гистограмма распределения {X -М)±-1{Х-М). A1.83) При сделанных предположениях эта величина должна при- приближенно иметь ^-распределение с р степенями свободы. Заметное утяжеление правого конца гистограммы говорит о засорении выборки. Этот способ, хотя и носит приближен- приближенный характер, удобен на практике, так как при подсчете Я-моментов для каждого параметра одновременно оценива- оценивается по A1.83) и вес, с которым наблюдение входит в оцен- ки М и 2. 11.5.3. Аналитический метод исключения одного экст- экстремального наблюдения. Не нарушая общности, будем считать, что речь идет о максимальном наблюдении. Пусть %><:...<jt(W)—вариационный ряд выборки. Решающее пра- правило для исключения экстремального члена вариационного ряда основано на статистике Тп=(Х(П)—x)/s9 где х и s опре- определяются обычным образом. Распределение и процентные точки Тп изучались К. Пирсоном [130], Н. В. Смирно- Смирновым^], Ф. ГраббсомШЗ]. Таблица критических значений Тп, рассчитанная Граббсом, может быть найдена в [16]. Если Тп больше соответствующего критического значения, то гипотеза о наличии выброса принимается, если же Тп меньше критического значения, то со статистической точки зрения нет оснований говорить о наличии выброса. Отмеченная в § 10.4 неустойчивость оценок х и s к откло- отклонениям распределения хг от нормальности снижает прак- практическую ценность изложенного критерия. Опираясь на устойчивые оценки параметров сдвига и масштаба, можно сконструировать более устойчивые критерии типа Тп. Если в выборке подозревают несколько экстремальных значений, то критерий сначала применяется к максималь- максимальному из них. Если оно признается выбросом, то его удаляют из выборки, и критерий, применяется к следующему по ве- величине и т. д. до тех пор, пока не будет признано, что вы- 418
бросов больше нет. Одна из трудностей такого итерацион- итерационного подхода состоит в том, что подозрительные наблюдения часто группируются близко друг к другу, образуя группу в стороне от основной массы наблюдений, что делает итера- итерационную процедуру, основанную на использовании х и s, нечувствительной к ним. Так же, как и в п. 11.5.2, здесь можно рекомендовать заменить х и s на соответствующие Х- моменты (см. § 10.4 и [56], [57]). 11.5.4. Аналитический критерий одновременного исклю- исключения нескольких экстремальных наблюдений. Излагаемый ниже критерий принадлежит Г. Титьену и Г. Муру [138]. Нулевая гипотеза, как обычно, состоит в том, что выборка извлечена из нормальной совокупности. Решающее прави- правило для исключения k наибольших членов вариационного ряда основано на статистике n—k АЛ=— , (П.84) п ?=1 где_*& — среднее первых п—k членов вариационного ряда, ах — среднее всей совокупности. При наличии выбросов статистика Lh должна быть меньше критического предела, рассчитанного для нормального распределения. Таблицы критических значений для Lk можно найти в [76]. Если в выборке возможны выбросы и влево, и вправо, то для оценки их значимости изложенное выше правило должно быть модифицировано. Модификация близка к приему, описанному в п. 11.5.2, и состоит в следующем. Сначала по выборке х1 ,..., хп вычисляется х, затем абсо- абсолютные отклонения \xt—х |. Построим вариационный ряд из абсолютных отклонений и обозначим его элементы z@. Пусть Z(k) — средняя арифметическая из n—k первых чле- членов вариационного ряда, тогда модифицированный крите- критерий имеет вид: n-k 2 (*и)-Ч)* Е, = *=! -. A1.85) H* 419
Недостатком изложенного критерия является то, что он опирается на статистики, сильно зависящие от предполо- предположений нормальности, а также и то, что в практической ра- работе k никогда заранее не известно, а оценивается по тем же данным, к которым затем применяется статистика х и s. Последнее обстоятельство, как было показано Г. Титьеном и Г. Муром, существенно влияет на фактический критиче- критический уровень критерия, что лишний раз является аргумен- аргументом в пользу «наивных» графических методов. Выводы 1. Критерии для проверки статистических гипотез можно разделить на два основных класса — критерии, у которых распределение критических статистик (в условиях справед- справедливости нулевой гипотезы) зависит от распределений, по- порождающих выборки (так называемые параметрические критерии), и критерии, «свободные от распределения», т. е. критерии, у которых распределение критических ста- статистик в условиях справедливости нулевой гипотезы не зависит от порождающих распределений (непараметриче- (непараметрические критерии). Такое разделение критериев носит до не- некоторой степени условный характер. Так, для критерия согласия типа X2 распределение критической статистики в случае истинности нулевой гипотезы не зависит от модель- модельного распределения, хотя для его применения обычно тре- требуется оценка параметров модельного распределения. С дру- другой стороны, применение непараметрических критериев согласия Колмогорова и со2 в условиях оценки параметров модельного распределения зависит уже от формы модель- модельного распределения. 2. Для проверки гипотезы о нормальном характере модель- модельного распределения можно использовать традиционные кри- критерии, основанные на выборочных значениях коэффициен- коэффициентов асимметрии и эксцесса. Одна из трудностей в примене- применении этих критериев связана с медленной сходимостью рас- распределений критических статистик к предельным, в связи с чем требуется использование таблиц процентных точек точных распределений критических статистик, вычислен- вычисленных для фиксированных объемов выборок. Значительно более быстрой сходимостью к предельным распределениям обладают статистики критериев типа Колмогорова и со2 для проверки нормальности в условиях, когда параметры распределения оцениваются по выборке. 420
3. Критерий X2 применим для проверки гипотез согласия и однородности в условиях, когда данные группированы. Предельное распределение этого критерия, при истинности нулевой гипотезы, не зависит от распределений, порождаю- порождающих выборки, хотя при проверке гипотезы согласия могут потребоваться оценки параметров модельного распределе- распределения. Существенным моментом при применении этого кри- критерия является выбор количества интервалов группирова- группирования и распределение наблюдений по этим интервалам. 4. Когда модельное распределение известно полностью и является непрерывным (хакая ситуация имеет место, на- например, при проверке датчиков случайных чисел с задан- заданным законом распределения), для проверки гипотезы со- согласия наиболее целесообразно использовать критерии Колмогорова-Смирнова и Крамера-Мизеса. Распределения статистик этих критериев быстро сходятся к предельному, а сами предельные распределения вычисляются достаточно просто. Имеются модификации критических статистик, распределения которых еще быстрее приближаются к пре- предельным. При применении к группированным данным уро- уровень значимости этих критериев будет меньше номиналь- номинального. 5. Для проверки гипотез однородности двух выборок в одномерном случае могут быть использованы критерий Смирнова и линейные ранговые критерии. Критерий Смир- Смирнова состоятелен против любого типа нарушения нулевой гипотезы, но не указывает на его природу. Линейные ран- ранговые критерии позволяют получить более детальные вы- выводы о том, с чем связана неоднородность — с различием в параметре положения и (или) масштаба. Достоинством ли- линейных ранговых критериев является быстрая сходимость распределений их статистик к предельному (нормальному) распределению и их устойчивость к засорению данных гру- грубыми выбросами. Линейные ранговые критерии сравнитель- сравнительно просто обобщаются на случай более чем двух классов. Все эти критерии, строго говоря, применимы только в слу- случае непрерывности модельного распределения. Применение линейных ранговых критериев к группированным данным требует внесения определенных поправок, так называемой обработки совпадений. 6. Если известно, что выборки извлечены из нормальных совокупностей, для проверки гипотезы однородности могут быть использованы критерии, основанные на хорошо из- известных статистиках — ^-статистике Стьюдента и F-статис- 14В Зак. 1035 421
тике Фишера. Эти критерии обобщаются и на случай /С>2 классов. Критерий на основе /-статистики устойчив к отклонениям от нормальности и может быть использован и в более общей ситуации. 7. В многомерном случае для проверки гипотезы однород- однородности, по существу, имеются лишь критерии, основанные на предположении о том, что выборки извлечены из много- многомерных нормальных совокупностей. Критерий Г2, как и его аналог для одномерного случая /-критерий Стьюдента, ус- устойчив к отклонениям от нормальности и может быть ис- использован и в общей ситуации* 8. Для проверки гипотезы симметрии распределения могут быть использованы линейные ранговые критерии, аналоги линейных ранговых критериев для проверки гипотезы однородности. 9. Статистические процедуры выделения резко выделяю- выделяющихся наблюдений основаны на предположении однород- однородности данных. При этом выбросы рассматриваются как на- наблюдения, нетипично далеко удаляющиеся от центра рас- распределения. К настоящему времени предложено много аналитических процедур для идентификации выбросов и оценки значимости их отклонения. Основная трудность в использовании этих методов состоит в том, что реальная доля «засорения» не известна, а оценивается по тем же данным, по которым проверяется значимость отклонения. Наиболее устойчивы к отклонениям от предположения нор- нормальности основной части выборки графические процедуры. При использовании статистических методов выделения выбросов следует иметь в виду, что выбросы могут оказать- оказаться наиболее существенной частью выборки, проливающей свет на то, как собирались данные. Глава 12. ПРОГРАММНОЕ ОБЕСПЕЧЕНИЕ ПРИКЛАДНОЙ СТАТИСТИКИ И НЕКОТОРЫЕ ВОПРОСЫ ТЕХНИКИ ВЫЧИСЛЕНИЙ 12.1. Программное обеспечение прикладной статистики Программное обеспечение прикладной статистики (ПС) к настоящему времени хорошо развито и продолжает интен- интенсивно развиваться у нас в стране и за рубежом. Развитие программного обеспечения ПС происходит как по линии 422
разработки новых методов обработки данных, так и по пути совершенствования организации и структуры программного обеспечения. Удобной современной формой организации программного обеспечения, позволяющей эффективно про- проводить обработку данных, являются пакеты программ1. Перечислим основные характеристики, которые опреде- определяют качество пакета программ по ПС. Первая группа характеристик определяет доступность и удобство управления работой пакета для пользователя. Сюда относятся: \ Ч. Наличие подробной и хорошо оформленной докумен- документации на пакет. В первую очередь это «Руководство поль- пользователя», которое предназначено для ознакомления поль- пользователей с возможностями применения пакета и для обуче- обучения его использованию. Этот документ является одним из основных документов, необходимых для распростране- распространения пакета программ.^Единая Система Конструкторской Документации (ЕСКД) на программную продукцию такого документа не предусматривает — наиболее близким к «Ру- «Руководству пользователя» из предусмотренных в ЕСКД до- документов является, по-видимому, «Руководство програм- программиста». Примерами хорошо оформленных «Руководств пользователя» являются соответствующие документы па- пакетов BMDP [99], [100] и SPSS [135]. 2. Возможность формулировки задания пользователя и управления данными с помощью простого проблемно- ориентированного (на прикладную статистику) языка. ^ 3. Наличие системы подробной индикации и коммента- комментария ошибок, возникающих при формулировке задания и в процессе обработки. 4. Возможность диалогового режима работы с пакетом. Вторая группа характеристик связана с функциональ- функциональными качествами пакета. 5. Наличие легкодоступных средств манипуляции с данными (сортировка, редактирование, преобразования, слияние и разделение наборов данных и т. д.) до обработки их методами ПС. 6. Наличие достаточно широкого спектра процедур ПС для обработки данных. 7. Возможность организации последовательных много- многошаговых процедур обработки данных. 1 Тенденции в развитии программного обеспечения ПС не от- отличаются от направлений развития прикладного программного обеспечения в целом. 14В* 423
8. Возможность обработки данных большой размерно- сти. Третья группа характеристик важна при длительной работе с большими массивами данных. 9. Наличие средств ведения и документирования данных. 10. Возможность связи пакета с банками данных. 12.1.1. Организация пакетов программ. Можно выделить следующие уровни в организации пакетов программ. Первым уровнем организации пакета является пакет простой структуры, представляющий собой библиотеку модулей, под которыми здесь понимается процедура, под- подпрограмма или программа на языке программирования вы- высокого уровня (ФОРТРАН, ПЛ/1), удовлетворяющие не- некоторым дополнительным ограничениям, наличие которых обеспечивает концептуальное единство пакета. Наиболее важными ограничениями такого рода являются ограниче- ограничения на структуру размещения в памяти основных инфор- информационных единиц, необходимые для согласования вход- входных и выходных данных различных модулей. Например, требуется, чтобы матрица данных на входе всех модулей, ее использующих, представлялась в виде двумерного массива с расположением объектов по строкам (или по столбцам). Другие ограничения связаны со способами передачи ин- информации (например, допустимость или запрет перемен- переменных внешнего типа), с использованием операторов ввода- вывода, со способом аварийного завершения работы моду- модуля. Подпрограммы в этих пакетах имеют также согласован- согласованную документацию. Пакет простой структуры может использоваться как в виде библиотеки исходных модулей (на программном языке высокого уровня), так и в виде библиотеки загрузочных модулей, полученных в результате компиляции и редактирования соответствующих исходных модулей. Примером пакета простой структуры является Пакет научных подпрограмм (ПНП) на Фортране для ЕС ЭВМ [55], поставляемый обычно именно в виде загрузоч- загрузочных модулей. Описания интересующих нас разделов ПНП содержатся в [вып. 2], [вып. 10]. Разработан и аналог ПНП на ПЛ/1 (см. [вып. 14]). Прообразом для версии ПНП на Фортране явился пакет SSP фирмы IBM, а для версии ПНП на ПЛ/1 — версия SSP на ПЛ/1. В настоящее время состав процедур по ПС в ПНП существенно расширен по сравне- сравнению с исходными пакетами SSP, особенно в области об- обработки многомерных данных. Помимо чисто статистиче- 424
Ских программ, эти пакеты содержат еще подпрограммы из многих других разделов вычислительной математики — линейной алгебры, интерполяции и экстраполяции таблич- табличных функций и т. д. Использование пакета простой структуры требует от пользователя достаточно хорошей программистской под- подготовки и состоит в отборе подходящих модулей и в руч- ручном (т. е. осуществляемом самим пользователем) составле- составлении головной программы на языке программирования вы- высокого уровня, организующей вызов отобранных модулей в определенном порядке, размещение и ввод-вывод данных. Язык пользователя на этом уровне образует язык програм- программирования высокого уровня (Фортран, ПЛ/1), язык об- обращения к операционной системе и языковые средства, введенные самим пользователем для управления созданной программой. Существенно более высокий уровень организации пред- представляют собой пакеты, состоящие из набора программ, готовых к выполнению, управляемых единым для всех программ входным проблемно-ориентированным языком и имеющих унифицированный ввод-вывод данных. На этом уровне организации появляется возможность создания срав- сравнительно просто управляемых средств манипуляции с дан- данными, их ведения и документирования. Программы пакета составлены из модулей, которые, как правило, берутся из библиотеки модулей, организо- организованной, как описано выше (пакет простой структуры). Для уменьшения требуемых ресурсов основной памяти программы обычно имеют оверлейную структуру1. Внесение изменений для пользователя в такие програм- программы практически невозможно, за исключением предусмот- предусмотренных заранее случаев изменения допустимого объема памяти, отводимой под данные, и включения по определен- определенным правилам некоторых процедур пользователя на языке Фортран или ПЛ/1, например для преобразований призна- признаков. Тем не менее благодаря наличию гибкого входного язы- языка и возможности просто составлять многоэтапные про- процедуры обработки из последовательности программ пакета такие пакеты позволяют удовлетворить подавляющую часть потребностей пользователя по обработке данных. В то же 1 Организация оверлейной структуры позволяет загрузить об- обрабатывающие модули в оперативную память в момент начала ими обработки данных и размещать их на месте уже отработавших моду- модулей (см. [50]). 425
бремя сами эти пакеты влияют на ход статистического ис* следования, определяя составом допустимых процедур и требованиями на входные данные форму подготовки и, в значительной степени, сбора и накопления данных. Ра- Работа с таким пакетом доступна пользователю, не обладаю- обладающему подготовкой в области программирования, хотя обыч- обычно необходимо знание некоторого минимального объема языковых средств для общения с операционной системой. Одним из известных пакетов такого типа является BMDP, разработанный в США. Мы будем рассматривать далее две версии этого пакета — версию 1975 г. [99], адапти- адаптированную в СССР для ЕС ЭВМ, и версию 1979 г. [100], существенно расширенную по сравнению с версией 1975 г. Далее для обозначения соответствующих версий будем пи- писать BMDP 75 и BMDP 79. Другим пакетом такого рода является пакет Программ по прикладному статистическому анализу (ППСА) [67], разработанный в ЦЭМИ АН СССР. Пакет ППСА отличается от BMDP составом реализованных методов обработки, входным языком, организацией и документированием дан- данных, а также организацией программ. Если в BMDP каж- каждая программа реализует только один метод обработки, то ППСА использует тематически-ориентированные (ТО) программы [9]. Каждая из ТО-программ, по существу, яв- является пакетом программ для решения некоторого подмно- подмножества задач ПС (оценивания, регрессионного, дискрими- нантного анализов и т. д.). Подмножества модулей, исполь- используемые различными ТО-программами, частично пересека- пересекаются. Так, все программы эксплуатируют одни и те же мо- модули ввода и трансляции предложений входного языка, ввода данных, вывода данных в виде таблиц и графиков ч т. д. Организация связей между модулями в ТО-програм- ме позволяет создавать простую оверлейную структуру. Во многих случаях использование ТО-программ уменьшает затраты усилий пользователя по созданию многоэтапных процедур обработки, Дальнейшим развитием концепции ТО-программ (в от- отношении способа организации пакета программ, но не ис- исторически) являются пакеты программ, у которых последо- последовательность необходимых процедур обработки создается на основе анализа предложений входного языка пакета, описывающего задание пользователя. Способы реализации этого подхода могут быть самыми различными. Из зарубеж- зарубежных пакетов к этому типу относятся, например, пакеты 426
Р-ЗТАТ 1132], SPSS [135], а из пакетов, разработанных в нашей стране, — СОД-ГС [68], ОТЭКС [66]. Внешне, для пользователя, работа с пакетами такого типа организации мало отличается от работы с пакетами ти- типа BMDP или ППСА. Поэтому в дальнейшем эти способы организации пакетов мы различать не будем, именуя услов- условно пакеты из обеих групп просто пакеты программ и отли- отличая их от пакетов (библиотек) подпрограмм типа ПНП. Все упомянутые выше пакеты предназначены для ЕС ЭВМ или IBM-380/3701. Исключение представляет версия ПНП на Фортране, которая может быть использована (в виде исходных модулей) на ЭВМ БЭСМ-6 и «Минск-32». Из па- пакетов программ, предназначенных для БЭСМ-6, отметим пакет СОРРА-12, направленный для решения задач много- многомерной классификации и регрессии, и пакет DIAS [82]. 12.1.2. Вопросы организации-if возможности ведения дан- данных. Основным видом входных данных, обрабатываемых пакетами программ по ПС, является матрица данных типа «объект-признак». Для всех рассматриваемых пакетов про- программ предполагается, что матрица данных на внешних но- носителях информации упорядочена по объектам, так что по- порядок следования ее элементов таков: "- хпр)- A2Л) п Ввод данных может осуществляться с перфокарт (или их образов на МЛ и МД), либо из стандартных файлов (для дан- данного пакета) на МЛ или МД, представляющих информацию о матрице данных в виде двоичных кодов и имеющих после* довательную организацию по записям (запись понимается согласно определению, принятому в ОС ЕС), так что каж- каждая запись представляет собой один объект3. Анализируе- Анализируемые признаки в матрице данных могут быть измерены в разных шкалах — количественной, качественной (орди- (ординальной) или номинальной (см. гл. 10). Некоторые значе- значения могут быть вообще не определены. Однако для программ 1 Некоторые из упомянутых пакетов могут быть перенесены на мини ЭВМ типа СМ-4. 2 См.: Р а у д и с Ш. Ю. Алгоритмы классификации и регрес- регрессии системы СОРРА-1. — В кн.: Статистические проблемы управле- управления. Вильнюс, 1978, вып. 77. 3 Организация данных на МЛ и МД для пакетов программ, пред- предназначенных для ЭВМ БЭСМ-б, определяется требованиями соот- соответствующей операционной системы. 427
пакетов все элементы матрицы данных считаются представ- представленными в виде чисел. Для признаков, измеренных в шка- шкалах, отличных от количественной, эти числа представляют собой, следовательно, некоторые условные коды. Для пе- перекодировки исходной информации, заданной в символь- символьной форме, в пакете ППСА предусмотрена специальная программа перекодировки такой информации в числовую форму, заданную пользователем. Рассмотрим теперь, какие возможности ведения данных предоставляют пользователю средства, включенные в па- пакеты программ, для выполнения следующих функций: 1. Размещение выходных данных в виде стандартных файлов, например матриц данных после преобразования признаков, ковариационных матриц, матриц расстояний и т. д. 2. Документирование входных и выходных данных с помощью меток файлов или архивных файлов и т. п. 3. Редактирование, внесение дополнений и исправле- исправлений в стандартные файлы. Соответствующие данные по этим вопросам относительно рассматриваемых пакетов программ представлены в табл. 12.1 совместно с некоторыми другими характеристи- характеристиками организации данных. 12.1.3. Средства предварительной обработки (манипуляции) данных. Рассмотрим возможности проведения некоторых важных видов обработки данных, предшествующих соб- собственно статистической обработке: 1. Выделение подмножества признаков, заданного спис- списком имен или номеров. 2. Выделение подмножества объектов, заданного спис- списком имен или номеров. 3. Выделение подмножеств строк и столбцов других ви- видов матриц (ковариаций, расстояний), заданных списками имен или номеров, если они используются в качестве вход- входных объектов. 4. Выделение подмножества объектов, у которых зна- значения признаков находятся внутри (или вне) заданных границ. 5. Группирование объектов: а) в соответствии с попаданием значения заданного, признака, называемого обычно группирующим признаком, в тот или иной интервал; б) другие способы группировки. 428
\ Функция Пакет \^ BMDP 75 BMDP 79 SPSS ППСА СОД-ГС отэкс СОРРА-1 DIAS Ввод данных с перфокарт Да Да Да Да Да Да нет да Ввод дан- данных из стандарт- стандартных фай- файлов, раз- размещенных на МЛ и МД да да да Да нет Да да да Размеще- Размещение выход- выходных дан- данных на МЛ и МД в виде стан- стандартных файлов Да да да да нет Да нет Да Редакти- Редактирование и внесение дополне- дополнений в стандарт- стандартные файлы нет нет нет да нет да нет нет Т а б л Использо- Использование мат- матриц корре- корреляций как входных данных Да Да да Да да нет нет ица 12.1 Докумен- Документирование выходных данных да да да да нет да нет нет да 6. Функциональные преобразования признаков: а) с помощью преобразований, задаваемых средствами входного языка; б) с помощью включения процедуры пользователя во входной поток задания. 7. Нормировка элементов матрицы данных (стандарт* ными отклонениями, размахом и т. д.). Соответствующие данные о пакетах представлены в табл. 12.2. 12.1.4. Возможности обработки данных при наличии пропу- пропущенных значений. Рассмотрим возможности пакетов программ для обработки данных с пропусками. Соответст- Соответствующие методы, на которые мы будем ссылаться, в основ- основном описаны в § 11.4. Рассмотрим следующие способы и средства работы с пропущенными данными: 1. Кодирование пропусков с помощью специальных числовых «кодов пропущенных значений». 2. Удаление объектов с пропущенными значениями. 429
N. Вид обра- ^чботки (№) Пакет \.„ BMDP 75, 79 SPSS ППСА СОД—ГС отэкс 1 Да да да да да 2 да Да Да нет да 3 Да да да нет нет 4 Да Да да нет да 5 а да да Да нет нет б Да да Да нет Да Таблица 6 *\ да да да нет нет б Да Да да нет нет 12.2 7 да да да да нет ПНП СОРРА-1 DIAS да да да да | да нет 1 нет нет 1 нет да нет Да нет нет нет да да да да да нет — да — нет нет 3. Оценивание матрицы ковариаций и вектора средних: а) по формулам A1.69), т. е. с учетом всех измерен- измеренных значений пар признаков (для недиагональных элементов ковариационной матрицы) и всех измерен- измеренных значений признака для оценивания среднего и дисперсии; б) другие способы оценивания матрицы ковариаций без предварительного заполнения пропусков в мат- матрице данных. 4. Заполнение пропусков в матрице данных: а) с помощью главных компонент; б) с помощью линейной регрессии на измеренные пе- переменные; в) с помощью других алгоритмов (например, алгорит- алгоритма ZET); г) средними значениями» 5. Дополнительные возможности обработки пропусков. Пакеты СОД-ГС, СОРРА-1 вообще не имеют средств об- обработки пропущенных данных. С другой стороны, для па- пакета ОТЭКС заполнение пропусков на основе алгоритма ZET в матрице данных является одной из основных задач. 430
>s^ Вид обра- ^s^ ботки \. ПРОПУСКОВ Пакет ^^ BMDP 75 BMDP 79 SPSS ППСА ОТЭКС ПНП . DIAS 1 да да да Да да Да да 2 Да да да да да да да 3 а Да Да Да Да нет Да нет б Да да нет нет нет нет нет а нет нет нет да нет нет нет 4 б да Да да нет нет нет нет Таблица в нет нет нет нет Да нет нет г Да Да да да нет нет нет 12.3 5 нет да нет нет да нет нет Данные по наличию средств обработки пропусков согласно вышеуказанному перечню приведены в табл. 12.3. Остановимся подробнее на некоторых дополнительных средствах обработки пропусков, реализованных в пакетах BMDP79 и ППСА. Как указано в § 11.4, оценка матрицы корреляций (ковариаций), полученная по способу 1 (см. формулу A1.69)), может не быть неотрицательно оп- определенной. В пакетах BMDP 79 и ППСА предусмотрена возможность проверки неотрицательной определенности матрицы S, для чего определяются ее собственные числа (или собственные числа соответствующей корреляционной матрицы). Если среди собственных чисел будут отрицатель- отрицательные по величине, то можно получить неотрицательно оп- определенную оценку матрицы корреляций (ковариаций) с помощью процедуры «сглаживания», которая заключает- заключается в том, что вычисляются сначала все собственные числа и векторы полученной корреляционной матрицы В и стро- строится матрица A=U' LU, где U — матрица собственных векторов, соответствующих положительным собственным числам матрицы R, a L — диагональная матрица из поло- положительных собственных чисел. Затем из матрицы А стан- стандартной нормировкой получается корреляционная матри- матрица R*. Если далее необходимо использовать ковариацион- 431
ную матрицу S, то она получается из R* умножением столбцов и строк на оценки стандартных отклонений. Оче- Очевидно, как матрица R*, так и матрица S* будут неотри- неотрицательно определенными, но могут быть матрицами не- неполного ранга. Так как, однако, ранг этих матриц, а также собственные числа и векторы матрицы R известны, нетруд- нетрудно получить, при необходимости, обобщенную обратную матрицу (см. [73]) для целей регрессионного и дискрими- нантного анализа. 12.1.5. Первичная обработка неколичественных данных. Рассмотрим следующие методы обработки неколичествен- неколичественных данных: 1. Анализ таблиц сопряженности, включающий 1) оценку параметров и проверку гипотез независимости для различных моделей таблиц сопряженности; 2) оценку параметров логлинейной модели таблицы со- пряженностей; 3) вычисление различных коэффициентов связи в дву- двумерных таблицах сопряженности. 2. Приведение переменных к системе двоичных перемен- переменных (п. 10.2.4). 3. Оцифровка 'неколичественных переменных. Анализ таблиц сопряженности A.1 и 1.3) реализован в пакетах BMDP 75 и BMDP 79 (программы P9D, P1F), по 1.3 — в ППСА. Оценка параметров логлинейной модели реализована в BMDP 79 (программа P7D). Представление переменных в бинарной форме исполь- используется при решении задач классификации в пакете ОТЭКС. В пакетах BMDP 75, BMDP 79, ППСА переход к двоично- двоичному представлению легко осуществляется с помощью средств функционального преобразования признаков, хотя спе- специальные программы для такого преобразования отсутст- отсутствуют. Дадим более подробное изложение подхода к оцифровке неколичественных переменных. Суть этого подхода состоит в присвоении категориям (градациям) неколичественных пе- переменных «разумных», в рамках решаемой задачи, число- числовых меток. Далее с оцифрованными переменными обраща- обращаются как с дискретными числовыми переменными. Крите- Критерий, согласно которому присваиваются метки, зависит от последующей статистической обработки — анализа глав- главных компонент, регрессионного анализа, дискриминантного анализа. Допустимость присвоения числовых меток гра- градациям ординальных переменных представляется доста- 432
точно естественной. Допустимость оцифровки номинальных переменных основывается на том, что в рамках конкретной задачи градациям номинальный переменной соответствует некоторая совокупность значений скрытых, непосредст- непосредственно неизмеряемых, но реально существующих перемен- переменных. Так что число, присваиваемое какой-либо градации некоторой номинальной переменной, является обобщенным (результирующим) значением для совокупности значений неизмеряемых переменных, характерной для объектов, со- соответствующих данной градации рассматриваемой номи- номинальной переменной. Критерии, на основе которых производится оцифровка (см. [32]), зависят от используемого далее метода статисти- статистического анализа. Однако все они являются некоторыми функционалами матрицы ковариаций (корреляций) в про- пространстве оцифрованных признаков. Это связано прежде всего с тем, что матрица ковариаций (корреляций) является основным объектом, который используется перечисленными выше методами статистического анализа. Сущность указанных методов состоит в выделении одной или нескольких линейных комбинаций исходных перемен- переменных, обладающих некоторыми экстремальными свойствами, а успешность их применения к реальным данным в первую очередь зависит от того, насколько сильно связаны перемен- переменные и насколько полно матрица ковариаций отражает эту зависимость, т. е. насколько точно эти зависимости можно считать линейными. Например, в случае когда после оцифровки предлага- предлагается использовать методы сокращения размерности или регрессионного анализа в программе CODAGE пакета ППСА, категориям неколичественных признаков приписы- приписываются числовые метки, максимизирующие величину KI где /,/=1, р, р—число признаков, подлежащих кодировке; Ри — коэффициенты корреляции между i-м и /-м призна- признаками после кодировки, a wtj — неотрицательные весовые коэффициенты. Вычислительная схема в этом случае та- такова. Пусть Zh i=l, р, — вектор размерности Lt (Lt — число категорий для i-ro признака), коэффициентами которого 433
являются метки, приписанные соответствующим категориям /-го признака. Оценим по исходной выборке матрицу (таблицу) сопря- сопряженности Q (i, j) размера ЬгХЬ] (i=l, р\ /=1, р), у кото- которой значением элемента qkl является оценка вероятности для 1-го признака принять k-ю категорию одновременно с принятием 1-й категории для /-го признака. Пусть Р — диагональная матрица, элементами которой являются частоты категорий 1-го признака, a Af — симметричная неотрицательно определенная матрица с элементами а$ = 2 Ю'^' Л- z/)№b(*. /)> Ц. A2.3) '</ где / и & меняются от 1 до числа градаций 1-го признака; (Q/. (if /), 2у) — скалярное произведение /-й строки матри- матрицы Q (i, /) на вектор Z/, координатами которого являются метки соответствующих категорий /-го признака. Числовые метки, максимизирующие величину крите- критерия A2.2), находятся в результате следующего итерацион- итерационного процесса. На^первом шаге задаются начальные значения для Z(i0) ,Г.., Z{p0) (например, координатами каждого вектора Zt (i=h p) являются натуральные числа, т. е. номера градаций i-ro признака). Эти метки нормируются и центри- центрируются. Затем по формуле A2.3) вычисляется матрица Аг и находится собственный вектор с максимальным собствен- собственным значением для уравнения ЛЛ-А,Л2, = 0. A2.4) Координаты этого вектора и будут новыми значениями ме- меток для ZA\. Теперь, зная ZA)x; определим матрицу А2 при фикси- фиксированных значениях ZA)x, ZC°\ ..., Z{p0) и находим новый вектор ZAJ. Далее определяется ZAK и т. д. Вычислив все значения меток Zi(l), ..., Z(p1\ переходим к определению Z[2) при фиксированных Z^ ,..., Zp1}, и вычисления повторяются. Процесс останавливается, когда разница между значе» ниями критерия A2.2) на соседних шагах итерации будет меньше заданной пороговой величины. Замечание. В случае когда число признаков р=2, в результате работы программы получаются так называемые метки Ланкастера [40]. 434
12.1.6. Средства визуализации данных. Рассмотрим про- программное обеспечение следующих методов визуализации данных (см. § 10.5): 1) стандартный метод главных компонент; 2) нелинейный метод главных компонент; 3) многомерное метрическое шкалирование. Стандартный метод главных компонент реализован в па- пакетах BMDP 75, BMDP 79 (в программе факторного ана- анализа P4F), в ПНП [55, вып. 2,14], в ППСА (программа REDUCT). Нелинейный метод главных компонент и мно- многомерное метрическое шкалирование реализованы из рас- рассматриваемых пакетов в'ППСА (программа REDUCT). Важным моментом сервиса, определяющим эффектив- эффективность применения методов визуализации, является воз- возможность вывода диаграммы рассеивания (см. гл. 10) с по- помощью различного рода терминальных устройств — АЦПУ, графопостроителя или дисплея. Обычным и достаточно удоб- удобным средством является использование АЦПУ. Рассмотрим подробнее, как построена (например, в ППСА) диаграмма рассеивания. Координаты двумерных проекций точек нормируются. Пусть L и М — соответст- соответственно горизонтальный и вертикальный размер диаграммы. Эти величины либо задаются пользователем, либо прини- принимают умалчиваемые значения. Позиция i-ro объекта по го- горизонтали (оси ОХ) от левого края диаграммы вычисляется по формуле п]= [L (xL — хтщ)!(хтах — хтщ)Ь где [ I означает целую часть числа, хтах и л:т1п — соответ- соответственно максимальное и минимальное значения координа- координаты х. Аналогично вычисляется и положение объекта (номер строки) по вертикали. В точке с этими координатами печа- печатается какой-либо символ, например буква А. Если в одну точку попадает не один, а ?>1 объектов, то, если &<10, печатается цифра, равная числу объектов, попавших в эту точку, а если fc>10, то символ *. Если имеется несколько групп объектов, для каждой из них может быть использован свой собственный символ. Значения координат X и Y в ис- исходных шкалах печатаются соответственно по нижнему краю (через каждые пять позиций) и левому краю (через каждые пять строк) диаграммы. 12.1.7. Оценивание параметров и выделение аномальных наблюдений. Рассмотрим программное обеспечение, свя- 435
занное с оцениванием параметров, для следующих видов оценок. 1. Стандартные оценки основных числовых характерис- характеристик случайных величин — среднего, медианы, дисперсии, размаха, асимметрии, эксцесса и др. 2. Оценки параметров для известного априори типа распределения — гамма-распределение, бета-распределе- бета-распределение, распределение Пуассона, биномиальное распреде- распределение и др. 3. Стандартные оценки параметров многомерных слу- случайных величин — вектора средних значений и матрицы ковариаций. 4. Устойчивое оценивание параметров сдвига (см. п. 10.4.5): 1) урезанное среднее и медиана; 2) среднее по Винзору; 3) оценки Хампеля, Тьюки, Эндрюса; 4) Я-моменты. 5. Устойчивое оценивание параметров масштаба. Вычисление стандартных оценок 1 и 3 с небольшими вариациями по составу реализованы в любом из рассмат- рассматриваемых пакетов программ. Оценки параметров при из- известной модели распределения реализованы в пакете СОД и в ПНП [55, вып. 10, разд. 4]. Менее развито программное обеспечение устойчивого оценивания. Оценки 4.1—4.3 реализованы в пакетах BMDP 75 и BMDP 79 (программы P2D) и ППСА (программа ESTM), а также в ПНП [55, вып. 2, 10]. Остановимся подробнее на методе реализации устойчи- устойчивых оценок вектора средних и матрицы ковариаций, реа- реализованном в ППСА [67]. Недостаток взвешенных оценок A0.23), A0.24), в том числе и Х-моментов A0.28'), A0.29')* состоит в том, что их дисперсии растут с ростом размерности пространства признаков р [89]. Чтобы избежать этого, в программе ESTM ППСА используется следующий под- подход. Сначала для каждого из р признаков находятся р одномерных устойчивых оценок среднего и дисперсии, а затем решается р (р—1)/2 двумерных задач по определе- определению устойчивых оценок ковариаций, например, с помощью Я-моментов. Трудности здесь такие же, как и при оценке ковариационной матрицы в случае пропущенных наблю- наблюдений— иногда матрица ковариаций может не быть неотри- неотрицательно определенной. Асимптотические свойства этих оце- оценок, названных редуцированными, приведены в работе [90]. 436
12.2. Вычисление функций распределения и обратных к ним В данном параграфе приводятся методы вычисления значе- значений функций распределения, процентных точек и обрат- обратных функций распределения для наиболее употребитель- употребительных распределений — нормального, центрального и не- нецентрального Х2-квадрат, центрального и нецентрального F-распределения, р-распределения, аппроксимации пре* дельных распределений для некоторых непараметрических критериев, некоторых дискретных распределений. Сравне- Сравнение величины того или иного критерия с процентными точками соответствующей функции распределения является обычно заключительным этапом в проверке статистических гипотез. В связи с этим к настоящему времени составлено огромное количество таблиц значений функций распределе- распределения, см., например, [1], [16]. В то же время развитие ЭВМ и программного обеспечения прикладной статистики при- привело к новому подходу к табулированию функций распре- распределения и связанных с ними величин. При ручных вычисле- * ниях пользователи были заинтересованы в том, чтобы иметь обширные таблицы, которые позволяли бы вычислять зна- значения функций с помощью простейшей интерполяции. Однако при работе с ЭВМ невыгодно заносить таблицы в память машины, а затем составлять программу обращения к нужной таблице и последующей интерполяции. Обычно предпочтительнее иметь не таблицу, а алгоритм вычисле- вычисления значений функции с необходимой точностью, даже если он довольно сложен1. Особо следует выделить случай, когда вычисление зна- значений обратной функции распределения2 используется при генерации случайных чисел с заданным законом распределе- распределения в методах статистического моделирования (см. § 6.3). Поскольку обычно необходимо генерировать значительное число таких чисел, то для получения приемлемого времени моделирования требуются возможно более простые алгорит-, 1 Алгоритмы для вычисления функций распределений на Алго- Алголе приведены в [28], [86], а также в [103], [104]. Подпрограммы на Фортране можно найти в [72] и [55]. 2 Функцией, обратной к функции непрерывного распределения F(x) (далее именуемой обратной функцией распределения), назы- называется такая функция, значение которой в произвольной точке ин- интервала @,1) определяется как значение х, удовлетворяющее урав- уравнению F(x)~a. 437
мы вычисления обратных функций распределения1. Разу- Разумеется, ранее разработанные таблицы и разработка новых таблиц не потеряли и не потеряют своего значения, тем более что развитие малой вычислительной техники (на- (настольных и ручных микрокалькуляторов) существенно уп- упрощает их использование. Тем не менее при изложении материала этого параграфа основной упор сделан на алгоритмы — разложения в ряды по степенным и рациональным функциям, аппроксимацион- ные формулы различного типа, пригодные для программи- программирования на ЭВМ. 12.2.1. Нормальное распределение. Функция нормального распределения с математическим ожиданием т и дис- дисперсией о имеет вид: X X* Ф (х; т, о) = pL_ J e" 2" d x. A2.5) Поскольку Ф(х; т, о) = ф (% — т . q, 1 достаточно уметь вычислять функцию Ф (х)=Ф (х; 0,1), называемую стандартной функцией нормального" распределения х Ф(л-)= J <p(jt)djc, 1 _? где ф (*)= —jzl e 2 — плотность стандартного нормаль- ного закона. Отметим следующее свойство функции Ф (х): Ф(—jt)=l —Ф(х). Для функции Ф (х) известны в настоящее время многочис- многочисленные разложения в ряды и непрерывные дроби, прибли- приближения полиномами Чебышева на различных интервалах, пригодные для вычисления значений Ф (х). Здесь мы, од- 1 Приведенные в данном параграфе формулы, за исключением случая нормального распределения, дают лишь приближенные значения обратных функций распределения. Для получения этих значений с достаточной точностью необходимо использовать какую- либо процедуру поиска корня непрерывной функции (см., например, [28]), используя приближенные значения в качестве начальных. 438
нако, приведем лишь небольшое число аппроксимационных формул, удобных для программирования. Аппроксимационные формулы для функции распределе- распределения: 5 Ф (л") ~— 1 ~- ф (л*) J\biti -f-е (х), A2.6) где *= 1/A+/we), /? = 0,2316419; 6, = 0,319381530, 62= - 0,356563782, 6,= 1,781477937, Ь,= - 1,821255978, 6в= 1,330274429; Менее точная аппроксимация подобного типа: /= 1/A -f-^jc>, /? — 0,33267; A2.7) а, = 0,4361836, а2 — - 0,1201676, а3 — 0,9372980. Погрешность |е (х) \ этого приближения не превышает ю-5. Приведем еще аппроксимационную формулу, не тре- требующую вычисления плотности ф (х): Ф U)= 1 1.Л +JJCix) + е(х); A2.8) с, =0,196854, са = 0,115194, с3 = 0,000344, с, = 0,019527; Имеется аппроксимационная формула типа A2.8) с по- погрешностью |е (л:) |<1,5-10-7 [1, формула B6.2.19)]. Приведенные выше аппроксимации позволяют вычис- вычислить значения Ф (х; 0,1) с необходимой в практических приложениях точностью. Обратную функцию для нормального распределения Ф (х; т, а) будем обозначать через г|) (а; т, а). Имеет место соотношение <ф(а; т, о) = /и + о1|>(а), 439
где я|5 (а) — функция, обратная для стандартного нормаль- нормального закона, т. е. Ф(г|)(а); 0, 1) = а @<а<1). Так как при всех а ? @,1) i|> (с^+Ч (I—a)=0, то практиче- практически нужно уметь вычислять значения яр (а) в полуинтерва- полуинтервале 0,5<а<1. Приведем следующие аппроксимационные формулы, полученные модификацией формул B6.2.22) и B6.2.23) из [1] (в обеих формулах t = V—2 In (I—a), 0,5<a<l): f-- -—a° + ait - + s1(a), A2.9; a,= 2,30753, a, =0,27061, ^ = 0,99229, 6t = 0,04481; ' + ct + c^ , c0 = 2,515517, с, = 0,802853, c2 = 0,010328, ^=1,432788, d2 =0,189269, d, = 0,001308. Погрешность \гг |<3-10~3, a |ea |<4,5- 10~A Интересно разложение для я|) (а) вида1 00 ф*(а) = 2JM— 1пA-4(а— l/2))f. A2.11) Первые четыре коэффициента разложения: а, = тс/2. я2-; 0,37068870- Ю-1, а3 = 0,83209445-Ю-3, а4=— 0,23232430-10. Применение отрезка ряда с первыми четырьмя членами дает необходимую для практических применений точность в интервале 0,03<а<0,97. 12.2.2. Распределение «хи-квадрат». Распределение %2 возникает в задачах оценивания и проверки статистичес- статистических гипотез (см. гл. 11), 1 См.: К у т и н В. А. Одна формула обращения интеграла ве- вероятности. —- Ученые записки Пермского гос. университета, 1974, № 309. 440
Функция распределения X2 с v степенями свободы опре- определяется выражением 10, если л;<0; где нормирующая константа Сх* (v) = BV'2 Г (j)). Если v=l, то а при v=2 В общем случае основой для вычисления значений функции распределения A2.12) являются разложения в ряды. Приведем два разложения в бесконечные степенные ряды (см. [1 B6.4.6), B6.4.7)]), сходящиеся при всех х>0: Fx. (v) (х) = Сх, (v) *»/* fj (-.!)"(xv/2f ; A2.13) (х) = Сх. (v) е-/» U + fj Wf \ A2,14) Когда v>2, члены ряда из A2.14) убывают быстрее, чем у ряда A2.13) при всех х. Когда х велико (#>v), выгоднее применять аппрокси- мационные формулы на основе разложений Паде1: ;v)e2;c2 "v ' ' +en(x), A2.15) где 1 См.: Л ю к Ю. Специальные математические 'функции и их аппроксимации. М., Мир, 1980. 15 зак. 1035 441
Погрешность гп (х) стремится к 0 при х ->оо и отрицательна при x^v, так что верно неравенство Функции Еп (v, л:), Fn (v, x) удовлетворяют одному и тому же реккурентному соотношению, которое можно использовать для получения более точных приближений: + 2--^+i(v, x) = Для п=2 имеем: где Аппроксимационные формулы для больших v. Когда v велико, с достаточной степенью точности верны следующие аппроксимации: A2.16) A2.17) Аппроксимация обратной функции распределения получается на основе A2.16), A2.17): A2.18) A2.19) 442
12.2.3. Бета-распределение. Функция бета-распределения с параметрами а>0, 6>0 Fp {a, ь) (х) определяется выра- выражением ); A2.20) Имеет место соотношение Если хотя бы один из параметров аи b равен 1, интеграл A2.20) легко вычисляется в конечном виде. В общем случае для вычисления значений функции F$(a, Ь) (х) удобно ис- использовать ее разложение в ряд Тейлора в окрестности нуля: W Л ^A —6) B —6)...(/2 —6) ч A2.22) В силу соотношения A2.21) можно всегда добиться, чтобы х б [0, V21 и, следовательно, быстрой сходимости ряда в A2.22). Первые 10 членов разложения заведомо обеспечи- обеспечивают относительную погрешность б<10~4, а 14 — относи- относительную погрешность 6<10~~5 равномерно по а и Ь. Предварительно с помощью реккурентного соотно- соотношения Рца.ь) (х) = СЭ (а, Ь) ха{\ - x)b-lla + Fua±\.b-\) (x) значение параметра Ь уменьшается так, чтобы Ь стало мень- меньше 1. Аппроксимация обратной функции Ff*a, ь) (а) дается выражением ([1, B6.5.22)]): где \2b — l 2a— 1/ V 6 3n)' 2я— 1 ¦ 26— 1J A2.24) 15* 443
Здесь г|) (а) — обратная функция стандартного нормаль* нОго распределения. Когда значение одного из параметров а или Ъ близко к 1/2, формула A2.23) дает значительную погрешность. Так, при а-М/2 Fjfk, ь) (а)-*1» а при 6->1/2 F&ta.b) (а)->0 @=^1/2) независимо от величины а. 12.2.4. F-распределение. Функция распределения случай- случайной величины, имеющей /^-распределение, задается выра- выражением -L i_ ¦2V'V' ' ^Vl-2)(v2 + v,0"^(V'+Va)^, A2.25) х^О, v,>0, v2>0. Для функции ^-распределения верно соотношение A2.26) Это соотношение аналогично соотношению A2.21) для бета- распределения (с учетом A2.27)) и позволяет проводить вы- вычисления функции ^-распределения только для значений х^\ (или #^1). Один из способов точного вычисления зна- значений Fp(VltV2) (x) основан на его связи с бета-распределе- бета-распределением Ff(w) (*)= * - ^(,./2.v,/2, (у). A2.27) где y2B ) Аппроксимация обратной функции ^-распределения cl,) (а) получается из A2.23) с учетом соотношения, связывающего |3- и /^-распределения: где w определено формулой A2.24) с Ь = ^, а = ^. Дру- гие способы аппроксимации обратной функции /^распре- /^распределения описаны в [39, гл. 16] и [16]. 12.2.5. t-распределение Стьюдента. Функция распределе- распределения случайной величины, имеющей /-распределение, опре- определяется формулой _ _i_ Т" 1 A2.28) *'-> TJ- 444
Так же как и для /^-распределения, при вычислении значе- значений A2.28) можно воспользоваться его связью с E-распре- делением 2 р\^' Т) где Для отрицательных х значения функции /-распределения легко получаются с учетом симметричности плотности Ft{4) {—x)=\ — Ft{4)(x). Для аппроксимации обратной функции Ff(V) (a) ис- используется разложение в ряд по отрицательным степеням v[l, B6.7.5)]: /7i:,\a)^«)+^ + ^ + ^+..., A2.29) где A2.30) g, {х) ¦= -^то G9л:9 + 776^7 + 1 482л-5 - 1 920л3 - 945л). В ряде случаев в приложениях интерес представляет не -само /-распределение, а ^-распределение, т. е. распределе- распределение квадрата случайной величины, имеющей /-распределе- /-распределение. Однако ^-распределение есть частный случай F-pac- пределения с 1 и v степенями свободы, рассмотренного в п. 6.1.4. 12.2.6. Нецентральные распределения. Функции распреде- распределения нецентральных X2 и F-распределений выражаются 445
в виде бесконечных функциональных рядов: 00 X»(vA) \Х)— Xj^irXa(v + 2/) [Л), (IZ.Ol) 1=0 00 Ff \ (x) = ^d-Fpt 2* (jc) A232) 1=0 где at. = e~A' t-: Таким образом, нецентральные распределения A2.31) и A2.32) можно рассматривать как смеси со счетным числом компонент из соответствующих центральных распределений. Прямой путь для вычисления значений функций распреде- распределения A2.21) и A2.32) состоит в суммировании вычислен- вычисленных с необходимой точностью членов рядов A2.31) и A2.32). При этом погрешность вычисления A (k, г) складывается из двух компонент А F, е)< |е |+б F), где |е | — погреш- погрешность вычисления члена ряда и б (k) — погрешность, воз- возникающая из-за «обрезания» ряда на k-м члене. Для величины б (k) имеем следующую оценку сверху: оо оо 8 (А) = 2 аЛ«<* + 20 (Х)< 2 ai = 1 ~ Fl42k) (Я). /=fe i=k С помощью этого неравенства нетрудно оценить число k0 членов ряда A2.31) или A2.32), достаточное для выпол- выполнения неравенства б F0)< б0, где б0 — заданная величина погрешности. Для нецентральных распределений A2.31) и A2.32) из- известны аппроксимационные формулы, выражающие их через соответствующие центральные распределения Xa(v»^) \*^/ ^^ X2(v) \Х /' yiZ.OOJ где * _ v + 2X * _ (v + IJ И Р?{*г.иЛ) (X) « FF(vbv2) (X*). A2.34) где у* _ Vl+^ v v* _ (Vl + ^)* •Л А. V 446
Эти аппроксимации можно использовать, в частности, для нахождения приближенных оценок обратных функций не- нецентральных распределений (см. формулы A2.18), A2.19)). 12.2.7. Аппроксимация «хвостов» распределений типа со2. Определение точных значений распределения статистики критерия для проверки гипотезы согласия и статистик ти- типа со2 для проверки гипотезы нормальности представляет собой сложную вычислительную задачу (см., например, [52]). В то же время для хвостов соответствующих распре- распределений возможна простая аппроксимация с достаточной для практических целей точностью. Именно для распре- распределения статистики со2 критерия Мизеса — Крамера эмпи- эмпирически найдено [136], что верхний (правый) «хвост» хо- хорошо аппроксимируется выражением в. A2.35) Погрешность е такова, что |е | <0,002, когда 0,05<а<0,15, соответственно 0,274 <z< 0,461; |е | <0,001, когда 0,01 <а<0,05, соответственно 0,461 <z< 0,743. Например, для а=0,01 B=0,743) приближенное зна- значение, даваемое формулой A2.35), будет 0,0094, а для а= =0,001 приближенное значение будет 0,0007. Путем эмпирической подгонки можно получить и ап- аппроксимации верхних «хвостов» распределений статистик типа со2, предложенных для проверки нормальности (см. п. 11.1.7). Так, в случае когда по выборке оцениваются среднее значение и дисперсия, имеем а =1 - F(W2<г) ^ 2,335-е-30-Ю6*. A2.36) а если оценивается только среднее значение при известной дисперсии, то а^ 1 -F (U72<z) = 2,0.e-22-21* A2.37) О точности этих формул можно судить по табл. 12.4, в которой приведены величины уровня значимости крите- критерия, вычисленные по формулам A2.36) и A2.37) в сопос- сопоставлении с номинальными значениями. 447
Таблица 12.4 Номинальное значение а 0,5 0,4 0,3 0,2 0,15 0,1 0,05 0,01 0,005 0,001 Формула A2.36) _ 0,2953 0,1983 0,1494 0,1003 0,0506 0,107 0,00505 0,00098 Формула A2.37) 0,4958 0,3961 0,2981 0,1998 0,1507 0,1010 0,05088 0,01012 0,00500 0,00095 12.2.8. Многомерное нормальное распределение1. Пусть Z — /7-компонентная случайная величина, имеющая много- многомерное нормальное распределение. Функция распределе- распределения F (X) многомерной случайной величины определяется как вероятность события F (X)=P (z^Xx ,..., zp^xp). Для многомерной нормальной случайной величины с вектором средних М и матрицей ковариаций 2 функцию распределе- распределения будем обозначать как Фр (X; М> 2). Двумерную функ- функцию распределения при стандартных значениях парамет- параметров (m1=m2=0i a1=aa=l) обозначим через Ф2 (х, у; р), где р — коэффициент корреляции. В двумерном случае для вычисления функции распределения имеются удобные при программной реализации формулы. Приведем формулу Оуэна [53]: (У) ~ Т {х. а,) - Т (у, а2) (*> 0, г/ > 0), A2.38) где - У-Р* n — ,.X~' XK 1 — ( 1 Подробный обзор работ и методов в области вычисления функций распределения многомерного нормального распределения приведен в [53]. 448
Вычисление Ф2 (х, у\ р) в остальных квадрантах произво- производится путем преобразования аргументов х и у к первому квадранту по формулам: ф2(*> у\ р) = *(*) — ф2(*. — #; р)> Фя(*, у; р) = Ф(у) —Ф,(—*. У\ р)< (-*> -у; р). Различные аппроксимации функции Т (А, а) приведены в [53]. В многомерном случае вычисление функции распреде- распределения состоит в вычислении р-мерного интеграла от функ- функции плотности. Методы вычисления основываются на раз- разложении функции распределения в многомерные степенные ряды по коэффициентам корреляции [39], либо на сокраще- сокращении размерности интеграла, либо на моделировании соот- соответствующей многомерной случайной величины (метод Мон- Монте-Карло) с заданным законом распределения, либо на объединении этих двух подходов. Здесь мы рассмотрим лишь метод сокращения размерности интеграла, возмож- возможный при определенной структуре корреляционной матрицы. Пусть R=(Pi./) (it /'=1» р) есть матрица корреляций многомерного нормального распределения и пусть k р.у= 2Jp/sp/s AФ'Ь '. /=1' Z7)' A2.39) 5=1 Тогда J- —00 —00 представляется в виде ^-кратного интеграла 449
В частном случае, когда все коэффициенты корреляции рав- равны и неотрицательны, получим Л=1, Ри = Ь2 и Важность рассмотренного метода объясняется тем, что довольно часто матрицу корреляций можно достаточно точно аппроксимировать с помощью соотношений вида A2.39), используя в качестве величин p/s (/=1, р; s=l, k) компоненты собственных векторов, отвечающих максималь- максимальным собственным значениям матрицы R. Рассмотрим теперь некоторые результаты относительно вероятности попадания случайного вектора в области спе- специального вида. В статистике часто возникает специальная задача вычисления многомерного нормального интеграла по области, в которой все р компонент X положительны (принадлежат первому квадранту): 1-Фр@; О, 2) = ?,@, 2). Хотя эта задача значительно проще общей, при решении ее для /?>>3 также возникают большие аналитические трудно- трудности [39]. Здесь приведем результаты для р=2 и р=3: L2@, R) = arcsin р/Bтг) -f — 4 L3 @, R) = — + —. (arcsin p12 -f- arcsin p13 -f arcsin p14). о 4тс Из формулы A2.40) следует, что если все р равны, то +00 {?_ 1,@. *) = у= j (Ф(-РУ))ре 2 Ау. Простые результаты можно получить для вероятности попадания Р (Л2, S, Мо) вектора X в эллипсоид вида где S — матрица ковариаций; Мо — центр эллипсоида. Эта вероятность выражается через функцию распределе- распределения нецентрального закона X2 (см. п. 12.2.6): Р{А\ 2, Ж.) = FX.(,,*,(*¦); 450
12.2.9. Дискретные распределения. Приведем краткую свод- сводку для вычисления функций распределения некоторых дис- дискретных случайных величин. Распределение Пуассона -х-^т = 1 -^x«(v) (¦*). A2.41) где v = 2k\ х = 2к. Биномиальное распределение 2 Clp1 (I -pT'^F^n-m+Dip) A2.42) i =m Отрицательное биномиальное распределение 2C?+'-VV = ^(«.»)(</) (q = l~P). A2.43) i=.tn Геометрическое распределение 2A-Ч)я'=1-<Г- A2.44) <=0 12.2.10. Вычисление математического ожидания порядко- порядковых статистик. Пусть независимые одинаково распределен- распределенные случайные величины х± ,..., хп имеют непрерывное рас- распределение с плотностью / (л:) и функцией распределения F (х). Вариационным рядом называется совокупность этих же величин, расположенных в возрастающем порядке, и обозначаемая как #<d<*B)< ...<х(п). Статистику Х(Г) называют r-й порядковой статистикой (подробно о порядковых статистиках см. п. 5.6.4). Плотность распределения r-й порядковой статистики: Для порядковых статистик и плотности распределения ве- вероятностей вида т / {{x—\i)lx} имеют место равенства где gr и o{rg) не зависят от (х и т и могут быть найдены, на- например, интегрированием соответствующих функций (z и z2) с плотностью /Г| п (г). Дальше поэтому приводятся резуль- результаты для порядковых статистик при (х=0 и т=1. 451
Для приложений порядковых статистик в критериях проверки статистических гипотез (см. § 11.2) важную роль играют величины Е Х(Г) — значения величины математи- математического ожидания порядковой статистики. Один из спосо- способов вычисления этих величин основан на преобразовании v=F (л:), которое приводит к независимым случайным ве- величинам, равномерно распределенным на @,1). В силу монотонности этого преобразования имеем V(r) = F(xir)) И Х(г, = /г-1(У(г)). Как следует из формулы для /Г| п (z), величины и(г) подчи- подчиняются бета-распределению и = ; л+Г '= 2г(п-2г+1)(п-г+1) (л+1K(" + 2 Отсюда приближенное значение A2.45) Более точную аппроксимацию можно получить, разла- разлагая функцию F (у(г)) в ряд Тейлора в окрестности зна- значения Е^(г)=аг. Так, взяв три производные, получим для приближенного определения значений Е (Х(Г)): Е х{г) = ег - -i- (/' (ar)/(f (ar)J) D (^) A2.46) где er = F-i (E vr) = F^1 (ar) = F~ Используя большее число членов ряда Тейлора и соответст- соответственно большее число моментов распределения и(г), можно получить и более точные формулы. Разложение A2.46) ана- аналогично разложению Пирсона [39]. Для нормального рас- распределения имеем, в частности, используя первые два чле- члена A2.46), A2.47) V 2 (п+ 1J(л + 2) v J 452
Другой способ расчета приближенных значений Ех(г) со- состоит в замене правой части равенства A2.45) на r+a \ + 2а+\ )' В частности, показано, что для порядко- порядковых статистик нормального распределения нужно брать Выводы 1. Первичная обработка данных достаточно полно представ- представлена в современном программном обеспечении прикладной статистики. Из доступного в нашей стране программного обеспечения для ЕС ЭВМ в первую очередь следует назвать Пакет научных подпрограмм (ПНП) на Фортране [55, вып. 2, вып. 10, вып. 14, вып. 16], версию пакета BMDP 75 [55, вып. 25], Пакет программ по прикладному статистичес- статистическому анализу (ППСА) ЦЭМИ АН СССР 167]. Отдельные ме- методы, относящиеся к первичной статистической обработке, реализованы в пакетах СОРРА-1, COD-ГС. 2. Для наиболее употребительных распределений при- прикладной статистики X2, Д В, t, нормального существуют эф- эффективные приемы вычисления функций распределения, позволяющие разработать простые процедуры для исполь- использования их в системе программного обеспечения приклад- прикладного статистического анализа. 1 В 1 о m G. Statistical estimates and transformed beta-variab- beta-variables. N. Y., Wiley, 1958. "
ИСПОЛЬЗУЕМЫЕ В КНИГЕ ОБОЗНАЧЕНИЯ Первичные наблюдения п — число статистически обследованных объектов, чис- число наблюдений случайной величины; р — число показателей (переменных), регистрируемых на каждом из объектов; x\k) — значение k-то показателя на i-м обследованном объекте; (* \ — вектор-столбец значений р х? 1 исследуемых показателей, : I зарегистрированных на t-м обследованном объекте; матрица исходных данных, зарегистрированных в «мо- «момент» t\ Pij @ — числовая характеристика попарной близости (или отдаленности) объектов или показателей с номерами i и / в «момент» /; Рп@ Pl2@ - Plm(O Pml@ Ртг@ -• Ртт( матрица попарных близостей объектов (тогда т = п) или показателей (тогда т = р), зарегистрированных в «мо- «момент» t. 454
Понятия теории вероятностей Р {А} — вероятность события Л; Р {А |5} — условная вероятность события А при усло- условии В; Р {АВ} — вероятность одновременного осуществления событий А к В; F% (х) —функция распределения случайной величины \\ F("> (x) — эмпирическая функция распределения, по- построенная по п наблюдениям; /7<6A> s(p)> (*A), ..., х{р)) — функция распределения многомерной случайной величины; ..., х{р)) ^^плотность распределения многомерной случайной величины ?; ^? (?) = Iff WA (а:) Aл: — математическое ожидание функции g (|) от случайной величины |; mfe = Е|* — начальный момент fe-ro порядка случай- случайной величины |; /Hi = Eg — теоретическое среднее значение |, матема- математическое ожидание |; mi0) = Е (I — тгук) —центральный момент &-го поряд- порядка случайной величины ?; т 20) = а2 = D| — дисперсия |; рх = тC°) (тBо>)-з/2 _ асимметрия; р2 = m<4°> (mB°>)~2 — 3 — эксцесс; Armed — медиана; *mod — модальное значение случайной величины (мо- да); I х Ф(*)= —— • f e-jt2/2 Aл: — функция распределения у нормальной (гауссовской) случайной величины с матема- математическим ожиданием 0 и дисперсией 1; Ф (х\ а> а2) — плотность нормальной случайной вели- величины с математическим ожиданием а и дисперсией а2; N (а, а2) — нормальное распределение (закон) со сред- средним а и дисперсией а2; W (М» 2)—многомерное нормальное распределение с вектором средних М и ковариационной матрицей 2» | f N — указание, что ? имеет распределение N\ У (х) — обратная функция к Ф (л:), если не оговорено противное; 455
uq (F) — квантиль уровня q случайной величины с функ- функцией распределения F; cog = wi_<э/юо — B%-ная точка распределения; cov (|@, |(/))> ои — смешанный второй момент или ко- вариация компонент многомерного признака |(/), ?(/); 2 = (аик/=Т7р—матрица ковариаций; Oik ги = 172 коэффициент корреляции между jj случайными величинами \W и |(*>; det 2> Sp B) — определитель и след матрицы 2 — меры рассеивания многомерной случайной величины; V% — коэффициент вариации; Понятия математической статистики *A), *B), •••» ^(л) — вариационный ряд; тк (п)у ml (n) — оценки начального и центрального мо- моментов по выборке объема п\ S, 2 — оценка матрицы ковариаций; х (я), Мх (п) — вектор выборочных средних выборки объема п\ s2 — оценка дисперсии, s — оценка среднеквадратичес- кого отклонения; dn — средняя абсолютная ошибка; L (Xlt Х2, ..., Xn)t L (X, 0) — функция правдоподобия; I @, X) — информационная матрица Фишера; Н — статистическая гипотеза; a — уровень значимости критерия; 1 — р — мощность критерия; du — расстояние между многомерными наблюдениями Xj и X; X2 (Л) — случайная величина распределения по закону X2 с k степенями свободы, статистика критерия х2; Dn , Dn \ Dn — статистика критерия Колмогорова— Смирнова; (о? — статистика критерия со2; Fnlt п2 — случайная величина, имеющая F-распреде. ление с пи п2 степенями свободы, статистика F-критерия. 456
СПИСОК ИСПОЛЬЗОВАННОЙ ЛИТЕРАТУРЫ 1. Абрамович М., Стиган И. Справочник по спе- специальным функциям. М., Наука, 1979. 2. А й в а з я н С. А. Вероятностно-статистическое моделирова- моделирование распределительных отношений в обществе. — В кн.: Статистическое моделирование экономических процессов. Уче- Ученые записки по статистике. М., Статистика, 1980, т. 37. 3. Айвазян С. А. Моделирование семейных доходов. — Эко- Экономика и математические методы, 1970, т. VI, № 2. 4. А й в а з я н С. А. Сравнение оптимальных свойств крите- критериев Неймана — Пирсона и Вальда. — Теория вероятностей и ее применения, 1959, т. IV, № 1. 5. Айвазян С. А. Различение близких гипотез о виде плот- плотности распределения в схеме обобщенного последовательного- критерия. — Теория вероятностей и ее применения, 1965, т. X, № 4. 6. А й в а з я н С. А. Статистическое исследование зависимос- зависимостей. М., Металлургия, 1968. 7. Айвазян С. А. К проблеме устойчивости статистического вывода. — В кн.: II Всесоюзная научно-техническая конфе- конференция «Применение многомерного статистического анализа в экономике и оценке качества продукции». Тарту, 1981 г. 8. Айвазян С. А., Бежаева 3. И., Старове- Староверов О. В. Классификация многомерных наблюдений. М., Статистика, 1974. 9. Айвазян С. А., Е н ю к о в И. С, М е ш а л к и н Л. Д. О структуре и содержании пакета программ по прикладному статистическому анализу. — В кн.: Алгоритмическое и про- программное обеспечение прикладного статистического анализа. М., Наука, 1980. 10. А л и м о в Ю. И. Альтернатива методу математической ста- статистики. М., Знание, 1979. 11. Альберт А. Регрессия, псевдоинверсия и рекуррентное оценивание. М., Наука, 1977. 12. А н д е р с о н Т. Введение в многомерный статистический анализ, М., Физматгиз, 1963. 13. Б а р о я н О. В., Р в а ч е в Л. А., И в а н н и к о в Ю. Г. Моделирование и прогнозирование эпидемий гриппа для тер- территории СССР. М., 1977. 14. Беляев Ю. К. Вероятностные методы выборочного конт- контроля. М., Наука, 1975. 457
15. Ёольшев Л. Н. О преобразованиях случайных вели- величин. — Теория вероятностей и ее применения, 1959, т. IV, вып. 2. 16. Б о л ь ш е в Л. Н., Смирнов Н. В. Таблицы матема- математической статистики. М., Наука, 1965. 17. Боримечков М. Р. Метод прогноза распределения ра- рабочих и служащих по величине заработной платы и их семей по размеру дохода. — В кн.: Доходы и покупательный спрос населения. М., Статистика, 1968. 18. Боровков А. А. Теория вероятностей. М., Наука, 1976. 19. Б о я р с к и й А. Я. Курс демографии. М., Статистика, 1967. 20. Б у с л е н к о Н. П., Голенко Д. И., Соболь И.М. и др. Метод статистических испытаний (метод Монте-Карло). М., Физматгиз, 1962. 21. В а л ь д А. Последовательный анализ. М., Физматгиз, 1960. 22. Ван дер Варден Б. Л. Математическая статистика. М., ИЛ, 1960. 23. Гаек Ф., Ш и д а к 3. Теория ранговых критериев. М., Наука, 1971. 24. Г н е д е н к о Б. В. Курс теории вероятностей. 5-е изд. М., Наука, 1969. 25. Гнеде нко Б. В., Б е л я е в Ю. К., С о л о в ь е в А. Д. Математические методы в теории надежности. М., Наука, 1965. 26. Г у м б е л ь Э. Статистика экстремальных значений. М., Мир, 1965. 27. Д е е в А. Д. Асимптотические разложения статистик дис- криминантного анализа. — В кн.: Статистические методы клас- классификации. М., изд-во МГУ, 1972, вып. 31. 28. Д у б и е р П. Н. Вычисление прямых и обратных функций распределения. М., изд-во МГУ, 1971, вып. 19. 29. Д е й в и д Г. Порядковые статистики. М., Наука, 1979. 30. Демографическая статистика и причины смерти. Ежегодник мировой санитарной статистики, т. 1, ВОЗ. Женева — Москва, Медицина, 1975. 31. Енюков И. С. Методы оцифровки неколичественных при- признаков. — В кн.: Алгоритмическое и программное обеспечение прикладного статистического анализа. М., Наука, 1980. 32. Енюков И. С, Б у л ы г и н В. П. Некоторые вопросы практического применения дискриминантного анализа. — Но- Новости медицинской техники. М., 1975, вып. 3. 33. Е н ю к о в И. С, Кулакова Е. П. Числовые метки для качественных признаков в дискриминантном анализе. — В кн.: Прикладной многомерный статистический анализ. М., Наука, 1978. 34. Е р м а к о в СМ., Михайлов Г. А. Курс статисти- статистического моделирования, М., Наука, 1976. V- 35. Загоруйко Н. Г., Елкина В. Н., Тимерка- е в В. С. Алгоритм заполнения пропусков в эмпирических таблицах (алгоритм «ZET»). — В кн.: Вычислительные системы. Новосибирск, СО АН СССР, вып. 61, 1975. 36. 3 а к с Ш. Теория статистических выводов. М., Мир, 1975. 37. К а м е н с к и й В. С. Методы и модели неметрического многомерного шкалирования (обзор). — Автоматика и теле- телемеханика, 1977, № 8. 458
38. К а ц М. Несколько вероятностных задач физики и матема- математики. М., Наука, 1967. 39. К е н д а л л М. Дж., Стьюарт А. Теория распределе- распределений. М., Наука, 1966. 40. К е н д а л л М. Дж., Стьюарт А. Статистические вы- выводы и связи. М., Наука, 1973. 41. Кендалл М. Дж., Стьюарт А. Многомерный ста- статистический анализ. М., Наука, 1976. 42. К н у т Д. Искусство программирования для ЭВМ, т.2 : Получисленные алгоритмы. М., Мир, 1977. 43. К о к р е н У. Методы выборочного исследования. М., Ста- Статистика, 1976. 44. Кокс Д., Хинкли Д. Теоретическая статистика. М., Мир, 1978. 45. К о л м о г о р о в А. Н. О логарифмически-нормальном за- законе распределения размеров частиц при дроблении. — ДАН СССР, 1941, т. XXXI, № 2. 46. К о л м о г о р о в А. Н. Основные понятия теории вероят- вероятностей. М. —Л., ОНТИ, 1936. 47. К о т ю к о в В. И. Некоторые нестандартные статистиче- статистические модели прогнозирования в эконометрии. Новосибирск, изд. НИИЖТ, 1977. 48. Крамер Г. Математические методы статистики. 2-е изд. М., Мир, 1975. 49. Курочки на А. И. Оптимальные свойства главных ком- компонент Я-взвешенной ковариационной матрицы. — В кн.: Ал- Алгоритмическое и программное обеспечение прикладного ста- статистического анализа. М., Наука, 1980. 50. Л е б е д е в В. Н., Соколов А. П. Введение в систему программирования ОС ЕС. М., Статистика, 1978. 143 с. 51. М а й с т р о в Л. Е. Развитие понятия «вероятности». М., Наука, 1980. 52. Мартынов Г. В. Вычисление предельного распределения статистик критериев нормальности типа со2. — Теория вероят- вероятностей и ее применения, 1976, т. 21. 53. Мартынов Г. В. Вычисление функций нормального рас- распределения. — В кн.: Итоги науки и техники. Теория вероят- вероятностей. Математическая статистика. Теоретическая киберне- кибернетика. М., ВИНИТИ, 1980, т. 17. 54. Мартынов Г. В. Критерии омега-квадрат. М., Наука, 1978. 55. Математическое обеспечение ЕС ЭВМ. Минск, изд. Института математики АН БССР, 1973, вып. 2, ч. 2; 1976, вып. 10, ч. 6; 1978, вып. 14, ч. 1, вып. 16, ч. 9; 1980, вып. 25, чч. 1, 2. 56. М е ш а л к и н Л. Д. Параметризация многомерных * рас- распределений. — В кн.: Прикладной многомерный статистиче- статистический анализ. М., Наука, 1978. 57. М е ш а л к и н Л. Д. Приписывание числовых значений ка- качественным признакам. — В кн.: Статистические проблемы уп- управления. Вильнюс, 1976, вып. 14. 58. Мешалкин Л. Д., Курочкина А. И. Новый под- подход к параметризации регрессионных зависимостей. Записки научн. семинаров ЛОМИ АН СССР, 1979, т. 87. 459
59. Мешалкин Л. Д., СердобольскийВ. И. Ошиб- Ошибки при классификации многомерных наблюдений. —Теория вероятностей и ее применения, 1978, т. XVIII, № 4. 60. Митропольский А. К. Техника статистических вы- вычислений. М., Физматгиз, 1961. 61. Многомерный статистический анализ в социально-экономиче- социально-экономических исследованиях. Ученые записки по статистике, 1974, т. XXVI. М., Наука. 62. Мостеллер Ф., Т ь ю к и Дж. Анализ данных и ре- регрессия. М., Финансы и статистика, 1982. 63. Нейлор Т. и др. Машинные имитационные эксперименты с моделями экономических систем. М., Мир, 1975. 64. Общая теория статистики/Под ред. А. Я. Боярского. М., Изд-во МГУ, 1977. 65. Орлов А. И. Прикладная теория измерений. — В кн.: Прикладной многомерный статистический анализ. М., Наука, 1978. 66. ОТЭКС: обработка таблиц экспериментальных данных. Пакет прикладных программ (версия 2.1). Новосибирск, 1978. 67. Пакет прикладных программ по прикладному многомерному статистическому анализу. М., ЦЭМИ АН СССР, 1982, препринт. 68. Пакет прикладных программ статистической обработки дан- данных. Киев, Институт кибернетики, 1979, препринт. 69. Прохоров Ю. В., Розанов Ю. А. Теория вероят- вероятностей. М., Наука, 1967. 70. Р а й з е н Дж. Ван. Классификация и кластер. М., Мир, 1980. 71. Рао СР. Линейные статистические методы и их применения. М., Наука, 1968. 72. Сборник научных программ на Фортране. М., Статистика, 1974, вып. 1, 2. 73. Себер Дж. Линейный регрессионный анализ. М., Мир, 1980. 74. С м и р н о в Н. В. Об оценке максимального члена в ряду наблюдений. ДАН СССР, 1941, т. 33. 75. Смирнов Н. В. Оценка расхождения между эмпириче- эмпирическими кривыми распределения в двух независимых выборках. — Бюл. Московского ун-та, серия А, 1939, 2. 76. С м о л я к С. А., Т и т а р е н к о Б. П. Устойчивые ме- методы оценивания. М., Статистика, 1980. 77. Староверов О. В. Модели движения населения. М., Наука, 1979. 78. Т е р е х и н а А. Ю. Анализ структуры эмпирических дан- данных методами многомерного шкалирования. Автореф. на со- иск. учен. степ. канд. техн. наук. М., 1975. 79. Типология потребления. М., Наука, 1978. 80. Тутубалин В. Н. Границы применимости (вероятно- (вероятностно-статистические методы и их возможности). М., Знание., 1977, 81. Ф ? а о р о в В. В. Теория оптимального эксперимента. М., Наука, 1971. 82. Ф е д о т о в А. М. DIAS — Автоматизированная система хранения и статистической обработки экспериментальных дан- данных (краткое описание). Новосибирск, ВЦ АН СССР, 1978, ч. 1, препринт. 460
83. Ф е л л е р В. Введение в теорию вероятностей и ее приложе- приложения. 2-е изд. М., Мир, 1964. 84. Форсайт Дж., М о л е р К. Численное решение систем линейных алгебраических уравнений. М., Мир, 1969. 85. X а л ь д А. Математическая статистика с техническими при- приложениями. М., ИЛ, 1956. 86. Численные методы математической статистики. Алгоритмы и программы. М., изд-во МГУ, 1976, с. 22—29. 87. Ш е ф ф е Г. Дисперсионный анализ. М., Физматгиз, 1963. 88. Ш м е р л и н г Д. С. и др. Экспертные оценки. Методы и применения (обзор). — В кн.: Статистические методы анализа экспертных оценок. М., Наука, 1977, с. 290—382. 89. Ш у р ы г и н А. М. Оценки параметров нормального рас- распределения с экспоненциальным взвешиванием наблюдений: асимптотическая теория. — В кн.: Алгоритмическое и програм- программное обеспечение прикладного статистического анализа. М., Наука, 1980. 90. Ш у р ы г и н А. М. Устойчивые оценки параметров много- многомерного распределения. — В кн.: Применение многомерного статистического анализа в экономике и оценке качества про- продукции. Тарту, 1981. 91. A i t с h i s о n J., Brown J. A. C. The Lognormal Distri- Distribution, Cambridge Univ. Press, 1957. 92. A l v a z i a n S. A. Statistique mathematique appliquee et probleme cie ia stabilite des inferences statistiques. — In: Data Analysis and Informatics, North-Holland Publ. Сотр., 1980. 93. Andersen E. Discrete statistical models with social sci- science applications. North-Holland, 1980. 94. Bartholomew D. J. Stochastic models for social proces- processes. Wiley, 1970. 95. В e a 1 e E. M. L., Little R. J. A. Missing Values in Multivariate Analysis. — Journ. Royal. Statist. Soc, 1975, Ser. B, vol. 37. 96. В i с k e 1 P. On some robust estimates of location. — Annals of Math. Statistics, 1965, vol. 36. 97. В i s h о p Y. M., F i e n b e r g S. E., H о 1 I a n d P. W. Discrete Multivariate Analysis. Theory and Practice. Cambrid- Cambridge, NIT-Press, 1975. 98. Blackman K. An extension of the Kolmogorov distribu- distribution. — Annals of Math. Statistics, 1958, vol. 29. 99. BMDP: Biomedical Computer Programs. Ed. W. Dixon. Univ. of California Press. Berkeley — Los Angeles — London, 1975. 100. BMDP: Biomedical Computer Programs. Ed. W. J. Dixon. Univ. of California Press, 1979. 101. В о x J. E., С о x D. R. An Analysis of Transformations. — Journ. Royal. Statist. Soc, 1964, ser. B, vol. 26. 102. Circulation XXXVI, 1968, vol. 37, № 3. Supplyment 1. 103. Cooper B. E. Algorithm AS2. The normal integral. — Appl. Statist. 1968, vol. 17, № 2. 104. Cooper В. Е. Algorithm AS4. An auxiliary function for distribution integrals. —Appl. Statist. 1968, vol. 17, № 2. 105. D i d а у Е. et collaborate.urs. Optimisation en classification automatique. T. 1, INRIA. Paris, 1980. 106. DomanskiC. Statystyczne testy nieparametryczne. War- szawa, 1979. 461
107. D u r b i n J. Kolmogorov —- Smirnow tests when parametres are estimated with applications to test expotentiality and test on spacings. — Biometrika, 1975, vol. 62. 108. D w у е г P. S. Some applications of matrix derivatives in multivariate analysis. — Journ. Amer. Statist. Assoc., 1967, vol. 62. 109. Fisher R. A. Theory of statistical estimation. — Proc. of Cambr. Phil. Soc, 1925, yol. 22. 110. Gauss C. F. Theoria motus corporum coelestium. Hamburg, 1809. 111. GaussC. F. Werke, bd. 4. Gottingen, 1880. 112. G n i e d e n к о В. W., К о г о I у u к W. S. On the maxi- maximum disperancy between two empirical distributions. — In: Selected Translation in Mathematical Statistical and Probabi- Probability. Inst. Math. Statist, and Amer. Math. Soc, Providence 1961, vol. 1. 113. G r u b b s F. Sample criteria for testing outlying observati- observations. — Annals of Math. Statistics, 1950, vol. 21. 114. G r u b b s F. Procedures for detecting outlying observations in samples. —Technometrics, 1969, vol. 11. 115. G u e n о с h e A., I h m P. Analyse en composante princi- pale et analyse discriminante dans le cas de donnees incomple- tes. — In: Raisonnement et meth. math, archeol. Paris, 1977. 116. H a b e r m a n S. J. Analysis of Frequency Data. Chicago. Univ. of Chicago Press, 1974. 117. H a 1 d a n e J. B. S. The approximate normalisation of a class of frequency — distribution. — Biometrika, 1937, vol. 29. 118. Hill M. O. Correspondence analysis a Neglected Multivariate Method. — Appl. Stat., 1974, vol. 23. 119. Hogg R. V. Adaptive Robust Procedures: a partial Review and some Suggestions for Future Applications and Theory — Journ. of Amer. Statist. Assoc, 1974, vol. 69. 120. H u b e r P. S. Robust Statistics. Review. — Annals of Math. Statistics, 1972, vol. 43. 121. H u b e r P. S. Robust estimation of a location parameter. — Annals of Math. Statistics, 1964, vol. 35. 122. Kruskal J. B. Multidimensional Scaling b,y Optimizing Goodness of Fit to Nonmetric Hypothesis. — Psychometrika, 1964, vol. 29, № 1. 123. LankasterH. O., Hamdan M. A. Estimation of the correlation coefficient in contigency tables with possibly nonmetrical characters. — Psychometrika, 1964, vol. 29. 124. Lillicfods H. W. On the Kolmogorov — Smirnov tests for normality with mean and variance unknown. — Journ. Amer. Statist. Assoc, 1967, vol. 62. 125. Macrae E-l. Ch. Matrix Derivatives With an Application to An Adaptive Linear Decision Problem. — Annals of Statis- Statistics, 1974, vol. 2, № 2. 126. Maronna R. A. Robust M-estimators of multivariate lo- location and scatter. — Annals of Statistics, 1976, vol. 4. 127. Meshalkin L. D. Maximum Number of Statisticaly sig- significant associations between risk factors and the frequency of an event in observational studies. —Biometrika, 1973, vol. 60, №1. 642
128. Meshalkin L. D. Approximation of multidimensional densities by normal distributions. — 7th International Biomet- ric Conference, Hannover, 1970. 129. Morris J. M. and a. o. Incidence and prediction of ischaemic heart disease in London busmen. Lancet, 12, 1966. 130. Pearson E., Sekar C. The efficiency of statistical to- tools and a criterion for the rejection of outlying observations. — Biometrika, 1936, vol. 28. 131. P 1 а с к e t t R. L. The Analysis of Categorical Data. London, Griffin, 1974. 132. P — STAT: A User-Oriented Laugauge for Statistical Analysis. Princeton Univ., Princeton, New Jersey. 133. S h e p p a r d R. M., Carroll J. D. Parametric repre- representation of nonlinear data structure. — In: Multivariate ana- analysis. N. Y., Acad. Press, 1966. 134. Sheppar d R. M. The Analysis of Proximaties: Multi- Multidimensional Scaling with an unknown Distanse Function. — Psichometrika, vol. 27, 1962. 135. SPSS: Statistical Package for the Social Sciences. Second edi- edition. Me Graw-Hill Book Company. N. Y., 1975. 136. Stephens M. A. Use of the Kolmogorov — Smirnov, Cra- mer-von Misese and related statistics without extensive tables. — Journ. Royal Statist. Soc, 1970, vol. 32. 137. Student. Errors of routine analysis. — Biometrika, 1927, vol. 19. 138. T i e t j e n G., Moore H. Some Grubb's type statistics for the detection of several outliers. — Technometrics, 1972, vol. 14. 139. TorgersonW. S. Multidimensional scaling. Theory and Methods. — Psychometricka, 1962, vol. 17. 140. Truett J., Cornfield J., К a n n e 1 W. J. A mul- multivariate analysis of the risk of coronary heart disease in Framing- ham. — Journ. Chron. Dis., 1967, 19. 141. T u к е у J. W. A survey of sampling from contaminated dis- distributions. In: Contributions to Prob. and Statist. (Ed. Olkin I. et al.) Stantord Univ. Press, 1960. 142. V e t t e г W. J. Derivatives Operations on Matrices. —IEEE Trans. Automatic Control, 1970, AC -— 15.
АЛФАВИТНО- ПРЕДМЕТНЫЙ УКАЗАТЕЛЬ Аксиома о существовании ве- вероятности события 82, 96 Аксиоматика А. Н. Колмогоро- Колмогорова 96 Алгоритм «ZET» 415, 430 Анализ закона распределения 32 — резко выделяющихся на- наблюдений 28 Аномальное наблюдение см. Экстремальное наблюдение Ансамбль статистический 43, 44—45, 48, 55 Апостериорное распределение 294 Апостериорно-модельный под- подход к заданию вероятностей 86 Апостериорно-частотный под- подход к вычислению вероятно- вероятностей 84—86 Априорное распределение 294 Априорный подход к вычисле- вычислению вероятностей 83—84 Асимметрия 149—150, 365—369 Асимптотическая дисперсия 263 — несмещенность 263 — эффективность 264 Асимптотические свойства оце- оценок 262—264 Асимптотическое распределение 262—263 — смещение 263 Байеса формула 92, 93 Байесовский подход к стати- статистическому оцениванию 294— 298, 299 Байесовский риск 294 Бернулли последовательность испытаний 159—160, 295 — теорема 231 464 Вариационный ряд 145. 158 288 Вероятностей распределение см. Распределение вероятностей Вероятностей теория см. Тео- Теория вероятностей Вероятностная бумага 336, 340, 360, 417 Вероятностное пространство: дискретное 81—93 непрерывное 94—100 Вероятность события 82 условная 89—90, 97 Взвешивание выборочных дан- данных 287 Взвешенные моменты 287, 345 Визуализация данных см. Дан- Данных визуализация Винзора среднее см. Среднее по Винзору Возможные значения случай- случайной величины 105—106, 156 Выборка 20, 115—118, 157 — двукратная 316 — объем 117 — основные способы ее орга- организации 118—121 — цензурированная 288 Генеральная совокупность 20, 115—118, 157 Гипотеза статистическая 301— 304 — простая 307 — сложная 307, 311—312 Гистограмма 326, 333—335, 360 Главные компоненты 351—354, 361 Границы применимости вероят- вероятностно-статистических методов 45^49, 55
Данные 427—428 ввод и хранение 325 визуализация 348—359, 435 группированные выборочные 177 интерпретация 19, 20, 21, 22 манипулирование 428 однородность 30 первичная статистическая об- обработка 28 просмотр 325—326, 428 распечатка 326 унифицированное представ- представление 330—332 Двумерные распечатки 326 Дисперсия 141 — обобщенная 153—155 — эмпирическая (выборочная) 142 Доверительная вероятность 265 Доверительные области (ин- (интервалы) 265, 289—294, 299 Документирование исследова- исследования 324—325, 359 Закон больших чисел 231 Зона (область) неопределен- неопределенности (безразличия) 317, 318 Интервальное оценивание 264— 265, 289—294 Информационная матрица (Фишера) 258—259, 292 Квантиль распределения 147— 149 Классификация объектов (при- (признаков) 38—40 Ковариация многомерного при- признака 138 Количество информации (Фи- (Фишера) 256 Комплекс условий (случайного эксперимента) 20 Корреляции коэффициент 155 Кривая Пирсона 63 Критерий Аббе 405—407 — Бартлетта 398 — Вилкоксона — Манна — Уитни 385, 391 — Eh 419 — Клотца 388—389, 391 — Колмогорова 369—375, 377—381, 420—421 — Крускала — Уоллиса 390 — Lk 419 — несмещенный 313 — нормальных клеток 385 — однородности 377—399 — отношения правдоподобия 309 — последовательный обобщен- обобщенный 321—322 — серий 402—404 — симметрии 390—393 — Смирнова 369—375, 377— 381, 421 — состоятельный 313 — t Стьюдента 395 — Тп 418 — 72 399, 422 _ Х2 363—365, 381—383, 421 — со2 372, 375, 376, 420, 447 Критерии статистические 300, 304—307 наиболее мощные 307, 309, 310 последовательные 316— 322 равномерно наиболее мощные 310 согласия 32 Критическая статистика 305 Лямбда-оценки см. Экспонен- Экспоненциально-взвешенные оценки Лямбда-связанное распределе- распределение 346 Массив исходных статистиче- статистических данных 26—27 Математико-статистические ме- методы (их назначение) 20 Математическое ожидание 135 Матрица информационная см. Информационная матрица — ковариаций 138 — корреляций 155 — наблюдений (плана) 26, 68—69, 280 Машинное ассистирование 25 Медиана распределения (слу- (случайной величины) 140, 328 Межквартильный разброс 340 «Меню» 325 Мера информативности 349, 351, 352, 354, 355 Метод главных компонент см. Главные компоненты — максимального правдоподо- правдоподобия 266, 299 — моментов 275, 299 — наименьших квадратов 278, 299 Метрическое шкалирование 465
многомерное 358—359, 361 МНК-оценки 279—284 Мода, модальное значение 140, 328 Моделирование математическое 13, 60—65 — реалистическое 57, 60—65 — статистическое 33, 57, 65— 66, 201—207 Модель геометрическая 21 — закона распределения 159 близкая к нормальной, не учитывающая наличие нену- ненулевых значений асимметрии и эксцесса 187 — засорения Шурыгина 189 ¦— математическая 23, 24, 35, 48, 60, 56—60, 66—74 — регрессии 36—38, 68—71, 74 — смеси распределений 188 — Тьюки засоренного нормаль- нормального закона 189, 285, 344, 416— 417 Мощность критерия 307, 312 Независимость (статистиче- (статистическая) последовательности на- наблюдений 31 случайных величин 134, 157 событий 90—91 Неймана— Пирсона лемма 309 Непараметрйческие методы оценки плотности 355, 360 Неравенство Рао— Крамера — Фреше (неравенство информа- информации) 258, 298 Несмещенность оценки 250, 299 Несостоятельная оценка (при- (пример) 274 Нецентральные распределения 197—198, 445—447 Нормальное распределение см. Распределение вероятностей за- закон нормальный Область неопределенности (продолжения наблюдений) см. Зона неопределенности Объем выборки, необходимый для различения гипотез 314, 317 Оперативная характеристика критерия 312 Описание массива, исследова- исследования, способа анализа, перемен- переменных 324—325 Описательная статистика 324— 361 Оптимизационная формулиров- формулировка задач статистики 34—41, 42 Отношение правдоподобия 296, 308 принцип 306, 308—310 Оценки неподвижной точки 413—414 — «сверхэффективные» см. Сверхэффективные оценки — состоятельные 250, 299 — статистические см. Стати- Статистики (статистические оценки) — Хампеля 344—345 Оцифровка 332, 360, 432—434 Ошибка первого рода 304—305, 307, 312 — второго рода 307, 312 Однородность исходных дан- данных 30 Пакеты программ 15, 422—436 Параметр масштаба (оценива- (оценивание) 338—348 — нецентральности 198 — сдвига (оценивание) 338— 348 Параметризация генеральной совокупности (закона распре- распределения) 32 План сбора статистической ин- информации 25—26 Порядковые статистики см. Статистика порядковая Последовательная схема на- наблюдений 316 Последовательный критерий см. Критерий последовательный Преобразования случайных ве- величин 239—245, 336—337, 360, 429 Программное обеспечение при- прикладной статистики 15, 422— 436 Пропущенные («стертые») на- наблюдения 29, 408—415, 429— 432 Процентная точка распределе- распределения 148 Псевдослучайные числа 202 Размер критерия см. Уровень значимости критерия Распределение порядковых ста- статистики 145—146 406
Распределение вероятностей: - закон 109—110 — бета (Р) 200, 226—227, 443-444 — биномиальный 160—162, 208, 293, 451 — Вейбулла 181—184, 216— 219 — гамма (у) 199, 224—225, 241 — геометрический 451 — гипергеометрический 163— 165, 208—209 — двусторонний экспоненци- экспоненциальный (Лапласа) 185, 218— 219 — Коши 186—187, 220—221 — логарифмически - нормаль- нормальный 173—178, 214—215, 240, 266 — нормальный (гауссовский) 169—171, 206* двумерный 171—173 многомерный 173, 206, 448—450 — отрицательный биноми- биномиальный 162—163, 204, 208, 451 — Парето 185—186, 220— 221 — полиномиальный (мульти- (мультиномиальный) 167—169, 210— 211, 311 — Пуассона 165—167, 205, 210, 261—262, 270, 277, 451 — равномерный (прямо- (прямоугольный) 180, 201—203, 214—217, 271, 277 — совместный (многомер- (многомерный) 111, 157 — Стьюдента (t) 193, 222-^ 223, 444—445 — условный 114—115, 157 — F (Фишера) 194—195, 224—225 — «хи-квадрат» (х2) 190, 222—223, 440—442 — частный (маржинальный) 113—114, 157 — экспоненциальный (пока- (показательный) 181—185, 205, 216-217, 260-261, 273, 278 нецентральное 197—198, 445—447 функция 122 Расстояние Колмогорова 355 — Махаланобиса 332, 349, 355 Робастные (устойчивые) оцен- оценки 268 Ряды Грама— Шарлье и Эд- жворта 151 Сведение к двоичным (буле- (булевым) переменным 330 «Сверхэффективные» оценки 261 Свойства статистической устой- устойчивости (однородности) усло- условий эксперимента 44—49 Случайная величина 103, 156 дискретная 107 количественная 106—107 многомерная (векторная) 107 непрерывная 107 номинальная (классифи- (классификационная) 106—108 одномерная (скалярная) Ю6—107 ординальная (порядко- (порядковая) 106—108 Случайных величин типы 106 Смеси распределений 188—189, 344 Снижение размерности иссле- исследуемого факторного простран- пространства 40—41, 354—358 Событие случайное 76 достоверное 80 невозможное 80 противоположное 80 составное (разложимое) 78 элементарное 76 Событий полная система 80 — произведение (пересечение) 79 — разность 79 — система несовместимых 80 — сумма 79 — элементарных пространство 76—78 Совпадений обработка 393— 395 Способ принятия решений ве- вероятностно-статистический 51— 54 статистический 50 теоретико-вероят- теоретико-вероятностный 50 467
Среднее значение выборочное 138 гармоническое 139 геометрическое 139 теоретическое 138 Среднеквадратическая оценка 341 Среднеквадратическое отклоне- отклонение 142—143 Средняя абсолютная ошибка 341—342 Среднее по Винзору 343—344, 436 Статистика конкретно-содержа- конкретно-содержательная (экономическая, меди- медицинская и др.) 19, 41 Статистика критическая см. Критическая статистика — математическая 17, 41, '55 — порядковая 145, 158, 451 — 453 — прикладная 17, 18, 19, 41 Статистики (статистические оценки) 248—249 Статистическая проверка гипо- гипотез 300—323 Статистическое исследование зависимостей 35—38 Статистическое моделирование см Моделирование статистиче- статистическое Статистическое оценивание па- параметров 247 Таблицы сопряженности 337— 338, 360 Теория вероятностей 44, 55 Теорема сложения вероятно- вероятностей 86—88 умножения вероятностей 88—90 — центральная предельная 235 многомерная 23G Унификация типа переменных (записи исходных данных) 31, 330—332 Урезание распределения 289 Урезанное среднее 343—344, 436 Уровень значимости критерия 304—305, 312 Устойчивость статистическая 230, 232-234 — статистического вывода 34— 35 Устойчивые к отклонениям от нормальности методы и оценки 341—348, 361 Формула Байеса см. Байеса формула — свертки (композиции) 243 — полной вероятности 91 Функционал качества метода статистической обработки дан- данных 22, 23, 35, 37, 39 Функция мощности критерия си. Мощность критерия Функция от случайных вели- величин 239 — плотности вероятности 125 — правдоподобия 255 — правдоподобия логарифми- логарифмическая 269 — распределения вероятностей см. Распределение вероятностей функция Хвост распределения 23G Цензурирование выборок 288 Центральная предельная теоре- теорема см. Теорема центральная предельная Чебышева неравенство 229 Шкала измерений 327—332, 359—360 интервальная 329 количественная 329—330 номинальная 327—328 отношений 330 порядковая (ординаль- (ординальная) 328—329 Эксперимент случайный 75—76 Экспоненциально-взвешенные оценки (эв-оценки) 345—348, 418—419, 436 Экстремальные наблюдения 326, 344, 418—420, 435—436 -, Эксцесс (распределения) 150— 151, 365—369 Этапы статистической обработ- обработки данных 24—34, 42 — моделирования 60—62, 73 Эффективность оценки 253 4G8
CONTENTS Preface 13 Part I. APPLIED STATISTICS: ITS CONTENT AND DESTINATION (general methodological principles) 17 Chapter 1. Applied statistics as a branch of the science 17 1.1. Relation of the applied statistics to other statistical disciplines and main steps of the statistical research 17 1.2. Optimisational approach to basic statistical problems and robustness of statistical conclusions 34 Conclusions . 41 Chapter 2. Probability theory method of reasoning in ap- applied statistics 43 2.1. Probability theory and conditions of its applicability 43 2.2. Relation between probability theory and mathemati- mathematical statistics 50 Conclusions 55 Chapter 3. Mathematical models in applied statistics 56 3.1. What are the mathematical models needed for ... 56 3.2. General logical scheme and basic steps of the mea- meaningful mathematical modelling 60 3.3. Concept of Monte — Carlo modelling 65 3.4. Objections to mathematical modelling 66 3.5. Types of mathematical models the most frequently used in applied statistics 68 Conclusions 73 Part II. FOUNDATIONS OF MATHEMATICAL APPARA- APPARATUS OF PROBABILITY THEORY 75 Chapter 4. Rules of actions with random events and proba- probabilities of their occurrence 75 4.1. Discrete probabilistical space 75 4.2. Continuous probabilistical space (A. N. Kolmogorov's axiomatics) 94 Conclusions 100 469
Chapter 5. Random variables 102 5.1. Definition and examples of random variables ... 102 5.2. Possible and observed values of random variables 105 5.3. Types of random variables 106 5.4. Distributions law of random variable. Parent popu- population and sampling from it 109 5.5. Presentation of distribution law: distribution functi- function, density function and their sample (emptrical) analogies 121 5.6. Basic numerical characteristics of random variables and their sample analogies 134 Conclusions 156 Chapter 6. Models of distribution laws most widely used in statistical research 159 6.1. Distribution laws used'for description of mechanisms of real systems 6.2. Distribution laws used in realization of statistical 159 technique 190 6.3. Monte — Carlo modelling of random variables ... 201 Conclusions 207 Chapter 7. Basic results of probability theory 228 7.1. Tchebycheff inequality 228 7.2. Statistical stability of sample characteristics: law of large numbers and its consequences 230 7.3. Special role of normal distribution. Central limit theorem 234 7.4. Distributions law of the function from random variables 239 Conclusions 244 Part III. FOUNDATION OF MATHEMATICAL STATIS- STATISTICS 246 Chapter 8. Statistical parameter estimation 246 8.1. Introduction to problem of parameter estimation 247 8.2. Maximum likelihood function. Information about unknown parameter contained in n independent observations 254 8.3. Rao — Cramer — Freche inequality and measurment of estimators efficiency 257 8.4. Estimators asymptotical properties 262 8.5. Interval estimation. Construction of confidance re- regions 264 8.6. Methods of unknown parameters estimation . . . 265 Conclusions 298 Chapter 9. Statistical verification of hypotheses (statisti- (statistical tests) 300 9.1. Basic types of hypotheses checked during statistical data handling 301 9.2. General logical scheme of statistical test .... 304 9.3. Construction of statistical test; principle of likelihood ratio 308 470
9.4. Characteristics of quality of statistical test .... 312 9.5. Sequential scheme of decision making (sequential tests) 316 Conclusions 322 Part IV. INITIAL STATISTICAL TREATMENT OF DA- ТА 324 Chapter 10. Descriptive statistics 324 10.1. Research documentation. Data check, input into computer and keeping 324 10.2. Measurment scales 327 10.3. Study of empirical distributions 333 10.4. Estimators of location and scale parameters . . . 338 10.5. Visualization of multidimensional data 348 Conclusions 359 Chapter 11. Preliminary analysis of nature of data ... 361 11.1. Test of correspondance of selected theoretical dis- distribution model to observed data (goodness of fit testes) 362 11.2. Testing of hypotheses of homogeneity and symmet- symmetry of distribution 377 11.3. Testing of independancy and stationarity of time- series 402 11.4. Methods of statistical treatment in a case when there are some missing data 408 11.5. Analysis of outliers : 415 Conclusions 420 Chapter 12. Software of applied statistics and some ques- questions of computing technique 422 12.1 Software of applied statistics 422 12.2. Calculation of distribution functions and inverse to its 437 Conclusions 453 Notation 454 Bibliography 457 Index : 464
Сергей Артемьевич Айвазян, Игорь Семенович Енюков, Лев Дмитриевич Мешалкин ПРИКЛАДНАЯ СТАТИСТИКА ОСНОВЫ МОДЕЛИРОВАНИЯ И ПЕРВИЧНАЯ ОБРАБОТКА ДАННЫХ Рецензенты В. В. Федоров, Е. Г. Ясин Зав. редакцией Р. А. Казьмина Редактор Л. Н. Вылегжанина Мл. редакторы Н. Е. Константинова, Е. С. Уварова, В. Л. Долгова Техн. редакторы К. К. Букалова, Л. Г. Челышева Корректоры Т. М. Васильева, Я. Б. Островский, М. В. Шилова к И. П. Елкина Худож. редактор М. К. Гуров Переплет художника Н. А. Пашуро ИБ № П72 Сдано в набор 24.06.82. Подписано в печать 24.12.82. А13436. Формат 84хЮ87з2. Бум. тип. № 2. Гарнитура «Литературная». Печать, высокая. П. л. 14,75. Усл. п. л. 2^78. Уч.-изд. л. 25,2. Тираж 17 000 экз. Заказ 1035. Цена 1 р. 40 к. Издательство «Финансы и статистика», Москва, ул. Чернышевского, 7 Московская типография № 4 Союзполиграфпрома при Государственном комитете СССР по делам издательств, полиграфии и книжной торговли, 129041, Москва, Б. Переяславская ул., д. 46