Text
                    СТАТИСТИЧЕСКАЯ
 ОБРАБОТКА
 РЕЗУЛЬТАТОВ
 ЭКСПЕРИМЕНТОВ
 НА  МИКРО-ЭВМ
И  ПРОГРАММИРУЕМЫХ
КАЛЬКУЛЯТОРАХ


СТАТИСТИЧЕСКАЯ ОБРАБОТКА РЕЗУЛЬТАТОВ ЭКСПЕРИМЕНТОВ НА МИКРО-ЭВМ И ПРОГРАММИРУЕМЫХ КАЛЬКУЛЯТОРАХ Ленинград ЭНЕРГОАТОМИЗДАТ Ленинградское отделение 1991
ББК 32.973—01 С 78 УДК 681.31 -181.48 С78 Статистическая обработка результатов эксперимен¬ тов на микро-ЭВМ и программируемых калькуляторах / А. А. Костыяев, П. В. Миляев, Ю. Д. Дорский и др.: Л.: Энергоатомиздат. Ленингр. отд-ние, 1991. — 304 с.: ил. ISBN 5-283-044^9-3 Рассмотрены математические *лодели физических и эконо¬ мических экспериментов. Даются рекомендации по выбору схемы статистического анализа экспериментальных данных, приводятся сведения о статистических методах. Приведены многочисленные прикладные программы для микрокальку, ляторов м ммкро-ЭВМ (на языках "бейсик", "квейсик", "форт¬ ран") . Для инженерно-технических работников, занимающихся обработкой экспериментальных данных и наблюдений. ’ 2404000000-107 _ _ ° 051 (01)-91 210-90 ББК 32.973-01 Производственное издание Костылев Александр Александрович, Миляев Павел Васильевич, Дорский Юрий ‘ Дмитриевич, Левченко Василий Кузьмич, 'Чику- лаева Галина Анатольевна СТАТИСТИЧЕСКАЯ ОБРАБОТКА РЕЗУЛЬТАТОВ ЭКСПЕРИМЕНТОВ НА МИКРО-ЭВМ И ПРОГРАММИРУЕМЫХ* КАЛЬКУЛЯТОРАХ Редактор С /7. Лев ков и ч, Художник обложки С В. Алексеев. Худо¬ жественный редактор Т, Ю. Теплицкая. Технический редактор Н. А Минеева. Корректор Н. Д. Быкова. Оператор И. Л, Попилева И Б № 2449 Подписано в печать с оригинала-макета 25.03 91. Формат 84хТ08,/э2. Бумага газетная. Гарнитура Универс. Печать высокая. Уел. пец, л. 15,96. Уел. кр.-отт. 16,17. Уч.-изд. л. 17,42. Тираж 25 000 экз. Заказ 1130. Цена 1 р. 50 к. Энергоатомиздат, Ленинградское отделение. 191065, Ленинград, Д-65, Марсово поле, 1. Ордена Октябрьской Революции, ордена Трудового Красного Знамени Ленинградское производственно-техническое объединение «Печатный Двор» имени А. М. Горького при Госкомпечати СССР. 197110, Ленинград, П-110, Чкаловский пр., 15. fib А. А. Костылев, Л. В. Миляев, Ю. Д. Дорский, ISBN5JTO3TтТ5Г-Ъ В. К. Левченко, Г. А. Чикулаева, 1991
ПРЕДИСЛОВИЕ По-видимому, нет необходимости доказывать важность экспериментальных исследований для научно-технического прогресса. Эксперименты представляют собой мощное сред¬ ство получения- новых знаний не только во всех областях естественных и технических наук, но и в экономике, со¬ циологии, политике и военном деле, являются непременным условием совершенствования производства и эксплуатации новой техники. Их масштабы неуклонно растут, и к их вы¬ полнению привлекается все бол'ее широкий круг научных и инженерно-технических работников. Одним из основных этапов любого эксперимента явля¬ ется статистическая обработка экспериментальных данных» В конечном итоге она направлена на построение математи¬ ческой модели исследуемого объекта или явления, объеди¬ няющей как априорную, так и экспериментальную инфор¬ мацию. В зависимости от цели эксперимента (исследование, управление, контроль) эта модель может использоваться по-разному: для предметно-смыслового анализа и построения физической (эконометрической и др.) модели, для прогно¬ зирования состояния объекта или явления*, управления им или оптимизации параметров, для котроля состояния или работоспособности» Внимание экспериментаторов к изучению и широкому практическому применению статистических методов обра¬ ботки в последние годы резко возросло. Это связано, с одной стороны, с повышением требований к качеству проведения экспериментов, к их экономичности, а с другой стороны — с тем, что в связи с разработкой и широким распростра¬ нением персональных и микро-ЭВМ, микропроцессоров и программируемых микрокалькуляторов появилась воз¬ можность их массового внедрения - в экспериментальные з
установки и измерительные системы, практического исполь¬ зования каждым исследователем или производственником. Применение статистических методов обработки экспери¬ ментальных данных требует знания основных положений теории вероятностей и математической статистики, умелого использования принципов и приемов программирования современных вычислительных средств, объединенных с аппа¬ ратными средствами и входящих в состав измерительно-вы¬ числительных систем. Кроме того, в связи с усложнением ал¬ горитмов обработки данных необходимы достаточно глубо¬ кие знания основных вычислительных методов. Статистические методы, методы вычислительной мате¬ матики и программирование на ЭВМ традиционно изучаются независимо. Сейчас, когда резко повысились требования к интенсивности процессов обучения и труда исследова¬ телей и инженерно-технических работников, этот путь уже не позволяет в требуемые сжатые сроки сформировать гра¬ мотного специалиста, умеющего решать комплексные практи¬ ческие задачи. В связи с этим имеется реальная потребность в "интегрирующих" работах, в которых представлялся бы развернутый справочный материал по основным задачам ста¬ тистического анализа экспериментальных данных, методам их решения, в программном обеспечении, описании библио¬ теки прикладных программ, написанных на языках высокого уровня и ориентированных на широкий круг пользователей. К настоящему времени опубликовано мало работ, со¬ четающих в себе статистический и "машинный" подход. Особенно мало литературы, ориентирующей на применение микро-ЭВМ и микрокалькуляторов, которые используются исключительно широко (единственным известным авторам исключением является работа [22], которая, как представ¬ ляется, не исчерпала тему). Цель настоящей книги - хотя бы частично заполнить этот пробел. Изложение основных теоретических сведений о методах математической статистики и вычислительной математики не претендует на полноту и математическую строгость. Поэтому основные результаты даются часто без формальных доказательств, а лишь сопровождаются ссылками на работы, где они приводятся и где обсуждаются более подробно. В то же время авторы постарались систематизированно рас¬ смотреть" наиболее распространенные и важные вопросы, возникающие на практике у специалиста по обработке экспе¬ риментальных данных. В связи с этим содержание теорети¬ 4
ческой части книги несколько шире, чем toi материал, ко¬ торый доведен до конкретных вычислительных программ. Представляется, что самостоятельное написание лрограмм является полезным и необходимым упражнением для практи¬ ческого овладения материалом. Авторы также не стремились включить в книгу полный набор всех возможных вычисли¬ тельных подпрограмм в каждой из модификаций (подпро¬ грамм из БНТР/РАФОС, на языках "фортран", "бейсик", "квейсик", программ для программируемых калькуля¬ торов) . В некоторых случаях полагалось, что подпрограмма на одном из языков может быть "чисто механически" пере¬ писана на другой. В других случаях подпрограммы вообще не приводилось потому, что их реализация представляется тривиальной. Это относится, например, к программам вычи¬ сления оценок математического ожидания и дисперсии, про¬ верки гипотез, которые на языке высокого уровня может написать даже начинающий программист. В то же время аналогичные программы для программируемых кальку¬ ляторов приведены, поскольку их написание в условиях ^жестких ограничений на объем программы и число регистров памяти оказывается порой делом непростым Работа авторского коллектива над книгой распреде¬ лилась следующим образом: глава 1 написана А. А. Косты- левым (§ 1.1), П. В. Миляевым (§ 1.2), Г. А. Чикулаевой (§ 1.3) и Ю. Д. Дореким (§ 1.4), главы 2, 4 — написаны А. А. Костылевым, главы 3, 5 — А. А. Костылевым, Г. А. Чи¬ кулаевой, В. К. Левченко, Ю. Д. Дорским, приложения со¬ ставлены Г. А. Чикулаевой. Отзывы и пожелания просьба направлять по адресу: 191065, Ленинград, Марсово лоле, д. 1, Ленинградское отде¬ ление Энергоатомиздата. Авторы
ГЛАВА ПЕРВАЯ ОСОБЕННОСТИ ПОСТРОЕНИЯ И ПРОГРАММНОГО ОБЕСПЕЧЕНИЯ ИЗМЕРИТЕЛЬНО-ВЫЧИСЛИТЕЛЬНЫХ СИСТЕМ НА БАЗЕ МИКРОЭВМ И ПРОГРАММИРУЕМЫХ МИКРОКАЛЬКУЛЯТОРОВ 1.КОБ1ЦИЕ СВЕДЕНИЯ ОБ ИЗМЕРИТЕЛЬНО-ВЫЧИСЛИТЕЛЬНЫХ СИСТЕМАХ, ИСПОЛЬЗУЕМЫХ ПРИ ПРОВЕДЕНИИ НАУЧНЫХ ЭКСПЕРИМЕНТОВ Общая характеристика и классификация научных экспе¬ риментов. Каждый эксперимент представляет собой сово¬ купность трех составных частей: исследуемого явления (процесса, объекта), условий и средств проведения экспери¬ мента. Эксперимент проводится в несколько этапов: предметносодержательное Изучение исследуемого про¬ цесса и его математическое описание на основе имеющейся априорной информации, анализ и определение условий и средств проведения эксперимента; создание условий для проведения эксперимента и функ¬ ционирования исследуемого объекта в желаемом режиме, обеспечивающем наиболее эффективное наблюдение за ним; сбор, регистрация и математическая обработка экспери¬ ментальных данных, представление результатов обработки в требуемой форме; содержательный анализ и интерпретация результатов эксперимента; использование результатов эксперимента, например кор¬ рекция физической модери явления или объекта, принятие решения о состоянии объекта, применение модели для про¬ гноза, управления или оптимизации и др. В зависимости от типа исследуемого объекта (явления) выделяют несколько классов экспериментов: физические, инженерные, медицинские, биологические, экономические, социологические и др. Наиболее глубоко разработаны общие вопросы проведения физических и инженерных эксперимен¬ тов, в которых исследуются естественные или искусственные физические объекты (устройства) и протекающие в них про¬ цессы. Как правило, при их проведении исследователь может 6
неоднократно повторять измерения физических величин в сходных условиях, задавать желаемые значения входных (объясняющих) переменных, изменять их в широких масшта¬ бах, фиксировать или устранять влияние тех факторов, за¬ висимость от которых в настоящий момент не исследуется. Далее в основном будут рассматриваться именно эти классы экспериментов. В экспериментах других классов аналоги*- ные возможности существенно ограничены. В частности, для эконометрических экспериментов характерен малый объем экспериментальных данных, зачастую отсутствие воз¬ можностей повторения эксперимента в аналогичных усло¬ виях, вдояние большого числа неуправляемых и неконтро¬ лируемых факторов. Тем не менее некоторые методы, ис¬ пользуемые при проведении физических и инженерных экспе¬ риментов, например методы статистической обработки дан¬ ных, могут с успехом применяться и в нетехнических задачах. Классификацию экспериментов можно провести по еле* дующим признакам: степени близости объекта, непосредственно используе¬ мого в эксперименте, к объекту, в отношении которого пла¬ нируется получение новой информации (натурный, стендо¬ вый или полигонный, модельный* вычислительный экспери¬ менты) ; цели проведения — исследование, испытание (контроль), управление (оптимизация, настройка); степени влияния на условия проведения эксперимента (пассивный и активный эксперименты); степени участия человека (эксперименты с использова¬ нием автоматических, автоматизированных и неавтоматизи¬ рованных средств проведения эксперимента — средств, ис¬ пользуемых для создания и изменения условий проведения эксперимента, сбора и обработки экспериментальных дан¬ ных) . Результатом эксперимента в широком смысле является теоретическое осмысление экспериментальных данных — ре¬ зультатов непосредственного измерения, получаемых в ходе эксперимента, и установление законов и причинно-след- ственных связей, позволяющих предсказывать ход интере¬ сующих исследователя явлений, выбирать такие условия (воздействия), при которых удается добиться требуемого или наиболее благоприятного их протекания. В более узком смысле под результатом эксперимента часто понимается математическая модель, устанавливающая формальные функ- > 7
циональные или вероятностные связи между различными переменными, процессами или явлениями. Получению именно этого результата служат хорошо разработанные методы статистической обработки экспериментальных данных. Необ¬ ходимо отметить, что получение в ходе эксперимента мате¬ матической модели является необходимым, но не достаточ¬ ным условием результативности эксперимента и его полез¬ ности для развития соответствующей области науки. Это в особой степени относится к нетехническим отраслям зна¬ ния. Выявленные статистические связи между различными величинами или, процессами могут не соответствовать их гричинной зависимости. Вопрос о наличии причинных отно¬ шений между наблюдаемыми величинами должен решаться исследователем на основании предметно-содержательного анализа эксперимента, которым должен непременно и на¬ чинаться и заканчиваться эксперимент. Чтобы подчеркнуть эту мысль, приведем характерное высказывание А. А. Чупро- ва: "Задача истолкования подмеченной связи представляется нередко и наиважнейшей и наитруднейшей. Обрабатывая сходным образом эмпирические данные, которые имеют совершенно одинаковый вид, исследователь приходит в раз¬ ных случаях к выводам, глубоко различным по их внутрен¬ нему смыслу... Правильное истолкование подмечаемой связи представляемся особенно существенным, когда статисти¬ ческое знание привлекается к обоснованию жизненно важных решений и практических мероприятий. Тут знание связей, остающихся без истолкования или неверно истолковывае¬ мых, часто хуже полного незнания. Недостаточное внимание к этому обстоятельству является одним из злейших статисти¬ ческих преступлений. Здесь и корень наиопаснейших для статистики нападок на нее" [78, с. 126]. Содержательный анализ математических моделей обла¬ дает спецификой для различных предметных областей^ По¬ этому рассмотрение этих вопросов, несмотря на всю их важ¬ ность, выходит за рамки настоящей книги и в дальнейшем основное внимание будет уделяться решению более узкой задачи — построению математической модели явления (про¬ цесса, устройства) по экспериментальным данным. Общие сведения о средствах проведения эксперимента. Исходная информация для построения математической модели исследуемого явления получается с помощью средств проведения эксперимента, представляющих собой сово¬ купность средств измерений различных типов (измеритель¬ 8
ных устройств, преобразователей и принадлежностей к ним), каналов передачи информации и вспомогательных устройств для обеспечения условий проведения эксперимента. В раз¬ личных предметных областях средства проведения экспери¬ мента могут называться по-разному (например, экспери¬ ментальная установка, информационно-измерительная си¬ стема, измерительная система), а также могут иметь много¬ численные конкретные узкоспециализированные наименова¬ ния [13, 21, 45, 50, 52, 60, 68]. В дальнейшем будем пользо¬ ваться термином "измерительная система". В зависимости от целей эксперимента иногда различают измерительные информационные (исследование), измерительные контроли¬ рующие (контроль, испытание) и измерительные управляю¬ щие (управление, оптимизация) системы [68], которые различаются в общем случае как составом оборудования, так и сложностью обработки экспериментальных Данных. Состав средств измерений, входящих в измерительную систему и выполняющих функции датчиков сигналов, форми- рователей воздействий на исследуемый объект, в существен¬ ной степени определяется его математической моделью, которая используется при^его планировании и строится на основании предварительной информации. То же самое можно сказать и о предварительном выборе методов обработки экспериментальных данных, который может в дальнейшем уточняться по мере получения экспериментальной информа¬ ции об объекте исследования и условиях проведения экспе¬ римента (в частности, о вероятностных характеристиках погрешностей измерения). В связи с возрастанием сложности .экспериментальных исследований, что проявляется в увеличении числа изме¬ ряемых величин, повышением требований к качеству мате¬ матической модели объекта исследований и оперативности ее получения в состав современных' измерительных систем включаются вычислительные средства различных классов. Эти средства ("большие" ЭВМ, персональные, мини- или микро-ЭВМ, программируемые микрокалькуляторы) не только выполняют задачи сбора и математической обработки экспериментальной информации, но и решают задачи управ¬ ления ходом эксперимента и автоматизации функциониро¬ вания измерительной системы [50, 60]. Эффективность при¬ менения вычислительных средств при проведении экспери- k ментов проявляется в следующих основных направлениях: сокращении времени подготовки и проведении экспери¬ 9
мента в результате ускорения сбора и обработки информации, повышения оперативности управления режимами объекта исследования; повышении точности и достоверности результатов экспе¬ римента на основе использования более сложных и эффек¬ тивных алгоритмов обработки измерительных сигналов, уве¬ личении объема используемых экспериментальных данных; сокращении числа исследователей, участвующих в прове¬ дении эксперимента и в появлении возможнорти создания автоматических систем, способных выполнять свои задачи в тех условиях, в которых пребывание человека нежела¬ тельно или невозможно; усилении контроля за ходом проведения эксперимента и повышении возможностей его оптимизации; повышении оперативности доведения результатов экспе¬ римента до потребителя в наиболее удобной форме. Таким образом, современные средства проведения экспе¬ римента представляют собой, как правило, измерительно-вы¬ числительные системы (I4BC) или комплексы, снабженные развитыми вычислительными средствами. При обосновании структуры и состава И ВС необходимо решить следующие основные задачи: определить состав аппаратной части ИВС (средств изме¬ рений, вспомогательного оборудования); выбрать тип ЭВМ, входящей в состав ИВС; установить каналы связи между ЭВМ, устройствами, входящими в аппаратную часть ИВС, в том числе^и нестан¬ дартными, и потребителем информации; разработать программное обеспечение ИВС. При выборе типа ЭВМ необходимо учитывать требо¬ вания по оперативности получения результатов эксперимен¬ тов, сложность алгоритмов обработки экспериментальных данных и объем получаемой информации. Это позволит оценить требуемые объемы оперативного и долговременного запоминающих устройств, скорость выполнения операций. В значительной степени эти требования определяются слож¬ ностью объекта исследований и соответственно его матема¬ тической моделью. Основные этапы и режимы статистический обработки экспериментальных данных. В арсенале средств, которыми должен владеть современный экспериментатор, статисти¬ ческие методы обработки и анализа данных занимают особое место. Это связано с тем, что -результат любого, достаточно И)
сложного эксперимента не Может быть получен без обра¬ ботки экспериментальных данных. В связи с этим следует заметить, что широко используемый в литературе, в том числе и вынесенный в название данной книги, термин "обра¬ ботка результатов эксперимента", так же как и. близкий к нему по смыслу термин "обработка результатов измере¬ ний", является, строго говоря, не совсем корректным. Сформулируем кратко основные задачи и этапы статисти¬ ческой обработки экспериментальных данных [1, 2, 12, 13, 19,22,26,30,31,36,52,74]. 1. Содержательный анализ эксперимента, построение априорной вероятностной математической модели источника экспериментальных данных (модели объекта исследования, средств и условий проведения эксперимента). 2. Составление плана эксперимента, в частности, опре¬ деление значений независимых переменных, выбор тестовых сигналов,, оценка объема наблюдений. Предварительное обоснование и выбор методов и алгоритмов статистической обработки экспериментальных данных. 3. Проведение непосредственно экспериментальных иссле¬ дований, сбор экспериментальных данных, их регистрация и ввод в ЭВМ. 4*_Дредверительная статистическая обработка данных, предназначенная, в первую очередь, для проверки выполнения предпосылок, лежащих в основе выбранного статистического метода построения стохастической модели объекта исследо¬ ваний, а при необходимости — для коррекции априорной модели и изменения решения о выборе алгоритма обработ¬ ки. В ходе первичной обработки обычно решаются частные задачи: анализ и- отбраковка промахов и сбоев (аномальных измерений), восстановление пропущенных измерений, сжатие измерительной информации (проверка однородности и объ¬ единение серий измерений, группировка данных, оценка параметров измеряемых ветчин}, исследование законов распределения наблюдаемых величин и др. (более подробно см. гл. 2). 5. Составление детального плана дальнейшего статисти¬ ческого анализа экспериментальных данных. 6. Собственно статистическая обработка эксперименталь¬ ных данных (вторичная, полная, итоговая обработка),. на¬ правленная на построение модели объекта исследования, и статистический анализ ее качества. Иногда на этом же этапе решаются и задачи использования построенной модели, 11
например: определяется оптимальное управляющее воздей¬ ствие на объект, оптимизируются его параметры, произво¬ дится экстраполяций его состояния. 7. Формально-логическая и содержательная интерпре¬ тация результатов экспериментов, принятие решения о про¬ должении или завершении эксперимента, подведение итогов исследования. Статистическая обработка экспериментальных данных может быть осуществлена в двух основных режимах [39, 74]. В первом режиме сначала производится сбор и регистра¬ ция полного объема экспериментальных данных и лишь затем они обрабатываются. Этот вид обработки называют off-line-обработкой,' апостериорной обработкой, обработкой данных по выборке полного (фиксированного) объема. Достоинством этого режима обработки является возмож¬ ность использования всего арсенала статистических методов анализа данных и, соответственно, наиболее полное извле¬ чение из них экспериментальной информации. Однако опера¬ тивность такой, обработки может не удовлетворять потреби¬ теля, кроме того, при ее реализации ужесточаются требования к емкости памяти ЭВМ, управление ходом эксперимента почти невозможно. Во втором режиме обработка наблюдений производится параллельно с их получением. Этот вид обработки называют оп-Нпе-обработкой, обработкой данных по выборке нара¬ стающего объема, последовательной обработкой данных. В этом режиме существенно снижаются требования к емкости памяти, появляется возможность экспресс-анализа резуль¬ татов эксперимента и оперативного управления его ходом. Как правило, только таким образом удается реализовать обработку данных в так называемом "реальном" масштабе времени. Этот режим обработки основывается главным обраэом на применении рекуррентных алгоритмов. К его недостаткам следует отнести более сильную зависимость от объема априорной информации об объекте исследований, более узкие возможности по варьированию методами ста¬ тистического анализа в целях получения наиболее адекват¬ ной модели явления. При рассмотрении методов статистической обработки данных необходимо анализировать эффективность используе¬ мых вычислительных алгоритмов. При этом качество алго¬ ритма обработки может быть охарактеризовано устойчи¬ востью и точностью получаемого решения, его оператив- 12 <
ностью, необходимым объемом памяти и быстродействием вычислительных средств, универсальностью алгоритма и др. Основу вычислительных алгоритмов, используемых при реализации важнейших статистических методов — регрессион¬ ного, дискриминантного и факторного анализов, - состав¬ ляют методы решения систем линейных алгебраических уравнений. Для обоснованного выбора и (или) оценки воз¬ можностей разрабатываемых или используемых алгоритмов и вычислительных программ необходимо иметь представле¬ ния об их сути, сильных и слабых сторонах. Поэтому, напри¬ мер, приводимый в гл. 4 материал, посвященный вычисли¬ тельным аспектам метода наименьших квадратов, не явля¬ ется второстепенным, а занимает центральное положение. Как правило, современные ЭВМ различных классов имеют достаточно полное программное обеспечение, позво¬ ляющее решать все основные задачи статистической обработ¬ ки экспериментальных данных и реализующее соответствую¬ щие вычислительные процедуры (см. ниже). Поэтому в большинстве случаев исследователю нет необходимости пол¬ ностью разрабатывать программу обработки данных в про¬ водимом эксперименте: достаточно разработать конкретную вызывающую программу и включить в нее обращений к стандартным подпрограммам, набор которых определяется конкретными задачами эксперимента,. Однако "механиче¬ ское" использование статистических и вычислительных процедур без понимания их сути и возможностей может привести к абсурдным результатам и дискредитировать эти эффективные методы. Общие сведения об основных статистических методах. При ре¬ шении задач обработки экспериментальных данных используются методы, основанные на двух основных составных частях аппарата математической статистики теории статистического оценивания неизвестных параметров, используемых при описании модели экспе¬ римента, и теории проверки статистических гипотез о параметрах или природе анализируемой модели. Некоторые элементарные сведения об их основных положениях приводятся в § 22 Перечислим основные методы многомерного статистического анализа, которые широко применяются при обработке эксперимен¬ тальных данных, в первую очередь, применительно к инженерным и физическим экспериментам. Подробно их содержание рассматривается в работах [1,2,3,15, 27,30,31,42,67,781. Корреляционный анализ Его сущность состоит в определении степени вероятностной связи (как правило, линейной) 13
между двумя и более случайными величинами. В качестве этих случай¬ ных величин могут выступать входные, независимые переменные, в этрт набор может включаться и результирующая (зависимая) пере¬ менная. В последнем случае корреляционный анализ позволяет ото¬ брать факторы или регрессоры (в регрессионной модели), оказываю¬ щие наиболее сушественное влияние на результирующий признак. Отобранные величины используются для дальнейшего анализа, в частности при выполнении регрессионного анализа. Корреляционный анализ позволяет обнаруживать заранее неизвестные причинно-след¬ ственные связй между переменными. При этом следует иметь в виду, что наличие корреляции между переменными является только необ¬ ходимым, но не достаточным условием наличия причинных связей. Характеристикой линейной вероятностной связи между случай¬ ными величинами является коэффициент корреляции, или корреля¬ ционный момент, а между случайными процессами — корреляционная функция (см. § 3 2). В зависимости от закона распределения данных используются различные методы определения этих характеристик. Применительно к задаче обработки экспериментальных данных корреляционный анализ'~используется на этапе предварительной обра¬ ботки. Дисперсионный анализ. Этот метод (группа методов) предназначен Дл*обработки экспериментальных данных, зависящих от качественных факторов, и для оценки существенности влияния этих факторов на результаты наблюдений. Его сущность состоит в разложении дисперсии результирующей переменной на независимые составляющие, каждая из которых харак¬ теризует влияние того или иного фактора на эту переменную. Сравне¬ ние этих составляющих позволяет оценить существенность влияния факторов. При проведения инженерных и физических экспериментов дис¬ персионный анёлиз, как правило, играет подчиненную роль. Он исполь¬ зуется, например, на этапе предварительной обработки при проверке гипотез об однородности £кспери^ентальньТх>данных, а при регресси¬ онном анализе — при проверке адекватности полученной модели (см. § 2,4, §42). Регрессионный анализ. Методы регрессионного ана¬ лиза позволяют установить структуру и параметры модели, связы¬ вающей количественные результирующую и факторные переменные, и оценить степень ее согласованности с экспериментальными данными. Этот вид статистического анализа позволяет решать главную задачу эксперимента в случае, если наблюдаемые и результирующие пере¬ менные являются количественными, и в этом смысле он является основным при обработке этого типа экспериментальных данных. Подробно методы регрессионного анализа описаны в гл. 4. Факторный анализ. Его сущность состоит в том, что "внешние" факторы, используемые в моделЪ и сильно коррелирован¬ ные между собой, могут и должны быть заменены другими, более 14
малочисленными "внутренними" фактореми, которые трудно или невозможно измерить, но которые определяют Поведение "внешних" факторов и тем самым поведение результирующей переменной. Фак¬ торный анализ является методикой, которая в определенном смысле является источником возникновения гипотез, гипотетических моде¬ лей, их структуры. Факторный анализ делает возможным выдвижение гипотез о структуре взаимосвязи переменных, не задавая эту струк¬ туру заранее и не имея о ней предварительно никаких сведений. Эта структура определяется по результатам наблюдений. Полученные гипотезы могут быть проверены в ходе дальнейших экспериментов. Задачей факторного анализа является нахождение-простой структуры, которая бы достаточно точно отражала и воспроизводила реальные, существующие зависимости. Наиболее широко применяется факторный анализ в эконометрии и других*нетехнических приложениях. В некоторых отношениях фак¬ торный анализ и его модификация — компонентный анализ близки к регрессионному анализу. 1.2. ОСОБЕННОСТИ ПОСТРОЕНИЯ АВТОМАТИЗИРОВАННЫХ ИЗМЕРИТЕЛЬНО-ВЫЧИСЛИТЕЛЬНЫХ СИСТЕМ НА БАЗЕ МИКРО-ЭВМ Для повышения эффективности научных исследований необходимо решить по крайней мередве проблемы. Первая — это создание современной базы автоматизации эксперимента, осйованной на широком внедрении ЭВМ с достаточно разви¬ тым математическим (программным) обеспечением. Суть второй проблемы состоит в подготовке инженерных и науч¬ ных кадров, способных создавать, осваивать, внедрять и экс¬ плуатировать современные автоматизированные эксперимен¬ тальные комплексы. В настоящее время для исследователей с*чевидна необходи¬ мость передачи таких функций, как управление ходом экспе¬ римента, обработки и анализа результатов измерений ЭВМ. Однако из-за недостаточных знаний возможностей автома¬ тизации (главным образом — архитектуры ЭВМ) трудно более активно использовать ЭВМ даже в тех областях, где автоматизация эффективна или без нее эксперимент про¬ вести просто невозможно. Главная трудность здесь состоит не столько в отсутствии средств автоматизации {ЭВМ, интер¬ фейсы) , сколько в неумении использовать даже готовые комплексы в реальных, конкретных экспериментальных исследованиях. 15
Опыт показывает, что измерительно-вычислительные си¬ стемы, разработанные без участия исследователей, работают и используются, как правило, недостаточно эффективно. Более того, если экспериментатор не понимает архитектуры средств автоматизации (совокупность аппаратных и про¬ граммных средств), то он не может правильно планировать и выполнять исследования, эффективно использовать дорого¬ стоящее оборудование. Поэтому представляется крайне важным овладение ис¬ следователем методами построения автоматизированных экспериментальных установок, принципами работы основных компонентов средств автоматизации, а также способами эффективного их использования. Для уяснения места и роли ЭВМ в автоматизированных экспериментальных комплексах рассмотрим обобщенную структурную схему автоматизированной экспериментальной установки. _ " _ Обобщенная структурная схема экспериментальной установки. Состав измерительных приборов определяется задачей конкретного эксперимента или областью научных знаний, в которой,планируется эксперимент. Так, например, при проведении эксперименталь¬ ных работ по оценке характеристик неоднородностей в ка¬ белях, световодах, волноводах в сверх широкой полосе частот применяются генераторы пикосекундного диапазона длительности, стробоскопические осциллографы, обеспечивающие масштабно-вре¬ менное преобразование рассеянных неоднородностями сигналов, а также управляемые ЭВМ цифровые осциллографы, обеспечивающие аналого-цифровое преобразование (АЦП) сигналов, временное их хранение и экспресс-анализ результатов измерений и обработки, и другая аппаратура [5]. На обобщенной структурной схеме экспериментальной установки (рис, 1.1) можно выделить несколько основных частей Во-первых, это исследуемый объект, снабженный системой управления с целью задания значений параметров, характеризующих объект. Другим важ¬ ным элементом структурной схемы является измерительная система. Измеряемыми величинами в экспериментальных исследованиях яв¬ ляются физические величины (напряжение, ток, давление, температура и т.д.). Кроме того, часто свойства объекта характеризуются его реакцией на тестовый (зондирующий) сигнал. В этом случае инфор¬ мативными являются как форма сигнала, так и его параметры (дли¬ тельность, амплйтуда, полоса частот и т. д.). Поэтому в состав измери¬ тельной системы включен блок формирования тестовых сигналов. Этот сигнал передаете* к объекту либо'посредством излучения, либо по соответствующим линиям связи (световоды, проводники и т.д.). 16
Назначение датчиков, коммутаторов, усилителей и АЦП традиционно. Следующей основной частью экспериментальной установки является обрабатывающая и управляющая система. При ее реали¬ зации наиболее широко используются магистрально-модульные микро¬ процессорные^ системы, и в частности микро-ЭВМ серии "Электро¬ ника" [54,55]. К ним относятся ЭВМ "Электроника-60 (М)", "Электроника-61-1", "Электроника-81 (В)", ДВК-1, ДВК-2, ДВК-Э, ДВК-4- и др. Основу их 'архитектуры составляет усеченный интер¬ фейс "общая шина" (Q-BUS). Рис. 1.1. Структурная схема автоматизированной экспериментальной установки Популярность этих микро-ЭВМ обусловлена следующими их основными достоинствами: 1) высокой гибкостью, что обеспечивает возможность модифи¬ кации системы в соответствии с конкретными потребностями; 2) стандартной формой связи для всех устройств, подключенных к единице системной магистрали; 3) наиболее полно развитым и продолжающим развиваться мате¬ матическим обеспечением. Аппаратная часть архитектуры таких микро-ЭВМ, как правило, включает в себя центральный процессор, оперативную и долговремен¬ ную память, устройства ввода—вывода информации и обеспечивающие их функционирование интерфейсы. Центральный процессор выполняет сотни тысяч операций в секун¬ ду, что позволяет ему оперативно управлять ходом эксперимента и -поставлять исследователю результаты обработки в масштабе вре¬ мени, близком к реальному. 17
При работе его в интерактивном (диалоговом) режиме исследова¬ тель может быстро оценивать возникающие ситуации и принимать оперативные решения, изменяя ход эксперимента в нужном направ¬ лении. Особенности применения таких ЭВМ в контурах^правления автоматизированных экспериментальных комплексов связаны в ос¬ новном со спецификой принципов обмена информацией через единый системный канал и их программного обеспечения. - Отметим еще раз, что современный исследователь без глубокого понимания совокупности аппаратных и программных средств испольг .зуемой ЭВМ не в состоянии эффективно эксплуатировать и разра¬ батывать современные экспериментальные комплексы. Опыт показывает, что при изучении той или инбй микропроцес¬ сорной системы следует брать за основу аппаратные средства* а не наоборот. Поэтому вначале кратко • рассмотрим принципы обмена информацией и их схемотехническую и программную поддержку, а затем рассмотрим особенности программного обеспечения таких микропроцессорных систем. Принципы обмена информацией, их схемотехническая и программная поддержка. Обмен информацией между различными внешними устройствами (ВУ), подключенными к системному каналу, осуществляется по принципу "задат¬ чик — исполнитель" (ведущий — ведомый или активный — пассивный), т. е. асинхронно. В каждый момент времени только одно из устройств, подключенных к каналу, может быть активным (задатчиком, ведущим). Все остальные устройства в этот момент времени должны быть пассивными (ведомыми, исполнителями). Процесс обмена данными между устройствами замкнут, т. е. в ответ на управляющий сигнал активного устройства должен поступить ответный сигнал (квитанция) от пассивного устройства. В микро-ЭВМ предусмотрены три режима обмена дан¬ ными: программный обмен, программный обмен по требо¬ ванию внешнего устройства (прерывание) и обмен в режиме прямого доступа к памяти (ПДП). N Программный режим — это'организация обмена данными между процессором и ВУ или между двумя ВУ по инициативе процессора и под управлением программы. В режиме прерывания организуется выполнение функций программного режима по требованию (по инициативе) ВУ, подключенных к каналу. При получении требования на об¬ служивание процессор приостанавливает выполнение текущей программы, переходит на выполнение программы обслужи¬ вания запросившего устройства, а после ее завершения про¬ 18
должает выполнять прерванную (текущую) программу* Режим ПДП — это организация обмена данными между ОЗУ и ВУ по его требованию. Особенность этого режима состоит в том, что процесс обмена происходит без участия процессора, т. е. адресацией памяти размерами передаваемых массивов и регенерацией памяти управляет устройство, за¬ просившее режим ПДП. Это самый быстрый способ обмена данными между ОЗУ и ВУ. Для организации обмена каждое ВУ должно иметь один или несколько регистров (регистры данных, состояний), адреса которых определяет пользователь. Адреса регистров ВУ могут иметь как четные, так и нечетные номера (1600008—1777?78). Восемь регистров с адресами 1775508 — 1775668 резервированы для регистров стандартных уст¬ ройств ввода-вывода информации. Однако они также могут использоваться по усмотрению пользователя.' Формат регистра состояния ВУ. В рассматриваемых микро-ЭВМ рекомендуется применять формат регистра состояния, показанный на рис. 1.2 [54,55]. Разряд "Разре¬ шение работы" выполняет функции инициализации (пуска) устройства и используется только для записи информации. [g ^5j »; з; г; фП Ошибка Занято Выбор устройства Готовность Разрешение прерывания Разрешение работы Рис. 1 2. Примерный формат регистра состояния внешнего устройства Разряды 1—4 содержит информацию о выполняемой ВУ операции. Пятый и шестой разряды могут использоваться для чтения и записи, а также участвуют в операциях, реали¬ зующих режим прерывания. Седьмой разряд (бит готов¬ ности) характеризует готовность устройства к работе. При единичном значении этого разряда устройство к работе го¬ тово, при нулевом — нет. К одному ВУ может быть подключено несколько испол¬ нительных устройств. Для их идентификации предназначены разряды#—10 (выбор устройства) регистра состояний. 19
Разряды 12—15 идентифицируют ошибку обмена. Для реализации обмена в режиме прямого доступа к па¬ мяти ВУ, кроме того, должно иметь еще несколько регист¬ ров: регистр адреса памяти (РАП), предназначенный для хранения текущего адреса ячейки памяти. После передачи каждого слова содержимое этого регистра инкриментиру- ется; регистр счета слов (РСС), выполняющий функцию управ¬ ления размером передаваемого массива данных. Инфор¬ мация в него должна заносится процессором перед началом обмена; регистр адреса устройства (РАУ), который хранит номер дорожки или блока в ЗУ большой емкости. Обмен данными между ЦП и ВУ или между двумя ВУ может происходить битами, байтами или 16-разрядными словами. Рис. 1 3 Логика поддержки программного режима обмена 20
Для большинства экспериментаторов наибольший инте¬ рес представляет дисциплина обмена, обеспечивающая управ* ление ВУ в одном из двух режимов — программном и пре¬ рывания. Поэтому аппаратную и программную части дисцип¬ лины обмена в этих режимах рассмотрим подробнее. Программный режим работы. Для обеспечения работы устройства, подключенного к системному каналу микро-ЭВМ, пользователь сам определяет состав регистров и логики, обеспечивающей выполнение устройством заданных функ¬ ций. Однако состав логики управления, связанной с систем¬ ным каналом, диктуется структурой канальных сигналов. Примерный вид функциональной электрической схемы, реализующей логику управления устройством пользователя в программном режиме, приведен на рис. 1.3. Логика работы этой части интерфейса сводится к следую¬ щему. Обращение к внешним устройствам центральный про¬ цессор (ЦП) начинает с выставления адреса на шины DAO—DA15. Информацию о том, что адрес выставлен, несет синхроимпульс активного устройства (СИА), вырабаты¬ ваемый ЦП с задержкой около 150 не, необходимой для прекращения переходных процессов в линиях связи. Если адрес находится в диапазоне адресов регистров ВУ (160000—177777), то ЦП вырабатывает сигнал (ВУ). Рас¬ познавание адресов ВУ производит ЦП по значениям трех старших разрядов DA13—DA15. Адреса регистров ВУ зада¬ ются пользователем при помощи переключателей или пере¬ мычек, установленных на входе схемы сравнения. Если код выставленного на шинах DAO—DA12 адреса совпадает с кодом, установленным переключателями _П0— П12, то на выходе схемы сравнения устанавливается сигнал высокого уровня. Его конъюнкция с сигналом ВУ даст также сигнал высокого уровня, который по сигналу СИА запоминается в триггере и может быть использован для стробирования исполнительного устройства (например, регистра данных). После окончания адресной части цикла ЦП формирует сиг¬ налы "ввод", "вывод" Или "байт". Сигналы "ввод" и "вы¬ вод" пользователь может применить для организации записи и считывания информации в регистр*данных’ ВУ. При этом необходимо помнить, vro в рассматриваемом режиме об¬ мена сигнал "ввод" вырабатывается ЦП во время действия сигнала СИА и означает, что ЦП готов принять данные от ВУ. Для организации программного обмена 6 несколькими регистрами данных (или любых других исполнительных / 21
устройств) одного ВУ можно использовать любые разряды адреса. В этом случае нет необходимости в соответствующих переключателях и входах схемы сравнения, а выходные сигналы соответствующих разрядов могут быть применены для организации стробирования упомянутых регистров. Обычно для этих целей используют младшие разряды, начи¬ ная с DA1 _ т Обмен информацией в рассматриваемом режиме может происходить как байтами, так и 16-разрядными словами. При выполнении байтовых команд ЦП вырабатывает сигнал "байт", а для организации программного доступа к млад¬ шему или старшему байту можно использовать любой разряд DA. Обычно для этих целей иепользуют разряд DAO. Сигнал "байт" используется лри передаче адреса (этот сигнал озна¬ чает, что далее будет следовать операция вывода) и при пере¬ даче данных (сигнал "байт" означает, что выводится байт информации). После окончания процесса приема или передачи данных логика ynpaBneHnnv (рис. 1.3) должна сформировать и пере¬ дать ЦП квитанцию. Эту функцию выполняет сигнал синхро¬ низации пассивного устройства (СИП). Он должен быть сформирован не позднее чем через 10 мкс после выработки сигнала "ввод" ("вывод"). В противном случае ЦП перейдет на подпрограмму обслуживания внутреннего прерывания с адресом вектора 4. Как отмечалось выше, прием и пере¬ дача данных со провожается сигналами "ввод" и "вывод", которые могут формировать сигнал СИП, а время его появ¬ ления регулируется параметрами элементов интегрирующей /?С-цепи. Таким образом, в программном режиме, при передаче данных из ВУ в активное устройство канальные операции выполняются Ь следующей последовательности: ' 1) активное устройство выставляет адрес на шину DAO—DA15 и вырабатывает сигнал ВУ; 2) не ранее чем через 150 не после установки адреса активное устройство вырабатывает сигнал СИ А, предназна¬ ченный для запоминания адреса во входной логике (рис. 1.3, триггер); * 4 3) ВУ дешифрует адрес и запоминает его; 4) активное устройство снимает адрес, сигнал ВУ и выра¬ батывает сигнал "ввод", сигнализируя о готовности принять данные, и ожидает сигнал СИП; 5) ВУ помещает данные на шину DAO—DA15 и вы раба- 22
тывает СИП, сигнализируя о наличии данных на шинах DA0-DA15; 6) активное устройствб принимает СИП, данные и сни¬ мает сигнал "ввод"; “ _ 7) ВУ снимает СИП, завершая операцию передачи дан¬ ных; 8) активное устройство снимает СИА, завершая каналь¬ ный цикл "ввод". В этом режиме сигнал "байт" не выраба-, тывается. Последовательность канальных операций при органи¬ зации передачи данных из активного устройства вр ВУ сле¬ дующая: 1) активное устройство выставляет адрес, сигнал ВУ, "байт", СИА (не менее чем через 150 не); 2) ВУ дешифрует адрес и запоминает его; ' 3) активное устройство снимает адрес, ВУ, "байт", вы¬ ставляет на шину DAO—DA15 данные и не ранее чем через 100 не вырабатываетсигнал "вывод"; 4} ВУ принимает данные и вырабатывает СИП (в преде¬ лах 10 мке); 5) активное устройство по СИП снимает сигнал "вывод" (примерно через 150 не) и данные (примерно через 250 не) ;- 6) ВУ снимает ЪИП; 7) активное устройство снимает СИА, завершая каналь¬ ный цикл "вывод". Во время передачи данных от ЦП к ВУ сигнал "байт" устанавливается только при байтовых командах и означает передачу в ВУ байта информации. Кроме этого, в режиме программного обмена реали¬ зуется канальный цикл "ввод—пауза—вывод", т. е. ввод данных в процессор, их преобразование и вывод по адресу последнего выбранного операнда. Адресная часть, ввод и вы¬ вод выполняются аналогично ^рассмотренному ранее с той разницей, что сигнал СИА остается активным и после окон¬ чания ввода данных, а это позволяет осуществить вывод преобразованных данных без повторения адресной части цикла. Пример реализации программной поддержки про¬ граммного режима. Программную часть интерфейса,4 обеспе¬ чивающую этот режим обмена, рассмотрим на примере орга¬ низации обмена данными между клавиатурой и экраном дисплея. Эти два устройства могут рассматриваться как два самостоятельных ВУ. 23
Клавиатура имеет два регистра — регистр состояния (PC) с адресом 177560 и регистр данных (РД) с адресом 177562. Адрес PC экрэра монитора 177564, а РД — 177566. Приведем пример программы, обеспечивающей обмен между клавиатурой и экраном. Первые две команды (757В и BPL) обеспечивают циклическую проверку готовности кла¬ виатуры (наличие в седьмом разряде PC единицы), а вто¬ рые — экрана. Следующая команда обеспечивает пересылку кода нажатой клавиши в РД экрана, т. е. печать соответствую¬ щего символа на экране дисплея. Р1: TSTB @# 177560 BPL Р1 Р2: TSTB (а)# 177564 BPLP2 MOVB (5)# 177562, @#177566 JMPP1 ' Таким образом, приведенная программа организует работу дисплея в режиме печатающей машинки. Режим прерывания. Внешнее устройство, способное обме¬ ниваться данными в этом режиме, является инициатором сеанса обслуживания. Центральный процессор, получив запрос на программный обмен, приостанавливает выпол¬ нение текущей программы и переходит к выполнению про¬ граммного обслуживания запросившего устройства. После этого ЦП возвращается к прерванной программе и продол¬ жает ее выполнение. Каждое устройство, способное вызывать прерывание работы ЦП, должно иметь в составе регистра состояния разряд разрешения прерывания. Если устройству разреша¬ ется прерывание программы/ то этот разряд должен быть программно установлен в единицу. Кроме этого, ЦП разре¬ шает прерывание только в том случае, если седьмой разряд регистра состояния процессора установлен в нуль. Выход на программу обслуживания ВУ ЦП производит автоматически с помощью вектора прерывания. Этот вектор yKa3bieaet номер ячейки памяти, которая хранит стартовый адрес про¬ граммы обслуживания прерывания. Для организации обмена в этом режиме аппаратная часть интерфейса (в дополнение к рис. 1.3) должна иметь логическую структуру, показанную на рис. 1.4. Представлен¬ 24
ная логическая структура должна обеспечить выработку сигнала требования прерывания (ТПР), прием и передачу сигнала предоставления прерывания (ППР), формирование и передачу адреса вектора прерывания. Сигнал ТПР вырабатывается в случае, если ВУ готово к обмену (сигнал "готово" имеет высокий уровень) и разряд разрешения прерывания PC установлен в "1". Функцию разряда разрешения прерывания PC выполняет первый триггер на рис. 1.4. Для установки этого триггера в "1" необходимо Вход D соединить с соответствующим разрядом шины DA, а на вход С подать сигнал "вывод". Конъюнкция значения разряда разрешения прерывания с сигналом "готово" обеспечит установку второго триггера (его называют триггером требования прерывания) в единич¬ ное состояние. Инвертированный сигнал этого триггера, как видно из схемы рис. 1.4, и есть сигнал ТПР. Центральный процессор получив от устройства сигнал ТПР вырабатывает (если седьмой разряд его PC установден в "О") сигналы "ввод" и ППР. По сигналу "ввод" сбрасывается третий триг¬ гер (триггер представления прерывания), чем запрещается Готово ' Рис 1.4. Логика поддержки режима прерывания' дальнейшее распространение по каналу сигнала ППР. Как видно из схемы на рис. 1.4, сигналы "ввод" и ППР участвуют в формировании СИП и сигнала "вектор". Сигнал "вектор" используется для передачи процессору адреса вектора пре¬ рывания (программы обслуживания). Сигнал ППР снимает сигнал ТПР. По сигналу СИП обслуживаемое устройство выставляет на шины DAOO— DA07 адрес вектора прерывания, ЦП принимает этот адрес, СИП и снимает сигналы "ввод" и ППР. Устройство снимает СИП, ЦП помещает в стек содер¬ жимое счетчика команд (СК) и регистра состояния процес¬ 25
сора (РСП) и загружает в них новую информацию из двух последовательно расположенных ячеек памяти (например, для клавиатуры это ячейки 60 и 62). При этом содержимое^ первой ячейки есть адрес вектора прерывания. После этого ЦП выполняет программу обслуживания этого устройства. По заверивнии^бслуживания ЦП возвращается к теку¬ щей программе в то место, где она была прервана с помощью команды RTI. По этой команде из стека выбираются два слова, которые записываются в СК и РСП соответственно. Если два или нескол!уко устройств одновременно запра¬ шивают сеанс обслуживания, то первым удовлетворяется устройство, электрически наиболее близко, расположенное к ЦП. Любое из устройств, подключенных к каналу, может прервать выполнение программы обслуживания другого устройства, если оно имеет, более высокий приоритет. Следо¬ вательно, программы обслуживания могут "вкладываться" одна в другую до любого уровня. Пример реализации программной поддержки режима прерывания. Программную часть интерфейса устройства, обеспечивающую режим прерывания, рассмотрим на сле¬ дующем примере. Пусть во время выполнения некоторой программы требуется обеспечить изменение исходных данных по инициативе внешнего устройства, после чего продолжить выполнение программы с новыми исходными данными. В качестве ВУ выберем опять клавиатуру, а требование .прерывания будем формировать посредством нажатия ее произвольной клавиши. Пусть задачей основной программы является нахождение суммы содержимого восьми ячеек памяти, расположенных одна за другой. Тогда задачей программы обслуживания ВУ будет занесение нового содержимого в эти ячейки памяти в моменты времени, определяемые пользователем. Приведем программу, реализующую такой режим обме¬ на. MOV #2000, <5>#£0 Стартовый адрес MOV, #200, @#62 Новое состояние РСП MOV #4000, R6 Организация стека MOV #10, R0 MOV # 3000, R1 CLR R2 Основная программа 26
Р2: lADD (/?/) +, R2 SOB R0.P2 РЗ: TSTB @#177564 BPL P3 MOVB R2. @#177566 MOV #100, @#177560 JMP P4 MOV #10, R 0 Программа MOV # 3000, R1 / обслуживания Р5: MOV (5) #177562//?/) + SOB R0.P5 RTI Первые три команды являются подготовительными и могут быть выполнены вручную. При этом первая команда определяет стартовый адрес программы обслуживания ВУ, вторая — формирует новое содержимое РСП* .а третья — определяет начальный адрес стека. Первые пять команд основной программы обеспечивают нахождение суммы содержимого восьми ячеек памяти с поме¬ щением результата в /?2. Следующие команды обеспечивают вывод на экран символа, код которого нахЬдится в младшем байте /?2. Следующая команда обеспечивает выработку клавиатурой сигнала ТПР. v При нажатии клавиши клавиатуры "7-й бит" РСП уста¬ новится в "1" и после выполнения девятой команды ЦП разрешит прерывание и передаст управление программе обслуживания ВУ с адресом вектора 2000. Эта программа обеспечит занесение во все ячейки памяти (3000—3010) кода только что нажатой клавиши и возвратит («о /?77) управ¬ ление прерванной программе (команде JMPj. По команде JMP управлений передается команде основной программы, которая, обработав новые данные, выведет на экран соответ¬ ствующий символ.
1.3. ОСОБЕННОСТИ ПРОГРАММНОГО ОБЕСПЕЧЕНИЯ ИЗМЕРИТЕЛЬНО-ВЫЧИСЛИТЕЛЬНЫХ СИСТЕМ НА БАЗЕ МИКРО-ЭВМ Состав программного обеспечения микро-ЭВМ семей¬ ства "Электроника-60". Рассмотрим назначение основных компонентов программного обеспечения (ПО), структура которого приведена на рис. 1.5. Рис. 1.5. Структура программного обеспечения микро-ЭВМ "Элект¬ роника-60" Тестовое Л О, предназначено для проверки работоспо¬ собности, наладки и поиска неисправностей вычислительных комплексов, построенных на базе микро-ЭВМ типа "Элект¬ роника-60”.'В него входят тест-программы команд, преры¬ ваний, памяти, перфоленточных устройств ввода-вывода, арифметики и т.д. Все тест-программы можно использовать самостоятельно или под управлением специальной операцион¬ ной системы, упрощающей комплексную проверку систем.. Прикладное ПО включает в себя набор программ и от¬ дельных модулей, разрабатываемых пользователем для решения конкретной прикладной задачи. Системное ПО управляет процессом создания, отладки и выполнения прикладных программ пользователя. Клю¬ 28
чевым подмножеством системного ПО являются операцион¬ ные системы (ОС), определяющие основные особенности и режимы работ по созданию и выполнению программ. Ключевым подмножеством системного ПО являются операционные системы (ОС), определяющие основные осо¬ бенности и режимы работ по созданию и выполнению про¬ грамм. Для разработки программ пользователями применяются языки программирования высокого уровня и машинноори¬ ентированные языки. Трансляторы или языковые процес¬ соры составляют второе подмножество системного ПО. Они работают под управлением ОС, и смысл их работы заклю¬ чается в перекодировании исходных текстов программ в по¬ следовательности инструкций, выполняемых процессором микро-ЭВМ. Системное программное обеспечение семейства микро-ЭВМ "Электроника-60" позволяет разработчику созда¬ вать прикладные программы с помощью основных языков программирования — бейсик, фортран, паскаль и др. Эти языки удобны в применении, однако обладают некоторой избыточностью по сравнению с машинно-ориентированными языками по емкости памяти, а также меньшим быстродей¬ ствием оттранслированных модулей. Для более полного использования возможностей мик¬ ро-ЭВМ применяются машинноориентированные языки. К ним относится, например, язык макроассемблер или макро. Третье подмножество системного ПО составляют пакеты прикладных программ, предназначенные для решения задач с помощью микро-ЭВМ. Пакеты прикладных программ (ППП) может создавать пользователь, однако во многих случаях удается эффективно использовать готовые пакеты, имеющиеся в ПО микро-ЭВМ. Общие сведения об операционных системах. Выбор операционной системы в первую очередь определяется архитектурой конкретной ЭВМ и характером решаемых задач. , По своему функциональному назначению операционные системы, используемые в микро-ЭВМ "Электроника-60" и программно с ней совместимых ЭВМ, можно разделить на следующие классы: 1) однозадачные ОС В такой ОС программа, поставленная поль¬ зователем на решение, выполняется процессором непрерывно до ее завершения; 2) фоново-оперативные ОС, в которых время процессора раз¬ деляется между двумя задачами* оперативной, имеющей приоритет, 29
ii фоновой. Обе задачи находятся в оперативной памяти и в любой момент готовы к выполнению; 3) мультипрограммные (многозадачные) ОС, характеризующиеся параллельным выполнением многих задач. Среди однозадачных и фоново-оперативных операционных систем реального времени можно выделить системы РАФОС, ФОДОС, ФОБОС, АД О С и др. Все эти системы представляют собой различные версии ОС RT-11. Источником появления мультипрограммных операционных си¬ стем реального времени — ОС РВ, ПЛОС РВ, ДОС РВ является опера¬ ционная система RSX. Перечисленные системы объединяет одно важное свойство — модульность построения. Ядром этих операционных еистем является модуль "монитор", обеспечивающий доступ к системным и пользо¬ вательским файлам, диалог с терминалом, запись программ пользо¬ вателя в файл, вывод на печатающее устройство или терминал и мно¬ гие другие функции. У монитора имеется список (таблица), с по¬ мощью которого он "узнает" пользовательские команды. Разные мониторы могут иметь различные списки и тем самым могут разли¬ чаться своими возможностями. Так, например, "мощности" мони¬ торов операционных систем РАФОС, ФОДОС, ФОБОС различны. Это вызвано различием аппаратных средств, в среде которых адаптиро» вались данные системы. Общий недостаток этих систем — выдача сообщений на англий¬ ском языке. Кроме того, в этих операционных системах текстовую информацию приходится представлять в сокращенном наборе КОИ-7, включающем в себя только прописные буквы. Это вызвано тем, что бее системные программы ориентированы на работу с 7-битовыми кодами символов. Между тем распространены устройства, позво¬ ляющие работать с полным набором символов, такие, как терминалы 15ИЭ-00-01Э и печатающее ^устройство 0ZAM8O. Отсутствие про¬ граммной поддержки препятствует полному использованию их воз¬ можностей. В связи с этим была разработана ОС АДОС, совместимая q ЯГ-11 (версия V05.00), в которой для хранения текстов используется код КОИ-8. Отличия АДОС от RTA'S обмен с терминалом в коде КОИ-8; более высокая скорость обмена с терминалом; большинство систем¬ ных пр04домм были переработаны таким образом, что сообщения системы выдаются на русском языке. Другая известная операционная система — ФОДОС, совместимая с RT-11, представляет собой один из вариантов системы РАФОС. Си¬ стема ФОДОС — фоново-основная дисковая операционная система, предназначена для использования в проблемно-ориентированных вычислительных комплексах, построенных на базе микро-ЭВМ. Усовершенствованный вариант систему — ФОДОС-3 в отличие от первоначальных вариантов обеспечивает* поддержку всех тилов цент¬ ральных процессоров семейства микро-ЭВМ; использование опера- i 30
тмвной памяти емкостью до 4М байт; мультитерминальную поддерж¬ ку на программном уровне; программирование не только на языках "фортран-4", "бейсик", "ассемблер", но и "модула-2", "паскаль", СИ и др. Ограниченная емкость памяти и сравнительно невысокое быстро¬ действие накладывают весьма существенные ограничения на исполь¬ зование микро- и мини-ЭВМ для решения задач многих классов. В информационных системах, особенно в системах реального времени (PB), где задержки, связанные с выгрузкой задач на устрой¬ ства внешней памяти, и разделение времени центрального процессора нежелательны, возникают проблемы с размещением задач в опера¬ тивной памяти и обеспечением требуемого времени их реакции на запрос. Так как право на существование имеют как мини-ЭВМ, так и микро-ЭВМ, и по своим возможностям они дополняют друг друга, то можно использовать комплексы из нескольких ЭВМ — машинные сети. В ПО таких комплексов могут применяться ОС PB, например широко используемая ОС РВ-ВЭФ [14]. Она обеспечивает мульти¬ программирование для задач, числа которых ограничено емкостью ОЗУ. Несмотря на удобство, гибкость и широкий набор функций, эта система не обеспечивает средств межзадачного взаимодействия. Таким образом, число операционных систем достаточно велико и каждая новая операционная система обладает как достоинствами, .так и недостатками. Рассмотрим основные функции и структуру одной из широко применяемых операционных систем — ОС РАФОС. Выбор системы РАФОС обусловлен хорошей реакцией системы на внешние прерывания, большой скоростью обмена с внешними вычис¬ лительными устройствами. Для ее работы Требуется минимальная аппаратная конфигурация. Эксплуатация системы продемонстри¬ ровала ее высокую эффективность для отладки ПО систем управ¬ ления и подтвердила правильность основных принципов, положенных в основу ее построения Приведенного описания достаточно для пони¬ мания большинства систем модульной структуры Особенности и состав операционной системы РАФОС. Операционная система реального времени с разделением функций (РАФОС) представляет собой базовую систему для магистрально-модульных комплексов СМ ЭВМ, про¬ граммно совместимых с СМ-3, СМ-4. Система РАФОС ориен¬ тирована на работу в комплексах, в состав которых могут входить Дополнительные процессоры (например, СМ-2410 или СМ-2600), а также микропроцессоры. Использование дополнительных процессоров в составе комплексов позво¬ ляет существенно повысите производительность технических средств при решении задач специальных классов. Подобные комплексы называются системами с разделением функций, так как повышение производительности в них достигается 31
в результате разделения функций между процессорами, ори¬ ентации процессоров на выполнение одной или нескольких специальных функций, параллельного функционирования всех процессоров комплекса. Система РАФОС позволяет эффективно организЬвать вычислительный процесс в комплексах СМ ЭВМ, имеющих от 16 до 248К байт оперативной памяти, и обслуживает широкий ‘ набор внешних устройств. Система РАФОС по¬ зволяет строить системы, сочетающие решение задач реаль¬ ного времени с многопользовательской работой в режиме разделения времени. При этом РАФОС имеет самую быструю реакцию на внешнее воздействие (прерывание) по сравнению с другими операционными системами реального времени СМ ЭВМ, что особенно важно в автоматизированных инфор¬ мационно-измерительных и информационно-управляющих си¬ стемах. Система РАФОС имеет многослойную структуру, в кото¬ рую входят: _ программы-мониторы, программы-драйверы, системные программы (утилиты), системные и объектные макробиблиотеки (рис. 1.6). Она организована в виде фай¬ лов, которые хранятся на запоминающих устройствах — накопителях на магнитных дисках (НМД). Взаимодействуя с ОС пользователь создает свои файлы. Рис. 1 6 Структура операционной системы РАФОС Обращение- к файлу происходит по его имени, содержа¬ щему собственно имя и тип файла. Вместе с именем файла можно указать логическое или физическое имя устройства, на котором этот файл должен быть создан или уже суще¬ ствует. Например, сообщение: RK1: TEST. TXT соответ¬ ствует тому, что на первом приводе накопителя на магнитном 32
диске (НМД) СМ-5400 существует файл с именем TEST текстового типа. Перечислим основные типы файлов ОС РАФОС: текстовые, создаваемые пользователем (MAQ— програм¬ ма на языке "макро", FOR — программа на языке "фортран", PAS — программа на языке "паскаль", В AS — программа на языке "бейсик", TXT — текстовая документация, LST — файл листинга программы, МАР — файл карты распределения памяти, создаваемой программой L INK, СОМ — файл, содер¬ жащий последовательности команд, необходимые для транс¬ ляции и компоновки мониторов и драйверов); . объектные, создаваемые в результате трансляции или извлекаемые из объектных (OBJ ); отображения памяти, получаемые при редактировании объектных файлов и объектных библиотек (S4\/); системные, содержащие программы-мониторы, програм- мы-драйверы устройств, системные библиотеки (S/S). Основной управляющей программой ОС РАФОС служит программа-монитор, являющаяся связующим звеном между пользователем, аппаратурой и системным ПО. Она принимает, анализирует и выполняет специальные команды управления системой (команды монитора, которые описаны в приложе¬ нии 1). Мониторы ОС РАФОС. В состав ОС РАФОС входят мони¬ торы пяти типов: RM — исполняющий монитор реального времени, рези¬ дентный в оперативной памяти; SJ — однозадачный монитор реального времени; FB — фоновооперативный монитор реального времени, обслуживающий до восьми задач на комплексах с памятью до 56 К байт; ХМ — монитор управления памятью до 248 К байт для обслуживания до восьми задач реального времени; TS — многопользовательский монитор разделения вре¬ мени для комплексов с емкостью памяти от 96 до 248 К байт и обслуживания до 30 задач. Мониторы размещаются в файлах,имеющих имена,состоя¬ щие из пяти букв: последние две буквы определяют тип монитора, первые три буквы — всегда RAF. Типом файла, содержащего монитор, является SYS. . Например, файл RAFS J .SYS содержит SJ - монитор. Каждый монитор ОС РАФОС состоит из трех основных компонентов: резидентного монитора RMON, модуля USR, % Заказ ИЗО 33
интерпретатора команд монитора KMQN. Во всех мониторах компонент RMON постоянно находится в оперативной па¬ мяти. В \ состав RMON входят: модули обработки прерыва¬ ний, обслуживания таймера, интерпретации системных макро¬ команд, диагностики системных сбоев, системные таблицы и т.д« Модуль USR выполняет основные функции работы с каталогами внешних' запоминающих устройств и интер¬ претацию командных строк. Так как модуль USR исполь¬ зуется реже, чем RMON, он загружается из системного уст¬ ройства по мере необходимости. Область программы, в ко¬ торую помещается USR, сохраняется на системном устрой* стве в файле SWAP. SYS. Для повышения быстродействия USR может быть сделан резидентным (постоянна загружен¬ ным} в оперативной памяти с помощью команды монитора SET USR NOSWAP. Интерпретатор команд монитора КМОМ выполняет анализ и обработку команд (см. приложение 1), вводимых с терминала или командного файла. Драйверы внешних устройств. В состав ОС РАФОС входят программы-драйверы, осуществляющие управление устройст¬ вами конкретных типов (дисками, терминалами и т. д.). Для каждого устройства имеется программа-драйвер, реали¬ зующая алгоритм управления этим устройством. Драйверы* обеспечивают доступ ко всем периферийным и внешним запоминающим устройствам со стороны мониторов, а также системных прикладных программ. Драйверы позволяют разрабатывать программное обеспе¬ чение, независимое от внешних устройств. Вся работа с уст¬ ройствами на физическом уровне выполняется в драйверах. Если пользователю необходимо работать с дополнительными устройствами, нестандартными для РАФОС, то он может разработать драйвер для этого устройства. Включить новый драйвер в состав системы мджно с помощью команды мони¬ тора (INSTAL £ ). , j Каждый драйвер системы РАФОС хранится в отдельном файле на системном диске, с которого загружен монитор операционной системы. Файл, содержащий драйвер, и Meet имя, состоящее из трех букв, а тип файла — SYS. Первые две буквы имени файла — сокращенное наименование уст¬ ройства, они определяют "физическое" имя устройства при работе под управлением ОС. Последняя буква имени файла называется постфиксом и увязана с типом монитора. На¬ пример, драйвер устройства печати для XAf-монитора нахо¬ дится в файле L РХ. S YS. 3*
Внешние устройства ОС РАФОС. Классификация устрой¬ ства с учетом физической структуры и метода обработки приведена в табл. 1.1. Таблица 1.1 Структура Последовательный доступ Произвольный доступ Файловая ' Накопитель на магнитной Накопитель на магнит¬ ленте (МЛ) ном диске (НМД) Нефайловая Перфоленточное устрой¬ ство Печатающее устройство Терминал — Все внешние устройства, входящие в состав эксперимен¬ тального комплекса, управляемого ОС РАФОС, имеют физи¬ ческое, а также одно или несколько логических имен. Логи¬ ческие ^мена устройств обеспечивают независимость програм¬ мы пользователя от конкретных внешних устройств в опера¬ циях ввода — вывода. Так, обращаясь к устройству с логи¬ ческим именем DK, можно обмениваться данными с накопи¬ телями на гибких магнитных дисках НМД СМ-5400 и НМД ЕС-5061 (29М байт), имеющими различные физические имена — DX, DP. Обычно физические имена устройств совпадают с име¬ нами драйверов ОС. Например, драйвером накопителя на маг¬ нитной ленте ИЗОТ-БООЗ, имеющим физическое имя МТ, является системный файл МТ. S YS. Приведем некоторые имена физических устройств: ЯК, ЯКА/ — диск са сменными кассетами (0 < N < 7) 2,4 Мбайт; DM, DMN — пакет сменных дисков (0 < W < 7) 14М байт; DP, DPN - пакет (0<Л/ < 7) 20 Мбайт; DX, DXN — накопитель на гибком диске (0 < N < 3); DY, DYN — накопитель с двойной плотностью (0 < N < < 3); ГГ — системный терминал; МТ, MTN — накопитель на магнитной ленте (0 < 7). GT — устройство отображения графической информации (графический дисплей); СЯ — устройство ввода с перфокарт; 35
PC — перфоленточное устройство ввода—вывода; LP — устройство печати; NL - "нуль-устройство", которое осуществляет фиктив¬ ные операции ввода—вывода без передачи информации. Таблицы монитора ОС РАФОС, входящие в состав компо¬ нента монитора RMON, включают в себя следующие пре¬ допределенные логические,имена: SY, SYN — логическое имя устройства, с которого загру¬ жена операционная система. SYN определяет устройство, подключенное к тому же контроллеру, что в SY, и имеющее номер N (максимальное значение N зависит от типа физи¬ ческого устройства). Соответствие SY и физического уст¬ ройства не может быть изменено командой монитора ASSIGN (см. прйложение 1); DK, DKN — логическое имя устройства, которое исполь¬ зуется по умолчанию. DKN определяет устройство, подклю¬ ченное к тому же контроллеру, что и DK. и имеющее номер N. После загрузки ОС DK совпадает с SY. Соответствие DK фи¬ зическому устройству может быть изменено командой ASSIGN. Утилиты. Следующим типом программ, входящих в со¬ став ОС РАФОС, являются системные программы, назы¬ ваемые утилитами: программа-редактор (К52, SCREEN, EDITS, предназна¬ ченная для- создания и корректировки текстов программ; программы, позволяющие выполнять операции, над фай¬ лами (открытие и закрытие файлов) {OPEN, CLOSE), созда¬ вать новый файл (CREAT), переименовывать файл (RENAME), удалять файл (DEL) из каталога диска, а также другие операции. программы-отладчики, помогающие отыскивать и ис¬ правлять ошибки в программах пользователей; программы-трансляторы, позволяющие транслировать программы, получать объектные модули; редактор связей (UNK), компонующий объектные модули, получаемые в результате трансляции, в загрузочные модули; / программа-библиотекарь (LIBRARY), обслуживающая 36
библиотеки программных модулей. По команде монитора библиотекарь может извлечь модуль из библиотеки или включить его в библиотеку; программа сравнения исходных текстов (DIFF), опре¬ деляющая различия в двух текстовых файлах; программы распечатки содержимого памяти (DUMP), анализирующие нетекстовые файлы; программа обслуживания устройств (DUP) и др. Системные библиотеки. Они представляют собой интер¬ фейс между монитором и драйверами, с одной стороны, и си¬ стемными и прикладными программами — с другой. В со¬ став ОС РАФОС входят две системные библиотеки. Системная макробиблиотека (файл SYS MAC. SML) содержит макрокоманды, которые можно использовать в программах на языке "макрр". Специальная группа макро¬ команд предназначена для программирования драйверов. .Системная библиотека объектных модулей (хранится в файле SYSLTB.OBJ на системном диске) ориентирована на использование в программах на языке "фортран". С по¬ мощью этой библиотеки реализуются почти все возможности мониторов: обработка прерываний от внешних устройств, вычисления с 32-разрядными целыми числами, работа со строками и т. д. Компоновщик РАФОС (программа LINK) при необхо¬ димости автоматически извлекает модули .из этой библио¬ теки, в том числе и специальный драйвер, выполняющий загрузку частей программы, имеющей оверлейную струк¬ туру. . Трансляторы. Одним из компонентов ПО микро-ЭВМ являются языковые трансляторы, представляющие собой сложные программы, необходимые для отладки пользова¬ тельских программ. Процесс разработки программ на фортране, макро и дру¬ гих языках состоит из следующих этапов: создание файла исходного текста программы; трансляция программы и полу¬ чение объектного модуля; исправление ошибок трансляции, редактирование текста программ; компоновка объектных модулей и получение загрузочного модуля (LINK)• запуск программы на выполнение (/? или RUN). Для выполнения каждого из этапов разработки програм¬ мы требуются знания соответствующих инструкций команд¬ ного языка, физического смысла происходящих в ОС процес¬ 37
сов, умения работать с системными программами-утили¬ тами. Наиболее широко применяется для создания программ обработки экспериментальных данных и автоматизации ис¬ следований на базе микро-ЭВМ алгоритмический язык "форт¬ ран". В различных операционных системах СМ ЭВМ реализо¬ ваны разные версии языка "фортран". В название версии входит название соответствующей ^операционной системы: фортран/РАФОС, фортран/ОС-РВ, фортран/ДОС. Все три версии представляют собой значительное расширение стан¬ дарта фортрана (фортран СТ). Фортран/РАФОС снабжен наиболее развитыми средствами оптимизации. Отметим, что средства отладки включены в фортран/РАФОС и в форт- ран/ОС-РВ. В трансляторах фортран/ДОС и фортран/ОС-РВ имеется специальный режим, при котором трансляторы фиксируют отклонение программы от стандарта фортрана и выдают соответствующие предупреждения. Основные отличия фортрана/РАФОС от фрртрана/СТ сводятся к следующему: 1. Алфавит расширен литерой "'" (апостроф). 2. Имеется оператор IMPLICIT для неявного указания типа по первой букве имени; вместо типа DOUBLE PRECISION в операторе IMPLICIT используется тип REAL * 8. 3. Имеются текстовые констайты в виде последова¬ тельности литер, заключенной в апострофы. ' 4. Индексные выражения могут быть любыми ариф¬ метическими выражениями целого или вещественного типа. В последнем случае они автоматически приводятся к целому типу. 5. Во всех арифметических операциях, кроме возведения в степень, разрешаются любые комбинации типов данных. 6. В отношениях- допустимы все комбинации целого, вещественного типов и типа удвоенной точности. 7. В арифметических операторах присваивания допусти¬ мы? все сочетания типов: целого, вещественного, комплекс¬ ного и двойной точности. 8. В операторе GOTO (/1# /2, ...,/„) при / < 1 или при / > п произойдет передача управления на оператор, следую¬ щий за оператором перехода. 9. Заключительная строка END может играть роль опе¬ раторов STOP или RETURN. 38
10. В операторе DATA могут указываться имена масси¬ вов. 11. Имеются операторы ввода—вывода последовательного доступа без указания устройств (READ и PRINT) г 12. Имеются средства бесформатного ввода—вывода прямого доступа, к которым относятся: оператор DEFINE FILE, описывающий файл прямого доступа, операторы ввода—вывода прямого доступа READ, WRITE, FIND. 13. Кроме объявлений типа, имеющихся в фортране/СТ, допустимы следующие объявления с указанием длины в бай¬ тах: INTEGER * 4, REAL * 4, REAL * 8, COMPLEX * 8, LOGICAL * 4, LOGICAL *1. 14. Максимальное число измерений массивов равно семи. 15. В операторах STOP и PAUSE может использоваться целая константа или текстовый литерал. 16. В подпрограмме FUNCTION можно указывать длину значения функции в байтах. 17. Оператор DATA может быть расположен в любом месте модуля, но после тех объявлений, в которых описаны объекты, указанные в операторе DATA. При необходимости перевода той или иной программы обработки экспериментальных данных с одной версии форт¬ рана на другую необходимо учитывать их различия, выз¬ ванные разной архитектурой соответствующих вычислитель¬ ных машин и особенностями операционных систем. Реко¬ мендации по переводу программ, в том числе и по переводу программ, написанных на версиях фортрана для ЕС ЭВМ и БЭСМ-6, изложены в работе [20]. Алгоритмический язык-интерпретатор "бейсик" является про- межуточным звеном между ессемблером и языками высокого уровня. Программа, записанная в ОЗУ ЭВМ, выполняется последова¬ тельно, начиная со строки с минимальным номером. При этом каждый символ последовательно друг за другом интерпретируется и выпол¬ няется. Язык позволяет программировать и решать задачи в"диалоговом режиме. Основным достоинством этого языка является простота обучения и применения Подробнее язык описан в работе [66]. Язык "бейсик", входящий в операционную систему РАФОС, имеет большие возможности: может работать с внешними носителями информации (магнитными дисками и лентами) прямого доступа» записывать и считывать информацию файловой структуры. Поэтому как сами программы, так и подпрограммы, написанные на языке "бейсик", могут быть систематизированы пользователем в библиотеки. 39
Алгоритмический язык "квейсик" предназначен для разработки и выполнения программ на микро-ЭВМ. Транслятор языка "квейсик" является компилятором, т. е. он преобразует исходную программу в объектную программу в машинных командах. Это обеспечивает большую скорость выполнения программ, чем в языке "бейсик", но требует большей емкости ЗУ, так как в памяти ЭВМ одновременно находятся исходная и оттранслированная программы. Языки системный "квейсик" (входящий в ОС РАФОС), так же как и системный "бейсик", позволяет записывать и считывать программы в файл на устройство прямого доступа: магнитные диски, ленты. Пр организации программы, алгоритмам вычислений и операн¬ дам языки "бейсик" и "квейсик" подобны. Поэтому описание под¬ программ и их имена даются для языка "бейсик". Каждая подпрограмма имеет нумерацию строк, начиная с пятой. Естественно, что каждый пользователь будет менять, исхода из струк¬ туры своей программы, данную нумерацию. Эту замену следует про¬ водить тщательно, чтобы не спутать номера строк в операторах безу¬ словного перехода с новыми номерами. Требуемые подпрограммы, к которым есть обращение в данной подпрограмме, например 15 GOSUB 100, имеют в строке 100 только название 100 RBM 'SUBROUTINE BGAUS3' Пользователь самостоятельно пишет требуемую подпрограмму (в данном случае BGAUS3), начиная с 100 (или с удобной ему) строки таким образом, чтобы все необходимые для вычислений под¬ программы органично входили в общую программу. Одним из способов включения подпрограмм в общую программу является создание каталогов подпрограмм на внешнем носителе с последующим объединением их командой APPEND (см> описание языка). В этом случае каждой подпрограмме необходимо отводить только ей присущие номера строк, чтобы при объединении всех под¬ программ не произошло их перекрытия. И в любом случае необходимо помнить о том, что в языке "бейсик" нет структуры формальных параметров при описании под* программ. Поэтому в каждой подпрограмме должны быть свои пере¬ менные или, по крайней мере, изменение их значений в процессе работы программы не должно отражаться на результатах; значения входных переменных должны быть вычислены до обращения к под¬ программе Организация межмодульных связей. Возможны два спо¬ соба организации связей между объектными модулями. Один из них предполагает раздельное редактирование мо¬ дулей и выполнение полученных загрузочных модулей по отдельности. Связь между такими модулями может осу¬ ществляться через общие наборы данных. При втором спо¬ 40
собе 'объектные модули объединяются редактором связей (загрузчиком LINK) в загрузочный модуль. Если один мо¬ дуль программы передает управление другому, то первый из них называют вызывающим, а второй — вызываемым (или подпрограммой). Различают две формы межмодульных связей: по управлению и по данным. Связь по управлению обеспечивает передачу и возврат управления, а также сохранение и восстановление регистров, а связь по данным — передачу аргументов (параметров) 43 модуля в модуль. Организация связей модулей, написанных на одном языке, обычно не вызывает трудностей. Компиляторы (программы, преобразующие файл, написанный на языке высокого уровня, в файл, содержащий двоичный код) в этом случае обеспечивают связь по управлению и данным автоматически. При формировании команд, организующих межмодульные связи, компиляторы выполняют стандартные согла¬ шения о связях. Эти соглашения устанавливают правила использо¬ вания регистров общего назначения для организации связи и опреде¬ ляют стандартную структуру области сохранения Загрузку регистров связей производит вызывающий модуль. При программировании йа языке "ассемблер" рекомендуется придерживаться стандартных соглашений о связях. Язык "ассемблер" ("макро") не ограничивается переводом программы в машинный код. Файл, который ассемблер образует для хранения программ, переве¬ денных в двоичный код, содержит также информацию о стартовом адресе программы. Этот адрес вычисляется в процессе загрузки, когда загрузчик (RUNS поместит программу в память. Определение начального адреса программы позволяет сложным программам загрузки компоновать единую программу из независимо оттранслированных модулей. Файл, полученный в результате компо¬ новки (тип 5ЛУ), отражает состояние памяти в тот момент, когда программа будет загружена. В нем установлен фактический начальный адрес (адрес передачи управления) и все относительные адреса соот¬ ветственно смещены. Программы монитора, как правило, используют первые 4008 слов памяти для управления, поэтому начальный адрес обычно равен 10008. На связь модулей, транслированных с разных языков, влияют особенности языковых средств и компиляторов. Языковые средства различаются неэквивалентными типами данных К особенностям компиляторов относятся неполной выполнение соглашений о связях, а также несходство в организации хранения данных эквивалентных типов. ' Обычно интерес представляют способы передачи управления и обмена данными между программами, выполненными на языках высокого уровня, и программами, написанными на машинно-ориенти- рованном языке Рассмотрим примеры, реализующие передачу управ¬ 41
ления и данных из программ на фортране в программы на'макро. Отметим, что обращение к программам на макро из фортрана произ¬ водится при помощи стандартного оператора вызова подпрограммы CALL. Например, оператор CALL РМ [А, В, С, ...) передает управ¬ ление программе на языке "макро" с именем РМ {А, В и С — пара¬ метры, значения которых необходимо передать в программу на макро). После передачи управления команде программы на макро с име¬ нем РМ регистр R5 содержит адрес числа переданных параметров. Следующие ячейки памяти содержат адреса адресов передаваемых параметров, примем, если параметры описаны как INTEGER (т. е. являются целыми), то их значения занимают по одному машинному слову и располагаются последовательно друг за другом, начиная с ячейки памяти, адрес адреса которой находится как(о) [R5) + 2. Если параметры описаны оператором REAL, то значение каждого параметра располагается в двух соседних ячейках памяти (т. е. зани¬ мает машинное слово двойной длины), так же как и в первом случае, с адреса (а) (R5) + 2. При этом значения каждого из параметров представлены в форме с плавающей запятой. Например, значение параметра А = 53.0 {REAL) в ячейках памяти будет представлено как 0415244 (старшее слово) и 000000 (младшее слово). Старшее слово в двоичном коде будет иметь вид 0 100 001 101 010 100... 0. Порядок (е) Мантисса В рассматриваемых микро-ЭВМ порядок (е) числа с плавающей запятой определяется как в = е' — 128, а мантисса нормализована и сдвинута влево на один разряд (т. е. старший разряд мантиссы скрыт). В нашем примере для порядка отводится шесть двоичных разрядов в = 134 — 128 = 6,. а восстановленная (сдвинутая вправо на один разряд) нормализованная мантисса имеет вид 11010100000000000000000. В соответствии с полученным порядком* {е = 6) отделим шесть старших двоичных разрядов и получим А = = 2°+22 + 24 + 2s =53.0. Программа на фортране [FT/), использующая внешнюю (макро- ассемблеровскую) процедуру РМ1, передает программе РМ1 пара¬ метры А и В. PROGRAMM FTI РМ:MOV@ R5.R1 (NTEGER А, В, С MOV [R1) +, R2 A =S2 MOV (RD+.R3 В =S3 BIS R2, R3 CALL РМ1 [А, В, С) MOV R3, (/?/) PRINT *, С RETURN END .END 42
Программа РМ1 обеспечивает прием этих параметров, обработку (в рассматриваемом примере обработка А и В сводится к их логи¬ ческому сложению) и передачу результата в программу на фортране посредством присвоения ему имени С. В общем случае через одни и те же параметры можно передавать данные как из фортрана в макро, так и наоборот. При этом преды¬ дущие значения параметров не сохраняются. Приведем пример обмена данными, описанными как REAL, между программами на фортране и макро. РМ2 .MOV@R5.R1 MOV# MEM, R2 MOV R2, R3 MOV (R1) +, [R2) + MOV iRI) + , {R2) + MOV [R1) +, \R2) + MOV iRJ) +, iR2) + FADD R3 MOV (ЯЗ) +4, iR1) + MOV (ЯЗ) +6, IRt) + RETURN .END Как видно, каждому параметру требуется две ячейки памяти. Приведенная в качестве примера программа обеспечивает передачу вещественных переменных А и В на языке "макро" (программа РМ2), их преобразование (в рассматриваемом примере сложение с плавающей запятой) и передачу результата в программу на форт¬ ране, посредством присвоения ему имени С, описанному как REAL. Передача параметров между программами на системных языках "квейсик" и'"бейсик" осуществляется (также через пятый регистр) аналогично рассмотренным примерам. Однако способы передачи уп¬ равления программе на макро несколько отличаются от передачи на фортране и изложены в соответствующих руководствах. Прикладное программное обеспечение* (ПО) статисти¬ ческой обработки экспериментальных данных. Программное обеспечение прикладной статистики является мощным и уни¬ версальным средством решения основных задач обработки результатов экспериментов. Как правило, современные ЭВМ снабжены достаточно сложными программными средствами статистической обработки и задача экспериментатора состоит в их максимальном и наиболее эффективном использовании. В настоящее время в нашей стране и за рубежом накоплен большой опыт создания и применения ПО вычислительных машин различных классов,' прежде всего больших универ¬ сальных ЭВМ [1,2, 29, 32, 37, 38, 69]. PROGRAMM FTR REAL А, В, С А =3.5 В-28.7 CALL РМ2 [А, В, С) PRINT *, С END 43
Программные средства статистической обработки данных по типу их системной организации можно разбить на несколь¬ ко классов, среди которых особенно широко используются средства двух типов. Комплексы и библиотеки программ (подпрограмм). К настоящему времени пользовате¬ лями разработано огромное число подпрограмм, которые могут быть использованы при статистической обработке данных. Некоторые из этих подпрограмм систематизированы и описаны в доступной литературе [22, 26, 28, 48, 62, 64, 66, 77, 79, 85], другие — в ведомственных изданиях. Наборы тематически связанных подпрограмм, реализующих основные Операции по статистической обработке данных в пределах некоторого раздела прикладной статистики, называют комп¬ лексами программ (КП). Библиотеки подпрограмм (БП) представляют собой значительные по объему КП, в которых решены задачи стандартного описания и классификации компонент библиотеки. К классу БП относятся известные библиотеки подпрограмм для больших универсальных ЭВМ IMSL, SSP, ПНП-БИМ, а д/1я микро- и мини-ЭВМ — их ана¬ логи (микроверсии), например достаточно подробно описы¬ ваемая в настоящей книге библиотека для научно-техни¬ ческих расчетов БНТР/РАФОС. Библиотеки, как правило, постоянно дополняются подпрограммами, написанными поль¬ зователями или описанными в литературе. Для того чтобы использовать этот класс программного обеспечения, пользователь должен знать операционную систе¬ му и иметь навыки программирования на соответствующем алгоритмическом языке, поскольку при этом необходимо составить и отладить основную (вызывающую) программу, организующую ввод—вывод экспериментальной информаций и обращения к выбранным подпрограммам. Пакеты прикладных программ (ППГТ). Отличительной чертой этого класса программных средств является наличие специального входного языка, близкого к естественному. Пакеты ПП ориентированы, в первую оче¬ редь, на пользователя-непрограммиста. Разработки ПО этого класса проводятся в настоящее время особенно интенсивно, в том числе и применительно к мини- и микро-ЭВМ. Наиболее известными ПЛП являются пакеты BMDP, SPSS, ППСА, ОТЭКС, ОПЭК, а также их микроверсии, в частности версия ОТЭКС для СМ-4 и версия пакета BMDP в ОС РАФОС, разра- ботаннаяв НИИМ Л ГУ [1, 26, 32, 37, 38]. 44
Рассмотренные классы ПО статистической обработки данных существуют и развиваются в условиях сложного динамического равновесия. Детально эти вопросы анализи¬ руются в работах [1, 2, 69]. Каждый класс ПО имеет свои группы пользователей, для которых он наиболее приемлем. При решении задач статистической обработки эксперимен¬ тальных данных на микро-ЭВМ наиболее широко применя¬ ются в настоящее время комплексы и библиотеки подпро¬ грамм. Это объясняется многими причинами, среди которых можно отметить следующие: 1. Высокий общий уровень "компьютерной грамотности" экспериментаторов, обслуживающих автоматизированные из¬ мерительно-вычислительные комплексы на базе микро-ЭВМ, что позволяет им успешно создавать собственные основные программы обработки и расширять БП новыми подпро¬ граммами. 2. Сравнительно медленное создание и распространение микроверсий некоторых ППП {SPSS, ППСА и др.). 3. Ориентацию ПО для микро-ЭВМ на более широкий круг пользователей, не имеющих вьюокой квалификации в области статистической обработки. В этой связи в про¬ граммное обеспечение должны включаться в первую очередь простейшие стандартные статистические процедуры, кото¬ рые успешно реализуются на основе КП и БП. 4. Специфику автоматизированных информационно-изме¬ рительных систем на базе микро-ЭВМ, связанную с постоян¬ ным обменом данными с внешними устройствами и оператив¬ ным анализом экспериментальной информации, которую в настоящее время удается учесть только путем создания программ функционирования систем, включающих в себя подпрограммы статистической обработки из БП или под¬ программы пользователя. Отметим, что особенно целесообразно использовать микроверсии не узкоспециализированных статистических БП, а общематематических библиотек, таких, как SSPFST, NAG, IMSL, снабженных хорошими подпрограммами матрич¬ ной алгебры и вычислительной математики. Это позволяет пользователю достаточно просто расширять статистические разделы своей библиотеки, создавая удобные подпрограммы, приспособленные под конкретную ситуацию, специфику входных и выходных данных. В результате такого расши¬ рения удается в значительной степени избавиться от харак¬ терных недостатков статистических разделов некоторых 45
БП/ Например, статистический раздел БНТР/РАФОС, (см. ниже) из-за своего универсального назначения не содержит многих важных подпрограмм, которые было бы удобно использовать в конкретных условиях, набор программ и ме¬ тодов обработки отличается от принятого в отечественной литературе [22]. Использование подпрограмм других раз¬ делов БНТР позволяет пользователю скомпоновать собствен¬ ные недостающие подпрограммы. Создание программ с использованием библиотеки науч¬ ных подпрограмм. Одним из достоинств языка "фортран/ РАФОС" является наличие обширной библиотеки для научно- технических расчетов (БНТР/РАФОС). Оха представляет собой набор более 230 подпрограмм иа фортране, разбитых для удобства на пять разделов: 1) линейная алгебра, 2) числен¬ ные методы анализа, 3) статистика, 4) специальные функции, 5) сервисные программы. Библиотека БНТР/РАФОС является аналогом известной библиотеки SSPFST* используемой на ЕС ЭВМ [62]. Она представляет собой библиотеку пользователя, состав которой определяется при ее генерации. Она может* быть записана на магнитный диск или магнитную ленту в виде одного, большого файла типа FOR, содержащего исходные тексты программ, либо в виде файла типа OB J, содержащего объект¬ ные модули программ библиотеки. В первом случае текст нужной программы колируется и включается в программу пользователя и Последняя отлажи¬ вается как единый фортрановский модуль. Во втором случае при компоновке программы ^команда LINK) анализируются все обращения к подпрограммам библиотеки в основной программе, при этом используется объектная библиотека, содержащая необходимые модули. В подпрограммах библиотеки не фиксированы макси¬ мальные длины массивов данных, они указаны в списках формальных параметров описания подпрограммы. Обра¬ щение ко всем подпрограммам библиотеки осуществляется посредством оператора CAL L. Некоторые подпрограммы, которые могут быть исполь¬ зованы при статистической обработке, описаны в гл. 3 и 5.
1.4» ОСОБЕННОСТИ ПРИМЕНЕНИЯ ПРОГРАММИРУЕМЫХ МИКРОКАЛЬКУЛЯТОРОВ Сравнительная характеристика современных ПМК. Ис¬ пользование вычислительного средства любого класса значи¬ тельно облегчает и ускоряет обработку результатов экспери¬ мента. Однако применение больших или микро-ЭВМ для широкого круга потребителей часто сопряжено с труд¬ ностями. При решении сравнительно простых задач затраты, связанные с обращением к ЭВМ (прежде всего — временные), могут оказаться необоснованными. В настоящее время ПМК доказали свою эффективность при решении многих научно- технических задач, в том числе и при выполнении сложных статистических расчетов и реализации алгоритмов обработки экспериментальных данных в самых различных областях [4, 34, 58, 75, 76, 81, 84]. Свидетельством этого являются также программы, приведенные в гл. 3 и 6. Для статистической обработки результатов эксперимен¬ тов могут использоваться отечественные ПМК различных типов, основные данные о которых приведены в табл. 1.2. Выполняемые операции и функции в таблице обозна¬ чены так же, как и на лицевой панели ПМК. Некоторые из используемых символов требуют пояснения: [х] — выде¬ ление целой части числа; ( х } — выделение дробной части числа; max — определение большего из двух чисел, находя¬ щихся в операционных регистрах РХ и PY; зн — определение знака числа; А , V, ф, инв — логические операции над двоич¬ ными числами, выполняемые поразрядно: логическое умно¬ жение, логическое сложение, исключающее ИЛИ, инверсия; О'" - перевод времени в часах, минутах, секундах и долях секунды в часы и доли часа; О — обратный перевод значе- нии времени; О - перевод градусов, минут и долей минут в градусы и доли градуса; О - обратный перевод угловых измерений; сч — генератор псевдослучайной последователь¬ ности чисел в интервале от 0 до 1. Качественное отличие ПМК МК-52 от всех остальных моделей состоит в имеющейся памяти на 512 шагов, в ко¬ торую могут быть записаны программы и числовые данные из регистров памяти общего назначения (РОН). Помещенная в эту память информация сохраняется при выключении ПМК, что является существенным достоинством данного кальку¬ лятора» 47
В микрокалькуляторах типов МК-46, МК-64, МК-52 предусмотрена возможность подключения внешних уст¬ ройств, что существенно расширяет возможности использо¬ вания этих калькуляторов в автоматизированных информа¬ ционно-измерительных, контролирующих и управляющих системах. Особенности программного обеспечения ПМК. Основ¬ ные сведения о языке программирова¬ ния. Каждый ПМК характеризуется своей системой команд или входным языком. Как видно из табл. 1.2, можно вы- Таблица 1.2 Тип ПМК Математические операции и технические характеристики , Б 3-21, МК-46, МК-64 БЗ-34, МК-56, МК-54 МК-61, МК-52 +; X; V7х2; 1/х; sin; cos; xY\ in; вх; n + ~+ + в/х + - - lg; tg; 10х; arcsin (sin-1); + + arccos (cos"1); arctgftg’*1) Ixl, {.*}, U], max, зн,Л,\/ » инв - - + 0 , 0 , 0, 0 , сч — — + Число шагов программы 60 98 105 Число РОН 8 14 15 Число регистров операционного стека 2 4 4 Регистр предыдущего результата - + + Кольцевой стек + - - Косвенная адресация - + + Организация циклов с регистрами РО-РЗ - + + Организация подпрограммы, условные + + + и безусловные переходы 48
делить три типа входных языков ПМК, которые назовем входными языками БЗ-21, Б3-34, МК-61. В связи с тем, что имеются отличия в обозначении некоторых одинаковых команд в разных ПМК, а принятое обозначение некоторых команд оказывается не совсем удобным для записи, исполь¬ зуемая авторами форма записи таких команд представлена в табл. 1.3. Остальные символы команд приводятся в том виде, в каком они изображены на лицевой панели ПМК. Таблица 1 3 Функция Используемое обозначение Другие обозначения Ввод числа, разделение чисел t , В; В \ Обмен между регистрами’ X Y X Y; г Запись числа в РОН П х-*п Запись числа из РОН в PX ИП п -*х Кольцевая перезапись чисел в регист¬ рах операционного стека F-* 0 Работа с программой, в частности ее ввод в ПМК, упро¬ щается, если перед символом команды стоит символ соответ¬ ствующей префиксной клавиши. Например, PtHFtt) — вызов в регистр Х(РХ) числа я, Fx2 — вычисление квадрата числа, Pin (Fin) —вычисление натурального логарифма и т. д. Программа, записанная на одном из языков'ПМК в неко¬ торых случаях может быть переведена на другой язык фор¬ мальными методами. Эти методы предполагают, что замена команды одного языка командой или фрагментом програм¬ мы другого языка обеспечивает идентичное оригиналу содер¬ жимое регистров памяти и операционного стека после ее выполнения. Для ПМК, имеющих одинаковую структуру, перевод программы с языка более простогб на более сложный не вызывает затруднений, а лишь приводит в некоторых случаях к избыточности новой программы. Так, программа для БЭ-34 реализуется на МК-56, МК-54, МК-61, МК-52 без ка¬ кой-либо коррекции. Но если в программе для Б3-34 опре¬ деление, например, Ixl требует выполнения двух операций: 49
Fx2; Fyj~, то в МК-61 они могут быть заменены одной коман¬ дой, входящей в язык этого ПМК. Обратный перевод из языка более сложного в'более простой осуществить труднее, а иногда и невозможно вовсе. Так, невозможно с помощью Б3-34 выполнить логические операции, предусмотренные в МК-61. Наиболее сложным оказывается перевод программ, записанных для ПМК с различной организацией. Это ПМК группы БЗ-21, с одной стороны, и групп Б3-34 и МК-61 — с другой (см. табл. 1.2). Подробно такой перевод рассмотрен, например, в работе [75]. В связи с тем, что ПМК БЗ-21 в настоящее время с произ¬ водства снят, современные ПМК имеют организацию БЭ-34, а программы, записанные на языке Б3-34, полностью реали¬ зуемы на МК-56, МК-54, МК-61, МК-52, программы в настоя¬ щей книге приведены только на языке Б3-34. Общие рекомендации по разработке программ. Несмотря на значительное число справочных изданий с программами для ПМК {4, 34, 76, 8-1, 84 и др.], для4 эффективного использования программ требуются опре¬ деленные знания по программированию. Это связано с тем, что конкретные условия решаемой задачи далеко не всегда совпадают с данными из справочника, а в некоторых случаях требуемой справочной информации просто нет. В пособиях по ПМК имеются подробные методические рекомендации по составлению и отладке программ, приемам программи¬ рования [4, 84 и др.], поэтому остановимся лишь на неко¬ торых общих положениях. Составление программы является необходимым усло¬ вием реализации вычислительного алгоритма» Записывать разработанную программу в память ПМК имеет смысл приг многократном ее применении. Кроме экономии времени, автоматическое повторение вычислении исключает неи> бежные при ручной работе ошибки. ^ При составлении сложной программы целесообразно использовать ее подробное представление в виде таблицы, где в строке следует записать адрес, команду, код операции, соответствующий данной команде в используемом ПМК, содержимое регистров операционного стека и регистра предьь дущего результата, распределение данных в РОН, а также комментарии к команде или блоку команд. Такая запись упрощает составление программы, ее анализ, оптимизацию и дальнейшую отладку [4]. 50
Первоначальный вариант программы должен обеспечивать выполнение заданного алгоритма. Для разветвляющихся и циклических алгоритмов переходы в программе (условные или безусловные) обычно указывают стрелками, а места для адресов переходов на лервом этап$ оставляют свобод¬ ными. После того как создана основа будущей программы, в ней выделяются повторяющиеся цепочки команд, которые могут быть оформлены как лодпрограммы. Если п — число команд в повторяющемся участке программы, а N — число повторений этого участка, то организация подпрограммы приводит к экономии памяти, когда 2N + п +1 < Nn. На следующем этапе рассматривается возможность и целесообразность сокращения числа используемых РОН с учетом сохранения информации в регистрах операционного стека, регистре предыдущего результата, а также возмож¬ ность сокращения числа команд программы, например* при изменении последовательности действий. Наконец, изучается возможность улучшения программы лутем введения сервисных блоков, упрощающих инструкцию по ее применению (сокращающих число ручных операций) и таким образом уменьшающих вероятность возможных ошибок. По окончании программирования уточняются и записы¬ ваются адреса переходов. \ Предложенная последовательность действий представ* ляется наиболее целесообразной, хотя и не гарантирует созда¬ ние наилучшей программы. Заметим, однако, что тщательная отработка программы нужна при ее многократном дальней¬ шем использовании либо при возникновении дефицита па¬ мяти. Во многих случаях для дальнейшего улучшения про¬ граммы требуются неоправданные затраты времени. Важной составной частью вычислительного процесса является анализ точности полученного результата. Источни¬ ками погрешностей в ПМК являются ограниченная разряд¬ ность внутренних регистров и приближенность численных методов, используемых для вычисления значений различных встроенных функций. Влияние этих источников на погреш¬ ность конечного результата зависит от последовательности выполняемых действий и должно быть учтено при програм¬ мировании [3,34,76]. После того как программа составлена, она записывается в память программы ПМК, проверяется и отлаживается. 61
Для отлаженной программы ее подробная запись пред¬ ставляет лишь учебный интерес. Обычно на этом этапе про¬ грамма приводится к виду, удобному для хранения и даль* нейшего использования. Удобным является представление программы в виде табл!(|цы с номерами ячеек, соответствую¬ щими адресам памяти. В эти ячейки заносятся символы команд и соответствующие коды операций [4]. Наличие последних облегчает проверку записи программы в ПМК. Однако в литературе распространена более компактная запись, исключающая коды операций [34, 75, 76, 84]. По этой записи в строке размещается 12 команд для БЗ-21 и 10 — для БЭ-34. Первая команда каждой строки имеет адрес, заканчивающийся нулем; таким образом просто определяется адрес любой команды. Применение программы требует инструкции, описы¬ вающей порядок действий пользователя. Вид представления инструкции может быть произвольным, однако необходи¬ мость экономии места приводит к формализации записи. Например, запись инструкции: ах ПО; а2 П1; В/О; С/П; X; С/П; БП 34 С/П; у в РХ и Р5, означает: занести в регистры Р0 и Р1 исходные данные а у иа2. Установить программный счетчик на нулевой адрес (как правило, первая команда программы записывается в ячейку памяти с адресом 00) и произвести пуск программы. Ввести массив данных| х;|, после ввода каждого xf подавать команду С/П. Завершающий участок программы записан в память программ, начиная с адреса 34. Переход те нему осуществляется командой безу¬ словного перехода после ввода всего массива . Оконча¬ тельный результат у размещается в регистрах РХ и Р5. Часто для повторного применения программы требуется иной порядок действий. Например, если необходимо решить задачу для тех же исходных данных ах и а2. но нового массива {*/} , инструкция может быть дополнена записью: при повторных вычислениях БП 17; ху* С/П и т. д. Работа с внешними устройствами. Воз¬ можности ПМК применительно к задачам обработки экспери¬ ментальных данных и создания автоматизированных инфор¬ мационных систем могут быть расширены с помощью раз¬ личных внешних устройств. Например, для МК-52 промыш¬ ленностью выпускаются блоки постоянной памяти с записью в них набора различных программ общего назначения. Спе¬ циальными командами пользователь переписывает нужную ему, программу из блока памяти в память программ ПМК 52
и далее действует в соответствии с прилагаемой к блоку инструкцией. Особого внимания заслуживают ПМК, которые могут использовать* исходные данные, вводимые не с клавиатуры, а по внешнему каналу связи, также выводить подучаемые данные и результаты расчетов на регистрирующее или испол¬ нительное устройство (МК-46 и МК-64). Эти ПМК по своей организации и вычислительным возможностям аналогичны БЗ-21. Возможность ввода информации с внешней шины в цифровой форме предусмотрена в МК-46, в МК-64 имеется АЦП, позволяющий работать с аналоговыми сигналами. При работе с внешними устройствами в Р9 ПМК должен быть записан код эксперимента, разряды которого определяют число опрашиваемых входных устройств (от 1. до 7), син¬ хронный или асинхронный характер работы ПМК с источ¬ никами данных, наличие или отсутствие допускового конт¬ роля входной информации, характер выводимой инфор¬ мации (входные данные, выходные данные и результаты обработки, только результаты или отсутствие вывода). Особенностью программы обработки, записываемой в ПМК, является обязательность команды вывода данных на внеш¬ нюю шину, которая помещается в конце программы перед командой С/П. В регистры кольцевого стека записываются допусковые величины для контроля входной информации по первым шести каналам. В каждый регистр стека записывается по три разряда нижнего и верхнего пределов. Информация от внеш¬ них устройств поступает по семи каналам, записывается в РОН со второго по восьмой в нормированном виде. Если предварительно в соответствующий регистр ввести множи» тель 1 • 104, информация будет записана в реальном масш¬ табе (три разряда). Так можно обеспечить умножение вход¬ ных данных на любой коэффициент вида 1 • 10" (/7 = 1 ... 8). При допусковом контроле выход значений получаемых данных за пределы допуска регистрируется загоранием соответствующего проверяемому каналу разряда специаль¬ ного индикатора на лицевой панели. При подаче команды С/П ПМК выполняет опрос кана¬ лов, записывая поступающие с них данные в РОН. Одновре¬ менно выполняется допусковый контроль. По окончании контроля (если задействованы все семь каналов ввода, время приема и контроля данных составляет около 0,6 с) начинается обработка данных по записанной в ПМК програм¬ 53
ме. По окончании вычислений выводятся результаты. Если в программе предусмотрена команда безусловного перехода к началу программы, для повторного пуска достаточно подать команду С/П. Для работы микрокалькуляторов типов МК-46 и МК-64 с внешними устройствами требуется согласование уровней входных и выходных сигналов ПМК и этих устройств. Для работы с регистрирующим устройством требуется подача специальных сигналов на ПМК, разрешающих вывод еле* дукнцего данного. Более подробно организация работы с внешними уст¬ ройствами изложена в описании МК-46 и МК-64. ГЛАВА ВТОРАЯ ПРЕДВАРИТЕЛЬНАЯ ОБРАБОТКА ЭКСПЕРИМЕНТАЛЬНЫХ ДАННЫХ 2.1. ОСНОВНЫЕ ЗАДАЧИ ПРЕДВАРИТЕЛЬНОЙ ОБРАБОТКИ Конечной целью предварительной обработки эксперимен¬ тальных данных является выдвижение гипотез о классе и струк¬ туре математической модели исследуемого явления, опреде¬ ление состава и объема дополнительных измерений, выбор воз¬ можных методов последующей статистической обработки и анализ выполнения основных предпосылок, лежащих в их основе. Для ее достижения необходимо решить неко¬ торые частные задачи, среди которых можно выделить сле¬ дующие [1, 2,12, 19, 22, 30,51, 52, 68,74, 82] : 1. Анализ, отбраковка и восстановление аномальных (сбитых) или пропущенных измерений. Эта задача связана с тем, что исходная экспериментальная информация обычно неоднородна по качеству. Наряду с основной массой резуль¬ татов прямых измерений, получаемых с возможно малыми погрешностями, в экспериментальных данных часто имеются грубые промахи, вызванные просчетами наблюдателя, сбоями при вводе в ЭВМ, аномалиями в работе измерительных при¬ боров и т. д. Без анализа качества данных, устранения или уменьшения влияния аномальных данных на результаты 54
последующей обработки можно прийти к ложным выводам об изучаемом объекте иди явлении. 2. Экспериментальная проверка законов распределения экспериментальных данных, оценка параметров и числовых характеристик наблюдаемых случайных величин или процес¬ сов. Выбор методов последующей обработки, направленной на построение и проверку адекватности математической модели исследуемому явлению, существенно зависит от закона распределения наблюдаемых величин. Так, при исполь¬ зовании для обработки процедур классического регрессион¬ ного анализа, в первую очередь, необходимо выяснить, явля¬ ется ли закон распределения наблюдаемых величин гаус¬ совским и некоррелированным и т. д. Получаемые при реше¬ нии этой задачи выводы о природе экспериментальных дан¬ ных могут быть как весьма общими (Независимость изме¬ рений, их равноточность, аддитивный характер погрешностей и др.), так и содержать детальную информацию о статисти¬ ческих свойствах данных (вид закона распределения, его параметры). Решение центральной задачи предварительной обработки не является чисто математическим, а требует также содержательного анализа изучаемого процесса, схемы и методики проведения эксперимента. 3. Сжатие и группировка исходной информации при большом объеме экспериментальных данных. При этом должны быть учтены особенности их законов распределения, которые выявлены на предыдущем этапе обработки. 4. Объединение нескольких групп измерений, получен¬ ных, возможно, в различное время или в различных условиях, для совместной обработки. 5. Выявление статистических связей и взаимовлияния различных измеряемых факторов и результирующих пере¬ менных, последовательных измерений одних и тех же ве¬ личин. Решение этой задачи позволяет отобрать те перемен¬ ные, которые оказывают наиболее сильное влияние на резуль¬ тирующий признак. Выделенные факторы используются для дальнейшей обработки, в частности, методами регрессион¬ ного анализа. Анализ корреляционных связей делает воз¬ можным выдвижение гипотез о структуре взаимосвязи переменных и, в конечном итоге, о структуре модели явле¬ ния. В ходе предварительной обработки кроме указанных часто решают и другие задачи, имеющие частный характер: отображение, преобразование и унификацию типа наблюде¬ 55
ний, визуализацию многомерных данных и др. [2, 10, 74]. Следует отметить, что в зависимости от конечных целей исследования, сложности изучаемого явления и уровня априорной информации о нем объем задач, выполняемых в ходе предварительной обработки, может существенно изменяться. То же самое можно сказать и о соотношении целей и задач, которые решаются при предварительной обра¬ ботке и на последующих этапах статистического анализа, направленных на построение модели явления. Так, например, если целью эксперимента является изменение значения неиз¬ вестной, но заведомо постоянной величины путем прямых многократных измерений с помощью средства измерений с известными характеристиками погрешностей, то полная обработка результатов измерения ограничивается простейшей предварительной обработкой данных (оценкой математи¬ ческого ожидания!. В то же время, если измеряемая величина является переменной, а закон распределения погрешностей измерительного прибора неизвестен, то для решения конечной задачи потребуется проведение как предварительной обра¬ ботки данных, так и применение статистических методов исследования физических зависимостей. Для решения задач предварительной обработки исполь¬ зуются различные статистические методы: проверка гипотез, оценивание параметров и числовых характеристик случай* ных величин и процессов, корреляционный и дисперсионный анализ. Для предварительной обработки, оказывающей, как следует из сказанного, первостепенное влияние на ка¬ чество решения конечных задач исследования, характерно итерационное решение основных задач, когда повторно возвращаются к решению той или иной задачи после полу¬ чения результатов на последующем этапе обработки. 2.2. ОСНОВНЫЕ СВЕДЕНИЯ ^ ИЗ ТЕОРИИ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКОЙ СТАТИСТИКИ Формы описания случайных величин и процессов и их числовые характеристики. Экспериментальные данные представляют собой реализации случайных величин или случайных процессов. Поэтому для их описания используется математический аппарат теории вероят¬ ностей, оперирующей со случайными событиями и величинами, и теории случайных процессов. \ 56
Случайные величины делят на одномерные (скалярные) и много¬ мерные (векторные), которые представляют собой совокупности (наборы) одномерных случайных величин. И одномерные и много¬ мерные случайные величины могут быть как дискретными, так и не¬ прерывными Дискретная случайная величина принимает»значения, принадле¬ жащие конечному или счетному множеству. Множество значений непрерывной случайной величины является несчетным, или конти¬ нуумом. В зависимости от физической природы дискретные величины подразделяются на количественные, ординальные (или порядковые) и номинальные (или классификационные). Непрерывные ^случайные величины относятся к величинам количественного типа. Не умаляя значения дискретных случайных величин е прикладных экспериментальных исследованиях, тем не менее далее ограничимся описанием непрерывных случайных величин. Свойства дискретных случайных величин различных типов рассматриваются в работах [22*30,52]. Из теории вероятностей известно, что исчерпывающее описание случайной величины дается ее законом распределения вероятностей — правилом, позволяющим определять вероятность попадания этой величины в любую заданную область ее значений. Закон распределения (распределение) случайной величины может быть задан с помощью любой из двух взаимно однозначно связанных между собой функций: функции распределения и плотности вероят¬ ности. Рассмотрим эти функции применительно к одномерным и мно¬ гомерным случайным величйнам. Функция распределения (вероятностей) одномерной случайной величины определяетогследующим образом: F (х): =Я[Х < х). Плотность (распределения) вероятности представляет собой производную функции распределения: W(х) = dFix)/dx. Элемент вероятности W[x)dx =Я[х ^ X < х + dx]. Функции F (х) и W (х) произвольной случайной величины должны удовлетворять многим требованиям, в частности. F (х) ^ 0; ИМх) ^ 0, F (х) — неубываю- +оо иная функция; J ИМх)</х = 1 _оо Для удобства применения в некоторых случаях функции распре¬ деления и плотности вероятностей удается представить в виде пара¬ метрических функций — функций известного вида, удовлетворяющих упомянутым требованиям и зависящих от некоторого (малого) числа параметров* F(x) = F[x, в вг ) = Fix, 0 ), ИМх) = ИМх, 0 ь »0#- ) = ИМх,0 ), где0 = [0J, ..вг] т~ вектор параметров Примеры таких распределений приведены далее. Для некоторых видов функций распределения параметры влияют на свойства плот¬ ности вероятности достаточно избирательно. В этом случае удается разделить параметры на три основных типа, поскольку они имеют 57
вполне определенный геометрический смысл: сдвига, масштаба и Формы. Параметр сдвига (расположения) характеризует расположение области возможных значений величины. Параметр масштаба (шкалы, разброса) характеризует размер этой области. Параметр формы (ви¬ да) определяет форму данной плотности вероятностей (в смысле, отличающемся от расположения и масштаба) среди функций данного класса. Примерами параметров сдвига и масштаба являются пара¬ метры м и а2 для гауссовского распределения ЛМм, о2); примером параметра формы является параметр распределения Вей булл а, при с = 1 распределение совпадает с экспоненциальным, при с = 2 — с распределением Рэлея. Несмотря на то, что параметризация законов распределения существенно упрощает их использование, некоторые задачи удается решить еще более простыми средствами, используя числовые харак¬ теристики распределений. Эти характеристики определяются через начальные и центральные моменты различных порядков. Начальным моментом к-го порядка случайной величины назы¬ вается величина +оо / x^WixSdx. —оо Центральный момент *-го порядка случайной величины опреде¬ ляется следующим образом: +оо Мк{х) := J (х - т {х})*ИМх)*х. —ОО Для определения традиционно используемых числовых харак¬ теристик применяют моменты не выше четвертого порядка. На прак¬ тике обычно применяют: математическое ожидание (характеристика сдвига) +оо Af{x} = x= мх : J xWWdx; —оо дисперсию ^характеристика масштаба) + оо °{Х) = °\ ' =М1 {*) = / (* - Х)2ИМх)</х; —ОО коэффициент асимметрии (характеристика формы) л{х}-=Мз{х}/Мз{х}; коэффициент эксцесса (характеристика формы) £{x}:=„4{x}/Af4{x}-3. 68
Поскольку существуют распределения, для которых некоторые (или все) из этих характеристик не определены, то наряду с ними часто используют: моду распределения (характеристика сдвига) Mod{x} = arg max IV (х); x медиану (характеристика сдвига) Med{x}= x0J5. где xq “ квантиль распределения q-го порядка (см. ниже); полуширину функции плотности вероятности на заданном уров¬ не 0L от максимального значения (характеристика масштаба) АХ : IV (ДХ/2) = alV^x- При статистических расчетах (интервальном оценивании, про¬ верке статистических гипотез) большое значение имеют квантили распределений различного (qr-ro) порядка - корни уравнения F (х) = = д. Как отмечалось, квантиль порядка </ = 0,5 называется медианой. Для описания вероятностных свойств многомерной случайной величины К = [Х| ... Хп]т используются л-мерные плотности веро¬ ятности HV (х) и функции распределения F (х). Среди числовых характеристик многомерных случайных вели¬ чин наиболее широко используются: вектор математического ожидании м{х] S X =[Х, ...Хп]т-У корреляционная (ковариационная) матрица d{x] = м {(X -X) (X - Х)т}= {Оц]. где а/у = Af{(X;- — Xj) (Ху — */)} — корреляционный момент слу¬ чайных величин Xj и Ху (отметим, что Ojj = M^[Xj — Xj)2 } = = d|x }- дисперсия величины Xj). / Вр многих случаях экспериментальные данные представляют собой реализацию случайных процессов — случайных функций вре¬ мени (или иногда другой, например, пространственной переменной). Поскольку при обработке таких данных на цифровой ЭВМ произ¬ водится их дискретизация во времени, то последовательность отсчетов (сечений) случайного процесса Х(г) в моменты времени гj, ..., tn может интерпретироваться как совокупность случайных величин Х| = X (f|), ..., — X (f„). Для описания вероятностных свойств каждой из них (X/, / =1, п) могут применять характеристики, исполь¬ зуемые ранее. W (х,) = 1У(х,-, f,); F (х,) = F (x/e f,); Х; =Х (f,-); D{Xj } =а2 IГ/) и т. д. При совместном рассмотрении всех временных сечений случай¬ ного процесса их целесообразно трактовать как многомерную слу¬ 59
чайную величину Х = [Х iti) . .. X (г„) ]т и использовать для ее описа¬ ния соответствующие характеристики: ИМх) = ИМх, t); F(x) — = Fix, t); М{х] = Af{x, t); d{x } = o{x, t) . где t = = lt,...t„)T. Некоторые модельные законы распределения случайных вели¬ чин. При построении вероятностных моделей формирования экспери¬ ментальных данных, при описании ошибок измерений, а также при статистическом анализе качества оценок параметров и проверке гипотез широко используются стандартные, хорошо изученные законы распределения случайных величин. Эти распределения достаточно разнообразны, что объясняется, естественно, разнообразием свойств реальных случайных величин и процессов. М. Кендалл и А. Стьюарт разделяют функции распределения на следующие пять классов: симметричные унимодальные, симмет¬ ричные двухмодальные, косые, крайне косые и все остальные [43]. В свою очередь, каждый из этих классов подразделяется на более мелкие подкласбы, в которые входят и все наиболее известные, клас¬ сические распределения, неко?орые из которых будут рассмотрены ниже. Более подробно и широко модельные распределения и их свой¬ ства рассмотрены в работах [2, 30,43,57,61,80]. 1. Гауссовское (нормальное) распределение. Ото распределение играет исключительную роль в теории вероятностей и математической статистике. Оно описывает случайные величины, которым присущи самые общие закономерности, непрерывность значений, симметрич¬ ность, унимодальность, большая вероятность малых отклонений от среднего значения. Известно, чта случайные величины, формирующиеся под воздей¬ ствием большого числа независимых случайных факторов, взаимо¬ действующих аддитивно и имеющих один порядок значений, распре¬ делены приблизительно по гауссовскому закону. К гауссовскому закону стремится распределение многих выборочных статистик, используемых при оценивании параметров и проверке гипотез (см. ниже). Одномерная плотность вероятностей гауссовской случайной величины X [X ~ ЛЛмх» °Х^ ^ имеет ВИД _ <* -мя)2 W(x) = - 1- - в 2огх . <2.1) V 21Га2х функция распределения /Чх) = ф ^• {22) где мх и ах параметры распределения, определяющие сдвиг и' 60
1 г ~\*г масштаб соответственно; Ф{г) = J е с/Г2 — функция у2п -«в распределения нормированной (стандартной) гауссовской случайной величины z ~ Л/(0,1) (функция ошибок, интеграл Лапласа). Числовые характеристики одномерной гауссовской случайной величины: м{х} = Med{x) = Mod(x) = Д1Х; D{x)=oy д{х} = 0; £{х} = 0. Для многомерного статистического анализа фундаментальное значение имеет понятие многомерного гауссовского закона распре¬ деления векторной случайной величины Х[(Х ~ ЛМ Мх? 2^) ]: т" ' ТбРШГ Н "■' "" ’‘х’ ]' °31 где j/tjf = (мь* • щ1 МА/1Т ~ вектор математических ожиданий; 2^ = [or..] (/, / = Л, N) — корреляционная (ковариационная) матрица. Числовые характеристики л-мерной гауссовской случайной величины: м{х j = Med{x }= Mod{x d{x )= M {(X - X) ix--x)T) = Xx. Матрица 2^ является неотрицательно определенной симметрич¬ ной* Диагональные элементы о.. = а? равны дисперсиям соответствую¬ щих одномерных случайных величин X,. Если величины X. (/ = 1, N ) независимы (или некоррелированы, что в данном случае эквива¬ лентно) , то Xjf = diag (а? ... a]y) и л-мерная плотность вероятности представляет робой произведение одномерных плотностей вероят¬ ности. Одно из замечательных свойств гауссовского распределения состоит в том, что частные и условные распределения, полученные из него, также являются гауссовскими. Более того, линейные комби¬ нации гауссовских случайных величин распределены по гауссовскому закону: если X ~ 1 то т~меРнь|й вектор Y = АХ имеет распределение N (Aftjf, А2^АТ). Здесь А — матрица размера т * N. Частным, но на практике важным случаем многомерной гаус¬ совской случайной4^ величины является двухмерная гауссовская ве- 61
личина (Xj, Х2), для которой ИМх|,х2) = 1 - 2 р* ~ L <*2 - М2>? (2.4) V (2n)2[ouoi2(1 -/>5f)J2 ^ ( 1 r^l-Ml)2 . (*i -Ml)(*2-»*2> X expi г— J - I 2 (1 - p^> L л Чмсловые характеристи ки: . вектор математических ожиданий р= [ M1M2JТ» [аи ап ] f _ I, где оп = М1 (X/ — Х;) X <Ы 02tj Ч L ' ^ коэффициент корреляции р^ = о\гЫ аи°22- Таблицы квантилей гауссовского распределения Хд приведены в работах 12, 4, 9, 30, 66]. Программы цх вычисления описаны в гл. 3. 2. Логарифмически-гауссовское (логнормальное) распределение. Описывает случайные величины, формирующиеся под воздействием большого числа независимых случайных факторов, взаимодействую¬ щих мультипликативно и имеющих один порядок значений: X L (л?, а). 1 Плотность вероятностей 1 J (Inx — \пт)21 757%—*Т —I h>«i о и < 01. 051 функция распределения Опх — ixxmWa J exp(-*2/2)dff U>0); FU» =i| V*? 0 0 (x < О), где m, о — параметры распределения (/л, я > О). Числовые характеристики: -а2 Af^X ^ ; Mod{x} = me Med{x<J^= m; о{х ^ = л»2е — 1); = 1е"2 -И^е^ +2); £ } = Ке? -1) (е^ + Зе2** + 6®°* + 6). (2.6) I/ 62
3. Равномерное (прямоугольное) распределение. Это распре¬ деление встречается в прикладной статистике в двух типовых случаях: во-первых, когда в некотором интервале все значения случайной ве¬ личины равновероятны и, во-вторых, при аппроксимации других непрерывных распределений в относитаяьйо малых интервалах зна¬ чений Плотность вероятности случайной величины X, имеющей равно¬ мерное распределение [X ^ R (а, Ь) ], 1/(6-а) (а < х < 6); ИЧх) = • (2.7) О (х > Ь, х < в), функция распределения 0 (х < в); F М = { (х -а)ПЬ -а) (а < х < Ь); 125) 1 ix>b). Здесь'в и b — параметры распределения (границы области воз¬ можных значений), определяющие и сдвиг и масштаб. Числовые характеристики: м{х} = Med{x }= (в + 6)/2; о{*} = (*-в)2/12; /»{х)=0; я{X } = —1,2. Мода распределения отсутствует. 4. Распределение Коши (Брейта—Вигнера). Оно обладает большой спецификой — ни один из его моментов (включая математическое ожидание и дисперсию) не определен. Примером случайной величины, имеющей распределение Коши, является отношение двух незави¬ симых гауссовских случайных величин Х\ и Х2 (Хь Х2 ~ Л/(0,1)): X = Х1/Х2 ~ С (а , с). Распределение Коши является классическим примером распределения а более тяжелыми, чем у гауссовского, "хвостами". Плотность вероятности W(x)=l- - (25) » с2 + [х -в)2 функция распределения _, „ 1 1 х — а F [х) = — + — arctg , (2.10) 2 7Г с где а — параметр сдвига; b — параметр масштаба (полуширина распре¬ деления на пол у высоте). Числовые характеристики. Med{x}=Wod[x] = а. 63
Случайная величина, имеющая распределение Коши, обладает свойством самовоспроизведения: 1) если X ~ С(а, с), то величина Y = Ь0 + ЬхХ имеет распре¬ деление Коши: Y ^ С {а\с), где а* =Ь\а + Ь$; с'= \Ь\\с; 2) если X Cia, с), то величина У = 1/Х имеет распределение Коши: Y^Cia* с), где а' =а (а2 + Ь2); b' = bia2 + b2); 3) если независимые случайные величины X/ ~ С (в, с) (/ = 1 п — 1, п ), то их среднее значение Y = £ X: имеет распределение п i =1 Коши: У ~С(а,с). 5. Экспоненциальное (показательное) распределение. Оно явля¬ ется частным случаем гамма-распределения (см. ниже) или распре¬ деления Вейбулла [2, 80], широко используется, например, в зада¬ чах определения надежности. Плотность вероятности fxe ~Хх U > 0); о .и<01. • '2-’" функция распределения (1 — ехр(-Хх) (х > 0); 0 .,<01. И-1И «где X — параметр распределения (Л > 0), определяющий и сдвиг и масштаб. Числовые характеристики X Е (X): м{х) = 1/Х; Mod{x} = 0; Med(x } = In2/X; о[х }= 1/Х2; а{х }= 2; £{х }= 6. 6. Распределение Лапласа. Оно широко используется при описании погрешностей измерительных приборов [57]: X ~ £р(0, X) . Плотность вероятности |У(х) = Lxe-X*x-в* (хбя), (2.13) где X — параметр масштабаУ(Х >0); В — параметр сдвига. Числовые характеристики: Af{x} = Mod{x} = Med{x} = «; о{х} = 2/\2; »(Х)=0; Е(х}=3. 7. Распределение хи-квадрат (х2-распределение). Такое рас- пределение имеет сумма квадратов гауссовских стандартных случай- v ных величин X = 2 X2X,^N (0,1): X ~ х2 (*>) • Распределение х2 / =1 64
играет большую роль в статистическом оценивании и проверке ги¬ потез. Плотность вероятности (1 „р/2 — 1 _ —х/2 ^ Р*ГЫ2> Х * {Х>0); (2.14) О (х < 0), функция распределения т t х — — 1 —J / t2 е 2 dt (х>0); 2р12Г\»т о О (х < О), (2.15) где v — параметр (число степеней свободы), целое положительное число; Г(х) — гамма-функция Эйлера. Числовые характеристики: Л#(х} = V- Mod{х }= V-2 lv>2); о{х }= 2»; *{*} = 23121</7; e{x}=12/v. ^ Таблицы квантилей х2-распределения приведены в работах [2, 4, 9,30,56]. Программы для их вычисления описаны в гл. 3. 8. Распределение Стьюдента (t-распределение) * Широко исполь¬ зуется в интервальном оценивании параметров и при проверке статис¬ тических гипотез. Плотность вероятностей случайной величины X, имеющей г-рас¬ пределение [X Т Ы ], (v + 1) /2 ИЧх) = -■ - V v 7 ( 1 + — I (х Е /?), (2.16) где v — параметр (число степеней свободы), целое положительное число; Г(х) — гамма-функция. Числовые характеристики: м{х) = Med(х j = Mod{ X } = 0; р{х}= \v>2); *{х}=0; f{*} = 6/(i>-4) (i»>4). Таблицы квантилей r-распределения приведены в работах 12, 4, 9,30,56]. Программы их вычисления описаны в гл. 3. 9. Распределение Фишера—Снедекора (F-распределение, распре¬ деление дисперсионного отношения). Играет важную роль в теории оценивания, при статистической проверке гипотез, в дисперсионном анализе. 3 Заказ ИЗО 65
Плотность вероятности случайной величины X, имеющей Я-рас¬ пределение [X ~ F iv\, v2) ], где и v2 — параметры распределения (степени свободы), целые положительные числа; Г(х) - гамма-функция. Числовые характеристики: Таблицы квантилей F-распределения приведены в работах [2, 4, 9,30,56]. Программы их вычисления описаны в гл. 3. " Методы оценивания параметров распределений и их числовых характеристик. Закон распределения является исчерпывающей вероят¬ ностной характеристикой наблюдаемой в ходе эксперимента случай¬ ной величины или случайного процесса. Однако задача его опреде¬ ления по экспериментальным данным является достаточно сложной (см. § 2.3). Поэтому на практике часто определяют не законы распре¬ деления, а их параметры или числовые характеристики, основными из которых являются (при неявном допущении гауссовости закона распределения) математическое ожидание, дисперсия и коэффициент корреляции. Напомним основные положения теории точечного оценивания. Для упрощения ограничимся задачами статистической обработки скалярных величину Обобщения для векторных величин приводятся в работах [2,42]. Пусть случайная величина X описывается плотностью вероят¬ ности W{x), которая характеризуется набором неизвестных число¬ вых параметров (В i, ..., В г). Этот набор удобно представлять в виде вектора 0 = [01, ..В г]. Например, гауссовская случайная величина с распределением ЛПм, °2) имеет вектор параметров 0 = [ц а2]т. Набор параметров характеризует и любую иную вероятностную мо¬ дель. уравнение регрессии, дискриминантную функцию и т.д. Пара- *1 +»2 ivtx+v2) 2 (х>0); (2.17) О (х< 0), м{х} = »21\»2 -2) 2vo (v< + vo —2) a{x} = <2*, + »2 -2)V 8(*2 -4) _ <*2 > 6). (/Wj — 6) \/ i + l»2 — 2 66
метры в обычно неизвестны. Их необходимо оценить по выборке * = [*ь ..*/у] объема N. Часто неизвестен и вид функции 1У(х). Любая функция %р (х), которая не зависит от неизвестных пара¬ метров, называется статистикой. А Оценкой 0 параметра 0 называется статистика, реализация которой \р (х) принимается за неизвестное истинное значение пара¬ метра 0 . Так как выборка х априори является случайной, то и 0 есть случайная величина, имеющая свой закон распределения IV {в ). Ясно, что не всякая статистика может служить надежной оценкой для $ . Возникает вопрос о требованиях к оценкам. Наиболее распро¬ страненными являются требования состоятельности, несмещенности и эффективности. Оценка 0 называется состоятельной, если при неограниченном увеличении объема выборки N она сходится по вероятности к истин¬ ному значению параметра 0 : в £ $ <► lim Р[\в — е ) > ео) = О ( Ve<> > О). /V -» оо А Оценка в называется несмещенной, если ее математическое ожидание равно 0 при любом N (м{ $} — 0 ), в противном случае оценка называется смещенной. Величина : = [0 — м{в \ ] назы¬ вается смещением оценки. Из определения следует, что для несмел щенной оценки Ьл =0, для смещенной оценки d* Ф 0. 9 Э л Несмещенная оценка в , имеющая минимально возможную дис¬ персию о{? } :=м[(о -&)2) , называется эффективной. Эффективностью несмещенной Ьценки в относительно несме- А t щенной оценки $ называется отношение их дисперсий: eff (в 1в') = ,/о|. (2.18) Л Для векторного параметра 0 под дисперсией его оценки в обыч¬ но понимают след ее дисперсионной матрицы: 2 ГЛ 1 ( А X Л ^ » Т \ ^ А у Д Д 1 or2 = trD|0 j = trM|(e -в ) (9 -в )TJ = М -0 ) (0 -в )). Для смещенных оценок важным показателем является средний квадрат (полной) ошибки оцениваний: > L (в ) = М {(в - в )2} = </| + }, (2.19) который характеризует ошибки, вызванные как смещением оценки, ' так и ее случайным разбросом. Для векторного параметра *.(*) :=trM^(0 -в) (в -в)т\ = Л»{(в -в)т(в -в»}. 67
При сравнении смещенных (в общем случае) оценок 0 и в' относительную их эффективность можно определить как отношение их средних квадратов: ef f (0 I в ') = /.(•') IL (в ). (2.20) Использование дисперсии оценки или среднего квадрата ее ошиб¬ ки позволяет провести предварительный анализ качества оценки. При более детальном изучении экспериментальных данных используют методы интервального оцениваний (см. ниже). Для получения точечных оценок параметров используются раз¬ личные методы: метод моментов, метод минимума среднего риска (его конкретные реализации — методы максимума апостериорной вероятности, минимума среднего квадрата и среднего абсолютного значения ошибки оцениванияЗ, методы максимального правдопо¬ добия и наименьших квадратов и некоторые другие [2,30,42]. Рас¬ смотрим два последних из упомянутых метода, получивших наиболее широкое применение в классической математической статистике. 1. Суть метода максимального правдоподобия (ММП) состоит в следующем. Пусть наблюдаемая в ходе эксперимента случайная величина X имеет плотность вероятности W[x\e), которая Зависит от вектора неизвестных параметров в. При проведении N наблю¬ дений совокупность измерений , N, которую удобно представить в виде векторной случайной величины X = [Xj, ..., X/y]T описывается плотностью вероятности ИМх1б ). Отметим, что, если наблюдения являются независимыми и однородными, то N — П ИМ*/1б ). Функция ИМх 1в ) характеризует вероят- / = 1 ность получения выборки х при фиксированных значениях параметров и является, следовательно, /V-мерной функцией аргумента х. ✓ Если теперь зафиксировать выборку х, положив ее равной наблю¬ даемому значению, а аргументом считать вектор оцениваемых пара¬ метров 0 , то полученная функция НО Iх) :=ИМх1о) при каждом фиксированном значении $ будет характеризовать веро¬ ятность того, что данная реализация х получена при наблюдении за слу¬ чайной величиной, параметры распределения которой равны в . Функ¬ ция L (О 1х) называется функцией правдоподобия, она является г-мер- ной функцией аргумента 0 Согласно принципу максимального пр>дв- доподобия (Фишера) наилучшей при данной экспериментальной вы¬ борке х считается такая оценка векторного параметра, которая соот¬ ветствует максимуму функции правдоподобия: А А * 9=0 ММП = arg max L ® • (2.21) ® \ 68
Такая оценка называется оценкой метода максимального Правдо¬ подобия или МП-оценкой. Для получения МП-оценок часто используют систему уравнений dL (01х) 1дв — О (2.22) или (в скалярном виде) аИвь.... вг\х) №-, = 0 (/ = 1~>. (2.23) Для упрощения системы уравнений {223), в частности для их линеаризации, функцию правдоподобия часто подвергают некоторым монотонным преобразованиям, например логарифмируют, поскольку координаты максимумов у исходной и полученной функций совпа¬ дают. Тогда вместо системы (2.23) решается система ЛпМ»! вг|х) _ Ив j вг1х) det- - рв/ = 0 (/=1,г). (2.24) Уравнения (2.23) или (2.24) называются уравнениями правдо¬ подобия. При их решении следует иметь в виду, что полученные корни в отдельных случаях могут соответствовать не глобальным, а локаль¬ ным максимумам, или даже минимумам, или точкам перегиба функ¬ ции правдоподобия, т. е. представляют собой так называемые ано¬ мальные или "сбитые" оценки. Это требует детального анализа всех результатов оценивания, могущих вызвать сомнения в их истинности. Известно, что МП-оценки при высокоточных'измерениях (ширина функции правдоподобия по оцениваемым параметрам существенно меньше априорной плотности вероятности параметров) близки к байе¬ совским оценкам и при достаточно общих условиях являются асимп- тотически-несмещенными, асимптотически-эффективными, Состоятель¬ ными и асимптотически-гауссовскими [2, *В, 30,42]. 2. В методе наименьших квадратов (МНЮ, в отличие от метода, рассмотренного ранее, не используется информация о законе распре¬ деления экспериментальных данных и таким образом этот метод является непараметрическим методом оценивания. Это обеспечивает возможность получения соответствующих оценок (МНК-оценок), как правило, приемлемых по точности в тех случаях, когда вероят¬ ностная модель эксперимента неизвестна и метод максимального правдоподобия и другие параметрические методы принципиально неприменимы. Однако если закон распределения измерений известен, то МНК-оценки в общем случае проигрывают по точности параметри¬ ческим оценкам, в частности МП-оценкам. Исключение составляет случёй, когда измерения имеют гауссовскую статистику. Тогда МНК- оценки совпадают с МП-оценками (см. ниже, а также в гл. 5). Этот результат в общем виде сформулирован в известной теореме Гаус¬ са—Маркова [2, f>, 27]. Применительно к задаче оценки параметров распределения метод наименьших квадратов можно сформулировать следующим образом
(более общий случай см. в гл. 4). Рассмотрим функцию известного вида fj (в ), которая зависит от векторного параметра 9 к» общем случае — о г номера эксперимента, т. е. условий его проведения. Зна¬ чение функции fj (0 ) соответствует значению наблюдаемой в /*м эксперименте случайной величины Xj с некоторой ошибкой е/; xf = fji$) + б; с/ = ТГдГ). Требуется по результатам наблюдений | Xj (/ = 1, ЛО) оценить векторный параметр 0. Для этого вводится критерий качества оцен¬ ки^ : * М * Q(8)= Х[х,-ф(*н* / = 1 или в векторном виде Q(0) = [х — f (в ) ]Ttx — f (2)], (2.25) \ где f (в) = lftiO\ А Л Величины [xj — fj{$)) = в,, определяющие показатель Q (О ), представляют собой невязки оценивания в /-м эксперименте, а вектор А А \ х — f (в ) = е — вектор невязки оценки 6 . Метод наименьших квадратов определяет МНК-оценку из условия АД А О — 0MHK = arg г^п Q * (226) Для определения МНК-оценок, как правило, от вариационного уравнения (2.26У переходят к системе уравнений dQtO)fdO= 0, (227) которую часто называют системой нормальных уравнений. При выборе функций fj (О) необходимо обеспечить ее диффе¬ ренцируемость no Or а также чтобы случайные величины е/ имели нулевые математические ожидания и желательно были бы некоррели- рованы между собой и имели бы одинаковые дисперсии. _ В частности, при оценке математического (0 = ХУ ожидания можно принять fj {в ) =Х, тогда: л N а О (X) = Z (Xj — X)2; 12128) / =1 А - N XMHK= Z 2 хг <2-29> " / = 1 70
Как отмечалось, при гауссовской статистике измерений (и, до¬ бавим, при их статистической независимости и равноточности) эта же оценка может быть получена методом максимального правдоподобия. Действительно, в этом случае функция правдоподобия (х;-Х)2 N 1 _ 2<Л, L(X|x) = П . = '= 1 2тга, 2 1 V <2я£Г^П а ее логарифм - /V _ /(Xlx)=* 2 \Х}-Х)г+Ь, /=1 пек=-М{2о2х); Ь=1п Ид/ (2jra^)"). Очевидно, что решение уравнения правдоподобия йДХ1х)/дХ = О дает оценку - _ 1 " хмп~ дг 2 *'• / = 1 совпадающую в данном случае с (2.29). Методы статистического анализа качества оценок. Анализ эффек¬ тивности оценивания не менёе важен, чем построение самих алго¬ ритмов получения оценок, поскольку он позволяет судить о целе¬ сообразности проведения того или иного эксперимента, а также ра¬ ционально и экономично выбирать его схему. На начальном этапе анализа качества получаемых точечных оценок проверяется наличие у них трех традиционных свойств: несмещен¬ ности, состоятельности и эффективности. Как правило, при этом также оценивается дисперсия оценки (при неявном предположении о гауссовском распределении выборки), которая (также при неяв¬ ном предположении о гауссовской статистике оценки) позволяет судить о качестве оценки. ч Однако при более глубоком исследовании результатов экспери¬ мента необходимо использовать более "тонкие" показатели качества — характеристики точности и надежности полученных оценок. Эти пока- 1 N - - -г- Б (*/ — X)2 /=1 71
эатели формируются при интервальном оценивании исследуемых пара¬ метров. - А Степень близости точечной оценки 0 к соответствующему пара¬ метру распределения 0 удобно характеризовать с помощью довери¬ тельного интервала /д = [0 н, 0 в], удовлетворяющего равенству Р[ве /д] =р. Здесь р — заданная доверительная вероятность; 0Н и 0В — нижняя и верхняя доверительные границы, которые, так же как и оценка 0 , являются статистиками и, как правило, непосредственно с ней свя¬ заны. Доверительный интервал (его длина) характеризуют точность, доверительная вероятность р — надежность (достоверность оценки). При выборе доверительной вероятности следует иметь в виду, что задание слишком высоких значений pip ~Ч) обусловливает бес¬ полезность полученной интервальной оценки, поскольку длина дове¬ рительного интервала всегда получается чрезмерно большой. Поэтому на практике крайне редко используют значения р > 0,998. Нижнее значение р обычно равно 0,9. Для определения доверительного интервала рассматривается А плотность вероятности ИМе) ошибки оценки 6=0—0 При неявном допущении о гауссовском (или близком к нему) распределении экспериментальных данных закон распределения ошибки оценки в, как правило, соответствует хорошо изученным модельным законам — Гауссовскому, Стьюдента, Фишера—Снедекора, х и др. Гранины доверительного интервала формируются из оценки параметра 0 и доверительных границ ошибки оценивания ен, ев: (2.30) л 0В =0 +*в- Границы ен и ев определяются из условий V 1 -Р f WЫ<*€= J [У(Д0 )de = (2.31) откуда 2 f ei +р • 2 где eg — квантиль q-го порядка распределения W (е) Для симметричных распределений W (е).
Для состоятельных оценок их точность возрастает при увели¬ чении объема выборки N. Поэтому при заданной доверительной веро¬ ятности доверительные границы являются функциями объема вы¬ борки. При заданных доверительных границах функцией объема вы¬ борки оказывается доверительная вероятность. Таким образом, при проведении анализа качества оценивания исследуемых параметров появляется возможность определения объема выборки N = ЛМ /д, р), необходимого для оценки параметра с заданными точностью и надеж¬ ностью. Элементы теории статистической проверки гипотез. Статисти¬ ческая гипотеза — это утверждение о некоторых вероятностных свой¬ ствах изучаемого явления. Примерами статистических гипотез явля¬ ются предположения о типе закона распределения наблюдаемой слу¬ чайной величины, о числовых значениях параметров распределения, о типе зависимости между наблюдаемыми величинами и др. Выдвинутую гипотезу называют нулевой или основной и обозна¬ чают Н$, а противоречащую ей гипотезу Н\ называют альтернативной или конкурирующей. Процедура статистической проверки гипотез основана на исполь» зовании того или иного статистического критерия. Статистическим критерием называют случайную величину G с плотностью вероят¬ ности W (0), которая является статистикой — функцией случайной выборки X. Чаще всего критерий выбирается таким, чтобы при спра¬ ведливости нулевой гипотезы распределение W{g) относилось к хо¬ рошо изученным типам распределений: гауссовскому, t-t F-, х2-рас¬ пределениям или некоторым другим. Наблюдаемым (эмпирическим, выборочным) значением д называют то значение критерия, которое получено по выборке х, зафиксированной в конкретном экспери¬ менте. Критической областью 1\ называют совокупность значений кри¬ терия, при которых нулевую гипотезу отвергают Областью принятия гипотезы /о называют совокупность значений критерия, при которых нулевую гипотезу принимают. При отклонении гипотезы считают, что экспериментальные данные противоречат выдвинутой гипотезе. Принятие нулевой гипотезы не означает( что она является истинной, просто она не противоречит результатам опыта. Границы критической области называют критическими точками. При статистической проверке гипотезы могут быть допущены ошибки двух родов. Если в действительности гипотеза Hq верна, а из-за воздействия случайных факторов д Е /j и принято решение' ее отвергнуть, то совершается так называемая ошибка первого рода. Ее вероятность обозначается через а: а = я{ Н0 отвергается IН0 верна! . Вероятность правильного принятия Но в этом случае я(//о принимается \но верна} =1 — а. Если в действительности верна гипотеза /*},но д Е /0 и при¬ нимается решение принять гипотезу Н0, то совершается ошибка второго рода. Ее вероятность обозначается через /5: 0 = Н0 при- 73
ни мается I Н\ верна}. Вероятность правильного отклонения Но р{н о отвергается i"i верна} =1—0. Простые критерии проверки гипотез накладывают ограничение только на уровень вероятности первого рода (ошибки отклонения верной нулевой гипотезы). Заданное значение а (0,1) называют уровнем значимости. При этом не накладывается никаких ограни¬ чений на вероятность ошибки второго рода, т. е. ошибки принятия неверной нулевой гипотезы. В этом одна из проблем использования простых критериев. Для снижения ее остроты рекомендуется в ка¬ честве нулевой гипотезы принимать такое утверждение, необосно¬ ванное отклонение которого наиболее опасно. Другая проблема свя¬ зана с обоснованным выбором уровня значимости а. Так, может ока¬ заться, что при одном значении р гипотеза Н0 отвергается, а при дру¬ гом — принимается. Обычно полагают а = 0,02 ... 0,08. Более де¬ тально эти проблемы анализируются в работах [2, 18, 22, 42, 74]. Методы статистической проверки гипотез можно разделить на параметрические, когда вид закойа распределения известен, и непара¬ метрические, когда он не известен. Наибольшее распространение получили параметрические методы. Задание только уровня вероятности ошибки первого рода а при использовании простых критериев существенно упрощает задачу проверки гипотез, поскольку позволяет оперировать с известной условной плотностью вероятности критерия, соответствующей истин¬ ной гипотезе H0IV{g\H0). Области Iq и 1\ определяются из условий: S Wig\H0)dg = \-а; /W[g\H0)dg = а. (2.33) /о h х Эти условия определяют области /q и 1\ неоднозначно. Различают односторонние критические области: левостороннюю /j = (—°°, 0oi); правостороннюю /j = (001, °°), и двусторонние критические области. /1 = (-о°,^1) U (0Д,,ОО). Критические точки определяются квантилями да соответствую¬ щего порядка распределения И/{д): 901 = 9a} 9oi —9<j _qc (2.34) 9д1 =9aj2; ^д! = ^1 - а/2 Для симметричных законов распределения 9^^ = ~~9у _ да' Гипотеза Hq принимается, если наблюдаемое значение критерия удовлетворяет условиям: - 9^ 9а (левосторонний критерий) ^ (2.35) 74
a (правосторонний критерий); (2.36) ga/2 ^ g ^ 9Л - q/2 (Двусторонний критерий). (2.37) Для симметричных законов распределения двусторонний кри¬ терий {условие (2.37) ] принимает вир (2.38) При выборе вида критической области следует учитывать вероят¬ ность ошибки второго рода. Это делается с использованием так назы¬ ваемой мощности критерия 7, которая связана с вероятностью 0: 7 = 1 — 0. Критическую область нужно выбирать так, чтобы при задан¬ ном уровне значимости а мощность критерия у — вероятность того, что не будет допущена ошибка второго рода — была максимальной. Для определения мощности критерия- необходимо определить или оценить условную плотность вероятности критерия W[g\H\) при справедливости альтернативной гипотезы. Задачи проверки гипотез можно разделить на несколько типов. 1. Проверка гипотезы о типе распределения наблюдаемой слу¬ чайной величины (критерии согласия). 2. Проверка гипотез о числовых значениях параметров законов распределения экспериментальных данных. Эта задача включает в себя также проверки гипотез независимости случайных величин, стационар¬ ности экспериментальных данных. 3. Проверка гипотез об однородности экспериментальных данных. 4. Проверка гипотез о типе зависимости между эксперименталь¬ ными данными. 2.3. ИССЛЕДОВАНИЕ ЗАКОНОВ РАСПРЕДЕЛЕНИЯ ЭКСПЕРИМЕНТАЛЬНЫХ ДАННЫХ Оценивание эмпирических законов распределения. Рас¬ смотрим методы определения эмпирических (выборочных, статистических) законов распределения случайных экспери¬ ментальных данных, которые служат, во-первых, в качестве оценок истинных, но неизвестных законов распределения, а во-вторых, для сжатия экспериментальных данных, по¬ скольку по сгруппированным данным при большом объеме выборки существенно проще оценивать параметры распре¬ делений (см. § 2.4). Дадим основные определения. Пусть получена выборка {х;} (/ = 1, п) объемом п дискретной или непрерывной случайной величины X. Напомним, что в качестве случайной величины может выступать произвольное временное сечение X (Г/) случайного процесса X (f). Последовательность зна- с 75
чений выборки, записанная в возрастающем (не убывающем} порядке, называется вариационным рядом {*у ) (у = 1, л): X/ < Ху + 1. Когда случайная величина является дискретной или результаты измерений непрерывной случайной величины квантуются по уровню достаточно грубо (округляются), то наблюдаемые значения реализаций могут повторяться и тогда отдельные значения вариационного ряда приобретают кратность (абсолютную частоту) /юу-, превышающую единицу. В этом случае вариационный ряд может быть "сжат" и пре¬ образован к совокупности { ху', /Ну} (/ = 1, М): x'j < < Ху'+ 1 (/г?у > 1, М < п).. Вариационный ряд является основой для построение эмпирических законов распределе¬ ния и группировки экспериментальных данных. Эмпирическим распределением вероятностей дискретной случайной величины W*(xj) называют функцию, опреде¬ ленную на множестве допустимых значений Ху (у = 1, М\ М > М) случайной величины и принимающую в этих точках значения, равные относительным частотам wy* =/пу/л (если какие-либо допустимые значения не вошли в вариационный ряд, то их частоты полагаются равными нулю). Очевидно, М’ М• ЧТО Z Wj = 1 И Б /17/=/?. / = 1 / = 1 Эмпирическая функция распределения дискретной слу¬ чайной .величины F * (Ху ) может быть определена по функции W*(xy): FMx.) = ‘ Ъ W*ixf). / = t При анализе законов распределения непрерывных слу¬ чайных величин весь интервал значений вариационного ряда {х/1 %п] разбивается.на к, как правило, равных част¬ ных интервалов [£,*, 5/ + il V = Ь к ). имеющих длину Л/. Далее определяются абсолютные mt и относительные wt = = ль/л частоты попадания реализации величины в каждый из них. Эмпирическим законом распределения непрерывной слу¬ чайной величины называют совокупность частных интервалов [{/ |/ + il — интервалов группировки — и соответствующих им абсолютных /Я/ или относительных wf частот (/ = 1, к ). Этот закон позволяет определить выборочную функцию 76
плотности вероятности [ Wj/hg. х € [|/, I; + , ]; =| 0. а391 и выборочную функцию распределения * / F* <х) = / W{х') dx' = S w„ х е [£г; + ,). (2.40) — ОО / = 1 График функции W*(x) называют гистограммой отно¬ сительных частот. Она представляет собой ступенчатую фи¬ гуру* состоящую из прямоугольников, основаниями которых служат частичные интервалы [£/, {/ + ?], имеющие длину Л/, а их высоты равны w-Jhj (плотностям относительной частоты). Отметим, что иногда на гистограммах вдоль оси ординат откладывают значения mj/h(плотность абсолютной частоты), тогда площадь гистограммы равна не единице, а объему выборки п и полученную кривую называют гисто¬ граммой частот. Еще одним из способов графического представления закона распределения экспериментальных данных является полигон относительных или абсолютных частот. Полигоны получают, соединяя прямыми линиями точки, соответствую¬ щие серединам интервалов группировки и значениям Wg/hg или rrijlhj. Так же как и гистограмма относительных частот, полигон относительных частот является оценкой функции плотности вероятности. От полигона относительных или абсо¬ лютных частот иногда переходят к полигонам накопленных частот, которые являются оценками функции распределения случайной величины [30]. Эмпирические законы распределения, как правило, за¬ метно отличаются от теоретических. Это затрудняет иденти¬ фикацию формы распределения экспериментальных данных и связано, в первую очередь, с двумя факторами: во-первых, с ограниченностью или даже с малостью выборки и, во-вто¬ рых, с разбиением интервала значений случайной величины на частные интервалы, в пределах которых плотность ве¬ роятности представляется постоянной или линейной функцией. Естественно, радикальным средством повышения качества оценивания закона распределения является увеличение объе¬ ма экспериментальных данных. Однако это часто сопряжено с существенным ростом затрат на проведение эксперимента, ч 77
а при "апостериорной" обработке данных и просто невоз¬ можно. Поэтому большую значимость приобретает вопрос об обо¬ снованном разбиении интервала выборки на интервалы груп¬ пировки. Очевидно, что при слишком большом числе интер¬ валов к некоторые из них окажутся пустымиили слабо запол¬ ненными и эмпирическая плотность вероятности (гисто¬ грамма) будет изрезанной и многолепестковой. При слишком малом числе интервалов к гистограмма утратит детальность и связь с особенностями теоретического распределения, станет малоинформативной. Для более глубокого понимания этого явления полезно представить группировку данных как процедуру фильтрации экспериментальных данных [57]. При этом считается, что на гладкую теоретическую функцию плотности вероятности из-за случайности, связанной с ограниченным объемом выбор¬ ки, накладывается шум. При группировке данных произво¬ дится фильтрация "зашумленной" плотности вероятности. При малых интервалах группировки полоса пропускания "фильтра" слишком широка, шум подавляется недостаточно эффективно. При больших интервалах полоса сужается, шум отфильтровывается, однако при этом возникают и иска¬ жения теоретической функции плотности вероятности. Опти¬ мальным является такое число интервалов к и, соответствен¬ но, их размер h, при котором достигается разумное соче¬ тание сглаживания случайной и искажения полезной (теорети¬ ческой) составляющей суммарной плотности вероятности. В литературе имеется большое число ч рекомендаций {отметим, часто без основания) по выбору числа интервалов группировки [2, 4, 30, 56, 57]. Детальный их критический обзор выполнен в работе С57]. Приведем лишь некоторые результаты, которые часто используются на практике. Эвристические соотношения: формула Старджеса: к = = k>92/J + 1/ формула Брукса и Каррузера: к = 51дл, фор¬ мула Хайнхольда и Гаеде: к = V л- Соотношения, полученные на основе использования кри¬ териев близости между гистограммой и теоретической плот¬ ностью вероятности: к = 41дл; * = Б1д(л/10); к = (4/* ) 1д (/?/10), где аг = Уу/£{Х) — контрэксцесс распределения; к = _ £(х} +1.5 о.4 — ^ п . 78
Трудность использования идвух последних выражений состоим в том, что число интервалов группировки нужно выбрать до того, как будут определены числовые харак¬ теристики распределения, в том числе и эксцесс или контр¬ эксцесс. Обычно полагают, что для эмпирических распре¬ делений 1,8 < £ {х } < 6, и получают соответствующие границы числа интервалов. Достоинством этих выражений является то, что они показывают зависимость числа интер¬ валов не только от объема выборки, но и от формы закона распределения. На практике часто полагают, что 0,55л0,4 <к< 1,25л0'4. (2.41) С учетом того, что к рекомендуется выбирать нечетным, это неравенство достаточно определенно зедает значение к. При использовании для обработки маломощных вычисли¬ тельных средств, например программируемых калькуля¬ торов, проблемы оптимальности разбиения отступают перед проблемами сложности реализации программ и тогда ограни¬ чиваются заведомо "неоптимальной" рекомендацией: 7 < < к < 22. При подготовке группированных данных для проверки гипотезы о виде распределения с помощью некоторых крите¬ риев, например критерия \2, часто используют не интервалы с равной длиной, а интервалы с равной вероятностью. Для оценки числа таких интервалов К часто используется фор¬ мула К=Ь*у/2(пГка), (2.42) где \а — квантиль гауссовского распределения порядка а; а — уровень значимости; b — некоторый коэффициент (прк 6 = 4 получается формула Манна—Вальда, при Ь = 2 — фор¬ мула Уильямса) 4 При b = 2, а = 0,1, выражение (2.42) получает вид К=1,9л0'4- - (2.43) Иногда это выражение используется и для определения числа равновеликих интервалов, однако оно не позволяет получить оптимальное число, так как К> к. Проверка статистических гипотез о виде закона распре¬ деления экспериментальных данных. Полученные гисто¬ граммы или полигоны частот, несмотря на их наглядность, как правило, не позволяют сделать обоснованный вывод о виде закона распределения результатов измерений. Однако 78
их рассмотрение и качественное сравнение с известными (модельными) теоретическими законами позволяет сформу¬ лировать гипотезы, которые требуют проверки с помощыа соответствующих статистических критериев. Чаще всего используются так называемые критерии согласия, среди которых наиболее употребительными являются критерий X2 (Пирсона) и Колмогорова—Смирнова [2, 18, 57, 74]. Задача проверки гипотезы о виде закона распределения начинается с конкретизации нулевой гипотезы Н0, которая представляет собой предположение о том, что случайная ве- личина X, для которой получена выборка (х; } (/ = 1, п) имеет выбранный вид распределения: H0:F(x) = F0ix), (2.44) где F0 (х) = F0 (х, 6) — модельная известная функция рас¬ пределения, характеризуемая вектором параметров 0 = — [01, ..., дт]т, которые могут быть как известными, так и неизвестными и оцениваемыми в ходе проверки. Для конкретизации нулевой гипотезы [выбора конкрет¬ ной функции F0 (х, в) ], помимо упомянутого рассмотрения гистограмм и полигонов, может использоваться теоретичес¬ кий анализ схемы эксперимента, а также вычисление оценок числовых характеристик случайной величины, в первую очередь асимметрии и эксцесса, и сравнение их с аналогич¬ ными характеристиками различных типовых распределений. После выдвижения нулевой гипотезы вычисляется наблю¬ даемое значение критерия, характеризующее различие между эмпирической и модельной функциями распределения. От¬ метим, что при использовании критериев согласия положи¬ тельное решение нельзя рассматривать как утверждение о правильности выбранной модели закона распределения: оно лишь говорит о том, что экспериментальные данные не противоречат этому предположению. Определенным отве¬ том является только отрицательный ответ. 1. Критерий х2 состоит в вычислении и сравнении с кри¬ тическим значением статистики к (Я7; — Л7:) g= -Е —L, (2.45) / = 1 mi где rrij и mj — наблюдаемое и теоретическое значения частот попадания случайной, величины в /-й интервал группировки К/# ?/ + 11 • 80
Теоретические частоты рассчитываются с использованием .модельных законов распределения: для дискретных величин — по распределению вероят¬ ностей При справедливости гипотезы Н0 статистика д асимпто¬ тически имеет х2 -распределение вне зависимости от числа интервалов к и объема выборки. Если модельное распреде¬ ление является гауссовским, то при справедливости нулевой гипотезы критерий имеет это распределение при любом объеме выборки. Число степеней свободы v определяется числом интервалов к и числом параметров распределения М, оцениваемых одновременно с проверкой гипотезы: v = = к — М — 1. Отсюда нулевая гипотеза принимается, если Если гипотеза HQ принимается, то в качестве оценок параметров распределения исследуемой случайной вели¬ чины X принимают оценки этих параметров, использованные при задании модельного распределения. Следует иметь в виду, что слишком малые значения теоретических частот т) недопустимы. На практике, как отмечалось выше, интервал значений разбивают на частные, в общем случае неравные между собой, интервалы равной вероятности. Иногда же интервалы просто выбирают такими, чтобы т) > 5. При равенстве исходных интервалов этого можно добиться путем объединения соседних "малонасе¬ ленных" интервалов, суммирования их частот и соответ-* ствующим изменением числа Аг. В качестве практически важного примера рассмотрим процедуру расчета теоретических частот при проверке гипо¬ тезы о гауссовском распределении измеряемой величины. /Л; =nW0 (X/), (2.46) для непрерывных — по плотности вероятностей S/ + 1 mi = f W0(x)dx ч (2.47) или функции распределения mi = Fo (5/ + 1) ~ (£/) • (2.48) (2.49) в противном случае гипотезу Нх отвергают. Здесь, х\ q — квантиль порядка q х2 -распределения с v степенями свободы. 81
Рассмотрим два распространенных варианта задания исход¬ ной статистической информации. Пусть эмпирическое распределение задано в виде после¬ довательности средних значений интервалов группировки х0/ и соответствующих абсолютных частот m-t: {х0/, mi\* Для простоты будем считать, что все интервалы имеют одина¬ ковый размер h. Тогда величина т) вычисляется после опре¬ деления по сгруппированной выборке {х0/, ,77/) выбороч¬ ного среднего т и выборочной дисперсии S2 (см. § 2.4) с помощью выражения т)= (2.50) y/s2 где W(u) — плотность стандартного гауссовского распре¬ деления; Uj = (х/ — m)/y/s2 — нормированное значениё середины /-го интервала группировки.^ Недостатком этого метода расчета теоретических частот является его сравнительно низкая точность, связанная со сту¬ пенчатой аппроксимацией функции плотности вероятности. В то же время нельзя не отметить его простоту. Более точным, хотя и более сложным является второй способ. В этом случае эмпирическое распределение задается набором интервалов группировки [£/, £//+ j) и соответ¬ ствующих им частот /77/, (/ = 1, к). Как и^>анее, по сгрупппи- рованной выборке определяются оценки математического ожидания т и дисперсии S2. Далее переходят к нормирован¬ ным значениям границ интекюалов группировки: Uj = (х,- - т) л/s7; и/ + 1 = (х; + , - т) (2.51) причем нижнюю границу первого ( / = 1) интервала полагают равной —оо (u\ =? —оь \ t а верхнюю границу последнего (/ = = к) — равной +оо (ик + 1 = +оо). Теоретические частоты определяются с помощью функции стандартного гауссовско¬ го распределения Ф (и): т) = п [Ф (с/, + ,) - Ф (</,)]. (2.52) Аналогичные формулы могут быть получены и для "других видов распределения случайных величин [18]. 2. В критерии Колмогорова—Смирнова данные ^ X/} не группируются, а лишь упорядочиваются, т. е. строится вариационный ряд { х) }. В своей наиболее разработанной формулировке он предполагает только простую альтерна¬ 82
тивную гипотезу Hlt поэтому модельная функция F0(x) должна быть задана полностью, включая значения парамет¬ ров 0. Критерий основан на статистике p = maxlF*(x) -F0{x) I, где F*{ а) — эмпирическая функция распределения, по¬ строенная по вариационному ряду { х)}: 0, х < *! ; F* (х) = < i/nh х/ < х < х. + 1 (/ = 1, п - 1); 1, х > хп. При практическом использовании статистики д следует учитывать, что эмпирическая функция распределения явля¬ ется ступенчатой. Поэтому наибольшее значение разности ме>кду F*lx) и Fо (х) приходится на рдну из точек раз¬ рыва х/ (/ = 1, п). В связи с этим для определения значения критерия -д обычно используют следующее соотношение: д = твх(д1,д2), (2.53) Ыедх = max -F0(x)) J; 02 = max (x;) - A. H. Колмогоров доказал, что закон распределения статистики д при п -> оо не зависит от вида функции F0 (х). Асимптотическое распределение для величины д' = \fng известно и табулировано, для него составлены таблицы квантилей kv и программы их расчета [9, 56]. В качестве критической в методе Колмогорова—Смир¬ нова используется как двусторонняя, так и правосторонняя области, В первом случае гипотеза Н0 принимается, если д< K„r0t -tL*, _e, (2.54) V п где а — уровень значимости; Кп а — критическая точка • [56]. Во втором случае для правосторонней критической области вычисление критерия упрощается: д —дi. Гипотеза Н0 принимается, если д < К* v где К* а — критическая точка для одностороннего критерия. Критические точки одностороннего критерия К* а также табулированы [9]. Кроме того, можно использовать 83
/ соотношение кп.а~к„. 2а= -р*1-2а (2.55) V п или асимптотическое (при л -> оо) разложение Kt.a ln<*/(2л). (2.56) В заключение отметим, что наряду с рассмотренными и другими известными "строгими" критериями проверки гипотез [2, 12, 56] для решения частной задачи — проверки гипотезы о гауссовском законе распределения — часто исполь¬ зуются упрощенные процедуры, основанные главным обра¬ зом на проверке гипотез о значениях коэффициентов асим¬ метрии и эксцесса [2, 12, 57, 74]. Применение этих процедур (критериев поверки нормальности) разумно только при наличии достаточно больших выборок (л > 200 ... 500), в противном случае результат их применения в значительной степени случаен. При упрощенных расчетах часто полагают [12, 18, 33], что экспериментальные данные имеют гауссовское распре¬ деление, если (при л > 1) |Д{*}| < 1.5>/^; l£{*J- /vTl1 < где и — дисперсии оценок коэффициентов асим- ж метрии и эксцесса [см. выражения (2.46), (2.47) ]. Если IА {*} I > и (или) IF {Х }-6l (/V + 1)1 > , то экспериментальные данные даже прибли¬ зительно не описываются гауссовским законом распреде¬ ления. 2.4. ОЦЕНКА ЧИСЛОВЫХ ХАРАКТЕРИСТИК И ПАРАМЕТРОВ РАСПРЕДЕЛЕНИЙ СЛУЧАЙНЫХ ВЕЛИЧИН И ПРОЦЕССОВ Параметрические оценки числовых характеристик по чвыборке полного объема. При получении параметрических оценок числовых характеристик случайных величин и про- 84
цессов в максимальной степени используется информация о законе их распределения. В результате этого обеспечива¬ ются оптимальные свойства параметрических оценок (несме¬ щенность, эффективность, состоятельность) в том случае, если наблюдаемые величины распределены в точном соответ¬ ствии с законом, принятым при их формировании, а все иные (непараметрические) оценки будут менее точными. Однако столь сильная "привязанность" оценок к законам распределения может обернуться (и на практике часто так и бывает) существенным снижением точности, если реальные условия эксперимента будут отличаться от стандартных (см. ниже). Для получения параметрических оценок чаще всего используется метод максимального правдоподобия, ко¬ торый позволяет формировать оценки, как правило, близ¬ кие по своим характеристикам к байесовским. В большин¬ стве случаев используется предположение о гауссовском законе распределения экспериментальных данных. Это объяс¬ няется не только тем, что измерения часто действительно близки по своим характеристикам к гауссовским случайным величинам или процессам, но и тем, что эта гипотеза часто принимается без сколько-нибудь серьезной критической проверки. Рассмотрим методы оценки числовых характе¬ ристик случайных величин и процессов в предположении, что их гауссовость действительно имеет место. При этом учтем различные возможные условия проведения экспери¬ ментов. Безошибочные измерения одномерной случайной величины. Пусть случайная величина X ~ N(nx, ох) наблюдается непосредственно (безоши¬ бочно) . В результате эксперимента получена выборка хД из п независимых реализаций этой случайной величины: [х;} = (xi,..., хя). Несложно показать [2, 4, 39, 51, 61], что максимально правдоподобные оценки параметров /хх и Ох будут иметь вид (см. также § 2.2): оценка математического ожидания (выборочное среднее) »Х= ™х = ^ 2 х ; /= 1 (2.57) оценка дисперсии (выборочная дисперсия) известно математическое ожидание 1 п 7= 1 (2.58) 85
не известно математическое ожидание •Зги*х-гЬ "Яп [,*,«?- - i (j/,)’} w* Эти оценки являются несмещенными (при детермини¬ рованных значениях и о2х) и асимптотически эффек¬ тивными. Их дисперсии таковы: D = ох1п; (2.60) известно математическое ожидание D^2X }= | с* (при/? > 1); (2.61) не известно математическое ожидание = (прил>1). (2.62) При оценке среднего квадратического отклонения ох следует учитывать, что величина sx = V$x является состоя¬ тельной и асимптотически-эффективной, но смещенной оценкой (точнее — асимптотически-несмещенной). Несме¬ щенная оценка ох имеет вид [4,70] известно математическое ожидание (2.63) , ,, рг г(г ) не известно математическое ожидание Г7 «-f—) «X = Ох = W —ГГ-Г *** <2.64) (т) где Г (х) — гамма-функция. Можно доказать, что к" = к'п _ 1 или к 'п = к" + у. 86
При п > 10 можно использовать приближенное разло¬ жение для коэффициента к При 4 < п < 9 это выражение также можно исполь¬ зовать, если не требуется высокая точность вычислений (погрешность составляет не более 1%). При высокой тре¬ буемой точности целесообразно пользоваться даннвЛии табл. 2.1. Таблица 2.1 4 5 6 7 8 9 к" "п • * * 1,085 1,064 1,051 1,042 1,036 1,032 В § 2.3 отмечалось, что для суждения о виде распределе¬ ния наблюдаемой случайной величины иногда привлекаются оценки коэффициентов асимметрии и эксцесса, которые определяются по выборочным момента^ третьего и четвер¬ того порядков (л*^, тхА* и Выборочные моменты обычно рассчитываются с помощью выражений: ту =-1 Ъ х*; Му = - 2 (x.-mv)* (к = 3,4), к п . _ ' х к л / = j ' которые дают состоятельные и эффективные оценки харак¬ теристик гауссовской случайной величины. Для анализа точности и надежности рассмотренных оценок используют доверительные интервалы, соответствую¬ щие заданной доверительной вероятности р (см. § 2.2). Отметив, что качество интервального оценивания гаранти¬ руется только при гауссовском распределении и резко падает при отклонениях от него. Оценка математического ожидания (2.57) является несмещенной и имеет гауссовское распределение. Поэтому, как правило, рассматривается симметричный доверительный интервал J\ = [xHl, xBl] = [т — Ар, т + Др], однако иногда устанавливают односторонние интервалы: Ji = xB2]*J3= [х„3,оо) [2,4,51,56]. 87
Известно, что при заданной дисперсии о2х статистика /W у/ “ Д У 5 = у л имеет стандартное гауссовское распре- °Х деление [4,56]. Откуда *н, = тх ~ ffxX(l +р)/2^' (2 66) *в, = тх * °Х* (1 + р) /27^ (2-67) ХВ2 = + ох\р1у/~п; (2.68) хн3=Л'х_(’хУ^''' (2'69) где XQ — квантиль порядка q распределения N (0,1). _ w т X ~ V X /— При неизвестной дисперсии статистика £ = у п SX имеет f-распределение с v = n — 1 степенями свободы. Откуда получаются следующие границы доверительных интервалов: xhj =тХ ~sxfn -1, (1 + €)t2lyf^*' (2.70) XBi =тХ *sXfn - 1, (1 + е)/2^^^; (2.71) X +SXfn - 1,с(2.72) *»b=mX-SXtn-y.J'f"- <2-73> Отметим, что при достаточно больших п [п> 60 ... 100) */? -\,q ж ^<7 и вместо выражений (2.70) — (2.73) можно использовать (2.66) — (2.69), в которые вместо истинных значений а х подставляются их оценки $х. При оценке качества оценок дисперсии (2.58) и (2.59) в зависимости от постановки задачи устанавливаются дву¬ сторонний Jt = [а^, о\^\ и односторонние J2 = [0, а*2], — [<*н3' °°) доверительные интервалы. Ограничимся слу¬ чаем неизвестного математического ожидания. Тогда ста¬ тистика д = (/? — 1 )sx/o2x имеет х2-распределение с v = = п — 1 степянями свободы. Откуда o2Hl = (/,-1)sJ/x*_1((l+p)/2; (2.74) < = |n-1l*J/xJ_1>(1.p)/2; (2.75) <=(л-1) s2/X2n_i'i_p; (2.76) ХВ2 = /77 V, +S 88
®H3= (n-1,s /Xn-I.p. .(2.77) где Хрд— квантиль порядка q x2-распределения с v степе- нями свободы. Еслич>бъем выборки достаточно велик, то распределение оценки дисперсии приближается к гауссовскому и при п > > 60 расчет границ упрощается: <=4 “4 (2.78) ®i,-*x+*x -/-тЦ-Х*. <2.7Э1 Доверительные границы для среднего квадратического отклонения определяются по вышеприведенным границам дисперсии с учетом соотношений (2.63), (2.64). Полученные доверительные интервалы для математи¬ ческого ожидания и дисперсии позволяют определить объемы выборок пп, потребных для обеспечения заданных точности и надежности оценок. Если задана ширина двустороннего интервала 2ДР, в ко¬ тором с вероятностью р должно содержаться истинное зна¬ чение математического ожидания, то из выражений (2.66), (2.67), (2.70) и (2.71) можно определить пп: известна дисперсия П„> о2х{\р/Ар)\ (2.80) не известна дисперсия |2Л1» При п > 60... 100 Л„ > 52х (Хр/Др)2. (2.82) Аналогично из выражений (2.78) и (2.79), справедливых для большой выборки [п > 60 ... 100), можно получить выражения для определения числа измерений, потребного для того, чтобы истинное значение дисперсии с заданной доверительной вероятностью оказалось в доверительном интервале заданной ширины 2АР: пп> 2s2x (Хр/Ар)2 +1. (2.83) Отметим,_что расчет значений пп с помощью выражений (2.81) — (2.83) на практике производится методом последо¬ 89
вательных приближений: сначала задается некоторое ориенти¬ ровочное число необходимых измерений п0 (желательно, чтобы выполнялось условие п0 < пп ), затем по полученной выборке рассчитывается $2Х и по значениям _ 1 и +р) /2' Хр, Др определяется оценка лп. После выполнения пп изме¬ рений и получения новой оценки s2x целесообразно снова оценить потребный объем измерений. Если он окажется менее объема полученной выборки, то измерения заверша¬ ются, в противном случае - эксперимент продолжается. Коэффициенты асимметрии и эксцесса могут оцениваться по формулам: *{*) = ' S (х/ - т)3; (2.84) MV*2)3 / = 1 = i Ъ^х,-т)4Пз2-3). (2.85) Дисперсии этих оценок [12]: 4- С7ТПЙТГ <2™ , 24л (я - 2) (л - 3) ал = ; • U.O/J В [п + 1)2 [п +3) (п +5) Одноканальные измерения одномерной случайной величины с погрешностями, имеющими гауссовское распределение. Пусть случайная величина X ~ N(ixx, а2х) наблюдается с некоторой случайной независимой ошибкой АХ, которая также имеет гауссовское распределение: АХ ~ Л/(0, о2А), т. е. вместо случайной величины X наблюдается случайная величина Y = X + АХ. Дисперсия о2А полагается известной. Поскольку fly = U х и °у = ах + ад» то на основе ранее полученных выражений максимально правдоподобные оценки параметров \i х и а2х будут иметь вид: оценка математического ожидания 1 п тх = ~ Д У г (2.88) 90
оценка дисперсии SX=SY ~ai' {289) где s у — оценка дисперсии случайной величины X, получае¬ мая в соответствии с выражениями (2.58) или (2.59). Дисперсия оценки (2.88) °{тх} = 1ах+0Д}/п- ,2-90) Дисперсия оценки (2*89) определяется выражениями (2.61) или (2.62). Многоканальные измерения одномер¬ ной случайной величины с погрешностя¬ ми, имеющими гауссовские распределе¬ ния. Пусть случайная величина X ~ ЛММх» наблюда¬ ется с помощью т независимых измерительных приборов, погрешности которых AXj (/ = 1 ,'т) также имеют гаус¬ совские распределения: ДХу ~ /V(0, о2А ), т. е. вместо случайной величины X в /-м канале наблюдается величина Yj = X + AXj. В результате п /77-канальных измерений полу¬ чается массив yjj (/ = 1, п ; / = 1, т) из т X п значений, ограничимся оцениванием одного параметра — математи¬ ческого ожидания. Рассмотрим однократное (/-е) многоканальное измере¬ ние. Оценку математического ожидания по результатам /-го измерения будем искать в классе линейных оценок: т тх= 2 с ку/, (2.91) гдесу — неизвестные коэффициенты. Можно показать, что для несмещенной оценки тх необ- т ходимог чтобы 2 с. = 1. С учетом этого ограничения / = 1 значения с. (/ = 1, т), соответствующие эффективной оценке математического ожидания, получаются путем решения г 1 т оптимизационной задачи тх ] = 2 с? a* -►min, где а2 = а2 + о\ . Для этого может использоваться метод у х Лу неопределенных множителей Лагранжа В результате получа¬ 91
ются оптимальные значения коэффициентов: с. = d.l £ dj, i = 1 где dj = 1/Од . Тогда оценка (2.91) принимает вид тх= 2 djy. J 2 dj. ' j - 1 / = 1 Соответственно дисперсия этой оценки °\тх ) = » «М /( S rf,)2. I х/1 * j = 1 > J / = 1 ' (2.92) (2.93) Теперь рассмотрим совместную обработку п много¬ канальных измерений. Поскольку все оценки тх (/ = = 1, п) являются несмещенными, независимыми и имеют равные дисперсии, то наилучшей оценкой математического ожидания является выборочное среднее оценок тх : / = 1 у = 1 т п 2 d. У = 1 (2.94) дисперсия этой оценки ах + т 2 У = 1 2d, / = 1 У (2J95) Оценка параметров многомерных слу¬ чайных величин. Пусть m-мерная случайная величина X = [*1, ..., XmV имеет гауссовское распределение^ ~ ~ N(px, Хх) (см. § 2.2). В результате эксперимента полу¬ чена выборка { X- ] = (х 1, ..хп). Максимально правдо¬ подобные оценки параметров рх и 2^. имеют вид [2, 46] My = «п. (2.96) 92
2X = SX = —Ц- 2 (x. - m) (x - m)T. X X n — ^ j -J j * 1 (2.97) Особый интерес представляют оценки параметров двух¬ мерного распределения X = [Х1# Х2]х. В роли случайных величин Хг и Х2 могут выступать различные сечения случай¬ ного процесса X(t): Хх — X (fm), Х2 = X {tk) или значения выходной У и входной X величин; в этом случае 1 п mv = — 2 X. = [/77v /77v ]т, л п . _ Л2 (2.98) где ту = - 2 *,,(/ = 1,2). xj " / = i " Корреляционная матрица = М^(Х — jk) (X — р)*} в двухмерном распределении имеет вид *K,X, ях,х2 (7у у у Х| Л|Л2 ЯХ2Х, ЯХ2Х2 Яу у Л ■ Xj Xj Xj « (2.99) где Rx х — корреляционный момент случайных величин XJ мХд (/.9 = 1.2). Метод максимального правдоподобия позволяет получить следующие оценки элементов корреляционной матрицы (в предположении о неизвестности р х): &х = *х = -Ч- 2 (*.-.- - тх )2 = -Ц Г 2 х). - х/ х/ п-1 / = 1 п »-1 [,=)" ' ^ (/2,Л") ] ,/=1,21: (2.100) л-1 / = 1 !' (/.9 = 1.2). (2.101) 93
Отметим, что оценка (2.100) является частным случаем оценки (2.101). Выражения для дисперсий оценок (2.98) и (2.100), а также доверительные интервалы для анализа их точности и надежности приведены выше. Наряду с корреляционными моментами иногда оценива¬ ются также ковариационные моменты Кх. xq случайных величин Ху. и Xq: I ,W (/<9 = 1'2)' и коэффициент их корреляции рх.х„ ~ Rx.xJ^ax. axJ (2.102) . У я А _ У я */% Rx,xj^sx,sx_ ~ (2.103) U,Q = 1,2). Оценим доверительные границы и потребный объем измерений для оценки коэффициента корреляции (2.103). Можно показать, что при большом объеме выборки (п > > 30 ... 50) оценка г v v имеет гауссовское распределение 1 _ 2 \ [4. 18, 30]: ~ N(pXj Xj, J . Отсюда можно определить границы двустороннего доверительного интервала ^\ = [гн,гв]: Гн= г ХхХ2 Г* =Г х,х2 + Хт. \ Л(1 + р)/2Г (2.104) (1 + р) /2 * 94
Вид распределения выборочного коэффициента корреля¬ ции при малых п [п < 30) имеет весьма сложный вид. Поэтому для определения доверительного интервала в этом случае используют различные способы преобразования, по¬ зволяющие получить величину с приблизительно гауссов¬ ским распределением. 3 частности, широко используется Z-преобразование Фишера: * z=l in 1 +г*|*2 (Гхх = thz). (2.105) 2 1 - rXlX2 которое преобразует случайную величину rxxX2 к случайной величине z, имеющей приближенно распределение * (*■to )14, |8, ”• Здесь thz = (ez — е -z)/[ez + е~г) — гиперболический тангенс. Это преобразование может использоваться даже при сравнительно небольших п(п> 10). В этом случае Гн = th (z — Л (1 + р) /2 - 1 ] ; v Vn-3 / {2106) '■■ = ,h(*+Xd*P>/2 ^== )• Потребный объем измерений сравнительно просто опре¬ делить для больших п [п > 30 ... 50). Если задана ширина интервала 2АР, который с вероятностью р должен "накры¬ вать" истинное значение коэффициента корреляции, то из выражений (2.64) следует, что —Ь*‘ М.+ДД- |2-1071 р Оценка математического ожидания и дисперсии при условии коррелирован- ности отсчетов. Приведенные ранее оценки (2.57) — (2.59) получены при условии независимости отсчетов и резко теряют свои оптимальные свойства при использовании корре¬ лированной выборки. Рассмотрим более общий случай, когда статистические связи в выборке х = [xj,.. .,хп]т, имеющей гауссовское распределение, задаются корреляционной матри¬ 96
цей Хх = м|(Х — цх) (X — Мх>т}* Будем полагать, что все отсчеты х,- (/ = 1, /?) имеют одинаковые математические ожидания IIх и дисперсии а2х = а2х (корреляционная матри¬ ца Хх = ахЯх,_где Лх — нормированная корреляционная матрица с единичной главной диагональю). Тогда плотность вероятности вектора наблюдений х определяется выражением (2.3). При фиксированной выборке х она представляет собой функцию правдоподобия, позволяющую найти МП-оценки параметров. Решая уравнение правдоподобия, можно полу¬ чить следующие выражения [51, 82]: ■,2-108' S* = [.? .? СЧ J/(«-1). <2.100) где с/у- - элемент (/,/) матрицы с =ЛХ1. Отметим, что эти оценки представляют собой частный случай оценок параметров линейной регрессии при условии коррелированности измерений и матрице регрессоров F = = [1 ... 1]т (см. гл. 5). Дисперсии и доверительные интер¬ валы для этих оценок могут быть определены также на осно¬ ве общих соотношений. Оценка корреляционных функций и сп е-к тральных плотностей эргодических случайных процессов. Пусть выборка { */ ] № = = 1, п) представляет собой совокупность отсчетов xg = = х (f;*) реализации х (г) эргодического случайного про¬ цесса X (?), взятых с равномерным шагом At. Тогда оценки математического ожидания, дисперсии, ковариационной, кор¬ реляционной и нормированной корреляционной функций могут быть получены с помощью следующих выражений:
Кы U At) = К х [I] = - Г */*/_/! <2.112) я л _/ + 1 ЙХ(Ш> = **<'!= 7~ГГ, )If'“ "V ' = ^х[/] (2.113) ЛХ(Ш) = лхМ =Яхи]/«^ .(/ = 0, £. -1). (2.114) Здесь L выбирается из условия L > rk/At, где тk — интервал корреляции-случайного процесса (Ях(т) ** О при г > тк). Оценки (2.110) и (2.1 It) могут использоваться, если Af > тк, т. е. отсчеты х;- некоррелированы, или если интервал наблюдения Гн > тк. В противном случае следует применять оценки (2.108), (2.109), причем в качестве корреляционной матрицы измерений используется ее оценка или аппрокси¬ мация. Оценка спектральной плотности средней мощности Ex(f) на дискретных частотах ft — (/ — 1)Д/\ ДF — — 1/At (/V — 1) (/ = 1, N) может быть получена с помощью дискретного преобразования Фурье (более подробно см. ниже): ExHi-\)AF) =& {£xl'l)Af или, полагая к = / + 1, _ Ex[k]=f ^^=0.Л/-1;/=0,/.-1). «.115) Обычно принимают N — L Для- того чтобы избежать так называемых ошибок наложения, необходимо, чтобы шаг дискретизации по времени At был существенно меньше интервала корреляции тк. Отметим, что полученная дискрет¬ ная спектральная плотность Ех 1*1 представляет собой функцию, симметричную относительно точки к = N/2 + 1 (считаем N четным). Оценка ковариационной функции может быть получена косвенным методом на основе дискретного преобразования Фурье [4, 39, 82]. Для этого сначала вычисляется дискретный 4 Заказ ИЗО #7
спектр сигнала 12.1 Гб) (х/ + 1 (/ = 0,n — I); О (о < / < /V — 11; Х[к]=$ {х [/]}: = *£ ’х li]W", / = О где п; ИГм=е-'2пШ (к = \,N-1). Далее вычисляется первичная оценка спектральной плотности л fxWrl-X[ArlX*[it] (* = 0,/V —1». (2.TT71I и е помощью обратного дискретного преобразования Фурье получается оценка так называемой периодической (цикли¬ ческой) ковариационной функции А * I Л ^ Л 4 ^ Л . *£[/] ■ * "Ч^хИ " ff Да fxlArllvw il = 1. ЛГ— 1 ). (2.T18J Оценка ковариационной функции Kxin = K"xV] (/ = o,i-D, (2.mj если выполнено условие ЛР > 2L (на практике Л1 > > (5... 10)1). Для выполнения преобразований (2.115), (2.1 Тб), (2.118) обычно используются алгоритмы быстрого преобра¬ зования Фурье (БПФ), обеспечивающие существенное уско¬ рение вычислений по сравнению с непосредственной реализа¬ цией дискретного преобразования Фурье. В связи с этим косвенный метод оценки ковариационных и корреляцион¬ ных функций оказывается более экономичным, чем их непо- средственный расчет. Обычным для алгоритмов БПФ (ем^ гл. 4) является условие N = 2тк где т = 1Г 2Г ,.. Для era выполнения, если #? < А/, исходный дискретным сигнал (Rх [/] или х [/]) должен быть дополнен нулевыми отсчетами до требуемом размерности. В то же время косвенный метод, основанный на исполь¬ зовании первичной оценки (2.117), обладает тем недостат¬ ке.
ком, что получаемые оценки не являются состоятельными (39], Это связано с резким усечением гипотетической, гене¬ ральной последовательности */ (/ = —1, 0, +1 ,.с по¬ мощью прямоугольного "окна", выбирающего п отсчетов X; (/ = 1, л). Для устранения этого недостатка исходная последовательность х [/] умножается на функцию "окна" (весовую функций с/[У]: полученный , взвешенный сигнал далее используется при оценке спектральной плотности и ковариационной функции [выражения (2.116) — (2.119) ]. Известны различные функции "окна": обобщенная косинусоидальная, гауссовская и др. [39]. Рекуррентные параметрические оценки числовых харак¬ теристик по нарастающей выборке. В автоматизированных системах обработки экспериментальных данных для получе¬ ния текущих оценок рассмотренных «меновых характеристик широко используются рекуррентные процедуры. Они осно¬ ваны на использовании при формировании текущей оценки оценок параметров, полученных на предыдущих шагах, и их коррекции в результате использования вновь поступивших экспериментальных данных. Рекуррентные алгоритмы тре¬ буют существенно меньшей емкости памяти Э8М, чем алго¬ ритмы, рассмотренные ранее.' Рекуррентная оценка математического ожидания имеет вид [4,39, 74] При известном математическом ожидании случайной величины х'[/1 = d[i]x[i] (/ = 0, N -1); (2.120) ♦ ух;; = 0*4/ = 1,...). (2.121) (2.122) 99
Если математическое ожидание неизвестно и оценивается в ходе эксперимента с помощью ‘формул ы (2.121), Применя¬ ется следующее рекуррентное выражение: 1 * ГГТ 8Х ' " * f I'/ - 12,231 Для получения оценки корреляционного момента исполь¬ зуется алгоритм Р # ^ 2 п (/- 1) ^ riY ml/ -1)i |у *1*2 / - г *1*2 ~ Г 1* 1/ ” Хх ' (*2/ “ - тх2 1 *) ]; я|®*Ха = 0 (/ = 1,...). (2.124) При этом выражение (2.124) используется, когда мате* матические ожидания fix и д х не известны, а оцениваются по выражению (2.121). 1 2 При реализации рекуррентных алгоритмов, когда макси¬ мальное число измерений п заранее не определено и жестко не ограничено внешними по отношению к содержательной стороне эксперимента обстоятельствами, необходимо выра* ботать критерий остановки процедуры оценивания и оконча¬ ния проведения измерений. Поскольку рекуррентные оценки (2.121) —(2.124) на каждом /-м шаге эквивалентны оценкам (2.57) — (2.59), (2.101), полученным по выборкам объема /, и обладают всеми рассмотренными ранее свойствами и характе¬ ристиками, то для останова можно на каждом шаге оценивать число измерений лп, потребное для обеспечения требуемых точности и надежности, и сравнивать с числом приведенных измерений. Однако, как правило, поступают проще — исполь¬ зуется следующий критерий: -еи~ П I < 8, (2.125) А/ где в — оценка параметра в на /-м шаге; 6 - допускаемая погрешность измерений. Следует отметить, что обсуждавшиеся оценки могут рассматриваться с более общих позиций и получаться как частный случай в рамках регрессионного анализа с помощью рекуррентного метода наименьших квадратов (см. гл. 4) или методами динамической фильтрации (см. [23, 49]). 100
Некоторые упрощенные алгоритмы оценивания. На прак¬ тике гуж использовании рассмотренных оценок могут воз¬ никнуть трудности, связанные с большим объемом выборки (/? > 50 .., 100). Они связаны, в частности, с возможностью переполнения разрядной сетки ЭВМ значениями 2х,- и 2х? или из-за того, что, начиная с некоторых / (/ > 1), числа Xg/i и х2// станут машинным нулем или будут иметь недо¬ пустимую потерю значащих цифр. Кроме того, объем вычи¬ слений, необходимых для получения традиционных оценок, может оказаться чрезмерно большим в условиях временных ограничений; в некоторых случаях реализация нерекуррент¬ ных алгоритмов оценивания требует недопустимо большой емкости памяти. В связи с этим широко используются упро¬ щенные алгоритмы, свободные от отмеченных недостатков. Наиболее распространенные из них базируются (может быть,неявно) на формировании вариационного ряда { х) } (/ = 1, п , xj + 1 > х)), который в дальнейшем используется для получения порядковых статистик или для группировки (систематизации) экспериментальных данных. При группировке используется несколько способов. Один из них ужа рассматривался в § 2.3, когда область воз¬ можных значений случайной величины разбивалась на М интервалов, в частности, равной длины и подсчитывалось число наблюдений тг заключенных в каждом из них. В этом случае вместо исходной выборки | х;} \i = 1, п) полу* чалась сгруппированная выборка {*/ . т,} U = 1, М). где ху — средняя точка /-го интервала. Интервал возможных значений может определяться априорно, тогда отсутствует принципиальная необходимость в запоминании всех элемен¬ тов выборки или вариационного ряда, что приводит к эко¬ номии памяти. При более точном, апостериорном определении интервала, в котором лежат измеренные значения, определя¬ ется размах выборки (см. ниже) и необходимо запоминать исходную выборку (х,-^ (/ = 1, п) или соответствующий вариационный ряд i х) j. Вопросы выбора значения М были рассмотрены выше. Другой распространенный способ группировки состоит в разбиении выборки { х/} (/ = 1, п ) полного объема п на М подвыборок { х/} * (к = 1 ,М\ / = 2 п.-, 2 л А V / = 1 У =1 / 101
м объема п/с: 2 пк = п, и вычислении по каждой из них ' к = 1 выборочного среднего и выборочной дисперсии s ^ * г \ Тогда вместо исходной выборки { *,-} (/ = 1, л ) исполь¬ зуется выборка [f^xk'sxk'nk} (к=1,М). Отметим, что важным дополнительным достоинством оценок, основанных на порядковых статистиках, является их высокая эффективность при нарушении гауссовости распределения исходных данных, когда классические оценки оказываются малопригодными (см. ниже). Кроме того, они нечувствительны к потере части экспериментальной информации. Рассмотрим некоторые наиболее употребительные оцен¬ ки. (Более подробно эти вопросы исследуются в работах [2,18,25,30,39,70,72}.) Оценка математического ожидания и дисперсии с помощью порядковых ста¬ тистик. Пусть {•*;} — наблюдаемая выборка объема п, а {•*/ } — соответствующий вариационный ряд: я\ < х\ < В качестве оценки математического ожидания может использоваться^ выборочная (статистическая) медиана Med } ст = х0 5. Если п — четное (л = 2к, к — некоторое целое число), то ’ *0*5 = K+*i + l)/2, (2.126) при нечетномп {п =2к +\) *0Д=**. ' (2.127) Если наблюдаемая случайная величина имеет гауссовское распределение X /У(д, <гх1, то при достаточно больших п [п > 50 ... 100) закон распределения выборочной ме* дианы близок к гауссовскому и оценка обладает следующими характеристи ками: ^{^}=Мх; 0{*ojs} = ^7 °х- Отсюда следует, что в этих условиях эффективность выборочной медианы несколько ниже, чем эффективность 102
выборочного среднего: eff <х0*>!тх) = 2/я « 0,637, однако для ее получения требуется выполнить лишь примерно Зя/2 операций сравнения элементов выборки {*/} вместо п — 1 сложений и одного деления, необходимых для вычисле¬ ния тх. Отметим, ччто для оценки математического ожидания могут использоваться выражения более общего, чем (2.126) или (2.127), вида. Например, при п — 2к + 1 можно исполь¬ зовать следующую оценку: *х = + (2.128) где т — целое число (1 < т < к). При уменьшении т снижается емкость необходимой памяти (при т = 1 требуется только две ячейки), упро¬ щается возможность реализации алгоритма получения теку¬ щих оценок, однако повышается чувствительность к "засо¬ ренности" исходных данных и к потерям части исходных данных* Для оценки дисперсии и среднего квадратического зна¬ чения случайной величины широко применяются процедуры, основанные на определении размаха выборки дп = х'л — х\. Несмещенная оценка среднего квадратического значения гауссовской случайной величины определяется выражением (72] (2.129) где ос/i — некоторый коэффициент, определяемый объемом выборки (табл. 2.2). Таблица 2.2 п Рп п <*л Рп 4 2,059 0,880 10 3,078 0,797 5 2,326 0,864 12 3,258 0,778 6 2,534 0,848 14 3,407 0,762 7 2,704 0,833 16 3,532 0,749 8 2,847 0,(320 18 3,640 0,738 9 2,970 0,808 20 3,735 0,729 103
Дисперсия этой оценки а'301 п где Рп — коэффициент, зависящий от п (табл. 22). Эффективность этой оценки несколько ниже, чем эффек¬ тивность выборочного среднего квадратического значения: 20ДГ1 (я/2) e1f{s'x/sx) = - < 1. Г(п-1,г1 (2-^-М - Г2(я/2>] L V ' J (2.131) Однако это различие невелико (eff($x/sx) > 0,9 при п > 4) м при увеличении объема выборки оценка s’x по точности приближается к оценке sx. При этом следует учесть, что для реализации алгоритма (2.129) требуется всего две ячейки памяти, около Зп/2 операций сравнения, одно вычи¬ тание и одно деление, тогда как вычисление выборочного среднего квадратического значения необходимо примерно п операций сложения, п — умножения и одно извлечение квадратного корня. Отметим также, что алгоритм (2.129) можно использовать для получения текущих оценок среднего квадратического значения и дисперсии. Оценка числовых характеристик слу¬ чайной величины по сгруппированным данным. Пусть исходная выборка [ х, } объемом п задается в виде распределения средних точек (ху } (/ = = 1, М) М интервалов длиной h, на которые разбита область возможных значений случайной величины X, и соответствую¬ щих им абсолютных частот {я7;} U = 1, М, М< п). - В этом случае выборочное среднее и выборочную диспер¬ сию находят с помощью выражений [4, 70, 72] 1 м тх = - 2 /77 -х .; " / = 1 12.132) При необходимости определения коэффициентов асим¬ метрии и эксцесса выборочного распределения предварен 104
тельно находят выборочные начальные моменты [70, 72} Затем вычисляются выборочные центральные моменты второго, третьего и четвертого порядков: После этого находят выборочные значения коэффициен¬ тов асимметрии и эксцесса: Следует отметить; что группировка данных приводит к методическим ошибкам определения моментов распреде¬ ления, которые при некоторых предположениях о характере истинного распределения могут быть устранены с помощью поправок Шеппарда [4,70]: Мх4 = МХа -МхЬг!2 + 7h 4/240. Эти поправки применимы, например, при гауссовском, Рэлея, Максвелла, Симпсона распределениях и неприменимы при равномерном, экспоненциальном и др. Сгруппированные данные позволяют определить оценки ковариационного и корреляционного моментов двух слу- ! м - 2 т,(х.)' (/ = 1.4) У = 1 ' (2.133) (2.134) А {*} = MX3/s*x; Ех {*} = MXJ(s2)2 - 3. (2.135) (2.136) *3 4 MXi=MXi-0; МХ2=МХ=72=52-Ь2М-, Л (2.137) 105
чайных величин X) и/2 [72]: а 1 М К *Х,Х2= (2.138) я — 1 ’ м К 1 М X 1 Г 2 т..хих2у - - Е /n/’X-S/nf2'^ _/ = 1 У = 1 / = 1 У = 1 J (2.139) где /и,у — число реализации двухмерной случайной величины, попавших в /-й интервал по переменной xt и в у-й интервал к м по переменной х2; = 2 = 1 /77 /7) <2) = = Г / = 1 т..; Ху и Х2у — средние значения интервалов группировки по переменнымХ| их2.» Средние квадратические отклонения величин и Х2 оцениваются по формулам, почти совпадающим с выраже¬ нием (2.132): (/ = 1.2). М (К) (2.140) Затем можно получить оценку коэффициента корре¬ ляции: гх,х2 _ А ~RXxX2 fsxxsx2- (2.141) Показатели точности и надежности рассмотренных оценок при М > 7 ... 10 и при п > 50 близки к соответствующим характеристикам классических оценок. Оценка числовых характеристик слу¬ чайной величины по результатам обра¬ ботки подвыборок полной вы (Зорки. Как отмечалось, для группировки данных и сжатия информации полная выборка { х,- } Ц = 1, п) может быть разбита на М подвыборок объема л,- (/ = 1, М) каждая. Для них опреде¬ ляются выборочное среднее тх. и выборочная дисперсия s2x . Соответственно сгруппированная таким образом выбор¬ ка7 представляет собой набор { тх , s2x, п.\ (/ = 1, Af). 106
Она позволяет вычислить оценки математического ожидания и дисперсии случайной величины [70]: у м л м ту = - 2 nimyl = - 2 n.isZ + т*) -т*. (2.142) x n I Xj x n i = A ' x. x. x Оценки числовых характеристик при отклонении закона распределения от гауссовского. В действительности экспери¬ ментальные данные почти никогда не имеют "чисто" гауссов¬ ского распределения. Это относится даже к тому случаю, когда в результате проверки была принята гипотеза о гаус¬ совской статистике измерений, поскольку эта проверка, как отмечалось, скорее отвечает на вопрос о том, какое распределение не описывает наблюдаемые величины, чем позволяет однозначно выбрать истинное распределение. Ос¬ новными причинами негауссовости измерений являются как „ внутренний" характер механизма формирования экспериментальных данных, которые принципиально имеют распределение, отличное от гауссовского (например, шумы на выходе амплитудного детектора при подаче на его вход гауссовского шума распределения по закону Рэлея), так и существование нерегулярных аномальных ошибок изме¬ рений. Последнее обстоятельство вообще препятствует ис¬ пользованию параметрических оценок, алгоритмы которых базируются на конкретных свойствах законов.распределения измерений: большинство оптимальных параметрических оце¬ нок резко теряют свои замечательные свойства {несмещен¬ ность, эффективность) даже при незначительных отклоне¬ ниях от стандартных условий. Радикальный путь повышения качества оценки в реаль¬ ных условиях связан с применением робастных оценок [2, 25, 30, 72, 74]. Под робастностью понимается слабая чувствительность к отклонениям от стандартных условий и высокая эффективность для широкого класса распре¬ делений. Наиболее известной из робастных оценок параметра сдвига распределения случайной величины является выбо¬ рочная медиана. При обработке равноточных данных выбо¬ рочная медиана в некоторых случаях существенно эффектив¬ нее выборочного среднего (табл. 2.3), хотя, отметим, иногда этот алгоритм и уступает по точности операции осреднения, в частности, при гауссовском распределении. 107
Таблица 2.3 Расл ределе- иуд П1Ш «<лх. с2х) Lpie,\) Е М Я (а, Ь) С (а, с) -Й) 2 (я — 1) + * 2 1 л +2 3/1 (при п “► -►оо eff»»0,33) » 0,405/» пп <при п “► О® ef f «0,637) Таблица 2:4 Вид засорения W U, в ) Степень засорения 0 0,05 1 ЛМмх, (3ох)2) _ 0,637 0,828 0,637 0,637 1,310 2,000 Жмх — 3*х, дх + 3 ох) 0,637 2,157 13,254 С(мх, 1) 0,637 2,713 25,344 В то же время существует довольно широкий класс распределений, весьма близких к гауссовскому и часто встречающихся на практике, для которых алгоритм выбо¬ рочной медианы предпочтительнее оценки (2.57). Для таких распределений характерна повышенная по сравнению с гаус¬ совским законом вероятность больших отклонений, от сред¬ него, т. е. их плотность вероятности имеет утяжеленные "хвосты". Часто используется так называемая модель Тьюки "засоренного" гауссовского закона: ИМх) = (Г-e)N(x,ixx,o2x) +еИМх,мх,0Ь (2.143) где е — доля "засоряющих" (аномальных) наблюдений. Функция (2.143) описывает наблюдения, основная часть которых имеет гауссовское распределение N(x, fix, a2x), а остальные распределены по закону W(x, цх, 0). Функция ИЧх, 9), как правило, принимается симметричной, параметр ее положения совпадает с математическим ожи¬ данием гауссовского распределения, а параметр масштаба 9 108
существенно превышает среднее квадратическое значение ах. Функция N(x, цх, о2х) характеризует центральную ^асть распределения экспериментальных данных, а функция W{x, & х, в) — определяет "хвосты" распределения ИМх). Модель ^юки хорошо описывает результаты измерений с учетом возможных сбоев или промахов при измерениях [2,57,68]. Представленные в табл. 2.4 значения относительной эффективности выборочной медианы и выборочного сред¬ него eff (хо$/тх), полученные по данным табл. 8.1 [2], показывают, что даже при незначительной "засоренности" измерений выборочная медиана в большинстве случаев пред¬ почтительнее выборочного среднего. В случае если аномаль¬ ные ошибки распределены по гауссовскому закону, выбороч¬ ная медиана точнее выборочного среднего при е € [0,1; 0,9]. Выборочная медиана относится к классу взвешенных порядковых статистик, которые определяются следующим образом [2]: <2.144) где iv. — вес, с которым суммируются члены вариационного ряда | х'.] (/ = 1, п). Для нее рее весовые Коэффициенты имеют нулевые значения, кроме W(„+i)/2 =1 ^Р1* п ~ нечетном) или iv„/2* » *пП + 1 = 1^2 (ПРИ п ~ четном). Кроме медианы на практике часто используются так назы¬ ваемые цензурированные оценки. Цензурированная оценка первого типа имеет следующие весовые коэффициенты: wg = w0> 0 при а< х) < b; 0 при х) < 9, X/ >Ь. (2.145) Значение w0 обратно пропорционально числу элементов вариационного ряда, попавших в заданный интервал значе¬ ний {а, Ь]. Оно не может быть задано заранее и определяется лосле завершения эксперимента. 109
При использовании цензурированной оценки второго типа Частным случаем подобной оценки является усеченное среднее, когда отбрасывается г наименьших и г наибольших членов вариационного ряда, av = n-2r центральных поряд¬ ковых статистик осредняются: При использовании цензурированных оценок основная проблема связана с выбором параметров, определяющих число оставляемых в сумме (2.147) членов. Это число за- виоит, в первую очередь, от степени "засорения" е: чем она больше, тем меньше членов вариационного ряда следует использовать для формирования оценки. Некоторые реко¬ мендации по выбору параметров приведены в работах [2, 30, 61, 74]. Среди других типов робастных оценок параметра сдвига упомянем "винзорированное" среднее, оценки Ход¬ жеса-Лемана, М-оценки Хубера, бивес-оценку Мостеле- ра—Тьюки [2,30, 61, 74]. Аналогичные робастные оценки могут быть получены и для оценки параметра масштаба распределения. & част¬ ности, для описания разброса случайной величины X наряду со средним квадратическим значением ох может использо¬ ваться среднее абсолютное значение 1 (т </ < к); л — т — к (2.146) 0 (/ <т, i у? к). S \х -nx\W(x)dx, (2.148) которое связано с ох соотношением 5х/ох = V 2/*г. (2.149) Используя эту связь, можно определить выборное среднее абсолютное значение
и далее оценивать среднее квадратическое значение Sd =^J4i2dx. (2.151) X f Оценка (2.151) является более эффективной, чем выбо¬ рочное среднее квадратическое значение, начиная с крайне незначительных е (е > 0,002) [2] (табл. 2.5). Таблица £.5 6 0 0,001 0,002 0,005 0,01 0,02 0,05 0,1 ' Чг eff —^ SX 0,876 0,948 1,016 1,196 1,439 1,752 2,035 1,903 При исследовании степени связи между двумя случай* ными величинами, одна либо обе из которых распределены не по гауссовскому закону, применение оценки коэффи¬ циента корреляции (2.103) становится неэффективным и может привести к ложным выводам. Для решения подобных задач может использоваться коэффициент ранговой корреляции Спирмена [30, 72]. Пусть получена выборка (xj/, х2/} (/ = 1, л) двух¬ мерной случайной величины X = (Хг, Х2) • Тогда в соответ¬ ствии с выражением (2.103) выборочный коэффициент корреляции п _ _ Г U|/-Xt) (х2/-Х2) . / = 1 /V V. = • ~п ~ п _ 2 (*1/ - X1) 2 Z (х2/ - Х2) 2 = 1 / = 1 Заменим в этом выражении значения хг, и х2/ на их ранги х§/ и xf/. Напомним, что ранг элемента выборки, на¬ пример Xi/, представляет собой число xf}, равное поряд- ковому номеру элемента xv в вариационном ряду {*/} (/ = 1, п ). Всем одинаковым значениям вариационного ряда соответствуют одинаковые ранги, равные среднему ариф¬ метическому их порядковых номеров. В результате после некоторых преобразований получим [30, 72] выражение 111
'х, X, = 1 - ———5“ ' «2.132» л1*2 nin2- II для коэффициента ранговой корреляции: 6 2 Ufjr-xf/)1 = 1 п [п2 - 1) в котором по фактически исходным данным вычисляется п только величина 2 (х& — х?/)2. / = 1 С увеличением объема выборки выборочный коэффи¬ циент корреляции *хгх2 стремится к теоретическому зна¬ чению Рхгх2 (для генеральной выборки). Коэффициент Pxix2 близок к коэффициенту корреляции Рхгх2' п*5Ичем рхгх2 < px1x2t HOpXxX2 ”РХ!Х2 < 0/018 [72J‘ fl*ana30H возможных значений рангового коэффициента корреляции равен [—1; +1]. Определение доверительных интервалов и проверку ги¬ потез о значениях коэффициента ранговой корреляции при малых п производят с использованием таблиц квантилей распределения Спирмена [72]. Однако при п > 30 статистике гХ\Хг _9 (2.153) V’ - ^,х2)2 имеет t-распределение cv = n — 2 степенями свободы. Отсюда могут быть определены границы доверительного интервала, использующие квантили распределения Стьюдента, Оценка параметров некоторых законов распределения. Рассмотренные оценки математического ожидания и диспер¬ сии (выборочное среднее и выборочная дисперсия), опреде¬ ляемые выражениями (2.55) - (2.59), представляют собой оптимальные оценки параметров гауссовского распределения. Приведем выражения для оценок параметров других распро¬ страненных распределений. Оценки параметров логарифмически- нормального распределения. Алгоритм оцени¬ вания определяется ms exP ff 2 1п*/\; (2.154) (I 112
£ (lnx;* — In IF?) <2.155) где Xj — /нй элемент выборки { x#-j (/' =1, л). Для оценивания параметра а* может также использог ваться выборочная медиана [2,80]: а _ т — кл t>,5- <?’156) Оценки параметров равномерного рас¬ пределения могут определяться как через выборочное среднее и выборочную дисперсию, так и с помощью поряд¬ ковых статистик {2, 22,80]: А а = т X а b — mx +v 3sx; (2.157) А , *=х\ - */,-** /1 — 1 (2.158) А b = xj,+ /1—1 (2,159) Оценка параметра экспоненциального распределения определяется через среднее выборочное значение \ = Мтх =1/ (2.160) Оценка параметра распределения Лап¬ ласа определяется через среднее абсолютное значение 112] X = 1/f- Б 1хЛ (2.161) Здесь полагается, что параметр сдвига в = 0. Оценки параметров распределения Ко* ши. В свази с неопределенностью моментов распределения оценки формируются на основе порядковых статистик: а = Med (х) =*r(/| + 1)/2; c = xio,75/?*m ] “*!/»♦ П/2' (2.162) где [•] — символ операции взятия целой части числа. Здесь считается, что л — нечетное. 113
Алгоритмы оценивания параметров распределения других видов приведены, в частности, в работах [2, 25, 43, 72, 80]. Выражения, определяющие дисперсии ряда оценок, приве¬ дены в [25]. 2£. ПРОВЕРКА НЕКОТОРЫХ СТАТИСТИЧЕСКИХ ГИПОТЕЗ О СВОЙСТВАХ ЭКСПЕРИМЕНТАЛЬНЫХ ДАННЫХ Проверка гипотезы о среднем значении гауссовской случайной величины. Случай известней диспер¬ сии. Пусть X имеет распределение /У(д, а\), где — неиз¬ вестное среднее значение; о% — известная дисперсия. Проверяется нулевая гипотеза Н0:ц ~/*0, где д0 — гипо¬ тетическое (предполагаемое) среднее значение. В зависимости от содержательной постановки задачи могут использоваться три альтернативные гипотезы Нг: a) Ht:fi Ф[10; б) Hi.ii >д0; в) Нг:ц <fi0. Нулевая гипотеза проверяется при заданном уровне значимости а — вероятности ошибочного принятия альтерна¬ тивной гипотезы Нj при справедливости нулевой гипотезы. ~~Но- Проверка производится по выборке { X/} = (xt, .. „, хп) объема п с помощью статистики 9= 1,0 (2.163) °0 где т — выборочное среднее. Статистика д при справедливости гипотезы НQ имеет гауссовское распределение Л/(0; 1). В зависимости от рцда альтернативной гипотезы Нх используют следующие кри¬ терии: а) двусторонний критерий {Нх: у Ф Но). Гипотеза принимается, если 1<Н < - а/2* в противном случае гипо¬ теза Н0 отвергается; б) односторонний (правосторонний) критерий [Нх: М > Мо) • Гипотеза Н0 принимается, если д <\ 1 - а, в против¬ ном случае принимается Нi; в) односторонний (левосторонний) критерий 1Н\1 д < цо). Гипотеза Н0 принимается, если д > —Xj _а, в про¬ тивном случае принимается Нг. Здесь \д — квантиль гауссовского распределения поряд¬ ка д. 114
Случай неизвестной дисперсии (t-кри¬ терий) . Пусть случайная величина X имеет гауссовское рас¬ пределение N[ix,*c2), причем параметры р и <г неизвестны* Проверяется нулевая гипотеза Н0: ц = fx0t где Но ~ гипо¬ тетическое среднее значение. Нулевая гипотеза проверяется при заданном уровне значимости а. Проверка производится по -выборке { X; } = <х1# ..хп) объема п с помощью статистики где т — выборочное среднее; s2 — выборочная дисперсия* Статистика д при справедливости гипотезы Н0 имеет Г-распределение Стьюдента с v = л — 1 степенями свободы. В зависимости от вида альтернативной гипотезы Нх применяются следующие критерии: а) двусторонний критерий {Нj: д Ф Но) • Гипотеза Н0 принимается, если ^g\ < tVt \ _а/2г в противном случае Н0 отвергается; б) односторонний (правосторонний) критерий {Нх: ц > До). Гипотеза Н0 принимается, если д <tVt\ -в, в про¬ тивном случае Н0 отвергается; в) односторонний (левосторонний) критерий (Нх: М <Мо) • Гипотеза Н0 принимается, еслид > —tVt \ в про¬ тивном случае принимается Нх. Здесь tvq — квантиль порядка? ?-распределения Стью¬ дента с v степенями свободы. Проверка гипотезы о равенстве средних значений двух гауссовских случайных величин. Пусть случайные величины Хх и Х2 имеют распределения N{fix, а\) и N(ixlr b2). Дис¬ персии а\ и о\ распределений полагаются известными. Про¬ веряется нулевая гипотеза Н<>: Mi =Мг- Нулевая гипотеза проверяете^ при заданном уровне значимости а по выборке ( Х!/} = (хц, хх2, ..., х№) объема пх случайной величины Хх и по выборке {х2/} = (x2i, х22, ..., х2п) объема п2 случайной величины Х2. При этом используется статистика (2.164) V (Oi/n,) + (О2/Л2) (2.165) где /П| и т2 — выборочные средние значения выборок 115
и { *2/}. При справедливости нулевой гипотезы Н0 статис¬ тика д имеет распределение ЛМО; 1). В зависимости от альтер¬ нативной гипотезы Н| используются следующие критерии; аЬ двусторонний критерий (А/|: цх Ф ji2). Гипотеза принимается, если 1^1 <\\ - а/2* в противном случае гипо¬ теза Н0 отвергается; б) односторонний (правосторонний) критерий Шх:фх > >#12). Гипотеза Н0 принимается, если д <\ i _а в противном случае гипотеза Н0 отвергается; в) односторонний (левосторонний) критерий (Нх: цх < <М2). Гипотеза Н0 принимается, если д>—\х _ о* в противном случае гипотеза Н0 отвергается. Здесь \д — квантиль порядка q гауссовского распределе¬ ния. Пусть случайные величины Хг и Х2 имеют распределения ЛМм* о2) и N(ix2i o2) с равными, но неизвестными диспер¬ сиями. Проверяется нулевая гипотеза Н0: = М2. Нулевая гипотеза проверяется при заданном уровне значимости а по выборке { х^} = (xu, ..., xw) объема пх величины Хх и по выборке {*2/} = (х2ь ..., х2п) объе¬ ма п2 случайной величины Х2, по которым вычисляются выборочные средние значения тх и т2 и выборочные диспер» сии s2 иs2. Далее используется статистику При условии справедливости нулевой гипотезы Н0 ста¬ тистика димеет Г-распределение Стьюдента с v = пх + п2 —2 степенями свободы. В зависимости от альтернативной гипо¬ тезы Нх используются следующие критерии: а) двусторонний критерий [Нх: цх Ф ц2). Гипотеза Н0 принимается, если | < tVt х _ а/2* в противном случае Н0 отвергается; б) односторонний (правосторонний) критерий \НХ: цх > > М 2) • Гипотеза Н0 принимается, если д < tVtj _ а* в против¬ ном случае принимается альтернативная гипотеза Нх; в) односторонний (левосторонний) критерий \ИХ: цх < < М2). Гипотеза Н0 принимается, если д > —г _ а, в про¬ тивном случае принимается гипотеза Нх. д = у/ [пх - 1 )s\ + {п2 — 1)s2 т j — т2 116
_ Здесь tpq — квантиль порядка q Г-распределения Стью- дента с v степенями свободы. Пусть случайные величины Хх иХ2 имеют распределения AMMi, о\\ и Ы{ц2, о\), причем известно, что о? Фа\ либо гипотеза а? = о* при проверке ее с использованием F-кри- терия (см. ниже) была отклонена. Нулевая гипотеза Н0: мх = м 2 • Проверка гипотезы при уровне значимости а произво¬ дится по двум независимым выборкам [хц] и (х2/[ объе¬ мом п | и л2, по которым определяются выборочные средние тх и т2 и выборочные дисйерсии s] и $1 соответственно. Используется статистика 9 = т'~тг . (2.167) V * l/л 1 + $ 2Jn2 При справедливости нулевой_ги потезы Н0 статистика д имеет ?-рас пределение Стьюдента. В зависимости от постановки задачи рассматриваются различные ёльтернативные гипотезы Нх и соответствующие критерии: а) двусторонний критерий (Я^ Mi Ф ц2). Гипотеза принимается, если 1^1 < tp,t _<де, в противном случае ги» потеза Н0 отклоняется; б) односторонний (правосторонний) критерий [Hx\ixx > > М2) • Гипотеза Н0 принимается, если д < tvt х _ а, в против¬ ном случае гипотеза Н0 отвергается; в} односторонний (левосторонний) критерий {Нх: цх < < Мг) * Гипотеза Н0 принимается, если д < -tVt х _ а, в про¬ тивном случае следует принять гипотезу Нх. Здесь tvq — квантиль порядка (7 f-распределения Стью¬ дента с v степенями свободы. Величина v — наибольшее целое число, не превосходящее v9; v = {v'}, где Г («1 1)2 (*1 /п2)2 1 v = (*?//>, +«l//»j)2/ — + — • (2.168) L Л1 " 1 п2 - 1 J Значения v лежат в интервале между наименьшим из чисел Л| — 1 и п2 — 1 и их суммой: f?i + п2 — 2. Пусть случайные величины Хх и Х2 имеют распределения АМм 1 / ) и/У(м2, о?)» причем дисперсии а? и а! неизвестны. Получены две зависимые выборки каждой из случайных величин [ хц\ и {*2/} одинакового объема п. Например, 117
двумя приборами в одному том же порядке производятся измерения деталей (массы, размеров И т. д.). Нулевая гипотеза Н0: /ii = д2* Альтернативная гипо¬ теза Н\\ & j # До* Проверка гипотезы производится с исполь¬ зованием статистики где d = ('LdMn - средняя разность элементов выборок значение разностей элементов " выборок с одинаковыми номерами. Здесь dj = xtf — х2/ (/ = 1, ..п) — разности элементов выборок {*!/} и {*2/} • При справедливости гипотезы Н0 статистика д имеет t-распределение Стьюдента с v = п — 1 степенями свободы. Нулевая гипотеза Н0 принимается при уровне значи¬ мости а, если Ipl < fp, 1 - а/2» в противном случае гипотеза Но отклоняется. Здесь tViQ — квантиль порядка grf-распределения Стью¬ дента с v степенями свободы. Очевидным образом процедура проверю* гипотезы Hq может быть преобразована и для других .альтернативных гипотез/У1 (Д1 >д2 и/ii <д2). Проверка гипотезы о дисперсии гауссовской случайной величины* Пусть случайная величина X имеет распределение /У(д, а2), где дна2— неизвестные среднее и дисперсия. Нулевая гипотеза Н0: а2 = о\, где а% - гипотетическая (предполагаемая) дисперсия. Проверка гипотезы Н0 при уровне значимости а произ* водится по результатам выборки | х/} объема п с исполь¬ зованием статистики где s2 — выборочная дисперсия. При справедливости нулевой гипотезы статистика? имеет X2-распределение с v = п — 1 степенями свободы. , В зависимости от альтернативной гипотезы Нх исполь¬ зуют следующие критерии: а) двусторонний критерий (Нх: а2 Ф а%).Гипотеза при¬ д = d\fn/sd. (2.169) с одинаковыми номерами; sj - выборочное среднее квадратическое д = in - 1)$2/о§, (2.170) 118
нимается, если <2.171» в противном случае гипотеза Н0 отклоняется; б) односторонний (правосторонний) критерий (A/i: а2 > > а?). Гипотеза Н0 принимается, если д <х\ ^ в про¬ тивном случае гипотеза Н0 отвергается; в) односторонний (левосторонний) критерий {Нг: а2 < < а§). Гипотеза Н0 принимается, если д > —х* q, в про¬ тивном случае гипотеза Н0 отклоняется. Здесь xlg — квантиль порядка q х2 -распределения cv^n — 1 степенями свободы. Проверка гипотезы о равенстве дисперсий двух гауссов¬ ских случайных величин (F-критерий). Пусть случайные величины X] и Х2 имеют распределения (jii, о\) и (Нг. о\). Нулевая гипотеза Н0: а2 = о2. Она проверяется при заданном уровне значимости а по результатам двух независимых выборок: [хц} объема пг и {*2/} объемап2. При этом используется статистика д = s\ls\, где s2 и s\ — выборочные дисперсии случайных величин Хх и Х2. Для упрощения процедуры проверки гипотезы в качестве случай¬ ной величины Хх принимаем ту случайную величину, выбо¬ рочная дисперсия которой больше: s2 > s\. Отсюда имеем д> 1. В зависимости от постановки задачи и выбора альтерна¬ тивной гипотезы Ht используются следующие правила: Ла) двусторонний критерий (гипотеза Нг: а2 Ф о2). Гипотеза Н0 принимается, если 9 < FVl V2tl «а/2, (2,172) в противном случае Н0 отвергается; б) односторонний критерий (гипотеза Н%: о2 > о\). Гипотеза Н0 принимается, если 9 <Fvlt v2t г -а,ъ против¬ ном случае гипотеза Н0 отклоняется. Проверка гипотезы о равенстве дисперсий нескольких гауссовских случайных величин по независимым выборкам. Случай выборок одинакового объема (критерий Кокрена). Пусть случайные величины Xlf ..., X/ (/ > 2) распределены по гауссовскому закону. Извлечены / независимых выборок этих случайных величин {.*2/} одинакового объема /?. Требуется по этим выборкам при уровне значи¬ мости а проверить нулевую гипотезу Н0 об однородности 119
дисперсий: H0:o\=ol=... = o*. Альтернативная гипотеза Нх состоит в том, что дисперсия хотр бы одной случайной величины значимо - отличается от значений дисперсий других случайных величин. Критерий Кокрена основан на использовании статистики *= maxb?V 2 s). (2.173) / = 1 где*? — выборочная дисперсия случайной величины Хц # v roaxiH} — максимальное значение выборочной дисперсии. Статистика д при справедливости нулевой гипотезы имеет распределение Кокрена ctv с /, v степенями свободы {V - п - 1). Гипотеза И0 принимается, если наблодэемое значение статистики g<ct v0L, где с, иа — квантиль порядка а рарпре- деления Кокрена с/ v [56]. В противном случае гипотеза Н0 отклоняется. Если нулевая гипотеза принимается, т. е. все наблюдае¬ мые выборки можно считать выборками из одной генераль¬ ной совокупности, то в качестве оценки дисперсии этой совокупности принимается среднее арифметическое выбо¬ рочных дисперсий: Выборки различного объема (критерий Бартлетта). Пусть случайные величины X,, ..X/ (/ > 2) распределены по гауссовскому закону. Извлечены / незави¬ симых выборок { *,/}, ..., {х//} . Объем каждой выборки равен /»/ (/ = 1,...,/), причем п9 Ф const (если объемы всех выборок равны, то предпочтительнее использовать критерий Кокрена [56]). Требуется при уровне значимости а прове¬ рить нулевую гипотезу Н0 об однородности дисперсий: Н0: о\ = о\ = ... = о*. Альтернативная гипотеза Нг состоит в том, что'хотябы одна из случайных величин х, (/ = !,...,/) имеет дисперсию, значимо отличающуюся от дисперсий остальных еяучойиых» величин. ' 120
Проверка гипотезы производится с использованием статистики <2.176) гдер=2р/; v' = Z1/is2 = i'LujsJ)/v; b = (2i>#lns?)/V. Здес^р/ = л/ — 1 — число степеней свободы /-й выборки; $? - выборочная дисперсия /-й выборки. Статистика д при справедливости нулевой гипотезы И0 приближенно имеет х2-распределение с к = / - 1 степенями свободы, если объем каждой выборки л/ > 4. Нулевая гипотеза Н0 принимается при уровне значи¬ мости а, если д> х\ ^ в протйвном случае она откло¬ няется. Здесь xIq — квантиль порядка q х2 -распределения с V степенями своооды. Если нулевая гипотеза принимается, то в качестве оценки дисперсии генеральной совокупности, из которой извлечены все / выборок, принимают среднее арифметическое выбо¬ рочных дисперсий, взвешенных по числам степеней свободы выборок: sl= ^ 2 Vfil j/v. (2.176) Проверка гипотезы о коэффициенте линейной корре¬ ляции двухмерной гауссовской случайной величины (двух одномерных гауссовских случайных величин). Пусть двух¬ мерная случайная величина (X, Y) имеет гауссовское распре¬ деление. Нулевая гипотеза Н0: р = р0, где р — коэффициент корреляции компонент X и Y; р0 — гипотетическое (пред¬ полагаемое) значение корреляции. Гипотеза Н0 проверяется 1чимости а по результатам двухмерной вы- объема л с использованием статистики (г- критерий Фишера) 9 - (* - Ы\/л -3, (2.177) где Здесь гху — выборочный коэффициент корреляции. При справедливости нулевой гипотезы Н0 статистика д рас¬ пределена асимптотически по гауссовскому закону А/ (0, 1).
В зависимости от постановки задачи и вида альтернатив¬ ной гипотезы Нi различают двусторонний и односторонние критерии: а} двустеронний критерий (НА: рфр0). Гипотеза прини¬ мается, если I #1 < Xi в противном случае она откло¬ няется; б) односторонний (правосторонний) критерий {Нг: Р > Ро) • Гипотеза Н0 принимается, если д < Xi в против¬ ном случае она отклоняется; в) односторонний (левосторонний) критерий {Н1; 9 < Ро)- Гипотеза И9 принимается, если д> \\ _<*, в про¬ тивном случае нулевая гипотеза отвергается. Здесь Х~9 — квантиль порядка q стандартного гауссов¬ ского распределения. Проверка гипотезы о равенстве коэффициентов линейной корреляции двух двухмерных гауссовских случайных вели¬ чин. Пусть двухмерные случайные величины (Xt, Yx) и IXг, У2) имеют двухмерные гауссовские распределения. Нулевая гипотеза Н^: = р2, где ру* (/ =1,2) - коэффи¬ циент корреляции / -й двухмерной случайной величины. Гипотеза Н0 проверяется при уровне значимости а по ре¬ зультатам двух независимых двухмерных выборок { хи-, Ki/} и {х2/, /2/} объемом пх и п2 соответственно с исполь¬ зованием статистики (г-критерий Фишера) Здесь rXYj — выборочный коэффициент корреляции. нулевой гипотезы статистика £ распределена асимптотически по гауссовскому закону N (0; 1) [56]. В зависимости от альтернативной гипотезы используют следующие правила: а) двусторонний критерий рг Ф р2). Нулевая гипо¬ теза И © принимается, если \ д I < Xi _а/2* в противном случае Н0 отклоняется; б) односторонний (правосторонний) критерий (#i: 122 (2.178) где вычисленный по выборке справедливости
Pi <Pi)- Нулевая гипотезаН0 принимается, если д <Х| _а, в противном случае она отвергается; в) односторонний (левосторонний) критерий {Нг: Р1 < Pi)- Гипотеза Н0 принимается, если s > Xt-а* в про¬ тивном случае она отклоняется. Здесь \д - квантиль порядка q стандартного гауссов¬ ского распределения. ГЛАВА ТРЕТЬЯ ЭЛЕМЕНТЫ ПРОГРАММНОГО ОБЕСПЕЧЕНИЯ ПРЕДВАРИТЕЛЬНОЙ ОБРАБОТКИ ДАННЫХ 3.1. ПОДПРОГРАММЫ БНТР/РАФОС Подпрограмма STNR/S. Предназначена для вычисления квантили \д порядка q стандартного гауссовского распре¬ деления. Обращение к подпрограмме: CALL STNR/S (Q, Y. /ER) Q — заданная вероятность q; Y — вычисляемое значение Xq; /ER — вычисляемый параметр ошибки: fER = 129 — значение Q лежит вне допустимой области. Используемая подпрограмма: SVERTS. Подпрограмма STST/. Предназначена для вычисления квантили % q порядка q распределения £тыодента с v сте¬ пенями свободы. Обращение к подпрограмме: CALL STST/ Щ, N, Т, /ER\ О — заданная вероятность q; N — заданное число степеней свободы v О; Т — вычисляемое значение tv q; /ER — вычисляемый параметр ошибки определяется по формуле IER = 128 + N1, где Nt может принимать сле¬ дующие значения: /V/ = 1 — степень свободы N меньше 1; N1 = 2 - значение Q не находится в интервале [0; \]; Nt = 123
= 3 — ошибки в подпрограмме STNRIS, к которой было обращение из подпрограммы STSTI. , Используемые подпрограммы: STNRIS, SVERTS. Подпрограмма STCHI. Предназначена для вычисления квантили х* Q порядка q х2 -распределения с у степенями свободы. Обращение к подпрограмме: CALL -STCHI (Q, N, X, /ЕЯ) Q — заданная вероятность q; N — заданное число степеней свободы v (должно нахо¬ диться в диапазоне 0,5 ... 200000); X — вычисляемое значение х* q аргумента; IER — вычисляемый параметр ошибки. Определяется по формуле 1ЁЙ = 128 + N1, где N1 может принимать сле¬ дующие значения: N1 = t — значение Р не находится в интер¬ вале (0, 1) включительно; N1 = 2 — ошибка в подпрограмме STNRIS; N1 = 3 — ошибка в подпрограмме STCH. Используемые подпрограммы: STCH, STNRIS, STNOR, SFGAMM, SVERTS. Подпрограмма STFI. Предназначена для- вычисления квантили EVl v2 я порядка q распределения Фишера. Обращение к подпрограмме: CALL STFI (Q, Л/7, N2, F, IER) Q — заданная вероятность q; N1, N2 — заданные степени свободы vx и v2; F — вычисляемое значение квантили распределения ФишераFVl „2 я; JER — вычисляемый параметр ошибки. Определяется по формуле IER = 128 + /V, где N может принимать следу¬ ющие значения: N = 1 — ошибка в подпрограмме STBETI; N = 2 — значение q меньше 0 или больше 1; N = 3 — при вычислении X произошло переполнение. В этом случае X принимается равным*наибольшему машинному числу. Используемые подпрограммы: STBETI, STBETA, SFLGAM, SVERTS. Подпрограмма STSMIR. Предназначена для вычисления значения предельной функции распределения для статистики Колмогорова—Смирнова. Обращение к подпрограмме: CALL STSMIR (X, Y) 124
* X — заданный аргумент функции Смирнова; Y — вычисляемое значение функции Смирнова. Примечание. Подпрограмма устанавливает У = 0# если X < 0,27, и Y = 1, если JC' > 3,1. Два аргумента X = — 0,62 и X = 1,87 дают результат, который отличается от таблицы Смирнова на 2,9 и 1,9 в пятом десятичном знаке. Все остальные результаты дают меньшие ошибки. Используемые подпрограммы отсутствуют. Подпрограмма STKOLU Предназначена для разности между эмпирическим и теоретическим распределением р ис¬ пользованием критерия Колмогорова—Смирнова. Обращение к подпрограмме: CALL STKOL1 IX, N, Z, PROB, if CD, U, S, /£/?) X — заданный вектор независимых наблюдений размер¬ ности N; на выходе из подпрограммы X содержит исходные данные, упорядоченные в монотонную неубывающую по- следовательность (вариационный ряд); N — заданное число наблюдений; Z — вычисляемая переменная, равная \J~NDn, где DN — = max IF a# (X) — F (X) I; F N (X) - эм пи рическая, -oo < * < +oo a F (X) — теоретическая функция распределения (см. § 2.3); PROB — вычисляемая вероятность того, что статистика \/~NDn больше или равна Z в предположении истинности гипотезы о принадлежности X совокупности с рассматри¬ ваемой плотностью: например, PROB = 0,05 означает, что ги¬ потеза о принадлежности X совокупности с рассматриваемой плотностью может быть отвергнута с вероятностью ошиб¬ ки 5%; IFCD — заданное число, определяющее рассматриваемую теоретическую функцию распределения: IFCD = 1 — F (X) — гауссовская функция распределения; IfCD = 2 — F (X) — экспоненциальная функция распределения; IFCD — 3 — — F (X) — функция распределения Коши; IFCD = 4 — — F (X) — равномерное распределение; U — заданный первый параметр теоретического распре¬ деления. Если IFCD = 1 или IFCD = 2, то U — среднее значе¬ ние; если fFCD = 3, U — медиана распределения Коши; если IFCD = 4, U — левая концевая точка равномерной плотности; 5 — заданный второй параметр теоретического распреде¬ ления. Если IFCD = 1 или tFCD = 2, to.S — среднее квадрати¬ ческое отклонение; если fFCD = 3, S — константа для вы¬ 125
числения первой квартили плотности распределения Коши [U — S); если JFCD = 4,5 — правая концевая точка; JER — вычисляемый параметрошибки: /ЕЯ = 0 — ошибок не обнаружено; /ЕЯ = 1 — не выполняется условие относи¬ тельно S. Примечание. Значение JV должно быть больше или равно 100, так как при меньших ^ значениях N асимпто¬ тические формулы, используемые а подпрограмме STSMIR, дают значительные погрешности. Если одна и та же выборка используется как для оценки параметров непрерывного рас¬ пределения, так и для проверки закона распределения, то уровни вероятностей, определяемые этой подпрограммой, могут оказаться неверными. Используемые подпрограммы: STSMIR, STNOR. Подпрограмма STWOAV. Предназначена для проверки гипотезы о принадлежности нескольких выборок одной и той же генеральной совокупности при помощи двустороннего дисперсионного статистического критерия Фридмана. Обращение к подпрограмме: ' CALL STWOA V (А, R, N, М, W, XR, NDF, NR) / А — заданная матрица исходных данных размера N X М; N — заданное число групп наблюдений; М — заданное число наблюдений в каждой выборке; УУ — рабочий вектор размерности 2М; NJR — заданный параметр, определяющий способы вы¬ числения рангов: NR = О — для неранжируемых данных; NR = 1 — для ранжируемых данных; R — вычисляемая матрица ранжированных данных разме¬ ра NX М; XR — вычисляемая статистика Фридмана; NDF — вычисляемое число степеней свободы. Используемые подпрограммы — S TRNK. Подпрограмма STUTES. Предназначена для проверю! гипотезы о принадлежности двух независимых выборок одной и той же генеральной совокупности при помощи 1/-теста Манна—Уитни. Обращение к подпрограмме: ^ CALL STUTES [A, R, N1, N2,U,Z) 4 А — заданный вектор Наблюдений размерности N = = N1 + N2, содержащий две независимые выборки, причем меньшая выборка предшествует большей; 126
Nt — заданное число наблюдений в меньшей выборке; N2 — заданное число наблюдений в большей выборке; Я — вычисляемый вектор рангов размерности N = N1 + + N2; U — вычисляемая статистик^ используемая для про¬ верки однородности двух выборок; Z — вычисляемая мера для определения значимости U в терминах нормального распределения. Примечание: ЕслиN2 <20,toZ = 0. Используемые подпрограммы: STRNK. STTIE. Подпрограмма S7TALY. Предназначена для вычисления суммы, среднего, среднего квадратического отклонения, минимума и максимума для всех или некоторых выборок экспериментальных данных. Обращение к подпрограмме: ^ CALL STTALY (A.S. TOTAL. AVER. SD. VMtN, VMAX, NO. N V) A — заданная матрица наблюдений размера NO X NV; S — заданный вектор размерности NO, указывающий выборки из А. Обрабатываются только те выборки из А, для которых соответствующие элементы вектора 5 не равны нулю; NO — заданное число наблюдений в каждой выборке; NV— заданное число выборок; TOTAL — вычисляемый вектор сумм размерности NV; A VER — вычисляемый вектор средних значений размер¬ ности NV; SO — вычисляедшй вектор средних квадратических отклонений размером N V; VMtN — вычисляемый вектор минимальных значений размерности NV; VMAX — вычисляемый вектор максимальных значений размерности NV ; Используемые подпрограммы отсутствуют» Подпрограмма STtGRP. Предназначена для оценки основ¬ ных статистических параметров по сгруппированным данным. Обращение к подпрограмме: CALL STTGRP (F. Y, К. YLM. WtD. ЮРТ. STAT. tER) F — заданный вектор размерности К, содержащий частоту длр каждого интервала класса; Y — рабочий вектор размерности К; 127
К — заданное число групп, в которых производится ' классификация;Л YLM — заданная нижняя граница интервала младшего класса; WIV — заданная ширина интервала каждого класса; /бЯГ — заданный вектор размерности 8, указывающий, какие из основных статистических характеристик должны быть вычислены. Структура вектора следующая: ЮРТ( 1) = = 1 — вычисляется среднее арифметическое; ЮРТ(2) = 1 — вычисляется среднее геометрическое; ЮРТ(3) = 1 — вы¬ числяется среднее гармоническое; ЮРТ(4) = 1 — вычисля¬ ется медиана; ЮРТ(5) = J — вычисляется оценка харак¬ теристик; ЮРТ(6) = 1 — вычисляется дисперсия; ЮРТ{1) = = 1 — вычисляется третий центральный момент; ЮРТ(8) = = 1 — вычисляется четвертый центральный момент; STAT — вычисляемый вектор размерности 8, содер¬ жащий значения основных статистических характеристик в соответствии со значениями, принимаемыми вектором ЮРТ; IER — вычисляемый параметр ошибки. Определяется по формулам: IER = 128 + N и IER =32 + N, где N может принимать следующие значения: N = 1 — число вводимых групп меньше двух (К < 2); N = 2 — нижняя гранйца интер¬ вала младшего класса меньше нуля, когда ЮРТ(2) = 1; N = 3 — нижняя граница интервала младшего класса меньше нуля, когда ЮРТ(3) = 1; N = 4 — наивысшая частота класса, появляется для двух или более классов, когда ЮРТ(5) = 1. Используемые подпрограммы отсутствуют. Подпрограмма STRKS. Предназначена для определения степени связи между двумя переменными при помощи коэф¬ фициента ранговой корреляции Спирмэна. Обращение к подпрограмме: CALL STRKS (А, В, R, N, RS, Т, NDF, NR) А — заданный вектор наблюдений размерности N для первой переменной; В — заданный вектор наблюдений размерности N для вто¬ рой переменной; N — заданное число наблюдений в выборках; NR — заданный код, определяющий способы вычисления рангов: NR = 0 — для неранжируемых данных векторов А и В; NR <= 1 — для ранжируемых данных векторов А и В; R — вычисляемый вектор размерности 2N ранжирован¬ ных данных; J28
RS — вычисляемое значение коэффициента ранговой корреляции Спирмэна; Г — вычисляемая мера для определения значимости RS; NDF — вычисляемое число степеней свободы. Примечание. ЕслиN < 10, то Т = 0. Используемые подпрограммы: STRNK, STT/E. Подпрограмма STCOR. Предназначена для вычислений средних значений, средних квадратических отклонений и коэффициентов корреляции. Обращение к подпрограмме: CALL STCOR (N, М, 10, X, ХВ, ST, RX, R, В, D, 7) N — заданное число наблюдений; М — заданное число переменных (выборок) ; /О — параметр, определяющий порядок ввода данных: /0 = 0 — данные считываются с устройства ввода специальной подпрограммой DATA, написанной пользователем; /О =1 — данные находятся в оперативной памяти. Обращение к подпрограмме DATA: CALL DA ТА (М, D) М — заданная размерность вектора данных D; D — рабочий вектор, в который помещаются данные; X — матрица размера N X М, содержащая данные* при /0=1. При /0 = 0 значение X = 0; Т — рабочий вектор размерности М; ХВ — вычисляемый вектор размерности М, содержа¬ щий выборочные средние значения; ST — вычисляемый вектор размерности М, содержащий выборочные средние квадратические отклонения; RX — вычисляемая матрица ковариаций размера М X /V, содержащая суммы взаимных произведений отклбнений от среднего (выборочные ковариации); R — вычисляемая матрица коэффициентов корреляции размера N X М\ В — вычисляемый вектор размерности М, содержащий диагональные элементы матрицы ковариаций. Используемые подпрограммы: DATA. Подпрограмма STAUTO. Предназначена для оценки для данного временного ряда среднего значения, дисперсии, ковариаций и корреляций, частных корреляций. 5 Заказ ИЗО 129
Обращение к подпрограмме; CALL STAUTO (W, LW, К, L, ISWyAMEAN, VAR, AC V, AC, PACV, WKAREA) W — заданный вектор размерности LWj содержащий временной ряд, для которого определяются ковариации; L W — заданная размерность вектора W; К — заданное число вычисляемых ковариаций и корре¬ ляций; L — заданное число вычисляемых частных корреляций; ISW — заданный управляющий параметр для определения выполняемой задачи: ISW = 1 — найти среднее и дисперсию; ISW = 2 — найти ковариации; ISW = 3 — найти среднее, дисперсию и ковариации; ISW = 4 — найти ковариации и кор¬ реляции; JSW^= 5 - найти среднее, дисперсию, ковариации и корреляции; 9SW = 6 - найти ковариации, корреляции и частные корреляции; ISW = 7 — найти среднее, дисперсию, корреляции и частные корреляции; WKAREA — рабочий вектор размерности L; AMEAN — вычисляемое среднее значение для временного ряда (вывод при ISW = 1, 3,5, 7); VAR — вычисляемая дисперсия временного ряда (вывод при /S*V=1,3,5, 7); АСУ — вычисляемый вектор размерности К ковариаций временного ряда (вывод при ISW = 2, 3, 4, 5, 6, 7) ; 4С — вычисляемый вектор размерности К корреляций временного ряда (вывод при ISW = 4,5* 6, 7); PACV — вычисляемый вектор размерности L частных корреляций временного ряда (вывод при ISW = 6,7). Используемые подпрограммы отсутствуют. Подпрограмма STCROS. Предназначена для вычисления выборочный оценок среднего, дисперсии, взаимных кова¬ риаций и взаимных корреляций для двух взаимно стационар¬ ных временных рядов. Обращение к подпрограмме: CALL STCROS (XY, NC, ISW, EMUSIG, ACV, I A, IB, AC, 1C, ID, IER) XY — заданный вектор размерности N = NC{\)* NC(2)* NC(3) */VC{4),содержащий два временных ряда; NC — заданный вектор размерности 4, содержащий сле¬ дующие значения: Л/С(1) — длина первого временного ряда; 1Э0
А/С (2) — длина второго временного ряда; Л/С 13) — число каналов в каждом временном ряду; Л/С (4) — максимальное число интервалов времени для взаимных ковариаций и взаим¬ ных корреляций; ISW — заданный параметр варианта: ISW = 1 — вычисле¬ ние среднего значения и дисперсии для каждого канала каж¬ дого временного ряда; fSW = 2 — вычисление взаимных ковариаций; ISW = 3 — вычисление среднего значения и дис¬ персии для каждого канала временного ряда и взаимных ковариаций; ISW = 4 — вычисление взаимных ковариаций и взаимных корреляций; ISW = 5 — вычисление среднего значения и дисперсии для каждого канала временного ряда, взаимных ковариаций и взаимных корреляций; , EMUS/G - заданный вектор размерности 4Л/С (3), со¬ держащий средние значения для Л/С (3) каналов обоих вре¬ менных рядов & первых 2Л/С(3) ячейках. Оставшиеся ячейки содержат соответствующие дисперсии. Вектор является вход¬ ным, если параметр ISW нечетный; /А — заданное максимальное значение первого индекса в операторе размерности для матрицы ACV; IB — заданное максимальное значение второго индекса в операторе размерности для матрицы A CV; 1C — заданное максимальное значение^первого индекса в операторе размерности для матрицы А С; Ю — заданное максимальное значение второго индекса в операторе размерности для матрицы А С; АСУ — вычисляемая матрица размера Л/С(3) * Л/С(3) * (Л/С(4) + 1), которая определяется только для ISW = 2, 3, 4, 5 н содержит взаимные ковариации в мультиплексной форме; ' АС — вычисляемая матрица размера Л/С(3)х Л/С(3)х (Л/С(4) + 1), которая определяется только для ISW *= 4 и 5 и содержит взаимные корреляции в мультиплексной форме; IER — вычисляемый параметр ошибки. Определяется по формуле IER = 12В + А/, где N может принимать следу¬ ющие значения: N = 1 — ISW не равно 1, 2, 3, 4 или Б] N — = 2 — Л/С(1) или Л/С(2) или оба меньше 2; Л/ = 3 — Л/С(3) < < I или Л/С 44) < 0 при ISW = 2, 3,4 или 5; N = 4 — меньшее из Л/С ( 1) и , Л/С 12), меньше или равно Л/С (4) при ISW = = 2, 3, 4 и лет 5. Используемые подпрограммы: SWERTS. 131
Подпрограмма STMSON. Предназначена для оценки сред¬ него значения и дисперсии выборки нормаль**® распределен¬ ной совокупности. Обращение к подпрограмме: CALL STMSON (Y, N, ЮР, CRIT, М, PAR, STAT, NDF, IER) Y — заданный вектор размерности N, содержащий вы¬ борку; N — заданный размер выборки; ЮР — заданный вектор размерности 4, указывающий вид проверяемой гипотезы и интервальные оценки, подле¬ жащие вычислению; имеет следующую структуру: ЮР( 1) = = I — указывает на вид критерия при проверке гипотезы а средних значениях: / = 1 — двусторонний критерий; / = = 2 — верхний односторонний критерий;/ = 3 — нижний односторонний критерий; ЮР (2) = / — указывает на вид интервальной оценки различий между средними: / = 1 — двусторонняя оценка; / = 2 — верхняя односторонняя оцен¬ ка; 1 = 3 — нижняя односторонняя оценка; ЮР(3) = I — указывает на вид критерия при проверке гипотезы о диспер¬ сии: / = 1 — двусторонний критерий; / = 2 — верхний одно¬ сторонний критерий; 1 = 3 — нижний односторонний кри¬ терий; ЮР{4) = I — определяет вид интервальных оценок дисперсии: / = 1 — двусторонняя оценка; 1 = 2 — верхняя односторонняя оценка; / = 3 — нижняя односторонняя оцен¬ ка; mCRIT — заданный вектор размерности 4, содержащий константы, требуемые для интервального оценивания и про¬ верки гипотез. /-й элемент вектора содержит: / = 1 — довери¬ тельную вероятность для интервальной оценки среднего (используется только когда ЮР (2) =1,2 или 3); / = 2 — доверительную вероятность для интервальной оценки диспер¬ сии (требуется, когда ЮР{4) =1,2 или 3); 1 = 3— гипо¬ тетическую величину среднего (требуется, когда ЮР[4) = = 1,2 или 3); / = 4 — гипотетическую величину дисперсии (требуется, когда ЮР (3) =1,2 или 3) ; М — заданное число значений в предыдущем векторе; PAR — заданный вектор размерности 2, содержащий дополнительные оценки параметров; STAT — вычисляемый вектор размерности 6, содержа¬ щий: 5ГАГ(1) — вероятность для проверки гипотезы относи¬ тельно среднего; STAT(2) — вероятность для проверки гипотезы относительно дисперсии; STAT{3) — нижний предел 132
для среднего; S7V4r(4) — верхний предел для среднего; S7>ir(5) — нижний предел для дисперсии; STATIS) — верх¬ ний предел для дисперсии; NDF — вычисленное количество степеней свободы в оцен¬ ке дисперсии; IER — вычисляемый параметр ошибки. Определяется по формуле IER = 128 + N, где N может принимать следую¬ щие значения: N = 1 - число определенных ответов мень¬ ше 2; N — 2 — ошибка в подпрограмме STTD) N — 3 — ошиб* ка в подпрограмме STCH; N = 4 — ошибка в подпрограмме STSTI; N = 5 - ошибка в подпрограмме STCHI. Примечание. Если / не равно 1,2 или 3 для любого вектора /СЭР, то проверка или оценка не проводятся. Используемые подпрограммы: STCH, STTD, STCHI, STNOR, STSTI, SFGAMM, STEFC, STNRIS, SVERTS. Подпрограмма STPETS. Предназначена для оценки сред¬ него значения и дисперсии нормально распределенной сово¬ купности по двум выборкам, используя метод доверитель¬ ных интервалов. Обращение к подпрограмме: CALL STPETS (Y, N, ЮР, CRIT, ST AT, NDG, !ER\ Y - заданный вектор длины N = /V (1) + ЛМ2), содер¬ жащий данные первой и второй выборок; N — заданный вектор размерности 2, содержащий раз¬ меры выборок; ЮР — заданный вектор размерности 4, указывающий вид проверяемой гипотезы и интервальные оценки, подлежа¬ щие вычислению; VQPU) = 1 — указывает вид"гипотез для средних значений: А — 1 — двусторонний критерий; / = 2 — верхний односторонний критерий; / = 3 — нижний одно¬ сторонний критерий; ЮР{2) = / - указывает на вид интер¬ вальной оценки различия между средними: / = 1 — двусто¬ ронняя оценка; / = 2 — ёерхняя односторонняя оценка; / = 3 - нижняя односторонняя оценка; ЮР(3) = / — ука¬ зывает на вид гипотезы для дисперсий: / = 1 — двусторонняя проверка; / = 2 — верхняя односторонняя; / = 3 - нижняя односторонняя; ЮР (4) = / — указывает на вид интервальных оценок дисперсии: / = 1 — двусторонняя проверка; 1 = 2 — верхняя односторонняя; / — 3 — нижняя односторонняя; CR1T(5) — заданный вектор, содержащий константы, тре- буемые для оценок интервалов и проверок гипотез. Элемент вектора CRIT(I) содержит: при / = 1 — доверительную веро¬ 133
ятность для интервальной оценки среднего (используется, если ЮР (2) = 1,2 или 3); при / = 2 - доверительную вероят¬ ность для интервальной оценки дисперсии {используется, если ЮР\4) =1,2 или 3); при / = 3 — гипотетическую дис¬ персию (используется, если ЮР(4) = 1, 2 или 3); при / = = 4 — мультипликативную константу (используется, если ЮР\ 1) или ЮР (2) равны 1, 2 или 3); при / = 5 — аддитив¬ ную константу (используется, если ЮР( 1) или /ОР(2) равны *1,2 или 3). STAT\9) — вычисляемый вектор, содержащий результаты выводов относительно среднего и дисперсии: 5ТАГ(1) — оценка первого среднего; STAT(2) — оценка второго сред¬ него; STAT(3) — оценка дисперсии; S747“(4) — вероятность (для гипотезы относительно среднего) того, что она верна, больше или равна величине, вычисленной для статистики критерия; 5ГАГ(5) — вероятность (для гипотезы относи¬ тельно дисперсии) того, что она верна, больше или равна величине, вычисленной для статистики критерия; STAT{6) — нижний предел для интервальной оценки среднего; STAT(7) — верхний предел для интегральной оценки сред¬ него; STAT(8) — нижний предел для интервальной оценки дисперсии; STAT(9) — верхний предел для интервальной оценки дисперсии; NDF — вычисленное число степеней сво¬ боды в оценке дисперсии; IER — вычисляемый параметр ошибки. Определяется по формуле IER = 128 + N, где N мо¬ жет принимать следующие значения: N = 1 — число опреде¬ ленных ответов меньше трех; N = 2 — ошибка в подпрограм¬ ме STTD; N = 3 — ошибка в подпрограмме STCH; N = 4 - ошибка в подпрограмме STSTI; N = 5 — ошибка в подпро¬ грамме STCHI. Примечания: 1. Если / не равно 1, 2 или 3 для всех элементов вектора ЮР, то интервальные оценки и про¬ верки не осуществляются. 2. Если требуются выводы относительно среднего первой совокупности с использованием информации о дисперсии, полученной от второй совокупности, STPETS может быть использована: для проверки гипотезы путем задания CR1T{4) = 0.0 и CRIT{b), равного гипотетической вели¬ чине первого среднего; для интервального оценивания путем задания CRIT(4) = CRIT(5) = 0.0. Используемые подпрограммы: STTD, STCH, STCHI, STSTI, STNOR, SFGAMM, STEFC, STNRIS, SVERTS. 134
Подпрограмма S7TS. Предназначена для вычисления ^статистики при различных гипотезах. Обращение к подпрограмме: CALL STTS (A, NA, В, NB, NOP, NDF, ANS) А — заданный вектор размерности NA, содержащий данные первой выборки; NA — заданное число наблюдений в А; В — заданный вектор размерности NB, содержащий данные второй выборки; NB — заданное число наблюдений в В; NOP — заданный параметр для выбора различных гипо¬ тез: NOP = 1 — рассматривается гипотеза: среднее значение совокупности В равно заданному значениюГПри этом должно быть NA = 1; NOP = 2 — рассматривается гипотеза: среднее, значение совокупности В равно среднему значению сово¬ купности А при условии, что дисперсия совокупности В равна дисперсии совокупности A; NOP = 3 - рассматривается гипотеза: среднее значение совокупности В равно среднему значению совокупности А, при условии, что дисперсия сово¬ купности В не равна дисперсии совокупности А; NQP = 4 — рассматривается гипотеза: среднее значение совокупности А равно среднему значению совокупности В при отсутствии * информации о дисперсиях совокупностей А и В. При этом должно быть NA =NBi NDF — вычисляемая переменная, содержащая число степеней свободы, соответствующее вычисляемой дета- %тистике; ANS — вычисляемая переменная, содержащая д<та- тистику. Примечания: t. NA и NB должны быть больше I, за исключением NA = 1 в выборе 1. NA и NB должны быть одинаковы в выборе 4. 2..Если NOP не равен 1, 2, 3 или 4, то число степеней свободы и £• статистики не будут вычисле¬ ны. NDF и ANS полагаются равными нулю. Используемые подпрограммы отсутствуют. Подпрограмма STKOL2. Предназначена для проверки разности между двумя выборочными функциями распре¬ деления при помощи критерия Колмогорова—Смирнова. Обращение к подпрограмме: CALL STK0L2 (X, Y, N, Ц Z, PRO В) X — заданный вектор размерности N, содержащий первую 136
выборку. На „выходе вектор содержит исходные данные, упорядоченные в неубывающую последовательность (ва¬ риационный ряд); Y — заданный векторразмерности М, содержащий вторую выборку. На выходе вектор содержит исходные данные, упорядоченные в неубывающую последовательность; N — заданное число наблюдений в X; М ~ заданное число наблю¬ дений в У; Z — вычисляемая переменная, равная макси¬ мальному значению величины / I F/y (X) — F м (УГ1, ч/ М т /V где F/v (X) и Fм (У) — эмпирические функции распределения множеств X и У соответственно; PROB — вычисляемая вероятность того, что статистика Dmn больше или равна Z в предположении истин- У N + М ноет гипотезы о принадлежности X и У совокупностям с оди¬ наковой функцией распределения. 4Например, PROB = = 0,05 означает, что гипотеза о принадлежности X и У сово¬ купностям с одинаковой плотностью может быть отвергнута с вероятностью ошибки 5%,) Примечание. Значения М и N должны быть болыиё или равны 100, так как при меньших значениях асимптоти¬ ческие формулы, используемые в подпрограмме STSMIR,^ дают значительные Погрешности. Используемая подпрограмма: STSMIR. 3.2. ПОДПРОГРАММЫ НА ЯЗЫКЕ "ФОРТРАН" 1. Подпрограмма\ FGAUSP+ Предназначена для расчета плотности вероятности стандартной гауссовской случайной величины. SUBROUTINE FGAUSP (X, AM, AD, Р) РГ=3.1415927 R=SQRT(2*PI) Р=ЕХР ( (-1) * (Х-АМ) **2/2./AD**2) /AD/R RETURN END Обращение к подпрограмме: CALL FGAUSPIX, АЦ AD, Р) X— значение случайной величины; 136
AM — математическое ожидание случайной величи¬ ны X; AD — дисперсия случайной величины; Р — значение плотности вероятности случайной гаус¬ совской величины X. Используемых подпрограмм нет. 2. Подпрограмма FGAUSF. Предназначена для вычисле¬ ния функции распределения стандартной гауссовской слу¬ чайной величины. Функция распределения аппроксимируется степенным полиномом 171]: F (х) = 1 — 1 (1 + c/jX + d2x2 + ... + d6x6 + е) “16, где &, — коэффициенты полинома (даны в тексте подпро¬ граммы) ; х — значение случайной величины; е — погреш¬ ность аппроксимации, I el < 1,5 • 10"7. SUBROUTINE FGAUSF (X, РХ) DATA D\, D2/4986.7347Е—5,2114.10Q6E—5/ DATA D3, D4/327.76263E—5,38.0036Е—6/ DATA D5, D6/48.89J06E—6,53.83Е—7/ F=X* (D1+X*( D2+X* (D3+X* (D4+X* (D5+X*D6) И)) F=(F+1.) **16 PX=1.0—0.5/F RETURN END Обращение к подпрограмме: CALL FGAUS$(X, FX) X — значение случайной величины; FX — значение функции распределения. Используемых подпрограмм нет. 3. Подпрограмма FGAUSI. Вычисляет значение ч кван¬ тили \д гауссовского распределения порядка q. Квантиль гауссовского распределения аппроксимируется следующим'образом [71]: * - «• со +ctr +c2t2 Q о i s 1+rfjf + rfjt + d$t где t = у/In (a"2); a = 1 — q; С/, dj — коэффициенты разло- 137
жвния (даны в тексте подпрограммы); е — погрешность аппроксимации; lei < 4,5-10"4. SUBROUTINE FGAUSKQ, X) DATA С0.С1 /2.515517,0.8028538/ DATA C2.D1/0.01032.1.432788/ DATA D2,D3/0.189269,0.001308/ AN=1.0—Q T=SQRT (ALOG (1.0/AN**2)) X=T- (C0+T* (Ct+C2*T)) / (1.0+T* I (D1+T*(D2+T*D3))) RETURN END Обращение к подпрограмме: CALL FGAUSHQ. X) Q — вероятность g=P (x <Xff); X — квантиль \q порядка q гауссовского распределения. Используемых подпрограмм нет. 4. Подпрограмма FGAMMA. Предназначена для расчета гамма-функции Г(х) вещественного аргумента х для 0 < <х <35. На интервале 0 < х < 1 гамма-функция аппроксими¬ руется степенным полиномом [71]: Г(х) =1 +6jX +б2*г + ■ ■ ■ +Ьйх* + е, где Ьi — коэффициенты полинома (даны в тексте подпрограм¬ мы) ; х — аргумент гамма-функции; е — погрешность аппро¬ ксимации не превышает 3 ■ 10~7. На интервале 1 < х < 35 используется рекурсивная формула Г (х) = х Г (х — 1). SUBROUTINE FGAMMA(X, G) DATA B1,B2/—0.577191652,0.988205891/ DATA B3,B4/-0.897056937,0.918206857/ DATA В5.В6/ -0.756704078,0.482199394/ DATA B7.B8/-0.193527818,035868343/ D=1.0 Y=X' I F (X.LE.1. 0) GO TO 3 K=0 1 K=K+1 *38
Y=X—К D=D*Y IF (Y.LE.1.0) GO TO 3 GOTO 1 3 F= (((((((B8*Y+B7) *Y+B6) *Y+B5) *Y+B4) I *Y+B3) *Y+B2) *Y+B1) *Y+1.0 G=D* F/Y RETURN END Обращение к подпрограмме: CALL FGAMMA [X, G) X — аргумент; G - значение гамма-функции. Используемых подпрограмм нет. 5. Подпрограма FTSTL Предназначена для расчета кван¬ тилей tvq f-распределения (Стьюдента) порядка qzv степе¬ нями свободы. Используется аппроксимация функции [71] * _ч . . Я2 03 U) . <74 U) tvq - Л<7 + —- + 5“ + — + — ' V V PL V где \q — квантиль порядка q гауссовского распределения; v — число степеней свобоы f-распределения; q -, (X) — поли¬ номы аппроксимации (приведены в тексте программы). Удовлетворительные результаты аппроксимация дает при любых q и [Vi, v2) > 50, ошибку до 3% — при q <0,995 и О»,.**) >20. SUBROUTINE FTSTI (AT, V, Т) PN=1.0—АТ/2 CALL FGAUSKPN, X) Х2=Х**2 G1 = (X2+1)*X/4 G2=( (5*Х2+16) *Х2+3) *Х/96 G3=( ((3» Х2+19) *Х2+17) *Х2—15) *Х/384 G4=( (((79*Х2+776) «Х2+1482) «Х2-1920) ! *Х2—945) «Х/92.16ЕЗ T=X+G1/V+G2/V*»2+G3/V«*3+G4/V**4 RETURN END 138
Обращение к подпрограмме: CALL FTSTKAT, V, Т) АТ— вероятность а = 1 — q для г-распределения; V— число степеней свободы; Т — квантиль tvq. Используемая подпрограмма: FGAUSI. 6. Подпрограмма F)QL Позволяет рассчитать квантиль X2-распределения с v степенями свободы для вероятности ошибки ol (х2) = 1 - q- где v — степень свободы х2 -распределения; \q — квантиль гауссовского распределения порядка q. Аппроксимация достаточно верна и для р>5иа(х2) < <0,1. SUBROUTINE FX2I (V, АХ2, Х2) 0=1.0—АХ2 CALL FGAUSI (О, X) X2=V* (1.0-2.0/9.0/V+X*SQRT<2.0/9.0 ! /V)) **3 RETURN END Обращение к подпрограмме: CALL FX2!(V,AX2,X2) V— число степеней свободы v\ АХ2 — вероятность ошибки а (х2); Х2 — квантиль х2* Используемая подпрограмма: FGAUSI. 7. Подпрограмма FFISHI. Предназначается для расчета* квантилей F-распределения (Фишера), которые аппрокси¬ мируются следующим образом [71 ].: Fpiu2q ^ t где vx — число степеней свободы случайного процесса с боль¬ шей дисперсией; v2 — число степеней свободы случайного Для v > 30 имеем [71 ] х2 ** v (1 (■ процесса с меньшей дисперсией; со =
5 2_ 6 3 И ivx -1) (V2 - 1) vl + v2 “ 2 ^ = (X? — 3) /6; Xg — квантиль гауссовского распреде¬ ления порядка q. SUBROUTINE FFISHI (QF, V1,V2,F) CALL FGAUSI (QF, X) R= (X**2—3.0) /6. H=2.0* (VI-1) * (V2—1) / (V1+V2—2) W=X*SQRT (H+L) /Н— (V2-V1) *<R+5-0/6— ! 2.0/3/H) / (V2—1) / (VI—1) F=EXP(2* W) RETURN END Обращение к подпрограмме: CALL FFISHI (QF, V1, V2, F) QF — вероятность q; V1, V2 — числа степеней свободы vt и v2 соответственно; F — квантиль FVli>2q. Используемая подпрограмма: FGAUSI. 8. Подпрограмма FMD. Оценивает математическое ожи¬ дание AM и дисперсию AD массива А (N). SUBROUTINE FMD(A.N,AM,AD)- DIMENSION A(N) AM=0.0 AD=0.0 DO 5 1=1, N 5AM=AM+A(I) AM=AM/N DO 10 J=1.N 10 AD=AD+ (A(I)-ANH**2 AD=AD/(N-1) RETURN END Обращение к'подпрограмме: CALL FMD {A, N, AM, AD) A — исходный массив данных; N — размерность массива; 14*
AM — математическое ожидание; AD — дисперсия. Используемых подпрограмм нет. 9. Подпрограмма FVAR. Формирует вариационный ряд В (/V): (В (1) < В (2) < ... < В (Л/)) из исходной выборки A [N). SUBROUTINE FVAR (A.B,N) DIMENSION A(N) N1=N DO 15 J=1.1M DO 5 l=1,N 1 W=A(1) K=1 IF(Ad).GT.W) GO TO 5 W=A(I) K=l 5 CONTINUE DO 10 l=K.N 1 —1 10 A (I) =A(I+1) N1=Nf —1 15 В (J) =W RETURN END Обращение к подпрограмме: CALL FVAR (A, В, N) A — исходный ряд; В — вариационный ряд; N — размерность рядов. Используемых подпрограмм нет. 3.3. ПОДПРОГРАММЫ НА ЯЗЫКАХ "БЕЙСИК" И "КВЕЙСИК" 1. Подпрограмма BGAUSP. Предназначена для расчета плотности вероятности стандартной гауссовской случайной величины. Описание переменных дано к подпрограмме FGAUSP. 5 REM 'SUBROUTINE BGAUSP' 10 PI =3.1415927 MX
15 R=S0R(2.*P1) \ R1 = (X—AM)*(X—AM) 20 P=EXP ((-1) * R1/2.0/AD/AD) /AD/R 25 RETURN 2. Подпрограмма BGAUSF. Предназначена для вычисле¬ ния функции распределения стандартной гауссовской слу¬ чайной величины. Описания переменных даны к подпро¬ грамме FGAUSF. 5 REM 'SUBROUTINE BGAUSF' 10 D1 =.0498673 \ D2=.021141 15 D3= 3.27763£—03 \ D4=3.80036E-05 20 D5=4.88906E—05 \ D6=5.38300E-06 25 F= ((((D6*X+D5) *X+D4) *X+D3) *X+D2) *X+D1 30 F=EXP<16*LOG(F*X+1)) 35 P=1 —.5/F 40 RETURN 3. Подпрограмма BGAUSI. Вычисляет значение квантиля X9 гауссовского распределения порядка q. Описание аппрок¬ симации и переменных даны к подпрограмме FGAUSI. 5 REM 'SUBROUTINE BGAUSI' 10 C0=2.51552 \ Cl=.802854 15 C2=.01032 \ D1=1.43279 20 D2=.189269 \ D3=1.30800E-03 25 A=1 —Q 30 T=SQR (LOG (1 /А/А)) 35 B1=C1+C?»T 40 B2=D2+D3*T 45 X=T-(C0+T*B1)/n+T*(D1+T*B2)) 50 RETURN 4. Подпрограмма BGAMMA. Предназначена для расчета гамма-функции вещественного аргумента. Описание алгорит¬ ма и переменных даны к Подпрограмме FGAMMA. 5 REM 'SUBROUTINE BGAMMA' 10 В1 =-.577192 \ 82=988206 15 В3=—.897057 \ В4=.918207 20 В5=—.756704 \ В6=.482199 25 В7=-.193528 ,\ В8=.035868 143
30 D=1 \ Y=X 35 IF X<=1 GO TO 60 40 K=0 45 K=K+1 \ Y=X—К \ D=D*Y 50 IF Y<=1 GO TO 60 55 GO TO 45 60 F=( ((B8*Y+B7) *Y+B6) *Y+B5) »Y+B4 65 F= (((F*Y+B3) *Y+B2) *Y+B 1) Y+1 70 G=D*F/Y 75 RETURN 5. Подпрограмма BTSTI. Предназначена для расчета кван¬ тилей tvq r-распределения (Стьюдента) с v степенями сво¬ боды порядка д. Описание переменных дано к подпрограмме FTSTI. 5 REM 'SUBROUTINE BTSTI' 10 Р=1 —А/2 15 GOSUB 100 20 Х2=Х«Х 25 G1 = (X2+1)*X/4 30 G2= ((5«Х2+16) *Х2+3) *Х/96 35 G3= (((3*Х2+19) *Х2+17) *Х2-15) *Х/384 40 G4=( (79*Х2+776) *Х2+1482) *Х2 45 G4= ((G4-1920) *Х2-945) «Х/92160 50 T=X+G 1 /V+G2/V/V+G3/V/V/V+G4/V/V/V /V 55 RETURN 100 REM 'SUBROUTINE BGAUSl' 6. Подпрограмма BX2I. Позволяет рассчитать кван¬ тиль Хр^-распределения х2 с v степенями свободы порядка q. Описание переменных дано к подпрограмме FX2I. 5 REM 'SUBROUTINE BX2l' 10 0=1-А 15 GOSUB 100 20 Х2= (1 —2/9/V+X«SQR (2/9/V)) 25 X2=V*EXP (3«LOG (Х2)) 30 RETURN 100 REM 'SUBROUTINE BGAUSl' 7. Подпрограмма BFISHI. Вычисляет квантиль FVlViq для F-распределения (Фишера) порядка q с V\ и v2 степе¬ 144
нями свободы. Описание переменных дано к подпрограм¬ ме FFISHI. 5 REM 'SUBROUTINE BFISHI' 15 GOSUB 100 20 L=(X*X—3)/6 25 Н=2*( VI—1) *(V2—1)/(V1+V2—2) 30 W=X*S OR (H+L) /Н 35 L=L+5/6—2/3/H 40 W=W— (V2—V1) *L/ (V2—1) / (V1 —1) 45 F=EXP(2* W) 50 RETURN 100 REM 'SUBROUTINE BGAUSl' 8. Подпрограмма BMD. Оценивает математическое ожи¬ дание AM и дисперсию AD массива А (N), где N — размерность массива. 5 REM 'SUBROUTINE BMD' 10 AM=0.0 15 AD=0.0 20 FOR 1=1 ТО N\ AM=AM+A(I) \NEXT I 25 AM=AM/N 30 FOR J=1 TO N\ AD=AD+(A(I) —AM)«(A(l) —AM) 35 NEXT J 40 AD=AD/(N-1) 45 RETURN 9. Подпрограмма В VAR. Формирует вариационный ряд В (N) из исходного произвольного ряда А (Л/). Описание переменных дано к подпрограмме FVAR. 5 REM 'SUBROUTINE BVAR' 10 N1=N 15 FOR J=1 TO N 20 FOR 1=1 TO N1 \ A=A (1) \K=1 25 IF A(l)>A GOTO 35 30 A=A (I) \ K=l 35 NEXT I 40 FOR l=K,N-1 \ L=l+1 \ A(I) =A(L) \ NEXT I 45 N1=N1—1 \ B(J)=A \ NEXT J 50 R ETURN 145
10. Программы QCOSP (на языке "квейсик") и BCOSP (на языке "бейсик"). Предназначена для расчета корре¬ ляционных функций и спектральных плотностей (энергети¬ ческих спектров) эргодических случайных процессов по выборке,их дискретных отсчетов X(i) =x(f/) (/ = 1,256), взятых с постоянным шаго^дискретизации. Непосредственно рассчитывается корреляционная функция, а спектральная плотность определяется с помощью алгоритма быстрого пре¬ образования Фурье (см. гл. 2). Результаты расчетов выво¬ дятся в виде таблиц и графиков на экран дисплея. 1 PUT (/".м.*...*..*......*»*...*»*****.*»**") 2 PUT (/"ИССЛЕДОВАНИЕ КОРРЕЛЯЦИОННЫХ ФУНКЦИЙ") 3 PUT (/"СИ ГНАЛОВ И ИХ ЭНЕРГЕТИЧЕСКИХ СП ЕКТРОВ") 4 PUT (Г..................*.*.........*....*") 11 REAL А(257) ,Х (257) ,Y (257) ,Z (257) ,R (81) 12 REAL ET,P,D,H1,ZN,Z2,Z3,Z4,T1.T2,T3,T4,ZF 13 REAL C.S.A1 ,A2,U1 ,U2,U3,U4,G,Y2jF0,F1 ,T,V6 16 LET N=256\LET M=8\ LET Z3=1 \ LET N1=N 18 LET ZN=0.641593\ LET N2=N/2 \ LET N3=N-1 20 LET N4= N2+1 \ LET N5=N/4P=3.1415927 21 LET 11=1 25 PUT (/"ЗАДАТЬ ВРЕМЕННОЙ ШАГ ДИСКРЕТИЗАЦИИ") 30 GET (ЕТ) \ LET ZF=1/ET/N 35 PUT (/"ЧАСТОТНЫЙ ШАГ PABEH''.ZF/ТЦ") 45 GOSUB 600 50 FOR 1=1 TO N\LET A(I)=X(I) \NEXT I 53 PUT(/"»«***ТАБЛИЦА ЗНАЧЕНИЙ СИГНАЛА*»»»*") 54 GOSUB 41 0 55 PUT (/"—ДЛ Я ВЫВОДА ГРАФИКА — GOTO 57 —") 56 STOP 57 GOSUB 500 59 STOP 60 GOSUB 289 61 PUT (/" ТАБЛИЦА ЗНАЧЕНИЙ КОРРЕЛЯЦИОННОЙ ") - 62 PUT(/" ФУНКЦИИ ") 63 GOSUB 410 64 PUT(/"—ДЛЯ ВЫВОДА ГРАФИКА — GOTO 66 —") 65 STOP 66 GOSUB 500 \ STOP 67 FOR 1=1 TO N LET X (I) =0\ NE>£T I 70 GOSUB 340 71 FOR 1=1 TON 146
72 LET A(J) =SQR(X(I)«X(I)+Y(I)*Y(I) ) \NEXTI 74 LET N6=N 75 GOSUB 280 76 PUT (/"*** ТАБЛИЦА ЗНАЧЕНИЙ СПЕКТРА ***'') 77 GOSUB 410 78 PUT (/"ДЛЯ ВЫВОДА ГРАФИКА — GOTO 270 —") 79 STOP 80 GOSUB 500 \ STOP 280 LET M1=A(1) 281 FOR l=2 TO N6 282 IF M1=>A(I) THEN 284\ LET M1=A(I) 284 NEXT I 285 FOR 1=1 TO N6 \ LET A(I)=A(I)/M1 \NEXT I 288 RETURN 289 PUT (/"ИДЕТ РАСЧЕТ КОРРЕЛЯЦИОННОЙ ФУНКЦИИ") 290 FOR 1=1 ТО 80 \ LET R (I) =0 \ NEXT I 293 FOR 1=1 TO 80 294 FOR J=1 TO N \ LET J1=J-I+1 296 LET R(l) =R (I) +X( J) *X(J1) \ NEXT J 299 LETR(I) =R (l)/(N—1+1) \ LET N6=80\NEXTI 301 GO TO 320 302 FOR 1=1 TO N \ LET Y (I) =0 \ LET A(I) =0 304 NEXT I 305 FOR 1=1 TO 80 \ LET J=79+l \ LET Y (J) =R(I) 308 NEXT I 309 FOR 1=1 TO 79 \ LET J=80—1+1 \ LET Y (I) =R(J) 312 NEXT I 314 FOR 1=1 TO 80 \ LET A(I)=R(I) \NEXTI 317 GO TO 334 320 FOR 1=1 TO N \ LET A(l) =0 \ NEXT I 323 FOR 1=1 TO 80 \ LET A (I) =R (I) \ NEXT I 326 LET N6=N 327 GOSUB 280 328 FOR 1=1 TO 80 \ LET R (I) = A (I) \ NEXT I 331 LET N6=80 \ GO TO 302 334 RETURN 340 FOR L=1 TO M \ LET L1=EXP( (M+1-L) «LOG (2)) 342 LET L2=L1/2 \ LET U1=1 \ LET U2=0 344 LET A1=P/L2 345 LET C=COS(A1) \ LET S=I1*SIN(A1) 347 FOR J=1 TO L2 348 FOR l=J TO N STEP L1 \ LET 12 =I+L2 350 LET T1=X(I)+X(I2) \LETT2=Y(I)+Y(I2> 147
352 LET T3=X(I) —X<12) \ LET T4=Y(I)-Y(I2) 354 LET X (12) =T3*U1 -T4*U2 \ LET Y (12) =T4*U1 +T3*U2 356 LET X(I)=T1 \ LET Y(I)=T2 \ NEXT I 359 LET U3=U1*C—U2 *S \ LET U2=U2*C+U1*S 361 LET U1=U3 362 NEXT J 363 PUT (/"**•** ИДЕТ Б П Ф ****»") 364 NEXT L 366 LET J=1 367 FOR 1=1 TO N3 368 IF l>=J THEN 375 369 LETT1=X(J) \ LET T2=Y(J) \ LET X (J) =X(I) 372 LETY(J) =Y(I) \ LETX(I)=T1\ LET Y(I)=T2 375 LET K=N2 376 IF K>=J THEN 380\ LET J=J-K\ LET K=K/2 379 GO TO 376 380 LET J=J+K \ NEXT I 382 RETURN 410 LET L=0 \ LET K=0 412 FOR 1=1 TO 4 \ LET J=4*L+I 414 PUT (A(J),)\ NEXT I 416 PRINT 417 LET L=L+1 418 IF L=16+16*K THEN 420 419 IF L*4<N5 THEN 412 \ RETURN 500 REAL В 501 LET C=0 \ LET G=0 502 FOR 1=1 TONI 503 IF A(I)<C THEN C=A(I) \ NEXT I 505 PUT (C) 507 FOR 1=1 TO N1 \ LET A(l) =A(I)+C«(-1) 509 NEXT I 510 FOR 1=1 TO N1 511 IF A(I)>G THEN LET G=A(I) \ NEXT I 513 FOR 1=1 TO N1 \ LET A(I)=A(I)/G\ NEXT I 515 LET V6=G+C\ PRINT V6 516 LET B=1.0625 \ LET H=1 \ LET K=H+70 533 FOR J=OTO 17 534 IF J>=12 THEN IF J<16 THEN LET F=12 535 IF J<4 THEN LET F=0 536 LET B=B—0.0625 537 IF J>=4 THEN IF J<8THEN LET F=4 538 LET S=B+0.03125 148
539 IF J>=8 THEN IF J<12 THEN LET F=8 540 LET D=B—0.03125 541 FOR l=H TO К 542 IF K<=N1 THEN 544 543 IF ION1 THEN 599 544 LET E=H+4 546 IF Ш V THEN IF JOF THEN PUT(" ",) 547 LET Р1= =1-4 548 IF l=H THEN IF J-0 THEN PUT("U"," ","1", 549 IF l=H THEN IF J—8 THFN PUT ("0",".","5","0",) 550 IF l=H THEN IF J—4 THEN PUT ("0",".","7","5 ",) 551 IF l=H THEN IF J—12 THEN PUT ("0","*"/'2","5",) 552 IF J>15 THEN 561 653 IF l>=E THEN IF A(P1)<STHEN IF A(P1»D THEN PUTT.",) 554 IF l=E THEN IF J=F THEN IF A<P1) D THEN PUT(,‘— 555 IF l=E THEN IF J<>F THEN IF A{P1«D THEN PUT('T',) 556 IF l=E THEN J=F THEN IF A{P1 )>=S THEN PUT 557 IF l=E THEN IF J<>F THEN IF A<P1)^ THEN PUT ("I",) 558 IF l>E THEN IF A(P1 )<b THEN IF A(P1)>=0 THEN PUT("'\) 559 IF l>E THEN IFA<P1)>=0 THEN IF A(P1)>=0 THEN PUT 560 IF J<16 THEN 582 561 IF l>=E THEN IF J=16 THEN A(P1»<$ THEN PUT<".",) 563 IF l<=E THEN LET Q1=0 565 IF l>=E THEN LET Y2=(l-E-Q1)/5 567 IF l>=E THEN IF Y2=1 THEN LET Q1=Q1+5 568 IF l>=E THEN IF J=16 THEN 570 569 GO TO 571 570 IF A(P1)>=S THEN IF Y2<>1 THEN PUT 571 IF l>=E THEN IF J=16 THEN IF A(P1)>=S THEN IF Y2=1 THEN PUT ("+",) 572 IF J=16 THEN 582 573 IF KE THEN 582 574 IF l=ETHEN PUT(" ",) 575 IF l<39+H THEN LET21=2«Q1+H 577 IF l<39+H THEN IF Y2=1 THEN IF Z1>9 THEN IF Z1<100 THEN 579 578 GO TO 580 579 PUT (" ",Z1," 580 IF l<39+H THEN IF Y2=1 THEN IF Z1 >99 THEN PUT Г ",Z1," ",\ 581 IF l=39+H THEN PUT(" T") Строка без номера есть продолжение предыдущей строки. 149
582 NEXT I 583 PUT 584 NEXT J 595 FOR 1=1 TO N1 \ LET A(I)*G+C \ NEXT I 599 RETURN 1 PRINT"***************»***»****»*»*******»*" 2 PRINT"HCCJ1EflOBAHHE КОРРЕЛЯЦИОННЫХ ФУНКЦИЙ" 3 PRINT"CH ГНАЛ OB И ИХ ЭНЕРГЕТИЧЕСКИХ СПЕКТРОВ" 4 PR| NT'«***.**.***.****.*.**.*.**.**.*.**..** 11 REAL А (257) .X (257) .Y (257) .Z (257) .R <81) 12 REAL ET.P,D,H1,ZN.Z2,Z3.Z4,T1,T2,T3,T4,ZF 13 REAL C,S,A1 ,A2,U1 ,U2.U3,U4,G,Y2J0,F1 ,T.V6 16 N=256\M=8\Z3=1\ N1=N\ZN=0.641593 18 N2=N/2 \ N3=N—1 \N4=N2+1 \ N5=N/4 20 P=3.1415927 \ 11=1 25 PRINT"3AAATb ВРЕМЕННОЙ ШАГ ДИСКРЕТИЗАЦИИ" 30 INPUT ET \ x ZF=1/ET/N 35 PRINT"4ACTOTHblH ШАГ PABEH''.ZF/ТЦ" 45 GOSUB 600 50 FOR 1=1 TO N\ A (I) =X (I) \ NEXT I 53 РРтТ"*****ТАБЛИЦА ЗНАЧЕНИЙ СИГНАЛА *#***" 54 GOSUB 410 55 PRINT'TVl Я ВЫВОДА ГРАФИКА — GO TO 57 —" 56 STOP 57 GOSUB 500 59 STOP 60 GOSUB 289 61 PRINT" ТАБЛИЦА ЗНАЧЕНИЙ КОРРЕЛЯЦИОННОЙ " 62 PRINT" ФУНКЦИИ 63 GOSUB 410 64 PRINT"/yifl ВЫВОДА ГРАФИКА — GO TO 66 —" 65 STOP 66 GOSUB 500 \ STOP 67 FOR 1=1 TO N \ X(l)=0\NEXT I 70 GOSUB 340 71 FOR 1=1 TON 72 A (I) =SQR (X(l) *X(I) +Y (I) *Y (I)) \ NEXT I 74 N6=N 75 GOSUB 280 76 PRINT"*** ТАБЛИЦА ЗНАЧЕНИЙ СПЕКТРА *.*" 77 GOSUB 410 78 PRI NT" ДЛЯ ВЫВОДА ГРАФИКА — GO TO 270 " 150
79 STOP 80 GOSUB 500 \ STOP 280 M1=A(1) 281 FOR l=2 TO N6 282 IF M1=>A(I) GOTO 284 \ M1=A(I) 284 NEXT I 285 FOR 1=1 TO N6\ A(I)=A(I)/M1 \ NEXT I 288 RETURN 289 PRINT"HflET РАСЧЕТ КОРРЕЛЯЦИОННОЙ ФУНКЦИИ" 290 FOR 1=1 TO 80 \ R(l)=0 \ NEXT I 293 FOR 1=1 TO 80 294 FOR J=1 TO N \ J1=J—1+1 296 R(I»=R(I)+X(J)*X(J1) \ NEXT J 299 R(I) =R(I)/(N—1+1) \ N6=80 \ NEXT I 301 GOTO 320 302 FOR 1=1 TO N \ Y (I) =0 \ A (I) =0 \ NEXT I 305 FOR 1=1 TO 80\ J=79+l \Y(J)=R(I) 308 NEXT I 309 FOR 1=1 TO 79\ J=80—1+1 \ Y (I) =R (J) 312 NEXT I 314 FOR !=1 TO 80 \ A (I) =R (I)\NEXT I 317 GO TO 334 320 FOR 1=1 TO N\A{I) =0\NEXT I 323 FR 1=1 TO 80 \ A(I) =R (I) \ NEXT I 326 N6=N 327 GOSUB 280 328 FOR 1=1 TO 80\R(I)=A(I) \ NEXT I 331 N6=80 \ GO TO 302 334 RETURN 340 FOR L=1 TO M \ L1=EXP( (M+ 1—L) *LOG (2)) 342 L2=L1/2 \ U1 =1 \ U2=0\ A1 = P/L2 345 C=COS(A1) \ S=!1*SIN(A1) 347 FOR J=1 TO L2 348 FOR l=J TO N STEP L1 \ I2=l+L2 350 T1=X(I)+X(I2) \ T2=Y(I)+Y(I2) 352 T3=X(I) —X(I2) \T4=Y(I) —Y(12) 354 X (12) =T3«U1—T4»U2 \ Y (12) =T4*U1+T3*U2 356 X(I)=T1 \ Y (I) =T2 \ NEXT I 359 U3=U1«C—U2»S \ U2=U2*C+U1 *S \ U1=U3 362 NEXT J 363 PRINT"***»* ИДЕТ Б П Ф *****" 364 NEXT L 366 J=1 151
367 FOR 1=1 TO N3 368 IF l>=J GOTO 375 369 T1=X(J) \T2=Y(J) \X(J)=X(I) 372 Y(J) =Y(I) \ X(I)=T1 \Y(I)=T2 375 K=N2 376 IF K>=J GO TO 380 \ J=J-K \ K=K/2 379 GO TO 376 380 J=J+K \ NEXT I 382 RETURN 410 L=0 \ K=0 412 FOR 1=1 TO 4\J=4*L+I 414 PRINT A(J) \ NEXT I 416 PRINT 417 L=L+1 418 IF L=16+16*K GO TO 420 419 IF L*4<N5 GO TO 412 \ RETURN 500 REAL В 501 C=0 \ G=0 502 FOR 1=1 TO N1 503 IF A(I)<C THEN C=A(I) \NEXTI 505 PRINT С 507 FOR 1=1 TO N1 \ A(I)=A(I)+C*(-1) 509 NEXT I 510 FOR 1=1 TO N1 511 IF A(I)>G THEN G=A(I) \NEXT I 513 FOR 1=1 TO N1 \ A(I)=A(I)/G\ NEXT I 515 V6=G+C\PRINT V6 516 B=1. 0625 \ H=1 \ K=H+70 533 FOR J=OTO 17 534 IF J>=12 THEN IF J<16 THEN F=12 535 IF J<4 THEN F= 0 536 B=B—0.0625 537 IF J>=4 THEN IF J<8 THEN F=4 538 S=B+0.03125 539 IF J>=8 THEN IF J<12 THEN F=8 540 D=B—0.03125 541 FOR l=HTOK 542 IF K<= N1 GO TO 544 543 IF ION1 GO TO 599 544 E=H+4 546 IF KE THEN IF JO F THEN PRINT " ". 547 PI =1—4 548 IF |=H THEN IF J=0 THEN PRINT "U 1". t52
549 IF l=H THEN IF J=8 THEN PRINT "0.50". 55a IF l=H THEN IF J=4 THEN PRINT "0.75". 551 IF l=H THEN IF J=12 THEN PRINT "0.25". 552 IF J015 THEN 561 553 IF l>=E THEN IF A(P1 )<S THEN IF AIP1 I>D THEN PRI NT" " 554 IF l=E THEN IF J=F THEN IF A(P1) D THEN PRINT 555 IF l=E THEN IF J<>F THEN IF A(P1)<DTHEN PRINT "I" 556 IF I =E THEN J=F THEN IF A(P1)>=S THEN PRINT 557 IF l=E THEN IF J<>F THEN IF A(P1 »=S THEN PRINT "I" 558 IF l>E THEN IF A(P1 KD THEN IF A(P1 )>=0 THEN PRINT 559 IF l>E THEN IF A(P1 >>=S THEN IF А(Р1)>=Ц) THEN PRINT " " 560 IF J<16 THEN GO TO 582 561 IF l>=E THEN IF J=16 THEN IF A(P1)<S THEN PRINT "*". 563 IF l<=E THEN Q1= 0 565 IF l>=E THEN Y2=(l—E—Q1)/5 567 IF l>=E THEN IF Y2=1 THEN Q1=Q1+5 568 IF l>=E THEN IF J=16 GO TO 570 569 GO TO 571 570 IF A(P1)>=S THEN IF Y201 THEN PRINT 571 .IF l>=E THEN IF J=16THEN IF A(P1)>=S THEN IF Y2=1 THEN PRINT "+". 572 IF J=16 GO TO 582 573 IF KE GO TO 582 574 IF l=E THEN PRINT" 575 IF l<39+H THEN Z 1=2*Q1+H 577 IF K39+H THEN IF Y2=1 THEN IF Z1>9 THEN IF Z1<100 GO TO 579 578 GO TO 580 579 PRINT " "Z1 " " 580 IF l<39+H THEN IF Y2=1 THEN IF Z1>99 THEN PRINT" ".Z1" " 581 IF l=39+H THEN PRINT " T" 582 NEXT I 583 PRINT 584 NEXT J 595 FOR 1=1 TO N1 \ A(I)=A(I)*G+C\NEXT I 599 RETURN 3.4. ПРОГРАММЫ ДЛЯ МИКРОКУЛЬКУЛЯТОРОВ Программы ПМК 3/1-ПМК 3/4. Программа ПМК 3/1 служит для вычисления стандартной плотности вероятности. 153
Fx2 2 - /-/ Fe* 2 Fjt X FV~ + С/П Инструкция к программе ПМК 3/1: В/О; х С/П. В РХ - значение плотности вероятности. Программа ПМК 3/2 служит для вычисления значений плотностй вероятности при заданных математическом ожида¬ нии т и дисперсии а2 случайной величины. ПО С/П Т11 С/П И ПО - Fx2 /-/2.+ ИП1 -i- Fe* 2 ЯЯГ X ИП1 X FV + БП 03 Инструкция к программе ПМК 3/2: В/О; я? С/П; oi С/П; х С/П. В РХ — значение плотности вероятности. Для повторных вычислений при неизменных л? и а2: х С/П? Программа ПМК 3/3 предназначена для вычисления зна¬ чений плотности вероятности случайной величины по вы¬ борке! X;} ее известных реализаций. 0 ПО П1 П4 С/П t ИПО + ПО XY Fx2 ИП1 +' П1 КИП4 БП 04 ИПО ИП4 * П2 ИП1 ИПО Fx2 ИП4 - - ИП4 1 П1 С/П ИП2 - Fx2 * 1—1 2 ч- ИП1 - Fe* 2 Fir X ИП1 X F\J~ + БП 32 Инструкция к программе ПМК 3/3: В/О; С/П; ввести отсчеты случайной величины: х/ С/П. БП 17 С/П. Порле оста¬ нова в Р1 — s2, в Р2 — т. Ввести значение случайной вели¬ чины, для которого рассчитывается плотность вероятности: х С/П; в РХ — результат. Для дальнейших вычислений: х С/П. Программа ПМК 3/4 предназначена для вычисления функции распределения гауссовской случайной величины. Используется приближенное выражение [71]. П4 ИПО X ИП4 Fx2 П5 ИП1 X + ИП4 ИП5 X ИП2 X + ИП5 Fx2 ИПЗ X + 1 + Fx2 Fx? F1/x 2 - 1 XY - С/П БП 00 Инструкция к программе ПМК 3/4: записать коэффи¬ циенты аппроксимирующего многочлена: сг = 0,196854 в Р0; с2 = 0,115194 в Р1, с3 = 0,000344 в Р2; с* = 0,019527 в РЗ; В/О; х С/П. В РХ - W (х). Для повторных вычислений: х С/П. Программы ПМК 3/5 и ПМК 3/6. Предназначены для вычисления значений квантилей гауссовского распределения \д порядка q для q > 0,5. Исходными данными для про¬ 164
граммы ПМК 3/5 служат коэффициенты а0 = 2,30753; ах — = 0,27061; Ь, = 0,99229; Ь2 =0,04481 [71]. Точность вычи¬ слений для д > 0,9 не хуже 0,1%. В программе ПМК 3/6 используются коэффициенты с0 =2,515517; ct =0,802853; с2 = 0,010328; dx = 1,432788; d2 = 0,189269; d3 = 0,001308 [71 ]. Точность вычислений для q > 0,9 не хуже 0,02%. П5 С/П П6 С/П П7 С/П П8 С/П t 1 XY — Fx2 F1/x Fin fV ПД ИП5 ИП6 ИПД X + ИП7 ИПД X ИП8 ИПД Fx2 X + 1 + -j- ИПД XY - ПО БП 07 Инструкция к программе ПМК 3/5: В/О; а0 С/П; at С/П; С/П; Ь2 С/П; q С/П. Значение \д в РХ и Р0. Для повторных вычислений: д С/П. 4 П4 6 ПО С/П КП4 FL 0 04 С/П t 1 XY - F1/x Fx2 Fin ПС F\T ПД ИП6 X ИП5 + ИПС ИП7 X + ИП8 ИПД X 1 + ИП9 ИПС X + ИПА ИПС X ИПД X + -*- ИПД XY - ПО БП 08 Инструкция к программе ПМК 3/6: В/О; С/П; с0 С/П; сх С/П; с2 С/П; cf, С/П; d2 С/ГТ; cf3 С/П; д С/П. Значение \q в РХ и РО. Для повторных вычислений: д С/П. Программы ПМК 3/7 и ПМК 3/8. Предназначены для вычисления значений квантилей х2 -распределения. Програм¬ ма ПМК 3/7 использует приближенную формулу [71] и вклю¬ чает в себя вычисление квантйлей гауссовского распределе¬ ния, обеспечивая хорошую точность для д, близких к 1. Так, для д = 0,999 и v = 1^ошибка составляет 3,2%; v = 3 — 2%; v = 6 — 1%. Для малых значений д и больших v: д = = v0,1; ошибка меньше 3% при v>20 [д = 0,001 и v = 100 ошибка 16%). Программа ПМК 3/8удобна для работы с большими V при известных значениях квантилей гауссовского распре¬ деления. Используется разложение Корниша—Фишера [4]. 4 П4 5 по С/П КП4 FLO 04 С/П t 1 XY — Fx2 F1/x Fin fV""1 пд ИП5 ИП6 ИПД X + ИП7 ИПД X ИП8 ИПД Fx2 X + 1 + ИПД XY no 2 ИП9 9 -5- ПВ fV“ X ИПВ - 1 + t Fx2 X ИП9 X m БП 08 - Инструкция к программе ПМК 3/7: В/О; С/Па0 С/П; ах С/П; Ьх С/П; Ь2 С/П (см. программу ПМК 3/5); v С/П; д С/П. 158
Значение xlq в РХ и Р1 (в РО — XQh При повторных вычисле¬ ниях: v П9; q С/П. Если число v не меняется: qrC/П. ПО С/П П1 2 X F\T П2 X ИП1 + ИПО Fx2 ПЗ 1 2 X 3 -!- + ИПЗ ИПО X ИПО 7 X - 9 - ИП2 -J* + ПО С/П Инструкция к программе ПМК 3/8: В/О; \д С/П; v С/П . Значения x\q в РО и РХ. Программа ПМК 3/9. Предназначена для вычисления квантилей F-распределения по формуле F « e2w и включает в себя вычисление квантилей гауссовского распределения. Хорошая точность обеспечивается для vx, v2 > 5 (Vi = v2 = — 5; q = 0,95 - погрешность 1,5%; q = 0,99 - погрешность 3,^7%). С ростом числа степеней свободы погрешность быстро уменьшается. 4 П4 6 ПО С/П КП4 FL0 04 С/П t 1 XY — Fx2 F1/x Fin FsT ПД ИП5 ИП6 ИПД X < ИП7 ИПД X ИП8 ИПД Fx2 X + 1 + ИПД XY no Fx2 3 - 6 П4 ИП9 1 П2 ИПА 1 - ПЗ X 2 X ИП2 ИПЗ + X ПВ ИПЗ F1/x ИП2 F1/x — 5 t 6 X ИП4 + 2 ИПВ .Д. 3 X ИП0 ИПВ ИП4 + П1 БП ■V 08 X ИПВ _1_ + 2 X Fe* Инструкция к программе ПМК 3/9: В/О; С/П; во С/П; ai С/П; &1 С/П; &2 С/П (см. программу ПМК 3/5); vx С/П; iVC/П; q С/П: Значение Fvxv2q в РХ и РТ (в РО-Х^). При повторных вычислениях: pt П9; v2 ПА; q С/П. Если меня¬ ется только q: q С/П. " Программа ПМК 3/10. Предназначена для вычисления квантилей f-распределения по приближенному разложению [71] и предполагает известными значения \д. Погрешность, вычислений для q = 0,9 и v > 2 меньше 0,3%; для q = 0,9^ и v>^2 - меньше 0,8%; для q = 0,975 и v > 3 — меньше 0,4% и быстро уменьшается с ростом v. П9^ С/П - ИП9 ИПС 1 6 -s- ПД Fx2 ПС 1 + ИПД X 4 a. ИПД + ИПС Fx2 ПВ 5 X 6 X + 3 + ИПД X 9 ИП9 Fx2 П8 a. + ИПВ ИПС X 1S6
ПА 3 X 1 9 ИПВ X + 1 7 ИПС X + 1 5 — ИПД X 3 8 4 л. ИП9 ИП8 X -1- + ИПВ Fx2 7 9 X ИПА 7 7 X + ИПВ 1 4 8 9 X + ИПС ИПО X — ИП1 — ИПД X ИП2 -Т- ИП8 Fx2 + Инструкция к программе ПМК 3/10: В/О; 1920 ПО; 945 П1; 92160 П2; v С/П; \q С/Л. После окончания расчетов tvq в РХ и Р9. При повторных вычислениях: В/О; v С/П; \д С/П. Программа ПМК 3/11. Служит для обработки результатов наблюдения случайной величины (процесса) с целью по¬ строения гистограммы. Исходными данными являются максимальное хтах и минимальное хт\п значения случайной величины, которые заданы либо определяются по наблю¬ даемой выборке, а также число к (к < 10) равных интерва¬ лов, на которые разбиваемся вся область наблюдения от xmjn до хтах. В ходе выполнения программы в регистрах с номерами 0 — (к — 1) накапливаются числа, равные числу попаданий наблюдаемых значений случайной величины в соот¬ ветствующие интервалы. В интервал включается точка, совпа¬ дающая с его левой границей. 0 ПО П1 П2 ПЗ П4 П5 П6 П7 П8 П9 С/П С/П ПВ - С/П -S- ПС С/П ИПВ ИПС - ПД КИПД1 + КПД БП 18 Инструкция к программе ПМК 3/11: В/О; С/П; *тах С/П; хтт С/П, к С/П; вводятся наблюдаемые значения слу¬ чайной величины: х/ С/П. Программы ПМК 3/12 и ПМК 3/13. Осуществляют про¬ верку гипотезы о распределении случайной величины по гаус¬ совскому закону в соответствии с выражениями (2.45), (2.49)-(2.52). Программа ПМК 3/12 применяется, когда случайная величина задана рядом равноотстоящих значений х; и соот¬ ветствующих им абсолютных частот л?/. Исходные данные: объем выборки п, разность между двумя соседними значе¬ ниями случайной величины h, выборочное среднее т, выбо¬ рочная дисперсия s2; М — число различных возможных значений случайной величины и квантили х2 -распределения. ПО 0 П2 ИПО С/П X С/П F\T* П1 'S- ПО С/П ПЗ С/П П4 С/П П5 С/П ИПЗ - 1*7
ИП1 Fx2 2 н- /-/ Fe* 2 Ftt X F\/~~ - И ПО X П7 ИП5 - Fx2 ИП7 -i- ИП2 + П2 БП 15 ИП2 ИП4 - Fx<0 53 О П6 С/П 1 П6 С/П Инструкция к программе ПМК 3/12: В/О; п С/П; h С/П; s2 С/П; т С/П; xjf-з 1 _а С/П. Вводить пары зна¬ чений: т, С/П; X; С/П. После ввода всех данных БП 45 С/П. Если в РХ (Р6) — 0, то гипотеза Н0 принимается. В Р2 — значение статистикид [выражение (2.45)]. Программа ПМК 3/13 применяется, если эмпирическое распределение случайной величины задано последователь¬ ностью интервалов [х/#* х/ + 1] и соответствующих им сумм частот тг П8 С/П П9 С/П ПА Q/П ПВ С/П ПО О П1 П2 С/П ПЗ С/П FV“ П4 С/П П5 С/П ИПЗ - ИП4 - ПС ИП8 X ИПС Fx2 П7 ИП9 X + ИПС ИП7 X ИПАХ + ИП7 Fx2 ИПВ X + 1 + Fx2 Fx2. F1/x 2 + 1 XY - ПД ИП1 - ИПО X П6 ИПД П1 С/П ИП6 - Fx2 ИП6 - ИП2 + П2 БП 19 ИП2 ИП5 - Fx<081 О П7 С/П 1 П7 С/П Инструкция к программе ПМК 3/13: В/О; ввести коэф¬ фициенты ct из инструкции к программе ПМК 3/4: с, С/П; л.С/П; т С/П; s2 С/П; Х/^_з 1 _а С/П, Далее вводить пары значений: х/+ 1 С/П; т, С/П. После ввода всех данных: БП 7^3 С/П. Если в РХ (Р7) — 0, гипотеза Н0 принимается. В Р2 зна¬ чение статистики £ [выражение (2.45)]. Программа ПМК" 3/14. Предназначена для проверки гипотезы о вероятности появления события в одном испы¬ тании по значению, статистики д и соответствующим прави¬ лам. Исходные данные: объем выборки п, гипотетическая вероятность р0 появления события, относительная частота Со появления события в данной выборке, квантили гауссов¬ ского распределения. С/П по 1 XY — ИПО 'S- FV” С/П ИПО - X ПО Fx2 FV С/П - Fx<0 24 0 П1 БП 26 1 П1 ИПО С/П П4 Fx<0 36 0 П2 БП 38 1 П2 ИП4 Fx=0 44 1 ПЗ С/П 0 ПЗ С/П Т58
Инструкция к программе ПМК 3/14: В/О; п С/П; р0 С/П; cj С/П; Xi -а/2 С/П; Xi _а С/П. В РО — значение статистики в Р1 — индикатор^ двустороннего критерия, в Р2 — правостороннего, в РХ и РЗ — левостороннего. Гипо¬ теза Н0 принимается, если индикатор равен нулю. Программы ПМК 3/15—ПМК 3/18. Предназначены для определения точечных оценок случайной величины или про¬ цесса. ' Программа ПМК 3/15 служит для вычисления выбороч¬ ного среднего т по формуле (2.57), выборочной дисперсии s2 по формуле (2.59), а также s. Исходные данные: массив значений ( Х/ } и его объем п. ПО П1 О П2 ПЗ С/П t ИП2 + П2 XY Fx2 ИПЗ + ПЗ FLO 05 ИП2 ИП1 -h П4 Fx2 ИП1 X ИПЗ XY - КИП1 XY ИП1 -h П5 FП6 С/П Инструкция к программе ПМК 3/15: В/О; п С/П; вво¬ дить все значения: х/ С/П. После обработки данных в Р4 — т; в Р5 — s2, в РХ и Р6 — s. Программа ПМК 3/16 позволяет рассчитывать текущее выборочное среднее в соответствии с выражением т/ = = я»/ _ 1 + (*/ - л»/ _ 1) Н- 4 ПО 0 П1 1 П4 ИПО ИП1 - , ИП4 + ИП1 + П1 С/П ПО КИП4 БП 05 > Инструкция к программе ПМК 3/16: В/О; вводить зна¬ чения: X j С/П. После обработки каждого данного в РХ и Р1 — т,, в Р4 — /. Программа ПМК 3/17 предназначена для вычисления несмещенной и самостоятельной оценки среднего квадрати¬ ческого отклонения s' = kns для п > 10 по формуле для кп (2.65). Исходные данные: объем выборки п и выбороч¬ ная дисперсия s2. FуГ С/П 4 X F1/x t Fx2 2 - + 1 + ПО X П1 С/П Инструкция к программе ПМК 3/17: В/О; s2 С/П; п С/П. После вычисления s' — в РХ и Р1, кп — в РО. Программа ПМК 3/18 позволяет определять значения математического ожидания т и дисперсии s2 случайной ве¬ личины по сгруппированным данным по формулам (2.132), в том числе с учетом поправки Шеппарда — по формуле 1S9
(2.137). Исходные данные: выборочные средние х/# частоты т, появления соответствующих значений и число А? = х/+1 — б П1 П2 ПЗ П4 С/П t С/П П1 X ИП2 + П2 XY ИП1 Fx2 X ИПЗ + ПЗ КИП БП 05 ИП2 ИП4 П6 ИПЗ ИП2 Fx2 ИП4 -у — ИП4 1 — П7 С/П Fx2 1 2 -h — П8 С/П Инструкция к программе ПМК 3/18: В/О; С/П; вводить попарно: С/П; х, С/П. После ввода всех пар: БП 23 С/П; h С/П. Результаты: т — в Р6, п — в Р5, s2 — в Р7, (s')2 — в РХ и Р8. Если применение поправки Шеппарда невозможно, положить h = 0, тогда s 2 = (sr)2. Программы ПМК 3/19— ПМК 3/21. Предназначены для определения доверительных интервалов среднего значения гауссовской случайной величины. Программа ПМК 3/19 служит для расчетов непосред¬ ственно по выборке | X;}. Для определения границ интер¬ валов используются выражения^ (2.66)-(2.69). Исходные данные: а и квантили гауссовского распределения. ПО С/П П1 С/П П2 О ПЗ П4 С/П ИПЗ + ПЗ КИП4 БП 08 ИПЗ ИП4 - П5 ИПО ИП4 Fs/~ -s- П6 ИП5 ИП1 ИП6 X - П7 ИП5 ИП1 ИП6 X + П8 ИП5 ИП2 ИП6 X - П9 ИП5 ИП2 ИП6 X + ПА С/П Инструкция к программе ПМК 3/19: В/О; о С/П; ^(1 +р)/2 С/П; Хр С/П. Ввести все значения выборки: х/ С/П. После ввода данных:БП 15 С/П. Результаты: в Р4 объем массива п, в РХ и РА - хВ2, в Р9 - хНз, а Р8 - xBl# в Р7 - Программа ПМК 3/20 предполагает известными объем выборки п и выборочное среднее т, в остальном соответ¬ ствует ПМ1< 3/19. ПО С/П С/П FV“ П1 ПП 22 П2 XY ИПО + ПЗ ИП1 ПП 22 П4 XY ИПО + П5 С/П С/П X t ИПО - /-/ В/0 Инструкция к программе ПМК 3/20: В/О; т С/П; оС/П; /> С/П; X (1 *р) /2 С/П; \р С/П. Результаты: хн, — в Р2, xBi - в РЗ, х„3 - в Р4, хВг — в РХ и Р5. 160
Программа ПМК 3/21 применяется в том случае, когда дисперсия случайной величины неизвестна. Вычисления производятся по формулам (2.70) — (2.73) с использова¬ нием квантилей^ г-распределения и непосредственно по вы- борке. 0 ПО П1 П4 С/П t ИПО + ПО XY Fx2 ИП1 + П1 КИП4 БП 04 ИПО ИП4 ПЗ ИП1 ИПО Fx2 ИП4 j- — ИП4 1 — -f- П5 1ST ИП4 FnT Пб ПП 52 П7 XY ИПЗ + П8 пп 52 П9 XY ИПЗ + ПА С/П С/П ИП6 X t ИПЗ — /-/ В/О Инструкция к программе ПМК 3/21: В/О; С/П; ввести все данные: х/ С/П, после чего в Р4 — значение я. БП 17 С/П. Определяются квантили t-распределения и вводятся в РХ: (1_*р) /2 С/П; р С/П. Результаты: выборочное среднее т — в РЗ, выборочная дисперсия s2 — в Р5, Хщ - в Р7, хВ1 — в Р8, хНз - в Р9,хВ2 — в РА и РХ. Если выборочное среднее т и выборочная дисперсия s2 известны, доверительные интервалы находятся по про¬ грамме ПМК 3/20 с заменой квантилей гауссовского распре¬ деления квантилями t-распределения. Программы ПМК 3/22 и ПМК 3/23. Предназначены для определения доверительных интервалов дисперсии гаус¬ совской случайной величины в соответствии с выражениями (2.74)-(2.77). Программа ПМК 3/22 используется в случае, если выбо¬ рочная дисперсия s 2 известна. Программа ПМК 3/23 предназначена для работы непо¬ средственно по выборке | х/ ). Здесь должны быть известны объем выборки п и квантили х*-распределения. t 1 - С/П X . ПП 19 ПО ПП 18 П1 ПП 18 П2 ПП 18 ПЗ С/П XY t С/П ^ В/О Инструкция к программе ПМК 3/22: В/О; п С/П; s2 С/П»’ X* _1# (1 +р)£ С/П; \гп _1# (1 _р)/2 С/П; х„ _1#1 _р С/П; xj.1>p С/П. Результаты: a21 — в РО, а2 ^ - в Р1, а^2 - в Р2, о2 — в РЗ и РХ. н3 0 ПО П1 П4 С/П t ИПО + ПО XY F*2 ИП1 + П1 КИП4 БП 04 ИП1 ИПО Fx2 ИП4 — * ПЗ ЙП4 1 -5- П2 ИПЗ 6 Заказ ИЗО 161
С/П •+* П5 ИПЗ С/П П6 ИПЗ С/П -- П7 ИПЗ С/П -г- П8 С/П Инструкция к программе ПМК 3/23: В/О; С/П; ввести данные: х; С/П; далее БП 17 С/П; значение л — в Р4. хл-1,(1+р)/2 С^П; Х2_^(1_р)/ 2 с/п; — -| 1 _ р С/П; х„ _ 1 р С/П. Результаты: а2 - в Р5, а2 — в Р6, а2 — в Р7, о2 — в РХ и Р8. В2 Н3 Программы ПМК 3/24 и ПМК 3/25. Предназначены для вычисления значения корреляционной функций Rx случай¬ ного процесса в моменты tm и tk. Программа ПМК 3/25 обеспечивает также вычисление относительной корреляцион¬ ной функции р, математических ожиданий x(tm\, x(tk\ и дисперсий a2 itm), a2 (f*) сечений случайного процесса. Исходные данные для программы: два связанных массива значений {x/(f/n)} и {*;(?*)} - Вычисления выполняются по формулам (2.101), (2.103). 0 по П1 П2 П5 С/П С/П t ИП1 + П1 F-* X ИП2 + П2 F-»> ИПО + ПО КИП5 БП 05 ИП2 ИП1 ИПО X ИП5 + ИП5 1 - ПЗ С/П Инструкция к программе ПМК 3/24: В/О; С/П; вводить попарно: X: Atm) С/П; х, (f*) с/п. д алее БП 23 С/П. Резуль- таты: объем выборок л — в Р5 ,Й, f () - в РХ и РЗ. 0 ПО П1 П2 ПЗ П4 П5 С/П С/П t Fx2 ИП4 + - П4 F-> t ИП1 + П1 F-+ X ИП2 + П2 XY t Fx* ИПЗ + ПЗ XY ИПО + ПО КИП5 БП 07 ИП2 ИПО ИП5 - П7 ИП1 ИП5 Л. П8 ИП5 X X ПП 73 П6 ИПЗ ИПО ПП 70 П9 ИП4 ИП1 ПП 70 ПА ИП6 ИП9 ИПА . X FV- - ПВ С/П Fx2 ИП5 н- — ИП5 1 + В/О Инструкция к программе ПМК 3/25: В/О; С/П; вводить попарно: xt {tm) С/Л; */(**) С/П, затем БП 37 С/П. Резуль¬ таты: tk) - в Р6, р - в РХ и РВ, x(tm) - в Р7, x{tk) -вР8, a2(tm) -вР9,o2(tk) — в РА, л — в Р5. Программа ПМК 3/26. Предназначена для расчета довери¬ тельного интервала коэффициента корреляции двухмерной 162
гауссовской случайной величины. Исходные данные: выбо¬ рочный коэффициент корреляции гХУ, объем выборки п, квантили гауссовского распределения (программы ПМК 3/5, ПМК 3/6) или t-распределения (программа ПМК 3/10). Используются выражения (2.106). ПО С/П П1 С/П П2 1 +1 ИП2 - Fin 2 -!- ПЗ ИП1 ИПО 3 - fV~ + П4 - ПП 33 П7 ИПЗ ИП4 + ПП 33 П8 С/П Fe* П5 t F1/x П6 - ИП5 ИП6 + - в/о Инструкция к программе ПМК 3/2ё: В/О; п С/П; Х,, +_j /2 С/П; rXY С/П. Результаты: гн — в Р7, гв — в РХ и Р8. Программы ПМК 3/27—ПМК 3/29. Предназначены для проверки гипотезы о среднем значении гауссовской слу¬ чайной величины.* Программа ПМК 3/27 предполагает известными диспер¬ сию cl и выборочное среднее т. Программа ПМК 3/28 обеспечивает вычисления непо¬ средственно по выборке { X;] при известной дисперсии ol- Программа ПМК 3/29 применяется, если дисперсия а? неизвестна. Другие исходные данные: объем выборки п, предполагаемое среднее Мо и квантили гауссовского распре¬ деления. Статистика д вычисляется по формуле (2.163) в программах ПМК 3/27 и ПМК 3/28, в программе ПМК 3/29 — по формуле (2.164). Гипотеза Н0 принимается, если индикатор критерия равен нулю. С/П - С/П - С/П FV X ПО Fx2 FV- С/П - FxX) 18 1 П1 БП 20 0 П1 ИПО С/П П4 - Fx<0 30 0 П2 БП 32 1 П2 ИП4 /-/ ИПО - Fx<0 41 0 ПЗ С/П 1 ПЗ С/П Инструкция к программе ПМК 3/27: В/О; т С/П; д0 С/П; Оо С/П; п С//1; Xi _а/2 С/П; С/П. Результаты: д — в РО, в Р1 — индикатор двустороннего критерия, в Р2 — правостороннего, в РХ и РЗ — левостороннего. 0 П4 П5 С/П ИП5 + П5 КИП4БП 03 ИЛ5 ИП4 + П5 - С/П — С/П +• ИП4 FV X ПО Fx2 F уГ С/П — /-/ F^O 33 0 П1 БП 35 1 П1 ИПО С/П П6* - Fx<0 163
45 О П2 БП 47 1 П2 ИП6 /-/ ИПО FxCO 56 О ПЗ С/П 1 ПЗ С/П Инструкция к программе, ПМК 3/28: В/О; С/П; ввести все значения случайной величины: х;- С/П. Значение п — в Р4. БП 10 С/П; ц0 С/П; aj> С/П; Xi «а/2 С/П; Xj _ a С/П. Результаты: р — в РО, в Р1 — индикатор двусторон¬ него критерия, в Р2 — правостороннего, в РХ и РЗ — лево¬ стороннего, выборочное среднее т — в Р5. 0 П4 П5 П6 С/П П7 ИП5 + П5 ИП7 Fx2 ИПб + П6 КИП4 БП 04 ИП5 ИП4 + П5 ИП6 г ИПб Fx2 ИП4 X - ИП4 1 ■i- П6 ИПб С/П - + F1/X ИП4 Fу/~X ПО Fx2 FV~ С/П Fx<0 51 О П1 БП 53 1 П1 ИПО С/П П7 - Fx<0 63 О П2 БП 65 1 П2 ИП7 /-/ ИПО - Fx<0 74 О ПЗ С/П 1 ПЗ С/П . Инструкция к программе ПМК 3/29: В/О; С/П; ввести все данные: xf С/П; далее БП 17 С/П; ц0 С/П; tn _ 1 # 1 _ <*/2 С/П; t,? — 1,1 — С/П. Результаты: значение статистики д — в РО, в Р1 — индикатор двустороннего критерия, в Р2 — правостороннего, в РЗ и РХ — левостороннего, выборочное среднее т — в Р5, выборочная дисперсия s2 — в Р6. Программы ПМК 3/30—ПМК 3/33. Предназначены для проверки гипотезы о равенстве средних значений двух гаус¬ совских случайных величин. Гипотеза Н0 принимается при индикаторе критерия, равном нулю. Программа ПМК 3/30 применяется при известных диспер¬ сиях о\ и al. Используются квантили гауссовского распре¬ деления. Известны выборочные средние тг§ т2 и объемы выборок пj и п2. Статистика д определяется по формуле (2.165). С/П - С/П С/П С/П С/П - + 1ST + ПО Fx2 FV С/П — Fx<0 22 0 П1 БП 24 1 П1 ИПО С/П П4 — Fx<0 34 0 П2 БП 36 1 П2 ИП4 /-/ ИПО — Fx<045 0 ПЗ С/П 1 ПЗ С/П Инструкция к .программе ПМК 3/30: В/О; /i?i С/П; т2 С/П; а\ С/П; пх С/П; а\ С/П; п2 С/П; \^^а/2 С/П; Х1 С/П. Результаты: д — в Р0, в Р1 — индикатор двусто¬ 164
роннего критерия, в Р2 — правостороннего, в РЗ и РХ — левостороннего. Программа ПМК 3/31 предполагает известными выбо¬ рочные дисперсии s j и sj, тогда как дисперсии случайных величин равны, но неизвестны. Используются квантили f-pac- пределения. Значение статистики £ определяется по формуле (2.166). Объемы выборок пг и п2, а также выборочные средние тх\лт2 известны. СУП — С/П ПО 1 — С/П X С/П П1 1 - С/П X + FsT ИПО ИП1 X ИПО ИП1 + -I- ИПО ИП1 + 2 — X F\Г х ПО Fx2 РуП С/П — Fx<0 43 0 П1 БП 45 1 П1 ИПО С/П П4 — Fx<0 55 0 П2 БП 57 1 П2 ИП4 /-/ ИПО - Fx<0 66 0 ПЗ С/П 1 ПЗ С/П Инструкция к программе ПМК 3/31: В/О; тх С/П; л?2 С/П; /?i С/П; Sj С/П; п2 С/П; s2 С/П; tni+n2 — 2,1 -а/2 С/П; fci + zij-2,1-а С/П. Результаты: д- в РО, в Р1 - индикатор двустороннего критерия, в Р2 — правостороннего, в РЗ и РХ - Левостороннего. Программа ПМК 3/32 в отличие от программы ПМК 3/31 предполагает неравенство неизвестных дисперсий. Ста¬ тистика допределяется по формуле (2.167), число степеней свободы квантиля ^распределения — по выражению (2.168). С/П — С/П С/П П4 А. П1 С/П С/П П5 л. П2 + ПЗ F\Г X ПО ИПЗ Fx2 ИП1 Fx2 ИП4 1 — J. ИП5 1 _ ИП2 Fx2 XY + П4 С/П ИПО Fx1 FV“ XY — Fx<D 47 _ 0 П1 БП 49 1 П1 ИПО С/П П5 — Fx<0 59 0 П2 БП 61 1 П2 ИП5 /-/ ИПО — Fx<0 70 0 ПЗ С/П 1 ПЗ С/П Инструкция к программе ПМК 3/32: В /О; тх С/П; s\ С/П; п j С/П; s\ С/П; п2 С/П. В РХ и Р4 значение v9. Опре¬ деляется значение v как целая часть от v'; далее tp j - а/2 С/П; tv \ _а С/П. Результаты: д — в РО, в Р1 — индикатор двустороннего критерия, в Р2 — правостороннего, в РЗ и РХ — левостороннего. Программа ПМК 3/33 обеспечивает расчеты непосред¬ ственно по выборкам {ху} и {х*/}. Дисперсии о\ и о\ 165
неизвестны, объемы выборок равны (п х = п2 = п). Исполь¬ зуется выражение (2.169) и квантили t-распределения. 0 по П1 П4 С/П С/П — t Fx2 ИП1 + П1 XY ИПО + ПО КИП4БП 04 ИПО ИП4 П2 Fx2 ИП4 X ИП1 XY - ИП4 1 — -а- ПЗ ИП2 ИП4 fV“x XY П5 Fx2 FsT С/П — Fx<0 51 0 П6 С/П 1 П6 с/п Инструкция к программе ПМК 3/33: В/О; С/П. Вводить пары значений:Ху С/П; х2/ С/П. После ввода всех пар: п — в Р4, БП 19 С/П; С/П. Результаты: средняя разность элементов выборки d — в Р2, выборочное среднее квадратическое значение разностей sd — вРЗ, 0— в Р5, в РХ и Р6 — индикатор критерия. Программы ПМК 3/34 и ПМК 3/35. Предназначены для проверки гипотезы о дисперсии гауссовской случайной величины. Гипотеза Н0 принимается, когда индикатор кри¬ терия равен нулю. Если известны объем выборки п, выбо¬ рочная дисперсия s2 и предполагаемая дисперсия о\, исполь¬ зуется программа ПМК 3/34. Программа ПМК N3/35 рассчи¬ тана на работу непосредственно по выборке { х,-}. При проверке гипотезы Используются квантили х2-распределения. Статистика ^вычисляется по формуле (2.170). С/П t 1 — X С/П + ПО С/П - FxSO 21 С/П ИПО — Fj£*0 21 0 П1 БП 23 1 П1 ИПО С/П — Fx<032 0 П2 БП 34 1 П2 С/П /-/ ИПО - Fx<043 0 ПЗ С/П 1 ПЗ С/П * Инструкция к программе ПМК 3/34: В/О; s2 С/П; п С/П; ^ С/П; х; а,2 С/П; м С/П; « Результаты: р — в РО, в Р1 — индикатор двустороннего критерия, в Р2 — правостороннего, в РХ и РЗ — левосторон¬ него. 0 ПО П1 П4 С/П П2 ИПО + ПО ИП2 Fx2 ИП1 + П1 КИП4 БП 04 ИПО ИП4 П5 ИП1 ИПО Fx2 ИП4 -5- — П7 ИП4 1 — П6 ИП7 С/П ПО С/П С/П ИПО — Fj&0 53 XY ИПО XY — F*>053 0 П1 БП 55 1 П1 ИПО С/П — Fx<0 64 166
О П2 БП 66 1 П2 С/П /-/ ИПО - Fx<075 О ПЗ С/П 1 ПЗ С/П Инструкция к программе ПМК 3/35: В/О; С/П; ввести массив данных: х,« С/П. Объем выборки п - в Р4, БП 17 С/П; п/п^П2; х"-1.<*/2 С^П; 1,1-а/2 С^П; Х*_1#1_а ^П; # а С/П. Результаты: р — в РО, в Р1 — индикатор двустороннего критерия, в Р2 - правостороннего, в РЗ и РХ — левостороннего. Выборочное среднее т — в Р5, выборочная дисперсия s2 - в Р§, Программы ПМК 3/36—ПМК 3/38. Предназначены для проверки гипотезы о равенстве дисперсий гауссовских слу¬ чайных величин: программа ПМК 3/36 — для двух случайных величин, программы ПМК 3/37 и ПМК 3/38 — для несколь¬ ких. Гипотеза И0 принимается при нулевом индикаторе критерия. Программа ПМК 3/36 имеет исходные данные: выбо¬ рочные дисперсии s 1 и s2. объемы выборок пх и п2, кван¬ тили F-распределения. Статистика д вычисляется по форму¬ ле g = s2/s 1. С/П 4- ПО С/П ИПр - Fx>012 О П1 БП 14 1 П1 ИПО С/П - Fx<0 22 О П2 С/П 1 П2 С/П Инструкция к программе ПМК 3/36: В/О; s2 С/П; s\ С^П; FПХ-1,/»2-1,1 -а/2 С^П; FЛ,-1.л2-1.1 -а С/П> Результаты: д — в РО, в Р1 — индикатор двустороннего кри¬ терия, в Р2 — одностороннего. Программа ПМК 3/37. Имеется / независимых выборок случайной величины одинакового объема п с выборочными дисперсиями s2. Используются выражения (2.173), (2.174), квантили распределения Кокрена Ct n _л ог ПО П4 О П1 П2 С/П ПЗ ИП1 + П1 ИП2 ИПЗ - Fx>0 17 БП 19 ИПЗ П2 FLO 05 ИП1 ИП4 - ПЗ ИП2 ИП1 ПО С/П Fx<0 36 О П5 С/П 1 П5 С/П Инструкция к программе ПМКЭ/37: В/О; / С/П; ввести все значения выборочных дисперсий: s2 С/П; Cf п а С/П. Результаты: д — в РО, наибольшая выборочная дисперсия max (s? } — в Р2,‘ в РЗ — ?2, в Р5 и РХ — индикатор критерия. Программа ПМК 3/38 в отличие от программы ПМК 3/37 применяется, когда объемы независимых выборок 167
я; случайной величины различны. Используются квантили X2-распределения [см. формулы (2.175), (2.176)1 0 ПО П1 П2 ПЗ П4 С/П П5 ИПО + по ИП5 F1/x ИП1 + П1 С/П П6 ИП5 X ИП2 + П2 ИП6 Fin ИП5 X ИПЗ + ПЗ КИП БП 06 ИПО ИП2 ИПО ■+ П5 Fin X ИПЗ ИПО П6 — ИП1 ИПО F1/x — 3 ИП4 1 — 1 + ■+ П7 С/П ИП7 — Fx<0 67 0 П8 С/П 1 П8 С/П Инструкция к программе ПМК 3/38: В/О; 'С/П; ввести все пары значений: /?/ — 1 С/П; s? С/П. В РО — значение v БП 33 С/П; xl 1 _а С/П. Результаты: v~l — в Р1,1?— в Р5, в Р6 — коэффициент Ь, в Р7 - р, в Р8 и РХ — индикатор критерия. ГЛАВА ЧЕТВЕРТАЯ ПОСТРОЕНИЕ МОДЕЛЕЙ ИСТОЧНИКОВ ЭКСПЕРИМЕНТАЛЬНЫХ ДАННЫХ МЕТОДАМИ РЕГРЕССИОННОГО АНАЛИЗА 4.1. ЗАДАЧИ РЕГРЕССИОННОГО АНАЛИЗА Регрессионные модели. Регрессионный анализ является основным статистическим методом построения математи¬ ческих моделей объектов или явлений по экспериментальным данным. Эти модели связывают количественные перемен¬ ные — результирующую и объясняющие (в различных облас¬ тях используются разные названия этих переменных: выход, целевой, выходной или результирующий признак, отклик, результативная, эндогенная или зависимая переменная; факторные, предсказывающие, экзогенные переменные, фак¬ торы, фактор-аргументы, предикторы и др. [1, 3, 46, 78]). Необходимо отметить, что определяемая в ходе анализа функция регрессии лишь формально устанавливает соответ¬ ствие между переменными этих двух групп, хотя они в дей¬ ствительности могут и не состоять в причинно-следственных отношениях. Поэтому устанавливаемые в ходе регрессион¬ ного анализа связи могут иногда ложно истолковываться как причинно-следственные. Таким образом, могут возник¬ 168
нуть так называемыенонсенсрегрессии (ложные, абсурдные), которые не имеют практического смысла [1, 78]. По этой причине перед4 применением статистического аппарата на основе профессионально-логического анализа проблемы необ¬ ходимо решить, какую*из переменных рассматривать как результирующую, а какие из регистрируемых величин — как объясняющие. Рассмотрим общую схему регрессионного анализа. Пусть результирующая переменная7 У связана с некоторыми объяс¬ няющими переменными xlt ..., хк, которые удобно пред¬ ставлять в виде компонент вектора х = [х1# ..., х*]т. Связь является стохастической: значение у переменной /, полу¬ ченные в различных экспериментах при фиксированных значениях вектора х, случайным образом флюктуирует вокруг некоторого неизвестного уровня т? (х): У= УМ =г)М + е, (4.1) где второе слагаемое определяет случайное отклонение результирующей переменной от величины 77 (х). Случайные отклонения е могут служить проявлением влияния не учтен¬ ных в векторе х (и может быть, случайных) факторов, случайными ошибками измерения результирующей пере¬ менной и другими причинами* которые более подробно будут обсуждаться ниже. Среднее значение отклонений по¬ лагается равным нулю, поэтому математическое охшдание результирующей переменной совпадает со значением функ¬ ции г? (х): Л*{У(х)} =1?(х). (4.2) Это уравнение называется регрессией (уравнением регрес¬ сии) , а функция 77 (х) — функцией регрессии (ФР). Существует большое число типов регрессионных моделей, определяемых видом ФР г\ (х), которые, как правило, зави¬ сят не только от объясняющих переменных, но и от некото¬ рых параметров 01г ..., рт, которые также удобно пред¬ ставлять в виде векторов |3 = [01,..., Рт]т; r?(k) =т?(х,р). (4.3) Для таких ФР задача их определения сводится к задаче оценки вектора параметров () по экспериментальным данным. В зависимости от того, как эти параметры входят в ФР, модели делятся на линейные и нелинейные (по параметрам). 169
Основные результаты в настоящее время получены при¬ менительно к линейным регрессионным моделям, которые в общем виде можно записать следующим образом: У(х) = г?(х,0) +€= X0jfj(x)+€, (4.4) у = 1 где fj (х) = f(x 1, ..., х*) - некоторые известные функции объясняющих переменных, не включающие в себя неизвест¬ ные коэффициенты 0/. Функции fj (х) называют регрессо¬ рами. Эту модель удобно представить в векторной форме: У = У(х) =fT0 + e, (4.5) где fT = [fi (х),..fm (х> ]т — вектор регрессоров. Особенно часто используются полиномиальные регрес¬ соры, в частности так называемая линейная (по факторам) полиномиальная регрессионная модель: У = 2 PgXj + е = хтр + 6. (4.6) У = 1 Если М { Y } = 0, то размерности векторов х и 0 равны числу объясняющих переменных (к = т). В противном случае размерности векторов полагают на единицу больше (/л =. к + 1): в число объясняющих переменных вводят фиктивную переменную,равную единице (х = [1 xlf.. .,х*]т). Тогда Pi равен значению ФР при нулевых значениях действи¬ тельных факторов и модель (4.6) принимает вид У * хт|Э + е = 01 + 2 Pjx'j +€ (ху =х/_ 1). (4.7) 7=2 Из сопоставления (4.6) и (4.7) с выражением (4.5) сле¬ дует, что в роли регрессоров выступают объясняющие пере¬ менные: fT = [Xj, . . ., ХШ]Т ИЛИ fT = [1 Х|, ..., х*]т. Другой, широко используемой формой полиномиаль¬ ной модели является полиномиальная ФР одной объяс¬ няющей переменной, например времени: У= 2 /Зу ху “ 1 +€ = хт/3 + €, (4.8) У = 1 где хт = fT = [1 х х2,..., хк ” 1 ]т. 170 ^
В общем случае полиномиальная регрессионная модель выглядит следующим образом: к к к y = Pt + 2 р/х,- + 2 Z 0/ух#-Ху + / = 1 у = 1 / = у + 1 к к к + Е Е X fijj/XfXjXf + ... (4.9) / = 1 / = / + 1 / = / + 1 Это уравнение также можно представить в форме (4.5), если перенумеровать все параметры в выражении (4.9) от 1 до /л и принять: Л (х) =1; f2 (х) =х,; ..f* + ! (х) =х*; fk +2 (х) =х?; + 3(х) =х,х2; f„(x) =XiX*; f9 + 1 (х) Рассмотренные модели описывали результат одного эксперимента. Распространим их на случай выполнения п измерений. С учетом общего выражения (4.5) результаты п экспериментов можно представить в виде: У\ = К (х 1) =fI0 + €,; (4.10) Уп = к(хл) =f^0 + e„, где yj — значение результирующей переменной У, полученное в /-м эксперименте; х/ = [х9-г§ ..., х/ш]т — вектор объяс¬ няющих переменных в /-м эксперименте; f* = [fi(x;)v .. fm (х/) ]т — вектор регрессоров; ef — /-е значение случайного отклонения. Здесь предполагается, что параметры 0/ неизменны при проведении всех экспериментов. Величинах/, (/ = 1, п; / = 1, т) представляет собой значение /-й переменной, полу¬ ченной в /-м опыте. Выражения (4.10) удобно записывать в векторно-матрич¬ ной форме: y=F0 + 6=V*, где у = [ух,..., уп ]т — вектор откликов;
F = С L f я J fl U>) •• f/nlxi) fx (x„) ...fmix„) - матрица регрессоров; € = [e, en ]T - вектор откло¬ нений; y= [ij (x,г? (хл) ]T - вектор регрессии. Например, для линейной модели наблюдений (4.7) мат¬ рица регрессоров, которую также называют матрицей плана эксперимента, имеет вид 1 *и *12 • • • *i(m — 1) 1 х2, х22 ...х2(т -1) , (4.12) 1 ХП\ Х/|2 .. . хп (т _ _ где х/у — значение/-го фактора в /-м эксперименте. Для полиномиальной модели (4.8) 1 *i F = 1 *2 _ 1 */| „т — 1 . . . X 777 — 1 (4.13) где хI — значение единственной объясняющей переменной в /-м эксперименте. В частности, если объясняющая переменная — время, отсчеты которого берутся с постоянным шагом Г, т. е. х; = = (/ - 1) Г, то “1 0 0 ... о 1 Г Г2 7/1» -1 F = j (Л —1)Г[(л-1)Л2 ... [(л-1)7]/”~1 . (4.14) регрессионного диализа д является Основной задачей _ д получение оценок параметров регрессии (р1# ..., 0т), кото¬ рые, были бы оптимальными в определенном смысле. Полу¬ ченные оценки, которые будем представлять в виде компо¬ нент вектора р = [/51# ..Рт]Т, позволяют решать задачу оценки (восстановления) регрессии и ее прогноза. первом случае в качестве оценки "истинного" значения резуль¬ тирующей переменной, соответствующей вектору регрес¬ соров f, (/ £ [1, л]), уже использованному при формирова- 172
нии оценки вектора параметров, применяется величина К/=Ч(Х/) =f,-T0. (4.15) а в качестве оценки вектора регрессии 1) = [17(xi), ..., V (х„)]т - вектор л л л y = lJ=F0. (4.16) Во втором случае для оценки значения ФР при векторе ху объясняющих переменных, не совпадающем ни с одним из ранее зафиксированных значёний х/ (/ = 1, п), исполь¬ зуется величина Г, =J(x/) =f/P- (4.17) Примеры приведения задачи обработки эксперимен¬ тальных данных к задаче регрессионного анализа. Приведем примеры, показывающие, что многие задачи оценки пара¬ метров модели источника экспериментальных данных могут быть 'Сформулированы в терминах линейной регрессии. Восстановление сигнала на входе ли¬ нейной динамической системы. Сигнал V (t), наблюдаемый на выходе линейной динамической системы с известной импульсной характеристикой h (t), представ¬ ляется в виде суммы сигнала уи (t) — результата преобра¬ зования системой неизвестного сигнала и (1), и погрешности измерений 6(f): . V(f) = yu(D +e(f), (4.18) j t гдeyu(t) = J h (t — T)u(r)dT; e(t) — случайный процесс с нулевым математическим ожиданием и известной корре¬ ляционной функцией Яе (г). Если произведено п измерений у [/ ] отсчетов реализации у it) сигнала У(t) (у [/] = у (f) I f _ (/ _ 1) т) и определена дискретная импульсная характеристика системы h [/] = = h (f) 11 _ ^ _ 1 j r#- то с учетом выражения (4.18) может быть получена следующая система уравнений [5]: У= F0 + 6, (4.19) где у = {/[1]/..., у [я] ]т; 173
77» [1] 0. 0 77» [2] 77» [1] О 77? [3] Th [2] 77» [1] 0 О ‘ О Th № Th [m — 1 ] Th [т-2] ...О F = 0 Th [т] Th [m-1] ... О О О о ... Th [1] О О О ... 77» [т] _ € = [е[1] i]]T — вектор с нулевым математическим 0{е)= lRe ((/ —/> 7") ] (/,/ = 1,п ); fl= [u[1] и[т])\ Идентификация линейной динамичес¬ кой системы. Существует несколько постановок задачи идентификации линейных систем [5, 8, 24], т. е. за¬ дачи определения динамических характеристик систем по экспериментальным данным. Здесь рассмотрим лишь два варианта, которые ^часто используются на практике [5, 21, 24,44,45]. 1. Задача оценки импульсной характеристики системы h It) по входному U {t) и выходному У(t) сигналам, изме¬ ряемым с погрешностями: (У(*) = t/0(?) + 5 (t); У it) = = У у (t) + € (t). Здесь уи (t) — результат преобразования сигнала и (t) исследуемой системой. Для выходного сигнала можно записать Шумы 5(f) и e(t) имеют нулевое математическое ожи¬ дание и известные корреляционные функции Я$ (г) и Re (г). При дискретном наблюдении реализаций сигналов и (t) и у{t) с шагом дискретизации Т и получении наборов от¬ счетов {/[/]} , {и [/]} (/ = X, п ), можно получить систему линейных уравнений, которой должна удовлетворять дискрет¬ ная импульсная характеристика h [/] (/ = 1, m): ожидание* цей = 0) и известной корреляционной матри- г Y(t) = / и (t - т) h (г) dr + € (Г). (4.20) о y=F0+e, гдеу = [/[1] у[п]]т; (4.21) 174
IU I 1 j Tul 2] Tu {1] U • 0 . . U .. 0 Tu{m\ Tu [m — 1 ] Tu [m — 2] . .. 0 0 Tu [m] Tu [m - 1 j . .. 0 0 0 0 .. Tu [11 P 0 0 .. Tu t/n] C= [etl] €[/?]]т; fi=[h[ 1] Л[#я]]т. 2. Задача оценки коэффициентов разностного уравнения дискретной модели системы по входному и выходному дискретным сигналам, наблюдаемым с ошибками (см. выше). Пусть разностное уравнение, описывающее систему, имеет вид y[i] + aN _ 1 у [/— 1 ] +... + а0 V - N] = =bpu[i - N +Р] +... + Ь0и [/ — Л/], (4.22) где N — порядок уравнения; Р < N; а/, bj — неизвестные коэффициенты (/ = О, N — 1; / = О, Р ). Это уравнение можно переписать следующим образом: -/[/] =а0/[/ -N] +... +aN _1/[/ - 1] - -b0u[i-N] - ...-bpu[i-N + Р]. (4.23) Предположим, что в результате наблюдений получено М отсчетов реализаций входного и выходного сигналов [М > 2N). Тогда с учетом выражения (4.23) можно записать систему уравнений, из которой определяются коэффициенты уравнения (4.22): y=F0+*, (4.24) F = VDJ V&] Y I'" J J f ... kIM -«[11 . —ulP +11 Kt2) ИЗ] . . . КСЛ/+ 1 ] . . -UlP +1 ] yW- ■N] )/(A#-/V+1] . . . K(W—11 . С = [-е [Л/ + 1 ] —e[Afl ]т; fi=[a0 aN _ , b0 bp]T. 175
Идентификация модели временного ря¬ да (дискретного случайного процесса). Для описания реальных случайных процессов широка исполь¬ зуются их модели в виде некоторых гипотетических линей¬ ных дискретных систем, формирующих процессы с анало¬ гичными корреляционными свойствами из некоррелирован¬ ного шума. Такие модели называются формирующими фильт¬ рами [23, 491. В частности, как в эконометрии, так и в тех¬ нике широко применяются модели авторегрессии — сколь¬ зящего среднего. Рассмотрим авторегрессионную модель. Она определяется разностным уравнением: Y\f] + 2 зуУ[/ -/J = /V[/], (4| 25) / = 1 где /[/] — отсчеты случайного процесса; а/ - коэффициенты модели (/ = 1, т); /V[/] —отсчеты (ненаблюдаемые) некор¬ релированного порождающего шума (/m{/V[/]j = О, /и {/V [/]«[/]} =а25;/). Авторегрессионная модель может описывать как ста¬ ционарный, так и нестационарный случайный процесс. Необ¬ ходимым и достаточным условием стационарности является расположение корней р,- (/ = 1, т) характеристического уравнения рт + ахрт ” 1 + ... + ат = 0 внутри круга еди¬ ничного радиуса, т. е. условие Ip,*1 < 1. Решение уравнения (4.25) можно записать в рекуррент¬ ной форме: т Y[i] = 2 (-*,)/[/-/] +/¥[/] (i>m +1). (4.26) / = 1 Пусть производятся измерения отсчетов реализации случайного процесса Y[i] : у[ 1], ..., у [к] (к > 2т). Тогда на основании выражения (4.25) может быть составлена система уравнений, которой должны удовлетворять искомые коэффициенты модели: V=F0+e, (4.27) где у_= [у[т +1] кЕ*]]т; -у[т] -у[т . -к 11] -У [лт + 1 ] -у [т] ... -у [2] F = -у[к- 1] —у [к — 2] ... -у [к -m]J 0= [а,...., ат]Т; €= [л [/п + 1J,../7 [Аг]]т. 176
Оценка параметров полиномиальной функции, измеряемой с погрешностями. Пусть f[t) — детерминированная (полезная) составляющая случайного наблюдаемого процесса, представляющая собой полином степени т — 1: f{t) =a0+ait+...+am tm~\ (4.28) В частности, такая аппроксимация часто используется для представления невозмущенных траекторий движения различных объектов [49]. Пусть в результате эксперимента получены п > т отсчетов наблюдаемого процесса Yit,) : : { У [/]} (/ = 1, п ), где у [/] = у (Г/). Тогда, учитывая, что KU/) = ti) +e(t/), (4.29) несложно записать систему уравнений для определения коэф¬ фициентов полинома (4.28): y=F0+e, (4.30) гдеу= 1у[1],.. .,к[л]]т; +т — 1 +т — 1 *2 ’ 1 t\ F = 1 ti tl 1 ч t п <1 С -1 «= [е[1],.. е[л]]т; р= [во. ■ • .,ат]Т. Здесь е — случайный вектор с нулевым математическим (жиданием и известной корреляционной матрицей D{e}. 4.2. ОСНОВНЫЕ ПОЛОЖЕНИЯ КЛАССИЧЕСКОГО РЕГРЕССИОННОГО АНАЛИЗА Базовые (фундаментальные) положения классического линейного регрессионного анализа. Классический линейный регрессионный анализ опирается на систему положений о свойствах регрессионной модели, выполнение которых гарантирует получение оптимальных оценок параметров и функции'регрессии [1, 3, 15, 27, 78]. Они касаются прежде всего случайной переменной е, учитывающей влияние неучтен¬ ных факторов, случайных помех и ошибок измерений. Кроме того, эти положения предъявляют определенные требования к матрице регрессоров F. Перечислим наиболее важные из них. Ml
1. На вектор неизвестных параметров не наложено ни¬ каких ограничений: Rm. 2. Вектор € есть п -мерная случайная величина. 3. Математическое ожидание вектора отклонений равно нулю М{е} =0. 4. Компоненты вектора 6 не коррелированы между собой и имеют одинаковые дисперсии а* : сот {е/( Су} = М {е/Су} = о\6,-j или D(e} = fcow {е/«еЛ 1 = м{сет} = о2е I, где 8 /у — символ Кронекера; I — единичная матрица. Это положение часто называют условием однородности (гомоскедастичности) и некоррелированности измерений. Если оно не выполняется, измерения неоднородны (гетеро- скедастичны) и (или) коррелированы. Из него следуют соотношения для математического ожидания и корреляционной матрицы вектора значений зависимой переменной: Y = F 0 = t). d{y } = М {(Y — Y) (V — Y)т} =о{е}=о| I. 5. Случайные величины 6/ (/ = 1, п ) и вектор е в целом имеют гауссовское распределение. При выполнении поло¬ жения 4 €, ~ N (0, а\ ); € ~ N (0, о* I). 6. Матрица регрессоров F детерминирована, т. е. ее эле¬ менты ffj = fj (х/) не являются случайными величинами. 7. Ранг матрицы регрессоров равен числу параметров ФР: rank F =т. Классическим регрессионным анализом называют про¬ цедуру оценивания рёгрессионных параметров и статисти¬ ческий анализ модели при выполнении этих положений. Его основные положения рассматриваются ниже. В последующем перечисленные предположения будут ослабляться, поскольку их нарушения являются скорее правилом, чем исключением (см. § 4.5). Классические оценки параметров регрессии методом наименьших квадратов и их свойства. Рассмотрим задачу оценивания параметров регрессии 0,* (/ = 1, т) по резуль¬ 178
татам экспериментов"// (/ = 1, п ). Для оценивания могут использоваться различные методы. В классическом регрес¬ сионном анализе используется метод наименьших квадратов (МНК). В этом случае оценки минимизируют сумму квад¬ ратов невязок оценивания. Невязками оценивания, которые также называют остатками, являются разности */ = У/ ~ Уь а вектором невязок— вектбр А е = у - у. Остатки вызываются двумя причинами — отличием вектора оценок /3 от вектора истинных параметров 0 и нали¬ чием случайных возмущений е: е = F (р — р) +е. И.31) Сумма квадратов остатков О0 = 2 (y, vP/)2= 2 е2 ^-(У — у)т(у —у) =етв 1=1 1=1 (4.32) выступает в МНК в качестве критерия качества оценки. Оценкой метода наименьших квадратов (МНК-оценкой) л называют вектор 0, минимизирующий функционал (4.32). Для нахождения оценки перепишем (4.32) в виде Q0=Q(P) = (y-F0)T(y-E0), л продифференцируем его по 0 и приравняем нулю. В резуль¬ тате получим уравнение для вычисления оценки: dQo/djj = -2FTy + 2F TF0 = 0. Его очевидным образом можно преобразовать к виду FTFfi= FTy. (4.33) Эта система линейных алгебраических уравнений (СЛАУ) является основой для получения МНК-оценок параметров регрессии и называется системой нормальных уравнений. Поскольку матрица F имеет полный ранг (положение?), то мaтpицa^ (Fт F) невырожденная и, следовательно, имеет обратную матрицу (FT F) -1. Умножив правую и левую части 179
системы (4.33) на (FTF)~‘1, получим явное выражение для МНК-оценки вектора параметров: 0= (FtF) -lFTy, (4.34) откуда получается выражение для оценки вектора регрес¬ сии: 4=F0=F(FTF) "lFTy. (4.35) Матрица G = FTF называется информационной, а ей обратная S = (F TF) “1 - матрицей ошибок. Рассмотрим основные свойства МНК-оценок параметров и вектора регрессии. Начнем со свойств, не зависящих от вида распределения возмущений. 1. МНК-оценки относятся к классу линейных. Действи¬ тельно, оценки р и 7) получаются из вектора наблюдений у с - помощью линейного преобразования — умножения на матрицы А = (FTF)“1FTnB = FA соответственно: j}=Ay; ц = By. (4.36) 2. МНК-оценки являются несмещенными: М{р} =m{(FtF) -* FTy} =р; (4.37) m{Jj}=m{F0 }=ij. (4.38) 3. Корреляционные матрицы оценок определяются сле¬ дующими выражениями: d{0)=m{(0-0> Ф-0>т) = = M{[(FTF) ~1 FT (у — I)) 1 [(FTF) -*FT(y-|j)r} = = M{(FTF) — 1FT(у —ij) (у —»|)TF [(FTF) "‘Г} = = (FTF) ->FTM {(y-1j) (у-Ц)т\ F (FTF) “' = = (FTF)^FTa2 IF (FTF) -1 = a* (FTF) ‘‘ =c\ S; (4.39) D{ij }=M{(i|-il)(i|-1))T}=M{F(0-0)($- -0)tft} = fm{(0-0) (0-0)t}ft = fd{0}ft = = o* F(FTF)-‘FT = a2 FSFT. (4.40) 180
При выводе учтено, что l(FTF) ~l]T = (FтF) “1 (ввиду симметричности матрицы), м{(у — ц) (у — »))т} = о2 I (см. положение 4). А Л Элементами матриц D^P } и D |т| J являются дисперсии о2 { \ и а2 { г?/ \ и взаимно ко^ре^яцйонные моменты между оценками параметров (/?{.0/, Pj] ) или оценками отсчетов ФР (Я {tj,., т}.} ). Из выражений (4.39) и (4.40) следует, что оценки пара¬ метров регрессии и отсчетов ФР будут некоррелированными только в том случае, если столбцы матрицы F попарно орто¬ гональны и матрица G является диагональной. Показано, что МНК-оценки являются эффективными в классе несмещенных линейных оценок (теорема Гасса— Маркова) [3, 15, 27, 67]. Если возмущения имеют гауссов¬ ское распределение (положение 5), то МНК-оценки являются эффективными и в классе ёсех несмещенных оценок (линей¬ ных и нелинейных) и совпадают с оценками метода макси¬ мального правдоподобия. Эффективность МНК-оценок означает, что d{2}<dI|} ; (/ = ТГ/л ); tr(D(S }} detD{p}< detD(j?\. Аналогично для оценок регрессии a2{rj;\< »2{ч;) (/ = 1, л ); trl°{l} < tr{D{if }} ; detD{ij }< detD} . (4.42) Здесь fl, 0 /, 4 итГ/ — произвольные оценки 0, 0/, и указанных классов. ^ Отметим, что величины detD а) и detD {17} называ¬ ются обобщенными дисперсиями оценок векторов параметр ров и регрессии. * 4. МНК-оценки состоятельны: llm р < у) =1 1/=Гт), где у — произвольное положительное число. 5. МНК-оценки параметров регрессии позволяют получить несмещенные эффективные и состоятельные оценки вектора
возмущений, дисперсии и корреляционной матрицы возму¬ щений. Ими являются вектор остатков в = е = (у — Ffi), (4.43) реличина 02 = 52 =6те/(л — т) (4.44) и матрица d{«} =s2S = (у - Ffi)Tly- Ffi) (FTF) ~lt[n -m). (4.45) Теперь рассмотрим свойства, связанные с предполо¬ жением о гауссовском'распределении возмущений. . а ^ 6. При выполнении положения 5 векторы оценок р и ц имеют многомерные гауссовские распределения: 3 ~ N 1/5; о] (FTF)-‘); 4~N(q,o’ F(FtF) -‘Ft). (4.46) 7. Случайная величина 9=Q0/o2€. (4.47) где Q0 = ете — так называемая остаточная сумма квад¬ ратов, имеет центральное х2 -распределение с v = п - т сте¬ пенями свободы: 9 ~ X2 (*>) • (4.48) Рекуррентный алгоритм метода наименьших квадратов. Традиционный алгоритм МНК-оценок параметров регрессии по выборке данных полного объема (4.34) не всегда может быть использован на практике. К его недостаткам относятся большая требуемая емкость памяти для хранения вектора у и матрицы регрессоров F, необходимость заново решать задачу оценивания при поступлении новых данных, невоз¬ можность получения текущих оценок в интересах оператив¬ ного управления объектом в ходе эксперимента, необходи¬ мость в большом числе вычислительных операций при вы¬ сокой размерности вектора параметров обращения информа¬ ционной матрицы. Рассмотрим свободный от этих недостат¬ ков рекуррентный алгоритм последовательного оценивания вектора параметров по мере поступления новых измерений. Пусть первоначально проведено / измерений. Это позво¬ ляет сформировать вектор наблюдений и матрицу регрессо¬ 182
ров, соответствующие этому измерению: У(П = [yi V,]Ti F, = . (4.49) Сформируем оценку вектора параметров регрессии, соответствующую / измерениям: 0(/| - if; F.) -1FTy,/) = s;.f; у«'»( гдев, = (F/) _1 — матрица ошибок на/-м шаге. После проведения (/ + 1) -го измерения можно сформи¬ ровать вектор результирующих переменных у*1 * / матрицу регрессоров F; +1 и получить оценку К/+1) _ = /рт F l^F7 v^/ + 1^=S FT v r/+1y ъ/ + 1/ + 1у , V + 1) (4.50) Очевидно, что (/) e ,(/ + 1) _ (4.51) Эти соотношения позволяют переписать выражение для оценки (4.50) следующим образом: £+ 1 > = (F.TF-. + f+, #Д ,) - * (.F.V «'» + f, +, у, +,). (4.52) Теперь воспользуемся следующей формулой (часто называемой леммой об обращении матрицы) (А + yaa1) "1 = А-1 — А~1ватА~1 а т А ”1 • + 7 ”1 (4.53) В ее справедливости можно убедиться с помощью непосред¬ ственной проверки выполнения равенства
С учетом выражения (4.53) можно получить рекур¬ рентные выражения дпщ матрицы ошибок и оценок пара¬ метров: с с S/f> + 1 f/T+1 S/ S/ + 1=S,- ; (4.54) #/T+iV/ + i +1 0</ + 1) = 18/F/y (/) ♦ S(.f(. + 1y; + 1 - S,f, + tf,T+ , SX x (f.V'-> +f/ + 1y/ + 1)] (f,T+1 *,f/ + 1 + D-‘ -im ♦ + c tv -fT *4*5^ + c/ + i Ly/ + i -T/ + iP J; гдес/ + 1 =S J/ + 1/(f/T+‘1S/f/ + 1 +D- вектор ^коррекции. Из выражения (4.55) следует, что оценка вектора пара¬ метров на (/ + 1)-м шаге представляет собой сумму оценки вектора-на предыдущем, /-м, шаге и поправки, которая, в свою очередь, формируется из невязки (разности^между (/ + 1)^-м измерением у. + 1 и его прогнозом fпо оценке/3 *'9 с помощью вектора коррекции. Для функционирования алгоритма необходимо исполь¬ зовать начальные условия для вектора оценки и матри¬ цы ошибок So - Здесь возможны различные варианты. Во-первых, в качестве начальных условий можно ис¬ пользовать матрицу Sj и вектор * (/ > т), сформи¬ рованные с помощью н^рекуррентного алгоритма. В этом случае рекуррентный алгоритм начинает работать с (/ + + 1)-го шага. Недостачами такого выбора начальных усло¬ вий являются необходимость выполнения (однократного) обращения информационной матрицы и требование запоми¬ нания вектора данных и матрицы регрессоров на начальном этапе.^Достоинством является то, что на любом шаге решения регрессионной задачи рекуррентная оценка совпадает с тради¬ ционной оценкой (4.34) и обладает всеми рассмотренными свойствами. Во-вторых, для того чтобы рекуррентный алгоритм мог функционировать начиная с первого шага, можно задать произвольные значения начальных условий. Обычно полагают A/ni - * р = 0; S0 = al, где ос - достаточно малое число (а = = 10“6 ... 10"4). Как правило, при возрастании / рекуррент¬ 184
ные значения+ 1) и S. \ 1 сходятся к значениям, соответ¬ ствующим традиционному МНК. Отметим, что рекуррентный алгоритм позволяет в ходе эксперимента решать задачу оптимального останова измере¬ ний по достижении заданной точности оценок, Например, если заданы уровни дисперсий оценок параметров о{(3,} , то вычислительный процесс заканчивается на /-м шаге, если o2€sUj. < D р. тр (/ = 1, т), где s//y. - /-й диагональный элемент матрицы S. на/-м шаге. Статистический анализ качества регрессионной модели. Полученные МНК-оценки коэффициентов регрессии (4.34) обеспечивают высокое качество полученной модели только при условии, что ее структура Fa соответствует структуре истинной зависимости «|0 = F0po между математическим ожиданием отклика и факторами. Однако на практике, как правило, отсутствует априорная информация о структуре истинной модели и исследователь вынужден поочередно рассматривать различные виды регрессионных моделей1 и останавливаться на той, которая согласуется с экспери¬ ментальными данными. Такую модель называют адекватной [3,15]. Она должна удовлетворять условию М {у } = F0. (4.56) Адекватная модель не обязательно должна совпадать с истинной. Более того, адекватная модель не единственна — с помощью произвольного неособенного линейного преобра¬ зования от модели F/3 можно перейти к другой.адекватной модели F*/}*: F* = FR, /3* ^ R"*1/} (здесь R - невырожден¬ ная матрица). Однако общим для всех адекватных моделей является то, что для каждой из них существует неособенное линейное преобразование /?, F, приводящее ее к истинной модели: Rf:F*Rf=F0; RV0*=ft>. (4.57) Ошибки в выборе структуры модели часто проявляются в том, что, во-первых, оцениваемая модель содержит больше параметров, чем истинная (так называемый перебор пара- ^ Проблемы рационального выбора структуры регрессионной мо¬ дели рассмотрены в § 4.5. 185
метров), во-вторых, проверяемая модель содержит меньше параметров, чем истинная (недобор параметров). Рассмотрим последствия этих ошибок. Начнем с недобора параметров. Пусть принятая ФР имеет вид (4.58) в то время как истинной ФР является функция i|o=F0go- (4.59) Будем считать, что вектор истинных параметров включает в себя вектор оцениваемых параметров: А = 1РТ0[]Т, (4.60) где/31 - вектор параметров, не входящих в ФР (4.58). В этом случае истинную матрицу регрессоров можно представить в виде F® — [FFiL (4.61) где Ft — матрица, отражающая .долю в результирующем значении у членов, соответствующих вектору /Si. Из выражений (4.60), (4.61) следует, что вектор резуль¬ тирующих переменных y = F/3 + F,0! +е.' Оценка^вектора параметров выбранной модели (4.58) имеет вид fi = (FTF)-1FTy. Фактически это означает, что используемая оценка вектора= [j3T0T]T. , Рассмотрим математическое ожидание оценки fi: Nl{jj} = <FtF>-lFTM{y} = (FTF) -1Ft(FP+ = =0 + |FTF»-*^TF,p1 sp+ApiF'FLpi). (4.62) Таким образом, видно, что при недоборе параметров А регрессии полученная оценка р в общем случае является смещенной, т. е. даже компоненты вектора параметров, которые оцениваются, определяются с систематической погрешностью Д/3. Соответственно смещенными оказыва* ются и оценки вектора регрессии 1) и дисперсии возмуще¬ ний s2. Смещение будет отсутствовать только в том случае, когда столбцы матрицы F0 ортогональны: тогда матрицы F hFj будут ортогональны (FTFj =0) иД0 = О. 186
Можно показать [27}, что такая оценка не является состоятельной. Теперь рассмотрим перебор параметров. Пусть- Vo = = F0j30 — истинная функция регрессии, а предполагаемая модель имеет вид i?=F0, где F=[F0F1]; (4.63Г 0= ЮЛГ. (4.64) Здесь 0| — вектор "лишних" параметров. Л В этих условиях оценка вектора параметров j? имеет вид (F^r^V Найдем математическое ожидание этой оценки с учетом истинной ФР: - М (4.65) «-пятен _rFoF0 FSfH’1 TFSFoflol ГАЛ L FIFo FIfJ [f[ Fopol L°J Из этого выражения видно, что истинные параметры оцениваются несмещенно, а математическое ожидание оце¬ нок "лишних" (избыточных) параметров равно нулю. Отсюда следует, что оценки вектора регрессии и диспер¬ сии, полученные в условиях перебора параметров, также являются несмещенными. Доказано, что МНК-оценки в уело виях перебора являются состоятельными. В то же время точность оценок при переборе параметров теряется [15, 27]: D{£}=D{0o}+** (FtF)-,F;f1FIFo(F5Fo)_1. (4.66У ^ Здесь D {/?<,} — корреляционная матрица МНК-оценки 0о = (FqF0) -1 Fjy, полученной при условии совпадения истинной и выбранной ФР. Второе слагаемое в (4.66) явля¬ ется неотрицательно определенной матрицей, отсюда (4.67) 1ST
Знак равенства в (4.67) обеспечивается при условии орто¬ гональной матрицы регрессоров. Таким образом, отметим следующее. Недобор парамет¬ ров является более серьезным недостатком регрессионной модели, поскольку при этом оценки параметров, регрессии и дисперсии возмущений получаются смещенными и не явля¬ ются состоятельными. При чрезмерном усложнении модели (переборе параметров) снижается эффективность оцени¬ вания. При проверке адекватности модели традиционно после¬ довательно исследуются два аспекта проблемы: соответствие выбранного класса функций регрессии истинной ФР (эта подзадача часто также называется провер¬ кой адекватности); ~ гипотезы о значимости коэффициентов регрессии. Для проверки первой гипотезы используются методы дис¬ персионного анализа [1, 3, 15]. Рассмотрим три возможных варианта его реализации. Нулевая гипотеза Н0 состоит в выполнении равенства F0 = М{у). Альтернативная гипотеза Их: Ffi Ф М{у}. Гипотеза Н0 проверяется при заданном уровне значимости а. Вычисляется оценка дисперсии возмущений s 2: s2 =Q0/{n -т). ' - (4.68) А А А где Qo = (у - Fj3)T(y - Ffi) = уту - fiFTy - остаточная сумма квадратов, характеризующая разброс эксперимен¬ тальных данных относительно оцененной функции регрессии. В первом варианте проверки гипотезы используется известное априорное (точное) значение дисперсии а2 . Ста¬ тистика 4=s2 /о] (4.69) при справедливости нулевой гипотезы имеет х2-распределе¬ ние с v = п — т степенями свободьк Поэтому гипотеза Н0 принимается, если <а/2< ** <1 - а/2' <470> в противном случае она отклоняется. Во втором варианте проверки гипотезы полагается, что на основании N дополнительных экспериментов {к!# • У'ы | при фиксированных значениях факторов определена 188
N независимая оценка дисперсии s? = [ 2 (К/ — /V / = 1 - ( 2 yj )/n)2]/(N - 1). При справедливости нулевой . У = 1 гипотезы статистика g=s2/s\ " (4.71) имеет F-распределение су* = п — т v\ v2 = Л/ — 1 степенями свободы. Поэтому Н0 принимается, если s<e-ОЙ- 14721 в противном случае она отклоняется. Отметим, что здесь полагается, что s2 > s*. В противном случае отношение изменяется на обратное, соответственно изменяется квантиль ^-распределения. В третьем варианте проверки гипотезы вычисляется дисперсия случайной величины У по результатам основного регрессионного эксперимента: А 1 п £ 'л \ А Л о2у = 2 (у,-У)2 = уту — уту, (4.73) " ~ 1 / = 1 п ~ 1 А £ Л гдеу = [Y ... Y]T; ■(,5,■О*- При справедливости нулевой гипотезы отношение g=s2lo2y (4.74) имеет F-распределение с i>i = п — т и v2 = п — 1 степенями свободы. Поэтому она принимается, если „..—в- ■ • ,4-та Здесь снова предполагается, что £ > 1. Проверка гипотезы о значимости параметров регрессии (гипотезы о равенству нулю соответствующего параметра) позволяет убрать из модели "лишнИе" параметры, что, как отмечалось, приводит к повышению точности оценок осталь¬ ных. Рассматриваемые методы позволяют проверить, не отли¬ чаются ли полученные оценки коэффициентов от нуля только из-за случайных возмущений. Проверка основывается на том, А что, как отмечалось, оценки Q. имеют гаусеовское распре¬ деление с математическим ожиданием р. и дисперсией 189
9 = aes/7' где sit “ элементы матрицы ошибок S. Оценкой дисперсии D является величинаs2s-r Нулевая гипотеза Н0: 0. = 0. Альтернативная гипотеза Нг: (3. Ф 0. Проверка производится при заданном уровне вероятности ошибочного признания значимым коэффициента, в действительности равного нулю. Используется статистика (4.76) которая при справедливости гипотезы Н0 имеет г-распреде¬ ление Стьюдента с v = п — т степенями свободы. Гипотеза Н0 принимается, если '«к <„.,-«,2. . «.77) в противном случае коэффициент 0/ считается значимым. Незначимые коэффициенты целесообразно отбросить и вновь решйть регрессионную задачу. Однако после этого необходимо снова проверить гипотезу об адекватности новой модели. Если она не подтвердила адекватности, то следует вернуться к прежней модели. Наряду с рассмотренными методами дисперсионного анализа регрессионной модели для проверки ее адекватности широко используются и другие методы: критерий Бокса и Веца, проверка значимости множественного коэффициента множественной корреляции (см. гл. 2), критерий Вальда— Вольфовица, ранговые критерии, графическое исследование остатков [1,3, 15, 74]. Для практического использования полученных по экспе¬ риментальным данным регрессионных моделей большое значение имеют показатели точности и надежности оценок параметров, функции регрессии и дисперсии возмущений. Известную информацию о точности оценок несут опреде¬ ленные ранее корреляционные матрицы ошибок оценивания (4.39) и (4.40). Однако, как отмечалось в § 22, более удоб¬ ным является использование доверительных интервалов, которые включают в себя истинные значения исследуемых величин с заданной доверительной вероятностью р. Довери¬ тельная оценка основывается на тех же предпосылках, что и проверка гипотез о значениях параметров. Поэтому без дополнительного обсуждения приведем выражения для индивидуальных доверительных интервалов для параметров 0,- (/ = 1, т), отсчетов функции регрессии i?/f вектора рег¬ рессии г? и дисперсии возмущений [1, 3,15]: 190
а) дисперсия возмущений заранее известна: л *п - т, (1 — р) /2 + *п - 1; р/2 (4.78) А V-t, \/о* fj (FTF) _lf п -т, (1 - р) /2 + -m,pl2 т,р! 2 б) дисперсия возмущений оценивается в ходе регрес¬ сионного эксперимента. В этом случае могут использоваться выражения, аналогичные (4.78), в которых дисперсия заме¬ няется ее оценкой (4.44), здесь число степеней свободы f-рас¬ пределения уменьшается на единицу. Рассмотренные индивидуальные доверительные интерва¬ лы используются, как правило, тогда, когда матрица G = = (Fт F У близка к диагональной. В других случаях из-за коррелированности оценок параметров индивидуальные дове¬ рительные интервалы малоинформативны. Тогда использу¬ ется доверительная область в m-мерном пространстве, кото» рая с заданной вероятностью р включает в себя вектор в. Доверительная область задается неравенством [13, Т5, 71} где РУ1„2р ~ квантиль р-го порядка F-распредепения Сне- декора-Фишера cvltv2 степенями свободы. Здесь предполагается, что оценка дисперсии $2 получена по выражению (4.44). Если s2 получена по дополнительным данным, то используется квантиль распределения с т, п — 1 степенями свободы. (P -0)TFTF ($-0) < ms2 F т, п — т,р9 (4.79) 191
4.3. ВЫЧИСЛИТЕЛЬНЫЕ АЛГОРИТМЫ МЕТОДА НАИМЕНЬШИХ КВАДРАТОВ Выше было показано, что классические оценки пара¬ метров линейной регрессии определяются решением нормаль¬ ной системы уравнений (4.33): FTF/} = FTy, которое символически можно представить в виде (4.34): 0= (FTF) -‘FV В тех случаях, когда необходимо только получить оценки параметров без их последующего статистического анализа точности и надежности, т. е. тогда, когда нет явной потреб¬ ности в вычислении матрицы ошибок S = (FTF) оценки определяются непосредственным решением нормальной систе¬ мы уравнений. Это приводит к существенной экономии числа требуемых вычислительных операций и, следовательно, повышает оперативность решения задачи. Если помимо получения оценок требуется провести их статистический анализ, то без вычисления матрицы S обойтись не удается, и тогда МНК-оценки мргут быть получены с использованием выражения (4.34). Однако и в этом случае матрица G = = (FTF) крайне редко обращается непосредственно по из^ вестным формулам Крамера (только при т < 2 ... 3). При достаточно высокой^ размерности вектора оцениваемых параметров матрица S определяется путем /n-кратного ре¬ шения системы уравнений: FTFx.=e. (/=T7m), „ (4.80) где е#. = еm]J, a ef = 1 при/ = / и е. = 0 при / Ф Ф /. После нахождения набора решений х . (/ = 1, m ) обратная матрица получается их объединением: S = [* *т] = [н, ;хт]. (4.81) т. е. решения Х/ являются столбцами s;- матрицы S. Таким образом, основу классического регрессионного анализа составляют алгоритмы решения систем линейных алгебраических уравнений (СЛАУ) вида Ах = Ь, (4.82) в которых матрица системы А, вектор неизвестных х и век- 192
тор свободных членов b имеют свой конкретный смысл, вытекающий из решаемой задачи. Характерным для системы (4.82) является ее совместность и определенность, симмет¬ ричность матрицы А (А = FTF) и ее невырожденность (см. § 4.2). Рассмотрим основные методы численного решения подобных систем. Общая характеристика численных методов. При разработке и анализе различных методов численного решения СЛАУ важное место занимает учет возникающих погрешностей решения, вызы¬ ваемых ошибками округления при выполнении основных арифмети¬ ческих операций в ЭВМ, неточностью исходной информации о си¬ стеме, и связанные с ним проблемы экономии машинной памяти и снижения требуемого числа операции [7]. Выбор метода решения, а также его конкретная реализация в виде вычислительной программы самым существенным образом зависит от типа матрицы системы и соответствующего способа ее хранения в запоминающем устройстве ЭВМ. Можно выделить два основных типа матриц, матрицы общего вида и разреженные матрицы. Матрицы общего вида содержат элементы, большая часть ко¬ торых отлична от нуля, поэтому для их хранения требуется т2 ячеек памяти Исключение составляют так называемые вычислимые матри¬ цы, элементы которых могут быть достаточно просто вычислены по каким-то исходным данным, занимающим в памяти сравнительно мало места. В этом случае вместо того, чтобы запоминать все элементы матрицы, их выгоднее каждый раз заново вычислять. Примером являются теплицевы матрицы. В связи с разнообразием и спецификой вычислимых матриц особенностями обладают и соответствующие методы решения СЛАУ. Поэтому основанные на них программы разрабатываются для конкретных задач и не входят в программное обеспечение универсальных ЭВМ. Далее такие программы рассматри¬ ваться не будут. Значительная, а иногда и большая часть элементов разреженных матриц равна нулю. Можно выделить несколько разновидностей таких матриц. Одну группу составляют разреженные матрицы, ненулевые элементы которых расположены без какой-либо системы Поэтому необходимо запоминать не только значения ненулевых элементов, но и их "адрес" — номера строки и столбца. Однако особый интерес представляют разреженные матрицы, относящиеся к другой группе Это разреженные матрицы специальной структуры — диагональные, треугольные, почти треугольные (матрицы Гессенберга), ленточные матрицы, в частности трехдиагональные, и некоторые другие К этой же группе можно отнести и симметричные матрицы, которые формаль¬ но не относятся к разреженным, однако требуют для запоминания не т2 (как в общем случае), а т [т + 1) /2 ячеек памяти Для основных видов матриц специальной структуры разрабо¬ 7 Заказ ИЗО 193
таны особые модификации большинства алгоритмов, первоначально созданных для решения СЛАУ с матрицами общего вида, а также оригинальные специальные алгоритмы, позволяющие эффективно использовать матрицы. Так, существуют алгоритмы и программы для решения СЛАУ с симметричными, ленточными, трехдиагональ¬ ными, почти треугольными и другими специальными матрицами. Эти алгоритмы работают более эффективно и позволяют решать задачи большей размерности, чем при задании матриц систем в общей форме. Выбор метода решения СЛАУ существенным образом связан со способом хранения матриц, который, в свою очередь, определяется видом матрицы. Основными являются три способа: общий, симметрич¬ ный и диагональный. Существующие методы решения СЛАУ можно разбить на два класса: прямые и итерационные' Метод решения относят к классу прямых (точных, конечных), если в предположении отсутствия ошибок округления он дает точное решение задачи после конечного числа операций. Итерационные методы принципиально позволяют получать не ре¬ шение СЛАУ, а только последовательность, к нему сходящуюся. Не¬ который, достаточно близкий к пределу член этой последовательности принимается за приближенное решение. Иначе говоря, итерационные методы имеют некоторую теоретически обусловленную ошибку ре¬ шения (методическую погрешность). Прямые методы чаще используются в случаях, когда матрица СЛАУ является матрицей общего вида или специальной матрицей, например треугольной или симметричной. Для больших разреженных матриц, при хранении которых используются их особые свойства, чаще используются итерационные методы. В связи с упомянутой особенностью структуры информационной матрицы далее будут рассмотрены прямые методы. Влияние ошибок округления и погрешностей исходных данных. Среди главных слагаемых погрешности решения СЛАУ выделяются погрешности, вызванные округлением чисел в ЭВМ, и погрешности, порождаемые неточностью исходной информации, задаваемой коэффи¬ циентами системы и ее правой частью. Округление чисел, неизбежное при их представлении с исполь¬ зованием любого конечного числа разрядов, приводит к тому, что приближенные арифметические операции сложения (вычитания) и умножения (деления) в ЭВМ обладают иными свойствами, чем точ¬ ные: они не ассоциативны, не дистрибутивны, в машинной арифме¬ тике существуют делители нуля (произведение ненулевых сомножи¬ телей может оказаться равным нулю) и т. п При выполнении большого числа арифметических операций, определяющих результат, ошибки округления накапливаются. В свя¬ зи с этим при прочих равных условиях предпочтительнее алгоритмы, использующие меньшее число операций. Именно'поэтому, например, Т94
правило Крамера или эквивалентный ему метод непосредственного обращения матрицы системы (4.82), требующие выполнения прибли¬ зительно пI/i операций умножения, не выдерживают конкуренции с прямыми методами, для которых требуемое число умножений имеет порядок пъ (см, ниже). Непосредственный количественный анализ распространения оши¬ бок округления и преобразование их в погрешность конечного резуль¬ тата (прямой анализ ошибок округления) представляет собой слож¬ ную задачу. Поэтому на практике часто используют так называемый обратный анализ ошибок округления [7]. При его применении счи¬ тают, что полученное приближенное решение СЛАУ является точным решением некоторой другой системы с измененной матрицей. Вместо оценки степени различия точного и приближенного решений опреде¬ ляется степень различия коэффициентов исходной и измененной системы. На практике элементы матрицы системы (см. § 4.1) часто получаются в ходе физических измерений, принципиально выпол¬ няемых с некоторыми погрешностями. Поэтому, если кажется, что различия элементов матриц исходной и измененной систем не пре¬ восходят погрешностей измерений, то можно считать, что вычисления производятся с достаточно высокой точностью и ошибки округления не оказывают существенного влияния на результат. В противном случае следует изменить алгоритм решения с целью уменьшения числа требуемых вычислительных операций и (или) повысить число разрядов в представлении чисел, например, путем перехода к числам двойной длины в ЭВМ (представление^чисел с двойной томностью). При решении практических задач коэффициенты и свободные члены СЛАУ, как правило, известны не точно, а с некоторыми погреш¬ ностями. Кроме того, при вводе этих данных в ЭВМ зачастую произво¬ дится их дополнительное искажение в результате округления. В связи с этим важно уметь оценивать получаемую погрешность решения, понимать причины ее возникновения, а при неприемлемом ее уровне выбирать такие методы, которые обеспечивали бы минимальную чувствительность результата к погрешностям исходных данных, изменять схему эксперимента (порождающую матрицу А и вектор Ь) и повышать точность измерений. Рассмотрим случай, когда с л о грешностью известна правая часть векторно-матричного уравнения Ах = Ь: вместо вектора b в СЛАУ используется вектор = Ь + с , где с — вектор погрешностей, кото¬ рый, естественно, не может быть отделен от вектора b. В этих условиях уравнение (4.82) перепишем в виде Ах =Ь или Ах =Ь +6. в Линейность уравнения и аддитивность погрешности правой части А . —1. позволяет представить его решение xe — А b в виде суммы реше- е < 6 А ния уравнения (4 82) с точно известной правой частью хт ("точного Г95
решения") и погрешности решения fi^x, вызванной возмущением € : А А А Хе Здесь принимаем, что число уравнений равно числу неизвестных и СЛАУ определена, т. е. А представляет собой невырожденную квад¬ ратную матрицу. Напомним, что запись решения системы уравнений в виде х = А-1Ь имеет часто символический смысл и не обязательно означает, что при его получении вычисляется обратная матрица и умно- жается на вектор правых частей. Очевидно, что погрешность решения и погрешность правой части связаны уравнением АВ х =с , откуда $€ х = А”1*. Поскольку I l*exl I < Ид-'П 11*11; llbIK IIaII llxjl Ы I IA I I ^ Ilbll и uxtii ^ -j j j | # TO относительная погрешность решения 7Xe # вызванная погрешностью # задания правой части СЛАУ, удовлетво¬ ряет неравенству I l*exl I lie II 7*е := ТТ^ТГ < I lAl I I lA-11 I -гт-гр = cond Ay*. (4.83) 11хт11 Ilbll Из него следует, что относительная погрешность решения может в condA раз превосходить относительную погрешность правой части Уь I \е I I/I IЬ11. Подчеркнем, что этот результат никак не связан с методом решения СЛАУ и справедлив при использовании любой векторно*матричной нормы. Видно, какое большое влияние на точ¬ ность решения оказывает число обусловленности матрицы системы. Теперь оценим погрешность решения, обусловленную возму¬ щением матрицы системы. В этом случае вместо матрицы А в урав¬ нении (4.82) используется матрица А$ = А + $А, где $А — матрица возмущения. По тем же причинам, что и ранее, решение уравнения А$х = Ь, имеющее вид х$д = Ag*b, можно представить как сумму "точного решения" и погрешности, вызванной возмущением матрицы А А А *6Д-Хт 6АХ- Это решение удовлетворяет уравнению (А + 6А) (ху + б^х) =Ь. Будем считать матрицу А5 невырожденной Из этого уравнения можно определить погрешность решения [7] * хт + $дх = (A +GA) _1Ь = (А + 6А) ~1Ъ - х? = = (А+»А)_,вАхт. 196
Отсюда следует соотношение для относительной погрешности решения ухд, вызванной погрешностью задания матрицы системы уравнений: lle^ll ... ИедП _ 1хА '= — < II(A+«aII I I СА +*А) _111 и и» ХА | |А | | И (А +£А) I I wcondA6T^. (4.84) Величина I 1фА ll/ll (А + 6А) I I « 11 б A I I /1 IA11 := уА по сути представляет собой' относительную погрешность задания матрицы системы. Как видно из уравнения (4.84), и в этом случае число обу¬ словленности матрицы системы выступает в качестве своеобразного "коэффициента усиления" относительной погрешности задания исход¬ ных данных. В общем случае, при одновременном возмущении матрицы систе¬ мы и ее правой части уравнение (4.82) принимает вид (А + 5 А) х = (b +с ) или А~х = Ь . о е Можно показать, что относительная погрешность у„Лл! решения Л М€ х8Ае этого Уравнения содержит три слагаемых: 11хвЛе - £т|| тпгтгт 'xAt ' ГГГм УхА + ухе *ухЛУт- где ухд и — относительные погрешности, введенные ранее. По- скольку, как правило, УкАУХе и УХАухе <irXe .«condA » » cond А6,то это выражение можно переписать: УжАе < condAfilr^ + 7Й]. (4.86) Таким образом, полная относительная погрешность традиционных методов решения СЛАУ определяется числом обусловленности матри¬ цы системы и относительными погрешностями исходных данных. Во многих практических регрессионных задачах числа обусловлен¬ ности могут достигать очень больших значений (порядка 102—104) [1,5,15,21,44], а точность исходных данных ограничена — относи¬ тельные погрешности имеют порядок 10—10—1. Поэтому, как следует из полученных выражений, традиционные методы часто не позволяют получать удовлетвррительные по точности решения. Для решения плохо обусловленных СЛАУ разработаны специальные ме¬ тоды, использующие идеи регуляризации, которые будут рассмотрены в § 4.5. Прямые методы решения линейных уравнений. Для пояснения сути различных вычислительных методов в совре¬ менной линейной «алгебре широко используется идея пред¬ 197
ставления матриц СЛАУ в виде произведения или суммы других матриц специального вида. Такие представления называют разложениями или факторизациями [7]. Наиболее употребительные методы решения СЛАУ можно разделить на две группы: методы, использующие разложения на треугольные множители, и методы, связанные с приме¬ нением ортогональных матриц. К первой группе относятся метод Гаусса и его модификации, метод квадратного корня и схема Халецкого, ко второй — метод ОЯ-разложения, метод сингулярных разложений и некоторые другие. Цель факторизации при решении СЛАУ состоит в том, чтобы перейти от системы (4.82) Ах = Ь к эквивалентной системе Ux = Ь' (4.86) или Dx = Ь", (4.87) где U и D — треугольная и диагональная матрицы. Рассмотрим, каким образом может быть получено реше¬ ние этих эквивалентных систем уравнений. Запишем структуру СЛАУ (4.86) в развернутом виде. Для определенности будем считать матрицу U верхней треугольной: (4.88) ‘"И U12 и 13 ...и1т *1~ ~ь'Г и 22 U 23 • • • и2 т *2 Ь‘г Уъъ • • • изт *з = Ь'ъ 0 итт шх т _ -Ь'т. Из выражений (4.88) видно, что последнее уравнение итт*т — Ь'т содержит единственный неизвестный аргумент хт и может быть непосредственно решено относительно него: хт —Ь'т^тт- В предпоследнее уравнение входят два неизвестных — 1 и хт, однако последнее уже определено, поэтому 198
этого уравнения достаточно, чтобы определить .» л £ _ "т— 1 ” и (m— 1) тхт т ~ 1 и (/и —1) (m —1) Рассуждая аналогично, на каждой итерации будем опре¬ делять из очередного уравнения значение очередной неиз¬ вестной: х, = [b] - 2 u-jX^/u., (/=/17-1.1 ). (4.89) Эта процедура называется обратной подстановкой. Оче¬ видно, что для ее реализации требуется выполнить N ~ т212 операций умножения. Аналогично решается СЛАУ с нижней треугольной матри¬ цей. Соответствующая процедура называется прямой под¬ становкой. Еще проще решить систему уравнений (4.87), которая в развернутом виде выглядит следующим образом: ч. 1 О О о "xi" ь 1 0 С^22 0 ... 0 *2 L» 02 0 0 d$ з... 0 *3 L.H Ьъ 0 0 0 utf ш _ Видно, что в этом случае СЛАУ распадается на сово¬ купность из т независимых уравнений с одним неизвестным каждое, которые определяются так: xi=b';fdn (/=1^Г). (4.91) Для решения системы требуется выполнить т операций умножения (деления). Методы /.(У-разложения. Метод Гаусса. При использовании методов L U-разложения матрица А представляется в виде произведения нижней треугольной матрицы L и верхней треугольной матрицы U: А = LU (обо¬ значения матриц введены по начальным буквам слов lower и upper). Алгоритмы различаются способом определения матриц L и U по матрице А. 199
Среди методов /.(/-разложения наибольшую известность приоб¬ рел метод Гаусса. Его идея состоит в том, что последовательно за т — 1 шагов вычислений определяется матрица С = L"*1, которая обеспечивает приведение исходной системы к эквивалентной системе (4.86) с верхней треугольной матрицей: САх =СЬ ° L_1LUx=Cb° Ux=b' (4.92) Этап перехода от исходной системы к системе (4.86) называется прямым ходом (прямым исключением) , а рассмотренный ранее этап решения полученного уравнения — обратным ходом (обратной подстановкой). Запишем развернутую форму матричного представ¬ ления СЛАУ Ах = Ь: •и ■ * а\т *21 а 22 • • • а2т ат\ аЛ72' • атт *1 ’ *1~ *2 = h *т Ьп Процедура прямого хода, включающая в себя как операции по формированию матрицы С, так и умножение на нее исходной матри¬ цы системы А, выполняется за ’т — 1 шагов. Рассмотрим один из возможных вариантов его реализации (схему единственного деления) [61, Для упрощения будем считать, что а// ^0 (/ = 1, т). На первом шаге вычислим т — 1 множителей A#;C1) = «/i/eli (/ = 2, т ), и вычтем из каждого / -го уравнения первое, умноженное на Mj Рас¬ сматривая новые коэффициенты при неизвестных и свободные члены преобразованных уравнений *ij aij "i аЧ ‘ />/1 * = bf ~ A#/1 * b\ (/ =2]m ; j =1 ,m ), можно убедиться, что для всех уравнений, начиная со второго, коэф¬ фициенты при первом неизвестном а/I1’ = 0 (< = 2^) Преобразованная система уравнений запишется в следующем виде:
Продолжая таким же образом на втором и последующих шагах, можно исключить х2 из последних т — 2 уравнений [вычисляются множители М= а/,1» /а 22* ' = I3* 1» затем х — из последних (3) (2) (2) . _ т — 3 уравнений [вычисляются множители Af- = a ;-3 /а ;-3 (/ — = 4, т) ] ит. д. На к -м шаге исключается хк с помощью множителей и iL 1) l 1 М = a (/ =Аг + 1, т). При этом коэффициенты и правые части оставшихся т —к уравнений определяются следующими очевид¬ ными выражениями: а Ъ) _ Л(*-1) и (*) fc-1). ьК)_ь(*-1) -1) *// _а// “*/ а*у ' bi ~bi ~Mi bk (/ = Дг + 1, n ; / =Ar, n ). При этом система уравнений принимает вид *11 aii .. *Цк - -1) 9\к *1(*+1) • ■ • а\т ’*1 " 1 0- 41».. Ъ{к- 1) *Ыс 2 {к +1) • а(1) • 2 т 41) 0 0 . 0 (к — 1) (Аг — 1) акк в*и+1)“ • кт хк j* -1) ьк 0 0 .. . 0 Л-W Л -*1) атк а/п(Аг +1) * "Хк-1) • • втт . .*т. 1 ■ После выполнения [т — 1) -го шага происходит исключение */л_ 1 из последнего уравнения и окончательно СЛАУ записывается в форме (4,86) следующим образом: ‘«И «12 • а 1/7? ‘*1 0 «22 • -•«lim-U °2т *2 4" 0 0 . м-г 1) (л?— 1 )т хт-1 ‘ГТ21 0 0 . . .0 (т-1) тт 1 1 -1 Напомним, что после завершения прямого хода выполняется обрат¬ ный ход метода Гаусса, рассмотренный выше. Стоящие вдоль главной диагонали матрицы системы элементы ajj “ 1» называются ведущими элементами. Дадим матричную интерпретацию процессу исключения, соответ¬ ствующую вычислительной схеме (4.92). Каждый Аг-й шаг (к = = 1, т — 1) прямого хода эквивалентен умножению системы ура в- 201
нений слева на матрицу 1 0 ... О О О ... о' О 1 ...О О О...О О О...О 1 D...0 О О ... О /иД’, 1 ... О о о...о О...О о о... о м !** О ... 1 _ /71 При использовании таких матриц процедура прямого хода записы¬ вается следующим образом: САх=СЬ, Где с = Ст _ -j Ст — 2» • • •• с1» 470 совпадает с выражением (4.92) Модификация метода Гаусса. В действи¬ тельности, в описанной форме метод Гаусса почти никогда не используется. Это связано с тем, что отдельные элементы а/,"1 (центральные или ведущие элементы), на которые производится деление уравнений, могут быть равны нулю. Для преодоления этой проблемы достаточно поступить следующим образом: при а!. " 1 можно поменять местами /-е уравнение с одним из последующих. При невырожденной матрице А найдется хотя бы одна такая перестановка. При этом полученная система является эквивалентной исходной. Правила, определяющие порядок перестановок, называют стратегиями перестановок. Дальнейшая модификация направлена на то, чтобы с помощью перестановок избежать деления не только на нулевые, но и на малые ведущие элементы. Это связано с тем, что погрешность результата деления двух чисел обратно пропорциональна абсолютной величине делителя. Среди различных стратегий выбора ведущего элемента часто используют так называемое частичное упорядочение. Его суть со¬ стоит в том, что при выборе первого и любого очередного, /-го ве¬ дущего уравнения предпочтение отдается тому из еще не побывавших ведущим уравнений, в котором модуль элемент^ из /-го столбца максимальный. Оно становится ведущим, поменявшись местами <* = 202
с уравнением, которое занимало это место ранее. Такие перестановки возможны на каждом шаге. Это стратегия выбора ведущего элемента по столбцу. Известны также алгоритмы, использующие схему выбора ведущего элемента по строке, также производящие перестановку уравнений. Перестановка уравнений может быть описана путем умножения исходной системы на некоторую перестановочную матрицу Р, эле¬ менты которой могут быть только нулями или единицами, причем в каждой строке и в каждом столбце имеется ровно одна единица. Поэтому модификации метода Гаусса, в которых используется упоря¬ дочение уравнений, представляют собой алгоритмы, использующие L(У-разложение матрицы РА. РА = LU. Дальнейшим усовершенствованием метода исключения является метод Гаусса с выбором главного элемента (метод главных элемен¬ тов) , в котором ведущий элемент определяется по всей матрице системы. Этот метод также называют методом Гаусса с полным упоря¬ дочением. Поясним его суть* с использованием расширенной матрицы системы (4.82) [6,7,82] А = *11 . *. В\ q. • • *i/j7 ар\ • • У>рд\ ■ • »рт Ър • ат q- • -аттЬп Среди элементов матрицы в;у выберем наибольший по модулю, называемый главным элементом. Пусть им будет, например, элемент apq. Строка с номером р, содержащая главный элемент, называется главной строкой, а соответствующее уравнение системы — главным уравнением. Далее вычисляем множители /И. = а}. /ар ^ для всех / Ф р. Затем преобразуем матрицу следующим образом: из каждой /*-й строки вычтем главную строку, умноженную на . В результате получим матрицу, у которой все элементы <7-го столбца, кроме apqt равны нулю. Отбрасывая этот столбец и главную строку, получим новую матрицу A i _с меньшим на единицу числом строк и столбцов. Над матрицей Ai повторяются те же операции, после чего полу¬ чается матрица А 2 и т. д Так продолжается до тех пор, пока не полу¬ чится матрица-строка, содержащая коэффициент перед последним неизвестным и свободный член уравнения. Далее объединяются все главные строки, начиная с последней. Если теперь изменить порядок следования неизвестных в векторе х," то матрица системы становится треугольной Отметим, что классический метод Гаусса является частным случаем метода главных элементов, если в качестве главного элемента всегда выбирать левый верхний элемент матрицы системы. 203
В рассмотренных модификациях метода Гаусса LU-раз¬ ложение проводилось в неявной форме [см. выражение (4.92) ]. В то же время существуют реализации алгоритма, в которых L (/-разложение используется непосредственно Значения элементов треугольных матриц L и U могут быть получены из равенства А = LU. Система рекуррентных соотношений для определения элементов //у и Ujj выглядит следующим образом [6, 7, 82]: //у =0 при / < /; иц = 0 при/ > / (/*,/ = 1 ,т) ; ии—Эц,иу- = а у* , //1 = aj t/иц (/=2 ,т); (/ =2,т; у =/ + 1,/я). Эти формулы часто называют компактной схемой метода Гаусса для треугольного разложения матрицы системы или схемой Халецкого. После определения L U-разложения на основании исполь¬ зования последовательности эквивалентных преобразований решение исходной СЛАУ с матрицей А общего вида можно свести к последовательному решению двух систем с треуголь¬ ными матрицами: Lb' = b; Ux = Ь\ Решение СЛАУ с верхней треугольной матрицей получается столь же просто, как и для системы с нижней треугольной матрицей (см. выше). Другие варианты метода L U-разложения, в частности известный алгоритм Краута—Дулиттла, описаны в работах [6, 79,82,85]. Метод квадратных корней. Этот метод (называемый иногда, как и схема, рассмотренная выше, методом Халецкого или методом Банахевича) используется 204 [6,82]. / - 1 “/7=а/7 “ ^ IjpUpj (/ = 2, т) ; р = 1 (4.93) / - 1 о Ах = Ь« LUx = b о L-1LUx = L-1b = b'<* Ux = Ь'; Lb' = b (4.94) /
при решении систем уравнений с симметричной положи¬ тельно определенной матрице/й. Метод основан на факте существования треугольного разложения симметричной положительно определенной матрицы А следующего вида: А = UTU, (4.95) где U — верхняя треугольная матрица. Видно, что это разложение представляет собой частный случай L U-разложения, использующего указанную специфику матрицы А. Элементы матрицы U получаются путем решения системы уравнений / 2 ик,ик, =а« (/ = 1, я? ; j =i,m). к = 1 Эти уравнения непосредственно следуют из выражения (4.95). Решение системы уравнений приводит к следующим рекуррентным формулам, хорошо приспособленным к реали¬ зации на ЭВМ [б, 7,82]: ип= Л; /-2 V Аг = 1 иЧ = (*и - к *^ukiuJjluii Чу = 0 при /' >/ . (/ = Y,m ; j =/' + \,т); (4.96) nsni С После получения разложения (4.95) решение системы сводится по аналогии с (4.94) к решению двух систем урав¬ нений с треугольными матрицами: Vbr = b; Ux = Ь\ Иногда при решении методом квадратных корней исполь¬ зуется разложение матрицы системы в виде А = LTL, (4.97) где L — нижняя треугольная матрица. Элементы матрицы L определяются по формулам, которые несложно получить 205
по аналогии с (4.96): s kity ) Пи Аг = / + 1 J т ) (/' = 1, / - 1 ; / = т, 1 ) ; /,, = о при / < /. ; I Для получения решения исходной системы последова¬ тельно решаются две системы с треугольными матрицами: Методы QR - разложения.' Как и при решении других задач линейной алгебры, при определении корней СЛАУ большую роль играет представление матрицы систе¬ мы А в виде произведения ортогональной матрицы Q и верх¬ ней треугольной матрицы R: А = QR. Это разложение часто называют £2/?-разложением матри¬ цы А. а основанные на его использовании методы решения алгебраических задач — методами ОЯ-разложения. £/?-разло¬ жение существует для любой квадратной матрицы А, причем, если матрица А невырождена, то ее QR-разложение, в кото¬ ром диагональные элементы матрицы положительны, един¬ ственно [6,7, 53, 82]. Если QR -разложение матрицы СЛАУ найдено, то система (4.82) сводится к эквивалентной системе которая может быть решена методом обратной подстановки. В выражении (4.98) учтено, что для ортогональной матри¬ цы Q выполняется равенство Q’1 = QT. Для получения QR-разложения матрицы системы исполь¬ зуются методы, основными из которых являются метод вращений (Гивенса) и метод отражений (Хаусхолдера). Поскольку оба этих метода подробно рассматриваются в учебниках по линейной алгебре, то здесь дадим лишь их краткое пояснение [6, 7,82]. При использовании метода Гивенса определяется последова¬ тельность матриц специального вида — матриц вращения — Р^, такая, что матрица R = Р^^. ...» Р^1» А будет верхней треугольной с положительными элементами на главной диагонали. LJb' =b; Lx =Ь'. Rx = QTb = Ь', (4.98) 206
Матрицей вращения называется матрица У / * * со$*р —siriip j , sm^ • cos^ . ^ / которая отличается от единичной тем, что для нее ~Pjj =оов^; Pjj =sirv; Pjj = —silty, где \p — некоторый угол (считаем, что / > >/ ). При умножении на эту матрицу некоторого вектора а = [ai, • •, ат]т все элементы вектора а' = Р ва будут совпадать с элементами век¬ тора а, за исключением a• и aj . •/ = a^cosifi — aj smy?; aj =a,s\n*p + ay cos^. Очевидно, что, каковы бы ни были и aj , найдется такое вра¬ щение (такой угол *р), при котором ау = О, а •/ =у/ aj + aj = р > > 0. Для этого должны выполняться условия: cos^ =в//р; sin^=—ву/р. Если «у = 0, то cos^ = 1, sin^ —О и Рв = I. Таким образом, умножение на матрицу вращения с правильно выбранным углом поворота \р позволяет получить /-й нулевой эле¬ мент в векторе-результате. Последовательность матриц Pg , ..9 в содержит для каж¬ дого столбца матрицы А столько матриц вращения, сколько в этом столбце ненулевых элементов под главной диагональю. В общем случае для всей матрицы А таких элементов будет /V =/п(#л — 1)/2, так как если среди поддиагональных элементов матрицы есть нулевые, то соответствующие матрицы вращения становятся единичными. Первая матрица вращения Р^ выбираётся такой, чтобы в матри¬ це Р^ А обратился в нуль элемент а\j. Затем осуществляется вра- (2) щение с использованием матрицы Р « таким образом, чтобы в нуль обратился элемент aSfj матрицы Ре Рв^А, и т. д. После/п,— 1 вра¬ щения получается матрица ...» Рв^А, у которой все эле¬ менты первого столбца, кроме самого верхнего, равны нулю. Далее аналогичным образом обращают в нуль все поддиагональные элементы всех других столбцов. В методе Хаусхолдера матрица А преобразуется к треугольному виду путем умножения на последовательность специальных матриц другого вида — матриц отражения. Матрицей отражения называется матрица Р0 = I — 2wwT, где w — произвольный вещественный вектор единичной длины (llwll = 207
= 1) Название матрицы связано с тем, что если в трехмерном прост¬ ранстве рассмотреть проходящую через начало координат зеркальную плоскость, для которой вектор w является нормальным, то преобра¬ зование зеркального отражения от такой плоскости задается рассмат¬ риваемой матрицей отражения. Пусть заданы любые ненулевые векторы а и s Можно показать, что существует такое отражение (матрица Ро и определяющий ее вектор w), которое переводит вектор а в вектор Os, где Ot — неко¬ торое число Р0а — ocs Вектор w при этом задается соотношениями w— -(a-as); р2 = 2[а (а-as)T]а = ±Иа ll/lls II. Р Отсюда, в частности, ^следует, что всегда существует матрица отражения, позволяющая преобразовать произвольный вектор (на¬ пример, вектор-столбец матрицы системы) в вектор заданного вида Пусть А — заданная матрица СЛАУ Умножим ее слева на после¬ довательность матриц отражения Р»». . , Рд'” 1) Каждую из этих матриц Р i'-» (/ = 1, т — 1) будем выбирать из условия обра- щения в нуль поддиагрнальных элементов /-го столбца полученного ранее произведения Р© “ 1», ,„Р©»А В результате этих операций будет получена требуемая верхняя треугольная матрица R. Метод сингулярного разложения. Он основан на такой факторизации матрицы СЛАУ, которая позволяет перейти к эквивалентной системе с диагональной матрицей, т. е. к системе из т независимых уравнений с од¬ ним неизвестным в каждом (см. выше). Введем основные понятия и определения, котооые будут использованы также в § 4.5 [6,7,74,79,82]. Пусть А — произвольная матрица размером п X т. Рас¬ смотрим квадратные матрицы АТА и ААТ порядка /пил соответственно. Можно показать, что ненулевые собственные значения этих матриц X/ совпадают (X/ > 0; / = Ь~, где г - ранг матриц А, АТА, ААТ). Арифметические значения квад¬ ратных корней из общих собственных значений матриц АТА и ААТ /х/ = \[\j называются сингулярными (главными) числами матрицы А. Будем полагать, что первые г сингуляр¬ ных чисел пронумерованы и расположены в порядке убыва¬ ния: Mi > д2 > .. „ > /1 г > 0. Остальные сингулярные числа полагаются равными нулю: /1 г + 1 = ... = 0. Сингулярные числа являются важными характеристиками матрицы А и обладают следующими свойствами: 208
1. Сингулярные числа матрицы не изменяются при умно¬ жении ее справа или слева на ортогональную матрицу. 2. Квадратная матрица является невырожденной тогда и только тогда, когда все ее сингулярные числа отличны от' нуля. 3. Модуль определителя матрицы А равен произведению всех сингулярных чисел. Справедлива следующая теорема, являющаяся основой для рассматриваемого метода решения СЛАУ [7, 74, 79]. Для любой матрицы А размера п X т существует разло¬ жение где U, V — ортогональные матрицы порядка п и т соответ¬ ственно; D — прямоугольная диагональная матрица разме¬ ром п Хт с не возрастающими элементами. Разложение (4.99) называется сингулярным разложением матрицы А. Для вещественной матрицы А сингулярное разло¬ жение является вещественным, т.е. матрицы U, D и Vх имеют вещественные элементы. Матрицы, входящие в сингулярное разложение (4.99), имеют следующий вид: D=diag(/Xi,.. .,/ir,0,..0); U = [и/] (/ = 1, л ); V= [v/] (/ = 1,/n). Здесь и,- и v;* — собственные векторы матриц ААТ и АТА соответственно. Сингулярное разложение (4.99) матрицы системы (4.82), если матрица А квадратная и невырожденная, позволяет перейти к эквивалентной системе: DVTx =UTb = b'. Отсюда следует, что решение исходной СЛАУ можно свести к последовательному решению двух систем: первая из этих систем, имеющая диагональную матрицу, решается по формулам (4.93). При решении второй системы следует учесть, что (VT) “l = V. В итоге решение системы (4.100) можно представить в виде А = UDVT, (4.99) (4.100) x=VD‘1UTb= 2 1 v/u/Tb т i = 1 209
или в рекуррентной форме: х (/) = х ^ ” 1» + M/v/u/ Ь (/ = 1,т ); х = 0. Для выполнения сингулярного разложения матрицы СЛАУ используются известные методы определения собствен¬ ных значений и собственных векторов матриц АТА и ААТ [6,7,79,821. Сравнение методов [6, 7, 15, 53, 63, 79, 82]. Рассмотренные методы решения СЛАУ, естественно, обладают различной устойчивостью к ошибкам округления, требуют разной емкости памяти и времени счета. Время решения СЛАУ определяется числом арифмети¬ ческих операций (в первую очередь, операций умножения и деления), необходимых для выполнения факторизации матрицы системы. Поэтому преимущества имеют методы /.(/-разложения (табл. 4.1): методы Гаусса, компактная схема и, особенно, метод квадратного корня. Дополнитель¬ ной оперативной памяти эти методы не требуют. По числу операций и по емкости требуемой памяти метод Хаусхол- дера несколько лучше метода Гивенса и по этим характерис¬ тикам сравнительно немного отстает от метода Гаусса. Наибольшие вычислительные трудности возникают при реализации метода сингулярного разложения. Таблица 4.1 Способ разложения Число операций Метод Гаусса тг/ 3 Компактная схема метода Гаусса тъ! 3 Метод Халецкого (квадратного корня) т*16 Метод Гивенса тъ Метод Хаусхолдера 2/3 т3 Метод сингулярного разложения 3 т3 Общим недостатком методов L (/-разложения является их низкая ^вычислительная устойчивость к ошибкам исходных данных при плохой обусловленности матрицы СЛАУ: в этих условиях классический метод Гаусса без выбора ведущего элемента практически неработоспособен, другие модифика¬ 210
ции этого метода устойчивее, однако уступают методам других групп. Наиболее устойчивым из методов треуголь* ного разложения является метод квадратного корня. Причина этого недостатка состоит в том, что при L (/-разложе¬ нии число обусловленности матрицы системы растет, что приводит к росту ошибок решения. Методы Гивенса и Хаусхолдера близки между собой по уровню погрешности округления и по этому показателю лишь немного уступают модификациям метода Гаусса. Вместе с тем они свободны от отмеченного выше основного недостатка методов /.(/-разложения, поскольку нормы матриц А и R совпадают и переход к эквивалентной системе с треугольной матрицей не приводит к росту числа обуслов¬ ленности. Метод сингулярных разложений в классическом варианте не обеспечивает преимуществ по уровню вычислительной устойчивости по сравнению с. методами ОЯ-разложения. Однако, как будет показано в § 4.5, он является хорошей базой для создания высокоэффективных алгоритмов, пред¬ назначенных специально для работы с плохо обусловленными и вырожденными матрицами. 4Л. РЕГРЕССИОННЫЙ АНАЛИЗ _ ПРОСТЕЙШИХ ПОЛИНОМИАЛЬНЫХ МОДЕЛЕЙ Рассмотрим процедуры оценки параметров и статисти¬ ческого анализа регрессионных полиномиальных Моделей нулевого, первого и второго порядка. Полиномиальная модель нулевого порядка. В этом случае регрессия не содержит действительных факторов. Единственным фактором является фиктивная переменная х\, тождественно равная единице [см. выражение (4.7)]: у = р1х1* + е = р1 +е. (4Л01) Поскольку М {е } = 0, то 01 представляет собой матема¬ тическое ожидание случайной величины У: М {/} = Pi. Реализации результирующей переменной У, =01+<7 V-ТГл). , , Отсюда несложно получить тривиальные выражения для векторов и матриц, входящих в общую форму регрес¬ 211
сионной модели (4.11): F = [1 — 1 ]т; FT = [1 ...1]; у = [ух уп]т; 0 = 01в Поскольку (FTF)“1 =1/л,то А А ( Л 1 1я Рх =Л*М =—[1 ...!]У= - 2 К/. (4.102) J п п / = 1 Это выражение, естественно, совпадает с использованной ранее формулой для оценки математического ожидания случайной (гауссовской) величины (2.57). Дисперсия оценки имеет вид о2{&} =о]/п, (4.103) а оценка дисперсии возмущений п Л , 1 " / 1 п \2 х Б (к,--0,)2=—, 2 (к,---.2 К/) • <4.104) / =1 «- 1 i -! \ ' л / =1 ) Полученные выражения совпадают с выражениями (2.60) и (2.59). Аналогично может быть получен рекуррентный алгоритм оценивания: 0 «'■ + 1 > - м{у};. + , = 0,(/) + С, + , [У; + ! - $}п ]; (4.105) С/ + 1 = s jl <*/ + */ + 1 = */ - *;/(*; + 1) = 1/(1 + 1/*;)- А(1 ) Поскольку для первого отсчета дисперсия оценки р\ — — ol$j = а2, то начальное условие — 1. В этом случае 5 ^ = i/(| + /); с/ 1 = 1/ (/ + 1) и получается выражение pjf +1» = + J_ [к. +, _ $(П J (4>1 ое, Аналогично получается рекуррентная оценка дисперсии возмущений D = o2: Oli + 1) = т-£-Г0(/> + г^Т [К/ + 1 -&,/+1>1*. (4.107) / + 1 / + 1 I ▼ I Выражения (4.106) и (4.107) с точностью до обозна¬ чений совпадают с формулами (2.121) и (2.122). 212
Модель первого порядка. Для определенности рассмот¬ рим линейную по факторам модель следующего вида: У = 02*+01 +е, (4.108) гдех = х 2 — единственная реальная переменнря [см. (47)]. В этом случае матрицы, входящие в уравнение регрессии, выглядят следующим образом: п п 2 /= 1 *i п п 2 Ху 2 / = 1 / = 1 п п 2 х? — 2 X/ / = 1 / = 1 п -2>х,. / = 1 определитель матрицы оши- Г"4 =",2,х') ■’ бок; xf =х'12‘ Следовательно, оценки параметров принимают вид: п 1 п 2 Х/к/ — — 2 х А / = 1 02 = С*лУ п п п п £ У/ 2 х? - 2 х; Е х -у • / = 1 / = 1 / = 1 / = 1 ',!■**-С £.*')’ (4.109) (4.110) Последнюю оценку удобнее находить из уравнения для сред¬ них значений объясняющей и результирующей переменной: М и- 02* + 01 • (4.111) 213
Отсюда А 1 / л Л п \ ft =- .2 х/ )• (4Л12) После определения оценок параметров может быть найде¬ на оценка функции регрессии т?(х) = 02*+0i- (4.113) Рекуррентные оценки параметров Ь+1»= й» ♦ с2. </,.+, - ?<'»*.+, - № и ?1,/+i»=^+cv(K/.+1-ai/4.+i-s1,/)) получаются из общих соотношений (4.55), если принять f J = “Их,], Для проверки адекватности линейной модели вычисля¬ ется дисперсионное отношение F = max {D, 0О) /min (0, 0в). Здесь (4.115) — остаточная дисперсия; 1 п - л / 1 л \2 (4.116) — общая дисперсия результирующей переменной. Линейная модель (4.108) считается адекватной, если I4"7' х При проверке адекватности модели целесообразно также оценить значимость параметров. Для этого вычисляются и сравниваются с квантилями г-распределения Стъюдента статистики a = l&lь-2.а (/ = 1.2). (4.118) При выполнении этого неравенства значения соответ¬ ствующих параметров считаются не противоречащими экспе- 214
риментальным данным. В противном случае рекомендуется изменить модель регрессии и снова решить задачу оценки ее (теперь уже единственного) параметра. Если незначимым оказался коэффициент /32, то следует перейти к регрессион¬ ной задаче, рассмотренной ранее. При признании незначимым коэффициента рг уравнение регрессии первого порядка будет содержать только коэффициент Р2: Рекомендуется получить соотношения для решения этой задачи самостоятельно. Если параметрыvperpeccHu оказались значимыми или если было принято решение не изменять модель и не отбрасывать незначимые коэффициенты (выше отмечалось, что лучше оставить незначимые коэффициенты, чем ошибочно — вероят¬ ность этой ошибки равна а — отбросить значимые), то далее целесообразно провести интервальное оценивание параметров и значений ФР [см. выражения (4.78) ]. Полиномиальная модель второго порядка. В заключение рассмотрим процедуру двухфакторного регрессионного ана¬ лиза на примере уравнения Здесь роль первого реального факторах2 играет величина х, а второго х з — ее квадрат. В этом случае При вычислении оценок параметров использовать обрат¬ ную матрицу (F TF)“1 часто нецелесообразно и следует перей¬ ти к решению системы нормальных уравнений FTF/3 = FTy, которая, как можно показать, в скалярном виде выглядит следующим образом: Y = р2х + с. (4.119) Y =01 +02* +0з*2 +€. (4,120) (4.121) 215
(4.122) С*,*Ол*С2/Ол*С.МЬ-^"- Для ее решения могут использоваться методы, рассмот¬ ренные в § 4.3, и программы, описанные в гл. 5. 4.5. ОСОБЕННОСТИ РЕГРЕССИОННОГО АНАЛИЗА ПРИ НАРУШЕНИИ БАЗОВЫХ ПОЛОЖЕНИЙ Регрессионный анализ при неоднородных и коррели¬ рованных возмущениях. Среди базовых предпосылок клас¬ сического регрессионного анализа (см. § 4.2) особенно часто нарушается предположение об однородности и некор¬ релированности возмущений. Покажем, каким образом должна быть модифицирована процедура регрессионного ана¬ лиза и к каким последствиям приведет использование клас¬ сического алгоритма в неадекватных условиях [1, 3, 15, 27, 67, 78]. Итак, пусть входящий в уравнение регрессии Y = F0 + в вектор возмущений € характеризуется корреляционной матрицей V = d{*} =о? П, (4.123^Г где А — некоторая положительно определенная матрица. Основная идея модификации состоит в том, чтобы найти такое преобразование уравнения регрессии с коррелирован¬ ными или неоднородными возмущениями, которое позво¬ лило бы получить классическую регрессию, рассмотренную ранее: Z =Q/I + |; d{|}=o!I. (4.124) Такое преобразование можно осуществить, если исполь¬ зовать представление корреляционной матрицы Л в виде П = ТТт. (4.125) Отметим, что представление (4.125) не является един¬ ственным. 216
Умножим правую и левую части исходного уравнения регрессии на Т-1 и получим T"1Y = T"1Fp+ Г*16. (4.126) Использовав обозначения T“1Y = Z; T“lF=Q; Т“16={, (4.127) придем к модели (4.124). Покажем, что преобразованные возмущения ( являются некоррелированными и однород¬ ными. Для этого определим корреляционную матрицу век¬ тора f: D{*};=MfeT} =м{(Т-‘е) (Т“1е)т} = = т“1 м{еет} (тт)-1 =T"1V(TT)’1 =о\\. (4.128) что и требовалось показать. Здесь учтено, что = О, поскольку М } = 0. Преобразованная модель (4.124) отвечает всем предпо¬ сылкам классического регрессионного анализа, поэтому для получения оценок параметров может использоваться МНК: £n = (QTQ)-‘QTz. Эту оценку можно преобразовать с учетом (4.127): £„= [ (Т-1 F)T(Т-1 F)] _ 1 (Т-1 F)T (Т“1у) = = (Ft(T"1)tT"1F)“iFt(T-1)tT-1y = = (FTn-lF)-IFTn_,y. (4.129) Соответствующим образом можно модифицировать и все остальные основные соотношения регрессионного анализа: 4=F(FTH-lF)_,FT0-1y; (4.130) e = y-F(FT«-1F)'1FTft-1y; (4.131) o{fia} =о* (F1»-^)"1; (4.132) D{n} = ffeF(F,Tn'‘F)"‘FT; / (4.133) t = —— (у- FP)T«"‘ (у- Ffi). (4.134) п — т Полученные оценки при недиагональной матрице V на- 217
зывают оценками обобщенного метода наименьших квадра¬ тов (оценками Эйткена), а при диагональной матрице — оценками взвешенного МНК. В соответствии с теоремой Гаусса—Маркова они являются несмещенными и эффектив¬ ными в классе несмещенных линейных оценок, а при гаус¬ совском распределении возмущений совпадают максимально правдоподобными оценками и являются эффективными в классе всех несмещенных оценок. Для анализа адекватности модели, точности и надеж¬ ности оценок (4.130)— (4.134) могут использоваться выра¬ жения, рассмотренные в § 42 для обычной модели, в которой нужно лишь соответствующим образом изменить обычную сумму квадратов на обобщенную. Например, доверительная область для всех параметров задается неравенством [ср. с выражением (4.79) ] Ifia -Р)то'а£а-& < 77- (4.135) а индивидуальные доверительные интервалы для параметров ФР имеют вид [ср. с выражением (4.78) ] *п -т. (1 - р)1*2>Г*гуи < 0/ < 0п/ + + *V (4-136) где $2 определяется из (4.134); v.. — /-й диагональный элемент модифицированной матрицы ошибок (4.132). Применение обычного, классического МНК для анализа модели с корреляционной матрицей возмущений (4.123) приводит к тому [15], что полученные оценки параметров и ФР хотя и остаются несмещенными, однако перестают быть эффективными. При этом оценка дисперсии становится смещенной, а из-за того, что классическая оценка корреля¬ ционной матрицы отличается от истинной корреля¬ ционной матрицы ошибок оценивания и ее элементы часто имеют заниженные значения/статистический анализ качества дает, как правило, ложные, "оптимистические” результаты. Основная трудность применения рассматриваемых оце¬ нок заключается в том, что матрица Л заранее, как правило, неизвестна. Поэтому оценки получают в-два этапа [15]: сначала получают оценку корреляционной матрицы Л, а за- 218
тем — оценки в соответствии с полученными ранее выра¬ жениями. Регрессионный анализ в условиях мультикотинеарности. При решении регрессионных задач часто сталкиваются с на- личием сильной линейной связи между всеми или некото¬ рыми объясняющими переменными. Это явление называется мультиколлинеарностью [1, 15, 27, 67, 78]. Мультиколли¬ неарность может проявляться в функциональной (явной) и вероятностной (скрытой) форме. Функциональная форма возникает, когда по крайней мере один из факторов связан с другим линейным функциональным соотношением. Веро¬ ятностная форма мультиколлинеарности имеет место, когда по крайней мере между двумя случайными объясняющими переменными существует сравнительно сильная корреляция. Во всех случаях, когда обнаруживается мульти коллинеар¬ ность, необходим тщательный предметно-содержательный анализ причин ее возникновения. С математической точки зрения мульти коллинеарность проявляется в том, что информационная матрица G = FTF становится плохо обусловленной, а при строгой мультиколли¬ неарности — вырожденной (detF TF = 0), т. е. матрица регрес¬ соров F имеет неполный ранг (г <т). Это приводит, как следует из результатов § 4.2, 4.3, к резкому снижению точ¬ ности оценок параметров и функции регрессии, которые часто перестают удовлетворять предъявляемым требова¬ ниям. /Оценки становятся крайне чувствительными к выбо¬ рочным наблюдениям. Применение критериев значимости становится ненадежным. Для "установления наличия и степени мультиколлине¬ арности .используются различные способы и показатели: коэффициент множественной детерминации, элементы кор¬ реляционной матрицы стандартизованных регрессоров и др. (3, 15, 78]. В линейной алгебре для исследования мульти¬ коллинеарности широко используются рассмотренные в § 4.3 числа обусловленности матрицы регрессоров или информа¬ ционной матрицы, которые достаточно просто могут быть рассчитаны с применением микро-ЭВМ. Для борьбы с мульти коллинеарностью или в целях сниже¬ ния степени ее нежелательного влияния на результаты анализа в настоящее время используется ряд методов [1, 13, 27, 28,67, 78]: 1) метод центрирования факторов [15]; 2) метод исключения коррелированных независимых 219
переменных; задача отсева факторов решается в ходе поиска наилучшей структуры модели (см. ниже); 3) метод линейного преобразования переменных. Метод основан на таком линейном преобразовании модели регрес¬ сии, при котором информационная матрица становится орто¬ гональной. Дальнейшим его развитием является метод глав¬ ных компонент, который фактически также реализует идею исключения переменных, однако не в исходном, а в орто¬ гональном базисе; 4) алгебраические методы, основанные на применении для получения оценок параметров регрессии в исходном базисе численно устойчивых методов решения исходной системы F/3 = у Ах = Ь. (4.137) Отказ от использования нормальной системы уравнений (4.33) связан с тем, что число обусловленности матрицы FTF существенно больше числа обусловленности матрицы F исходной системы (cond FTF = cond2F). Здесь используется определение числа обусловленности матрицы как отношения максимального сингулярного числа к минимальному, кото¬ рое позволяет оценивать степень вырожденности не только квадратных, но и прямоугольных матриц. Отсюда следует, что переход от исходной системы к нормальной ухудшает обусловленность задачи и приводит к снижению точности решения. Кроме того, в условиях строгой мультиколли¬ неарности нормальная система не является определенной, что не позволяет применять для ее решения стандартные методы. Рассмотрим два алгебраических метода, широко исполь¬ зуемых на практике. Метод псевдообра ще н и я . Предварительно да* дим несколько определений. Нормальным псевдорешением СЛАУ (4.137) называется вектор хн, обеспечивающий мини¬ мум нормы невязки Mb — Ах 11 и имеющий минимальную норму 11 х I I [7, 73]. Очевидно, что если матрица АТА не¬ вырождена, то нормальное псевдорешение совпадает с обоб¬ щенным решением СЛАУ. При вырожденной матрице АТА существует бесконечное число обобщенных решений и нор¬ мальное псевдорешение совпадает с тем из них, которое имеет наименьшую норму. Нормальное псевдорешение формально можно получить 220
с помощью псевдообратной матрицы А*: А + хм = А Ь. (4.138) Матрица А+ размера т X п называется псевдообратной (матрицей Мура-Пенроуза, обобщенной обратной матрицей) для матрицы А размера п X т, если она удовлетворяет следующим условиям: АА+А = А; А+АА+ = А+; АА+= (АА+)Т; А+А = (А+А)т. (4.139) Можно показать, что такая матрица всегда существует и единственна [7] .Псевдообратная матрица обладает следую¬ щим экстремальным свойством [7]: для любой матрицы X размера т X п выполняется соотношение llAA+ - ill < < МАХ — III, причем, если для какой-либо матрицы X, отличной от А*, имеет место равенство,то I 1 A+l I < 11x11. Если А — квадратная невырожденная матрица, то А+ = А"1, которая, очевидно, удовлетворяет условиям (4.139). Если матрица А — прямоугольная и имеет полный ранг (г =т), то Д+=(АТА)-‘АТ (4.140) и нормальное псевдорешение совпадает с решением по методу наименьших квадратов (4.34) . Если матрица А имеет непол¬ ный ранг, то такого простого представления псевдообратной матрицы нет. - В настоящее время для псевдообращения матриц систем, особенно при их плохой обусловленности, как правило, применяется метод сингулярного разложения [74, 79]. При использовании этого метода, во-первых, не производится переход к нормальной системе уравнений, который, как отмечалось, ухудшает обусловленность системы, и, во-вто¬ рых, получаются алгоритмы, которые могут быть обобщены и на случай вырожденной СЛАУ. Сначала рассмотрим псевдообратную матрицу для прямо- 221
угольной матрицы размерап Хт ~dx 0 0... О О ofe 0...0 D = О О О О 0...0 Если эта матрица имеет ранг г (г < т), то г ее диагональ¬ ных элементов отличны от нуля. Как можно проверить непо¬ средственной подстановкой в выражение (4.139) , псевдо- обратной для нее является матрица D+ размера т X п: + Г Щ при df Ф 0; где d. — о при ct = о. Отметим, что матрица DD+ представляет собой матрицу порядка п, у которой на главной диагонали расположены г единиц, а остальные элементы являются нулями. Теперь рассмотрим псевдообратную матрицу для произ¬ вольной матрицы А. Поскольку для матрицы А всегда, как и для вырожденной матрицы, может быть получено сингу¬ лярное разложение (см. § 4.3) А = UDVT, то с учетом (4.141), (4.142) псевдообратной для А является матрица которая определена как для невырожденных, так и для вырожденных СЛАУ. Нормальное псевдорешение может быть получено как в традиционной форме d? О ... О ... О о <£... о... о (4.142) А+ = VD+ UT (4.143) Л X = г = VD+UTb= S Ai^v u/b, (4.144) / =1 222
так и в виде рекуррентного соотношения (4.145) где г — ранг матрицы А; /1. — ее сингулярные числа. Непосредственное использование псевдообращения дает удовлетворительные результаты лишь при малом уровне погрешностей исходных данных: уд, у ь О (см. § 4.3). В противном случае метод псевдообращения неэффективен — норма вектора ошибки решения 11 хт — A+bl I, как правило, оказывается недопустимо большой. Детально этот вопрос рассматривается в работах [5, 7, 73]. Для возмущенной СЛАУ вводится эффективная псевдо¬ обратная матрица А* которая имеет структуру псевдообрат¬ ной матрицы (4.143), но для которой элементы матрицы (4.142) определяются иначе: Здесь учтено, что dt > О/поскольку dt = д,- (/ = 1, т), где/i; — сингулярные числа матрицы А. Матрица А* удовлетворяет лишь трем последним усло¬ виям Мура-Пенроуза (4.139), а первое заменяется нера¬ венством ^ llAA* a- All < т. т Величина г должна быть согласована с уровнем погреш¬ ностей задания исходных данных: при возрастании возму¬ щений г необходимо увеличивать, при повышении точности данных г-^0. Эффективное псевдорешение: где г9 — число, не превышающее ранга матрицы г9 < г и, так.же как и г, согласованное с уровнем погрешности исход¬ ных данных. (4.146) А X г Т (4.147) (4.148) 223
Очевидно^ что ^при малом уровне возмущений (т -► О, г' г) хт « хн « хт. При возрастании погрешностей задания исходных данных хт Ф хн Ф хт. Однако при правильном задании параметра г точность эффективного псевдорешения может существенно превышать точность нормального псевдо¬ решения: llxT- A*bll < II хт — A+bl I. Недостатком этого метода является отсутствие конкретных рекомендаций по выбору параметров г или г'. Метод регуляризации. От этого недостатка свободен другой метод,основанный на идее регуляризации. В настоящее время метод регуляризации А. Н. Тихонова является основным при решении широкого класса некор¬ ректных задач1, к числу которых относится и задача решения возмущенных СЛАУ [5, 7,1 5, 44, 45, 73, 74]. В соответствии с методом регуляризации в качестве приближенного решения СЛАУ (4.137) в условиях возму¬ щения матрицы системы и (или) вектора правых частей следует брать вектор ха, который обеспечивает минимум функционала Фа (х, b) = Q {ax, b} + aF (х). (4.149) Функционал (4.149) называется сглаживающим. Входя¬ щее в его состав слагаемое Q {Ах, b} = I lb—Ах 11 пред¬ ставляет собой квадрат нормы невязки решения х, a F(x) обычно называют стабилизирующим функционалом или стабилизатором и выбирают исходя из физического смысла задачи. Параметр а (а > 0), называемый параметром регуля¬ ризации, должен быть определенным образом согласован с погрешностью задания исходных данных. Отметим, что сглаживающий функционал является обобщением функционалов, использованных ранее. Так, при самостоятельном использовании функционала Q (Ах, Ь) поиск его минимума приводит к традиционным нерегуляри- зованным решениям по методу наименьших квадратов (4.34) или (4.144). Для вырожденной матрицы системы ранее было получено нормальное псевдорешение, которое соответствует 1 Задача называется корректной (по АДАМАРУ), если, во-первых, решение существует, во-вторых, решение единственно, в-третьих, решение устойчиво к погрешностям исходных данных [73], 224
одновременной минимизации функционала Q {ах, b} и ста¬ билизатора частного вида F (х) = 11х N 2. Полученное в результате минимизации сглаживающего функционала (4.149) приближенное решение СЛАУ (4.137) ха обладает тем замечательным свойством, что при согла¬ совании параметра регуляризации с погрешностью исходных данных для него справедливы два условия [73]: 1) ха ->хт при уА, уь->0; 2) 11 хт - xal I < 11хт - xl I при V х. Приближенное решение ха называется регуляризованным решением СЛАУ. Оно не является единственным в том смысле, что различным стабилизаторам F (х) соответствуют различные, вообще говоря, решения ха. Выбор функционала F (х) обычно подсказывается характером решаемой задачи и, естественно, основан на использовании заранее заданной информации о решении. А В частности, если известен вектор х0, близкий по апри¬ орным данным к точному решению хт, то стабилизатор естественно задать в виде FM =||х0-х112 = (х0-£)т(х0-х) и искать регуляризованное решение путем минимизации по а функционала Фа Ь) — (Ь — Ах)т (Ь - Ах) + а (х0 - х)т (х0 - х). (4.150) Можно показать [5], что в этом случае Ха= (АтА+а1) _1 (АтЬ + ах0). (4.151) Вектор (4.151) называется регуляризованным решением СЛАУ, нормальным относительно вектора х0. Если вектор х0 задать не удается, то можно принять его равным нулю. В результате получается решение ха = (АтА + а I) '1АТЬ. (4.152) Оно минимизирует квадрат нормы невязки решения lib — Axil при фиксированном квадрате нормы решения llxll2. Верно и обратное — решение (4.152) имеет мини- 8 Заказ 1130 225
мдоьный квадрат нормы в классе решений с заданным зна¬ чением нормы невязки. Ввиду отмеченной ранее вычислительной неэффектив¬ ности использования обратных матриц на практике регуля- ризованное решение получают путем решения СЛАУ (АтА + с*1)х = АТЬ. (4-153) Поскольку матрица (АТА + al) симметрична, для реше¬ ния системы (4.153) целесообразно использовать метод квадратного корня (см. § 4.3). Центральным fiри испрльзовании метода регуляризации является вопрос об оптимальном (согласованном) значении параметра регуляризации а, Для определения этого значения используется ряд методов, в частности метод невязки [73, 74]. Показано, что параметр регуляризации, удовлетворяю¬ щий условию lib — АхаМ « 6е , обеспечивает получение решений, по порядку точности близких к оптимальному. Здес* 6е — оценка уровня погрешности исходных данных: llfll < 6е. Рассмотрим более подробно особенности применения регуляризированных оценок вида (4.152) для решения регрессионной задачи, яеттющейся по своей сути статисти¬ ческой. Отметим, что в регрессионном анализе оценка (4.152) часто называется гребневой или ридж-оценкой. Можно пока¬ зать, что гребневая оценка вектора параметров линейной регрессии ра = (FTF + al)_1FTy обладает следующими свойствами [5, 15, 27, 28, 67]: 1. Гребневая оценка является смещенной, поскольку при а Ф О M{£a}=(l-a(F TF)-4-lfi*fi. (4.154) 2. Гребневая оценка — результат линейного преобразо¬ вания МНК-оценки. Действительно, поскольку FTy = FTFft то Ях= (FTF+al)'1FTFP=Rjl (4.155) где Ra = [I * a (FTF) ”!]~*. причем Ra Ф I при а > 0. Отсю¬ да, в частности, следует, что при невырожденной матрице FTF lim ft=fi. о о а 226
3. Для любой матрицы регрессоров F существует такое значение параметра регуляризации а = а0 > 0, лри котором средняя сумма квадратов ошибки оценки (средний квадрат нормы ошибки) будет меньше полной дисперсии МНК- оценки: ,4-16в| где t{e}» tr{o{(l}}= oUr {iF'FI-1}; Ф«Л - Ч dR„H *"v. - < v. - *r' • Действительно, при плохой обусловленности матрицы (FTF) ее минимальное собственное число стремится к нулю, поэтому величина/.{/?} = a2 tr{(FTF)-1} = а2 2 1 /Х#* / = 1 принимает крайне большие значения. В то же время средний квадрат нормы ошибки гребневой оценки в отлияие от несме¬ щенной МНК-оценки содержит две составляющие: полную дисперсию гребневой оценки, которая монотонно убывает с ростом а, и полный квадрат смещения, который при увели¬ чении параметра регуляризации а монотонно растет. Отсюда следует, что прм некотором значении а = а0 средняя сумма квадратов будет иметь минимум. Иными словами, из выражения (4.156) вытекает, что, допуская небольшое смещение оценки, можно уменьшить дисперсию регуляри^ зованной оценки настолько, что лри этом уменьшится и пол¬ ный средний квадрат ошибки. При использовании гребневых оценок для выбора опти¬ мального значения а0 также широко используется метод невязки. В простейшем случае а подбирают из условия о\ н< lly-F0all2< а2 в, (4.157) где о2 и* и а2 в — оценки нижней и верхней границ дисперсии возмущений. Более корректным является статистический подход, когда а постепенно уменьшают, начиная с а> О, проверяя каждый раз гипотезу о равенстве векторов у и А д F/S-a. Если гипотеза при каком-либо а = а0 принимается, то полученная оценка близка к оптимальной. 227
При коррелированных возмущениях (D {б} = а*П, где А — неотрицательно определенная матрица с единичной главной диагональю) гребневая оценка принимает вид Ра= (FT F +al) -1 FTJ2“1y. (4.158) Гребневые оценки более общего вида, а также их связь с другими известными методами решения регрессионных задач рассмотрены в работах [5/44, 45]. Выбор наилучшей структуры регрессионной модели. Одной из основных задач регрессионного анализа является обоснованное решение о том, какие факторы или регрессоры следует включить в модель. Выше отмечалось, что нежела¬ тельным оказывается как недобор, так и перебор факторов. Обсуждавшиеся в этом параграфе вычислительные проблемы, вызванные явлением мультиколлинеарности, во многом связаны с наличием в модели коррелированных или линейно зависимых переменных. Обоснованное упрощение модели позволяет снизить требуемые вычислительные затраты, повысить оперативность обработки, повысить прогности¬ ческие возможности модели. Уменьшение числа регрессоров увеличивает число степеней свободы v = п — т остаточной дисперсии и делает связанные с ней проверки гипотез более надежными. Рассмотрим некоторые наиболее распространен¬ ные методы поиска наилучших регрессионных моделей. (Более подробно эти вопросы обсуждаются в работах [1, 3, 10, 15, 27, 28, 32,67].) Построение и проверка всех возмож¬ ных регрессий. Очевидный подход к построению оптимальной модели состоит в построении и статистической проверке всех возможных уравнений регрессии, которые можно получить, выбирая по / (/ = 0, т) регрессоров. По¬ скольку для каждого регрессора имеется две возможности — либо он включается в модель, либо не включается, — то всего имеется 2т возможных уравнений регрессии. Каждая модель проверяется на адекватность, например, с использованием остаточной дисперсии (4.76) коэффициента множественной детерминации, статистики Мэллоуза или др. Обычно этот метод используется при т < 10 ... 15. Для сокращения числа проверок поступают следующим образом. Все модели разбиваются на т подмножеств, содержащих 1, 2, ..., т регрессоров. Внутри каждого подмножества модели упорядочиваются, например, по возрастанию коэф¬ 228
фициента множественной детерминации (квадрат коэффи¬ циента корреляции переменных У и X: я2 = 1- [(у-FP)т(У — Fjjj]/[(y-y)T(y-У)]=1 — Q0/Q, где Q0 — остаточная сумма квадратов; О — полная сумма квадратов отклонений от среднего. Далее рассматриваются "лидеры" различных подмножеств и делается попытка выявить закономерности в появлении регрессоров. Рассмот¬ рение начинается с моделей с малым числом регрессоров. Если при усложнении модели не происходит заметного при¬ роста коэффициента детерминации, то введение нового регрессора едва ли целесообразно. Для принятия решения об обоснованности модели с р регрессорами (р < т) вы¬ числяются и сравниваются коэффициенты детерминации для данной и для самой сложной модели с т регрессорами: R 2 и R2m. Различия между моделями сри/n регрессорами считаются незначимыми, если выполняется неравенство [п - т) [R2m - R2) < (/77 - 1) F _ 1) {п - т), а? (4.159) т где Fv \ iviq — квантиль порядка q F-распределения с v2 степенями свободы. Аналогичная проверка может быть выполнена с использо¬ ванием остаточной дисперсии s2, остаточной суммы квадра¬ тов Q0, статистики Мэллоуза или частного коэффициента корреляции. Поиск наилучшей (адекватной) модели заканчи¬ вается, как только различия между некоторой упрощенной и полной моделями будут незначимыми. Метод исключения. При большом числе фак¬ торов и регрессоров анализ всех возможных регрессий ста¬ новится затруднительным. Поэтому необходим переход к более экономичным процедурам поиска структуры адек¬ ватной регрессионной модели. На практике используется несколько стратегий поиска: поиск вдоль перспективных ветвей, метод включения и др. [15, 32, 67]. Однако наиболее широко применяется метод исключения и рассмотренный далее шаговый метод. Расчеты методом исключения начинают с обращения к полной регрессионной модели. После этого вычисляют частные F-критерии для оценки значимости каж¬ дого из полученных коэффициентов регрессии. 229
Частный критерий для /-го регрессора определяется в данном случае следующим образом: (Оо/ — Оф) (л “ F, = Ъ , (4.160) где Q0 — остаточная сумма квадратов для редуцируемой модели; Q<y — остаточная сумма квадратов для редуцирован¬ ной модели без / -го регрессора; т' — число регрессоров в редуцируемой модели (на первом шаге исключения т' = = т). После получения значений критерия для всех регрес¬ соров определяется "кандидат" на исключение — регрессор с наименьшим значением F-критерия. Это значение Fmjn сравнивается с критическим значением F-распределения с 1, п — т' степенями свободы при заданном уровне значи¬ мости а. Если Fmjn < Fyt п _ т\ \ _ а, то данный регрессор исключается из модели, в противном случае процедура исклю¬ чения заканчивается. После исключения регрессора коэффи¬ циенты для редуцированной регрессионной модели рассчиты¬ ваются заново, производится проверка гипотезы об адекват¬ ности новой модели и при положительном решении про* цедура исключения повторяется. Метод шаговой регрессии. В расчетах этим методом используется как процедура исключения, так и включения регрессоров. Процедура начинается с рассмотре¬ ния самой простой регрессионной модели, в частности содер¬ жащей один регрессор. Далее рассматриваются все регрес¬ соры, которые еще не включены в модель, иЪля них рассчи¬ тываются частные F-критерии. Выбирается регрессор с самым большим значением критерия Fmax' которое сравнивается с критическим значением F, для включения в модель. Если Fmax > Fx , то соответствующий регрессор включается в модель. В противном случае процедура завершается. После включения нового регрессора коэффициенты модели оце¬ ниваются заново и проверяется гипотеза об адекватности модели. Далее выполняется процедура исключения регрес¬ сора, ставшего незначимым после включения в модель нового регрессора: определяется регрессор с минимальным значе¬ нием частного критерия Fmin, который сравнивается с крити¬ ческим значением F0 для исключения из модели (см. выше). Если ^min < Fо, то данный регрессор исключается, в про¬ тивном случае модель остается без изменений и переходят 230
к поиску "кандидата" на новое включение.. Шаговый алго¬ ритм завершается, если не удается выполнить ни нового исключения, ни нового включения регрессоров. В заключение отметим, что рассмотренные в данном под¬ параграфе методы фактически являются* средством для фор¬ мирования хорошо обусловленной матрицы уравнения регрессии и дополняют рассмотренные ранее алгебраические методы решения регрессионной задачи при заданной матри¬ це F. В то же время очевидны и определенные аналогии между некоторыми методами решения плохо обусловленных CJTA$S например, методом псевдообращения или методом главных компонент и методом исключения регрессоров. Регрессионный анализ в условиях ошибок в регрессорах. В некоторых практических случаях факторы или регрессоры задаются (измеряются) с ошибками (см. § 4.1). В этих условиях классические МНК-оценки параметров и функции регрессии теряют свои оптимальные свойства, что необходимо учитывать при их применении или при поиске альтернативных алгоритмов оценивания. Ограничимся кратким рассмотре¬ нием особенностей регрессионного анализа в условиях актив¬ ного эксперимента. Более полно этот вопрос исследуется в работах [1, 15, 27, 32, 42, 67], где также обсуждаются особенности обработки результатов пассивного экспери¬ мента и рассматриваются специальные алгоритмы регрес¬ сионного анализа. В условиях активного эксперимента, характерного для научных исследований в технике, значения факторов целе¬ направленно задаются, однако из-за ошибок управления фактически на исследуемый объект воздействует отличные от них значения »SiJ =*S + *,у • (4-161) где б/у — ошибка задания / -го фактора в /-м эксперименте. В этих условиях уравнение регрессии можно записать в следующем виде: y=Ffip + v, (4.162) где у — вектор наблюдаемых значений результирующей переменной; 0 — вектор оцениваемых параметров; Fg — фактическая матрица регрессоров; v — вектор возмущений. 231
Матрица регрессоров F6 здесь представляется следующим образом: где ff (х) — известные функции; хб/ = xf + 6/в Фактическая матрица неизвестна, поэтому при оценива¬ нии параметров используется "запланированная" матрица регрессоров F, определяемая заданными значениями фак¬ торов. Уравнение регрессии, используемое при формировании оценки имеет вид где $ — вектор отклонений, вызываемых как возмущениями модели (4.162), так и различием матриц F6 и F: Здесь AF = F6 — F— матрица, характеризующая откло¬ нения фактической и расчетной матрицы регрессоров. В об¬ щем случае AF зависит не только от вектора возмущений факторов в = [51, .. .,8* ]т, но и от значений вектора фак¬ торов х. Только для линейных функций f ;{х) матрица AF будет функцией вектора 8. Например, если используется модель вида (4.6), то Модель (4.164) представляет собой уравнение регрес¬ сии с известной матрицей плана, однако реальные свойства вектора отклонений € не будут соответствовать базовым предпосылкам, описанным в § 4.2, даже в том случае, если фактический вектор отклонений v будет этим предпосылкам удовлетворять (М {v} =0; D {v } = с* I). Действительно, можно показать [1, 15, 67], что математи¬ ческое ожидание вектора в (4.163) у = F/j+e, (4.164) € = v-AF p. (4.165) (4.167) а его корреляционная матрица (4.168) 232
Отсюда следует, что оценки параметров регрессии факти¬ ческой модели (4.162), полученные обычным методом наи¬ меньших квадратов для модели (4.164) с использованием выражения (4,34), являются смещенными (из-за смещения вектора f) и неэффективными (из-за коррелированности элементов этого вектора). Несмещенными, однако, и также не эффективными классические оценки будут только при линейных функциях f/(x), например для модели (4.6) при условии, что } = 0. Непосредственное использование для оценки параметров регрессии обобщенного^ НК, приспо¬ собленного для работы в условиях коррелированных откло¬ нений, невозможно, поскольку корреляционная матрица D{e] зависит от оцениваемых параметров [см. (4.168)] и в связи с этим неизвестна. Возможный путь решения этой проблемы — использование итерационных процедур, на каждом шаге которых оценивается вектор параметров fi и корреляционная матрица возмущений. Отметим, что в тех случаях, когда погрешности задания факторов йевелики, снижением эффективности классических МНК-оценок на практике часто можно пренебречь или использовать для получения оценок рассмотренные выше методы решения уравнения регрессии, устойчивые к погрешностям исходных данных. ГЛАВА ПЯТАЯ ЭЛЕМЕНТЫ ПРОГРАММНОГО ОБЕСПЕЧЕНИЯ РЕГРЕССИОННОГО АНАЛИЗА 5.1. ПОДПРОГРАММЫ БНТР/РАФОС Подпрограммы матричной алгебры. Матричные подпро¬ граммы являются удобным средством реализации алгорит¬ мов обработки экспериментальных данных, рассмотренных как в гл. 3, так и в гл. 5. Ниже приводится описание основ¬ ных подпрограмм, входящих в БНТР/РАФОС. Отметим некоторые особенности этих подпрограмм, которые следует учитывать при их практическом использовании. Они связаны, в первую очередь, с расположением данных в массивах, передаваемых в эти подпрограммы и из них в качестве факти¬ ческих параметров. Отметим, что рассматриваемые особен- 233
иости характерны не только для пакета БНТР/РАФОС, но и для других библиотек подпрограмм, в частности для рас¬ сматриваемых в § 5.2 подпрограмм на языке "фортран". Обычной формой Представления матрицы в программе пользователя является двухмерный массив с границами, соответствующими действительным размерам матрицы. На¬ пример, матрица размера 3X3 задается двухмерным мас¬ сивом А 11,1) А (1.2) А (1,3) А(2.1) А (2.2) А (2.3) А (3.1) А (3.2) А (3.3) Поскольку в действительности память ЭВМ организо¬ вана в виде "линейки" запоминающих ячеек, то массив в за¬ поминающем устройстве представляется в векторном виде и выглядит следующим образом: А (1,1) А (2.1) А (3,1) A(U) А (2,2) А (3,2) А (1,3) А (2,3) А (3.3) Матричные подпрограммы организованы таким образом, что они используют в качестве формальных параметров для представления матриц именно векторные массивы, в которых элементы матриц расположены по столбцам. Поэтому в под¬ программу будет передан из основной программы именно этот векторный массив. Однако иногда возникает необходимость в создании программ, позволяющих производить операции с матри¬ цами с переменными размерами. В таких случаях соответ¬ ствующий двухмерный массив в операторе явного описания типа (DIMENSION, REAL) описывается с максимально возможными размерами. Если максимальные границы, заданные оператором описания типа, превышают действитель¬ ные размеры матрицы, то возникают проблемы при пере¬ садке массива в подпрограмму. Пусть, например, область памяти, отводимая для запоминания данных описана опера¬ тором DIMENSION А (3,3), а действительный размер матри¬ 234 ,
цы равен 2X2. Тогда в двухмерной записи распределение элементов матрицы по ячейкам памяти имеет вид: А(1,1) А (1,2) А (2,1) А (2,2) Реально они распределяются в "линейке" запоминающего устройства следующим образом: А(1,1) А(2,1) А (1,2) А (2,2) Если теперь массив А передается в подпрограмму, в ко¬ торой он описан оператором DIMENSION A (N, N), \л в вызы¬ вающей программе определено значение N = 2 (это значение передается в подпрограмму через список параметров), то подпрограмма будет оперировать не с заданным, а с искажен¬ ным массивом: А(1,1) А(2,1) А (1,2) или А(1,1) А(2,1) А (1,2) Очевидно, что искажения массива будут отсутствовать только в том случае, если действительное число строк и столб¬ цов матрицы совпадает с соответствующими границами двухмерного массива, указанными в операторе описания типа данных. Для того чтобы можно было оперировать с матрицами переменного размера, что соответствует условию, когда мак¬ симальный размер в общем случае превышает реальный, необходимо "правильно" перейти от двухмерного к вектор¬ ному представлению матрицы. Этот переход должен учиты¬ вать реальный размер матрицы. Так, для рассматриваемого 235
примера от двухмерной записи матрицы А (3.3) следует перейти к векторной записи, учитывающей то, что действи¬ тельный размер матрицы равен 2 X 2: А(1,1) А (2,1) А (1,2) А (2,2) Тогда в подпрограмму, которая предварительным зада¬ нием параметра N = 2 подготовлена к обработке матрицы размера 2X2, будут переданы первые четыре элемента век¬ торного массива и искажений матрицы не произойдет. Таким образом, при обращении к матричным подпро¬ граммам в тех случаях, когда предполагаемая обработка матриц различного размера, следует перейти от двухмерной записи матрицы к векторной. Этот (и обратный ему) переход производится с помощью специальных подпрограмм: в биб¬ лиотеке БНТР/РАФОС это подпрограмма LARRAY в подпро¬ граммах на языке "фортран" — FARRAY (см. ниже). Число ячеек памяти, используемых для хранения матриц, зависит от типа последних и от способа хранения в подпро¬ граммах. Различают матрицы общего вида, симметричные и диагональные и соответственно три способа хранения. При общем (полном) способе Хранения в памяти нахо¬ дятся все элементы матрицы, расположенные в "линейке" ячеек по столбцам. Требуемое число ячеек памяти равно NM, где N и М — число строк и столбцов матрицы. Для хранения симметричной матрицы может использо¬ ваться как общий, так и более экономный симметричный способ. В последнем случае в памяти размещается только верхняя треугольная часть матрицы, элементы которой располагаются по столбцам в последовательных ячейках памяти. При этом требуется N(N + 1) /2 ячеек памяти (при¬ нимается N = М). Для хранения диагональных матриц в принципе могут использоваться общий или симметричный способы хранения. Однако действительно существенная экономия емкости памяти достигается при диагональном способе хранения, когда в N последовательных ячеек помещаются только диагональные элементы матрицы. Способ хранения матриц в основной программе должен быть согласован со способом хранения в используемых подпрограммах. При необходимости изменения способа хранения могут применяться специальные подпрограммы 236
(подпрограммы MSTR и LAMSTR). Переменные, указываю* щие способ хранения матриц в вызываемых подпрограммах, могут принимать одно из следующих значений: 0 — общий способ хранения, 1 — симметричный, 2 — диагональный. 1. Подпрограмма LARRAY. Предназначена для преобразования одномерного массива в двухмерный и наобо¬ рот. Позволяет обращаться из программы пользователя, работающей с двухмерными массивами, к подпрограммам, работающим с массивами данных в векторной форме (с одномерными массивами). Обращение к подпрограмме: CALL LAR RAY (MODE, /, JL N, M, S, D) MODE — число, указывающее тип преобразования MODE = 1 — из одномерного массива в двухмерный, MODE = = 2 — из двухмерного массива в одномерный); / — действительное число строк в матрице D; J — действительное число столбцов в матрице D; N — число строк, определенных для матрицы D в опера¬ торе явного описания типа; М — число столбцов, определенных для матрицы D в операторе описания типа; S — вектор размерности к > / X J. При MODE = 1 вектор является входным, при MODE = 2 — выходным; D — матрица размера NX М, содержащая матрицу данных размера I X J. При MODE^= 1 матрица является выходной, при MODE = 2 — входной. Используемых подпрограмм нет. Матрица D хранится полным способом. Массив S и матрица D могут храниться в одних и тех же ячейках памяти. 2. Подпрограмма LAMSTR. Предназначена для изменения способа хранения матрицы. ^ Обращение к подпрограмме: CALL LAMSTR (A, R,N, MSA, MSR) А — вводимая матрица; R — результирующая матрица; N — число строк и столбцов матриц А и R; MSA — число, указывающее способ хранения матрицы А. Используемая подпрограмма — LALOC. Матрица R не может находиться в тех же ячейках, что и матрица А. 237
3. Подпррграммд LADCPY. Предназначена для залисй диагональных элементов матрицы в виде вектора (одномерного массива). Обращение к подпрограмме: CALL LADCPY (A, R, N, MS) А — исходная матрица; N — размер матрицы А; MS — число, указывающее способ хранения матрицы А; R — результирующий вектор длины N. Используемая подпрограмма — LALOC. 4. Подпрограмма LACONV. Предназначена для преобразования элементов из представления с обычной точностью в представление с удвоенной точностью. Обращение к подпрограмме: CALL LACONV (N, М, MODE, S, D, MS) N — число строк матриц S и D; M — число столбцов матриц S и D; MODE — число, указывающее тип преобразования: 1 — из Ъбычной точности в удвоенную; 2 — из удвоенной точности в обычную; S — матрица, содержащая числа обычной точности (вход* ная матрица — при MODE = 1, выходная матрица — при MODE = 2) ; D — матрица, содержащая числа удвоенной точности (выходная матрица — при MODE = 1, входная матрица — при MODE = 2). MS — число, указывающее, способ хранения матриц. Используемых подпрограмм нет. 5. Подпрограммма LAFADD. Предназначена для сложения двух матриц, слагаемые и результат хранятся полным способом. Обращение к подпрограмме: CALL LAFADD (А, В, R, N, М) А — первая вводимая матрица; В — вторая вводимая матрица; R — результирующая матрица; N — число строк в матрицахА,В, /?; М — число столбцов в матрицах А,В, /?, Используемых подпрограмм нет. 238
7. Подпрограмма LAFSUB. Предназначена для вычитания двух матриц. Все матрицы хранятся полным способом. Обращение к подпрограмме? CALL LAFSUB (А, В, R, N, М) Описание параметров дано в предыдущей подпрограмме. 8. Подпрограмма LAFTRA. Предназначена для транспонирования матрицы при полном способе хранения. Обращение к подпрограмме: CALL LAFTRA (A, R,N,M) А — транспонированная матрица; R — транспонируемая матрица; N — число строк в матрице А и столбцов в матрице R; М — число столбцов в матрице А и строк в матрице /?. Используемых подпрограмм нет. Матрица R не может храниться в тех же ячейках, что и матрица 4. 9. Подпрограмма LASMPY. Предназначена для умножения матрицы на скаляр. Обращение к подпрограмме. CALL LASMPY (А, С, R, N, М, MS) А — входная матрица; С — скаляр; R — выходная матрица; N — число строк в матрицах А и R; М — число столбцов в матрицах А и R; MS — число, указывающее способ хранения матриц А и R. Используемая подпрограмма — LALOC. 10. Подпрограмма LASCLA. Предназначена для присвоения ка>кдому элементу матрицы значения, равного заданному скаляру. Обращение к подпрограмме: CALL LASCLA (А, С, Ц, М. MS) -А — результирующая матрица; С — заданный скаляр; /V — число строк в матрице А; М — число столбцов в матрице А; MS — число, указывающее способ .хранения матрицы >4. Используемая подпрограмма — LALOC. 239
11. Подпрограмма LADCLA. Предназначена для присвоения каждому диагональному элементу значения, равного заданному скаляру. Обращение к подпрограмме: CALL LADCLA (А. С, N. MS) А — вводимая и после выполнения подпрограммы резуль¬ тирующая матрица; С — заданный скаляр; N — число строк и столбцов в матрице А ; MS — число, указывающее способ хранения матрицы А. Используемая подпрограмма — LALOC. 12. Подпрограмма LAMPRD. Предназначена для умножения двух матриц: R =АВ. Обращение к подпрограмме: CALL LAMPRD IА. В, R, N. М, MSA, MSB. L) А — первая вводимая матрица; В — вторая вводимая матрица; R — результирующая матрица; N — число строк в матрицах А и /?; М — число столбцов в матрице А и строк в матрице В; L — число столбцов в матрицах В и R; MS A, MSB — числа, указывающие способ хранения мат¬ риц» и В. Используемая подпрограмма — LALOC. Матрица R не мо¬ жет помещаться в тех же ячейках памяти, что и матрицы А и В. 13. Подпрограмма LAMLFF. Предназначена для умножения двух матриц, хранящихся полным способом. Обращение к подпрограмме: CALL LAMLFF (А, В, L, Л#, N, IA, 1В. С. /С. IER) А — первая заданная матрица размера L X М; В — вторая заданная матрица размера М X N; L — число строк матрицы А ; М — число столбцов матрицы А и строк матрицы В; N — число столбцов матрицы В; IA — заданное в операторе DIMENSION число строк матрицы А; IB - заданное в операторе DIMENSION число строк матрицы В; 240
/С — заданное в операторе DIMENSION число строк матрицы С; С — вычисляемая матрица размера L X N; IER — вычисляемый параметр ошибки. Значение IER = = 129 соответствует тому, что матрицы А, В или С имеют неправильный размер. Используемая подпрограмма — SVERTS. 14. Подпрограмма LAMPRD. Предназначена для умножения^ транспонированной матрицы, хранящейся полным способом, на другую матрицу, хранящуюся тем же способом. Обращение к подпрограмме: CALL LAFPRD IА, В, R, N, М, L) А — первая вводимая матрица; В — вторая вводимая матрица; R — результирующая матрица; N — число строк в матрицах А и В; М — число столбцов в матрице А и строк в матрице R; L — число столбцов в матрицах В и /?. Используемых подпрограмм нет. Матрица R не может находиться в тех же ячейках, что и матрицы А или В. 15. Подпрограмма LATPRD. Предназначена для умножения транспонированной матрицы на другую матрицу при произвольном способе их хранения. Обращение к подпрограмме: CALL LATPRD (Д В, R, N, М, MSA, MSB, L) А,В — первая и вторая вводимые матрицы; R — результирующая матрица; N — число строк в матрицах А и В', М — число столбцов в матрице А и строк в матрице R; L — число столбцов в матрицах В и /?; MS A, MSB — числа, указывающие способ хранения мат¬ риц» и В. Используемых подпрограмм нет. Матрица R не может занимать те же ячейки, что и матрицы А и В. 16. Подпрограмма LAMLFP. Предназначена для умножения матрицы А на транспонированную матрицу В, хранящуюся полным способом: /? = АТВ. Обращение к подпрограмме: CALL LAMLFP (А, В, Z., /И, /V, /4, IB, С, 1C, IER) А — первая заданная матрица размера L X М; 9 Заказ ИЗО 241
В — вторая заданная матрица размера NX М; L — число строк в матрицах А и С; М — число столбцов в матрицах А и В; N — число строк в матрице В и число столбцов в матри¬ це С; IA — заданный в операторе DIMENSION размер матри¬ цы А по строкам; /В — заданный в операторе DIMENSION размер матрицы В по строкам; /С — заданный в операторе DIMENSION размер матрицы С по строкам; С — вычисляемая матрица размера L X М; IER — вычисляемый параметр ошибки» Значение IER = = 129 означает, что матрицы А, В или С имеют неправильный размер. Используемые подпрограммы — SVERTS. 17. Подпрограмма LAMATA. Предназначена для умножения транспонированной матрицы на исходную с полу¬ чением результирующей симметричной матрицы. Обращение к подпрограмме: CALL LAMATA (A,R,N,M,MS) А — вводимая матрица; R — результирующая матрица; N — число строк в матрице А; М — число столбцов в, матрице А, размер матрицы R; MS — число, указывающее способ хранения матрицы А. Используемая подпрограмма — LALOC. Матрица R не может быть помещена в те же ячейки памяти, что и матри¬ ца А. Способ хранения матрицы R — симметричный. 18. Подпрограмма LAMINV. Предназначена для обращения квадратной матрицы, хранимой полным способом, методом Гаусса-Жордана. Обращение к подпрограмме: CALL LAMINV (A, N, D, L, М) А — обращаемая матрица, разрешаемая в процессе вы¬ числений. После выполнения подпрограммы А — матрица, обратная исходной; N — размер матрицы А; L , М — рабочий вектор размера N; D — определитель входной матрицы А. Используемых подпрограмм нет. 242
19. Подпрограмма LASIN. Предназначена для обращения симметричной положительно определенной матри¬ цы методом квадратного корня. Обращение к подпрограмме: CALL LASIN И, N, EPS, IER) А — вектор размера N (Л/ + 1) /2. При входе в подпрограм¬ му — верхняя треугольная часть исходной матрицы, хранимой по столбцам. При выходе из подпрограммы — верхняя треугольная часть обратной матрицы; N — размер исходной матрицы; EPS — вводимая константа, используемая в качестве допускаемой относительной погрешности вычислений; IER — индикатор ошибки: IER = 0 — ошибок нет; IER = = — 1 — нет результата либо из-за ошибки в параметре N, либо из-за того, что какое-либо подкоренное выражение (см. гл. 2) отрицательно, может быть из-за ошибок вычисле¬ ний; IER = К — указывает на потерю точности, т. е. при разложении матрицы А в произведение UTU подкоренное выражение на {К + 1)-м шаге оказывается положительным, но по абсолютной величине меньшем, чем ABS[EPS А (К + + 1,*+ 1)]. Используемая подпрограмма — LAFSD (см. ниже). 20. Подпрограмма LADATF. Предназначена для L {/-разложения положительно определенной матрицы, храня¬ щейся полным способом (/.—матрицас единичной диаго¬ налью) . Обращение к подпрограмме: CALL LADATF (A, LU, N, IA, IDGT, D1, 02, IPUT, EQUIL, ИМ, IER) А — массив, содержащий элементы исходной матрицы, хранящейся полным способом; N — порядок матрицы А; IA — порядок матриц А и L U в операторе размерности в вызывающей программе; IDGT — параметр проверки точности разложения: IDGT> >0 — предполагается, что элементы разложения имеютIDGT десятичных разрядов; IDGT = 0 — проверка на точность вы¬ числения не производится; LU — матрица порядка N, содержащая элементы тре¬ угольных матриц L ' и U (единичная диагональ матрицы L не хранится); 243
D1, D2 — компоненты для вычисления определителя D матрицы (D=D1 2°2); IPUT — вектор длины N, содержащий индексы переста¬ новки строк; EQUIL — вектор размера N, содержащий обратные абсо¬ лютных значений наибольшего элемента каждой строки; WA — параметр проверки точности, он существует, если IDGT>0; IER — индикатор ошибки: IER = 128 + N1 и IER = 32 + + N1 (N1 = 1 — при неустранимой ошибке; N1=2 — при потере точности). Используемая подпрограмма SVERTS. 21. Подпрограмма LAMFAC. Предназначена для L (У-разложения неособенной матрицы А. Обращение к подпрограмме: CALL LAMFAC [A, PER, N, I A, IER) A — при входе в подпрограмму — исходная матрица А размера N; при выходе из подпрограммы содержит элемен¬ ты матриц L и U (единичная диагональ матрицы L не хра¬ нится) ; PER — массив размерности не менее Л/, в котором со¬ держатся перестановки строк матрицы; N — порядок матрицы А; IA — граница первого измерения, указанная для матри¬ цы А в вызывающей программе, если она хранится в форме с двойной индексацией; если матрица хранится векторным способом, то /А = N; IER — индикатор ошибки: IER = 0 — нет ошибок; IER = = 3 — разложение не может быть выполнено. Используемых подпрограмм нет. 22. Подпрограмма LAFSD. Предназначена для U1 U факторизации симметричной положительно определен¬ ной матрицы А. Обращение к подпрограмме: CALL LAFSD (A, N, EPS, IER) А — массив размерности N(N + 1)/2, содержащий при входе в подпрограмму элементы верхней треугольной части симметричной матрицы А, расположенные по столбцам; при выходе из подпрограммы — элементы матрицы U; N — размер матрицы А; EPS — относительная погрешность вычислений; 244
IER — индикатор ошибки: IER = 0 — ошибки отсут¬ ствуют; IER = —1 — означает, что какое-то из подкоренных выражений неположительно (возможно вследствие ошибок округления); IER = К — указывает на потерю точности. Используемых подпрограмм нет. 23. Подпрограмма LADECP. Предназначена для разложения симметричной положительно определенной матрицы А. Обращение к подпрограмме: CALL LADECP (А, U, N, D1, D2. IER) А — массив размерности N[N + 1)/2, содержащий сим¬ метричную матрицу А размера N X N, хранящуюся симмет¬ ричным способом; N — порядок матрицы А; > UL - массив размерности N(N + 1)/2, содержащий элементы матрицы L; D1,D2 — компоненты определителя матрицы А (О = = D1 2°2); IER — индикатор ошибки: IER = 129 — матрица А явля¬ ется вырожденной. Подпрограммы решения систем линейных алгебраичес¬ ких уравнений. Данные подпрограммы базируются на факто¬ ризации матриц СЛАУ, выполняемых с помощью подпро¬ грамм, рассмотренных выше. Могут применяться как для обращения матриц систем уравнений, так и для их непосред¬ ственного решения. 1. Подпрограмма LAELMF. Предназначена для решения СЛАУ методом L (У-разложения. Обращение к подпрограмме: CALL LAELMF (А, В, IPUT, N, IA, X ) А — массив, содержащий элементы L (/-разложения матрицы А, полученные с помощью подпрограммы LADATF (массив L U); X — массив размера N элементов вектора решений СЛАУ; В - массив размера N элементов вектора правой части; IPUT — массив размера N (см. подпрограмму LADA TF); IA — порядок матрицы А в операторе размерности в вы¬ зывающей программе. Используемые подпрограммы отсутствуют. Перед исполь¬ 245
зованием подпрограммы LAELMF применяется подпрограм¬ ма LADATF. 2. Подпрограмма LAQT1F. Предназначена для решения нескольких СЛАУ общего вида с одинаковыми матрицами и различными правыми частяыяи методом L U- разложения. Обращение к подпрограмме: CALL LAQT1F (At М, N, IA, В, IDGT, WK, IER) А — матрица размера NX N, хранимая полным способом; М — число правых частей; N — число уравнений в СЛАУ; !А — чисто строк в операторе размерности для матриц А В в вызывающей программе; В — матрица размера N X М, содержащая лри входе в подпрограмму правые части уравнений. При выходе со* держит М решений систем; WK — рабочим массив размерности >N; IER, IDGT — см. описание подпрограммы LADATF. Используемые подпрограммы: LADATF, LAELMF, SVERTS. 3. Подпрограмма LAELMF. Предназначена для решения СЛАУ с симметричной матрицей методом квадрат¬ ного корня. Обращение к подпрограмме: CALL LAELMF (А^В, N, X) А — массив размерности W (/V + 1) /2, содержащий матри¬ цу U, соответствующую L TL -разложению матрицы А, полу¬ чаемый с помощью подпрограммы LADECP (массив V); В — массив, содержащий правые части системы; X — массив, содержащий элементы вектора решения; N — число строк матрицы. Используемых подпрограмм нет. Перед использованием этой подпрограммы применяется подпрограмма LADECP. 4. Подпрограмма LAQT1P. Предназначена для решения нескольких СЛАУ с одинаковыми симметричными матрицами и различными правыми частями методом квад¬ ратного корня. Обращение к подпрограмме: CALL LAQT1P (А, М, N, В, IB, IDGT, D1,D2, IER) A — массив размерности N{N + 1)72, содержащий при 246
входе в программу коэффициенты матрицы А, хранящейся симметричным способом (элементы верхней треугольной части записаны по столбцам); при выходе из подпрограммы массив содержит элементы матрицу L L JL -разложения; М — число различных правых частей; N — число уравнений в каждой системе; В — матрица размера N X М при входе в программу со¬ держит элементы правых частей систем; при выходе содер¬ жит эдемеоты решений систем; IB — число строк в операторе размерности матрицы В в вызывающей программе; IDGT, tEB, Qt « £22 — параметры, см. описание к под¬ программам LAD A TF и LADECP Используемые подпрограммы — LA&ECP, LAE1MP, SVERTS. Подпрограммы регрессионного ак&гтза. Позволяют непо¬ средственно решать задачи комплексного регрессионного анализа при минимальном использовании подпрограмм предварительной подготовки и обработки данных. 1. Подпрограмма STMIRI. Производит вычисле¬ ние средних значений, коэффициентов линейной регрессии, средних квадратических значений ошибок коэффициентов регрессии, стандартных' отклонений для массивов, которые содержат недостающие величины. Обращение к подпрограмме: CALL STMIRI (X, N. Mf IX, XMEAN. В. A. & IBASJNCD. IER\ X — заданная матрица наблюдений размера N X М; N — заданное число наблюдений над каждой перемен¬ ной; М — заданное число наблюдаемых переменных; IX — заданный в операторе DIMENSION размер матри¬ цы X по строкам (/ X > N); IB AS — заданный в операторе DIMENSION размер по строкам матриц А, В и 5, вычисленных при обращении к под¬ программе; )MEAN — вычисляемый вектор размерности М, содер¬ жащий среднее значение каждого из столбцов матрицы X; В — вычисляемая матрица порядка М, содержащая коэф¬ фициенты регрессии. Минимальный размер матрицы М X М; А — вычисляемая матрица порядка М, содержащая зна¬ чение нулевых членов, отсекаемых по оси ординат уравне¬ нием регрессий; 247
S — вычисляемая матрица, диагональные элементы ко¬ торой являются средними квадратическими отклонениями, а остальные элементы определяют средние квадратические ошибки коэффициентов регрессии; INCD — вычисляемый вектор, содержащий значения инци¬ дентности; указывает число пар наблюдений, использованных при вычислении матриц В, А и S; IER — вычисляемый параметр ошибки. Определяется по формуле IER = 32 + /V, где N = 1 — число пар наблюдений; N = 2 — число пар наблюдений. Используемая подпрограмма — SVERTS. 2. Подпрограмма STGT. Предназначена для обра¬ зования независимых переменных вплоть до степени М (наи¬ высшей указанной степени полинома) и вычисления средних, стандартных отклонений и коэффициентов корреляции. Эта подпрограмма обычно вызывается перед обращением к под¬ программам STMLTR, LAMINV при выполнении полино¬ миальной регрессии. Обращение к подпрограмме: CALL STGDA Т (/V, М. X, ХВ. ST, D, SU) N — заданное число наблюдений; М — заданная наивысшая степень полинома; X — заданная матрица размера N X (М + 1), в первый столбец которой помещаются данные для независимой пере¬ менной, а в последний — данные для зависимой переменной. При выходе из подпрограммы образованные степени неза¬ висимой переменной помещаются в столбцы с номерами от 2 до М\ ХВ — вычисляемый вектор размерности М + 1, содер¬ жащий выборочные средние независимых и зависимой пере¬ менных; ST — вычисляемый вектор размерности М + 1, содержа¬ щий выборочные стандартные отклонения независимых и зависимой переменных; D — вычисляемая матрица [только верхняя треугольная часть симметричной матрицы (М + 1) X (М + 1) ], содержа¬ щая выборочные коэффициенты корреляции; SU — вычисляемый вектор, содержащий выборочные ковариации независимых и зависимой переменных. Примечание. Число N должно быть больше, чем М + 1. Если Mr равно или больше пяти, то для получения 248
удовлетворительного результата вычисление с обычной точностью может быть недостаточно. 3. Подпрограмма STMLTR. Предназначена для выполнения анализа множественной линейной регрессии для зависимой переменной и множества независимых пере¬ менных. Используется для анализа множественной и поли¬ номиальной регрессии. Обращение к подпрограмме: CALL STMLTR (N, К, ХВ, ST. D. RX, RY, IS, B, SB. Tf A) N — заданное число наблюдений, N> К + 1 ; К — заданное число независимых переменных в данной регрессии; ХВ — заданный вектор размерности М, содержащий сред¬ ние значения всех переменных; М — число переменных; ST — заданный вектор размерности М, содержащий стандартные отклонения всех переменных; D — заданный вектор размерности М, содержащий диаго¬ нальные элементы матрицы ковариаций; RX — заданная матрица порядка К, содержащая обратные величины корреляций между независимыми переменными; RY — заданный вектор размерности К, содержащий корреляции между независимыми переменными и зависи¬ мой переменной; В — вычисляемый вектор размерности К, содержащий коэффициенты регрессии; SB — вычисляемый вектор, содержащий стандартные отклонения коэффициентов регрессии; Т — вычисляемый вектор размерности К, содержащий Г-значения; А — вычисляемый вектор, содержащий следующую информацию: А( 1) — свободный член уравнения регрес¬ сии; А (2) — множественный коэффициент корреляции; А (3) — стандартная ошибка оценки; А (4) — сумма квадра¬ тов, обусловленная регрессией (SSAR); А (5) — число сте¬ пеней свободы, связанное с SSAR; А (6) — средний квад¬ рат SSAR; А (7) — сумма квадратов отклонений от регрес¬ сии (££0/?); А (8) — число степеней свободы, связанное с SSDR; А (9) - средний квадрат SSDR; А (10) — F-значение. Используемых подпрограмм нет. 4. Подпрограмма STSTRG. Предназначена для выполнения анализа шаговой множественной регрессии за¬ висимой переменной и множества независимых переменных. 249
На каждом шаге в уравнение регрессии вводится переменная, которая имеет наибольшую частную корреляцию с зависимой переменной. Любая переменная из матрицы данных может быть обозначена как зависимая переменная. Любая неза¬ висимая переменная может быть введена или устранена из уравнения регрессии независимо от ее доли участия в урав¬ нении. Обращение к подпрограмме: CALL STSTRG (М, N, D, ХВ, Ю, PC, NS, Af L, В, S, Т, LL, IER) М — заданное число переменных в матрице данных; N — заданное число наблюдений; D — заданная матрица порядка М ковариаций (корре¬ ляций) . Эта матрица не сохраняется при выходе из подпро¬ граммы; ХВ — заданный вектор размерности /Передних значений; Ю — заданный вектор размерности М, содержащий коды для каждой переменной. JDU) = 0 — /-я независимая пере¬ менная , пригодная для отбора; /£(/) = 1 - /-я независимая переменная, обязательно вводимая в уравнение регрессии; !D(i) = 2 - / я переменная, не должна рассматриваться в уравнении регрессии; /£(/) = 3 - /-я зависимая перемен¬ ная; вектор Ю в процессе вычисления не сохраняется; PC — заданная константа, обозначающая часть общей дисперсии, определяемой какой-либо независимой перемен¬ ной. Независимая переменная, для которой эта величина не достигается, не включается в уравнение регрессии. Для обеспечения ввода в уравнения регрессии всех переменных следует задать PC = 0.0; NS — вычисляемый вектор размерности 5, содержащий следующую информацию. Л&(1) — номер зависимой пере¬ менной; NS (2) — число переменных, в первую очередь вклю¬ чаемых в уравнение регрессии; NS (3) — число переменных, не включаемых в уравнение регрессии; NS (4) — номер последнего шага; NS (5) — номер последней переменной, введенной в уравнение регрессии; А — вычисляемый вектор размерности 11, содержащий следующую информацию для последнего шага: А( 1) — сумма квадратов, полученная на данном шаге (S,); А (2) — отно¬ шение Р; А (3) — накапливаемая сумма квадратов (SCUM), А (4) — накапливаемое отношение (Pqum^(5) — сумма квадратов зависимой переменной; А (6) — коэффициент 250
множественной корреляции; А(1) — F-отношение для суммы квадратов, обусловленной регрессией; А (8) — стандартная ошибка оценки (остаточный средний квадрат); А (9) — свободный член; А (10) — коэффициент множественной кор¬ реляции, скорректированный с учетом степени свободы; А( 11) — стандартная ошибка оценки, скорректированная с учетом степеней свободы; L — вычисляемый вектор размерности К, содержащий номера независимых переменных в уравнении регрессии; К — число независимых переменных в уравнении регрес¬ сии; В — вычисляемый вектор размерности К, содержащий частные коэффициенты регрессии, соответствующие пере¬ менным в векторе L ; 5 — вычисляемый вектор размерности К, содержащий стандартные ошибки частных коэффициентов регрессии, соответствующие переменным в векторе L ; Т — вычисляемый вектор, содержащий Г-значения, соот¬ ветствующие переменным в векторе L ; L L — рабочий вектор размерности М; IER — вычисляемый параметр ошибки: IER = 0 — оши¬ бок не обнаружено; IER = 1 — остаточная сумма квадратов отрицательна или ведущий элемент в пошаговом процессе есть нуль. В этом случае переменная, которая вызвала данную ошибку, не входит в регрессию. Результат, предшествующий этому шагу, сохраняется, а текущий выбор прекращается. Примечание. Число наблюдений должно быть боль¬ ше, чем число независимых переменных плюс единица. Пере- менные, которые включаются в уравнение регрессии пользо¬ вателем, вводятся перед всеми другими независимыми переменными. В пределах множества этих переменных, первой выбирается та, которая определяет наибольшую часть дисперсии. Используемая подпрограмма — STOUT{NS,ANS, L, В, S, Т, NSTOP). Эта подпрограмма должна быть составлена пользователем и является подпрограммой вывода, которая печатает результаты каждого шага регрессионного анализа. NSTOP — заданный код выбора, который равен единице, если шаговая регрессия должна быть закончена, и равен нулю, если ока должна продолжаться. 5. Подпрограмма STSTEP. Производит выбор наилучшей регрессионной модели, используя шаговый алго¬ ритм. 251
Обращение к подпрограмме: CALL STSTEP [А. М, N, ALFA!, ALFAO, IH, В, ЮРТ, IER) А — заданная матрица исправленных сумм квадратов и векторных произведений независимых и зависимых пере* менных. Для хранения ее требуется вектор размерности (М + 1) X (М + 2) ; здесь же находятся вычисляемые коэф¬ фициенты регрессии и суммы квадратов ошибок; М — заданное число независимых переменных; N — заданное число точек данных; ALFA/ — заданный уровень значимости для исходной информации. Находится в пределех от 0 до 1; ALFAO — заданный уровень значимости для "удаления" не равен нулю; ЮРТ — заданный параметр, определяющий, необходимо ли просматривать результаты после каждого шага (при этом ЮРТ = 1) или же результаты необходимо выдать после того, как выбрана последняя модель (при этом ЮРТ = 0); IH — вычисляемый вектор размерности М, определяю¬ щий, включена ли первая независимая переменная в модель. Если IH (/) = 1, то переменная не включена в модель; В — вычисляемый вектор размерности М + 1, содержащий коэффициенты скорректированной модели; ЮРТ — вычисляемый параметр, указывающий, что отоб- рана последняя регрессионная модель. При этом ЮРТ = —1; IER — вычисляемый параметр ошибки. Определяется по формуле IER = 128 + N, где N может принимать следую¬ щие значения: N = 1,2— ошибка в подпрограмме STFD; N = 4 — переменные были проверены на дополнение или вытирание 2М раз; N = 5 — уровни значимости ALFAt и ALFAO были определены неверно; N = 6 — при попытке ввести очередную переменную в модель получается сингу¬ лярная подматрица. Используемые подпрограммы — STFD, STNOR, SVERTS. 6. Подпрограмма STFORC. Вводит отобранные независимые переменные в модель, используя прямой шаго¬ вый алгоритм. Обращение к подпрограмме: CALL STFORC (А, М, N, ALFAI, ALFAO. JXJH, В, ЮРТ, IER) А — заданная матрица исправленных сумм квадратов и векторных произведений независимых переменных. Хра¬ 252
нится симметричным способом как вектор размерности [М + 1) X (М +2) /2; здесь же находятся вычисляемые коэф¬ фициенты регрессии и суммы квадратов ошибок; М — заданное число независимых переменных; N — заданное число точек данных; ALFAI — заданный уровень значимости для исходной информации. Находится в пределах от 0 до 1; ALFAO — заданный уровень значимости для "удаления" переменных. Находится в пределах от 0 до 1 и должен быть не меньше ALFAI; JX — заданный вектор размерности М, содержащий единицы или нули в зависимости от того, необходимо ли введение данной переменной в модель; IH — вычисляемый вектор размерности М + 1, опреде¬ ляющий, включена ли первая независимая переменная в мо¬ дель. Если /А/ (/) = — 1, то переменная в модель не вклю¬ чается. Если IH (/) = 1, то переменная выключается в модель. При входе в подпрограмму IH (1) = 0; В — вычисляемый вектор размерности М + 1, содержа¬ щий коэффициенты скорректированной модели; ЮРТ — вычисляемый параметр, указывающий, отобрана ли последняя регрессионная модель. При этом ЮРТ = —1; IER — вычисляемый параметр ошибки. Определяется по формуле IER = 128 + N, где N может принимать следую¬ щие значения: N = 1,2— ошибка в лодпрограмме STFD; N = 4 — переменные были проверены на дополнение или "уда¬ ление" 2М раз; N — 5 — уровни значимости "ALFA1" и "ALFAO" были определены неверно; N = 6 — при попытке ввести очередную переменную в модель получается сингу¬ лярная подматрица. Используемые подпрограммы — STFD, STNOR, SVERTS. 7. Подпрограмма STLEAP. Предназначена для определения наилучших регрессионных подмножеств в пол¬ ной регрессионной модели. Обращение к подпрограмме: CALL STLEAP (RR, KZ, I JOB, IXS, STAT, /XV, NVAR, IXB, BEST, IB, WK, !W, IER) RR — заданный вектор размерности (2 X KZ * * 3 + + 4 * KZ) /3. Первые KZ X (KZ + 1) /2 ячеек содержат коэф¬ фициенты матрицы корреляции. Оставшиеся ячейки исполь¬ зуются как рабочая память; KZ — заданное число перемен¬ ных; 253
UOB — заданный вектор размерности 4: !JOB{\) — содержит число степеней свободы для вектора /?/?. Значение IJOB (1) должно быть не меньше, чем KZ; 1JOBX2) —опреде¬ ляет критерий выбора модели; 1JOB (3) — определяет макси¬ мальное число регрессий- При выходе из подпрограммы в UOB (3) помещается вычисляемое число наилучших найден¬ ных подмножеств; 1JQB (4) определяет максимальное число регрессий для каждого подмножества; WK — рабочий вектор размерности KZ X (2 X /705 (4) + + 6); 1W — рабочий вектор размерности 3 X KZ * * 2 + 9 X X/CZ + 12; /XS — вычисляемый вектор размерности KZ, содержа¬ щий расположение первого элемента длякаждого размера подмножества; STAT — вычисляемый вектор, содержащий значения критерия для каждого рассмотренного подмножества; IXV — вычисляемый вектор, содержащий ячейки первых элементов для каждого подмножества в NVAR; NVAR — вычисляемый вектор, содержащий ряд перемен¬ ных для каждого рассмотренного подмножества; IXВ — вычисляемый вектор, содержащий номер первой строки для каждого подмножества в BEST; BEST — вычисляемая матрица коэффициентов наилуч¬ шей регрессии; IB —размер строки в матрице BEST; IER — вычисляемый параметр ошибки. Определяется по формулам: IER = 128 * N и IER = 32 + N, где /V может принимать следующие значения: N = 1 — KZ или IJQB опре¬ делены неверно; N = 2 — ошибка в подпрограмме; N = 3 — сумма ошибок квадратов неположительна; N = 4 — появи¬ лись недопустимые значения в исходных данных; /V = 5 — одна из имеющихся четырех переменных имеет недопустимое значение. Используемые подпрограммы — STFD, STNOR, S WRTS. 5.2. ПОДПРОГРАММЫ НА ЯЗЫКЕ "ФОРТРАН" Подпрограммы матричной алгебры. Представленные под¬ программы выполняют те же функции, что и аналогичные подпрограммы БНТР/РАФОС. В связи с этим4 перед исполь¬ зованием данных подпрограмм необходимо ознакомиться 254
с особенностями матричных подпрограмм, описанных в § 5.1. В подпрограммах используется только полный способ хра¬ нения матриц. 1. Подпрограмма FAR RAY. Предназначена для преобразования одномерного массива в двухмерный и наобо¬ рот. Позволяет обращаться из программы пользователя, работающей с двухмерными массивами, к подпрограммам, работающим с массивами в векторной форме (см. §5.1). SUBROUTINE FAR RAY ( MODE, I, J, N, M, S. D> DIMENSION S (I, J). D(N.M) IF(MODE.EQ.I) GO TO 30 DO 20 KI-1,1 DO 10 K2=1,J S (K1,K2) =D (K1, K2) 10 CONTINUE 20 CONTINUE 30 DO 50 K1=1,l DO 40 K2=1,J D(K1,K2)=S(K1,K2) 40 CONTINUE 50 CONTINUE RETURN END Обращение к подпрограмме: CALL FARR A Y (MODE/, J, N, M, S, D\ Параметры имеют тот же смысл, что к одноименные параметры подпрограммы LARRAY (см. § 5.1). Используе¬ мых подпрограмм нет. 2. Подпрограмма FMTRA. Предназначена для транспонирования матрицы при полном способе хранения. SUBROUTINE FMTRA (A,B,N,M) DIMENSION A(N, M), В (M,N) DO 20 1=1,M DO 10 J=1,N В (I, J) =A (J, I) 10 CONTINUE 20 CONTINUE RETURN END 256
Обращение к подпрограмме: CALL FMTRA (A,B,N.M) Параметры подпрограммы описаны в подпрограмме LAFTRA (§ 5.1). Используемых подпрограмм нет. 3. Подпрограмма FMADD. Предназначена для сложения двух матриц, хранящихся полным способом. SUBROUTINE FMADD (А, В, R, N, М) DIMENSION A(N, М), В (N, М), R(N, М) DO 20 1=1, N DO Ю J=1, М 10 R(l, J)=A(I,J)+B(I,J) 20 CONTINUE RETURN END Обращение к подпрограмме: CALL FMADD {A, B, R, N, M) Параметры имеют тот же смысл, что и параметры под¬ программы LAFADD (см. § 5.1). Используемых подпро¬ грамм нет. 4. Подпрограмма FMSUB. Предназначена для вычитания двух матриц. Матрицы хранятся полным спо¬ собом. SUBROUTINE FMSUB (A,B,R,N,M) DIMENSION A(N,M), В (N,M), R (N,M) DO 20 1=1,N DO 10J=1,M R(I,J) =A(I,J) -B(I,J) 10 CONTINUE 20 CONTINUE RETURN END Обращение к подпрограмме: CALL FMSUB (A, B, R, N, M) Параметры имеют тот же смысл, что и параметры под¬ программы LAFSUB (см. § 5.1). Используемых подпро¬ грамм нет. 256
5. Подпрограмма FMSPR. Предназначена для умножения матрицы на скаляр. SUBROUTINE FMSPR (A,C,R,N,M) DIMENSION A (N,M), R (N,M) DO 20 1=1, N DO 10J=1,M R(I,J) =C*A(I,J) 10 CONTINUE 20 CONTINUE RETURN END Обращение к подпрограмме: CALL FMSPR (A, C, R, N, M) Параметры описаны в программе LASMPY (см. § 5.1). Используемых подпрограмм нет. 6. Подпрограмма FMCMEQ. Предназначена для присвоения каждому элементу матрицы значения, равного заданному скаляру. SUBROUTINE FMCMEQ (A.C,N,M) DIMENSION A(N,M) DO 20 1=1, N DO 10 J=1,M A(I,J)=C 10 CONTINUE 20 CONTINUE RETURN END Обращение к подпрограмме: CALL FMCMEQ [A, C, N, M) Параметры описаны в подпрограмме LASCLA (см. § 5.1). Используемых подпрограмм нет. 7. Подпрограмма FMCDEQ. Предназначена для присвоения каждому диагональному элементу квадратной матрицы значения, равного заданному скаляру. SUBROUTINE FMCDEQ (А,С,N) DIMENSION A(N,N) DO 10 1=1, N 257
A(I.I)=C 10 CONTINUE RETURN END Обращение к подпрограмме: CALL FMCDEQ (A,C,N) Параметры описаны в подпрограмме LADCLA (см. § 5.1). Используемых подпрограмм нет. 8. Подпрограмма FMPRD. Предназначена для умножения двух матриц. SUBROUTINE FMPRD(A,B,R,N,M,L) DIMENSION A (N,M), B(M,L), R(N.L) DO 30 J=1,L DO 201=1, N RV=0. DO 10 K=1,M R (l,J) =RV+A(I.K) *B (K.J) RV=R(I,J) 10 CONTINUE 20 CONTINUE 30 CONTINUE RETURN END Обращение к подпрограмме: CALL FMPRD (A, B, R, N, M, L) Параметры описаны в подпрограмме LAMPRD (см. § 5.1). Используемых подпрограмм нет. 9. Подпрограмма FMATB. Предназначена для умножения транспонированной матрицы на другую матрицу. SUBROUTINE FMATB (A,B,R,N,M,L) DIMENSION A(N,M), R(M,L) DO 30 1=1, M DO 20 J=1,L PV=0.0 DO 10K=1,N R (l,J) =PV+A (K,I)*B (K,J) PV=R (l,J) 258
10 CONTINUE 20 CONTINUE 30 CONTINUE RETURN END Обращение к подпрограмме: CALL FMATB [A, B, R, N, M, L) Параметры описаны в подпрограмме LAFPRD (см. § 5.1). Используемых подпрограмм нет. 10. Подпрограмма FMATA. Предназначена для умножения транспонированной матрицы на исходную с полу¬ чением результирующей симметричной матрицы, храня¬ щейся полным способом. SUBROUTINE FMATA(A,R,N,M) DIMENSION A (N,M), R<N,M) DO 30 1=1,M DO 20 J=1,M RV=0.0 DO 10 K=1,N R(I,J)=RV+A(K,1)*A(K,JJ RV=R(I,J) 10 CONTINUE 20 CONTINUE 30 CONTINUE RETURN END Обращаться к подпрограмме: CALL FMATA {A, R, N, M) Описание параметров дано в подпрограмме LAMA ТА (см. § 5.1). Используемых подпрограмм нет. 11. Подпрограмма FMINV. Предназначена для обращения квадратной матрицы, хранимой полным спо¬ собом, методом Гаусса. SUBROUTINE FMINV.(A,N.D,R,X,B,IER) DIMENSION A(N,N), R(N,N), B(N),X(N) IER1=1 DO 40 4=1 ,N 259
IF (IER1.EQ.-1) GO TO 40 DO 10 J=1,N B(J)=0.0 10 CONTINUE 'B(l)=1.0 CALL FGAUSS (A,X.B,N,D,IER) IF (IER.EQ.1) GO TO 20 IER1=—1 GOTO 40 20 DO 30 J=1.N R (J,l) =X (J) 30 CONTINUE 40 CONTINUE IER=IER1 RETURN END Обращение к подпрограмме: CALL FMINV (A, N, D. R, X. B. IER) A — обращаемая матрица; N — размер матрицы А; D — определитель матрицы; R— результирующая матрица; X — рабочий вектор размерности N; В — рабочий вектор размерности N; IER — индикатор ошибки: IER = 1 — матрица невырож¬ денная; /£/? = — 1 — матрица вырожденная. Используемая подпрограмма FGAUSS (см. § 6.2). 12. Подпрограмма FMSINV. Предназначена для обращения квадратной симметричной матрицы, хранимой полным способом методом квадратного корня. SUBROUTINE FMSINV (A,N,D,R,X,B) DIMENSION A(N,N), R(N,N), В (N), X(N) DO 40 1=1,N DO 10 J=1,N B(J)=0.0 10 CONTINUE В (I) =1.0 CALL FSQRT (A, N,B,X) 20 DO 30 J=1,N R(J,I)=X(J) 260
30 CONTINUE 40 CONTINUE RETURN END Обращение к подпрограмме: CALL FMSINV W, N, D, R. X, B, IER) A — обращаемая симметричная матрица; N — порядок матрицы А; D — определитель матрицы; R — результирующая матрица; X — рабочий вектор размерности /V; В — рабочий вектор размерности N; IER — индикатор ошибки: IER = 1 - матрица невырож¬ денная; IER = —1 — матрица вырожденная. Используемая подпрограмма — FSQRT. 13. Подпрограмма DECOMP [79]. Предназначена для L L/-разложения матрицы А и определения ее числа обу¬ словленности. SUBROUTINE DECOMP (NDIM,NACOND.IPVT I, WORK) INTEGER NDIM,N REAL A(NDIM,N), COND,WORK(N) INTEGER IPVT(N) С С ПРОГРАММА ВЫЧИСЛЯЕТ РАЗЛОЖЕНИЕ ВЕЩЕСТ- С ВЕННОЙ МАТРИЦЫ ПОСРЕДСТВОМ ГАУССОВА ИС- С КЛЮЧЕНИЯ И ОЦЕНИВАЕТ ОБУСЛОВЛЕННОСТЬ С МАТРИЦЫ. С NDIM=CTP04HAfl РАЗМЕРНОСТЬ МАССИВА, СО- С ДЕРЖАЩЕГО А С N=nOPflAOK МАТРИЦЫ С А=МАТРИЦА, КОТОРУЮ НУЖНО РАЗЛОЖИТЬ С ВЫХОДНАЯ ИНФОРМАЦИЯ: С А- СОДЕРЖИТ ВЕРХНЮЮ И НИЖНЮЮ ТРЕУГОЛЬ- С НЫЕ МАТРИЦЫ С C0ND=04EHKAОБУСЛОВЛЕННОСТИ А. С IPVT=BEKTOP ВЕДУЩИХ ЭЛЕМЕНТОВ. С WORK—РАБОЧИЙ ВЕКТОР С ОПРЕДЕЛИТЕЛЬ МАТРИЦЫ А МОЖНО ПОЛУЧИТЬ С ПО ФОРМУЛЕ: 261
ОО ООО о оо DET (A) =IPVT (N) *А (1,1) *А (2,2)«... * A (N, N) t REAL ЕК,Т,ANORM,YNORM,ZNORM INTEGER NM1,I,J,K,KP1,KB,KM1,M I PVT (N) =1 IF (N.EQ.1) GO TO 80 NM1=N—1 ВЫЧИСЛЯЕТСЯ 1-НОРМА МАТРИЦЫ A ANORM=0.0 DO 10 J=1,N T=0.0 DO 5 1=1, N T—T+ABS (A (l,J)) 5 CONTINUE IF (T. GT.ANORM) ANORM=T 10 CONTINUE ГАУССОВО ИСКЛЮЧЕНИЕ С ЧАСТИЧНЫМ ВЫБОРОМ ВЕДУЩЕГО ЭЛЕМЕНТА DO 35 K=1,NM1 КР1=К+1 ПОИСК ВЕДУЩЕГО ЭЛЕМЕНТА м=к DO 15 l=KP1,N IF (ABS (A (I,К)) .GT.ABS (A (M,K))) M=l 15 CONTINUE IPVT(K)=M IF (M.NE.K) I PVT (N) =—IPVT (N) T=A(M,K) A(M,K)=A(K,K) A(K.K)=T СЛЕДУЮЩИЙ ШАГ ПРОПУСКАЕТСЯ, ЕСЛИ ВЕДУЩИЙ ЭЛЕМЕНТ РАВЕН НУЛЮ IF (T.EQ.0.0) 00 ТО 35 С ВЫЧИСЛЯЮТСЯ МНОЖИТЕЛИ DO 20 l=KP1.N А{1, К) =-А(I, К)/Т 20 continOe С ПЕРЕСТАНОВКА И ИСКЛЮЧЕНИЕ ПО СТОЛБЦАМ DO 30 J=KP1,N T=A(MJ) AtM,J)=A(K.J) A(K,J)=T IF (T.EQ.0.0) GO TO 30 262
о о DO 25 l=KP1,N A(I,J)=A(I,J)+A(I,K)*T 25 CONTINUE 30 CONTINUE 35 CONTINUE РЕШЕНИЕ СИСТЕМЫ (ТРАНСПОНИР. ДЛЯ A) *Y=E DO 50 K=1,N T=0.0 IF (K.EQ.1) GO TO 45 К M1=K—1 DO 40 1=1, KM1 T=T+A(I,K) *WORK(l) 40 CONTINUE 45 EK=1.0 IF (T.LT.0.0) EK=—1.0 IF (A(K,K).EQ.0.0) GO TO 90 WORK (K) =- (EK+T) /А (K,K) 50 CONTINUE DO 60 KB=1,NM1 K=N—KB T=0.0 KP1=K+1 DO 55 1=KP1,N T=T+A(l,K)*WORK(K) 55 CONTINUE WORK (K) =T M=IPVT(K) IF (M.EQ.K) GO TO 60 T=WORK(M) WORK (M) =WORK (K) WORK(K)=T 60 CONTINUE YNORM=0.0 DO 65 l=1,N YNORM=YNORM+ABS (WORK (I)) 65 CONTINUE С РЕШАЕТСЯ СИСТЕМА A«Z=Y CALL SOLVE (NDIM,N,A,WORK,IPVT) ZNOR M=0.0 DO 70 1=1,N ZNORM=ZNORM+ABS (WORK (I)) 70 CONTINUE 263
С ОЦЕНКА ОБУСЛОВЛЕННОСТИ COND=ANORM*ZNORM/YNORM IF (COND.LT.I.O) COND=1.0 RETURN С СЛУЧАЙ МАТРИЦЫ 1 НА 1 80 £OND=1.0 IF (А(1,1) .NE.0.0) RETURN С ТОЧНОСТЬ ВЫРОЖДЕННОСТЬ 90 COND=1-OE+32 RETURN END Обращение к подпрограмме: CALL DECOMP (NDIM, N, A, COND, I PVT. WORK) A — массив, содержащий при входе в подпрограмму элементы матрицы А; при выходе из подпрограммы массив содержит элементы матриц L и U; " N — размер матрицы А; NDIM — число строк массива А; COND — число обусловленности матрицы А; IPVT — массив, содержащий перестановку ведущих элементов матрицы А; WORK — рабочий массив размерности N. 4 • Определитель матрицы А можно получить по форму¬ ле det/4 = IPVT(N) А (1,1) А (2,2) ...A(N,N). Используе¬ мых подпрограмм нет. Подпрограммы решения систем линейных алгебраичес¬ ких уравнений. Используются при обращении матриц и для решения нормальной системы уравнений регрессии. 1. Подпрограмма SOL VE [79]. Используется для решения СЛАУ после выполнения треугольного разложения матрицы системы с помощью подпрограммы DECOMP (см. выше). SUBROUTINE SOLVE (NDIM,N,A,B,IPVT) INTEGER NDIM,N,IPVT (N) REAL A (NDIM,N), В (N) С .РЕШЕНИЕ ЛИНЕЙНОЙ СИСТЕМЫ А*Х=В С ПОДПРОГРАММУ НЕ СЛЕДУЕТ ИСПОЛЬЗОВАТЬ, ЕСЛИ С DECOMP ОБНАРУЖИЛА ВЫРОЖДЕННОСТЬ С NDIM=CTP04HAfl РАЗМЕРНОСТЬ МАССИВА , СОДЕРЖА- С ЩЕГО А 264
С N =ПОРЯДОК МАТРИЦЫ С А =ФАКТОРИЗОВАННАЯ МАТРИЦА, ПОЛУЧЕННАЯ С ИЗ DECOMP С В =ВЕКТОР ПРАВЫХ ЧАСТЕЙ С IPVT «ВЕКТОР ВЕДУЩИХ ЭЛЕМЕНТОВ, ПОЛУЧЕННЫЙ С ИЗ DECOMP С В =ВЕКТОР РЕШЕНИЯ X. INTEGER KB,KM1,NM1,KP1,I,K, М REAL Т С ПРЯМОЙ ХОД IF (N.EQ.1) GO ТО 50 NM1=N—1 DO 20 K=1,NM1 KP1=K+1 M=IPVT(K) T=B (M) В <М) =В (К) В(К)=Т DO 10 l=KP1,N B(I)=B(I)+A(I,K) *Т 10 CONTINUE 20 CONTINUE С ОБРАТНАЯ ПОДСТАНОВКА DO 40 KB=1,NM1 KM1=N—КВ К=КМ1+1 В (К) =В (К) /А (К,К) Т=-В(К) DO 30 1=1,КМ1 RETURN END Обращение к подпрограмме. CALL SOL VE {ND/M, N, A, B, IPVT) A — массив, содержащий элементы факторизованной матрицы А; В — массив размерности N, содержащий правые части системы уравнений; 30 40 50 В (I) =В (I) +А (1,К) *Т CONTINUE CONTINUE В (1)=В (1) /А (1.1) 265
N, NDIM, IPVT — параметры, имеющие тот же смысл, что и одноименные параметры подпрограммы DECOMP. Используемых подпрограмм нет. 2. Подпрограмма FGAUSS решения СЛАУ мето* дом Гаусса с выбором ведущего элемента по строке. SUBROUTINE FGAUSS (АД,B,N,D,IER) DIMENSION A (N,N), X(N),B(N) IE R=—1 N1=N—1 DO 100 l=1,N1 M=l+1 IF(A(l,l).NE.O) GO TO 50 DO 10 K=M,N IF (A(K,I) .NE.O) GO TO 30 10 CONTINUE GO TO 135 30 DO 40 J=I,N V=A(J,J) A(I,J)=A(M,J) A(M,J)=V 40 CONTINUE V=B (I) B(I)=B(M) B(M)=V 50 IF (A(M,I) .EQ.0) GO TO 80 R=—A (M,l) /А (I,I) DO 60 J=I,N A(M,J)=A(M,J) +R*A(I,J) 60 CONTINUE В (M) =B (M) +R*B (I) 80 M=M+I IF (M.LE.N) GO TO 50 100 CONTINUE IF (A(N,N) .EQ.0) GO TO 135 X (N) =B (N) /А (N,N) l=N1 110 V=0.0 11=1+1 DO 120 M=I1,N V=VA(l,M)*XtM) 120 CONTINUE X(I) = (B(I)—V)/A(l,l) 266
1=1-1 IF (I.GE.1) GO TO 110 D=1 DO 130 1=1 ,N D=D*A(I,I) 130 CONTINUE I ER= 1 135 RETURN END Обращение к подпрограмме : CALL FGAUSS (A, X,B. N, D, IER)' A — матрица системы; X— вектор решения; В — вектор правых частей; N — размер матрицы А, векторов В и X; О— определитель матрицы; IER — индикатор ошибки: IER = 1 — ошибки нет; IER = = — 1 — матрица А является вырожденной. Используемых подпрограмм нет. 3. Подпрограмма FSQRT. Предназначена для решения СЛАУ методом квадратного корня. SUBROUTINE FSQRT (A,N,B,X) DIMENSION A(N,N), В(N), X(N),D(N,N) DIMENSION С (N,N) ,Y (N) REAL S1,S2,S3,S4 INTEGER l,J,K,L D (1,1) =A (1,1) Y (1)=B (1) /D (1,1) C(1,1)=1.0 DO 5 l=2,N D(I,1)=A(I,1) C(l,l) =1 .0 С (1,1) =A (1.1) /D (1,1) 5 CONTINUE DO 60 l=2,N M=l DO 20 J=2,M S1=0.0 DO 10 K=1,J-1 10 S1=S1+D(l,K) *C(K,J) 267
D (I, J) =A(I,J) —S1 20 CONTINUE IF (I+1.GT.N) GO TO 45 DO 40 J=I+1,N S2=0.0 DO 30 K=1,l—1 30 S2=S2+D(I,K)«C(K,J) С (l,J) = (A (l,J) —S2) /D(M) 40 CONTINUE 45 S3=0.0 DO 50 K=1,l-1 50 S3=S3+D(I,K)*Y(K) Y (I) = (В (I) —S3) /D (1,1) 60 CONTINUE X(N)=Y(N) DO 80 L=1,N-1 l=N-L S4=0.0 DO 70 K=I+1,N 70 S4=S4+C(I,K)*X(K) 80 X (I) =Y (I) —S4 RETURN END Обращение к подпрограмме: CALL FSQRT (A, N, В, X) A — матрица коэффициентов системы; N — размер матрицы А, векторов В и X; В — вектор правых частей; X — вектор решения. Используемых подпрограмм нет. 5.3. ПОДПРОГРАММЫ НА ЯЗЫКЕ "БЕЙСИК" Подпрограммы матричной алгебры. Приводимые ниже подпрограммы являются аналогами подпрограмм, напи* санных на языке "фортран" (см. § 5.2). Ввиду того что в них сохранены имена подпрограмм (с заменой первой буквы F на букву В) и используемых переменных, то для их применения достаточно ознакомиться с описанием соответ¬ ствующих подпрограмм § 5.2. 268
'1. Подпрограмма BARRAY. Предназначена для преобразования одномерного массива в двухмерный или обратно 5 REM 'SUBROUTINE BAR RAY' 10 IF M1=1 GO TO 40 15 FOR K1-1 TO I 20 FOR K2=1 TO J 25 S(K1,K2)=D(K1,K2) 30 NEXT K2 35 NEXT K1 40 FOR K1=1 TO I 45 FOR K2=1 TO J 50 D(K1,K2)=S(K1,K2) 55 NEXT K2 60 NEXT K1 65 RETURN 70 END 2. Подпрограмма BMTRA. Предназначена для транспонирования матрицы при полном способе хранения. 5 REM 'SUBROUTINE BMTRA' 10 FOR 1=1 ТО М 15 FOR J=1 TON 20 В (l,J)=A(J,l) 25 NEXT J 30 NEXT I 35 RETURN 3. Подпрограмма BMADD. Предназначена для сложения двух матриц, хранящихся полным слосббом. 5 REM'SUBROUTINE BMADD' 10 FOR 1=1 ТО N 15 FOR J=1 ТО М 20 R (l,J)=A (l,J)+B (l,J) 25 NEXT J 30 NEXT I 35 REtURN 4. Подпрограмма BMSUB. Предназначена для вычитания двух матриц. 269
5 REM 'SUBROUTINE BMSUB' ,10 FOR 1=1 TO N 15 FOR J=1 TO M 20 R(I,J)=A(I,J)-B<U) 25 NEXT J 30 NEXT I 35 RETURN 5. Подпрограмма BMSPR. Производит умноже¬ ние матрицы на скаляр. 5 REM 'SUBROUTINE BMSPR' 10 FOR 1=1 TO N 15 FOR J=1 TO M 20 R(l,J)=OA(l,J) 25 NEXT J 30 NEXT I 35 RETURN 6. Подпрогр а м м a BMCMEQ. Присваивает каждому элементу матрицы значения, равные заданному скаляру. 5 REM 'SUBROUTINE BMCMEQ' 10 FOR 1=1 ТО N 15 FOR J=1 TO M 20 A(I,J)=C 25 NEXT J 30 NEXT I 35 RETURN 7. Подпрограмма BMCDEQ. Предназначена для присвоения каждому диагональному элементу квадратной матрицы значения, равного заданному скаляру. 5 REM 'SUBROUTINE BMCDEQ' 10 FOR 1=1 ТО N \ A(I,I)=C 15 NEXT I 20 RETURN 8. Подпрограмма BMPRD. Предназначена для умножения двух матриц. 5 REM 'SUBROUTINE BMPRD' 270
10 FOR J=1 TO L 15 FOR 1=1 TO N \ RV=0. 20 FOR K=1 TOM 25 R (l,J) =RV+A (l,K) *B (K,J) 30 RV=R (l,J) \ NEXT К 35 NEXT I 40 NEXT J 45 RETURN 9. Подпрограмма ВМАТВ. Предназначена для умножения транспонированной матрицы на другую матрицу. 5 REM 'SUBROUTINE ВМАТВ' 10 FOR 1=1 ТО М 15 FOR J=1 ТО L \ PV=0. 20 FOR К=1 ТО N 25 R(I,J)=PV+A(K,I)*B(K,J) 30 NEXT К 35 NEXT J 40 NEXT I 45 RETURN 10. Подпрограмма ВМАТА. Предназначена для умножения транспонированной матрицы на исходную с по¬ лучением результирующей симметричной матрицы, хра¬ нящейся полным способом. 5 REM'SUBROUTINE ВМАТА' 10 FOR 1=1 ТО М 15 FOR J= 1 ТО М \ PV= 0. 20 FOR К=1 TON 25 R(I,J)=PV+A(K,I)*A(K,J) 30 NEXT К 35 NEXT J 40 NEXT I 45 RETURN 11. Подпрограмма BMINV. Предназначена для обращения квадратной матрицы, хранимой полным способом, методом Гаусса. 5 REM 'SUBROUTINE BMINV' 10 11=1 271
15 FOR 1=1 TO N 20 IF I1=-1 GO TO 65 25 FOR J=1 TO N \ B(J)=0 30 NEXT J 35 B(l)=1 40 GOSUB 100 45 IF 12=1 GO TO 55 50 I1=-1 \ GOTO 65 55 FOR J=1 TO N 60 R (J,I)=X(J) \ NEXT J 65 NEXT I 70 12=11 75 RETURN 100 REM 'SUBROUTINE BGAUSS' Используемая подпрограмма — BGAUSS. 12. Подпрограмма BMS/NV. Предназначена для обращения квадратной симметричной матрицы, хранимой полным способом, методом квадратного корня. 5 REM'SUBROUTINE BMSINV' 10 FOR 1=1 ТО N 15 FOR J=1 ТО N \ B(J)=0.0 20 NEXT J 25 В (I) =1.0 30 GOSUB 100 35 FOR J=1 TO N \ R (J,I) =X (J) 40 NEXT J 45 NEXT I 50 RETURN tOQ REM 'SUBROUTINE BSQRT' Используемая подпрограмма — BSQRT. Подпрограммы решения систем алгебраических урав- нений.' Приводимые программы аналогичны подпрограммам FGAUSS и FSQRTиз § 52. 1. Подпрограмма BGAUSS. Предназначена для решения-CJlАУ Ах = b методом Гаусса. Описание перемен¬ ных дано в § 5.2 (подпрограмма FGAUSS). 5 REM 'SUBROUTINE BGAUSS' 10 N1=N-1 15 FOR 1=1 TO N1 \ M=l+1 272
20 IF A (1,1) О 0 GO TO 55 25 FOR K=M TO N 30 IF A(K,I)<> 0 GO TO 40 \ NEXT К 35 GOTO 130 40 FOR J=l TO N \ V=A(J,J) \ A(I,J)=A(M,J) 45 A(M,J)=V \ NEXT J 50 V=B(I) \B (l)=B(M) \B(M)=V 55 IF A(M,l)=0 GO TO 75 \ R=-A(M,I)/A(I,I) 60 FOR J=1 TO N\ A (M,J) =A (M,J) +R*A (l,J) 65 NEXT J 70 В (M) =B (M) +R*B (1) 75 M=M+I \ IF M<=N GO TO 55 \ NEXT I 80 IFA(N,N)=0 GO TO 130 85 X (N) =B (N) /А (N,N) \ l=N1 90 V=0.0 \ 11=1+1 95 FOR M=I1 TO N \ V=V+A(I,M)*X(M) \ NEXT M 100 X (I) = (В (I) —V) /A(l,l) \ 1=1—1 105 IF l=>1 GO TO 90 \D=1 110 FOR 1=1 TO N \ D=D*A(I,I) \NEXT I 130 RETURN Используемых подпрограмм нет. 2. Подпрограмма BSQRT. Предназначена для решения СЛАУ методом квадратного корня. Описание пере¬ менных дано в § 5.2 (подпрограмма FSQRT). 5 REM 'SUBROUTINE BSQRT' 10 D (1,1) =А (1,1) \ Y (1) =В (1) /D (1,1) 15 С(1,1)=1.0 20 FOR 1=2ТО N \ D(I,1)=A(1,1) \С(1,1)=1.0 25 С(1,1) =A(1»I)/D(1,1) \ NEXT I 30 FOR I=2 ТО N \M=I 35 FOR J=2ТОМ\S 1=0.0 40 FOR K=1 TO J-1 \ S1=S1+D (l,K) *C (K,J) 45 NEXT К 50 D(I,J) =A(I,J) —SI \NEXTJ 55 12=1+1 60 IF I2>N GO TO 85 65 FOR J=l+1 TO N \ S2=0.0 70 FOR K=1 TO 1—1 \ S2=S2+D(I,K) *C(K,J) 75 NEXT К 80 C(I,J) = (A(I,J)-S2)/D(I,I)\ NEXT J 85 S3=0.0 10 Заказ 1130 273
90 FOR K=1TOI-1 \S3=S3+D(I,K)*Y(K) 95 NEXT К 100 Y(l) = (В (I) —S3)/0(1,1) \ NEXT I 105 X(N)=Y(N) -110 FOR L=1 TO N—1 \ l=N—L \ S4=0.0 115 FOR K=l+1 TO N\S4=S4+C(I,K)*X(K) 120 NEXT К 125 X (I) =Y(I) —S4 \ NEXT L 130 RETURN Используемых подпрограмм нет. Программа корреляционно-регрессионного анализа BCORREG. Предназначена для определения параметров уравнения парной линейной регрессии Y = А + В X и ста¬ тистического анализа качества полученных оценок (см. гл. 4). Помимо точечных и интервальных оценок параметров и линии регрессии при доверительной вероятности р = 0,95, программа позволяет определить математические ожидания и дисперсии переменных X и Y и коэффициент корреляции между ними, а также оценить его значимость. Данные вво¬ дятся с дисплея (операторы 60 ... 100), их объем заранее' не определяется (/V < 256). Вцвод данных производится на экран дисплея. Доверительные интервалы для линии регрессии выводятся в виде таблицы, в которую также вклю¬ чаются значения независимой переменной х,- и эксперимен¬ тально полученные значения у/. Программа работает в диало¬ говом режиме. 5 REM "PROGRAMM BCORREG" 10 REM "КОРРЕЛЯЦИОННО-РЕГРЕССИОННЫЙ АНАЛИЗ" 20 REM " ДАННЫХ " 30 DIM X (255) ,Y (255) ,Y4 (255) ,Y5 (255) ,Y6 (255) 35 DIM T (9) ,R1 (9) 40 DATA 12.71,4.3,3.18,2.78,2.57,2.45,2.37 41 DATA 2.31,2.26,0.997,0.95,0.88,0.81,0.75 42 DATA 0.71,0.67,0.63,0.6 50 V1=0 \ V2=0 \ W1 =0 \W2=0 \ Z=0 \ Z1 =0 60 FOR 1=1 TO 255 70 PRINT "ВВЕСТИ X (";l;") ИЛИЛ/Р и GOTO 150" 80 INPUT X(l) 90 PRINT "ВВЕСТИ Y("; I;")" 100 INPUT Y(I) 110 V1=V1+X(I) \ V2=V2+X(I)*X(I) 274
120 W1=W1+Y(I) \ W2=W2+Y (I) *Y (I) 130 Z = Z+X (I) *Y (I) \ N = 1 140 NEXT I 150 N 1 = N —1 \ N2=N—2 \ X1 = V1/N \ Y1 = W1/N 170 S1=V2—V1*V1/N \ S2=W2—W1*W1/N 190 X2=S1/N 1 \ Y2=S2/N 1 \ X3=SQR(X2) 200 Y3=SQR(Y2) \ S3=Z-Y1*W1/N 220 R=S3/SQR (S1*S2) 230 B=S3/S1 \ A=Y1—B*X1 250 PRINT 260 PR I NT" *******#*************************" 280 PRINT' ТОЧЕЧНЫЕ ОЦЕНКИ ПАРАМЕТРОВ " 290 PR I NT'k**»*»**»»*»»**»**»**»»»*»».»***»»" 300 PR I NT"M АТ.ОЖИ ДАН И Я: X CP="; Х1; "Y CP="; Y1 320 PRINT" ДИСПЕРСИИ: DX=";X2;" DY=",Y2 330 PRINT"CP.KBAflP.OTKJl.: SX=";X3;" SY=";Y3 340 PR I NT"KO300H ЦИЕНТ КОРРЕЛЯЦИИ R="; R 350 PRINT"ypABHEHHE РЕГРЕССИИ: Y=B*X+A" 360 PR I NT" ПАРАМ ЕТРЫ: B=";B;" A=";A 370 PRINT"**»*»******************»******»**" 380 PRINT" ЕСЛИ НУЖНЫ ИНТЕРВАЛЬНЫЕ ОЦЕНКИ " 381 PRINT" GOTO 400 382 PRINT"*********************************» 390 STOP 400 FOR 1=1 TO N \ Y5 (I) =A+B*X (I) 410 Z1=1 + (Y (I) —Y5 (I)) * (Y (I) —Y5(l)) \ NEXT I 440 S4=1/(N—2) \S5=SQR(S4) 460 C0=S5*SQR(V2/(N*S1)) \ C1=S5/SQR(S1) 480 IF N2>9 GOTO 540 490 FOR 1=1 TO 9 \ READ T(l) \ NEXT I 520 T1=T (N2) \ GO TO 550 540 T1=1.95+2.8/N2 550 T2=ABS (А) /СО \ T3=ABS(B)/C1 \ A1=A-T1*C1 570 A2=A+T1*C0 \ B1=B-T1*C1 \ B2=B+T1*C1 580 IF N2>9 GOTO 610 590 FOR 1=1 TO 9\ READRKI) \ NEXT I 600 R2=R1(N2) \ GOTO 615 610 R2=0.21 +3.73/N2 615 Z2=0.5*LOG ((1+R) /(1—R)) \ Z3=1/SQR (N-3) 620 Z4=Z2—1.96*Z3 \ Z5=Z2+1.96*Z3 630 DEF FNT (Q) = (EXP (Q) —EXP (—Q) /ЕХР (Q) +EXP (—Q)) 635 R3=FNT(Z4) \ R4=FNT(Z5) .275
640 IF N1>9 GOTO 655 \ T4=T(N1) \ GOTO 660 655 T4=1.95+2.8/N1 660 E=X3*T4/SQR (N) \ X4=X1-E \ X5=X1+E 670 X6=X3* (0.857—0.407/N1) \ X7=X6*X6 680 X8=X3* (1 +10.63/N 1) \ X9=X8*X8 690 PRINT"********»************»»»*****»*»»” 691 PRINT" РЕЗУЛЬТАТЫ ИНТЕРВАЛЬНОГО " 692- PRINT" ОЦЕНИВАНИЯ ПРИ ДОВЕРИТЕЛЬНОЙ " 693 PRINT" ВЕРОЯТНОСТИ Р^0.95 694 PR I NT"****************************»****" 700 IF R2>=R GOTO 715 705 PRINT" КОЭФФИЦИЕНТ КОРРЕЛЯЦИИ НЕЗНАЧИМ " 710 GOTO 720 715 PRINT" R МИН= ";R3;" R MAKC= ";R4 720 PRINT" X СР.МИН= X4? X CP.MAKC="; X5 725 PRINT"DX МИН= X7; "DX MAKC= ";X9 730 PRINT"CKO X МИН="; X6;"CKO X MAKC="; X8 735 IF T2<=T1 GOTO 770 \ IF T3<=T1 GOTO770 745 PRINT" А МИН= ";A1;" AMAKC=";A2 750 PRINT" В МИН= ";B1;" В МАКС="; В2 765 GOTO 775 770 PRINT" КОЭФФИЦИЕНТЫ АИВ НЕЗНАЧИМЫ" 775 PRINT 780 PR I NT"*********************************" 781 PRINT ЕСЛИ НУЖНЫ ДОВЕРИТЕЛЬНЫЕ " 782 PRINT" ИНТЕРВАЛЫ ДЛЯ ЛИНИИ РЕГРЕССИИ " 783 PRINT" ТО GOTO 800 784 PRINT'*********************************" 794 STOP 800 S6=T1*S5 810 FOR 1=1 TO N \D1=X (I) —X1 \ D2=D1*D1 830 D3=S6*SQR (D2/ (N*X2) +1/N) 840 Y4(I)=Y5(D—D3 \ Y6(I)=Y5(I)+D3 \ NEXT I 860 FOR 1=0 TO 16 880 PR INT"*********************************" 890 PRINT"X Y ЭКСП Y МИН Y CP Y MAKC" 895 PR I NT"*********************************" 900 FOR J=1 TO 15 \ J1 = J + 1*15 910 PRINT X(J1) ,Y(J1) ,Y4(J1) ,Y5 (J1) ,Y6(J1) 920 NEXT J 930 PRINT"*********************************" 931 PRINT" ДЛЯ ВЫВОДА СЛЕДУЮЩИХ ЗНАЧЕНИЙ" 932 PRINT" GOTO 950" 276
933 PR 940 STOP 950 NEXT I 960 END 5.4. ПРОГРАММЫ ДЛЯ МИКРОКАЛЬКУЛЯТОРОВ Программы матричной алгебры. 1. Программы ПМК 5/1— ПМК 5/4. Предназначены для выполнения умно¬ жения матрицы А размером т X п на матрицу В размером л X р, где п < 6. Элементы матриц вещественные. Программа ПМК 5/1 служит для умножения столбца на строку (л = 1). 4 П4 С/П КП4 БП 02 ПО С/П П1 С/П П2 С/П ПЗ С/П 4 П4 КИП4 ИПО X С/П БП 16 ИП1 ПО БП 14 ИП2 ПО БП 14 ИПЗ ПО БП 14 A. Инструкция к программе ПМК 5/1 для т < 9, р < 4: В/О; С/П; ввести элементы матрицычгголбца: ахх С/П; ...; ат i С/П. Б/П 0,6; ввести элементы матрицы-строки^ Ьц С/П; ...; ЬрХ С/П. БП 14; подавать команду С/П; после каждого останова в РХ значение элемента первого столбца матрицы-произведения С: схх; ...; стх; БП 22; подавать команду С/П; после каждого останова в РХ-значения элемен¬ тов второго столбца матрицы С. Для получения элементов третьего столбца — БП 26 С/П; - четвертого — БП 30 С/П. Б. Инструкция* к программе ПМК 5/1 для^/п > 9, р < 4: выполнить программу по инструкции п. А для первых девяти элементов матрицы >4, получить девять первых строк матри¬ цы С. Повторить программу для следующих девяти (или оставшихся) элементов матрицы А, при этом элементы матрицы В вводятся снова. В результате будут получены очередные девять строк (или оставшиеся) матрицы С. B. Инструкция к программе ПМК 5/1 для т < 9, р > 4: выполнить программу по инструкции п. А для первых четы¬ рех элементов матрицы В, получить первые четыре столбца матрицы С; БП 06, ввести следующие четыре (или остав¬ шиеся) элемента матрицы В, получить следующие четыре столбца матрицы С и т. д. C. Инструкция к программе ПМК 5/1 для т > 9, р > 4: ввести первые девять элементов матрицы А, действовать по 277
инструкции п. В до получения девяти первых строк матри¬ цы С. Ввести следующие девять элементов (оставшиеся элементы) матрицы А, получить элементы следующих девяти строк матрицы С. Ввод элементов матрицы В повторяется. Программа ПМК 5/2 служит для умножения матриц разме¬ ра тХ п пп X р при л=2. 4 П4 С/П КП4 БП 02 ПО С/П ПТ С/П П2 С/П ПЗ С/П 4 П4 КИП4 ИПО X КИП4 ИП1 X + С/П БП 16 ИП2 ПО ИПЗ П1 БП 14 A. Инструкция к программе ПМК 5/2 для т < 4, р < 2: В/О; С/П; ввести построчно элементы матрицы А: ап С/П; ...; ап,2 С/П; БП 0,6; ввести по столбцам элементы матри¬ цы В: Ьц С/П; Ь12 С/П; ...; С/П. БП 14; подавать команду С/П; после каждого останова в РХ — элементы первого столбца матрицы С, начиная с сп. После вывода Cm 1 — БП 26. Подавать команду С/П; после каждого оста¬ нова в РХ — значение с/*, начиная с с12. Б. Инструкция к программе ПМК 5/2 для т > 4, р < 2: В/О; С/П; ввести построчно элементы первых четырех строк матрицы А и, действуя то инструкции и* А, получить первые восемь элементов матрицы С — от сц до с12; В/О; С/П; ввести элементы следующих четырех строк матрицы А; БП 0,6; повторить ввод элементов bjj и получить еще восемь элементов матрицы С. B. Инструкция к программе ПМК 5/2 для т < 4; р>2: выполнить программу по инструкции п. А, используя эле¬ менты первых двух столбцов матрицы В; БП 0,6; ввести элементы двух следующих столбцов матрицы В и получить значения двух очередных столбцов матрицы-произведения. „ Г. Инструкция к программе ПМК 5/2 для т > 4; р > 2: выполнить программу по инструкции п. В для первых четы¬ рех строк матрицы А и получить элементы четырех строк матрицы С. По инструкции п. В ввести следующие восемь элементов матрицы А. Ввод столбцов матрицы В повторить, получить четыре следующие строки С и т. д. Программа ПМК 5/3 предназначена для умножения матриц размера тХ п пп X р при л = 3. 4 П4 С/П КП4 БП 02 ПО С/П П1 С/П П2 4 П4 КИП4 ИПО X КИП4 ИП1 X + КИП4 ИП2 X + С/П БП 13 278
A. Инструкция к программе ПМК 5/3 для т < 3, р = 1: В/О; С/П; ввести построчно элементы матрицы А: ап С/П; ...; *эз С/Л; БП 06; ввести элементы матрицы В: Ьц С/П; ..Ьц. Подавать команду С/П; после каждого останова вРХ — значением/!,начиная ссп. Б. Инструкция к программе ПМК 5/3 для т > 3, р = 1: выполнить программу по инструкции л.А для первых трех строк матрицы А; получить значения си; с12;с31; далее В/О; С/П; ввести построчно элементы трех следующих строк матрицы А. БП 11. Подавать команду С/П; после каждого останова в РХ — следующие три элемента матрицы-произве¬ дения. B. Инструкция к программе ПМК 5/3 длят< 3,р>1: вы¬ полнить программу по инструкции п. А с первым столбцом мат¬ рицы В. После получения сц — БП 0,6; ввести элементы вто¬ рого столбца В; получить элементы второго столбца Си т. д. Г. Инструкция к программе ПМК 5/3 для т > 3, р > 1: выполнить программу по инструкции п. А для первых трех строк матрицы А и первого столбца 0. Далее работать по инструкции п. В. После получения трех строк С — В/О; С/П; ввести следующие три строки А, ввод столбцов В повторять. Программа ПМК 5/4 позволяет вычислять элементы матрицы-произведения при п < 6. Каждое применение про¬ граммы обеспечивает вычисление одного элемента с/у. 1 4 ПО С/П КПО КИПО БП 03 1 3 ПО БП 03 1 4 ПО О КИЛО КИПО X + С/П БП 1 7 Инструкция к программе ПМК 5/4: В/О; С/П; ввести элементы /-й строки матрицы A; afl С/П; ...; ain С/П. БП08 С/П; ввести элементы /-го столбца матрицы В: by С/П; ..bnj С/П; БП 13; п раз подать команду С/П. В РХ — с/у матрицы-произведения. 2. Программы ПМК 5/5—ПМК 5/9. Предназначены для вычисления произведения матриц вида АТА. Размер исходной матрицы И —тХ п. Программа ПМК 5/5 обеспечивает вычисления, если ис¬ ходная матрица А представляет собой строку (т = 1), а число п не превышает десяти. П2 П1 1 3 ПО ПД С/П КПО FL1 06 ПП 26 ПП 18 ПП 25 БП 12 КИПД КИПО X С/П FL 1 18 В/О КИП2 ИП2 Л1 ИПД ПО 1 - ПД В/О 279
Инструкция к программе ПМК 5/5: В/О; п С/П; ввести все элементы матрицы: a u С/П; ...; после ввода вщ пода¬ вать команду С/П; с каждым остановом в РХ — построчно значения элементов матрицы-произведения, начиная с диаго¬ нальных (матрица С симметрична относительно главной диагонали): сп; с12; ...; с1п; с22; ... Программа ПМК 5/6 используется, если в исходной матрице А т = 2, п < 5. П2 2 X П1 1 4 ПЗ ПО С/П КПО FL1 08 ИП2 П1 ИПЗ ПО ПП 35 КИП2 ИП2 П1 КИПЗ КИПЗИПЗПО КИПОПД КИПО ПС ИПЗ ПО ПП 35 БП 18 ИПД КИПО X ИПС КИПО X + С/П FL1 35 В/О Инструкция к программе ПМК 5/6: В/О; п С/П; ввести по столбцам элементы матрицы А: аи С/П; a2i С/П; а12 С/П; ... После ввода а2п подавать команду С/П. После каж¬ дого останова в РХ по строкам выводятся элементы матрицы- произведения, начиная с диагональных (использована сим¬ метрия матрицы С): сп; с12; ...; Су,; с22; ... Программа ПМК 5/7 служит для вычисления произве¬ дения А ТА, если m = п = 3. 9 П1 1 4 по С/П КПО FL1 05 3 П1 1 4 ПО пп 38 2 П1 1 1 ПО ИПА ПД ИП9 ПС ИП8 ПВ ПП 38 ИП7 Fx2 ИП6 Fx2 + ИП5 Fx2 + С/П 0 ИПД ПП 52 ИПС ПП 52 ИПВ ПП 52 С/П FL1 38 В/О КИПО X + В/О Инструкция к программе ПМК 5/7: В/О; С/П; ввести по столбцам элементы матрицы А: ап С/П; э21 С/П; ...; а 12 С/П; ...; после ввода а33 подавать команду С/П; с каж¬ дым остановом в РХ — значения элементов матрицы-произ¬ ведения по строкам, начиная с диагональных (использована симметрия матрицы С). Программа ПМК 5/8 используется, если исходная матри* ца А содержит один столбец элементов. Результатом произ¬ ведения А ТА является число. 0 С/П Fx2 + БП 01 Инструкция к программе ПМК 5/8: В/О; С/П; вводить элементы исходной матрицы: ац С/П. После каждого оста- 280
т нова в РХ — значение 2 а*х. Число т не ограничено. / = 1 Программа ПМК 5/9 используется, если исходная матри¬ ца А содержит два столбца элементов; число элементов т в столбце не более пяти. П2 2 X П1 1 4 ПО С/П КПО FL1 07 1 4 ПП 33 1 4 ИП2 — ПЗ ПП 33 1 4 ПО 0 КИПО КИПЗ X + FL2 26 С/П ПО ИП2 П1 0 КИПО Fx2 + FL1 37 С/П В/О Инструкция к ПМК 5/9: В/О; т С/П; ввести по столб¬ цам элементы исходной матрицы; после ввода ат2: С/П вРХ— Сц; С/П; в РХ — с22; С/П; в РХ — с21 = с12. 3. Программы ПМК 5/10—ПМК 5/13. Предназначены для вычисления определителей матриц. Элементы матриц вещественные. Программа ПМК 5/10 служит для вычисления определи¬ теля матрицы А второго порядка. С/П С/П X XY С/П X XY - С/П Инструкция к программе ПМК 5/10: В/О; ввести по¬ строчно элементы матрицы: а// С/П, начиная с *ц. После ввода *22: в РХ — значение det (А). Программа ПМК 5/11 служит для вычисления опреде¬ лителя матрицы третьего порядка. 4 П4 9 ПО С/П КП4 FL0 04 ИП5 ИП9 X ИП6 ИП8 X - X ИПВ ИП6 X ИП5 ИПС X - ИПА X + ИП8 ИПС X ИП9 ИПВ X - ИП7 X + ПО С/П Инструкция к программе ПМК 5/11: В/О; С/П; ввести построчно элементы матрицы а/у С/П, начиная с *ц. После ввода а33: в РХ и РО — det (А). Программа ПМК 5/12 [76] является универсальной и служит для вычисления определителя матрицы порядка /?< 5. П4 1 4 П2 КИП0ИП0 П1 С/П ИП4 -а- КП2 FL1 07 1 4 ПЗ ИПО П1 Сх КП2 FL1 19 ИПО ИП2 + П1. П2 ИПЗ — Fx*0 36 С/П ПП 83 БП 23 КИПО ИП4 С/П КИП2 — X П4 ИПО ПЗ Fx*037 FB* С/П КИП2 281
XY + КП1 FL3 37 ИП1 ИПО + ПЗ 1 4 П1 П2 КИП1/—/ ПП 83 ИПЗ + ПЗ ИП1 - Fx=0 64 ИПО П1 КИПЗ КП2 FL1 77 БП 13 ИПО XY t КИПЗ X КИП1 + КП2 F-> FLO 85 XY ПО В/О Инструкция к программе ПМК 5/12: В/О; п ПО; ввести построчно элементы матрицы: а/у С/П, начиная с ап. После ввода апп : в РХ — значение det И ). Программа ПМК 5/13 позволяет вычислять определитель матрицы произвольного порядка п. Для этого матрица {а!? преобразуется в матрицу {а!? “ 1ч ; матрица {а!? “ — ( I — в матрицу |а:? 'у и т.д. [17], пока не будет получено число aiJ * = Г.!?' ,gn [»S?’ .I?'J Определитель исходной матрицы А вычисляется по формуле 6etA =a\l V?, где 1 при /1 = 1,2; i?*]*-2 при л > 3 V* =3 ИЛИ 7 = а‘,?) teif* ]2 [ви* ]3 • • • [«п * ]л - 2. Если в процессе вычислений какой-то элемент в!*1 оказывается равным нулю, перед переходом к очередному этапу понижения степени над первой строкой определителя следует выполнить тождественное преобразование, прибавив, к ней элементы любой другой строки, так чтобы ап Ф 0. по С/П П1 С/П П2 С/П ПЗ С/П П4 С/П П5 С/П П6 С/П П7 С/П П8 С/П П9 С/П ПА С/П ПВ С/П ПС С/П пд С/П ИПО ИП8 X ИП1 ПП 62 ИПО ИП9 X ИП2 ПП 62 ИПО ИПА X ИПЗ ПП 62 ИПО ИПВ X ИП4 ПП 62 ИПО ИПС X ИП5 ПП 62 ИПО ИПД X ИП6 ИП7 X - С/П В/О Инструкция к программе ПМК 5/13 для п < 7: В/О; ввести элементы двух верхних строк матрицы А: аи С/П; a J2 С/П; ...; а^ С/П; БП 14; а2\ С/П; ...; Эгп С/П. БП 28. 282
Подавать команду С/П,- после каждого останова в РХ - значения а [" 1*; а I? 1 * и т. д. После получения а [*{„ J \ >: БП 14; ввести элементы третьей строки (аналогично — по¬ следующих) : а31 С/П; ..а3п С/П; БП 28; далее подавать команду С/П; получить значения элементов второй строки новой матрицы и т. д. После получения всех элементов матри¬ цы jajy ~1*г ПМК 5/13 применяется к ней и т.д. Когда J i*\ будет получено значение a\i , вычисляется у и определитель det [А). Инструкция к программе ПМК 5/13 для п> 7. Элементы исходной матрицы |а|у группируются в массивы, каждый из которых содержит первый I а и ... а 17 0/и *11*18 *1.13 *11*1, 14 */?!*/?, 14 *Я1*Я8 •••*/), 13 , столбец и еще до шести столбцов исходной матрицы |*)у ^ • В соответствии с инструкцией для п < 7 выполняется обра¬ ботка первого массива и находятся элементы *!?~1*; ..а и! ~ 1); ..*„* ~ ^ , затем обрабатывается второй массив и т. д. 4. Программы ПМК 5/14 и ПМК5/15. Предназна¬ чены для вычисления обратных матриц (элементы матриц вещественные). Программа ПМК 5/14 служит для обращения матрицы размера 2X2 П6 С/П П1 С/П П2 С/П П7 ИП6 X ИП1 ИП2 X - П4 (-1 П5 ИП6 ИП4 ПЗ ИП7 ИП4 ч- ПО ИП1 ИП5 + П1 ИП2 ИП5 + П2 С/П Инструкция к программе ПМК 5/14: В/О; ввести по¬ строчно элементы матрицы А: ап С/П; ...; а2г С/П. Ре¬ зультаты^11 — в РО, а12 — в Р1, а21 — в Р2 и РХ, а22 — в РЗ. Программа ПМК 5/15 служит для обращения матрицы размера 3X3. Л7 С/П П8 С/П П9 С/П П4 С/П П5 С/П 283
П6 С/П П1 С/П П2 С/П ПЗ 3 ПО ИП4 ИП7 ПД /-/ ПС ИП5 ИПД ИП8 X ПА ИП6 ИПД ИП9 X - ПВ ИП1 ИП7 + ПД /-/ П6 ИП2 ИПД ИП8 X - П4 ИПЗ ИПД ИП9 X - П5 ИП8 ИП7 + П1 ИП9 ИП7 -£■ П2 ИП7 Fl/x ПЗ ИПА П7 ИПВ П8 ИПС П9 FLO 19 С/П Инструкция к программе ПМК 5/15: В/О; ввести по¬ строчно элементы матрицы А : ап С/П; ...; а33 С/П, Ре¬ зультаты: вР7/— а11; в Р8 — а12; в Р9 — а13; в Р4 — а21; в Р5-а22; в Р6 -а23; в Р1 -а31; в Р2 -а32; в РЗ-а33. Программы решения систем линейных алгебраических уравнений. 1. Программы ПМК 5/16—ПМК 5/21. Предназначены для нахождения корней системы линейных уравнений: {а„х, + а12х2 + ...+а1яхл =S,; ап 1 + ап 1X2 +.. • + аппхп — Sff. Программа ПМК 5/16 служит для вычисления корней системы двух линейных уравнений. 6 П4 ПО С/П КП4 FLO 03 ИП7 X ИПА ИП9 X - ИП7 ИПВ X ИП8 ИПА X -f- П2 ИП9 ИП8 ИП2 X - ИП7 + П1 СП Инструкция к программе ПМК 5/16: В/О; С/П; atl С/П; а,2 С/П; 5j С/П; а21 С/П; а22 С/П; S2 С/П. Результаты: вРХиР1 — хj, в Р2 — х2. Программа ПМК 5/17 служит для вычисления корней системы трех линейных уравнений. 1 4 ПО 3 П2 3 П1 С/П П4 С/П ИП4 -е- КПО FL1 09 FL2 05 ИП5 ИПВ — ИПА ипд- П5 X ИП7 ИПД — П7 ИП8 ИПВ - П8 X — ИП6 ИПС — ИП5 X ИП9 ИПС - П6 ИП7 X — + ПЗ ИП8 ИПЗ ИП6 X — ИП5 + П2 ИПВ ИП2 ИПД X ИПЗ ИПС X - П1 С/П Инструкция к программе ПМК 5/17: : В/О; С/П; ввести построчно коэффициенты уравнений, включая свободные члены: ап С/П; ...; 813 С/П; Sj С/П; a2i С/П; ...; S3 С/П. Результаты: в РХ и PI — xt; в Р2 — х2; в РЗ — Х3. 284
Программа ПМК 5/18 [76] служит для решения линейной системы из п < 4 уравнений. П4 1 4 П2 ИПО П1 С/П ИП4 _2_ КП2 FL1 06 1 4 ПЗ ИПО П1 FL1 23 КИПЗ С/П БП 19 Сх КП2 FL1 24 КП2 ИПО ИП2 + П1 П2 ИПЗ — Fx#042 С/П ПП 84 БП 28 КИПОИПО ПЗ С/П КИП2 — П4 С/П КИП2 — ИП4 -г- КП1 FL3 49 ИП1 ИПО + ПЗ 1 4 П1 П2 КИП1 /—/ ПП 84 ИПЗ + ПЗ ИП1 — Fx=0 65 __ИП0 П1 КИПЗ КП2 FL1 78 БП 12 ИПО XY t КИПЗ X КИП1 + КП2 F-> FL0 86 F- ПО В/О Инструкция к программе ПМК 5/18: п ПО; В/О; ап С/П; . . .; эiff С/П; Si С/П; аг\ С/П; а22 С/П; ...; Sp С/П. После останова хх — в РХ и РД; С/П; после останова х2 — в РХ и PC; С/П; х3 - в РХ и РВ, СП; х4 - в РХ и РА. Программа ПМК 5/19 [76] предназначена для нахож¬ дения корней системы из пяти линейных уравнении для ап = = 1. ИПД XY t ,F-> t КИПОХ КИПД + ПП 89 Fx<0 03 F-> XY пд С/П ИПД ИПО — 3 + Fx>0 03 F-> КИПД- ИПД по F-* С/П КИПО - XY FBx XY ПП 89 Fx=0 29 F-> XY ПД 1 3 ПО П1 F-* КИШ /-/ t F-> t КИПДХ КИП1 + КПО ПП 90 Fx=0 52 F-> XY пд ИП1 ИПО 6 — — Fx=0 48 m F-> КИПД КПО Сх ПП 89 Fx<0 75 + 1 3 по БП 14 кпд F-> ИПД 1 пд 1 - в/о Инструкция к программе ПМК 5/19: В/О; 13 ПО; ; 5 ПД; а 12 ПС; а |з ПВ; а14 ПА, а^ i П9; St П8 ; о ПЗ , П4, П5, П6, П7; 821 С/П; а 22 С/П; • • • 0 S2 С/П; в л I С/П; Ss С/П. Результаты: хх — в PC; *г ■ - в РВ; х3 ■ - в РА; ; х4 - в Р9; х5 - в Р8. Программы ПМК 5/20 и ПМК 5/21 предназначены для нахождения корней системы линейных уравнений, если матрица коэффициентов системы приведена к верхней тре¬ угольной с ненулевыми диагональными элементами. Программа ПМК 5/20 вычисляет корни системы урав¬ нений при п < 8. 1 3 ПО П2 0 П5 С/П С/П -г ПД 285
С/П X ПЗ БП 36 С/П X ПЗ БП 24 С/П X ПЗ КИП5 ИП5 П1 КИП2 ИП2 П4 ИПЗ С/П КИП4Х + FL1 30 С/П XY — С/П КПО БП 20 Программа ПМК 5/21 вычисляет корни системы урав- нений при п < 12. 1 4 ПО С/П ПП 91 С/П X ПП 88 С/П X пп 84 С/П X ПП 80 С/П X ПП 76 С/П X ПП 72 С/П X ПП 68 С/П X ПП 64 С/П X пп 60 С/П X пп 56 С/П X ПП 52 С/П X С/П ИП4 X + С/П ИП5 X + С/П ИП6 X + С/П ИП7 X + С/П ИП8 X + С/П ИП9 X + С/П ИПА X + С/П ИПВ X С/П ИПС X + С/П ИПД X + С/П XY — С/П -г- КПО в/о Инструкция к программам ПМК 5/20 и ПМК 5/21: В/О; С/Г1; Snn С/П; апп С/П; вводить построчно коэффициенты уравнений и свободные члены, начиная с нижних строк, в по¬ следовательности а/,/ + 1 С/П; в/#/ + 2 С/П; ...; я/„ С/П; S/ С/П; ац С/П После ввода ап : хп — в РД, хп _ 1 - в PC и т. д., х! — также в РХ. 2. Программы ПМК 5/22 и ПМК 5/23. Позволяют преобразовывать систему линейных уравнений порядка п в систему линейных уравнений порядка п — 1с исключением первого неизвестного хг. Многократное применение програм¬ мы обеспечивает получение выражения а/1^хл = Si1), из которого определяется х„. Подстановка хп в исходную систему уравнений позволяет найти хл . 1 и т. д. Программа ПМК 5/22 предназначена для снижения поряд¬ ка системы из п < 10 уравнений. В позиции программы, обозначенные •#, записывается порядок системы п (напри¬ мер, 08). ПД ПП 22 С/П КПО FL1 03 С/П ИПД -г П2 ПП" 22 С/П КИП0ИП2Х - FL1 13 БП 07 1 3 ПО * * ПТ В/О Инструкция к программе ПМК 5/22: В/О ввести коэф¬ фициенты первого уравнения системы, включая свободный член, и первый коэффициент второй строки: Яп* С/П; а(,"* С/П; s/n) С/П; а^' С/П. После останова в РХ - 286
число п. Вводить построчно остальные коэффициенты систе¬ мы. После ввода каждого следующего коэффициента второго уравнения в РХ - значение а п “ 1 *; а[2 ~~ 1 *; •••; а ; S }п “ 1*. После ввода а з? * С/П в РХ — число п, затем а|5 * С/ПвРХ-вЙ-1* и т. д. ка л системы, когда число уравнений больше 10. П2 ПЗ С/П пд ПП 30 С/П ипд * га ПП 40 FL2 06 С/П П1 П2 ПП 32 с/п ИПД П4 ИП2 П1 ПП 42 FL3 19 с/п 8 П1 1 3 ПО С/П КПО FL1 35 в/о 8 П1 1 3 по С/П КИПО ИП4 X — FL1 45 В/О Инструкция к программе ПМК 5/23: В/О; [п — 1) С/П; ввести девять коэффициентов первой строки и первый коэф¬ фициент второй:Яи* С/П; ...; а *9 С/П; аС/П. После ввода ai? * С/П в РХ — ап “ 1 ^; aj3 * С/П, в РХ — а[2 ” 1 * и т. д. до получения а}в _1>. После этого а^* С/П; а32* С/П; в РХ — a2i ” ^ и т. д. до получения восьми столбцов матрицы коэффициентов {а!*1 “1,[ , где / — от 1 до п, / — от 1 до 8. После получения а^ъ 1 записать в РХ число к, равное восьми, если п — 8 > 8, и равное п — 8, если л — 8 < < 8, С/П. Ввести в РX к коэффициентов первой строки, начиная с а/'Ц том ^исле и свободный член и пер¬ вый коэффициент второй строки а 2?*. Далее вводить коэф¬ фициенты второй строки, начиная ca2\nto- После ввода каж¬ дого коэффициента в РХ значение 3|,Л;+з*, где / — от 1 до 8. Далее а^* С/П; а}"ш С/П и т. д. до получения следующих восьми столбцов матрицы коэффициентов aj? “ 1 * и т. д. Если воспользоваться одной из программ ПМК 5/22 или ПМК 5/23 для понижения порядка системы уравнений, а затем из каждой вновь о