Руководство по решению задач по теории вероятности гмурман онлайн

                    В.Е. ГМУРМАН
Теория
вероятностей
и математическая
статистика
Издание девятое, стереотипное
Рекомендовано
Министерством образования
Российской Федерации
в качестве учебного пособия
для студентов вузов
Москва
«Высшая школа» 2003


УДК 519.2 ББК 22.171 Г 55 Гмурман, В. Е. 55 Теория вероятностей и математическая статистика: Учеб. пособие для вузов/В. Е. Гмурман. — 9-е изд., стер. — М.: Высш. шк., 2003. — 479 с: ил. ISBN 5-06-004214-6 Книга (8-е изд. 2002г.) содержит в основном весь материал програм- программы по теории вероятностей и математической статистике.Большое внима- внимание уделено статистическим методам обработки экспериментальных дан- данных. В конце каждой главы помешены задачи с ответами. Предназначается для cmydeiunoe вузов и лиц, использующих вероят- вероятностные и статистические методы при решении практических задач. УДК 519.2 ББК 22.171 ISBN 5-06-004214-6 © ФГУП «Издательство «Высшая школа», 2003 Оригинал-макет данного издания является собственностью издательства «Высшая школа», и его репродуцирование (воспроизведение) любым способом без согласия издательства запрещается.
ОГЛАВЛЕНИЕ Введение 14 ЧАСТЬ ПЕРВАЯ СЛУЧАЙНЫЕ СОБЫТИЯ Глава первая. Основные понятия теорян вероятностен 17 § 1. Испытания и события 17 § 2. Виды случайных событий 17 § 3. Классическое определение вероятности 18 § 4. Основные формулы комбинаторики 22 § 5. Примеры непосредственного вычисления вероятностей 23 § 6. Относительная частота. Устойчивость относительной часто- частоты 24 § 7. Ограниченность классического определения вероятности. Статистическая вероятность 26 § 8. Геометрические вероятности 27 Задачи 30 Глава вторая. Теорема сложения вероятностей 31 § 1. Теорема сложения вероятностей несовместных событий 31 § 2. Полная группа событий 33 § 3. Противоположные события 34 § 4. Принцип практической невозможности маловероятных событий 35 Задачи 36 Глава третья. Теорем» умножения вероятностей 37 § 1. Произведение событий 37 3
§ 2 Условная вероятность 37 § 3 Теорема умножения вероятностей 38 § 4 Независимые события Теорема умножения для независимых событий 40 § 5 Вероятность появления хотя бы одного события 44 Задачи 47 Глава четвертая Следствия теорем сложения и умножения 4S § 1 Теорема сложения вероятностей совместных событий 48 § 2 Формула полной вероятности 50 § 3 Вероятность гипотез Формулы Бейеса 52 Задачи 53 Глава пятая Повторение испытаний 55 § 1 Формула Бернулли 55 § 2 Локальная теорема Лапласа 57 § 3 Интегральная теорема Лапласа 59 § 4 Вероятность отклонения относительной частоты от постоян- постоянной вероятности в независимых испытаниях 61 Задачи 63 ЧАСТЬ ВТОРАЯ СЛУЧАЙНЫЕ ВЕЛИЧИНЫ Глава шестая Виды случайных величин. Задание дискретной случай- случайной величины 64 § 1 Случайная величина 64 § 2 Дискретные и непрерывные случайные величины 65 § 3 Закон распределения вероятностей дискретной случайной величины 65 § 4 Биномиальное распределение 66 § 5 Распределение Пуассона 68 § 6 Простейший поток событий 69 § 7 Геометрическое распределение 72 § 8 Гипергеометрическое распределение 73 Задачи 74 Глава седьмая Математическое ожидание дискретной случайной величины 75 § 1 Числовые характеристики дискретных случайных величин 75 § 2 Математическое ожидание дискретной случайной величины 76 § 3 Вероятностный смысл математического ожидания 77
§ 4 Свойства математического ожидания 78 § 5 Математическое ожидание числа появлений события в независимых испытаниях 83 Задачи 84 Глава восьмая Дисперсна дискретной случайной величины 85 § 1 Целесообразность введения числовой характеристики рассе- рассеяния случайной величины 85 § 2 Отклонение случайной величины от ее математического ожидания 86 § 3 Дисперсия дискретной случайной величины 87 § 4 Формула для вычисления дисперсии 89 § 5 Свойства дисперсии 90 § 6 Дисперсия числа появлений события в независимых испы- испытаниях 92 § 7 Среднее квадратическое отклонение 94 § 8 Среднее квадратическое отклонение суммы взаимно независимых случайных величин 95 § 9 Одинаково распределенные взаимно независимые случайные величины 95 § 10 Начальные и центральные теоретические моменты 98 Задачи 100 Глава девятая Закон больших чисел 101 § 1 Предварительные замечания 101 § 2 Неравенство Чебышева 101 § 3 Теорема Чебышева 103 § 4 Сущность теоремы Чебышева 106 § 5 Значение теоремы Чебышева для практики 107 § 6 Теорема Бернулли 108 Задачи 110 Глава десятая Функция распределения вероятностей случайной , 111 § 1 Определение функции распределения 111 § 2 Свойства функции распределения 112 § 3 График функции распределения 114 Задачи 115 Глава одиннадцатая Плотность распределения вероятностей непре- непрерывной случайной величины 116 § 1 Определение плотности распределения 116 § 2 Вероятность попадания непрерывной случайной величины в заданный интервал 116 5
§ 3. Нахождение функции распределения по известной плотности распределения П8 § 4. Свойства плотности распределения 119 § 5. Вероятностный смысл плотности распределения 121 § 6. Закон равномерного распределения вероятностей 122 Задачи 124 Глава двенадцатая. Нммыыюе ркаршяеяк 124 § I. Числовые характеристики непрерывных случайных величин 124 § 2. Нормальное распределение 127 § 3. Нормальная кривая 130 § 4. Влияние параметров нормального распределения на форму нормальной кривой 131 § S. Вероятность попадания в заданный интервал нормальной случайной величины : 132 § 6. Вычисление вероятности заданного отклонения 133 § 7. Правило трех сигм 134 § S. Понятие о теореме Ляпунова. Формулировка центральной предельной теоремы 135 § 9. Оценка отклонения теоретического распределения от нор- нормального. Асимметрия и эксцесс 137 § 10. Функция одного случайного аргумента и ее распределение 139 § 11. Математическое ожидание функции одного случайного аргумента „ 141 § 12. Функция двух случайных аргументов. Распределение суммы независимых слагаемых. Устойчивость нормального распреде- распределения 143 § 13. Распределение «хи квадрат* 145 § 14. Распределение Стыодента 146 § 15. Распределение /"Фишера—Снедекора 147 Задачи 147 Глава тринадцатая. Показательное распределение 149 § 1. Определение показательного распределения 149 § 2. Вероятность попадания в заданный интервал показательно распределенной случайной величины 150 § 3. Числовые характеристики показательного распределения.... 151 § 4. Функция надежности 152 § 5. Показательный закон надежности 153 § 6. Характеристическое свойство показательного закона надеж- надежности 154 Задачи 155 Глава четырнадцатая. Система двух случайных величии 155 § 1. Понятие о системе нескольких случайных величин 155 6
§ 2. Закон распределения вероятностей дискретной двумерной случайной величины 156 § 3. Функция распределения двумерной случайной величины ... 158 § 4. Свойства функции распределения двумерной случайной величины 159 § 5. Вероятность попадания случайной точки в полуполосу 161 § 6. Вероятность попадания случайной точки в прямоугольник. 162 § 7. Плотность совместного распределения вероятностей непре- непрерывной двумерной случайной величины (двумерная плотность вероятности) 163 § 8. Нахождение функции распределения системы по известной плотности распределения 163 § 9. Вероятностный смысл двумерной плотности вероятности... 164 § 10. Вероятность попадания случайной точки в произвольную область 165 § 11. Свойства двумерной плотности вероятности 167 § 12. Отыскание плотностей вероятности составляющих двумер- двумерной случайной величины 168 § 13. Условные законы распределения составляющих системы дискретных случайных величин 169 § 14. Условные законы распределения составляющих системы непрерывных случайных величин 171 § 15. Условное математическое ожидание 173 § 16. Зависимые и независимые случайные величины 174 § 17. Числовые характеристики систем двух случайных величин. Корреляционный момент. Коэффициент корреляции 176 § 18. Коррелированность и зависимость случайных величин 179 § 19. Нормальный закон распределения на плоскости 181 § 20. Линейная регрессия. Прямые линии среднеквадратической регрессии 182 § 21. Линейная корреляция. Нормальная корреляция 184 Задачи 185 ЧАСТЬ ТРЕТЬЯ ЭЛЕМЕНТЫ МАТЕМАТИЧЕСКОЙ СТАТИСТИКИ Глава пятнадцатая. Выборочный метод 187 § 1. Задачи математической статистики 187 § 2. Краткая историческая справка 188 § 3. Генеральная и выборочная совокупности 188 § 4. Повторная и бесповторная выборки. Репрезентативная вы- выборка 189
§ I Статистические оценки параметров распределения 197 § 2 Несмещенные, эффективные и состоятельные оценки 198 § 3 Генеральная средняя 199 § 4 Выборочная средняя 200 § 5 Оценка генеральной средней по выборочной средней Ус- Устойчивость выборочных средних 201 § 6 Групповая и общая средние 203 § 7 Отклонение от обшей средней и его свойство 204 § 8 Генеральная дисперсия 205 § 9 Выборочная дисперсия 206 § 10 Формула для вычисления дисперсии 207 § II Групповая, внутригрупповая. межгрупповая и общая дисперсии 207 § 12 Сложение дисперсий 210 § 13 Оценка генеральной дисперсии по исправленной выбороч- выборочной 211 § 14 Точность опенки, доверительная вероятность (надежность) Доверительный интервал 213 § IS Доверительные интервалы для оценки математического ожидания нормального распределения при известном о 2L § 16 Доверительные интервалы для оценки математического ожидания нормального распределения при неизвестном о 216 §17 Оценка истинного значения измеряемой величины ?19 § 18 Доверительные интервалы для оценки среднего квад- ратического отклонения а нормального распределения 220 § 19 Оценка точности измерений 223 § 20 Оценка вероятности (биномиального распределения) по относительной частоте 224 § 21 Метод моментов для точечной оценки параметров распре- распределения 226 § 22 Метод наибольшего правдоподобия 229 § 23 Другие характеристики вариационного ряда 234 Задачи 235 Глава семнадцатая Методы расчет» гшццвыт характеристик выборки 237 § 1 Условные варианты 237 8
§2 Обычные, начальные и центральные эмпирические моменты 238 § 3 Условные эмпирические моменты Отыскание центральных моментов по условным 239 § 4 Метод произведений для вычисления выборочных средней и дисперсии 241 § S Сведение первоначальных вариантов к равноотстоящим 243 § 6 Эмпирические и выравнивающие (теоретические) частоты 245 § 7 Построение нормальной кривой по опытным данным 249 § 8 Оценка отклонения эмпирического распределения от нор- нормального Асимметрия и эксцесс 250 Задачи 252 Глава восемнадцатая Элементы теории корреляции 253 § 1 Функциональная, статистическая и корреляционная зависимости 253 § 2 Условные средние 254 § 1 Выборочные уравнения регрессии 254 § 4 Отыскание параметров выборочного уравнения прямой линии среднеквадратичной регрессии по несгруппированным данным 255 § S Корреляционная таблица 257 § 6 Отыскание параметров выборочного уравнения прямой линии регрессии по сгруппированным данным 259 § 7 Выборочный коэффициент корреляции 261 § 8 Методика вычисления выборочного коэффициента корре- корреляции 262 § 9 Пример на отыскание выборочного уравнения прямой линии регрессии 267 § [0 Предварительные соображения к введению меры любой корреляционной связи 268 § 11 Выборочное корреляционное отношение 270 §12 Свойства выборочного корреляционного отношения 272 § 13 Корреляционное отношение как мера корреляционной связи Достоинства и недостатки этой меры 274 § 14 Простейшие случаи криволинейной корреляции 275 § 15 Понятие о множественной корреляции 276 Задачи 278 Глава девятнадцатая Статистическая проверка статистических гипотез 281 § 1 Статистическая гипотеза Нулевая и конкурирующая, прос- простая и сложная гипотезы 281 § 2 Ошибки первого и второго рода 282 § 3 Статистический критерий проверки нулевой гипотезы На- Наблюдаемое значение критерия 283
§ 4 Критическая область Область принятия гипотезы Критические точки 284 § 5 Отыскание правосторонней критической области 285 § 6 Отыскание левосторонней и двусторонней критических областей 286 § 7 Дополнительные сведения о выборе критической области Мощность критерия 287 § 8 Сравнение двух дисперсий нормальных генеральных сово- совокупностей 288 § 9 Сравнение исправленной выборочной дисперсии с гипотетической генеральной дисперсией нормальной совокуп- совокупности 293 § 10 Сравнение двух средних нормальных генеральных совокуп- совокупностей, дисперсии которых известны (независимые выборки) 297 § 11 Сравнение двух средних произвольно распределенных ге- генеральных совокупностей (большие независимые выборки) 303 § 12 Сравнение двух средних нормальных генеральных совокуп- совокупностей, дисперсии которых неизвестны и одинаковы (малые независимые выборки) 303 § 13 Сравнение выборочной средней с гипотетической генераль- генеральной средней нормальной совокупности 308 § 14 Связь между двусторонней критической областью и доверительным интервалом 312 § 15 Определение минимального объема выборки при сравнении выборочной и гипотетической генеральной средних 313 § 16 Пример на отыскание мощности критерия 313 § 17 Сравнение двух средних нормальных генеральных совокуп- совокупностей с неизвестными дисперсиями (зависимые выборки) 314 § 18 Сравнение наблюдаемой относительной частоты с гипотетической вероятностью появления события 317 §19 Сравнение двух вероятностей биномиальных распределений 319 § 20 Сравнение нескольких дисперсий нормальных генеральных совокупностей по выборкам различного объема Критерий Бар- тлетта 322 § 21 Сравнение нескольких дисперсий нормальных генеральных совокупностей по выборкам одинакового объема Критерий Коч- рена 325 § 22 Проверка гипотезы в значимости выборочного коэффициента корреляции 327 § 23 Проверка гипотезы о нормальном распределении генераль- генеральной совокупности Критерий согласия Пирсона 329 § 24 Методика вычисления теоретических частот нормального распределения 333 § 25 Выборочный коэффициент ранговой корреляции Спирмена и проверка гипотезы о его значимости 335 10
§ 26 Выборочный коэффициент ранговой корреляции Кендалла и проверка гипотезы о его значимости 34) § 27 Критерий Вилкоксона и проверка гипотезы об однород- однородности двух выборок 343 Задачи 346 Глава двадцатая Однофакторный дисперсионный анализ 349 § I Сравнение нескольких средних Понятие о дисперсионном анализе 349 § 2 Общая, факторная и остаточная суммы квадратов откло- отклонений 350 § 3 Связь между обшей, факторной и остаточной суммами 354 § 4 Общая, факторная и остаточная дисперсии 355 § 5 Сравнение нескольких средних методом дисперсионного анализа 355 § 6 Неодинаковое число испытаний на различных уровнях 358 Задачи 361 ЧАСТЬ ЧЕТВЕРТАЯ МЕТОД МОНТЕ-КАРЛО. ЦЕПИ МАРКОВА Глава двадцать первая Моделирование (разыгрывание) случайных величия методом Монте-Карло 363 § 1 Предмет метода Монте-Карло 363 § 2 Оценка погрешности метода Монте-Карло 364 § 3 Случайные числа 366 § 4 Разыгрывание дискретной случайной величины 366 § 5 Разыгрывание противоположных событий 368 § 6 Разыгрывание полной группы событий 369 § 7 Разыгрывание непрерывной случайной величины Метод обратных функций 371 § 8 Метод суперпозиции 375 § 9 Приближенное разыгрывание нормальной случайной величины 377 Задачи 379 Глава двадцать вторая Первоначальные сведения о цепях Маркова. 380 § 1 Цепь Маркова 380 § 2 Однородная цепь Маркова Переходные вероятности Матрица перехода 381 § Равенство Маркова 383 Задачи 385 II
ЧАСТЬ ПЯТАЯ СЛУЧАЙНЫЕ ФУНКЦИИ Глава двадцать третья Случайные функции 386 § 1 Основные задачи 386 § 2 Определение случайной функции 386 § 3 Корреляционная теория случайных функций 388 § 4 Математическое ожидание случайной функции 390 § 5 Свойства математического ожидания случайной функции 390 § 6 Дисперсия случайной функции 391 § 7 Свойства дисперсии случайной функции 392 § 8 Целесообразность введения корреляционной функции 393 § 9 Корреляционная функция случайной функции 394 § 10 Свойства корреляционной функции 395 § 11 Нормированная корреляционная функция 398 § 12 Взаимная корреляционная функция 399 § 13 Свойства взаимной корреляционной функции 400 § 14 Нормированная взаимная корреляционная функция 401 § 15 Характеристики суммы случайных функций 402 § 16 Производная случайной функции и ее характеристики 405 § 17 Интеграл от случайной функции и его характеристики 409 § 18 Комплексные случайные величины и их числовые харак- характеристики 413 § 19 Комплексные случайные функции и их характеристики 415 Задачи 417 Глава двадцать четвертая Стационарные случайные функции 419 § 1 Определение стационарной случайной функции 419 § 2 Свойства корреляционной функции стационарной случай- случайной функции 421 § 3 Нормированная корреляционная функция стационарной случайной функции 421 § 4 Стационарно связанные случайные функции 423 § 5 Корреляционная функция производной стационарной слу- случайной функции 424 § 6 Взаимная корреляционная функция стационарной случай- случайной функции и ее производной 425 § 7 Корреляционная функция интеграла от стационарной слу- случайной функции 426 § 8 Определение характеристик эргодических стационарных случайных функций из опыта 428 Задачи 430 Глава двадцать пятая Элементы спектральной теории стационарных случайных функций 431 12
§ 1 Представление стационарной случайной функции в виде гармонических колебаний со случайными амплитудами и случай- случайными фазами 431 § 2 Дискретный спектр стационарной случайной функции 435 § 3 Непрерывный спектр стационарной случайной функции Спектральная плотность 437 § 4 Нормированная спектральная плотность 441 § 5 Взаимная спектральная плотность стационарных и стационарно связанных случайных функций 442 § 6 Дельта-функция 443 § 7 Стационарный белый шум 444 § 8 Преобразование стационарной случайной функции стационарной линейной динамической системой 446 Задачи 449 Дополнение 451 Приложения 461 Предметный указатель 474
ВВЕДЕНИЕ Предмет теории вероятностей. Наблюдаемые нами события (явления) можно подразделить на следую- следующие три вида: достоверные, невозможные и случайные. Достоверным называют событие, которое обязательно произойдет, если будет осуществлена определенная сово- совокупность условий S. Например, если в сосуде содержится вода при нормальном атмосферном давлении и темпера- температуре 20°, то событие «вода в сосуде находится в жидком состоянии» есть достоверное. В этом примере заданные атмосферное давление и температура воды составляют совокупность условий S. Невозможным называют событие, которое заведомо не произойдет, если будет осуществлена совокупность усло- условий S. Например, событие «вода в сосуде находится в твердом состоянии» заведомо не произойдет, если будет осуществлена совокупность условий предыдущего примера. Случайным называют событие, которое при осуществле- осуществлении совокупности условий S может либо произойти, либо не произойти. Например, если брошена монета, то она может упасть так, что сверху будет либо герб, либо над- надпись. Поэтому событие «при бросании монеты выпал «герб»—случайное. Каждое случайное событие, в частно- частности выпадение «герба», есть следствие действия очень многих случайных причин (в нашем примере: сила, с которой брошена монета, форма монеты и многие другие). Невозможно учесть влияние на результат всех этих при- причин, поскольку число их очень велико и законы их действия неизвестны. Поэтому теория вероятностей не ставит перед собой задачу предсказать, произойдет еди- единичное событие или нет,—она просто не в силах это сделать. По-иному обстоит дело, если рассматриваются случай- случайные события, которые могут многократно наблюдаться при осуществлении одних и тех же условий S, т. е. если 14
речь идет о массовых однородных случайных событиях. Оказывается, что достаточно большое число однородных случайных событий независимо от их конкретной природы подчиняется определенным закономерностям, а именно вероятностным закономерностям. Установлением этих за- закономерностей и занимается теория вероятностей. Итак, предметом теории вероятностей является изу- изучение вероятностных закономерностей массовых однород- однородных случайных событий. Знание закономерностей, которым подчиняются массо- массовые случайные события, позволяет предвидеть, как эти события будут протекать. Например, хотя, как было уже сказано, нельзя наперед определить результат одного бросания монеты, но можно предсказать, причем с не- небольшой погрешностью, число появлений «герба», если монета будет брошена достаточно большое число раз. При этом предполагается, конечно, что монету бросают в одних и тех же условиях. Методы теории вероятностей широко применяются в различных отраслях естествознания и техники: в теории надежности, теории массового обслуживания, в теорети- теоретической физике, геодезии, астрономии, теории стрельбы, теории ошибок наблюдений, теории автоматического управ- управления, общей теории связи и во многих других теорети- теоретических и прикладных науках. Теория вероятностей служит также для обоснования математической и прикладной статистики, которая в свою очередь используется при планировании и организации производства, при анализе технологических процессов, предупредительном и прие- приемочном контроле качества продукции и для многих дру- других целей. В последние годы методы теории вероятностей все шире и шире проникают в различные области науки и техники, способствуя их прогрессу. Краткая историческая справка. Первые работы, в ко- которых зарождались основные понятия теории вероятно- вероятностей, представляли собой попытки создания теории азартных игр (Кардано, Гюйгенс, Паскаль, Ферма и дру- другие в XVI—XVII вв.). Следующий этап развития теории вероятностей связан с именем Якоба Бернулли A654—1705). Доказанная им теорема, получившая впоследствии название «Закона больших чисел», была первым теоретическим обоснова- обоснованием накопленных ранее фактов. 15
Дальнейшими успехами теория вероятностей обязана Муавру, Лапласу, Гауссу, Пуассону и др. Новый, наиболее плодотворный период связан с име- именами П. Л. Чебышева A821—1894) и его учеников А. А.Маркова A856—1922) и А.М.Ляпунова A857—1918). В этот период теория вероятностей становится стройной математической наукой. Ее последующее развитие обязано в первую очередь русским и советским математикам (С. Н. Бернштейн, В. И. Романовский, А. Н. Колмогоров, А. Я.Хинчин, Б. В. Гнеденко, Н. В. Смирнов и др.). В настоящее время ведущая роль в создании новых вет- ветвей теории вероятностей также принадлежит советским математикам.
ЧАСТЬ ПЕРВАЯ СЛУЧАЙНЫЕ СОБЫТИЯ Глава первая ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ ВЕРОЯТНОСТЕЙ § 1. Испытания и события Выше событие названо случайным, если при осуществлении определенной совокупности условий S оно может либо произойти, либо не произойти. В дальней- дальнейшем, вместо того чтобы говорить «совокупность условий 5 осуществлена», будем говорить кратко: «произведено испытание». Таким образом, событие будет рассматри- рассматриваться как результат испытания. Пример 1. Стрелок стреляет по мишени, разделенной на четыре области. Выстрел—это испытание. Попадание в определенную область мишени—событие. Пример 2. В урне имеются цветные шары. Из урны наудачу берут один шар. Извлечение шара из урны есть испытание. Появле- Появление шара определенного цвета — событие. § 2. Виды случайных событий События называют несовместными, если появле- появление одного из них исключает появление других событий в одном и том же испытании. Пример 1. Из ящика с д«/алямн наудачу извлечена деталь. Появление стандартной детали исключает появление нестандартной детали. События с появилась стандартная деталь» и «появилась не- ста нда ртн ая деталь >—несовместн ые. Пример 2. Брошена монета. Появление «герба» исключает по- появление надписи. События «появился герб» и «появилась надпись» — несовместные. Несколько событий образуют полную группу, если в результате испытания появится хотя бы одно из них. Другими словами, появление хотя бы одного из событий полной группы есть достоверное событие. В частности, 2 — 2730 \7
если события, образующие полную группу, попарно несов- несовместны, то в результате испытания появится одно и только одно из этих событий. Этот частный случай представляет для нас наибольший интерес, поскольку используется далее. Пример 3. Приобретены два билета денежно-вещевой лотереи. Обязательно произойдет одно и только одно из следующих событий: «выигрыш выпал на первый билет и не выпал на второй», «выигрыш не выпал на первый билет и выпал на второй», «выигрыш выпал на оба билета», «на оба билета выигрыш не выпал». Эти события обра- образуют полную группу попарно несовместных событий. Пример 4. Стрелок произвел выстрел по цели. Обязательно прои- произойдет одно из следующих двух событий: попадание, промах. Эти два несовместных события образуют полную группу. События называют равновозможными, если есть осно- основания считать, что ни одно из них не является более возможным, чем другое. Пример 5. Появление «герба» и появление надписи при бросании монеты — равновозможные события. Действительно, предполагается, что монета изготовлена из однородного материала, имеет правильную цилиндрическую форму и наличие чеканки не оказывает влияния на выпадение той или иной стороны монеты. Пример в. Появление того или иного числа очков на брошенной игральной кости — равновозможные события. Действительно, предпо- предполагается, что игральная кость изготовлена из однородного материала, имеет форму правильного многогранника и наличие очков не оказы- оказывает влияния на выпадение любой грани. § 3. Классическое определение вероятности Вероятность—одно из основных понятий теории вероятностей. Существует несколько определений этого понятия. Приведем определение, которое называют клас- классическим. Далее укажем слабые стороны этого определе- определения и приведем другие определения, позволяющие пре- преодолеть недостатки классического определения. Рассмотрим пример. Пусть в урне содержится 6 оди- одинаковых, тщательно перемешанных шаров, причем 2 из них — красные, 3 — синие и 1—белый. Очевидно, возмож- возможность вынуть наудачу из урны цветной (т. е. красный или синий) шар больше, чем возможность извлечь белый шар. Можно ли охарактеризовать эту возможность числом? Оказывается, можно. Это число и называют вероятностью события (появления цветного шара). Таким образом, вероятность есть число, характеризующее степень воз- возможности появления события. 18
Поставим перед собой задачу дать количественную оценку возможности того, что взятий наудачу шар цвет- цветной. Появление цветного шара будем рассматривать в качестве события А. Каждый из возможных результатов испытания (испытание состоит в извлечении шара из урны) назовем элементарным исходом (элементарным событием). Элементарные исходы обозначим через щ, а>г, ©з и т. д. В нашем примере возможны следующие 6 эле- элементарных исходов: ю1 — появился белый шар; ю,, <о„ — появился красный шар; <ot, ю5, <ов—появился синий шар. Легко видеть, что эти исходы образуют полную группу попарно несовместных событий (обязательно появится только один шар) и они равновозможны (шар вынимают наудачу, шары одинаковы и тщательно перемешаны). Те элементарные исходы, в которых интересующее нас событие наступает, назовем благоприятствующими этому событию. В нашем примере благоприятствуют со- событию А (появлению цветного шара) следующие 5 исхо- исходов: <о8, ю3, ю4, со6, (оо. Таким образом, событие А наблюдается, если в испы- испытании наступает один, безразлично какой, из элементар- элементарных исходов, благоприятствующих А\ в нашем примере А наблюдается, если наступит ©„ или со,, или со4> или ©ь, или cot. В этом смысле событие А подразделяется на несколько элементарных событий (о»а, со,, щ, о>8, ю,); элементарное же событие не подразделяется на другие события. В этом состоит различие между событием А и элементарным событием (элементарным исходом). Отношение числа благоприятствующих событию А эле- элементарных исходов к их общему числу называют вероят- вероятностью события А и обозначают через Р(А). В рассмат- рассматриваемом примере всего элементарных исходов 6; из них 5 благоприятствуют событию А. Следовательно, вероят- вероятность того, что взятый шар окажется цветным, равна Р(,4) —5/6. Это число и дает ту количественную оценку степени возможности появления цветного шара, которую мы хотели найти. Дадим теперь определение вероятности. Вероятностью события А называют отношение числа благоприятствующих этому событию исходов к общему числу всех равновозможных несовместных элементарных исходов, образующих полную группу. Итак, вероятность события А определяется формулой Р(Л)-т/д, 2* 19
где т — число элементарных исходов, благоприятствую- ш.их А; п — число всех возможных элементарных исходов испытания. Здесь предполагается, что элементарные исходы не- несовместны, равновозможны и образуют полную группу. Из определения вероятности вытекают следующие ее свойства: Свойство 1. Вероятность достоверного события равна единице. Действительно, если событие достоверно, то каждый элементарный исход испытания благоприятствует собы- событию. В этом случае т = п, следовательно, 1. Свойство 2. Вероятность невозможного события равна нулю. Действительно, если событие невозможно, то ни один из элементарных исходов испытания не благоприятствует событию. В этом случае т = 0, следовательно, Свойство 3. Вероятность случайного события есть положительное число, заключенное между нулем и еди- единицей. Действительно, случайному событию благоприятствует лишь часть из общего числа элементарных исходов испы- испытания. В этом случае 0 < т < п, значит, 0<т/п<1, следовательно, Итак, вероятность любого события удовлетворяет двой- двойному неравенству Далее приведены теоремы, которые позволяют по из- известным вероятностям одних событий находить вероятно- вероятности других событий. Замечание. Современные строгие курсы теории вероятностей построены на теоретико-множественной основе. Ограничимся изложе- изложением на языке теории множеств тех понятий, которые рассмотрены выше. Пусть в результате испытания наступает одно и только одно из событий со,- (< = 1, 2, ..., п). События to,- называют элементарными событиями {элементарными исходами). Уже отсюда следует, что элементарные события попарно несовместны. Множество всех элемен- 20
тарных ссбытнй, которые могут появиться в испытании, называют пространством элементарных событий Q, а сами элементарные собы- события— точками пространства Я. Событие А отождествляют с подмножеством (пространства Q), элементы которого есть элементарные исходы, благоприятствующие А; событие В есть подмножество Я, элементы которого есть исходы, благоприятствующие В, и т. д. Таким образом, множество всех со- событий, которые могут наступить в испытании, есть множество всех подмножеств Q. Само О наступает при любом исходе испытания, поэтому Й — достоверное событие; пустое подмножество пространства Q — невозможное событие (оно не наступает ни при каком исходе испытания). Заметим, что элементарные события выделяются из числа всех событий тем, что каждое из них содержит только один элемент Q. Каждому элементарному исходу о/ ставят в соответствие поло- положительное число pi — вероятность этого исхода, причем У, р; = 1. По определению, вероятность Р (А) события А равна сумме вероят- вероятностей элементарных исходов, благоприятствующих А. Отсюда легко получить, что вероятность события достоверного равна единице, не- невозможного— нулю, произвольного — заключена между нулем и еди- единицей. Рассмотрим важный частный случай, когда все исходы равновоз- можны. Число исходов равно я, сумма вероятностей всех исходов равна единице; следовательно, вероятность каждого исхода равна 1 /п. Пусть событию А благоприятствует т исходов. Вероятность события Л равна сумме вероятностей исходов, благоприятствующих А: Р(Л)=1/л+1/л + .. + 1/Л. Учитывая, что число слагаемых равно т, имеем Р(А) = т/п. Получено классическое определение вероятности. Построение логически полноценной теории вероятностей основано на аксиоматическом определении случайного события и его вероятно- вероятности. В системе аксиом, предложенной А. Н. Колмогоровым •>, неопре- неопределяемыми понятиями являются элементарное событие и вероятность. Приведем аксиомы, определяющие вероятность: 1. Каждому событию А поставлено в соответствие неотрицатель- неотрицательное действительное число Р (А). Это число называется вероятностью события А. 2. Вероятность достоверного события равна единице: 3. Вероятность наступления хотя бы одного из попарно несов- несовместных событий равна сумме вероятностей этих событий. Исходя из этих аксиом, свойства вероятностей и зависимости между ними выводят в качестве теорем. •> Колмогоров А. Н. Основные понятия теории вероятностей. М., «Наука», 1974. 21
§ 4. Основные формулы комбинаторики Комбинаторика изучает количества комбинаций, подчиненных определенным условиям, которые можно со- составить из элементов, безразлично какой природы, задан* ного конечного множества. При непосредственном вычис- вычислении вероятностей часто используют формулы комбина- комбинаторики. Приведем наиболее употребительные из них. Перестановками называют комбинации, состоящие из одних и тех же п различных элементов и отличающиеся только порядком их расположения. Число всех возмож- возможных перестановок Р„ = л!, где rtl = l-2-3. ..п. Заметим, что удобно рассматривать 0!, полагая, по определению, 01 = 1. Пример 1. Сколько трехзначных чисел можно составить из цифр 1, 2, 3, если каждая цифра входит в изображение числа только один раз? Решение. Искомое число трехзначных чисел Р, = 31 = 1-2-3 = 6. Размещениями называют комбинации, составленные из п различных элементов по т элементов, которые от- отличаются либо составом элементов, либо их порядком. Число всех возможных размещений Л? = /1(п— 1)(д—2) ... (п—/ Пример 2. Сколько можно составить сигналов из 6 флажков различного цвета, взятых по 2? Решение. Искомое число сигналов А1 =6.5 = 30. Сочетаниями называют комбинации, составленные из п различных элементов по т элементов, которые отли- отличаются хотя бы одним элементом. Число сочетаний !(n — m)\). Пример 3. Сколькими способами можно выбрать две детали из ящика, содержащего 10 деталей? Решение. Искомое число способов q»0=10!/B!8!) = 45. Подчеркнем, что числа размещений, перестановок и сочетаний связаны равенством 22
Замечание. Выше предполагалось, что все п элементов раз- различны. Если же некоторые элементы повторяются, то в этом случае комбинации с повторениями вычисляют по другим формулам. Напри- Например, если среди п элементов есть пг элементов одного вида, п2 эле- элементов другого вида и т. д., то число перестановок с повторениями Рп(л,, п», .. .) = n!/(rt!! n»\...), где n1+ni+ ... =п. При решении задач комбинаторики используют сле- следующие правила: Правило суммы. Если некоторый объект Л может быть выбран из совокупности объектов т способами, а другой объект В может быть выбран п способами, то выбрать либо А, либо В можно т-\-п способами. Правило произведения. Если объект А можно выбрать из совокупности объектов т способами и после каждого такого выбора объект В можно выбрать п спо- способами, то пара объектов (А, В) в указанном порядке может быть выбрана тп способами. § 5. Примеры непосредственного вычисления вероятностей Пример 1. Набирая номер телефона, абонент забыл одну цифру и набрал ее наудачу. Найти вероятность того, что набрана нужная цифра. Решение. Обозначим через А событие — набрана нужная цифра. Абонент мог набрать любую из 10 цифр, поэтому общее число возможных элементарных исходов равно 10. Эти исходы несовместны, равновозможны и образуют полную группу. Благоприятствует собы- событию А лишь один исход (нужная цифра лишь одна). Искомая веро- вероятность равна отношению числа исходов, благоприятствующих со- событию, к числу всех элементарных исходов: Р(у4)=1/10. Пример 2. Набирая номер телефона, абонент забыл последние две цифры и, помня лишь, что эти цифры " различны, набрал их на- наудачу. Найти вероятность того, что набраны нужные цифры. Решение. Обозначим через В событие — набраны две нужные цифры. Всего можно набрать столько различных цифр, сколько может быть составлено размещений из десяти цифр по две, т. е. Afo= 10-9 = 90. Таким образом, общее число возможных элементар- элементарных исходов равно 90. Эти исходы несовместны, равновоаможны и образуют полную группу. Благоприятствует событию В лишь один исход. Искомая вероятность равна отношению числа исходов, благо- благоприятствующих событию, к числу всех элементарных исходов: Р (В) = 1/90. Пример 3. Указать ошибку «решения» задачи: «Брошены две игральные косги. Найти вероятность того, что сумма выпавших очков равна 4 (событие А)». 23
Решение. Всего возможны 2 исхода испытания: сумма выпав- выпавших очков равна 4, сумма выпавших очков не равна 4. Событию А благоприятствует один исход; общее число исходов равно двум. Сле- дгвателыю, искомая вероятность Ошибка этого решения состоит в том, что рассматриваемые ис- исходы не являются равновозможными. Правильное решение. Общее число равновозможных ис- исходов испытания равно 6-6 = 30 (каждое число выпавших очков на одной кости может сочетаться со всеми числами очкоп другой кости). Среди этих исходов благоприятствуют событию А только 3 исхода: (I; 3), C; 1), B; 2) (в скобках указаны числа выпавших очков). Следовательно, искомая вероятность Р (А) = 3/36 = 1/12. Пример 4. В партии из 10 деталей 7 стандартных. Нанти вероят- вероятность того, что среди шести взятых наудачу деталей 4 стандартных. Решение. Общее число возможных элементарных исходов испытания равно числу способов, которыми можно извлечь G деталей из 10, т. е. числу сочетаний из 10 элементов но 6 элементов (CJO). Определим число исходов, благоприятствующих интересующему нас ссбытию А (среди шести взятых деталей 4 стандартных). Четыре стандартные детали можно изять на семи стандартных деталей С* спо- способами; при этом остальные 6—4 = 2 детали должны быть нестан- нестандартными; нзять же 2 нестандартные детали из 10—7 = 3 нестандарт- нестандартных деталей можно Cij способами. Следовательно, число благоприя- благоприятствующих исходов равно С*-С*. Искомая вероятность равна отношению числа исходов, благо- благоприятствующих событию, к числу всех элементарных исходов: § 6. Относительная частота. Устойчивость относительной частоты Относительная частота наряду с вероятностью принадлежит к основным понятиям теории вероятностей. Относительной частотой события называют отноше- отношение числа испытаний, в которых событие появилось, к общему числу фактически произведенных испытаний. Таким образом, относительная частота события А опре- определяется формулой W (А) = т/п, где т — число появлений события, п — общее число испы- испытании. 24
Сопоставляя определения вероятности и относитель- относительной частоты, заключаем: определение вероятности не требует, чтобы испытания производились в действитель- действительности; определение же относительной частоты предпола- предполагает, что испытания были произведены фактически. Дру- Другими словами, вероятность вычисляют до опыта, а относительную частоту—после опыта. Пршкр 1. Отдел технического контроля обнаружил 3 нестан- нестандартных детали в партии из 80 случайно отобранных деталей. Отно- Относительная частота появления нестандартных деталей Г (Л) = 3/80. Пример 2. По цели лронзвели 24 выстрела, причем было зареги- зарегистрировано 19 попаданий. Относительная частота поражения цели ХР(А)= 19/24. Длительные наблюдения показали, что если в одина- одинаковых условиях производят опыты, в каждом из которых число испытаний достаточно велико, то относительная частота обнаруживает свойство устойчивости. Это свой- свойство состоит в том, что в различных опытах относитель- относительная частота изменяется мало (тем меньше, чем больше произведено испытаний), колеблясь около некоторого по- постоянного числа. Оказалось, что это постоянное число есть вероятность появления события. Таким образом, если опытным путем установлена от- относительная частота, то полученное число можно принять за приближенное значение вероятности. Подробнее и точнее связь между относительной часто- частотой и вероятностью будет изложен^ далее. Теперь же проиллюстрируем свойство устойчивости на примерах. Пример 3. По данным шведской статистики, относительная час- частота рождения девочек за 1935 г. по месяцам характеризуется сле- следующими числами (числа расположены в порядке следования меся- месяцев, начиная с января): 0,486; 0,489; 0.490; 0,471; 0,478; 0,482; 0.462; 0,484; 0,485; 0.491; 0,482; 0,473 Огносителььая частота колеблется около числа 0,482, которое можно принять за приближенное значение вероятности рождения девочек. Заметим, что статистические данные различных стран дают при- примерно то же значение относительной частоты. Пример 4. Многократно проводились опыты бросания монеты, в которых подсчитывали число появления «герба». Результаты не- нескольких опытов приведены в табл. 1. Здесь относительные частоты незначительно отклоняются от чис- числа 0,5, причем тем меньше, чем больше число испытаний. Напри- Например, при 4040 испытаниях отклонение равно 0, 0069, а при 24 000 25
Таблица I Число бросаний 4 040 12000 24 000 Число появлений <герба> 2 048 6019 12012 Относительная частота 0,5069 0,5016 0,5005 испытаний—лишь 0,0005. Приняв во внимание, что вероятность по- появления «герба» при бросании монеты равна 0,5, мы вновь убеж- убеждаемся, что относительная частота колеблется около вероятности. § 7. Ограниченность классического определения вероятности. Статистическая вероятность Классическое определение вероятности предпо- предполагает, что число элементарных исходов испытания ко- конечно. На практике же весьма часто встречаются испы- испытания, число возможных исходов которых бесконечно. В таких случаях классическое определение неприменимо. Уже это обстоятельство указывает на ограниченность классического определения. Отмеченный недостаток может быть преодолен, в частности, введением геометрических вероятностей (см. § 8) и, конечно, использованием аксио- аксиоматической вероятности (см. § 3, замечание). Наиболее слабая сторона классического определения состоит в том, что очень часто невозможно представить результат испытания в виде совокупности элементарных событий. Еще труднее указать основания, позволяющие считать элементарные события равновозможными. Обычно о равновозможности элементарных исходов испытания говорят из соображений симметрии. Так, например, пред- предполагают, что игральная кость имеет форму правильного многогранника (куба) и изготовлена из однородного мате- материала. Однако задачи, в которых можно исходить из соображений симметрии, на практике встречаются весьма редко. По этой причине наряду с классическим опреде- определением вероятности используют и другие определения, в частности статистическое определение: в качестве ста- статистической вероятности события принимают относи- относительную частоту или число, близкое к ней. Например, если в результате достаточно большого числа испытаний оказалось, что относительная частота весьма близка 26
к числу 0,4, то это число можно принять за статистиче- статистическую вероятность события. Легко проверить, что свойства вероятности, вытекаю- вытекающие из классического определения (см. § 3), сохраняются и при статистическом определении вероятности. Действи- Действительно, если событие достоверно, то т = п и относитель- относительная частота т/п — п/п — 1, т. е. статистическая вероятность достоверного события (так же как и в случае классического определения) равна единице. Если событие невозможно, то т — 0 и, следовательно, относительная частота 0/п = 0, т. е. статистическая вероятность невозможного события равна нулю. Для любого события О^т^м и, следовательно, от- относительная частота т. е. статистическая вероятность любого события заклю- заключена между нулем и единицей. Для существования статистической вероятности собы- события А требуется: а) возможность, хотя бы принципиально, производить неограниченное число испытаний, в каждом из которых событие А наступает или не наступает; б) устойчивость относительных частот появления А в различных сериях достаточно большого числа испыта- испытаний. Недостатком статистического определения является неоднозначность статистической вероятности; так, в при- приведенном примере в качестве вероятности события можно принять не только 0,4, но и 0,39; 0,41 и т. д. § 8. Геометрические вероятности Чтобы преодолеть недостаток классического опре- определения вероятности, состоящий в том, что оно непри- неприменимо к испытаниям с бесконечным числом исходов, вводят геометрические вероятности — вероятности попа- попадания точки в область (отрезок, часть плоскости и т. д.). Пусть отрезок / составляет часть отрезка L. На отре- отрезок L наудачу поставлена точка. Это означает выполне- 27
ние следующих предположений: поставленная точка может оказаться в любой точке отрезка L, вероятность попадания точки на отрезок / пропорциональна длине этого отрезка и не зависит от его расположения относи- относительно отрезка L. В этих предположениях вероятность попадания точки на отрезок / определяется равенством Р = Длина //Длина L. Пример 1. На отрезок ОА длины L числовой оси Ох наудачу поставлена точка В(х). Найти вероятность того, что меньший из отрезков ОВ и ВА имеет длину, большую L/3. Предполагается, что вероятность попадания точки на отрезок пропорциональна длине от- отрезка и не зависит от его расположения на числовой оси. Решение. Разобьем отрезок О А точками С и D на 3 равные части. Требование задачи будет выполнено, если точка В (х) попа- попадет на отрезок CD длины Z./3. Искомая вероятность P=(L/3)/L = l/3. Пусть плоская фигура g составляет часть плоской фигуры G. На фигуру G наудачу брошена точка. Это означает выполнение следующих предположений: брошен- брошенная точка может оказаться в любой точке фигуры G, вероятность попадания брошенной точки на фигуру g пропорциональна площади этой фигуры и не зависит ни от ее расположения относительно G, ни от формы g. В этих предположениях вероятность попадания точки в фигуру g определяется равенством Р — Площадь g/Площадь G. Пример 2, На плоскости начерчены две концентрические окруж- окружности, радиусы которых 5 и 10 см соответственно. Найти вероят- вероятность того, что точка, брошенная наудачу в большой круг, попадет в кольцо, образованное построенными окружностями. Предполагается, что вероятность попадания точки в плоскую фигуру пропорциональна площади этой фигуры и не зависит от ее расположения относительно большого круга. Решение. Площадь кольца (фигуры g) Sg = n A02 — 5*) = 75я. Площадь большого круга (фигуры (?) Искомая вероятность Я = 75я/A00я) = 0,75. Пример 3. В сигнализатор поступают сигналы от двух устройств, причем поступление каждого из сигналов равновозможно в любой момент промежутка времени длительностью Т. Моменты поступления сигналов независимы один от другого. Сигнализатор срабатывает, если разность между моментами поступления сигналов меньше 28
t (t < T). Найти вероятность того, что сигнализатор сработает за время Т, если каждое из устройств пошлет по одному сигналу. Решение. Обозначим моменты поступления сигналов первого и второго устройств соответственно через х и у. В силу условия задачи должны выполняться двойные неравенства: (ХжГ, О^у^Т. Вве- Введем в рассмотрение прямоугольную си- систему координат хОу. В этой системе двойным неравенствам удовлетворяют ко- координаты любой точки квадрата ОТ AT (рис. 1). Таким образом, этот квадрат можно рассматривать как фигуру G, ко- координаты точек которой представляют все возможные значения моментов по- поступления сигналов. Сигнализатор срабатывает, если раз- разность между моментами поступления си- сигналов меньше t, т. е. если у— х < t при у > х и х—у < t при дг> у, или, что то же, У < x+t у > x — t при при у > х, у < х. Неравенство (*) выполняется для тех точек фигуры G, которые лежат выше прямой у=х и ниже прямей y — x-\-t, неравенство (**) имеет место для точек, расположенных ниже прямой у = х и выше прямой у = х — t. Как видно из рис. 1, все точки, координаты которых удовлет- удовлетворяют неравенствам (*) и (**), принадлежат заштрихованному шестиугольнику. Таким образом, этот шестиугольник можно рассма- рассматривать как фигуру g, координаты точек которой являются благо- благоприятствующими моментами времени х и у. Искомая вероятность Р = Пл. g/Пл. G = (T* — (T— 0а)/Г2 = (<BГ — tynT*. Замечание 1. Приведенные определения являются частными случаями общего определения геометрической вероятности. Если обозначить меру (длину, площадь, объем) области через mes, то вероятность попадания точки, брошенной наудачу (в указанном выше смысле) в область g— часть области G, равна Р = mes g/mes G. Замечание 2. В случае классического определения вероят- вероятность достоверного (невозможного) события равна единице (нулю); справедливы и обратные утверждения (например, если вероятность события равна нулю, то событие невозможно). В случае геометри- геометрического определения вероятности обратные утверждения не имеют места. Например, вероятность попадания брошенной точки в одну определенную точку области G равна нулю, однако это событие может произойти, и, следовательно, не является невозможным. 29
Задачи 1. В ящике имеется 50 одинаковых деталей, из них 5 окра- окрашенных. Наудачу вынимают одну деталь. Найти вероятность того, что извлеченная деталь окажется окрашенной. Отв. р = 0,1. 2. Брошена игральная кость. Найти вероятность того, что выпа- выпадет четное число очков. Отв. р = 0,5. 3. Участники жеребьевки тянут из ящика жетоны с номерами от 1 до 100. Найти вероятность того, что номер первого наудачу извлеченного жетона не содержит цифры 5. Отв. р = 0,81. 4. В мешочке имеется 5 одинаковых кубиков. На всех гранях каждого кубика написана одна из следующих букв: о, п, р, с, т. Найти вероятность того, что на вынутых по одному и расположен- расположенных ев одну линию» кубиков можно будет прочесть слово «спорт». Отв. р=» 1/120. 5. На каждой из шести одинаковых карточек напечатана одна из следующих букв: а, т, м, р, с, о. Карточки тщательно переме- перемешаны. Найти вероятность того, что на четырех, вынутых по одной и расположенных «в одну линию» карточках можно будет прочесть слово «трос». Отв. р=1/Л^= 1/360. 6. Куб, все грани которого окрашены, распилен на тысячу куби- кубиков одинакового размера, которые затем тщательно перемешаны. Найти вероятность того, что наудачу извлеченный кубик будет иметь окрашенных граней: а) одну; б) две; в) три. Отв. а) 0,384; б) 0,096; в) 0,008. 7. Из тщательно перемешанного полного набора 28 костей домино наудачу извлечена кость. Найти вероятность того, что вторую наудачу извлеченную кость можно приставить к первой, если первая кость: а) оказалась дублем; б) не есть дубль. Отв. а) 2/9; б) 4/9. 8. В замке на общей оси пять дисков. Каждый диск разделен на шесть секторов, на которых написаны различные буквы. Замок открывается только в том случае, если каждый диск занимает одно определенное положение относительно корпуса замка. Найти вероят- вероятность того, что при произвольной установке дисков замок можно будет открыть. Отв. р=1/65. 9. Восемь различных книг расставляются наудачу на одной полке. Найти вероятность того, что две определенные книги ока- окажутся поставленными рядом. Отв. р = 7-21.61/8! = 1/4. 10. Библиотечка состоит из десяти различных книг, причем пять книг стоят по 4 рубля каждая, три книги — по одному рублю и две книги — по 3 рубля. Найти вероятность того, что взятые наудачу две книги стоят 5 рублей. Отв. p=CjCj/C?e = l/3. 11. В партии из 100 деталей отдел технического контроля обна- обнаружил 5 нестандартных деталей. Чему равна относительная частота появления нестандартных деталей? Отв. w = 0,05. 30
12. При стрельбе из винтовки относительная частота попадания в цель оказалась равной 0,85. Найти число попаданий, если всего было произведено 120 выстрелов. Отв. 102 попадания. 13. На отрезок ОА длины L числовой оси Ох наудачу постав- поставлена точка В (х). Найти вероятность того, что меньший из отрезков ОВ и В А имеет длину, меньшую, чем L/3. Предполагается, что веро- вероятность попадания точки на отрезок пропорциональна длине отрезка и не зависит от его расположения на числовой оси. Отв. р=2/3. 14. Внутрь круга радиуса R наудачу брошена точка. Найти вероятность того, что точка окажется внутри вписанного в круг квадрата. Предполагается, что вероятность попадания точки в квад- квадрат пропорциональна площади квадрата и не зависит от его распо- расположения относительно круга. Отв. р = 2/я. 15. Задача о встрече. Два студента условились встретиться в определенном месте между 12 и 13 часами дня. Пришедший пер- первым ждет второго в течение 1/4 часа, после чего уходит. Найти веро- вероятность того, что встреча состоится, если каждый студент наудачу выбирает момент своего прихода (в промежутке от 12 до 13 часов). Указание. Ввести в рассмотрение прямоугольную систему координат хОу и принять для простоты, что встреча должна состо- состояться между 0 и 1 часами. Отв. Возможные значения координат: 0<х<1, 0 благоприятствующие встрече значения координат: \у — х Р = 7/16. Глава вторая ТЕОРЕМА СЛОЖЕНИЯ ВЕРОЯТНОСТЕЙ § 1. Теорема сложения вероятностей несовместных событий Суммой А + В двух событий А и В называют событие, состоящее в появлении события А, или собы- события В, или обоих этих событий. Например, если из ору- орудия произведены два выстрела и А—попадание при пер- первом выстреле, В — попадание при втором выстреле, то А + В— попадание при первом выстреле, или при вто- втором, или в обоих выстрелах. В частности, если два события А и В—несовместные, то А + В—событие, состоящее в появлении одного из этих событий, безразлично какого. Суммой нескольких событий называют событие, кото- которое состоит в появлении хотя бы одного из этих собы- Например, событие А + В + С состоит в появлении 31
одного из следующих событий: А, В, С, А и В, А и С, В и С, А и В и С. Пусть события А и В—несовместные, причем вероят- вероятности этих событий известны. Как найти вероятность того, что наступит либо событие А, либо событие В? Ответ на этот вопрос дает теорема сложения. Теорема. Вероятность появления одного из двух несов- несовместных событий, безразлично какого, равна сумме веро- вероятностей этих событий: Доказательство. Введем обозначения: п—общее число возможных элементарных исходов испытания; т^ — число исходов, благоприятствующих .событию А; тх — число исходов, благоприятствующих событию В. Число элементарных исходов, благоприятствующих наступлению либо события А, либо события В, равно m1 + mt. Следовательно, Р (А + В) = (т, + тл)/п — mjn + mjn. Приняв во внимание, что mJn = P(A) и mJn — P{B), окончательно получим Следствие. Вероятность появления одного из не- нескольких попарно несовместных событий, безразлично какого, равна сумме вероятностей этих событий: Доказательство. Рассмотрим три события: А, В и С. Так как рассматриваемые события попарно несов- несовместны, то появление одного из трех событий, А, В и С, равносильно наступлению одного из двух событий, А+В и С, поэтому в силу указанной теоремы ( Для произвольного числа попарно несовместных собы- событий доказательство проводится методом математической индукции. Пршкр I. В урне 30 шаров: 10 красных, S синих я 15 белых. Найтн вероятность появления цветного шара. Решен не. Появление цветного шара означает появление либо краевого, либо синего шара. 32
Вероятность появления красного шара (событие А) Р (А) = ]0/30= 1/3. Вероятность появления синего шара (событие В) Р(В)= 5/30 =1/6. События А и В несовместны (появление шара одного цвета исклю- исключает появление шара другого цвета), поэтому теорема сложения при- применима. Искомая вероятность ) = 1/3+1/6= 1/2. Пример 2. Стрелок стреляет по мишени, разделенной на 3 об- области. Вероятность попадания в первую область равна 0,45, во вторую — 0,35. Найти вероятность того, что стрелок при одном выстреле попадет либо в первую, либо во вторую область. Решение. События А — «стрелок попал в первую область» и В — «стрелок попал во вторую область» — несовместны (попадание в одну область исключает попадание в другую), поэтому теорема сложения применима. Искомая вероятность § 2. Полная группа событий Теорема. Сумма вероятностей событий А1г А2, ..., Ап, образующих полную группу, равна единице: Доказательство. Так как появление одного из событий полной группы достоверно, а вероятность досто- достоверного события равна единице, то Любые два события полной группы несовместны, поэтому можно применить теорему сложения: Сравнивая (*) и (»*), получим Пример. Консультационный пункт института получает пакеты с контрольными работами из городов А, В и С. Вероятность полу- получения пакета из города А равна 0,7, из города В — 0,2. Найти веро- вероятность того, что очередной пакет будет получен из города С. Решение. События «пакет получен из города Л», «пакет получен из города В», «пакет получен из города С» образуют полную группу, Ч — 2730 33
поэтому сумма вероятностей этих событий равна единице: 0,7-f0,2 + p=l. Отсюда искомая вероятность р-= 1-0,9=0,1. § 3. Противоположные события Противоположными называют два единственно возможных события, образующих полную группу. Если одно из двух противоположных событий обозначено через А, то другое принято обозначать А. Пример 1. Попадание и промах при выстреле по цели — противо- противоположные события. Если А — попадание, то А — промах. Пример 2. Из ящика наудачу взята деталь. События «появилась стандартная деталь» и «появилась нестандартная деталь» — противо- противоположные. Теорема. Сумма вероятностей противоположных собы- событий равна единице: Доказательство. Противоположные события об- образуют полную группу, а сумма вероятностей событий, образующих полную группу, равна единице (см. § 2). Замечание I. Если вероятность одного из двух противопо- противоположных событий обозначена через р, то вероятность другого события обозначают через q. Таким образом, в силу предыдущей теоремы Пример 3. Вероятность того, что день будет дождливым, р=0,7. Найти вероятность того, что день будет ясным. Решение. События «день дождливый» и «день ясный» — про- противоположные, поэтому искомая вероятность «7=1_р = 1— 0,7 = 0,3. Замечание 2. При решении задач на отыскание вероятности события А часто выгодно сначала вычислить вероятность события А, а затем найти искомую вероятность по формуле Р(А)=\-Р(А). Пример 4. В ящике имеется л деталей, из которых т стандарт- стандартных. Найти вероятность того, что среди к наудачу извлеченных дета- деталей кть хотя бы одна стандартная. Решение. События «среди извлеченных деталей есть хотя бы одна стандартная» и «среди извлеченных деталей нет ни одной стан- стандартной» «-противоположные. Обозначим первое событие через А, • второе—через А, 34
Очевидно, Р(А) = 1 Найдем Р(Л). Общее число способов, которыми можно извлечь к деталей из п деталей, равно С?. Число нестандартных деталей равно п—т; из этого числа деталей можно Сп-т способами извлечь к не- нестандартных деталей. Поэтому вероятность того, что_среди извлечен* яых k деталей нет ни одной стандартной, равна Я(Л)=Сл-/п/Сл- Искомая вероятность Р (А) = 1 - Р (А) = 1 -dLn/Ci § 4. Принцип практической невозможности маловероятных событий При решении многих практических задач прихо- приходится иметь дело с событиями, вероятность которых весьма мала, т. е. близка к нулю. Можно ли считать, что маловероятное событие А в единичном испытании не произойдет? Такого заключения сделать нельзя, так как не исключено, хотя и мало вероятно, что событие А наступит. Казалось бы, появление или непоявление маловероят- маловероятного события в единичном испытании предсказать невоз- невозможно. Однако длительный опыт показывает, что мало- маловероятное событие в единичном испытании в подавляющем большинстве случаев не наступает. На основании этого факта принимают следующий «принцип практической невозможности маловероятных событий»: если случайное событие имеет очень малую вероятность, то практически можно считать, что в единичном испытании это собы- событие не наступит. Естественно возникает вопрос: насколько малой должна быть вероятность события, чтобы можно было считать невозможным его появление в одном испытании? На этот вопрос нельзя ответить однозначно. Для задач, различных -по существу, ответы разные. Например, если вероятность того, что парашют при прыжке не раскроется, равна 0,01, то было бы недопустимым применять такие парашюты. Если же вероятность того, что поезд даль- дальнего следования прибудет с опозданием, равна 0,01, то можно практически быть уверенным, что поезд прибудет вовремя. Достаточно малую вероятность, при которой (в дав- ной определенной задаче) событие можно считать ярак- 3* ЯК
тически невозможным, называют уровнем значимости. На практике обычно принимают уровни значимости, заклю- заключенные между 0,01 и 0,05. Уровень значимости, равный 0,01, называют однопроцентным; уровень значимости, равный 0,02, называют двухпроцентным, и т. д. Подчеркнем, что рассмотренный здесь принцип позво- позволяет делать предсказания не только о событиях, имею- имеющих малую вероятность, но и о событиях, вероятность которых близка к единице. Действительно, если событие А имеет вероятность, близкую к нулю, то вероятность противоположного события А близка к единице. С другой стороны, непоявление события А означает наступление противоположного события А. Таким образом, из прин- принципа невозможности маловероятных событий вытекает следующее важное для приложений следствие: если слу- случайное событие имеет вероятность, очень близкую к еди- единице, то практически можно считать, что в единичном испытании это событие наступит. Разумеется, и здесь ответ на вопрос о том, какую вероятность считать близ- близкой к единице, зависит от существа задачи. Задачи 1. В денежно-вещевой лотерее на каждые 10 000 билетов разыгрывается 150 вещевых и 50 денежных выигрышей. Чему равна вероятность выигрыша, безразлично денежного или вещевого, для владельца одного лотерейного билета? Отв. р = 0,02. 2. Вероятность того, что стрелок при одном выстреле выбьет 10 очков, равна 0,1; вероятность выбить 9 очков равна 0,3; вероят- вероятность выбить 8 или меньше очков равна 0,6. Найти вероятность того, что при одном выстреле стрелок выбьет не менее 9 очков. Отв. р = 0,4. 3. В партии из 10 деталей 8 стандартных. Найти вероятность того, что среди наудачу извлеченных 2 деталей есть хотя бы одна стандартная. Отв. р = 44/45. 4. В ящике 10 деталей, среди которых 2 нестандартных. Найти вероятность того, что в наудачу отобранных 6 деталях окажется не более одной нестандартной детали. Отв. р — 2/3. Указание. Если А — нет ни одной нестандартной детали, В — есть одна нестандартная деталь, то Р (А + В) = Р (А) + Р (В) =С"/С?о + Cj¦ Cl/Clo. 5. События А, В, С u D образуют полную группу. Вероятности событий таковы: Р(Л)=0,1; Р(В) = 0,4; Р(С)=0,3. Чему равна вероятность события ?>? Отв. P(D) = 0,2. 36
6. По статистическим данным ремонтной мастерской, в среднем на 20 остановок токарного станка приходится: 10—для смены резца; 3—из-за неисправности привода; 2 — из-за несвоевременной подачи заготовок. Остальные остановки происходят по другим причинам. Найти вероятность остановки станка по другим причинам. Отв. р = 0,25. Глава третья ТЕОРЕМА УМНОЖЕНИЯ ВЕРОЯТНОСТЕЙ § 1. Произведение событий Произведением двух событий А и В называют событие АВ, состоящее в совместном появлении (совме- (совмещении) этих событий. Например, если Л—деталь годная, В—деталь окрашенная, то АВ—деталь годна и окрашена. Произведением нескольких событий называют событие, состоящее в совместном появлении всех этих событий. Например, если А, В, С—появление «герба» соответственно в первом, втором и третьем бросаниях монеты, то ABC — выпадение «герба» во всех трех испытаниях. § 2. Условная вероятность Во введении случайное событие определено как событие, которое при осуществлении совокупности усло- условий S может произойти или не произойти. Если при вы- вычислении вероятности события никаких других ограни- ограничений, кроме условий S, не налагается, то такую вероят- вероятность называют безусловной; если же налагаются и другие дополнительные условия, то вероятность события называют условной. Например, часто вычисляют вероятность собы- события В при дополнительном условии, что произошло со- событие А. Заметим, что и безусловная вероятность, строго говоря, является условной, поскольку предполагается осуществление условий S. Условной вероятностью РА (В) называют вероятность события В, вычисленную в предположении, что событие А уже наступило. Пример. В урне 3 белых и 3 черных шара. Из урны дважды вынимают по одному шару, не возвращая их обратно. Найти вероят- вероятность появления белого шара при втором испытании (событие В), если при первом испытании был извлечен черный шар (событие А). 37
Решение. После первого испытания в урке осталось 5 шаров. из них 3 белых. Искомая условная вероятность Рл(В)=3/5. Этот же результат можно получить по формуле Рл (В)=Р (АВIР (А) (Р (А) > 0). (¦) Действительно, вероятность появления белого шара прн первом ис- испытании Р (Л) = 3/6 =1/2. Найдем вероятность Р (АВ) того, что в первом испытании по- появится черный шар, а во втором—белый. Общее число исходов — совместного появления двух шаров, безразлично какого цвета, равно числу размещений /15 = 6-5 = 30. Из этого числа исходов событию Л В благоприятствуют 3-3—9 исходов. Следовательно, Р(ЛВ)=9/30=3/10. Искомая условная вероятность Ра (В)=Р (АВУР (Л) = <3/10)/A/2) = 3/5. Как видим, получен прежний результат. Исходя из классического определения вероятности, формулу (•) можно доказать. Это обстоятельство и служит основанием для следующего общего (применимого не только для классической вероятности) определения. Условная вероятность события В при условии, что событие А уже наступило, по определению, равна § 3. Теорема умножения вероятностей Рассмотрим два события: А и В; пусть вероят- вероятности Р(А) и Ра (В) известны. Как найти вероятность совмещения этих событий, т. е. вероятность того, что появится и событие А и событие В? Ответ на этот вопрос дает теорема умножения. Теорема. Вероятность совместного появления двух со- событий равна произведению вероятности одного из них на условную вероятность другого, вычисленную в предпо- предположении, что первое событие уже наступило: Доказательство. По определению условной веро- вероятности,
Отсюда Р(АВ) = Р{А)РА(В). <•) Замечание. Применив формулу (*) к событию В А, получим Р(ВА)=Р(В)Ра(А), или, поскольку событие ВА не отличается от события АВ, Р(АВ)=Р(В)РВ{А). (*•) Сравнивая формулы (¦) и (**), заключаем о справедливости ра- равенства Р(А)РА(В)=Р(В)РВ(А). (¦••) Следствие. Вероятность совместного появления нескольких событий равна произведению вероятности одного из них на условные вероятности всех остальных, причем вероятность каждого последующего события вычисляется в предположении, что все предыдущие события уже появи- появились: РИИИ,. . .Ап) = Р (Аг) PAl{At) РЛглМм). • • .. ¦^л...л„.1Ив). где PAtA,.. .лп_1(Ап)—вероятность события Ап, вычислен- вычисленная в предположении, что события Alt At, ..., А„_г на- наступили. В частности, для трех событий = Р(А)РА(В)РАВ(С). Заметим, что порядок, в котором расположены собы- события, может быть выбран любым, т. е. безразлично какое событие считать первым, вторым и т. д. Пример 1. У сборщика имеется 3 конусных и 7 эллиптических валиков. Сборщик взял один валик, а затем второй. Найти вероят- вероятность того, что первый из взятых валиков — конусный, а второй — эллиптический. Решение. Вероятность того, что первый валик окажется ко- конусным (событие А), Р (А) = 3/10. Вероятность того, что второй валик окажется эллиптическим (событие В), вычисленная в предположении, что первый валик — конусный, т. е. условная вероятность РА(В)=7/9. По теореме умножения, искомая вероятность Р (АВ) = Р (А)РА (Д)=C/10).G/9) = Заметим, что, сохранив обозначения, легко найдем: Р(Д)=7/Ю, Рв (А) = 3/9, Р(В)Рв(А) = 7/30, что наглядно иллюстрирует спра- справедливость равенства (***). 39
Пример 2. В урне 5 белых, 4 черных и 3 синих шара. Каждое испытание состоит в том, что наудачу извлекают один шар, не воз- возвращая его обратно. Найти вероятность того, что прн первом испы- испытании появится белый шар (событие А), при втором — черный (собы- (событие В) и при третьем —синий (событие С). Решение. Вероятность появления белого шара в первом испытании Р (А) = 5/12. Вероятность появления черного шара во втором испытании, вычисленная в предположении, что в первом испытании появился белый шар, т. е. условная вероятность Вероятность появления синего шара в третьем испытании, вы- вычисленная в предположении, что в первом испытании появился белый шар, а во втором — черный, т. е. условная вероятность РАв (Q=3/IO. Искомая вероятность Р (АВС)=Р (А) Р*А (В) РАВ (С) = E/12) D/11)-C/10) = 1/22. § 4. Независимые события. Теорема умножения для независимых событий Пусть вероятность события В не зависит от по- появления события А. Событие В называют независимым от события А, если появление события А не изменяет вероятности события В, т. е. если условная вероятность события В равна его безусловной вероятности: Подставив (*) в соотношение (***) предыдущего па- параграфа, получим Р(А)Р(В) = Р(В)РВ(А). Отсюда т. е. условная вероятность события А в предположении, что наступило событие В, равна его безусловной вероят- вероятности. Другими словами, событие А не зависит от со- события jB. Итак, если событие В не зависит от события Л, то и событие А не зависит от события В; это означает, что свойство независимости событий взаимно. 40
Для независимых событий теорема умножения Р (АВ) = Р (А) РА (В) имеет вид Р(АВ) = Р(А)Р{В), (**) т. е. вероятность совместного появления двух независимых событий равна произведению вероятностей этих событий. Равенство (**) принимают в качестве определения не- независимых событий. Два события называют независимыми, если вероятность их совмещения равна произведению вероятностей этих событий; в противном случае события называют зависи- зависимыми. На практике о независимости событий заключают по смыслу задачи. Например, вероятности поражения цели каждым из двух орудий не зависят от того, поразило ли цель другое орудие, поэтому события «первое орудие поразило цель» и «второе орудие поразило цель» неза- независимы. Пример 1. Найти вероятность совместного поражения цели двумя орудиями, если вероятность поражения цели первым орудием (собы- (событие А) равна 0,8, а вторым (событие В)— 0,7. Решение. События А и В независимые, поэтому, по теореме умножения, искомая вероятность Р (АВ) = Р(А) Р (В) = 0,7 -0,8 = 0,56. Замечание 1. Если события А и В независимы, то незави- независимы также события А и В, А и В, А и В. Действительно, А =АВ + АВ. Следовательно, Р (А) =Р (АВ)+Р (АВ), или Р(А) = Р(АВ~) + Р(А)Р(В). Отсюда Р (А~В)=Р(А)[1 — Р(В)\, или Р (АВ) =Р (А) Р (В), т. е. события А и В независимы. Независимость событий А и В, А и В — следствие доказанного утверждения. Несколько событий называют попарно независимыми, если каждые два из них независимы. Например, события А, В, С попарно независимы, если независимы события А и В, А и С, В и С. Для того чтобы обобщить теорему умножения на не- несколько событий, введем понятие независимости событий в совокупности. 41
Несколько событий называют независимыми в совокуп- совокупности (или просто независимыми), если независимы ка- каждые два из них и независимы каждое событие и все возможные произведения остальных. Например, если со- события Лх, At, Л, независимы в совокупности, то неза- независимы события А, и Ау Аг и Л„ Л, и Аж; Ах и AtA9, А% и AtAlt А, и АгА%. Из сказанного следует, что если события независимы в совокупности, то условная вероят- вероятность появления любого события из них, вычисленная в предположении, что наступили какие-либо другие собы- события из числа остальных, равна его безусловной вероят- вероятности. Подчеркнем, что если несколько событий независимы попарно, то отсюда еще не следует их независимость в совокупности, В этом смысле требование независимости событий в совокупности сильнее требования их попарной независимости. Поясним сказанное на примере. Пусть в урне имеется 4 шара, окрашенные: один—в красный цвет (А), один — в синий цвет (В), один—в черный цвет (С) и один—во все эти три цвета (ЛВС). Чему равна вероятность того, что извлеченный из урны шар имеет красный цвет? Так как из четырех шаров два имеют красный цвет, то Р(А) = 2/4 = 1/2. Рассуждая аналогично, найдем Р (В) = 1/2, Р (С) = 1/2. Допустим теперь, что взятый шар имеет синий цвет, т. е. событие В уже произошло. Изме- Изменится ли вероятность того, что извлеченный шар имеет красный цвет, т. е. изменится ли вероятность события Л? Из двух шаров, имеющих синий цвет, один шар имеет и красный цвет, поэтому вероятность события Л по-преж- по-прежнему равна 1/2. Другими словами, условная вероятность события Л, вычисленная в предположении, что наступило событие В, равна его безусловной вероятности. Следова- Следовательно, события А и В независимы. Аналогично придем к выводу, что события Л и С, В и С независимы. Итак, события Л, В и С попарно независимы. Независимы ли эти события в совокупности? Оказы- Оказывается, нет. Действительно, пусть извлеченный шар имеет два цвета, например синий и черный. Чему равна вероят- вероятность того, что этот шар имеет и красный цвет? Лишь один шар окрашен во все три цвета, поэтому взятый шар имеет и красный цвет. Таким образом, допустив, что события В и С произошли, приходим к выводу, что событие А обязательно наступит. Следовательно, это 42
событие достоверное и вероятность его равна единице. Другими словами, условная вероятность Рас(Л)= 1 собы- события А не равна его безусловной вероятности Р(А) = 1/2. Итак, попарно независимые события А, В, С не являются независимыми в совокупности. Приведем теперь следствие из теоремы умножения. Следствие. Вероятность совместного появления нескольких событий, независимых в совокупности, равна произведению вероятностей smux событий: Доказательство. Рассмотрим три события; А, В и С. Совмещение событий А, В а С равносильно сов- совмещению событий АВ и С, поэтому Так как события А, В и С независимы в совокуп- совокупности, то независимы, в частности, события АВ и С, а также Л и В. По теореме умножения для двух неза- независимых событий имеем: Р(АВ-С)=*Р(АВ)Р(С) и Р(АВ)**Р(А)Р(В). Итак, окончательно получим Р (ABC) = Р(А)Р (В) Р (Q. Для произвольного п доказательство проводится ме- методом математической индукции. Замечание. Если события А±, Аш, ...,Ап независимы в со- совокупности, то н противоположные им события А%, Аг,.... А„ также независимы в совокупности. Пример 2. Найти вероятность совместного появления герба прн одном бросании двух монет. Решение. Вероятность появления герба первой монеты (со- (событие А) Р (А) = 1/2. Вероятность появления герба второй монеты (событие В) События А и В независимые, поэтому искомая вероятность по теореме умножения равна Р (АВ\ -Р (А) Р (В) -1/2-1/2-1/4. Пример 3. Имеется 3 ящика, содержащих по 10 деталей. В пер- первом ящике 8, во втором 7 и в третьем 9 стандартных детален. Из каждого ящика наудачу вынимают по одной детали. Найти веро- вероятность того, что все три вынутые детали окажутся стандартными. 43
Решение. Вероятность того, что из первого ящика вынута стандартная деталь (событие А), Р (А) = 8/10 = 0,8. Вероятность того, что из второго ящика вынута стандартная деталь (событие В), Р (В) = 7/10 = 0,7. Вероятность того, что из третьего ящика вынута стандартная деталь (событие С), Р @ = 9/10 = 0,9. Так как события А, В и С независимые в совокупности, то ис- искомая вероятность (по теореме умножения) равна Р(АВС) = Р(А)Р (В)Р (С) = 0,80,70,9 = 0,504. Приведем пример совместного применения теорем сложения и умножения. Пример 4. Вероятности появления каждого из трех независимых событий Ах, Аг, Ая соответственно равны />i> Рг, Ра- Найти вероят- вероятность появления только одного из этих событий. Решение. Заметим, что, например, появление только первого события А\ равносильно появлению события AXA2A3 (появилось пер- первое и не появились второе и третье события). Введем обозначения: Bx—появилось только событие Alt т. е. B1 = A1AiAa; В2 — появилось только событие А2, т. е. Вг = А2АхАа; В3—появилось только событие А3, т. е. В3 = А8А1А2. Таким образом, чтобы найти вероятность появления только одного из событий Alt Ая, А3, будем искать вероятность P{B\-\-Bt-\- -j-Z?s) появления одного, безразлично какого из событий Blt Ba, В3. Так как события Вг, В2, Вя несовместны, то применима теорема сложения Р(Вх + В2 + В3) = Р(Вх)+Р(В2) + Р(В3). О Остается найти вероятности каждого из событий В1( Вя, Вя. События Ах,_А2, А3 независимы, следовательно, независимы события Ах, А2, А3, поэтому к ним применима теорема умножения Р (Вх) =Р (АхА213) =Р (Аг) Р (А2) Р (А3) = Plq2q3. Аналогично, Р (В,) =Р (АаАх~А3) = /> (Л2) Р (Ах) Р Йа) =Р2<?1<73; Р (В.,) =Р (АаАхА2) = Р(А3)Р (Ах) Р (А2) = Рзд1Я>. Подставив эти вероятности в (*), найдем искомую вероятность появ- появления только одного из событий Ах, А2, А3: Р (Bi + В2 + В3) = РхЯзЯз + Pe<7i<7s + РаЯгЯг- § 5. Вероятность появления хотя бы одного события Пусть в результате испытания могут появиться п событий, независимых в совокупности, либо некоторые из них (в частности, только одно или ни одного), причем 44
вероятности появления каждого из событий известны. Как найти вероятность того, что наступит хотя бы одно из этих событий? Например, если в результате испытания могут появиться три события, то появление хотя бы одного из этих событий означает наступление либо одного, либо двух, либо трех событий. Ответ на поставленный вопрос дает следующая теорема. Теорема. Вероятность появления хотя бы одного из событий Л1( Аг А„, независимых в совокупности, равна разности между единицей и произведением, вероят- вероятностей противоположных событий Alt А3, ..., Жа: ¦ • ¦ Чп- У/ Доказательство. Обозначим через А событие, состоящее в появлении хотя бы одного из событий Аг, А2, .... Л„. События Л и А^А2 ... Л„ (ни одно из событий не наступило) противоположны, следовательно, сумма их вероятностей равна единице: Отсюда, пользуясь теоремой умножения, получим или Частный случай. Если события Ait Л2, .... А„ имеют одинаковую вероятность, равную р, то вероят- вероятность появления хотя бы одного из этих событий Р (Л) = 1 — q". (**) Пример 1. Вероятности попадания в цель при стрельбе из трех орудий таковы: р1 = 0,8; р2 — 0,7; р3 = 0,9. Найти вероятность хотя бы одного попадания (событие Л) при одном залпе из всех орудий. Решение. Вероятность попадания в цель каждым из орудий не зависит от результатов стрельбы из других орудий, поэтому рас- рассматриваемые события Ai (попадание первого орудия), Аг (попадание второго орудия) и Аа (попадание третьего орудия) независимы в со- совокупности. Вероятности событий, противоположных событиям Аи А3 и А3 (т.е. вероятности промахов), соответственно равны: ql — \—pl = 1—0,8 = 0,2; <7,= 1—р»== 1—0,7 = 0,3; ,7s=l—р,= 1—0,9 = 0,1. Искомая вероятность Р (А) = 1 — qtq2qa = 1 —0,20,30,1 =0,994. 45
Пример 2. В типографии имеется 4 плоскопечатных машины. Для каждой машины вероятность того, что она работает в данный момент, равна 0,9. Найти вероятность того, что в данный момент работает хотя бы одна машина (событие А). Решение. События «машина работает» и «машина не рабо- работает» (в данный момент) — противоположные, поэтому сумма их веро- вероятностей равна единице: Отсюда вероятность того, что машина в данный момент не работает, равна q—\—p= 1—0,9 = 0,1. Искомая вероятность Р (Л)= 1 — q* = 1 — 0,1* = 0,9999. Так как полученная вероятность весьма близка к единице, то на основании следствия из принципа практической невозможности мало- маловероятных событий мы вправе заключить, что в данный момент работает хотя бы одна из машин. Пример 3. Вероятность того, что при одном выстреле стрелок попадает в цель, равна 0,4. Сколько выстрелов должен произвести стрелок, чтобы с вероятностью не менее 0,9 он попал в цель хотя бы один раз? Решение. Обозначим через А событие «при л выстрелах стрелок попадает в цель хотя бы един раз». События, состоящие в попадании в цель при первом, втором выстрелах и т. д., независимы в совокупности, поэтому применима формула (•+) P(A)=l — qn. Приняв во внимание, что, по условию, Р (A)^s0,9, p = 0,4 (следова- (следовательно, q—\—0,4 = 0,6), получим 1— 0,6" 3*0,9; отсюда 0,6"<;0,1. Прологарифмируем это неравенство по основанию 10: «lgO,6<lgO,I. Отсюда, учитывая, что lgO,6 < 0, имеем nSslgO,l/lgO,6= —1/1,7782=—1/(—0,22(8) = 4,5. Итак, л5= 5, т.е. стрелок должен произвести не менее 5 вы- выстрелов. Пример 4. Вероятность того, что событие появится хотя бы один раз в трех независимых в совокупности испытаниях, равна 0,936. Найти вероятность появления события в одном испытании (предпо- (предполагается, что во всех испытаниях вероятность появления события одна и та же). Решение. Так как рассматриваемые события независимы в совокупности, то применима формула (•*) 46
По условию, Р (А) =0,936; п = 3. Следовательно, 0,936=1 — ?», или ?»= 1—0,936 = 0,064. Отсюда </= ?/0,064 = 0,4. Искомая вероятность р=1—<7=1—0,4 = 0,6. Задачи 1. Вероятность того, что стрелок при одном выстреле по- попадает в мишень, равна р = 0,9. Стрелок произвел 3 выстрела. Найти вероятность того, что все 3 выстрела дали попадание. Отв. 0,729. 2. Брошены монета и игральная кость. Найти вероятность сов- совмещения событий: «появился «герб», «появилось 6 очков». Отв. 1/12. 3. В двух ящиках находятся детали: в первом—10 (из них 3 стандартных), во втором—15 (из них 6 стандартных). Из каждого ящика наудачу вынимают по одной детали. Найти вероятность того, что обе детали окажутся стандартными. Отв. 0,12. 4. В студии телевидения 3 телевизионных камеры. Для каждой камеры вероятность того, что она включена в данный момент, равна р = 0,6. Найти вероятность того, что в данный момент включена хотя бы одна камера (событие А). Отв. 0,936. 5. Чему равна вероятность того, что при бросании трех играль- игральных костей 6 очков появится хотя бы на одной из костей (событие А)? Отв. 91/216. в. Предприятие изготовляет 95% изделий стандартных, причем из них 86% — первого сорта. Найти вероятность того, что взятое наудачу изделие, изготовленное на этом предприятии, окажется пер- первого сорта. Отв. 0,817. 7. Монета бросается до тех пор, пока 2 раза подряд она не вы- выпадет одной и той же стороной. Найти вероятности следующих собы- событий: а) опыт окончится до шестого бросания; б) потребуется четное число бросаний. Отв. а) 15/16; 6J/3. 8. Из цифр 1, 2, 3, 4, 5 сначала выбирается одна, а затем из оставшихся четырех — вторая цифра. Предполагается, что все 20 воз- возможных исходов равновероятны. Найти вероятность того, что будет выбрана нечетная цифра: а) в первый раз; б) во второй раз; в) в оба раза. Отв. а) 3/5; б) 3/5; в) 3/10. 9. Вероятность того, что при одном выстреле стрелок попадет в десятку, равна 0,6. Сколько выстрелов должен сделать стрелок, чтобы с вероятностью не менее 0,8 он попал в десятку хотя бы один раз? Отв. л 3*2. 10. Три электрические лампочки последовательно включены в цепь. Вероятность того, что одна (любая) лампочка перегорит, если напряжение в сети превысит номинальное, равна 0,6. Найти вероят- вероятность того, что при повышенном напряжении тока в цепи не будет. Отв. 0,936. 47
11. Вероятность того, что событие А появится хотя бы один раз при двух независимых испытаниях, равна 0,75. Найти вероятность появления события в одном испытании (предполагается, что вероят- вероятность появления события в обоих испытаниях одна и та же). Отв. 0,5. 12. Три команды Ах, А%, А3 спортивного общества А состязаются соответственно с тремя командами общества В. Вероятности того, что команды общества А выиграют матчи у команд общества В, таковы: при встрече Лг с Вх — 0,8; А2 с В2 — 0,4; А3 с В3 — 0,4. Для победы необходимо выиграть не менее двух матчей из трех (ничьи во вни- внимание не принимаются). Победа какого из обществ вероятнее? Отв. Общества Л(Р^ = 0,544 > 1/2). 13. Вероятность поражения цели первым стрелком при одном выстреле равна 0,8, а вторым стрелком — 0,6. Найти вероятность того, что цель будет поражена только одним стрелком. Отв. 0,44. 14. Из последовательности чисел 1, 2, ..., п наудачу одно за другим выбираются два числа. Найти вероятность того, чго одно из них меньше целого положительного числа k, а другое больше к, где 1 < k < п. Отв. [2[k— l)(n — k))/[n(n— 1)]. Указание. Сделать допущения: а) первое число <k, а второе > ft; б) первое число > k, а второе < к. ^15. Отдел технического контроля проверяет изделия на стандарт- стандартность. Вероятность того, что изделие нестандартно, разна 0,1. Найти вероятность того, что: а) из трех проверенных изделий только одно окажется нестандартным; б) нестандартным окажется только четвертое по порядку проверенное изделие. Отв. а) 0,243; б) 0,0729. Глава четвертая СЛЕДСТВИЯ ТЕОРЕМ СЛОЖЕНИЯ И УМНОЖЕНИЯ § 1. Теорема сложения вероятностей совместных событий Была рассмотрена теорема сложения для несов- несовместных событий. Здесь будет изложена теорема сложения для совместных событий. Два события называют совместными, если появление одного из них не исключает появления другого в одном и том же испытании. Пример 1. А — появление четырех очков при бросании играль- игральной кости; В — появление четного числа очков. События А и В — совместные. Пусть события А и В совместны, причем даны веро- вероятности этих событий и вероятность их совместного по- появления. Как найти вероятность события А-\-В, состоя- состоящего в том, что ^появится хотя бы одно из событий А и В? Ответ на этот вопрос дает теорема сложения вероят- вероятностей совместных событий. 48
Теорема. Вероятность появления хотя бы одного из двух совместных событий равна сумме вероятностей этих событий без вероятности их совместного появления: Р (Л + В) = Р (А) + Р {В) — Р (АВ). Доказательство. Поскольку события А и В, по условию, совместны, то событие А + В наступит, если наступит одно из следующих трех несовместных событий: АВ, АВ или АВ. По теореме сложения вероятностей несовместных событий, Событие А произойдет, если наступит одно из двух несовместных событий: АВ или АВ. По теореме сложения вероятностей несовместных событий имеем Р(А)=Р(АВ~) + Р(АВ). Отсюда Р(АВ)=Р(А) — Р(АВ). (**) Аналогично имеем Отсюда Р(АВ) = Р{В) — Р{АВ). {***) Подставив (**) и (***) в (*), окончательно получим Р (А + В) = Р (А) + Р (В) — Р(АВ). (****) Замечание 1. При использовании полученной формулы сле- следует иметь в виду, что события А и В могут быть как независимыми, так и зависимыми. Для независимых событий Р (А + В)= Р (А) + Р (В)-Р (А) Р (В); для зависимых событий Р(А + В) = Р(А) -Р(В)-Р(А)РА(В). Замечание 2. Если события А а В несовместны, то их сов- совмещение есть невозможное событие и, следовательно, Р(ЛВ)=О. Формула (****) для несовместных событий принимает вид Мы вновь получили теорему сложения для несовместных собы- событий. Таким образом, формула (****) справедлива как для совмест- совместных, так и для несовместных событий. Пример 2. Вероятности попадания в цель при стрельбе первого и второго орудий соответственно равны: рх = 0,7; р2 = 0,8. Найти 4 — 2730 49
вероятность попадания при одном залпе (из обоих орудий) хотя бы одним из орудий. Решение. Вероятность попадания в цель каждым из орудий не зависит от результата стрельбы из другого орудия, поэтому собы- события А (попадание первого орудия) и В (попадание второго орудия) независимы. Вероятность события АВ (оба орудия дали попадание) Р (АВ) = Р (А) Р (S) = 0,7 0,8 = 0.56. Искомая вероятность Р (А + В) = Р'(А) + Р (В) — Р (АВ) = 0,7 + 0,8 - 0,56 = 0,94. Замечание 3. Так как в настоящем примере события А к В независимые, то можно было воспользоваться формулой Р=1 — — QiQi (cM- гл. III, § 5). В самом деле, вероятности событий, про- противоположных событиям А и В, т. е. вероятности промахов, таковы: <7i=l—Pi= 1—0,7 = 0,3; q2=l~p2= 1—0,8 = 0,2. Искомая вероятность того, что при одном залпе хотя бы одно орудие даст попадание, равна Р = | — ЦхЦ% = 1 _ 0,3-0.2 = 0,94. Как и следовало ожидать, получен тот же результат. § 2. Формула полной вероятности Пусть событие А может наступить при условии появления одного из несовместных событий Blt В2,'.. ., Вп, которые образуют полную группу. Пусть известны веро- вероятности этих событий и условные вероятности Рв, (А), Рвг{А), •••» Рвп(А) события А. Как найти вероятность события Л? Ответ на этот вопрос дает следующая теорема. Теорема. Вероятность события А, которое может наступить лишь при условии появления одного из несо- несовместных событий Blt B2, ..., Вп, образующих полную группу, равна сумме произведений вероятностей каждого из этих событий на соответствующую условную вероят- вероятность события А: Р (А) = Р (В,) PBl (А) + Р (В,) PBt (A) + ... ... + Р(Вя)РВп(А). Эту формулу называют «формулой полной вероятности». Доказательство. По условию, событие А может наступить, если наступит одно из несовместных событий Blt Bt, ..., Вп. Другими словами, появление события А означает осуществление одного, безразлично какого, из несовместных событий ВХА, BtA, ..., ВпА. Пользуясь 50
для вычисления вероятности события А теоремой сложе- сложения, получим Р (А) = Р (ВгА) + Р (В,А) +...+Р (В„А). (.) Остается вычислить каждое из слагаемых. По теореме умножения вероятностей зависимых событий имеем Р (ВИ) = Р (Bt) PBt (А); Р (ВЛА) = Р (Bt) PBt (A); ... ; Р(ВпА)~Р(Вп)РВп(А). Подставив правые части этих равенств в соотноше- соотношение (•), получим формулу полной вероятности ... + Р(Вп)РВп(А). Пример 1. Имеется два набора деталей. Вероятность того, что деталь первого набора стандартна, равна 0,8, а второго—0,9. Найти вероятность того, что взятая наудачу деталь (из наудачу взятого набора)—стандартная. Решение. Обозначим через А событие «извлеченная деталь стандартна». Деталь может бы+ь извлечена либо из первого набора (собы- (событие Bj), либо из второго (событие Bt). Вероятность того, что деталь вынута из первого набора, Р (ВО = 1/2. Вероятность того, что деталь вынута из второго набора, J= 1/2. словная вероятность того, что из первого набора будет извле- извлечена стандартная деталь, PBt(A) = 0,8. Условная вероятность того, что из -второго набора будет извле- извлечена стандартная деталь, PBt(A)=f),9. Искомая вероятность того, что извлеченная наудачу деталь — стандартная, по формуле полной вероятности равна PBl (А) + Р (В,) Рв% {А)« = 0,5 • 0,8-f 0,5 ¦ 0,9 = 0,85. Пример 2. В первой коробке содержится 20 радиоламп, из них 18 стандартных; во второй коробке—10 ламп, из них 9 стандарт- стандартных. Из второй коробки наудачу взята лампа и переложена в пер- первую. Найти вероятность того, что лампа, наудачу извлеченная из первой коробки, будет стандартной. Решение. Обозначим через А событие «из первой коробки извлечена стандартная лампа». Из второй коробки могла быть извлечена либо стандартная лампа (событие Вг), либо нестандартная (событие Bt). Вероятность того, что из второй коробки извлечена стандартная лампа, Р(В!)»9/10. Вероятность того, что из второй коробки извлечена нестандарт- нестандартная лампа, Р(BJ—IJ10. 4* 51
Условная вероятность того, что из первой коробки извлечена стандартная лампа, при условии, что из второй коробки в первую была переложена стандартная лампа, равна Яд, (А) = 19/21. Условная вероятность того, что из первой коробки извлечена стандартная лампа, при условии, что из второй коробки в первую была переложена нестандартная лампа, равна Рд,(Л)= 18/21. Искомая вероятность того, что из первой коробки будет извле- извлечена стандартная лампа, по формуле полной вероятности равна Р (А) = Р (Вг) PBl(A) + P (В2) Рв,(А) § 3. Вероятность гипотез. Формулы Бейеса Пусть событие А может наступить при условии появления одного из несовместных событий Ви Ва, ..., Вп, образующих полную группу. Поскольку заранее не из- известно, какое из этих событий наступит, их называют гипотезами. Вероятность появления события А опреде- определяется по формуле полной вероятности (см. § 2): ...+Р(В„)РВя(А). (*) Допустим, что произведено испытание, в результате которого появилось событие А. Поставим своей задачей определить, как изменились (в связи с тем, что собы- событие А уже наступило) вероятности гипотез. Другими словами, будем искать условные вероятности PaW, Ра(В2) РА(В„). Найдем сначала условную вероятность РА (Вг). По теореме умножения имеем Р (ABJ = Р (А) РА (В,) = Р (В,) PBi (Л). Отсюда Заменив здесь Р (А) по формуле (*), получим PBi(A)+ ... +Р(Вп) Р„п (А)' Аналогично выводятся формулы, определяющие услов- условные вероятности остальных гипотез, т. е. условная веро- вероятность любой гипотезы В{ A = 1,2, ..., п) может быть 52
вычислена по формуле р (В А К ° Р (Bi) РвЛА)+Р (Вг) рВг(А)+...+Р (Вп) РВа\ (А) • Полученные формулы называют формулами Бейеса (по имени английского математика, который их вывел; опубликованы в 1764 г.). Формулы Бейеса позволяют переоценить вероятности гипотез после того, как ста- становится известным результат испытания, в итоге кото- которого появилось событие А. Пример. Детали, изготовляемые цехом завода, попадают для проверки их на стандартность к одному из двух конгролеров. Веро- Вероятность того, что деталь попадает к первому контролеру, равна 0,6, а ко второму — 0,4. Вероятность того, что годная деталь будет приз- признана стандартной первым контролером, равна 0,94, а вторым — 0,98. Годная деталь при проверке была признана стандартной. Найти вероятность того, что эту деталь проверил первый контролер. Решение. Обозначим через А событие, состоящее в том, что годная деталь признана стандартной. Можно сделать два предполо- предположения: 1) деталь проверил первый контролер (гипотеза Bj); 2) деталь проверил второй контролер (гипотеза В2). Искомую вероятность того, что деталь проверил первый контро- контролер, найдем по формуле Бейеса: По условию задачи имеем: />(В1) = 0,6 (вероятность того, что деталь попадает к первому конт- контролеру); Р (В2) = 0А (вероятность того, что деталь попадет ко второму конт- контролеру); Рд1(А) = 0,94 (вероятность того, что годная деталь будет признана первым контролером стандартной); Рва(Л)=0,98 (вероятность того, что годная деталь будет признана вторым контролером стандартной). Искомая вероятность Pa (Si) = @.6 0,94)/@,6- 0,94 + 0,4-0,98) а 0,59. Как видно, до испытания вероятность гипотезы Bt равнялась 0,6, а после того, как стал известен результат испытания, вероятность этой гипотезы (точнее, условная вероятность) изменилась и стала рав- равной 0,59. Таким образом, использование формулы Бейеса позволило переоценить вероятность рассматриваемой гипотезы. Задачи 1. Два стрелка произвели по одному выстрелу. Вероят- Вероятность попадания в мишень первым стрелком равна С,7, а вторым—¦ 0,6. Найти вероятность того, что Хотя бы один из стрелков попал в мишень. Отв. 0,88. 63
2. У сборщика имеется 16 деталей, изготовленных заводом № 1, и 4 детали завода № 2. Наудачу взяты 2 детали. Найти вероятность того, что хотя бы одна из них окажется изготовленной заводом Nk 1. Отв. 92/95. 3. В группе спортсменов 20 лыжников, 6 велосипедистов и 4 бе- бегуна. Вероятность выполнить квалификационную норму такова: для лыжника—0,9, для велосипедиста—0,8 и для бегуна—0,75. Найти вероятность того, что спортсмен, выбранный наудачу, выполнит норму. Отв. 0,86. 4. Сборщик получил 3 коробки деталей, изготовленных заво- заводом № 1, и 2 коробки деталей, изготовленных заводом № 2. Вероят- Вероятность того, что деталь завода № 1 стандартна, равна 03, а завода № 2—0,9, Сборщик наудачу извлек деталь из наудачу взятой ко- коробки. Найти вероятность того, что извлечена стандартная деталь. Отв. 0.84. 5. В первом ящике содержится 20 деталей, из них. 15 стандарт- стандартных; во втором—30 деталей, из них 24 стандартных; в третьем—. 10 деталей, из них 6 стандартных. Найти вероятность того, что наудачу извлеченная деталь нз наудачу взятого ящнка—стандартная. Отв. 43/60. в. В телевизионном ателье имеется 4 кинескопа. Вероятности того, что кинескоп выдержит гарантийный срок службы, соответст- соответственно равны 0,8; 0,85; 0,9; 0,95. Найти вероятность того, что взятый наудачу кинескоп выдержит гарантийный срок службы. Отв. 0,875. 7. В двух ящиках имеются радиолампы. В первом ящике содер- содержится 12 ламп, из них I нестандартная; во втором 10 ламп, из них 1 нестандартная. Из первого ящика наудачу взята лампа и перело- переложена во второй. Найти вероятность того, что наудачу извлеченная из второго ящика лампа будет нестандартной. Отв. 13/132. 8. Из полного набора 28 костей домино наудачу извлечена кость. Найти вероятность того, что вторую извлеченную наудачу кость можно приставить к первой. Отв. 7/18. 9. Студент знает не все экзаменационные билеты. В каком слу- случае вероятность вытащить неизвестный билет будет для него наимень- наименьшей: когда он берет билет первым или последним? Отв. Вероятности одинаковы в обоих случаях. 10. В ящик, содержащий 3 одинаковых детали, брошена стан- стандартная деталь, а затем наудачу извлечена одна деталь. Найти вероятность того, что извлечена стандартная деталь, если равноверо- равновероятны все возможные предположения о числе стандартных деталей, первоначально находящихся в ящике. Отв. 0,625. П. При отклонении от нормального режима работы автомата срабатывает сигнализатор С-1 с вероятностью 0.8, а сигнализатор С-11 срабатывает с вероятностью 1. Вероятности того, что автомат снабжен сигнализатором С-1 или С-11, соответственно равны 0,6 н 0,4. Получен сигнал о разделке автомата. Что вероятнее: автомат снабжен сигнализатором С-1 или С-11? Отв. Вероятность того, что автомат снабжен сигнализатором С-1, равна 6/11, а С-11—5/11. 54
12. Для участия в студенческих отборочных спортивных соревно- соревнованиях выделено из первой группы курса 4, из второй —6, из третьей группы—5 студентов. Вероятности того, что студент первой, второй и третьей группы попадает в сборную института, соответственно равны 0,9; 0,7 и 0,8. Наудачу выбранный студент в итоге соревно- соревнования попал в сборную. К какой из групп вероятнее всего принад- принадлежал этот студент? Отв. Вероятности того, что выбран студент первой, второй, тре- третьей групп, соответственно равны: 18/59, 21/59, 20/59. 13. Вероятность для изделий некоторого производства удовлетво- удовлетворять стандарту равна 0,96. Предлагается упрощенная система про- проверки на стандартность, дающая положительный результат с вероят- вероятностью 0,98 для изделий, удовлетворяющих стандарту, а для изде- изделий, которые не удовлетворяют стандарту,— с вероятностью 0,05. Найти вероятность того, что изделие, признанное при проверке стандартным, действительно удовлетворяет стандарту. Отв. 0,998. Глава пятая ПОВТОРЕНИЕ ИСПЫТАНИЙ § 1. Формула Бернулли Если производится несколько испытаний, при- причем вероятность события А в каждом испытании не за- зависит от исходов других испытаний, то такие испытания называют независимыми относительно события А. В разных независимых испытаниях событие А может иметь либо различные вероятности, либо одну и ту же вероятность. Будем далее рассматривать лишь такие независимые испытания, в которых событие А имеет одну и ту же вероятность. Ниже воспользуемся понятием сложного события, по- понимая под ним совмещение нескольких отдельных собы- событий, которые называют простыми. Пусть производится п независимых испытаний, в каж- каждом из которых событие А может появиться либо не появиться. Условимся считать, что вероятность собы- события А в каждом испытании одна и та же, а именно равна р. Следовательно, вероятность ненаступления со- события А в каждом испытании также постоянна и равна 9 = 1—р. Поставим перед собой задачу вычислить вероятность того, что при п испытаниях событие А осуществится ровно k раз и, следовательно, не осуществится п—k раз. Важно подчеркнуть, что не требуется, чтобы событие А повторилось ровно к раз в определенной последователь- 65
ности. Например, если речь идет о появлении события А три раза в четырех испытаниях, то возможны следующие сложные события: АААА, АААА, АААА, АААА. Запись АААА означает, что в первом, втором и третьем испы- испытаниях событие А наступило, а в четвертом испытании оно не появилось, т. е. наступило противоположное со- событие А; соответственный смысл имеют и другие записи. Искомую вероятность обозначим Рп (k). Например, символ Ръ C) означает вероятность того, что в пяти испытаниях событие появится ровно 3 раза и, следова- следовательно, не наступит 2 раза. Поставленную задачу можно решить с помощью так называемой формулы Бернулли. Вывод формулы Бернулли. Вероятность одного слож- сложного события, состоящего в том, что в п испытаниях событие А наступит k раз и не наступит п—k раз, по теореме умножения вероятностей независимых событий равна pkqn~k. Таких сложных событий может быть столько, сколько можно составить сочетаний из п эле- элементов по k элементов, т. е. Скп. Так как эти сложные события несовместны, то по теореме сложения вероятно- вероятностей несовместных событий искомая вероятность равна сумме вероятностей всех возможных сложных событий. Поскольку же вероятности всех этих сложных событий одинаковы, то искомая вероятность (появления k раз со- события А в п испытаниях) равна вероятности одного сложного события, умноженной на их число: или ^»w k\(n—k)\p q Полученную формулу называют формулой Бернулли. Пример. Вероятность того, что расход электроэнергии в продол- продолжение одних суток не превысит установленной нормы, равна р = 0,75. Найти вероятность того, что в ближайшие 6 суток расход электро- электроэнергии в течение 4 суток не превысит нормы. Решение. Вероятность нормального расхода электроэнергии в продолжение каждых из 6 суток постоянна и равна р = 0,75. Сле- Следовательно, вероятность перерасхода электроэнергии в каждые сутки также постоянна и равна q=\—р—1—0,75 = 0,25. Искомая вероятность по формуле Бернулли равна Pt D) =С$/>У = C\p*q*=j^ @.75)*.@,25)* =0,30. 56
§ 2. Локальная теорема Лапласа Выше была выведена формула Бернулли, позво- позволяющая вычислить вероятность того, что событие появится в п испытаниях ровно k раз. При выводе мы предпола- предполагали, что вероятность появления события в каждом испытании постоянна. Легко видеть, что пользоваться формулой Бернулли при больших значениях п достаточно трудно, так как формула требует выполнения действий над громадными числами. Например, если п = 50, k = 30, р=0,1, то для отыскания вероятности Рьо C0) надо вычислить выражение РбоC0) =50!/C0!20!)-@,l)so-@,9)a», где 50! =30 414 093-10*', 30! =26 525 286-10»,20! = = 24 329020-1011. Правда, можно несколько упростить вычисления, пользуясь специальными таблицами лога- логарифмов факториалов. Однако и этот путь остается громоздким и к тому же имеет существенный недостаток: таблицы содержат приближенные значения логарифмов, поэтому в процессе вычислений накапливаются погреш- погрешности; в итоге окончательный результат может значи- значительно отличаться от истинного. Естественно возникает вопрос: нельзя ли вычислить интересующую нас вероятность, не прибегая к формуле Бернулли? Оказывается, можно. Локальная теорема Лапласа и дает асимптотическую *' формулу, которая позволяет приближенно найти вероятность появления события ровно k раз в п испытаниях, если число испы- испытаний достаточно велико. Заметим, что для частного случая, а именно для р=1/2, асимптотическая формула была найдена в 1730 г. Муавром; в 1783 г. Лаплас обобщил формулу Муавра для произвольного р, отличного от 0 и 1. Поэтому тео- теорему, о которой здесь идет речь, иногда называют теоремой Муавра—Лапласа. Доказательство локальной теоремы Лапласа довольно сложно, поэтому мы приведем лишь формулировку тео- теоремы и примеры, иллюстрирующие ее использование. Локальная теорема Лапласа. Если вероятность р появ- появления события А в каждом испытании постоянна и отлична от нуля и единицы, то вероятность Р„ (k) того, *» Функцию ф (х) называют асимптотическим приближением функции f(x), если lim _Li?L—1. X -*¦ оо ф (¦*) 57
что событие А появится в п испытаниях ровно k раз, приближенно равна (тем точнее, чем больше п) значению функции i/ = —1— У Vnpq при x — (k—np)l\fnpq. Имеются таблицы, в которых помещены значения функции ф (х) = ¦ , е-*'/*, соответствующие положитель- положительным значениям аргумента х (см. приложение 1). Для отрицательных значений аргумента пользуются теми же таблицами, так как функция <р(х) четна, т. е. <р (—х)=ф(дс). Итак, вероятность того, что событие А появится в п независимых испытаниях ровно k раз, приближенно равна где x = (k—np)JY npq. Пример 1. Найти вероятность того, что событие А наступит ровно 80 раз в 400 испытаниях, если вероятность появления этого события в каждом испытании равна 0,2. Решение. По условию, я = 400; k = 80; р = 0,2; ^ = 0,8. Вос- Воспользуемся асимптотической формулой Лапласа: Вычислим определяемое данными задачи значение х: x=(k—np)/y~npq=(80~400.0,2)/8=-0. По таблице приложения 1 находим ф@) = 0,3989. Искомая вероятность Р*оо (80) = A /8) 0,3989 = 0,04986. Формула Бернулли приводит примерно к такому же результату (выкладки ввиду их громоздкости опущены): Р*оо (80) =0,0498. Пример 2. Вероятность поражения мишени стрелком при одном выстреле р—0,75. Найти вероятность того, что при 10 выстрелах стрелок поразит мишень 8 раз. Решение. По условию, л =10; k~8; p = 0,75; 9 = 0,25. Воспользуемся асимптотической формулой Лапласа: *« (8) = 58
Вычислим определяемое данными задачи значение х: ^k — np_ 8—10-0,75 Х~ V~npq ~~ ^10.0,75.0,25 По таблице приложения 1 находим <р @,36) = 0,3739. Искомая вероятность ^ю (8) = 0,7301 -0,3739 = 0,273. Формула Бернулли приводит к иному результату, а именно р10(8)=0,282. Столь значительное расхождение ответов объясняется тем, что в настоящем примере п имеет малое значение (формула Лапласа дает достаточно хорошие приближения лишь при достаточно больших значениях п). § 3. Интегральная теорема Лапласа Вновь предположим, что производится п испы- испытаний, в каждом* из которых вероятность появления события А постоянна и равна р @ < р < 1). Как вычис- вычислить вероятность Pn(kx, кл) того, что событие А появится в п испытаниях не менее kt и не более kt раз (для крат- краткости будем говорить «от kx до k2 раз»)? На этот вопрос отвечает интегральная теорема Лапласа, которую мы приводим ниже, опустив доказательство. Теорема. Если вероятность р наступления события А в каждом испытании постоянна и отлична от нуля и единицы, то вероятность Pn(klt ks) того, что событие А появится в п испытаниях от kt до ka раз, приближенно равна определенному интегралу />„(*!. AJ^^Je—/"d*. (.) где х' =(^—прIУ npq и Xя = (kt—np)(V npq. При решении задач, требующих применения интеграль- интегральной теоремы Лапласа, пользуются специальными табли- таблицами, так как неопределенный интеграл Je-*J/1dz не выражается через элементарные функции. Таблица для интеграла Ф (*) = —т= \е~'*/ж4г приведена в конце книги (см. приложение 2). В таблице даны значения функции Ф(х) для положительных значений х и для х — 0; для *<0 пользуются той же таблицей [функция Ф(х) не- 59
четна, т. е. Ф (— х) — — Ф (х)]. В таблице приведены значения интеграла лишь до х = 5, так как для х > 5 можно принять Ф (л:) = 0,5. Функцию Ф(х) часто называют функцией Лапласа. Для того чтобы можно было пользоваться таблицей функции Лапласа, преобразуем соотношение (*) так: ] о Итак, вероятность того, что событие А появится в п независимых испытаниях от kt до &а раз, Pn(ku к3)~Ф(х")-Ф(х'), где x' = (k1—np)lfyrnpq и х" = (k2—np)j\/"npq- Приведем примеры, иллюстрирующие применение ин- интегральной теоремы Лапласа. Пример. Вероятность того, что деталь не прошла проверку ОТК, равна р = 0,2. Найти вероятность того, что среди 400 случайно ото- отобранных деталей окажется непроверенных от 70 до 100 деталей. Решение. По условию, р = 0,2; ^ = 0,8; л = 400; Ai = 70; fc2=100. Воспользуемся интегральной теоремой Лапласа: Р400G0, 100) «Ф (*")-<!>(*')• Вычислим нижний и верхний пределы интегрирования: 70-400-0,2 = =9 5 Vnpq /400 0,2.0,8 Таким образом, имеем Р400 G0. 100) = Ф B,5) —Ф (—1,25) = Ф B,5) + Ф A,25). По таблице приложения 2 находим: Ф B,5) =0,4938; Ф A,25) = 0,3944. Искомая вероятность Р400 G0, 100)=0,4938 + 0,3944 = 0,8882. Замечание. Обозначим через т число появлений события А при п независимых испытаниях, в каждом из которых вероятность наступления события А постоянна и равна р. Если число т изме- изменяется от kt до k2, то дробь (т—прI Упрд изменяется от (ftx — пр)( Ynpq — х' до (йа — прI У^Ч>Я = х". Следовательно, интег- 60
ральную теорему Лапласа можно записать и так: Эта форма записи используется ниже. § 4. Вероятность отклонения относительной частоты от постоянной вероятности в независимых испытаниях Вновь будем считать, что производится п неза- независимых испытаний, в каждом из которых вероятность появления события А постоянна и равна р (О < р < 1). Поставим перед собой задачу найти вероятность того, что отклонение относительной частоты т/п от постоянной вероятности р по абсолютной величине не превышает заданного числа е > 0. Другими словами, найдем веро- вероятность осуществления неравенства \т/п— р|^е. (*) Эту вероятность будем обозначать так: Р(\т/п — р|^е). Заменим неравенство (*) ему равносильными: — е^т/д — р<1е или —е<!(т—пр)/п^.е. Умножая эти неравенства на положительный множитель yrn/(pq), получим неравенства, равносильные исходному: — е Vnl{pq) < (m — np)l]/"npq < е Vn/(pq). Воспользуемся интегральной теоремой Лапласа в фор- форме, указанной в замечании (см. § 3). Положив х' = Vnl(pq) и х"— e\fn/(pq), имеем Р (— V V n/(pq) е V n/(pq) Г 2 f /(pq) / 0 Наконец, заменив неравенства, заключенные в скобках, равносильным им исходным неравенством, окончательно получим Р (| т/п — р К е) ~ 2Ф (е У n/(pq)). 61
Итак, вероятность осуществления неравенства \т/п—р|^ приближенно равна значению удвоенной функции Лапласа 2Ф (х) при х = гУ n/(pq). Пример 1. Вероятность того, что деталь не стандартна, р = 0,1. Найтн вероятность того, что среди случайно отобранных 400 деталей относительная частота появления нестандартных деталей отклонится от вероятности р*=0,1 по абсолютной величине не более чем на 0,03. Решение. По условию, л = 400; p = 0,I; q = 0,9; е = 0,03. Тре- Требуется найтн вероятность Р (| т/400—0,1 | < 0,03). Пользуясь форму- формулой Р (| т/п—р | < е) да 2Ф (е Vnl{pqj), имеем Р (| т/400—0,1 ] < 0,03) « 2Ф @,03 1^400/@,1 0,9)) = 2Ф B). По таблице приложения 2 находим Ф B) = 0,4772. Следовательно, 2Ф B) = 0,9544. Итак, искомая вероятность приближенно равна 0,9544. Смысл полученного результата таков: если взять достаточно большое число проб по 400 деталей в каждой, то примерно в 95,44% этих проб отклонение относительной частоты от постоянной вероят- вероятности р=0,1 по абсолютной величине не превысит 0,03, Пример 2. Вероятность того, что деталь не стандартна, р = 0,1. Найти, сколько деталей надо отобрать, чтобы с вероятностью, равной 0,9544, можно было утверждать, что относительная частота появления нестандартных деталей (среди отобранных) отклонится от постоянной вероятности р по абсолютной величине не более чем на 0,03. Решение. По условию, p=0,I; д=0,9; е = 0,03; Р(\т/п—0,1|< < 0,03) = 0,9544. Требуется найти п. Воспользуемся формулой Р(|т/л-р|<;е)«2Ф(е У В силу условия 2Ф @,03 /л/@,1-0,9)) = 2Ф @,1 У~п) =,0,9544. Следовательно, Ф@,1 У~л) = 0,4772. По таблице приложения 2 находим Ф B) = 0,4772. Для отыскания числа п получаем уравнение 0,1 У~п — 2. Отсюда искомое число деталей п = 400. Смысл полученного результата таков: если взять достаточно большое число проб по 400 деталей, то в 95,44% этих проб относи- относительная частота появления нестандартных деталей будет отличаться от постоянной вероятности р = 0,1 по абсолютной величине не более чем на 0,03, т. е. относительная частота заключена в границах от 0,07@,1—0,03 = 0,07) до 0,13@.1-4-0,03 = 0,13). Другими словами, число нестандартных деталей в 95,44% проб будет заключено между 28G% от 400) и 52A3% от 400). Если взять лишь одну пробу из 400 деталей, то с большой уверенностью можно ожидать, что в этой пробе будет нестандартных деталей ие менее 28 и не более 52. Возможно, хотя и маловероятно, что нестандартных деталей окажется меньше 28 либо больше 52. 63
Задачи 1. В цехе 6 моторов. Для каждого мотора вероятность того, что он в данный момент включен, равна 0,8. Найти вероятность того, что в данный момент: а) включено 4 мотора; 6) включены все моторы; в) выключены все моторы. Отв. а) Рв D) = 0,246; б) РвF) = 0,26; в) Р, @) = 0,000064. 2. Найти вероятность того, что событие А появится в пяти не- независимых испытаниях не менее двух раз, если в каждом испытании вероятность появления события А равна 0,3. Отв. Р=1 — [Рв@) + РвA)] = 0,472. 3. Событие В появится в случае, если событие А появится не менее двух раз. Найти вероятность того, что наступит событие В, если будет произведено 6 независимых испытаний, в каждом из которых вероятность появления события А равна 0,4. Отв. Р=1—[Рв@) + Рв AI=0,767. 4. Произведено 8 независимых испытаний, в каждом из которых вероятность появления события А равна 0,1. Найти вероятность того, что событие А появится хотя бы 2 раза. Отв. Р=1—[Р8@) + Р8 A)] = 0,19. 5. Монету бросают 6 раз. Найти вероятность того, что герб вы- выпадет: а) менее двух раз; б) не менее двух раз. Отв. a)P = Pe@)-fP,(l) = 7/64;6)Q=l-[Pe@)+Pe(l)] = 57/64. в. Вероятность попадания в цель при одном выстреле из орудия р=0,9. Вероятность поражения цели при k попаданиях (fe^sl) равна 1—<7*. Найти вероятность того, что цель будет поражена, если сде- сделано два выстрела. Указание. Воспользоваться формулами Бернулли и полной вероятности. Отв. 0,9639. 7. Найти приближенно вероятность того, что при 400 испытаниях событие наступит ровно 104 раза, если вероятность его появления в каждом испытании равна 0,2. Отв. Р400 A04) =0,0006. 8. Вероятность поражения мишени стрелком при одном выстреле равна 0,75. Найти вероятность того, что при 100 выстрелах мишень, будет поражена: а) не менее 70 и не более 80 раз; б) не более 70 раз. Отв. а) Р100 G0,80) = 2Ф( 1,1 б) = 0,7498; б) Рюо@; 70)=—ФA,15) + 0,5 = 0,1251. 9. Вероятность появления события в каждом из 10 000 независи- независимых испытаний р = 0,75. Найти вероятность того, что относительная частота появления события отклонится от его вероятности по абсо- абсолютной величине не более чем на 0,001. Отв. Р = 2Ф @,23) = 0,182. 10. Вероятность появления события в каждом из независимых испытаний равна 0,2. Найти, какое отклонение относительной частоты появления события от его вероятности можно ожидать с вероятностью 0,9128 при 5000 испытаниях. Отв. е = 0,00967. П. Сколько раз надо бросить монету, чтобы с вероятностью 0,6 можно было ожидать, что отклонение относительной частоты появле- появлений герба от вероятности р = 0,5 окажется по абсолютной величине не более 0,01? Отв. « = 1764.
ЧАСТЬ ВТОРАЯ СЛУЧАЙНЫЕ ВЕЛИЧИНЫ Глава шестая ВИДЫ СЛУЧАЙНЫХ ВЕЛИЧИН. ЗАДАНИЕ ДИСКРЕТНОЙ СЛУЧАЙНОЙ ВЕЛИЧИНЫ § 1. Случайная величина Уже в первой части приводились события, со- состоящие в появлении того или иного числа. Например, при бросании игральной кости могли появиться числа 1, 2, 3, 4, 5 и 6. Наперед определить число выпавших очков невозможно, поскольку оно зависит от многих случайных причин, которые полностью не могут быть учтены. В этом смысле число очков есть величина случайная; числа 1, 2, 3, 4, 5 и 6 есть возможные значения этой величины. Случайной называют величину, которая в результате испытания примет одно и только одно возможное значе- значение, наперед не известное и зависящее от случайных причин, которые заранее не могут быть учтены. Пример 1. Число родившихся мальчиков среди ста новорожден- новорожденных есть случайная величина, которая имеет следующие возможные значения: 0, 1, 2, ..., 100. Пример 2. Расстояние, которое пролетит снаряд при выстреле из орудия, есть случайная величина. Действительно, расстояние зависит не только от установки прицела, но и от многих других причин (силы и направления ветра, температуры и т. д.), которые не могут быть полностью учтены. Возможные значения этой величины принад- принадлежат некоторому промежутку (а, Ь). Будем далее обозначать случайные величины пропис- прописными буквами X, Y, Z, а их возможные значения—соот- значения—соответствующими строчными буквами х, у, г. Например, если случайная величина X имеет три возможных значе- значения, то они будут обозначены так: хх, хг, ха. 64
§ 2. Дискретные и непрерывные случайные величины Вернемся к примерам, приведенным выше. В пер- первом из них случайная величина X могла принять одно из следующих возможных значений: 0, 1, 2, . . ., 100. Эти значения отделены одно от другого промежутками, в которых нет возможных значений X. Таким образом, в этом примере случайная величина принимает отдельные, изолированные возможные значения. Во втором примере случайная величина могла принять любое из значений промежутка (а, Ь). Здесь нельзя отделить одно возможное значение от другого промежутком, не содержащим воз- возможных значений случайной величины. Уже из сказанного можно заключить о целесообразно- целесообразности различать случайные величины, принимающие лишь отдельные, изолированные значения, и случайные вели- величины, возможные значения которых сплошь заполняют некоторый промежуток. Дискретной (прерывной) называют случайную вели- величину, которая принимает отдельные, изолированные воз- возможные значения с определенными вероятностями. Число возможных значений дискретной случайной величины может быть конечным или бесконечным. Непрерывной называют случайную величину, которая может принимать все значения из некоторого конечного или бесконечного промежутка. Очевидно, число возмож- возможных значений непрерывной случайной величины беско- бесконечно. Замечание. Настоящее определение непрерывной случайной величины не является точным. Более строгое определение будет дано позднее. § 3. Закон распределения вероятностей дискретной случайной величины На первый взгляд может показаться, что для задания дискретной случайной величины достаточно пере- перечислить все ее возможные значения. В действительности это не так: случайные величины могут иметь одинако- одинаковые перечни возможных значений, а вероятности их — различные. Поэтому для задания дискретной случайной величины недостаточно перечислить все возможные ее значения, нужно еще указать их вероятности. 5 — 2730 65
Законом распределения дискретной случайной величины называют соответствие между возможными значениями и их вероятностями; его можно задать таблично, аналити- аналитически (в виде формулы) и графически. При табличном задании закона распределения дискрет- дискретной случайной величины первая строка таблицы содержит возможные значения, а вторая — их вероятности: X xt xt ... хп Р Pi Pt '•• Рп Приняв во внимание, что в одном испытании случайная величина принимает- одно и только одно возможное зна- значение, заключаем, что события X — xlt X = xa, ..., X = хп образуют полную группу; следовательно, сумма вероят- вероятностей этих событий, т. е. сумма вероятностей второй строки таблицы, равна единице: Если множество возможных значений X бесконечно (счетно), то ряд р1-\-р1 + ... сходится и его сумма равна единице. Пример. В денежной лотерее выпущено 100 билетов. Разыгры- Разыгрывается один выигрыш в 50 руб. и десять выигрышей по 1 руб. Найти закон распределения случайной величины X — стоимости возможного выигрыша для владельца одного лотерейного билета'. Решение. Напишем возможные значения X: *1 = 50, хг—\, х3 = 0. Вероятности этих возможных значений таковы: р1 = 0,01, р„ = 0,01, Рз=1-(р1 + Р4)=0,89. Напишем искомый закон распределения: X 50 10 0 р 0,01 0,1 0,89 Контроль: 0,01+0,1+0,89=1. Для наглядности закон распределения дискретной случайной величины можно изобразить и графически, для чего в прямоугольной системе координат строят точки (х,-, р^, а затем соединяют их отрезками прямых. Полученную фигуру называют многоугольником распре- распределения. § 4. Биномиальное распределение Пусть производится п независимых испытаний, в каждом из которых событие А может появиться либо не появиться. Вероятность наступления события во всех 66
испытаниях постоянна и равна р (следовательно, вероят- вероятность непоявления <7=1—Р)- Рассмотрим в качестве дискретной случайной величины X число появлений со- события А в этих испытаниях. Поставим перед собой задачу: найти закон распреде- распределения величины X. Для ее решения требуется определить возможные значения X и их вероятности. Очевидно, событие А в п испытаниях может либо не появиться, либо появиться 1 раз, либо 2 раза, ..., либо п раз. Таким образом, возможные значения X таковы: хг — 0, jc2=l, xa = 2, ..., хп+1 = п. Остается найти вероятности этих возможных значений, для чего достаточно восполь- воспользоваться формулой Бернулли: где й = 0, 1, 2, .... п. Формула (*) и является аналитическим выражением искомого закона распределения. Биномиальным называют распределение вероятностей, определяемое формулой Бернулли. Закон назван «бино- «биномиальным» потому, что правую часть равенства (*) можно рассматривать как общий член разложения бинома Ньютона: (p + q)" - СппР" + СГ1?"-1? + • • • +С*рУ"*+ •.. +C°nq\ Таким образом, первый член разложения р" опреде- определяет вероятность наступления рассматриваемого события п раз в п независимых испытаниях; второй член npn~1q определяет вероятность наступления события п—1 раз; ...; последний член q" определяет вероятность того, что событие не появится ни разу. Напишем биномиальный закон в виде таблицы: X п п—\ ... k ... О Р рп npn~1q . . . Cknphq"-k ... qn Пример. Монета брошена 2 раэа. Написать в виде таблицы закон распределения случайной величины X — числа выпадений «герба». Решение. Вероятность появления «герба» в каждом бросании монеты р—1/2, следовательно, вероятность непоявления «герба» 9=1_1/2=1/2. При двух бросаниях монеты «герб» может появиться либо 2 раза, либо 1 раз, либо совсем не появиться. Таким образом, возможные значения X таковы: *i = 2, х2 = 1, х3—0. Найдем вероятности этих 5* 67
возможных значений по формуле Бернулли: Ра B) = С?р2= A/2K = 0,25, Напишем искомый закон распределения: X 2 1 0 р 0,25 0,5 0,25 Контроль: 0,25 + 0,5+0,25=1. § 5. Распределение Пуассона Пусть производится п независимых испытаний, в каждом из которых вероятность появления события А равна р. Для определения вероятности k появлений со- события в этих испытаниях используют формулу Бернулли. Если же п велико, то пользуются асимптотической фор- формулой Лапласа. Однако эта формула непригодна, если вероятность события мала (pssCO.l). В этих случаях (п велико, р мало) прибегают к асимптотической формуле Пуассона. Итак, поставим перед собой задачу найти вероятность того, что при очень большом числе испытаний, в каждом из которых вероятность события очень мала, событие наступит ровно k раз. Сделаем важное допущение: про- произведение пр сохраняет постоянное значение, а именно пр = Х. Как будет следовать из дальнейшего (см. гл. VII, § 5), это означает, что среднее число появлений события в различных сериях испытаний, т. е. при различных значениях п, остается неизменным. Воспользуемся формулой Бернулли для вычисления интересующей нас вероятности: Так как рп = "К, то р = к/п. Следовательно, Р /|.ч _ я (я-*)(я-Д)-••!«-(*-1I (Ь\*(л Приняв во внимание, что п имеет очень большое значе- значение, вместо Р„ (k) найдем lim Р„ (k). При этом будет най- дено лишь приближенное значение отыскиваемой вероят- вероятности: п хотя и велико, но конечно, а при отыскании 68
предела мы устремим п к бесконечности. Заметим, что поскольку произведение пр сохраняет постоянное значе- значение, то при п—>-оо вероятность р—> (). Итак, Таким образом (для простоты записи знак приближен- приближенного равенства опущен), Эта формула выражает закон распределения Пуассона вероятностей массовых (п велико) и редких (р мало) событий. Замечание. Имеются специальные таблицы, пользуясь кото- которыми можно найти Pn(k), зная k и X. Пример. Завод отправил на базу 5000 доброкачественных изде- изделий. Вероятность того, что в пути изделие повредится, равно 0,0002. Найти вероятность того, что на базу прибудут 3 негодных изделия. Решение. По условию, п = 5000, р — 0,0002, й = 3. Найдем Я: к = пр = 5000 0,0002=1. По формуле Пуассона искомая вероятность приближенно равна ^бооо C) = kke~X/k\ =e-V3! = l/6e =>. 0,06. § 6. Простейший поток событий Рассмотрим события, которые наступают в слу- случайные моменты времени. Потоком событий называют последовательность со- событий, которые наступают в случайные моменты времени. Примерами потоков служат: поступление вызовов на АТС, на пункт неотложной медицинской помощи, при- прибытие самолетов в аэропорт, клиентов на предприятие бытового обслуживания, последовательность отказов эле- элементов и многие другие. Среди свойств, которыми могут обладать потоки, вы- выделим свойства стационарности, отсутствия последействия и ординарности. Свойство стационарности характеризуется тем, что вероятность появления k событий на любом промежутке 69
времени зависит только от числа ft и от длительности t промежутка и не зависит от начала его отсчета; при этом различные промежутки времени предполагаются непере- непересекающимися. Например, вероятности появления k собы- событий на промежутках времени A; 7), A0; 16), (Г; 7 + 6) одинаковой длительности t — 6 ед. времени равны между собой. Итак, если поток обладает свойством стационарности, то вероятность появления k событий за промежуток времени длительности t есть функция, зависящая только от k и t. Свойство отсутствия последействия характеризуется тем, что вероятность появления k событий на любом промежутке времени не зависит от того, появлялись или не появлялись события в моменты времени, предшествую- предшествующие началу рассматриваемого промежутка. Другими сло- словами, условная вероятность появления k событий на любом промежутке времени, вычисленная при любых предположениях о том, что происходило до начала рас- рассматриваемого промежутка (сколько событий появилось, в какой последовательности), равна безусловной вероят- вероятности. Таким образом, предыстория потока не сказывается на вероятности появления событий в ближайшем будущем. Итак, если поток обладает свойством отсутствия последействия, то имеет место взаимная независимость появлений того или иного числа событий в непересекаю- непересекающиеся промежутки времени. Свойство ординарности характеризуется тем, что по- появление двух и более событий за малый промежуток времени практически невозможно. Другими словами, вероятность появления более одного события пренебре- пренебрежимо мала по сравнению с вероятностью появления толь- только одного события. Итак, если поток обладает свойством ординарности, то за бесконечно малый промежуток времени может появиться не более одного события. Простейшим (пуассоновским) называют поток собы- событий, который обладает свойствами стационарности, отсут- отсутствия последействия и ординарности. Замечание. Часто на практике трудно установить, обладает ли поток перечисленными выше свойствами. Поэтому были найдены и другие условия, при соблюдении которых поток можно считать простейшим или близким к простейшему. В частности, установлено, что если поток представляет собой сумму очень большого числа неза- 70
висимых стационарных потоков, влияние каждого из которых на всю сумму (суммарный поток) ничтожно мало, то суммарный поток (при условии его ординарности) близок к простейшему. Интенсивностью потока X называют среднее число событий, которые появляются в единицу времени. Можно доказать, что если постоянная интенсивность потока известна, то вероятность появления k событий про- простейшего потока за время длительностью / определяется формулой Пуассона Эта формула отражает все свойства простейшего потока. Действительно, из формулы видно, что вероятность появления k событий за время t, при заданной интен- интенсивности является функцией k и t, что характеризует свойство стационарности. Формула не использует информации о появлении собы- событий до начала рассматриваемого промежутка, что харак- характеризует свойство отсутствия последействия. Убедимся, что формула отражает свойство ординар- ординарности. Положив k — Q и k=\, найдем соответственно вероятности непоявления событий и появления одного события: Следовательно, вероятность появления более одного со- события Pt(k> 1)=1—[Pf@) Пользуясь разложением e-w = 1 — после элементарных преобразований получим Сравнивая Pt A) и Р<(&>1), заключаем, что при малых значениях t вероятность появления более одного события пренебрежимо мала по сравнению с вероятностью наступления одного события, что характеризует свойство ординарности. Итак, формулу Пуассона можно считать математи- математической моделью простейшего потока событий. Пример. Среднее число вызовов, поступающих на АТС в одну минуту, равно двум. Найти вероятности того, что за 5 мин посту- поступит: а) 2 вызова; б) менее двух вызовов; в) не менее двух вызовов. Поток вызовов предполагается простейшим. 71
Решение. По условию, X = 2, / = 5, ft = 2. Воспользуемся фор- формулой Пуассона а) Искомая вероятность того, что за 5 мин поступит 2 вызова, Р6 B) = Ю»-е-"/2! = 100.0.000045/2=0,00225. 5>го событие практически невозможно. б) События «не поступило ни одного вызова» и «поступил один вызов» несовместны, поэтому по теореме сложения искомая вероят- вероятность того, что за 5 мин поступит менее двух вызовов, равна Я» (ft < 2) = P6@)+Pe(l) = e-i» + A0e-10)/i: =0,000495. Это событие практически невозможно. в) События «поступило менее двух вызовов» и «поступило не менее двух вызовов» противоположны, поэтому искомая вероятность того, что за 5 мин поступит не менее двух вызовов, Р5 (ft За 2) = 1 — Рь (k < 2) = 1 — 0,000495 = 0,999505. Это событие практически достоверно. § 7. Геометрическое распределение Пусть производятся независимые испытания, в каждом из которых вероятность появления события А равна р @< р < 1) и, следовательно, вероятность его непоявления q=\—р. Испытания заканчиваются, как только появится событие А. Таким образом, если собы- событие А появилось в fe-м испытании, то в предшествующих k—1 испытаниях оно не появлялось. Обозначим через X дискретную случайную величину — число испытаний, которые нужно провести до первого появления события А. Очевидно, возможными значе- значениями X являются натуральные числа: xt= I, x2 —2, ... Пусть в первых k—1 испытаниях событие А не насту- наступило, а в k-м испытании появилось. Вероятность этого «сложного события», по теореме умножения вероятностей независимых событий, Полагая k=\, 2, ... в формуле (*), получим геометри- геометрическую прогрессию с первым членом р и знаменателем а @<?<1): р, qp, qap, ..., <7*-х/>, •-• (**) По этой причине распределение (*) называют геометри- геометрическим. 72
Легко убедиться, что ряд (**) сходится и сумма его равна единице. Действительно, сумма ряда (**) Пример. Из орудия производится стрельба по цели до первого попадания. Вероятность попадания в цель р = 0,6. Найти вероятность того, что попадание произойдет при третьем выстреле. Решение. По условию, р = 0,6, д = 0,4, k = 3. Искомая вероят- вероятность по формуле (*) § 8. Гипергеометрическое распределение Прежде чем дать определение гипергеометричес- гипергеометрического распределения, рассмотрим задачу. Пусть в партии из М изделий имеется М стандартных (М < N). Из пар- партии случайно отбирают п изделий (каждое изделие может быть извлечено с одинаковой вероятностью), причем отобранное изделие перед отбором следующего не воз- возвращается в партию (поэтому формула Бернулли здесь неприменима). Обозначим через X случайную вели- величину—число т 'стандартных изделий среди п отобран- отобранных. Очевидно, возможные значения X таковы: 0, 1, 2, ..., min(Af, n). Найдем вероятность того, что X = т, т. е. что среди п отобранных изделий ровно т стандартных. Используем для этого классическое определение вероятности. Общее число возможных элементарных исходов испы- испытания равно числу способов, которыми можно извлечь п изделий из N изделий, т. е. числу сочетаний Cfr. Найдем число исходов, благоприятствующих событию Х = т (среди взятых п изделий ровно m стандартных); m стандартных изделий можно извлечь из М стандарт- стандартных изделий С% способами; при этом остальные п — т изделий должны быть нестандартными; взять же n—m нестандартных изделий из JV—т нестандартных изделий можно СдГ^м способами. Следовательно, число благоприят- благоприятствующих исходов равно СмС%~™м (см- гл- 1> § 4, правило умножения). Искомая вероятность равна отношению числа исхо- исходов, благоприятствующих событию Х = т, к числу всех элементарных исходов 73
Формула (*) определяет распределение вероятностей, которое называют гипергеометрическим. Учитывая, что т — случайная величина, заключаем, что гипергеометрическое распределение определяется тремя параметрами: N, М, п. Иногда в качестве пара- параметров этого распределения рассматривают N,n и p=M/N, где р — вероятность того, что первое извлеченное изделие стандартное. Заметим, что если п значительно меньше N (практи- (практически если гс<0,1Л0, то гипергеометрическое распреде- распределение дает вероятности, близкие к вероятностям, найден- найденным по биномиальному закону. Пример. Среди 50 изделий 20 окрашенных. Найти вероятность того, что среди наудачу извлеченных 5 изделий окажется ровно 3 окрашенных. Решение. По условию, N = 50, М = 20, п — Ъ, т — 3. Иско- Искомая вероятность Р (X = 3) = С|оСзо/с1о = 0,234. Задачи 1. Возможные значения случайной величины таковы: Xj. = 2, ** = 5, *8 = 8- Известны вероятности первых двух возможных зна- значений: р1 = 0,4, р2 = 0,15. Найти вероятность ха. Отв. ра = 0,45. 2. Игральная кость брошена 3 раза. Написать закон распреде- распределения числа появлений шестерки. Отв. X 3 2 1 0 р 1/216 15/216 75/216 125/216 3. Составить закон распределения вероятностей числа появлений события А в трех независимых испытаниях, если вероятность появ- появления события в каждом испытании равна 0 6. Отв. А 0 I 2 3 р 0,064 0,288 0,432 0,216 4. Прядильщица обслуживает 1000 веретен. Вероятность обрыва нити на одном веретене в течение 1 мин равна 0,004. Найти вероят- вероятность того, что в течение 1 мин обрыв произойдет на пяти веретенах. Отв. Р1000 E) = 0,1562. 5. Найти среднее число опечаток на странице рукописи, если вероятность того, что страница рукописи содержит хотя бы одну опечатку, равна 0,95. Предполагается, что число опечаток распре- распределено по закону Пуассона. Указание. Задача сводится к отысканию параметра X из уравнения е~х = 0,05. Отв. 3. 6. Коммутатор учреждения обслуживает 100 абонентов. Вероят- Вероятность того, что в течение 1 мин абонент позвонит на коммутатор, равна 0,02. Какое из двух событий вероятнее: в течение 1 мин позвонят 3 абонента; позвонят 4 абонента? Отв. РюоC) = О,18; Р100 D) =0,09. 74
7. Рукопись объемом в 1000 страниц машинописного текста содер- содержит 1000 опечаток. Найти вероятность того, что наудачу взятая страница содержит: а) хотя бы одну опечатку; б) ровно 2 опечатки; в) не менее двух опечаток. Предполагается, что число опечаток рас- распределено по закону Пуассона. Отв. а) />=1— е-1 = 0,6321; б) Р1000 B) =0,18395; в) Р = 0,2642. 8. Среднее число вызовов, поступающих на АТС в 1 мин, равно 5. Найти вероятность того, что за 2 мин поступит: а) два вызова; б) менее двух вызовов; в) не менее двух вызовов. Указание, е-10 = 0,000045. Отв. а) 0,00225; б) 0,000495; в) 0,999505. 9. Производится бросание игральной кости до первого выпадения шести очков. Найти вероятность того, что первое выпадение «шес- «шестерки» произойдет при втором бросании игральной кости. Отв. Р(Х = 2)=5/36. 10. В партии из 12 деталей имеется 8 стандартных. Найти вероят- вероятность того, что среди 5 взятых наудачу деталей окажется 3 стан- стандартных. Отв. />(Х = 3)= 14/33. Глава седьмая МАТЕМАТИЧЕСКОЕ ОЖИДАНИЕ ДИСКРЕТНОЙ СЛУЧАЙНОЙ ВЕЛИЧИНЫ § 1. Числовые характеристики дискретных случайных величин Как уже известно, закон распределения пол- полностью характеризует случайную величину. Однако часто закон распределения неизвестен и приходится ограничи- ограничиваться меньшими сведениями. Иногда даже выгоднее пользоваться числами, которые описывают случайную величину суммарно; такие числа называют числовыми характеристиками случайной величины. К числу важных числовых характеристик относится математическое ожи- ожидание. Математическое ожидание, как будет показано далее, приближенно равно среднему значению случайной вели- величины. Для решения многих задач достаточно знать мате- математическое ожидание. Например, если известно, что мате- математическое ожидание числа выбиваемых очков у первого стрелка больше, чем у второго, то первый стрелок в сред- среднем выбивает больше очков, чем второй, и, следова- следовательно, стреляет лучше второго. Хотя математическое ожидание дает о случайной величине значительно меньше 75
сведений, чем закон ее распределения, но для решения задач, подобных приведенной и многих других, знание математического ожидания оказывается достаточным. § 2. Математическое ожидание дискретной случайной величины Математическим ожиданием дискретной слу- случайной величины называют сумму произведений всех ее возможных значений на их вероятности. Пусть случайная величина X может принимать только значения xlt x2, ..., хп, вероятности которых соответ- соответственно равны ри р2, . . ., рп. Тогда математическое ожи- ожидание М (X) случайной величины X определяется равен- равенством М (X) = х1р1 + х2ра + ... + хпрп. Если дискретная случайная величина X принимает счетное множество возможных значений, то 5ZtPl причем математическое ожидание существует, если ряд в правой части равенства сходится абсолютно. Замечание. Из определения следует, что математическое ожидание дискретной случайной величины есть неслучайная (постоянная) величина. Рекомендуем запомнить это утверждение, так как далее оно используется многократно. В дальнейшем будет пока- показано, что математическое ожидание непрерывной случайной величины также есть постоянная величина. Пример 1. Найти математическое ожидание случайной вели- величины X, зная закон ее распределения: X 3 5 2 р 0,1 0,6 0,3 Решение. Искомое математическое ожидание равно сумме произведений всех возможных значений случайной величины на их вероятности: М (Х) = 3-0,1+5-0,6 + 2-0,3 = 3,9. Пример 2. Найти математическое ожидание числа появлений события А в одном испытании, если вероятность события А равна р. Решение. Случайная величина X— число появлений события А в одном испытании — может принимать только два значения: хх^\ (событие А наступило) с вероятностью р и ха = 0 (событие А не наступило) с вероятностью q = 1 —р. Искомое математическое ожидание 76
Итак, математическое ожидание числа появлений собы- события в одном испытании равно вероятности этого собы- события. Этот результат будет использован ниже. § 3. Вероятностный смысл математического ожидания Пусть произведено п испытаний, в которых слу- случайная величина X приняла mt раз значение xlt mt раз значение ха, . . ., mk pa:- значение xk, причем т^т^-{-... ...+mft = n. Тогда сумма всех значений, принятых X, равна x1m1 + xim2 + ... +xkmk. Найдем среднее арифметическое X всех значений, при- принятых случайной величиной, для чего разделим найден- найденную сумму на общее число испытаний: X* = {ххт^ + х%т% + ,.. + xkmk)/n, или ~R = xt {mjn) + xt (mjn) + ...+xk (mk/n). (*) Заметив, что отношение mjn—относительная частота Wx значения xlf mjn — относительная частота Wa значе- значения ха и т. д., запишем соотношение (*) так: Х-х11Г1 + х11Р1+...-т-хЛ1Рй. (**) Допустим, что число испытаний достаточно велико. Тогда относительная частота приближенно равна вероят- вероятности появления события (это будет доказано в гл. IX, § 6): Заменив в соотношении (**) относительные частоты соответствующими вероятностями, получим X ~ xj>t + х2р3 + ... + xhpk. Правая часть этого приближенного равенства есть М (X). Итак, Вероятностный смысл полученного результата таков: математическое ожидание приближенно равно (тем точ- 77
нее, чем больше число испытаний) среднему арифмети- арифметическому наблюдаемых значений случайной величины. Замечание 1. Легко сообразить, что математическое ожида- ожидание больше наименьшего и меньше наибольшего возможных значе- значений. Другими словами, на числовой оси возможные значения распо- расположены слева и справа от математического ожидания. В этом смысле математическое ожидание характеризует расположение рас- распределения и поэтому его часто называют центром распреде- распределения. Этот термин заимствован из механики: если массы рь Ра. - ¦ ¦. Рп расположены в точках с абсциссами xlt xa х„, причем У, р,- = 1. то абсцисса центра тяжести *с = B xiPi)/^jPi- Учитывая, что ^jXipi = M(X) н 2w = 1> получим М(Х) — хс. Итак, математическое ожидание есть абсцисса центра тяжести системы материальных точек, абсциссы которых равны возможным значениям случайной величины, а массы — их вероятностям. Замечание 2. Происхождение термина «математическое ожи- ожидание» связано с начальным периодом возникновения теории вероят- вероятностей (XVI — XVII вв.), когда область ее применения ограничива- ограничивалась азартными играми. Игрока интересовало среднее значение ожи- ожидаемого выигрыша, или, иными словами, математическое ожидание выигрыша. § 4. Свойства математического ожидания Свойство 1. Математическое ожидание по- постоянной величины равно самой постоянной: М (С) = С. Доказательство. Будем рассматривать постоян- постоянную С как дискретную случайную величину, которая имеет одно возможное значение С и принимает его с вероятностью р = 1. Следовательно, Замечание 1. Определим произведение постоянной величины С на дискретную случайную величину X как дискретную случайную СХ, возможные значения которой равны произведениям постоянной С на возможные значения X; вероятности возможных значений СХ равны вероятностям соответствующих возможных значений X. Напри- Например, если вероятность возможного значения хг равна plt то вероят- вероятность того, что величина СХ примет значение Cxlt также равна рх. Свойство 2. Постоянный множитель можно выно- выносить за знак математического ожидания: М (СХ) = СМ (X). 78
Доказательство. Пусть случайная величина X задана законом распределения вероятностей: X xt х% . . . хп Р Pi Рг ••• Рп Учитывая замечание 1, напишем закон распределения случайной величины СХ: СХ Cxt Схг ... Схп Р Pi P2 ¦•• Рп Математическое ожидание случайной величины СХ: М (СХ) = CxlPl + СхгРг +...+ СхпРп - = С (xlPl + xiPi+...+ хпРп) = СМ(Х). Итак, М(СХ) = СМ(Х). Замечание 2. Прежде чем перейти к следующему свойству, укажем, что две случайные величины называют независимыми, если закон распределения одной из них не зависит от того, какие воз- возможные значения приняла другая величина. В противном случае случайные величины зависимы. Несколько случайных величин назы- называют взаимно независимыми, если законы распределения любого числа Из них не зависят от того, какие возможные значения приняли остальные величины. Замечание 3. Определим произведение независимых случай- случайных величин X и Y как случайную величину XY, возможные зна- значения которой равны произведениям каждого возможного значения X на каждое возможное значение К; вероятности возможных значе- значений произведения XY равны произведениям вероятностей возможных значений сомножителей. Например, если вероятность возможного значения хг равна ри вероятность возможного значения ух равна g%, то вероятность возможного значения ххуг равна Pig\. Заметим, что некоторые произведения x,-yj могут оказаться рав- равными между собой. В этом случае вероятность возможного значения произведения равна сумме соответствующих вероятностей. Например, если а;1(/2=-«з6'в. то вероятность ХхУ2 (или, что то же, ХзУь) равна Свойство 3. Математическое ожидание произведе- произведения двух независимых случайных величин равно произведе- произведению их математических ожиданий: M(XY) = M{X)M(Y). Доказательство. Пусть независимые случайные величины X и У заданы своими законами распределения 79
вероятностей *>: X хухг У у,у2 р PiPi ё SiS* Составим все значения, которые может принимать случайная величина XY. Для этого перемножим все воз- возможные значения X на каждое возможное значение У; в итоге получим xtylt x2ylt х1уг и хгу2. Учитывая заме- замечание 3, напишем закон распределения XY, предполагая для простоты, что все возможные значения произведения различны (если это не так, то доказательство проводится аналогично): XY Р Pigi Математическое ожидание равно сумме произведений всех возможных значений на их вероятности: М (XY) = хгУ1 • Plgt + х2уг. рг?х + хгу2 • Plg3 или М (XY) = ylgl (xlPl + x2p2) + y2g2 (xlPl + хгр2) = Итак, M(XY) = M(X)-M(Y). Следствие. Математическое ожидание произведе- произведения нескольких взаимно независимых случайных величин равно пРоизведению их математических ожиданий. Например, для трех случайных величин имеем: М (XYZ) = М (XY-Z) = М (XY) M(Z) = M (X) М (Y) M (Z). Для произвольного числа случайных величин дока- доказательство проводится методом математической индукции. Пример 1. Независимые случайные величины X и Y заданы следующими законами распределения: X 5 2 4 К 7 9 р 0,6 0,1 0,3 р 0,8 0,2 Найти математическое ожидание случайной величины XY. Решение. Найдем математические ожидания каждой из данных величин: Л* (Л) = 5-0,6 + 2-0,1 +4-0,3 = 4,4; М (К) = 7 *' Для упрощения выкладок мы ограничились малым числом возможных значений. В общем случае доказательство аналогичное. 80
Случайные величины X и Y независимые, поэтому искомое ма- математическое ожидание М (ХК) = М (X) М (У) = 4,4-7,4 = 32,56. Замечание 4. Определим сумму случайных величин X и Y как случайную величину X-\-Y, возможные значения которой равны суммам каждого возможного значения X с каждым возможным зна- значением Y; вероятности возможных значений X-\-Y для независимых величин X и Y равны произведениям вероятностей слагаемых; для зависимых величин — произведениям вероятности одного слагаемого на условную вероятность второго. Заметим, что некоторые суммы х-\-у могут оказаться равными между ссбой. В этом случае вероятность возможного значения суммы равна сумме соответствующих вероятностей. Например, если xl-\-yt = = хя~\-Уь и вероятности этих возможных значений соответственно равны р12 и раь, то вероятность хх-\-х2 (или, что то же, хэ-\-уь) равна р12 + Раь- Следующее ниже свойство справедливо как для неза- независимых, так и для зависимых случайных величин. Свойство 4. Математическое ожидание суммы двух случайных величин равно сумме математических ожиданий слагаемых: М (X + У) = М (X) + М (У). Доказательство. Пусть случайные величины X и У заданы следующими законами распределения *': X хг хг У уг у2 Р Pi Pt g 81 8г Составим все возможные значения величины Х + У. Для этого к каждому возможному значению X прибавим каждое возможное значение К; получим xt + ylt xt + y2, ха~^У1 и х%-\-уг- Предположим для простоты, что эти возможные значения различны (если это не так, то дока- доказательство проводится аналогично), и обозначим их ве- вероятности соответственно через рп, р12, р31 и р22. Математическое ожидание величины X-{-Y равно сумме произведений возможных значений на их вероятности: М (X + У) = (xt + ух) ри + (xt + уш) Pli + (х2 + yt) p21 + •> Чтобы упростить вывод, мы ограничились лишь двумя возмож- возможными значениями каждой из величин. В общем случае доказатель- доказательство аналогичное. 6 — 2730 81
или М (X + Y) =. хх (р„ + р1Я) + ха (рп + р2а) + ух (Ри Докажем, что pn + plt i=pi. Событие, состоящее в том, что X примет значение х, (вероятность этого события равна рг), влечет за собой событие, которое состоит в том, что X + Y примет значение xl-\-y1 или хг-\-уя (вероятность этого события по теореме сложения равна Рц + р12), и обратно. Отсюда и следует, что plt + р1л = рх. Аналогично доказываются равенства +2i = gi и Pis + Pw^g*- Подставляя правые части этих равенств в соотноше- соотношение (*), получим = {xlPl + х2рг) + (ylgl + yaga), или окончательно М (X + Y) = М (X) + М (Y). Следствие. Математическое ожидание суммы нескольких случайных величин равно сумме математичес- математических ожиданий слагаемых. Например, для трех слагаемых величин имеем Для произвольного числа слагаемых величин доказа- доказательство проводится методом математической индукции. Пример 2. Производится 3 выстрела с вероятностями попадания в цель, равными Pi = 0,4; pa = 0,3 и рэ~0,6. Найти математическое ожидание общего числа попаданий. Решение. Число попаданий при первом выстреле есть слу- случайная величина Х1г которая может принимать только два значения: 1 (попадание) с вероятностью р1 = 0,4 и 0 (промах) с вероятностью <7=1—О,4 = О,6. Математическое ожидание числа попаданий при первом выстреле равно вероятности попадания (см. § 2, пример 2), т. е. Л1(^1) = 0,4. Аналогично найдем математические ожидания числа попаданий при втором и третьем выстрелах: М(Х2) = 0,3, М(Х3)=0,6. Общее число попаданий есть также случайная величина, состоя- состоящая из суммы попаданий в каждом из трех выстрелов: 82
Искомое математическое ожидание находим по теореме о мате- математическом, ожидании суммы: М (X) = M(Xl+Xt + Xs) = M(XJ + M(XJ + M (X3) = = 0,4 + 0,3+0,6=1,3 (попаданий). Пример 3. Найти математическое ожидание суммы числа очков, которые могут выпасть при бросании двух игральных костей. Решение. Обозначим число очков, которое может выпасть на первой кости, через X и на второй — через Y. Возможные значения этих величин одинаковы и равны 1, 2, 3, 4, 5 и 6, причем вероят- вероятность каждого из этих значений равна 1/6. Найдем математическое ожидание числа очков, которые могут выпасть на первой кости: Очевидно, что и М (К) = 7/2. Искомое математическое ожидание М (X + Y) = М (X) + М (К) = 7/2 + 7/2 =7. § 5. Математическое ожидание числа появлений события в независимых испытаниях Пусть производится п независимых испытаний, в каждом из которых вероятность появления события А постоянна и равна р. Чему равно среднее число появле- появлений события А в этих испытаниях? Ответ на этот вопрос дает следующая теорема. Теорема. Математическое ожидание М (X) числа по- появлений события А в п независимых испытаниях равно произведению числа испытаний на вероятность появления события в каждом испытании: М (X) = пр. Доказательство. Будем рассматривать в качестве случайной величины X число наступления события А в л независимых испытаниях. Очевидно, общее число X появ- появлений события А в этих испытаниях складывается из чисел появлений события в отдельных испытаниях. Поэ- Поэтому если Х1 — число появлений события в первом испы- испытании, Х2 — во втором, ..., Х„ — в л-м, то общее число появлений события X = Xt + Х2 + ... + Х„. По третьему свойству математического ожидания, М (X) = М (XJ + М (Х2.) +...+М (Х„). (*) Каждое из слагаемых правой части равенства есть математическое ожидание числа появлений события в одном испытании: М (Хг) — в первом, М (Х2) — во вто- 6* 83
ром и т. д. Так как математическое ожидание числа появ- появлений события в одном испытании равно вероятности события (см. § 2, пример 2), тоМ (Х1) = М (XZ) = M (Хп)=р. Подставляя в правую часть равенства (*) вместо каждого слагаемого р, получим М (X) = пр. (#*) Замечание. Так как величина X распределена по биноми- биномиальному закону, то доказанную теорему можно сформулировать и так: математическое ожидание биномиального распределения с па- параметрами пар равно произведению пр. Пример. Вероятность попадания в цель при стрельбе из орудия /»—=0,6. Найти математическое ожидание общего числа попаданий, если будет произведено 10 выстрелов. Решение. Попадание при каждом выстреле не зависит от ис- исходов других выстрелов, поэтому рассматриваемые события незави- независимы и, следовательно, искомое математическое ожидание М (Х) = пр = 10-0,6 = 6 (попаданий). Задачи 1. Найти математическое ожидание дискретной случайней величины, зная закон ее распределения: а: б з 1 р 0,2 0,3 0,5 Отв. 2,6. 2. Производится 4 выстрела с вероятностью попадания в цель Pi = 0,6, pa = QA, Ps = 0,5 и р4 = °.7- Найти математическое ожидание общего числа попаданий. Отв. 2,2 попадания. 3. Дискретные независимые случайные величины заданы законами распределения: Л 1 2 У 0,5 1 р 0,2 0,8 р 0,3 0,7 Найти математическое ожидание произведения XY двумя способами: а) составив закон распределения XV; б) пользуясь свойством 3. Отв. 1,53. 4. Дискретные случайные величины X и Y заданы законами распределения, указанными в задаче 3. Найти математическое ожи- ожидание суммы X-\-Y двумя способами: а) составив закон распределения Х-\-У; б) пользуясь свойством 4. Отв. 2,65. 5. Вероятность отказа детали за время испытания на надежность равна 0,2. Найти математическое ожидание числа отказавших деталей, если испытанию будут подвергнуты 10 деталей. Отв. 2 детали. 6. Найти математическое ожидание произведения числа очков, которые могут выпасть при одном бросании двух игральных костей. Отв. 12,25 очка. 84
7. Найти математическое ожидание числа лотерейных билетов, на которые выпадут выигрыши, если приобретено 20 билетов, причем вероятность выигрыша по одному билету равна 0,3. Отв. 6 билетов. Глава восьмая ДИСПЕРСИЯ ДИСКРЕТНОЙ СЛУЧАЙНОЙ ВЕЛИЧИНЫ § 1. Целесообразность введения числовой характеристики рассеяния случайной величины Легко указать такие случайные величины, кото- которые имеют одинаковые математические ожидания, но раз- различные возможные значения. Рассмотрим, например, дискретные случайные величины X и F, заданные сле- следующими законами распределения: X —0,01 0,01 У —100 100 р 0,5 0,5 р 0,5 0,5 Найдем математические ожидания этих величин: М(Х) = -0,01 -0,5 + 0,01 -0,5 = 0, М (У) = —100 • 0,5 + 100 ¦ 0,5 = 0. Здесь математические ожидания обеих величин одинаковы, а возможные значения различны, причем X имеет воз- возможные значения, близкие к математическому ожиданию, а У—далекие от своего математического ожидания. Таким образом, зная лишь математическое ожидание случайной величины, еще нельзя судить ни о том, какие возможные значения она может принимать, ни о том, как они рас- рассеяны вокруг математического ожидания. Другими сло- словами, математическое ожидание полностью случайную величину не характеризует. По этой причине наряду с математическим ожиданием вводят и другие числовые характеристики. Так, например, для того чтобы оценить, как рассеяны возможные зна- значения случайной величины вокруг ее математического ожидания, пользуются, в частности, числовой характе- характеристикой, которую называют дисперсией. Прежде чем перейти к определению и свойствам дис- дисперсии, введем понятие отклонения случайной величины от ее математического ожидания. 85
§ 2. Отклонение случайной величины от ее математического ожидания Пусть X—случайная величина и М (X)—ее ма- математическое ожидание. Рассмотрим в качестве новой случайной величины разность К—М(Х). Отклонением называют разность между случайной ве- величиной и ее математическим ожиданиям. Пусть закон распределения X известен: X хх хЛ ... х„ Р Pi Р* " ¦ Рп Напишем закон распределения отклонения. Для того чтобы отклонение приняло значение х1 — М (X), доста- достаточно, чтобы случайная величина приняла значение xt. Вероятность же этого события равна рг; следовательно, и вероятность того, что отклонение примет значение хх—М (X), также равна рх. Аналогично обстоит дело и для остальных возможных значений отклонения. Таким образом, отклонение имеет следующий закон распределения: X — М(Х) х1—М(Х) хг—М(Х) ... хп— М (X) Р Рг Рг Рп Приведем важное свойство отклонения, которое исполь- используется далее. Теорема. Математическое ожидание отклонения равно нулю: М[Х — Л1(Х)] = 0. Доказательство. Пользуясь свойствами матема- математического ожидания (математическое ожидание разности равно разности математических ожиданий, математическое ожидание постоянной равно самой постоянной) и приняв во внимание, что М (X) — постоянная величина, имеем М [Х—М (X)] = М (X) — М [М (X)] = М (X) — М (X) = 0. Пример. Задан закон распределения дискретной случайной вели- величины X: X 1 2 р 0,2 0,8 Убедиться, что математическое ожидание отклонения равно нулю. Решение. Найдем математическое ожидание X: М (Х) = 1 0,2 + 2-0,8= 1,8.
Найдем возможные значения отклонения, для чего из возможных значений X вычтем математическое ожидание М (X): 1 — 1.8 = — 0,8; 2—1,8 = 0,2. Напишем закон распределения отклонения: Х — ЛЦХ) —0,8 0,2 р 0,2 0,8 Найдем математическое ожидание отклонения: М [Х — М (Х)] = (—0,8).0,2 + 0,2-0,8 = 0. Итак, математическое ожидание отклонения равно нулю, как и должно быть. Замечание. Наряду с термином «отклонение» используют термин «центрированная величина». Центрированной случайной вели- величиной X называют разность между случайной величиной и ее мате- математическим ожиданием: к = Х — М (X). Название «центрированная величина» связано с тем, что математиче- математическое ожидание есть центр распределения (см. гл. VII, § 3, замечание). § 3. Дисперсия дискретной случайной величины На практике часто требуется оценить рассеяние возможных значений случайной величины вокруг ее сред- среднего значения. Например, в артиллерии важно знать, насколько кучно лягут снаряды вблизи цели, которая должна быть поражена. На первый взгляд может показаться, что для оценки рассеяния проще всего вычислить все возможные значения отклонения случайной величины и затем найти их сред- среднее значение. Однако такой путь ничего не даст, так как среднее значение отклонения, т. е. М [X— М (X)], для любой случайной величины равно нулю. Это свойство уже было доказано в предыдущем параграфе и объясняется тем, что одни возможные отклонения положительны, а другие — отрицательны; в результате их взаимного пога- погашения среднее значение отклонения равно нулю. Эти со- соображения говорят о целесообразности заменить возмож- возможные отклонения их абсолютными значениями или их квадратами. Так и поступают на деле. Правда, в случае, когда возможные отклонения заменяют их абсолютными значениями, приходится оперировать с абсолютными ве- величинами, что приводит иногда к серьезным затруднениям. Поэтому чаще всего идут по другому пути, т. е. вычисляют среднее значение квадрата отклонения, которое и назы- называют дисперсией. 87
Дисперсией (рассеянием) дискретной случайной вели- величины называют математическое ожидание квадрата откло- отклонения случайной величиныот ее математического ожидания: Пусть случайная величина задана законом распреде- распределения X хх х% ... хп Р Pi Pt "• Рп Тогда квадрат отклонения имеет следующий закон рас- распределения: [Х-М(Х)]* [Xl-M(X)]* [х2-М(Х)]*... [хя-М{Х)\* Р Pi Рг Рп По определению дисперсии, D(X) = M[X—M(X)p = =[xt-M (X)]*Pl + [x2-M (X)]*р2 + ... +[х„-М (Х)]*ра. Таким образом, для того чтобы найти дисперсию, до- достаточно вычислить сумму произведений возможных зна- значений квадрата отклонения на их вероятности. Замечание. Из определения следует, что дисперсия дискрет- дискретной случайной величины есть неслучайная (постоянная) величина. В дальнейшем читатель узнает, что дисперсия непрерывной случайной величины также есть постоянная величина. Пример. Найти дисперсию случайной величины X, которая задана следующим законом распределения: X 1 2 5 р 0,3 0,5 0,2 Решение. Найдем математическое ожидание: м (Х)= 1 .о.з+г-о.б+б-о.г^гд Найдем все возможные значения квадрата отклонения: = («-2,3)»= 1,69; [х3-М Напишем закон распределения квадрата отклонения: [X — М{Х)]2 1,69 0,09 7,29 р 0,3 0,5 0,2 По определению, D(X)=l,69-0,3 + 0,090,5 + 7,29-0,2 = 2,01. Вычисление, основанное на определении дисперсии, оказалось относительно громоздким. Далее будет указана формула, которая приводит к цели значительно быстрее. 88
§ 4. Формула для вычисления дисперсии Для вычисления дисперсии часто бывает удобно пользоваться следующей теоремой. Теорема. Дисперсия равна разности между математи- математическим ожиданием квадрата случайной величины X и квадратом ее математического ожидания: D(X) = M (X*)—[М (X)]*. Доказательство. Математическое ожидание М (X) есть постоянная величина, следовательно, 2М (X) и М*(Х) есть также постоянные величины. Приняв это во внима- внимание и пользуясь свойствами математического ожидания (постоянный множитель можно вынести за знак матема- математического ожидания, математическое ожидание суммы равно сумме математических ожиданий слагаемых), упро- упростим формулу, выражающую определение дисперсии: D (X) = М [X — М (X)]2 = М [X2 -г 2ХМ (X) + М* (Х)]= = М (X2)—2М (X) М (X) + М* (X) = = М (X2) — 2Л12 (X) + М* (X) = М (X2)—М* (X). Итак, D(X) = M (X2)—[М (X)]2. Квадратная скобка введена в запись формулы для удоб- удобства ее запоминания. Пример 1. Найти дисперсию случайной величины X, которая задана следующим законом распределения: X 2 3 5 р 0,1 0,6 0,3 Решение. Найдем математическое ожидание М (X): М (Х) = 2-0,1+30,6 + 5-0,3 = 3,5. Напишем закон распределения случайной величины X2: X2 4 9 25 р 0,1 0,6 0,3 Найдем математические ожидания М (Хг): М(Х2) = 4-0,1 +9-0,6 + 25-0,3= 13,3. Искомая дисперсия = M (X2)—[М (Х)]2= 13,3 —C,5J= 1,05. Замечание. Казалось бы, если X и Y имеют одинаковые воз- возможные значения и одно и то же математическое ожидание, то и Дисперсии этих величин равны (ведь возможные значения обеих ве- 89
личин одинаково рассеяны вокруг своих математических ожиданий!). Однако в общем случае это не так. Дело в том, что одинаковые воз- возможные значения рассматриваемых величин имеют, вообще говоря, различные вероятности, а величина дисперсии определяется не только самими возможными значениями, но и их вероятностями. Например, если вероятности «далеких» от математического ожидания возможных значений К больше, чем вероятности этих же значений Y, и вероят- вероятности «близких» значений X меньше, чем вероятности тех же значе- значений У, то, очевидно, дисперсия X больше дисперсии У. Приведем иллюстрирующий пример. Пример 2. Сравнить дисперсии случайных величин, заданных законами распределения: X р 0 -1 ,48 0 I ,01 0 2 ,09 0 3 ,42 К Р — 1 0,19 0 1 ,51 2 0,25 3 0,05 Решение. Легко убедиться, что М(Х) = М (У) = 0,97; D(X)^3,69, D (К) 2*1,21. Таким образом, возможные значения и математические ожидания X и У одинаковы, а дисперсии различны, причем D (X) > D (У). Этот результат можно было предвидеть без вычислений, глядя лишь на законы распределений. § 5. Свойства дисперсии Свойство 1. Дисперсия постоянной величины С равна нулю; D (С) = 0. Доказательство. По определению дисперсии, Пользуясь первым свойством математического ожида- ожидания (математическое ожидание постоянной равно самой постоянной), получим D (С) = М [(С—С)*] = М@) = 0. Итак, D (С) = 0. Свойство становится ясным, если учесть, что постоян- постоянная величина сохраняет одно и то же значение и рассея- рассеяния, конечно, не имеет. Свойство 2. Постоянный множитель можно выно- выносить за знак дисперсии, возводя его в квадрат: 90
Доказательство. По определению дисперсии имеем D(CX) = M{[CX — M{CX)?). Пользуясь вторым свойством математического ожида- ожидания (постоянный множитель можно выносить за знак математического ожидания), получим D (СХ) = М {[СХ — CM {X)f\ = М {С* [X—М (X)]2} - = С2М {[Х—М (X)]*} = СФ (X). Итак, Свойство становится ясным, если принять во внима- внимание, что при | С | > 1 величина СХ имеет возможные зна- значения (по абсолютной величине), большие, чем величина X. Отсюда следует, что эти значения рассеяны вокруг математического ожидания М (СХ) больше, чем возмож- возможные значения X вокруг М(Х), т. е. D (СХ) > Р (X). На- Напротив, если 0 < | С | < 1, то D (СХ) < D (X). Свойство 3. Дисперсия суммы двух независимых случайных величин равна сумме дисперсий этих величин: Доказательство. По формуле для вычисления дисперсии имеем D (X + Y) = М [(X + Y)*] — [М (X + Г)]2. Раскрыв скобки и пользуясь свойствами математиче- математического ожидания суммы нескольких величин и произведе- произведения двух независимых случайных величин, получим D (X + Y) = М [X2 + 2XY + Y*] — = М (Х*) + 2М (X)-М (Y) + M (Y*) — МЦХ) — — 2М (X) -М (Y) — Л12 (Y) = {М (X2) — [М (X)]2} + Итак, Следствие 1. Дисперсия суммы нескольких взаимно независимых случайных величин равна сумме дисперсий этих величин. 91
Например, для трех слагаемых имеем Для произвольного числа слагаемых доказательство проводится методом математической индукции. Следствие 2. Дисперсия суммы постоянной вели- величины и случайной равна дисперсии случайной величины: Доказательство. Величины С и X независимы, поэтому, по третьему свойству, D(C+X) = D (С)+ ?>(*). В силу первого свойства D(C) = 0. Следовательно, Свойство становится понятным, если учесть, что ве- величины X и Х + С отличаются лишь началом отсчетам, значит, рассеяны вокруг своих математических ожиданий одинаково. Свойство 4. Дисперсия разности двух независимых случайных величин равна сумме их дисперсий: Доказательство. В силу третьего свойства D(X — Y) По второму свойству, или D(X — Y) = § 6. Дисперсия числа появлений события в независимых испытаниях Пусть производится п независимых испытаний, в каждом из которых вероятность появления события А постоянна. Чему равна дисперсия числа появлений со- события в этих испытаниях? Ответ на этот вопрос дает следующая теорема. Теорема. Дисперсия числа появлений события А в п не- независимых испытаниях, в каждом из которых вероятность 92
р появления события постоянна, равна произведению числа испытаний на вероятности появления и непоявления со- события в одном испытании: D (X) = npq. Доказательство. Рассмотрим случайную вели- величину X — число появлений события А в п независимых испытаниях. Очевидно, общее число появлений события в этих испытаниях равно сумме появлений события в от- отдельных испытаниях: Х = Х1 + Хш+...+Ха, где Хх — число наступлений события в первом испытании, Xt — во втором, ..., Хп— в п-м. Величины Хг, Х2, .. ., Хп взаимно независимы, так как исход каждого испытания не зависит от исходов осталь- остальных, поэтому мы вправе воспользоваться следствием 1 (см. § 5): Вычислим дисперсию Xt по формуле ]\ (**) Величина Xt — число появлений события А в первом испытании, поэтому (см. гл. VII, § 2, пример 2) М (Xj=p. Найдем математическое ожидание величины Х\, кото- которая может принимать только два значения, а именно: 1а с вероятностью р и О2 с вероятностью q: Подставляя найденные результаты в соотношение (**), имеем Очевидно, дисперсия каждой из остальных случайных величин также равна pq. Заменив каждое слагаемое пра- правой части (#) через pq, окончательно получим D(X) = npq. Замечание. Так как величина X распределена по биномиаль- биномиальному закону, то доказанную теорему можно сформулировать и так: дисперсия биномиального распределения с параметрами пир равна произведению npq. Пример. Производятся 10 независимых испытаний, в каждом из которых вероятность появления события равна 0,6. Найти дисперсию случайной величины X — числа появлений события в этих испытаниях. 93
Решение. По условию, л=10, р = 0,6. Очевидно, вероятность непоявления события «?= 1—0,6 = 0,4. Искомая дисперсия D (X) = npq= 100,60,4 = 2,4. § 7. Среднее квадратическое отклонение Для оценки рассеяния возможных значений слу- случайной величины вокруг ее среднего значения кроме дис- дисперсии служат и некоторые другие характеристики. К их числу относится среднее квадратическое отклонение. Средним квадратическим отклонением случайной ве- величины X называют квадратный корень из дисперсии: Легко показать, что дисперсия имеет размерность, равную квадрату размерности случайной величины. Так как среднее квадратическое отклонение равно квадратному корню из дисперсии, то размерность о(Х) совпадает с размерностью X. Поэтому в тех случаях, когда жела- желательно, чтобы оценка рассеяния имела размерность слу- случайной величины, вычисляют среднее квадратическое от- отклонение, а не дисперсию. Например, если X выражается в линейных метрах, то о (X) будет выражаться также в линейных метрах, a D (X) — в квадратных метрах. Пример. Случайная величина X задана законом распределения Л 2 3 10 р 0,1 0,4 0,5 Найти среднее квадратическое отклонение а (X). Решение. Найдем математическое ожидание X: М(Х) = 2-0,1 +3-0,4+ 10-0,5 = 6,4. Найдем математическое ожидание X3: Л1 (Х*)=2г-0,1+Зг-0,4+10а0,5 = 54. Найдем дисперсию: D (X) = М (X*) — [М (X)]2 = 54 — 6,4* = 13,04. Искомое среднее квадратическое отклонение а (X) = УЩХ) = V~\bSA =» 3,61. 94
§ 8. Среднее квадратическое отклонение суммы взаимно независимых случайных величин Пусть известны средние квадратические откло- отклонения нескольких взаимно независимых случайных вели- величин. Как найти среднее квадратическое отклонение суммы этих величин? Ответ на этот вопрос дает следующая теорема. Теорема. Среднее квадратическое отклонение суммы конечного числа взаимно независимых случайных величин равно квадратному корню из суммы квадратов средних квадратических отклонений этих величин: Доказательст во. Обозначим через X сумму рас- рассматриваемых взаимно независимых величин: Х=Х1 + Х,+ ...+Х„. Дисперсия суммы нескольких взаимно независимых случайных величин равна сумме дисперсий слагаемых (см. § 5, следствие 1), поэтому D(X) = D(X1) + D(X2)+...+D(Xn). Отсюда VD (X) = ]/D( или окончательно о (X) = J/V (Хх) + о* (Х2) +...+О* (Х„). § 9. Одинаково распределенные взаимно независимые случайные величины Уже известно, что по закону распределения можно найти числовые характеристики случайной величины. Отсюда следует, что если несколько случайных величин имеют одинаковые распределения, то их числовые харак- характеристики одинаковы. Рассмотрим п взаимно независимых случайных величин Хг, Х2 Х„, которые имеют одинаковые распределения, а следовательно, и одинаковые характеристики (матема- (математическое ожидание, дисперсию и др.). Наибольший ин- интерес представляет изучение числовых характеристик 95
среднего арифметического этих величин, чем мы и зай- займемся в настоящем параграфе. Обозначим среднее арифметическое рассматриваемых случайных величин через X: Следующие ниже три положения устанавливают связь между числовыми характеристиками среднего арифмети- арифметического X и соответствующими характеристиками каждой отдельной величины. 1. Математическое ожидание среднего арифметического одинаково распределенных взаимно независимых случайных величин равно математическому ожиданию а каждой из величин: М(Х) = а. Доказательство. Пользуясь свойствами матема- математического ожидания (постоянный множитель можно вы- вынести за знак математического ожидания; математическое ожидание суммы равно сумме математических ожиданий слагаемых), имеем м(X) = м (*'+*»+• •• +ХЛ = _ М (XJ + М (Х2) + ... +М (Х„) Приняв во внимание, что математическое ожидание каждой из величин по условию равно а, получим 2. Дисперсия среднего арифметического п одинаково распределенных взаимно независимых случайных величин в п раз меньше дисперсии D каждой из величин: Доказательство. Пользуясь свойствами диспер- дисперсии (постоянный множитель можно вынести за знак дис- дисперсии, возведя его в квадрат; дисперсия суммы незави- независимых величин равна сумме дисперсий слагаемых), имеем 96
Приняв во внимание, что дисперсия каждой из вели- величин по условию равна D, получим 3. Среднее квадратическое отклонение среднего ариф- арифметического п одинаково распределенных взаимно незави- независимых случайных величин в\^п раз меньше среднего квадра- тического отклонения а каждой из величин: о(Х)=о Доказательство. Так как D(X) = D/n, то сред- среднее квадратическое отклонение X равно а (X) = Vd(X) = VWn = Общий вывод из формул (*) и (**): вспоминая, что дисперсия и среднее квадратическое отклонение служат мерами рассеяния случайной величины, заключаем, что среднее арифметическое достаточно большого числа вза- взаимно независимых случайных величин имеет значительно меньшее рассеяние, чем каждая отдельная величина. Поясним на примере значение этого вывода для прак- практики. Пример. Обычно для измерения некоторой физической величины производят несколько измерений, а затем находят среднее арифме- арифметическое полученных чисел, которое принимают за приближенное значение измеряемой величины. Предполагая, что измерения произ- производятся в одних и тех же условиях, доказать: а) среднее арифметическое дает результат более надежный, чем отдельные измерения; б) с увеличением числа измерений надежность этого результата возрастает. Решение, а) Известно, что отдельные измерения дают неоди- неодинаковые значения измеряемой величины. Результат каждого измере- измерения зависит от многих случайных причин (изменение температуры, колебания прибора и т. п.), которые не могут быть заранее полностью учтены. Поэтому мы вправе рассматривать возможные результаты п от- отдельных измерений в качестве случайных величин Хи Х3, ..., Х„ (индекс указывает номер измерения). Эти величины имеют одинако- одинаковое распределение вероятностей (измерения производятся по одной И той же методике и теми же приборами), а следовательно, и одина- одинаковые числовые характеристики; кроме того, они взаимно независимы (результат каждого отдельного измерения не зависит от остальных измерений). Мы уже знаем, что среднее арифметическое таких величин имеет меньшее рассеяние, чем каждая отдельная величина. Иначе говоря, среднее арифметическое оказывается более близким к истинному зна- 1 — 2730 97
чению измеряемой величины, чем результат отдельного измерения. Это и означает, что среднее арифметическое нескольких измерений дает более надежный результат, чем отдельное измерение. б) Нам уже известно, что при возрастании числа отдельных слу- случайных величин рассеяние среднего арифметического убывает. Это значит, что с увеличением числа измерений среднее арифметическое нескольких измерений все менее отличается от истинного значения измеряемой величины. Таким образом, увеличивая число измерений, получают более надежный результат. Например, если среднее квадратическое отклонение отдельного измерения а = 6 м, а всего произведено п = 3б измерений, то среднее квадратическое отклонение среднего арифметического этих измерений равно лишь 1 м. Действительно, а (X) = а/1^=6/^36= 1. Мы видим, что среднее арифметическое нескольких измерений, как и следовало ожидать, оказалось более близким к истинному зна- значению измеряемой величины, чем результат отдельного измерения. § 10. Начальные и центральные теоретические моменты Рассмотрим дискретную случайную величину X, заданную законом распределения: X 1 2 5 100 р 0,6 0,2 0,19 0,01 Найдем математическое ожидание X: М (X) = 1-0,6 + 2-0,2 + 50,19+ 100- 0,01 =2,95. Напишем закон распределения X2: X* 1 4 25 10 000 р 0,6 0,2 0,19 0,01 Найдем математическое ожидание X2: М(Х*)= 1-0,6 + 4 -0,2 + 25 -0,19+ 10000-0,01 = 106,15. Видим, что М (X2) значительно больше М (X). Это объясняется тем, что после возведения в квадрат возмож- возможное значение величины X2, соответствующее значению дг = 100 величины X, стало равным 10 000, т. е. значи- значительно увеличилось; вероятность же этого значения мала @,01). Таким образом, переход от М (X) к М (Ха) позволил лучше учесть влияние на математическое ожидание того возможного значения, которое велико и имеет малую ве- 9в
роятность. Разумеется, если бы величина X имела не- несколько больших и маловероятных значений, то переход к величине X2, а тем более к величинам X3, X* и т. д., позволил бы еще больше «усилить роль» этих больших, но маловероятных возможных значений. Вот почему оказывается целесообразным рассматривать математичес- математическое ожидание целой положительной степени случайной величины (не только дискретной, но и непрерывной). Начальным моментом порядка k случайной величины X называют математическое ожидание величины X*: vft = M(X*). В частности, Пользуясь этими моментами, формулу для вычисления дисперсии D(X) = M(X*)—[М (Х)]а можно записать так: Кроме моментов случайной величины X целесообразно рассматривать моменты отклонениях—М (X). Центральным моментом порядка к случайной вели- величины X называют математическое ожидание величины (Х-М(Х))*: Л В частности, Ht = M[X-Al(X)] = O, (**) ца = М [(X -М (X))*] = D (X). (***) Легко выводятся соотношения, связывающие началь- начальные и центральные моменты. Например, сравнивая (•) и (***), получим Нетрудно, исходя из определения центрального мо- момента и пользуясь свойствами математического ожидания, получить формулы: ^ ц4 = v4 — 4у3ух + 6v2vf — 3vJ. Моменты более высоких порядков применяются редко. Замечание. Моменты, рассмотренные здесь, называют теоре- теоретическими. В отличие от теоретических моментов, моменты, которые вычисляются по данным наблюдений, называют эмпирическими. Опре- Определения эмпирических моментов даны далее (см. гл. XVII, § 2).
Задачи 1. Известны дисперсии двух независимых случайных вели- величин: D(X) = 4, D(Y) = 3. Найти дисперсию суммы этих величин. Отв. 7. 2. Дисперсия случайной величины X равна 5. Найти дисперсию следующих величин: а) X—1; б) —2Х; в) ЗХ + 6. Отв. а) 5; б) 20; в) 45. 3. Случайная величина X принимает только два значения: +С и —С, каждое с вероятностью 0,5. Найти дисперсию этой величины. Отв. С2. 4. Найти дисперсию случайной величины, зная закон ее распре- распределения X р о. 0. 1 4 2 0.2 10 0.15 20 0.25 Отв. 67.6404. 5. Случайная величина X может принимать два возможных зна- значения: Хх с вероятностью 0,3 и лг4 с вероятностью 0,7, причем хг > хх. Найти Xi и х%, зная, что М(Х) = 2,7 и D(AT)=0,2I. Отв. Xi = 2, лс8 = 3. 6. Найти дисперсию случайной величины X—числа появлений событий А в двух независимых испытаниях, если М (X) = 0,8. Указание. Написать биномиальный закон распределения ве- вероятностей числа появлений события А в двух независимых испыта- испытаниях. Отв. 0.48. 7. Испытывается устройство, состоящее из четырех независимо работающих приборов. Вероятности отказа приборов таковы: Рх — 0,3; Pj = 0,4; pg = 0,5; p4 = 0,6. Найти математическое ожидание и дис- дисперсию числа отказавших приборов. Отв. 1,8; 0,94. 8. Найти дисперсию случайной величины X — числа появлений события в 100 независимых испытаниях, в каждом из которых вероят- вероятность наступления события равна 0,7. Отв. 21. 9. Дисперсия случайной величины ?>(Х) = 6,25. Найти среднее кпадратическое отклонение о(Х). Отв. 2.5. 10. Случайная величина задана законом распределения X 2 4 8 р 0,1 0,5 0,4 Найти среднее квадратическое отклонение этой величины. Отв. 2,2. 11. Дисперсия каждой из 9 одинаково распределенных взаимно независимых случайных величин равна 36. Найти дисперсию среднего арифметического этих величин. Отв. 4. 12. Среднее квадратическое отклонение каждой из 16 одинаково распределенных взаимно независимых случайных величин равно 10. Найти среднее квадратическое отклонение среднего арифметического этих величин. Отв. 2,5. 100
Глава девятая ЗАКОН БОЛЬШИХ ЧИСЕЛ § 1. Предварительные замечания Как уже известно, нельзя заранее уверенно пред- предвидеть, какое из возможных значений примет случайная величина в итоге испытания; это зависит от многих слу- случайных причин, учесть которые невозможно. Казалось бы, поскольку о каждой случайной величине мы распо- располагаем в этом смысле весьма скромными сведениями, то вряд ли можно установить закономерности поведения и суммы достаточно большого числа случайных величин. На самом деле это не так. Оказывается, что при некото- некоторых сравнительно широких условиях суммарное поведе- поведение достаточно большого числа случайных величин почти утрачивает случайный характер и становится законо- закономерным. Для практики очень важно знание условий, при вы- выполнении которых совокупное действие очень многих слу- случайных причин приводит к результату, почти не завися- зависящему от случая, так как позволяет предвидеть ход явле- явлений. Эти условия и указываются в теоремах, носящих общее название закона больших чисел. К ним относятся теоремы Чебышева и Бернулли (имеются и другие теоремы, которые здесь не рассматриваются). Теорема Чебышева является наиболее общим законом больших чисел, теорема Бернулли — простейшим. Для доказательства этих теорем мы воспользуемся неравенством Чебышева. § 2. Неравенство Чебышева Неравенство Чебышева справедливо для дискрет- дискретных и непрерывных случайных величин. Для простоты ограничимся доказательством этого неравенства для диск- дискретных величин. Рассмотрим дискретную случайную величину X, задан- заданную таблицей распределения: Л. X j Ля • • • Лд Р Pi Р* •¦• Рп Поставим перед собой задачу оценить вероятность того, что отклонение случайной величины от ее математического 101
ожидания не превышает по абсолютной величине поло- положительного числа е. Если е достаточно мало, то мы оце- оценим, таким образом, вероятность того, что X примет значения, достаточно близкие к своему математическому ожиданию. П. Л. Чебышев доказал неравенство, позволяю- позволяющее дать интересующую нас оценку. Неравенство Чебышева. Вероятность того, что отклонение случайной величины X от ее математического ожидания по абсолютной величине меньше положитель- положительного числа г, не меньше, чем 1 — D(X)/e2: Р(\Х—М (X) | < е» 1 —Z)(Х»е\ Доказательство. Так как события, состоящие в осуществлении неравенств \Х—М (Х)\ < е и|АГ—М (Х)\^е, противоположны, то сумма их вероятностей равна еди- единице, т. е. Р(|Х —М(Х)|<е)+РAХ— Отсюда интересующая нас вероятность Таким образом, задача сводится к вычислению вероят- вероятности Р (| X—М(Х) | > е). Напишем выражение дисперсии случайной величины X: ...+[хя-М(ХУ\*ря. Очевидно, все слагаемые этой суммы неотрицательны. Отбросим те слагаемые, у которых \х{—Л1(Х)|<е (для оставшихся слагаемых \х}—М (Х)|^е), вследствие чего сумма может только уменьшиться. Условимся счи- считать для определенности, что отброшено k первых сла- слагаемых (не нарушая общности, можно считать, что в таб- таблице распределения возможные значения занумерованы именно в таком порядке). Таким образом, ...+[хп-М(Х)УРп. Заметим, что обе части неравенства \ху—()\^ (j = k-\-l, ft+ 2, ..., п) положительны, поэтому, возведя их в квадрат, получим равносильное неравенство | Xj — — М (X) |2 ^ е2. Воспользуемся этим замечанием и, заменяя в оставшейся сумме каждый из множителей \Ху—М (Х)|2 числом е2 (при этом неравенство может лишь усилиться), 102
получим По теореме сложения, сумма вероятностей Рй+1+р*+а +... ... + р„ есть вероятность того, что X примет одно, без- безразлично какое, из значений xk+1, xk+2, ..., хп, а при любом из них отклонение удовлетворяет неравенству \Xj-M (X) |^ е. Отсюда следует, что сумма pfe+x-(-pfe+2-t-... • • • -\-рп выражает вероятность Р(\Х-М(Х)\>г). Это соображение позволяет переписать неравенство (**) так: или P(lX-M(X)|>e)<D(X)/es. (***) Подставляя (**#) в (*), окончательно получим Р (| Х-М (X) |< е) > 1 —D {ХIг\ что и требовалось доказать. Замечание. Неравенство Чебышева имеет для практики огра- ограниченное значение, поскольку часто дает грубую, а иногда и три- тривиальную (не представляющую интереса) оценку. Например, если D(X)>e2 и, следовательно, ?)(Х)/е2>1, то 1— D (Х)/е2 < 0; таким образом, в этом случае неравенство Чебышева указывает лишь на то, что вероятность отклонения неотрицательна, а это и без того очевидно, так как любая вероятность выражается неотрицательным числом. Теоретическое же значение неравенства Чебышева весьма велико. Ниже мы воспользуемся этим неравенством для вывода теоремы Чебышева. § 3. Теорема Чебышева Теорема Чебышева. Если Xlt Х2, ..., Хп, — попарно независимые случайные величины, причем диспер- дисперсии их равномерно ограничены (не превышают постоян- постоянного числа С), то, как бы мало ни было положительное число е, вероятность неравенства ±Хж+...+Х„ М (Xt) + M (Х2) + ... +М (Хп) будет как угодно близка к единице, если число случайных величин достаточно велико. юз
Другими словами, в условиях теоремы lim p(|*i±i М(Х1) + М(Хг)+.. п Таким образом, теорема Чебышева утверждает, что если рассматривается достаточно большое число незави- независимых случайных величин, имеющих ограниченные ди- дисперсии, то почти достоверным можно считать событие, состоящее в том, что отклонение среднего арифметического случайных величин от среднего арифметического их ма- математических ожиданий будет по абсолютной величине сколь угодно малым. Доказательство. Введем в рассмотрение новую случайную величину — среднее арифметическое случайных величин Х = (Х,+ *,+ .• •+*„)/"• Найдем математическое ожидание X. Пользуясь свой- свойствами математического ожидания (постоянный множи- множитель можно вынести за знак математического ожидания, математическое ожидание суммы равно сумме математи- математических ожиданий слагаемых), получим ... +Хп \ _ М (Хг) + М (Х»)+ ¦ ¦ ¦ +М (Х„) ,j \ п ) п Применяя к величине X неравенство Чебышева, имеем р ( IXi + xt+... + xn м (Хх+х%+.„+хп\ или, учитывая соотношение (*), п М (Хг) + М(Х2)+ ...+М (Хп) Хг4-Х2+ ...+Хп L Пользуясь свойствами дисперсии (постоянный множи- множитель можно вынести за знак дисперсии, возведя его 104
в квадрат; дисперсия суммы независимых случайных ве- величин равна сумме дисперсий слагаемых), получим D ( Xi + Xa+...+Xn\ = D(X1)-fD(A-iiL-...+D(Xn) По условию дисперсии всех случайных величин огра- ограничены постоянным числом С, т. е. имеют место нера- неравенства: D (XiXC; О(Ха)<,С; .. .; D{Xn)<:C, поэтому Итак, D Подставляя правую часть (***) в неравенство (**) (отчего последнее может быть лишь усилено), имеем \ I П М (Xt) + М (Хг) +...+М (Хп) I п \ Отсюда, переходя к пределу при п -* сю, получим lim Р ( \—^-—*п —~ — J/ /У 1 I L U IV \ М {Xd + M(XJ+...+M (Хп) Наконец, учитывая, что вероятность не может пре- превышать единицу, окончательно можем написать lim Р Пх1 + Хш+---+Ха_ М (X,) + М (Хг) + ...+М(Х, Теорема доказана. Выше, формулируя теорему Чебышева, мы предпола- предполагали, что случайные величины имеют различные матема- математические ожидания. На практике часто бывает, что слу- случайные величины имеют одно и то же математическое ожидание. Очевидно, что если вновь допустить, что диспер- дисперсии этих величин ограничены, то к ним будет применима теорема Чебышева. Обозначим математическое ожидание каждой из слу- случайных величин через а; в рассматриваемом случае сред- Ш5
нее арифметическое математических ожиданий, как легко видеть, также равно а. Мы можем сформулировать тео- теорему Чебышева для рассматриваемого частного случая. Если Xlt Х2, ..., Х„ ,... —попарно независимые случай- случайные величины, имеющие одно и то же математическое ожидание а, и если дисперсии этих величин равномерно ограничены, то, как бы мало ни было число е > 0, ве- вероятность неравенства с1+х2+...+х„ п будет как угодно близка к единице, если число случай- случайных величин достаточно велико. Другими словами, в условиях теоремы будет иметь место равенство lim P § 4. Сущность теоремы Чебышева Сущность доказанной теоремы такова: хотя от- отдельные независимые случайные величины могут прини- принимать значения, далекие от своих математических ожиданий, среднее арифметическое достаточно большого числа случай- случайных величин с большой вероятностью принимает значе- значения, близкие к определенному постоянному числу, а именно к числу (М (Хг) + М (Х2) +... -f M (Х„))/п (или к числу а в частном случае). Иными словами, отдельные случайные величины могут иметь значительный разброс, а их среднее арифметическое рассеянно мало. Таким образом, нельзя уверенно предсказать, какое возможное значение примет каждая из случайных вели- величин, но можно предвидеть, какое значение примет их среднее арифметическое. Итак, среднее арифметическое достаточно большого числа независимых случайных величин (дисперсии которых равномерно ограничены) утрачивает характер случайной величины. Объясняется это тем, что отклонения каждой из величин от своих математических ожиданий могут быть как положительными, так и отрицательными, а в среднем арифметическом они взаимно погашаются. Теорема Чебышева справедлива не только для дискрет- дискретных, но и для непрерывных случайных величин; она 106
является ярким примером, подтверждающим справедли- справедливость учения диалектического материализма о связи между случайностью и необходимостью. § 5. Значение теоремы Чебышева для практики Приведем примеры применения теоремы Чебышева к решению практических задач. Обычно для измерения некоторой физической величины производят несколько измерений и их среднее арифме- арифметическое принимают в качестве искомого размера. При каких условиях этот способ измерения можно считать правильным? Ответ на этот вопрос дает теорема Чебы- Чебышева (ее частный случай). Действительно, рассмотрим результаты каждого из- измерения как случайные величины Xlt Хг, ..., Хп. К этим величинам можно применить теорему Чебышева, если: 1) они попарно независимы, 2) имеют одно и то же ма- математическое ожидание, 3) дисперсии их равномерно огра- ограничены. Первое требование выполняется, если результат каж- каждого измерения не зависит от результатов остальных. Второе требование выполняется, если измерения произ- произведены без систематических (одного знака) ошибок. В этом случае математические ожидания всех случайных величин одинаковы и равны истинному размеру а. Третье требо- требование выполняется, если прибор обеспечивает определен- определенную точность измерений. Хотя при этом результаты отдельных измерений различны, но рассеяние их огра- ограничено. Если все указанные требования выполнены, мы вправе применить к результатам измерений теорему Чебышева: при достаточно большом п вероятность неравенства \(Х1 + Х2+...+Хп)/п-а\<г как угодно близка к единице. Другими словами, при достаточно большом числе измерений почти достоверно, что их среднее арифметическое как угодно мало отли- отличается от истинного значения измеряемой величины. Итак, теорема Чебышева указывает условия, при ко- которых описанный способ измерения может быть приме- применен. Однако ошибочно думать, что, увеличивая число измерений, можно достичь сколь угодно большой точ- точности. Дело в том, что сам прибор дает показания лишь 107
с точностью ± а; поэтому каждый из результатов изме- измерений, а следовательно, и их среднее арифметическое будут получены лишь с точностью, не превышающей точности прибора. На теореме Чебышева основан широко применяемый в статистике выборочный метод, суть которого состоит в том, что по сравнительно небольшой случайной выборке судят о всей совокупности (генеральной совокупности) исследуемых объектов. Например, о качестве кипы хлопка заключают по небольшому пучку, состоящему из волокон, наудачу отобранных из разных мест кипы. Хотя число волокон в пучке значительно меньше, чем в кипе, сам пучок содержит достаточно большое количество волокон, исчисляемое сотнями. В качестве другого примера можно указать на опре- определение качества зерна по небольшой его пробе. И в этом случае число наудачу отобранных зерен мало сравни- сравнительно со всей массой зерна, но само по себе оно доста- достаточно велико. Уже из приведенных примеров можно заключить, что для практики теорема Чебышева имеет неоценимое зна- значение. § в. Теорема Бернулли Пусть производится л независимых испытаний, в каждом из которых вероятность появления события А равна р. Можно ли предвидеть, какова примерно будет относительная частота появлений события? Положитель- Положительный ответ на этот вопрос дает теорема, доказанная Яко- Якобом Бернулли (опубликована в 1713 г.), которая полу- получила название «закона больших чисел» и положила начало теории вероятностей как науке. Доказательство Бернулли было сложным; простое доказательство дано П. Л. Чебы- шевым в 1846 г. Теорема Бернулли. Если в каждом из п независимых испытаний вероятность р появления события А постоянна, то как угодно близка к единице вероятность того, что отклонение относительной частоты от вероятности р по абсолютной величине будет сколь угодно малым, если число испытаний достаточно велико. Другими словами, если е — сколь угодно малое поло- положительное число, то при соблюдении условий теоремы 108
имеет место равенство Нт Р (| т/п —р j < е) = 1. Доказательство. Обозначим через Хх дискретную случайную величину — число появлений события в первом испытании, через Х2 — во втором, ..., Х„—в п-и испы- испытании. Ясно, что каждая из величин может принять лишь два значения: 1 (событие А наступило) с вероят- вероятностью р и 0 (событие не появилось) с вероятностью 1— p = q. Можно ли применить к рассматриваемым величинам теорему Чебышева? Можно, если случайные величины по- попарно независимы и дисперсии их ограничены. Оба усло- условия выполняются Действительно, попарная независимость величин Xlt Х2, .., Хп следует из того, что испытания независимы. Дисперсия любой величины X/ (t = 1, 2, ..., п) равна произведению pq *'; так как p + q—l, то произве- произведение pq не превышает**) 1/4 и, следовательно, дисперсии всех величин ограничены, например, числом С =1/4. Применяя теорему Чебышева (частный случай) к рас- рассматриваемым величинам, имеем lim P(|(Xl+X,+ ...+*„)//»—а|<е)=1. «-*» Приняв во внимание, что математическое ожидание а каждой из величин Xt (т. е. математическое ожидание числа появлений события в одном испытании) равно ве- вероятности р наступления события (см. гл. VII, § 2, пример 2), получим lim P(\(XX \-Xt+...+XH)/n—p\<e)=l. п — но Остается показать, что дробь (Хх + Хя+ . . . + Х„)/п равна относительной частоте т/п появлений события А в испытаниях. Действительно, каждая из величин Хх, Хл, . . , Хп при появлении события в соответствующем испытании принимает значение, равное единице; следо- *> Это следует из § 6 гл. VIII, если принять л=1. **> Известно, что произведение двух сомножителей, сумма ко- которых есть величина постоянная, имеет наибольшее значение при .ра- .равенстве сомножителей. Здесь сумма р,-4-<?( = 1, т. е. постоянна, поэто- поэтому при pl=qi = \/2 произведение p,q,- имеет наибольшее значение и равно 1/4. 109
вательно, сумма Х1 + Х2+ ... +Хп равна числу т по- появлений события в п испытаниях, а значит, Учитывая ьто равенство, окончательно получим lim P{\m/n — р|<е) = 1. Замечание. Было бы неправильным на основании теоремы Бернулли сделать вывод, что с ростом числа испытаний относитель- относительная частота неуклонно стремится к вероятности р; другими словами, из теоремы Бернулли не вытекает равенство lim (т/л)=р. В тео- Л-t-oo реме речь идет лишь о вероятности того, что при достаточно большом числе испытаний относительная частота будет как угодно мало отличаться от постоянной вероятности появления события в каж- каждом испытании. Таким образом, сходимость относительной частоты т/п к веро- вероятности р отличается от сходимости в смысле обычного анализа. Для того чтобы подчеркнуть это различие, вводят понятие «сходимости по вероятности»*'. Точнее, различие между указанными видами сходимости состоит в следующем: если т/п стремится при п —*¦ оо к р как пределу в смысле обычного анализа, то начиная с некото- некоторого n = N и для всех последующих значений л неуклонно выпол- выполняется неравенство | т/п—р | < е; если же т/п стремится по веро- вероятности к р при я—>-оо, то для отдельных значений я неравенство может не выполняться. Итак, теорема Бернулли утверждает, что при п —> оо относи- относительная частота стремится по вероятности к р. Коротко теорему Бернулли записывают так: т вер Л П-+00 Как видим, теорема Бернулли объясняет, почему относительная частота при достаточно большом числе испытаний обладает свойством устойчивости и оправдывает статистическое определение вероятности <см. гл. I, § 6—7). Задачи 1. Сформулировать и записать теорему Чебышева, исполь- используя понятие «сходимости по вероятности». 2. Используя неравенство Чебышева, оценить вероятность того, что |Х — М. (Х)\ < 0,1, если D (X) =0,001. Отв. Р^0,9. 3. Дано: Р(\ X — М (Х)\ < e)S*0,9; D(X) =0,004. Используя неравенство Чебышева, найти е. Отв. 0,2. •' Последовательность случайных величин Xi, X2, .. • сходится по вероятности к случайной величине X, если для любого е > 0 вероятность неравенства | Х„—Х|<е при я—*-оо стремится к единице. ПО
Глава десятая ФУНКЦИЯ РАСПРЕДЕЛЕНИЯ ВЕРОЯТНОСТЕЙ СЛУЧАЙНОЙ ВЕЛИЧИНЫ § 1. Определение функции распределения Вспомним, что дискретная случайная величина может быть задана" перечнем всех ее возможных значений и их вероятностей. Такой способ задания не является общим: он неприменим, например, для непрерывных случайных величин. Действительно, рассмотрим случайную величину X, возможные значения которой сплошь заполняют интервал (а, Ь). Можно ли составить перечень всех возможных значений X? Очевидно, что этого сделать нельзя. Этот пример указывает на целесообразность дать общий спо- способ задания любых типов случайных величин. С этой целью и вводят функции распределения вероятностей случайной величины. Пусть х—действительное число. Вероятность события, состоящего в том, что X примет значение, меньшее х, т. е. вероятность события X < х, обозначим через F (х). Разу- Разумеется, если х изменяется, то, вообще говоря, изменяется и F (х), т. е. F (х)—функция от х. Функцией распределения называют функцию/7 (х), опре- определяющую вероятность того, что случайная величина X в результате испытания примет значение, меньшее х, т. е. Геометрически это равенство можно истолковать так: F (х) есть вероятность того, что случайная величина примет значение, которое изображается на числовой оси точкой, лежащей левее точки х. Иногда вместо термина «функция распределения» используют термин «интегральная функция». Теперь можно дать более точное определение непре- непрерывной случайной величины: случайную величину назы- называют непрерывной, если ее функция распределения есть непрерывная, кусочно-дифференцируемая функция с не- непрерывной производной. Ill
§ 2. Свойства функции распределения Свойство 1. Значения функции распределения принадлежат отрезку [О, 1]: Доказательство. Свойство вытекает из опреде- определения функции распределения как вероятности: вероят- вероятность всегда есть неотрицательное число, не превышающее единицы. Свойство 2. F (х)—неубывающая функция, т. е. F (xa) > F (xj, если х2 > хг. Доказательство. Пусть х2 > хг. Событие, состоя- состоящее в том, что X примет значение, меньшее х2, можно подразделить на следующие два несовместных события: 1) X примет значение, меньшее хг, с вероятностью Р (X < х^); 2) X примет значение, удовлетворяющее не- неравенству xl^LX<xa, с вероятностью Р^^Х < х2). По теореме сложения имеем Р(Х <xt) = P(X <x1) + P(xl^X <х%). Отсюда Р (X < хЛ) — Р (X < хг) = Р (х, < X < х%), или F (x,)-F (хг) = Р (хг < X < хЛ). (•) Так как любая вероятность есть число неотрицатель- неотрицательное, то F(xt) — F(x1)^0, или F (x2)^ F (хг), что и тре- требовалось доказать. Следствие 1. Вероятность того, что случайная величина примет значение, заключенное в интервале (а, Ь), равна приращению функции распределения на этом ин- интервале: P(a^X<b) = F(b)—F (a). (**) Это важное следствие вытекает из формулы (*), если положить ха — Ь и Xj = a. Пример. Случайная величина X задана функцией распределения (О при х<—1; Х/4-И/4 при —1 < *<;3; 1 при х > 3. 112
Найти вероятность того, что в результате испытания X примет зна- значение, принадлежащее интервалу @, 2): Р@<Х < 2) = FB) — F@). Решение. Так как на интервале @, 2), по условию, то F B)-F @) = B/4-И/4)-<0/4+ 1/4)= 1/2. Итак, Р@< X < 2)= 1/2. Следствие 2. Вероятность того, что непрерывная случайная величина X примет одно определенное значение, равна нулю. Действительно, положив в формуле (**) а — х1г Ъ — хг-\- + Ах, имеем Р (хг < X < хх + Ах) = F (xt + А*) — F (хг). Устремим Ах к нулю. Так как X—непрерывная случай- случайная величина, то функция F (х) непрерывна. В силу непрерывности F (х) в точке xt разность F (хг + Ах) — F (хг) также стремится к нулю; следовательно, Р (X — хг) = 0. Используя это положение, легко убедиться в справедли- справедливости равенств (***) Например, равенство Р (а < X ^ Ь) = Р (а < X < Ь) доказывается так: Р (а < X <&) =Р (а < X < Ь) + Р (X = Ь) = Р (а < X < Ь). Таким образом, не представляет интереса говорить о вероятности того, что непрерывная случайная величина примет одно определенное значение, но имеет смысл рас- рассматривать вероятность попадания ее в интервал, пусть даже сколь угодно малый. Этот фак полностью соответ- соответствует требованиям практических задач. Например, инте- интересуются вероятностью того, что размеры деталей не выходят за дозволенные границы, но не ставят вопроса о вероятности их совпадения с проектным размером. Заметим, что было бы неправильным думать, что ра- равенство нулю вероятности Р (X =х1) означает, что событие Х — хг невозможно (если, конечно, не ограничиваться классическим определением вероятности). Действительно, в результате испытания случайная величина обязательно 8 — 2730 ИЗ
примет одно из возможных значений; в частности, это значение может оказаться равным хг. Свойство 3. Если возможные значения случайной величины принадлежат интервалу (а, Ь), то: 1) F(x) — Q при х^.а; 2) F (х) = 1 при х^Ь. Доказательство. 1) Пусть xt^.a. Тогда событие X < хг невозможно (так как значений, меньших xlt вели- величина X по условию не принимает) и, следовательно, вероятность его равна нулю. 2) Пусть хг~^Ь. Тогда событие X <С хг достоверно (так как все возможные значения X меньше хг) и, сле- следовательно, вероятность его равна единице. Следствие. Если возможные значения непрерывной случайной величины расположены на всей оси х, то спра- справедливы следующие предельные соотношения: lim F(x)-0; lim F(*) = l. X-*- — 00 X-*-X> § 3. График функции распределения Доказанные свойства позволяют представить, как выглядит график функции распределения непрерывной случайной величины. График расположен в полосе, ограниченной прямыми У —0, у=\ (первое свойство). При возрастании х в интервале (а, Ь), в котором за- заключены все возможные значения случайной величины, график «подымается вверх» (второе свойство). Рис. 2 При хз^а ординаты графика равны нулю; при ординаты графика равны единице (третье свойство). График функции распределения непрерывной случай- случайной величины изображен на рис. 2. Замечание. График функции распределения дискретной слу- случайной величины имеет ступенчатый вид. Убедимся в этом на примере. 114
Пример. Дискретная случайная величина Л задана таблицей распределения X 1 4 8 р 0,3 0,1 0,6 Найти функцию распределения и вычертить ее график. Решение. Если х < 1, то F (х) = 0 (третье свойство). Если 1 < х<4, то F(x) = = 0,3. Действительно, X может г(х) принять значение 1 с вероятно- вероятностью 0,3. ' Если 4 < х < 8, то F(x) = = 0,4. Действительно, если х% удовлетворяет неравенству 4 < < xt < 8, то F (jcj) равно веро- вероятности события X < xlf кото- которое может быть осуществлено, когда X примет значение 1 (ве- ряс. 3 роятность этого события равна 0,3) или значение 4 (вероятность этого события равна 0,1). Поскольку эти два события несовместны, то по теореме сложения вероятность события X < Xi равна сумме вероятностей 0,3+0,1 = 0,4. Если х > 8, то F (х) = 1. Действительно, событие X < 8 досто- достоверно, следовательно, его вероятность равна единице. Итак, функция распределения аналитически может быть запи- записана так: {0 при 0,3 при 1 0,4 при 4 1 при х > 8. График этой функции приведен на рис. 3. Задачи 1. Случайная величина X задана функцией распределения @ при *<—1, х/3+1/3 при — 1<лс<2, 1 при х > 2. Найти вероятность того, что в результате испытания X примет зна- значение, заключенное в интервале @, 1). Отв. 1/3. 2. Случайная величина X задана функцией распределения @ = j (*/2)-l при F(x)=\ (ж/2)—1 при 2<дс<4, при х > 4. Найти вероятность того, что в результате испытания X примет зна- значение, заключенное в интервале B, 3). Отв. 1/2. «* 118
Э. Дискретная случайная величина К задана законом распре- распределения X 2 6 10 р 0,5 0,4 0,1 Построить график функции распределения этой величины. Глава одиннадцатая ПЛОТНОСТЬ РАСПРЕДЕЛЕНИЯ ВЕРОЯТНОСТЕЙ НЕПРЕРЫВНОЙ СЛУЧАЙНОЙ ВЕЛИЧИНЫ § 1. Определение плотности распределения Выше непрерывная случайная величина задава- задавалась с помощью функции распределения. Этот способ задания не является единственным. Непрерывную слу- случайную величину можно также задать, используя другую функцию, которую называют плотностью распределения или плотностью вероятности (иногда ее называют диф- дифференциальной функцией). Плотностью распределения вероятностей непрерывной случайной величины X называют функцию f (х)— первую производную от функции распределения F (х): f (*) = F' (х). Из этого определения следует, что функция распре- распределения является первообразной для плотности распре- распределения. Заметим, что для описания распределения вероятно- вероятностей дискретной случайной величины плотность распре- распределения неприменима. § 2. Вероятность попадания непрерывной случайной величины в заданный интервал Зная плотность распределения, можно вычислить вероятность того, что непрерывная случайная величина примет значение, принадлежащее заданному интервалу. Вычисление основано на следующей теореме. Теорема. Вероятность того, что непрерывная случай- случайная величина X примет значение, принадлежащее интер- интервалу {а, Ь), равна определенному интегралу от плотности
распределения, взятому в пределах от а до Ь: ь P(a<X<b)=\f{x)dx. а Доказательство. Используем соотношение {**), (см. гл. X, § 2) Р (а < X < Ь) = F (Ь) — F (а). По формуле Ньютона — Лейбница, ь ъ F(b)-F (a) =\F'(x)dx=$f (x) dx. а а Таким образом, Так как Р (а < X < Ь) = Р (а < X < 6), то оконча- окончательно получим a Геометрически полученный результат можно истолко- истолковать так: вероятность того, что непрерывная случайная величина примет значение, принадлежащее интервалу (а, Ъ), равна площади криволинейной трапеции, ограни- ограниченной осью Ох, кривой распределения / (х) и прямыми х=а и х = Ь. Замечание. В частности, если f{x) — четная функция и концы интервала симметричны относительно начала координат, то а Р (- о < X < а) = Р (| X |< а) =2 J / (дг) dx. о Пример. Задана плотность вероятности случайной величины X (О при Jf<0, 2х при 0<дс<1, О при х > 1. Найти вероятность того, что в результате испытания X примет зна- значение, принадлежащее интервалу @,Б; 1). Решение. Искомая вероятность I Р@,5< X < 1)=2 $*<& = ** |о,»= 1—0,25 = 0,75. 0,5 117
§ 3. Нахождение функции распределения по известной плотности распределения Зная плотность распределения f (x), можно найти функцию распределения F (х) по формуле = J f(x)dx. Действительно, мы обозначили через F (х) вероятность того, что случайная величина примет значение, мень- меньшее х, т. е. F(x) = P(X<x). Очевидно, неравенство X < х можно записать в виде двойного неравенства — со < X < х, следовательно, F(x) = P(—oo<X<x). (*) Полагая в формуле (*) (см. § 2) а = — оо, Ь — х, имеем P(-oo<X<x)= J f(x)dx. — 00 Наконец, заменив Р (— со < X < х) на F (х), в силу (*), окончательно получим х F{x)= $ f(x)dx. Таким образом, зная плотность распределения, можно найти функцию распределения. Разумеется, по известной функции распределения может быть найдена плотность распределения, а именно: Пх) = Г(х). Пример. Найти функцию распределения по данной плотности распределения: !0 при х < а, 1/ф—а) при а<х<Ь, О при х > Ь. Построить график найденной функции. Решение. Воспользуемся формулой F(x)= \ f(x)dx. — о» 1(8
Если х < а, то / (х) = 0, следовательно, F (х) = 0. Если а < х то /(*) = 1/F —а), следовательно, со ах Если л > ?\ то 'И- — со — се а Итак, искомая функция распределения (О при х«?а, (х — аI{Ь — а) при о < х<Ь, 1 при х > Ь. График этой функции изображен на рис. 4. § 4. Свойства плотности распределения Свойство 1. Плотность распределения—не- распределения—неотрицательная функция: f(x)>0. Доказательство. Функция распределения — не- неубывающая функция, следовательно, ее производная F'(x) — f(x) — функция не- неотрицательная. Геометрически это свойство означает, что точ- точки, принадлежащие гра- графику плотности распреде- _ ления, расположены либо ° над осью Ох, либо на этой Рис 4 оси. График плотности распределения называют кривой- распределения. Свойство 2. Несобственный интеграл от плотности распределения в пределах от —сю до оо равен единице: Доказательство. Несобственный интеграл j f (x) dx выражает вероятность события, состоящего в 119
том, что случайная величина примет значение, принад- принадлежащее интервалу (— сю, оо). Очевидно, такое событие достоверно, следовательно, вероятность его равна единице. Геометрически это означает, что вся площадь криво- криволинейной трапеции, ограниченной осью Ох и кривой распределения, равна единице. В частности, если все возможные значения случайной величины принадлежат интервалу (а, Ь), то а Пример. Плотность распределения случайной величины X задана: Найти постоянный параметр а. Решение. Плотность распределения должна удовлетворять ус- 00 ловию \ /(x)dx —1, поэтому потребуем, чтобы выполнялось ра- ос Г dx — CD венство Отсюда dx Найдем неопределенный интеграл: J e-*-j-e* J 1 -\-егх Вычислим несобственный интеграл: <в 0 с dx .. Г dx , .. С dx — lim (— arctg e6) -f- Dm (arctg e*) = я/2. Таким образом, искомый параметр 120
§ 5. Вероятностный смысл плотности распределени я Пусть F (х)—функция распределения непрерыв- непрерывной случайной величины X. По определению плотности распределения, f{x) — F'(x), или в иной форме Как уже известно, разность F(x + Ax)— F (х) опре- определяет вероятность того, что X примет значение, при- принадлежащее интервалу (х, х + Ах). Таким образом, пре- предел отношения вероятности того, что непрерывная слу- случайная величина примет значение, принадлежащее интер- интервалу (х, х+Ах), к длине этого интервала (при Ах—>О) равен значению плотности распределения в точке х. По аналогии с определением плотности массы в точке *» целесообразно рассматривать значение функции f (x) в точке х как плотность вероятности в этой точке. Итак, функция / (х) определяет плотность распределе- распределения вероятности для каждой точки х. Из дифференциального исчисления известно, что при- приращение функции приближенно равно дифференциалу функции, т. е. F(x+Ax)-F(x)~dF(x), или F (х + Ах)—F (х) ~ F' (х) dx. Так как /?'(*) =/(*) и dx = Ax, то F (х + Ах)—F (х) ~ f (jc) Д х. Вероятностный смысл этого равенства таков: вероят- вероятность того, что случайная величина примет значение, принадлежащее интервалу {х, х-\-Ах), приближенно равна (с точностью до бесконечно малых высшего порядка от- относительно Ах) произведению плотности вероятности в точке х на длину интервала Ах. *> Если масса непрерывно распределена вдоль оси х по некото- некоторому закону, например F (х), то плотностью р (х) массы в точке х называют предел отношения массы интервала (х, х-\-&х) к длине интервала при Дх -> 0, г. е. р (х) = lim f (* + А*Ь-f (*) 121
Геометрически этот результат можно истолковать так: вероятность того, что случайная величина примет значе- значение, принадлежащее интервалу (х, х + А.х), приближенно равна площади прямоуголь- прямоугольника с основанием Ах и вы- высотой / (х). На рис. 5 видно, что пло- площадь заштрихованного пря- прямоугольника, равная произве- произведению f (х) Ах, лишь прибли- приближенно равна площади криво- криволинейной трапеции (истинной вероятности, определенным определяемой интегралом f(x)dx). Допущенная при этом погрешность равна х площади криволинейного треугольника ABC. § 6. Закон равномерного распределения вероятностей При решении задач, которые выдвигает практи- практика, приходится сталкиваться с различными распределе- распределениями непрерывных случайных величин. Плотности рас- распределений непрерывных случайных величин называют также законами распределений. Часто встречаются, на- например, законы равномерного, нормального и показатель- показательного распределений. В настоящем параграфе рассматри- рассматривается закон равномерного распределения вероятностей. Нормальному и показательному законам посвящены сле- следующие две главы. Распределение вероятностей называют равномерным, если на интервале, которому принадлежат все возможные значения случайной величины, плотность распределения сохраняет постоянное значение. Приведем пример равномерно распределенной непре- непрерывной случайной величины. Пример. Шкала измерительного прибора проградуирована в не- некоторых единицах. Ошибку при округлении отсчета до ближайшего целого деления можно рассматривать как случайную величину X, которая может принимать с постоянной плотностью вероятности лю- любое значение между двумя соседними целыми делениями. Таким об- образом, X имеет равномерное распределение. 122
Найдем плотность равномерного распределения / (х), считая, что все возможные значения случайной величины заключены в интерва- интервале (а, Ь), на котором функция f (х) сохраняет постоянные значения: По условию, X не принимает значений вне интервала (а, Ь), поэтому f (х) = 0 при х < а и х > Ь. Найдем постоянную С. Так как все возможные значения слу- случайной величины принадлежат интервалу (а, Ь), то должно выпол- выполняться соотношение ь ь {х) rfjc ===== 1, или а а Отсюда Итак, искомая плотность вероятности равномерного распределе- распределения ( ° \ 1/F— V О при = \ 1/F—а) при а < ж< при х > Ь. График плотности равномер- .. . ного распределения изображен на ' '*' рис. 6, а график функции распре- распределения— на рис. 4. ~ Замечание. Обозначим че- через R непрерывную случайную ве- величину, распределенную равномер- —jj- но в интервале @, 1), а через г— ее возможные значения. Be- Рис- 6 роятность попадания величины R (в результате испытания) в интервал (с, d), принадлежащий интер- интервалу @, 1), равна его длине: Р(с < R < d) = d—c. Действительно, плотность рассматриваемого равномерного рас- распределения Следовательно, вероятность попадания случайной величины R в ин- интервал (с, d) (см. гл. XI, § 2) d d Р(с< R < d)=5 ( {r)dr=r-^ \-dr = d—c. с с Далее случайная величина R используется неоднократно (см. гл. XXI). 123
Задачи 1. Случайная величина задана плотностью распределения (О при х< —я/2, a cos х ири — л/2 < х <; п/2, О при х > и/2. Найти коэффициент а. Отв. а =1/2. 2. Случайная величина задана плотностью распределения (О при х<0, (sinx)/2 при 0 < х<я, О при х > л. Найти: а) функцию распределения; б) вероятность того, что в резуль- результате испытания случайная величина примет значение, заключенное в интервале @, я/4). {О при х < О, A —cosx)/2 при 0<х«г;л, 1 при х > я. S. Случайная величина X задана функцией распределения (О при Ж О, х при 0<дс<1, 1 при х > 1. Найти плотность распределения. О/пе. /(х)=1 в интервале @, 1); вне этого интервала / (де) = 0. 4. Случайная величина X задана функцией распределения (О при х = 0, A — cos х)/2 при 0 < х < я, 1 при х > я. Отв. / (лс) = (sin x)/2 в интервале @, я); вне этого интервала /<) 0 Глава двенадцатая НОРМАЛЬНОЕ РАСПРЕДЕЛЕНИЕ § 1. Числовые характеристики непрерывных случайных величин Распространим определения числовых характе- характеристик дискретных величин на величины непрерывные. Начнем с математического ожидания. Пусть непрерывная случайная величина X задана плот- плотностью распределения / (х). Допустим, что все возможные 124
значения X принадлежат отрезку [а, Ь]. Разобьем этот отрезок на п частичных отрезков длиной Дл^, Длг2, ..., Ахп и выберем в каждом из них произвольную точку х{ ( == 1, 2, ..., п). Нам надо определить математическое ожидание непрерывной величины по аналогии с дискрет- дискретной; составим сумму произведений возможных значений Х{ на вероятности попадания их в интервал Дл;(- (напом- (напомним, что произведение / (л:) Да; приближенно равно вероят- вероятности попадания X в интервал Дх): Перейдя к пределу при стремлении к нулю длины наи- наибольшего из частичных отрезков, получим определенный ь интеграл j xf (х) dx. а Математическим ожиданием непрерывной случайной величины X, возможные значения которой принадлежат отрезку [а, 6], называют определенный интеграл ь а Если возможные значения принадлежат всей оси Ох, то = J xf(x)dx. — ав Предполагается, что несобственный интеграл сходится абсо- лютно, т. е. существует интеграл J | х | / (х) dx. Если бы это требование не выполнялось, то значение интеграла зависело бы от скорости стремления (в отдельности) ниж- нижнего предела к —оо, а верхнего—к +оо. По аналогии с дисперсией дискретной величины опре- определяется и дисперсия непрерывной величины. Дисперсией непрерывной случайной величины называют математическое ожидание квадрата ее отклонения. Если возможные значения X принадлежат отрезку [о, Ь], то ь 125
если возможные значения принадлежат всей оси х, то 00 D(X)= $ [x-M(X)]*f(x)dx. — со Среднее кеадратическое отклонение непрерывной слу- случайной величины определяется, как и для величины диск- дискретной, равенством Замечание 1. Можно доказать, что свойства математического ожидания и дисперсии дискретных величин сохраняются и для непре- непрерывных величин. Замечание 2. Легко получить для вычисления дисперсии более удобные формулы: ь D (X) = J x*f (*) dx-[M (X)}*, (¦*) = J x*f(x)dx-[M(X))K — ао Пример 1. Найти математическое ожидание и дисперсию случай- случайной величины X, заданной функцией распределения (О при х < О, х при 0<лг<1, 1 при х > \. Решение. Найдем плотность распределения: (О при х < О, 1 при 0<ж<1. О при х > 1. Найдем математическое ожидание по формуле (*): 1 1 All (X) = f *• 1 .dx=x*/2 I = 1/2. о о Найдем дисперсию по формуле (**): 1 I D (X) = С *». 1 dx—[1/2]» = х8/з| —1/4= 1/12. Пример 2. Найти математическое ожидание н дисперсию непре- непрерывной случайной величины X, распределенной равномерно в интер- интервале (а, Ь). Решение. Найдем математическое ожидание X по формуле (•), учитывая, что плотность равномерного распределения f(x)=l/(b—в) 126
(см. гл. XI, § 6): ь ь = -^— {xdx. М (Х)= а а Выполнив элементарные выкладки, получим Найдем дисперсию X по формуле (**): ь ь D (X) = а а Выполнив элементарные выкладки, получим D{X) = (b — aJ/12. Замечание 3. Математическое ожидание и дисперсия случай- случайной величины R, распределенной равномерно в интервале @, 1), т. е. если а = 0, 6=1, как следует из примера 2, соответственно равны Л1 (/?) =1/2, D (R)=l/12. Этот же результат мы получили в примере 1 по заданной функции распределения случайной вели- величины R. § 2. Нормальное распределение Нормальным называют распределение вероятно- вероятностей непрерывной случайной величины, которое описы- описывается плотностью /(x) = =e<)V. а у 2я Мы видим, что нормальное распределение определяется двумя параметрами: а и а. Достаточно знать эти пара- параметры, чтобы задать нормальное распределение. Покажем, что вероятностный смысл этих параметров таков: а есть математическое ожидание, a — среднее квадратическое отклонение нормального распределения. а) По определению математического ожидания непре- непрерывной случайной величины, М(Х)= [xf(x)dx = —Х= Г J а у 2л J = у 2л Введем новую переменную z = (x — а)/а. Отсюда x — az-\-a, dx — odz. Приняв во внимание, что новые пределы инте- 127
грирования равны старым, получим 00 М (X) = ° — С (oz + а) е-2"/2 dz = 00 GO Y2n J /1я J Первое из слагаемых равно нулю (под знаком интеграла нечетная функция; пределы интегрирования симметричны относительно начала координат). Второе из слагаемых / °° \ равно а (интеграл Пуассона J e~2'/2dz = V 2я )- Итак, М (X) = а, т. е. математическое ожидание нор- нормального распределения равно параметру а. б) По определению дисперсии непрерывной случайной величины, учитывая, что М (X) ~ а, имеем D(X) = Введем новую переменную г = (дс—а)/а. Отсюда х—a = oz, dx = odz. Приняв во внимание, что новые пределы инте- интегрирования равны старым, получим Интегрируя по частям, положив и = г, dv = ге~г*'2 dz, найдем D (X) = а». Следовательно, о (X) = УЩХ) = Ко3 = о. Итак, среднее квадратическое отклонение нормального распределения равно параметру а. Замечание 1. Общим называют нормальное распределение с произвольными параметрами а и о (о > 0). Нормированным называют нормальное распределение с парамет- параметрами а = 0 и 0=1. Например, если X — нормальная величина с пара- параметрами а и а, то U ={Х — а)/а — нормированная нормальная вели- величина, причем M(U)=0, 0(l/) = l. 128
Плотность нормированного распределения Эта функция табулирована (см. приложение 1). Замечание 2. Функция F(х) общего нормального распреде- распределения (см. гл. XI, § 3) F(x) = " Г e-<*-<DV<ao') d а/Ж J — QD а функция нормированного распределения Функция Fo (x) табулирована. Легко проверить, что F(x) = F0((x—a)/a). Замечание 3. Вероятность попадания нормированной нор- нормальной величины X в интервал @, х) можно найти, пользуясь X функцией Лапласа Ф (к) «== —— \ е~г*/2 dz. Действительно (см. гл. XI, § 2), X X Р @ < X < х) — \ w(x) dx——=^ \ е~г /а dz = Ф (х). J \Г2л J 00 Замечание 4. Учитывая, что \ ф (дс) dд: = 1 (см. гл. XI, § 4, — СО свойство 2), и, следовательно, в силу симметрии <р (дс) относительно нуля о V <p(x)dx = 0,5, а значит, и Р (— оо < X < 0)=0,5, — СО Легко получить, что Ро« = О,5+Ф(х). Действительно, F0(x)=P(—oo < X < х) = Р(—оо < X < 2730 129
§ 3. Нормальная кривая График плотности нормального распределения называют нормальной кривой (кривой Гаусса). Исследуем функцию методами дифференциального исчисления. 1. Очевидно, функция определена на всей оси х. Рис. 7 2. При всех значениях х функция принимает поло- положительные значения, т. е. нормальная кривая располо- расположена над осью Ох. 3 Предел функции при неограниченном возрастании х (по абсолютной величине) равен нулю: lim у = 0, т. е. ось Ох служит горизонтальной асимптотой графика. 4. Исследуем функцию на экстремум. Найдем первую производную: Легко видеть, что у'—0 при х = а, у'>0 при х < а, у' < 0 при х > а. Следовательно, при х — а функция имеет максимум, равный 1/(а|/г2я). 5. Разность х—а содержится в аналитическом выра- выражении функции в квадрате, т. е. график функции сим- симметричен относительно прямой х = а. 6. Исследуем функцию на точки перегиба. Найдем вторую производную: Г I L 130
Легко видеть, что при х — а-\-а и х=а—а вторая производная равна нулю, а при переходе через эти точки она меняет знак (в обеих этих точках значение функции равно \/(а V 2л е)). Таким образом, точки графика (а—а, 1/(аУ2яе)) и (а + а, 1/(а\/2ле)) являются точками пе- перегиба. На рис. 7 изображена нормальная кривая при а=1 и о = 2. § 4. Влияние параметров нормального распределения на форму нормальной кривой Выясним, как влияют на форму и расположение нормальной кривой значения параметров а и а. Известно, что графики функций f (х) и f (x—а) имеют одинаковую форму; сдвинув график f (х) в положитель- положительном направлении оси х на а единиц масштаба при а > О или в отрицательном направ- направлении при а < 0, получим график f(x—а). Отсюда сле- следует, что изменение величины параметра а (математиче- (математического ожидания) не изменяет формы нормальной кривой, а приводит лишь к ее сдвигу вдоль оси Ох: вправо, если а возрастает, и влево, если а убывает. По-иному обстоит дело, если изменяется параметр о (среднее квадратическое отклонение). Как было указано в предыдущем параграфе, максимум дифференциальной функции нормального распределения равен 1/(а У 2я). Отсюда следует, что с возрастанием а максимальная орди- нота нормальной кривой убывает, а сама кривая стано- становится более пологой, т. е. сжимается к оси Ох; при убывании а нормальная кривая становится более €остро~ вершинной» и растягивается в положительном направле- направлении оси Оу. Подчеркнем, что при любых значениях параметров а И о площадь, ограниченная нормальной кривой и осью х, остается равной единице (см. гл. XI, § 4, второе свойство плотности распределения). 9* 131 Рис. 8
На рис. 8 изображены нормальные кривые при раз- различных значениях с и а = 0. Чертеж наглядно иллюстри- иллюстрирует, как изменение параметра а сказывается на форме нормальной кривой. Заметим, что при а = 0 и а—\ нормальную кривую Ф(х) = —7=е~х1/2 называют нормированной. § 5. Вероятность попадания в заданный интервал нормальной случайной величины Уже известно, что если случайная величина X задана плотностью распределения / (х), то вероятность того, что X примет значение, принадлежащее интервалу (а, р), такова: Р Пусть случайная величина X распределена по нор- нормальному закону. Тогда вероятность того, что X примет значение, принадлежащее интервалу (a, Р), равна Р (а < X < Р) = -4= f а у 2п J ex dx. Преобразуем эту формулу так, чтобы можно было пользоваться готовыми таблицами. Введем новую пере- переменную z = (x—а)/о. Отсюда x = oz-\-a, dx—odz. Найдем новые пределы интегрирования. Если х=а, то z = (a — а)/а; если х = р\ то z = (P — а)/о. Таким образом, имеем 132
Пользуясь функцией Лапласа окончательно получим Пример. Случайная величина X распределена по нормальному закону. Математическое ожидание и среднее квадратическое откло- отклонение этой величины соответственно равны 30 и 10. Найти вероят- вероятность того, что X примет значение, принадлежащее интервалу A0, 50). Решение. Воспользуемся формулой (*). По условию, а =10, Р = 50, а = 30, а=10, следовательно, По таблице приложения 2 находим Ф B) = 0,4772. Отсюда иско- искомая вероятность Р A0 < X < 50) = 20,4772 = 0,9544. §6. Вычисление вероятности заданного отклонения Часто требуется вычислить вероятность того, что отклонение нормально распределенной случайной вели- величины X по абсолютной величине меньше заданного по- положительного числа б, т. е. требуется найти вероятность осуществления неравенства }Х—а\ < 6. Заменим это неравенство равносильным ему двойным неравенством — 6<Х — а < 6, или а — 8 < X <а + 8. Пользуясь формулой (*) (см. § 5), получим Р(\Х — а[<б) = Р(а — Ь<Х <а + б) = Приняв во внимание равенство ф(_б/о) = —Ф(б/а) (функция Лапласа —нечетная), окончательно имеем Р(\Х— а\ < 6) = 2ФF/а). В частности, при а = 0 133
На рис. 9 наглядно показано, что если две случайные величины нормально распределены и а = 0, то вероятность принять значение, принадлежащее интервалу (— б, 6), больше у той величины, кото- которая имеет меньшее значение а. Этот факт полностью соответ- соответствует вероятностному смыслу параметра а (а есть среднее квадратическое отклонение; оно характеризует рассеяние слу- случайной величины вокруг ее математического ожидания). Замечание. Очевидно, со- события, состоящие в осуществлении неравенств | X— а\ < 6 и \Х—а|ё= S* 6, — противоположные. Поэтому, если вероятность осуществления неравенства \Х — а\ < 5 равна р, то вероятность неравенства |Х — а\^-Ь равна 1—р. Пример. Случайная величина X распределена нормально. Мате- Математическое ожидание и среднее квадратическое отклонение X соот- соответственно равны 20 н 10. Найти вероятность того, что отклонение по абсолютной величине будет меньше трех. Решение. Воспользуемся формулой Р(\Х— а\<8) = 2ФF/а). По условию, 6" = 3, а = 20, а = 10. Следовательно, Р(|* — 20 | < 3) = 2Ф C/10) = 2Ф@,3). По таблице приложения 2 находим Ф @,3) =0,1179. Искомая вероятность Р(\Х — 20 | < 3) = 0,2358. § 7. Правило трех сигм Преобразуем формулу (см. § 6) положив 8— at. В итоге получим Р(\Х—a\<at) = Если / = 3 и, следовательно, at = За, то Р (| X — а | < За) = 2Ф C) = 2 • 0,49865 = 0,9973, т. е. вероятность того, что отклонение по абсолютной величине будет меньше утроенного среднего квадратиче- ского отклонения, равна 0,9973. 134
Другими словами, вероятность того, что абсолютная величина отклонения превысит утроенное среднее квадратическое отклонение, очень мала, а именно равна 0,0027. Это означает, что лишь в 0,27% случаев так может произойти. Такие события исходя из принципа невозмож- невозможности маловероятных событий можно считать практически невозможными. В этом и состоит сущность правила трех сигм: если случайная величина распределена нормально, то абсолютная величина ее отклонения от математиче- математического ожидания не превосходит утроенного среднего квад- ратического отклонения. На практике правило трех сигм применяют так: если распределение изучаемой случайной величины неизвестно, но условие, указанное в приведенном правиле, выпол- выполняется, то есть основание предполагать, что изучаемая величина распределена нормально; в противном случае она не распределена нормально. § 8. Понятие о теореме Ляпунова. Формулировка центральной предельной теоремы Известно, что нормально распределенные случай- случайные величины широко распространены на практике. Чем это объясняется? Ответ на этот вопрос был дан выдаю- выдающимся русским математиком А. М. Ляпуновым (централь- (центральная предельная теорема): если случайная величина X пред- представляет собой сумму очень большого числа взаимно неза- независимых случайных величин, влияние каждой из которых на всю сумму ничтожно мало, то X имеет распределение, близкое к нормальному. Пример. Пусть производится измерение некоторой физической величины. Любое измерение дает лишь приближенное значение изме- измеряемой величины, так как на результат измерения влияют очень многие независимые случайные факторы (температура, колебания прибора, влажность и др.). Каждый из этих факторов порождает ничтожную «частную ошибку». Однако, поскольку число этих факторов очень велико, их совокупное действие порождает уже заметную «суммар- «суммарную ошибку». Рассматривая суммарную ошибку как сумму очень большого числа взаимно независимых частных ошибок, мы вправе заключить, что суммарная ошибка имеет распределение, близкое к нормальному. Опыт подтверждает справедливость такого заключения. Приведем формулировку центральной предельной тео- теоремы, которая устанавливает условия, при которых сумма 135
большого числа независимых слагаемых имеет распреде- распределение, близкое к нормальному. Пусть Хх, Х2, ..., Хп, . ¦ ¦— последовательность неза- независимых случайных величин, каждая из которых имеет конечные математическое ожидание и дисперсию: M(Xk)=ak, D(Xk) = bl Введем обозначения: 8„ = Хх + Хг+...+Хп, Л„=2аА, В«=*2*1 fc=i fe=i Обозначим функцию распределения нормированной суммы через Говорят, что к последовательности Хи Х2, ... приме- применима центральная предельная теорема, если при любом хфункция распределения нормированной суммы при п —»- оо стремится к нормальной функции распределения: limP В частности, если все случайные величины Хх, Хг,... одинаково распределены, то к этой последовательности применима центральная предельная теорема, если диспер- дисперсии всех величин Х,-(« = 1, 2, ...) конечны и отличны от нуля. А. М. Ляпунов доказал, что если для б > 0 при п —>¦ оо отношение Ляпунова n n% где С„=2 \кк\, А= 1 стремится к нулю (условие Ляпунова), то к последова- последовательности Хх, Х2, . ¦ ¦ применима центральная предельная теорема. Сущность условия Ляпунова состоит в требовании, чтобы каждое слагаемое суммы (Sn — Ап)/Вп оказывало на сумму ничтожное влияние. Замечание. Для доказательства центральной предельной тео- теоремы А. М. Ляпунов использовал аппарат характеристических функ- функций. Характеристической функцией случайной величины X называют функцию ф (/) = Af [''*] 136
Для дискретной случайной величины X с возможными значениями x/t и их вероятностями рь характеристическая функция к Для непрерывной случайной величины X с плотностью распре- распределения f (х) характеристическая функция ф(/)= J e"*f(x)dx. — да Можно доказать, что характеристическая функция суммы неза- независимых случайных величин равна произведению характеристических функций слагаемых. § 9. Оценка отклонения теоретического распределения от нормального. Асимметрия и эксцесс Эмпирическим называют распределение относи- относительных частот. Эмпирические распределения изучает математическая статистика. Теоретическим называют распределение вероятностей. Теоретические распределения изучает теория вероятностей. В этом параграфе рассматриваются теоретические распре- распределения. При изучении распределений, отличных от нормаль- нормального, возникает необходимость количественно оценить это различие. С этой целью вводят специальные характери- характеристики, в частности асимметрию и эксцесс. Для нормаль- нормального распределения эти характеристики равны нулю. Поэтому если для изучаемого распределения асимметрия и эксцесс имеют небольшие значения, то можно предпо- предположить близость этого распределения к нормальному. Наоборот, большие значения асимметрии и эксцесса ука- указывают на значительное отклонение от нормального. Как оценить асимметрию? Можно доказать, что для симметричного распределения (график такого распреде- распределения симметричен относительно прямой х = М (X)) каждый центральный момент нечетного порядка равен нулю. Для несимметричных распределений центральные моменты не- нечетного порядка отличны от нуля. Поэтому любой из этих моментов (кроме момента первого порядка, который равен нулю для любого распределения) может служить для оценки асимметрии; естественно выбрать простейший из них, т. е. момент третьего порядка |л3. Однако принять этот момент для оценки асимметрии неудобно потому, что 137
его величина зависит от единиц, в которых измеряется случайная величина. Чтобы устранить этот недостаток, ц3 делят на о3 и таким образом получают безразмерную характеристику. Асимметрией теоретического распределения называют отношение центрального момента третьего порядка к кубу среднего квадратического отклонения: As = Цз/о3. Асимметрия положительна, если «длинная часть» кри- кривой распределения расположена справа от математического ожидания; асимметрия отри- отрицательна, если «длинная часть» кривой расположена слева от математического ожидания. Практически оп- определяют знак асимметрии по расположению кривой рас- распределения относительно мо- моды (точки максимума диффе- дифференциальной функции): если «длинная часть» кривой рас- расположена правее моды, то асимметрия положительна (рис. 10, а), если слева — отрицательна (рис. 10, б). Для оценки «крутости», т. е. большего или меньшего подъема кривой теоретического распределения по сравне- сравнению с нормальной кривой, пользуются характеристи- характеристикой — эксцессом. Эксцессом теоретического распределения называют ха- характеристику, которая опре- определяется равенством — 3. Нормальная *~* кривая ""/ \ fix) а) fix) 6) /^ мом Рис. As>0 М0(Х) 10 X X /(*) а) Для нормального рас- пределения ц4/о4 = 3; сле- следовательно, эксцесс равен нулю. Поэтому если экс- эксцесс некоторого распре- распределения отличен от нуля, то кривая этого распределе- 138 Рис. II
ния отличается от нормальной кривой: если эксцесс положительный, то кривая имеет более высокую и «острую» вершину, чем нормальная кривая (рис. 11, а); если эксцесс отрицательный, то сравниваемая кривая имеет более низ- низкую и «плоскую» вершину, чем нормальная кривая (рис. 11,6). При этом предполагается, что нормальное и теоретическое распределения имеют одинаковые матема- математические ожидания и дисперсии. § 10. Функция одного случайного аргумента и ее распределение Предварительно заметим, что далее, вместо того чтобы говорить «закон распределения вероятностей», бу- будем часто говорить кратко—«распределение». Если каждому возможному значению случайной вели- величины X соответствует одно возможное значение случайной величины У, то У называют функцией случайного аргу- аргумента X: Далее показано, как найти распределение функции по известному распределению дискретного и непрерывного аргумента. 1. Пусть аргумент X—дискретная слу- случайная величина. а) Если различным возможным значениям аргумента X соответствуют различные возможные значения функции К, то вероятности соответствующих значений X м У между собой равны. Пример 1. Дискретная случайная величина X задана распреде- распределением X 2 3 р 0,6 0,4 Найти распределение функции К=Л2. Решение. Найдем возможные значения Y :ух =22 = 4; у2 = 32= = 9. Напишем искомое распределение Y: К 4 9 р 0,6 0,4 б) Если различным возможным значениям X соответ- соответствуют значения У, среди которых есть равные между собой, то следует складывать вероятности повторяющихся значений К. 139
Пример 2. Дискретная случайная величина X задана распреде- распределением X —2 2 3 р 0,4 0,5 0,1 Найти распределение функции К = Ха. Решение. Вероятность возможного значения ух = 4 равна сумме вероятностей несовмесшых событий Х =—2, Л = 2, т. е. 0,4-|-0,5= = 0,9. Вероятность возможного значения г/а = 9 равна 0,1. Напишем искомое распределение Y: Y 4 9 Р 0,9 0,1 2. Пусть аргумент X— непрерывная слу- случайная величина. Как найти распределение функ- функции У — <р (X), зная плотность распределения случайного аргумента X? Доказано: если // = <р(дс)—дифференцируе- <р(дс)—дифференцируемая строго возрастающая или строго убывающая функция, обратная функция которой х = ^>(у), то плотность рас- распределения g(y) случайной величины Y находится с по- помощью равенства Пример 3. Случайная величина X распределена нормально, при- причем ее математическое ожидание а = 0. Найти распределение функ- функции У = Х*. Решение. Так как функция y = xs дифференцируема и строго возрастает, то можно применить формулу Найдем функцию, обратную функции с/ = х3: tM</)=*=</1/3- Найдем / [•$ (у)}. По условию, м'"о/ГЯ поэтому / IT W'l —/ L» J l/~O— * V"/ Найдем производную обратной функции по у: Найдем искомую плотность распределения, для чего подставим (**) и (***) и (*): 140
Замечание. Пользуясь формулой (*), можно доказать, что линейная функция Y = АХ + В нормально распределенного аргумен- аргумента X также распределена нормально, причем для того чтобы найти математическое ожидание Y, надо в выражение функции подставить вместо аргумента X его математическое ожидание а: М (Y) для того чтобы найти среднее квадратическое отклонение Y, надо среднее квадратическое отклонение аргумента X умножить на модуль коэффициента при X: а(К) = |Л|о(Х). Пример 4. Найти пло1ность распределения линейной функции К=ЗХ-(-], если аргумент распределен нормально, причем математи- математическое ожидание X равно 2 и среднее квадратическое отклонение равно 0,5. Решение. Найдем математическое ожидание Y: Найдем среднее квадратическое отклонение К: а(У) = 3-0,5=1,5 Искомая плотность распределения имеет вид ё(У) \ 5 § 11. Математическое ожидание функции одного случайного аргумента Задана функция Y = q>(X) случайного аргумента X. Требуется найти математическое ожидание этой функ- функции, зная закон распределения аргумента. 1. Пусть аргумент X —дискретная случай- случайная величина с возможными значениями хг, хг,..., хп, вероятности которых соответственно равны рх, рг, . .., рп. Очевидно, Y — также дискретная случайная величина с возможными значениями у1 = ф (л:,), уг ~ ф (д:2), ...,</„ = = Ф(х„). Так как событие «величина X приняла значе- значение х,» влечет за собой событие «величина Y приняла значение ф (х,)», то вероятности возможных значений У со- соответственно равны рх, р2, . . ., рп. Следовательно, мате- математическое ожидание функции Пример 1. Дискретная случайная величина X задана распределением X 1 3 5 р 0,2 0,5 0,3 141
Найти математическое ожидание функции К=ф(Х) = Решение. Найдем возможные значения Y: <рA)=12+1=2; фE) = 5а+1=26. Искомое математическое ожидание функции Y равно Af[X2+l] = 2.0,2+10-0,5 + 26.0,3= 13,2. 2. Пусть аргумент X—непрерывная слу- случайная величина, заданная плотностью распределе- распределения f (х). Для отыскания математического ожидания функции У = ф (X) можно сначала найти плотность рас- распределения g(y) величины У, а затем воспользоваться формулой М(Г)= ]yg(y)dy. Однако если отыскание функции g(y) является затруд- затруднительным, то можно непосредственно найти математиче- математическое ожидание функции <р (X) по формуле = l<f>(x)f(x)dx. В частности, если возможные значения X принадлежат интервалу (а, Ь), то ь Ле. (**) Опуская доказательство, заметим, что оно аналогично доказательству формулы (*), если заменить суммирова- суммирование интегрированием, а вероятность—элементом вероят- вероятности / (х) Ах. Пример 2. Непрерывная случайная величина X задана плот- плотностью распределения f(x) — sinx в интервале @, я/2); вне этого интервала f(x) = O. Найти математическое ожидание функции К (Х) 5й ф() Решение. Воспользуемся формулой (**). По условию, / (х) = >= sin х, ф (jc) = х2, а = 0, 6 = л/2. Следовательно, Я/2 М [ф(Х)]= (j x*sinxdx. о Интегрируя по частям, получим искомое математическое ожидание Л1[Ха] = л — 2. 142
§ 12. Функция двух случайных аргументов. Распределение суммы независимых слагаемых. Устойчивость нормального распределения Если каждой паре возможных значений случай- случайных величин X и Y соответствует одно возможное зна- значение случайной величины Z, то Z называют функцией двух случайных аргументов X и Y: Далее на примерах будет показано, как найти рас- распределение функции Z = X + Y по известным распреде- распределениям слагаемых. Такая задача часто встречается на практике. Например, если X — погрешность показаний измерительного прибора (распределена нормально), Y— погрешность округления показаний до ближайшего деле- деления шкалы (распределена равномерно), то возникает задача — найти закон распределения суммы погрешностей Z = X + Y. 1. Пусть X и Y—дискретные независимые случайные величины. Для того чтобы составить закон распределения функции Z = X + Y, надо найти все возможные значения Z и их вероятности. Пример 1. Дискретные независимые случайные величины заданы распределениями: X 1 2 Г 3 4 р 0,4 0,6 р 0,2 0,8 Составить распределение случайной величины Z = X-\-Y, Решение. Возможные значения Z есть суммы каждого возмож- нбго значения X со всеми возможными значениями Y: zx=l+3 = 4; z2=l+4 = 5; z3 = 2 + 3r-5; z4 = 2 + 4 = 6. Найдем вероятности этих возможных значений. Для того чтобы Z = 4, достаточно, чтобы величина X приняла значение Xi=I и величина Y — значение ух-=3. Вероятности этих возможных значе- значений, как следует из данных законов распределения, соответственно равны 0,4 и 0,2. Аргументы X и Y независимы, поэтому события X—1 и К = 3 независимы и, следовательно, вероятность их совместного наступле- наступления (т. е. вероятность события Z= 1+3 = 4) по теореме умножения равна 0,4 0,2 = 0,08. Аналогично найдем: P(Z= 1+4=5) =0,4-0,8 = 0,32; Р (Z = 2+ 3 = 5) =0,6.0,2 = 0,12; 6)=0,6.0,8 = 0,48. 143
Напишем искомое распределение, сложив предварительно вероят- вероятности несовместных событий Z = zz, Z = ?s @,32 + 0,12 = 0,44): Z 4 5 6 р 0,08 0,44 0,48 Контроль: 0,08 + 0,44 + 0,48=1. 2. Пусть X и Y—непрерывные случайные величины. Доказано: если X и Y независимы, то плотность распределения g(z) суммы Z = X + Y (при условии, что плотность хотя бы одного из аргументов задана на интервале (— оо, со) одной формулой) может быть найдена с помощью равенства *<*)= S h(x)f,(z-x)dx (*) — сю либо с помощью равносильного равенства (**) где /lt f2 — плотности распределения аргументов. Если возможные значения аргументов неотрицательны, то g(z) находят по формуле [f1(x)ft{z—x)dx, (***) о либо по равносильной формуле (¦***) Плотность распределения суммы независимых случай- случайных величин называют композицией. Закон распределения вероятностей называют устой- устойчивым, если композиция таких законов есть тот же закон (отличающийся, вообще говоря, параметрами). Нормаль- Нормальный закон обладает свойством устойчивости: композиция нормальных законов также имеет нормальное распреде- распределение (математическое ожидание и дисперсия этой ком- композиции равны соответственно суммам математических ожиданий и дисперсий слагаемых). Например, если X и Y — независимые случайные величины, распределенные нормально с математическими ожиданиями и диспер- 144
сиями, соответственно равными а, = 3, я, = 4, D,= l, D2 = 0,5, то композиция этих величин (т. е. плотность вероятности суммы Z = X + К) также распределена нор- нормально, -причем математическое ожидание и дисперсия композиции соответственно равны а = 3 + 4 = 7; Z> = 1 -f- +0,5=1,5. Пример 2. Независимые случайные величины X и Y заданы плотностями распределений: уе-*/3 @<*<оо); Найти композицию этих законов, т. е. плотность распределения слу- случайной величины Z = X -j-Y. Решение. Возможные значения аргументов неотрицательны, поэтому воспользуемся формулой (***) 12е J' Заметим, что здесь г^О, так как Z = X-\-Y и, по условию, воз- возможные значения X и К неотрицательны. Рекомендуем читателю для контроля убедиться, что В следующих далее параграфах кратко описаны рас- распределения, связанные с нормальным, которые будут использованы при изложении математической статистики. § 13. Распределение «хи квадрат» Пусть X,(t = 1, 2, ..., п) — нормальные незави- независимые случайные величины, причем математическое ожи- ожидание каждой из них равно нулю, а среднее квадрати- ческое отклонение—единице. Тогда сумма квадратов этих величин 10 — 2730 145
распределена по закону х2 (<<хи квадрат») с k — n степе- степенями свободы; если же эти величины связаны одним ли- линейным соотношением, например 2 -^« = П/^» т0 число степеней свободы k — n—1. Плотность этого распределения О при х^.0, ( _• е-*/> ^(fc/»-! Прих>0, 2*'2Г(/г/2) к где Г(х)^= ^ tx~1e~tdt — гамма-функция; в частности, о Отсюда видно, что распределение «хи квадрат» опре- определяется одним параметром—числом степеней свободы k. С увеличением числа степеней свободы распределение медленно приближается к нормальному. § 14. Распределение Стьюдента Пусть Z—нормальная случайная величина, причем M(Z) = Q, a(Z) = l, а V — независимая от Z величина, которая распределена по закону %2 с k степенями сво- свободы. Тогда величина т- имеет распределение, которое называют t-распределением или распределением Стьюдента (псевдоним английского статистика В. Госсета), с k степенями свободы. Итак, отношение нормированной нормальной величины к квадратному корню из независимой случайной вели- величины, распределенной по закону «хи квадрат» с k степе- степенями свободы, деленной на k, распределено по закону Стьюдента с k степенями свободы. С возрастанием числа степеней свободы распределение Стьюдента быстро приближается к нормальному. Допол- Дополнительные сведения об этом распределении приведены далее (см. гл. XVI, § 16). 146
§ 15. Распределение F Фишера — Снедекора Если U и V—независимые случайные величины, распределенные по закону ха со степенями свободы kt и kt, то величина имеет распределение, которое называют распределением F Фишера—Снедекора со степенями свободы kt и kt (иногда его обозначают через V2). Плотность этого распределения (О при х<0, где = Г (*х/2) Г (*2/2) Со= Мы видим, что распределение F определяется двумя пара- параметрами— числами степеней свободы. Дополнительные сведения об этом распределении приведены далее (см. гл. XIX, § 8). Задачи 1. Найти математическое ожидание и дисперсию случайной величины X, зная ее плотность распределения: '1 а) /(*) = при —1 <х< 1, /(*)=0 при остальных значениях х; б) f(x)—~<>7 ПРИ а — /<*<а-Н, /(*)=0 при остальных зна- значениях х. Отв. а) М(Х) = 0, D(X) = l/2; б) М{Х) = а, D(X) = l2/3. 2. Случайная" величина X распределена нормально. Математи- Математическое ожидание и среднее квадратическое отклонение этой величины соответственно равны 6 и 2. Найти вероятность того, что в резуль- результате испытания X примет значение, заключенное в интервале D,8). Отв. 0,6826. 3. Случайная величина распределена нормально. Среднее квад- квадратическое отклонение этой величины равно 0,4. Найти вероятность того, что отклонение случайной величины от ее математического ожи- ожидания по абсолютной величине будет меньше 0,3. Отв. 0,5468. 10* 147
4. Случайные ошибки измерения подчинены нормальному закону со средним квадратическим отклонением а=1 asm и математическим ожиданием а = 0. Найти вероятность того, что из двух независимых наблюдений ошибка хотя бы одного из них не превзойдет по абсо- абсолютной величине 1,28 мм. Отв. 0,96. 5. Валики, изготовляемые автоматом, считаются стандартными, если отклонение диаметра валика от проектного размера не превы- превышает 2 мм. Случайные отклонения диаметра валиков подчиняются нормальному закону со средним квадратическим отклонением а = 1,6 мм и математическим ожиданием а = 0. Сколько процентов стандартных валиков изготовляет автомат? Отв. Примерно 79%. 6. Дискретная случайная величина X задана законом распреде- распределения: а) К 1 2 3 б) X — I 1 2 р 0,2 0,1 0,7 р 0,1 0,2 0,7 Найти закон распределения случайной величины Y—X*. Отв. а) У 1 16 81 б) К 1 16 р 0,2 0,1 0,7 р 0,3 0,7 7. Непрерывная случайная величина X задана плотностью рас- распределения f(x). Найти дифференциальную функцию g{y) случайной величины Y, если: а) К = Х4 1 (— оо < х< оо); б) V = 2Х (— а < х < а). Отв. a) g(i/) =/((/—1) (— оо < у < оо); б) g (У) = ^f (I") <- 2а < У < 2q)" 8. Независимые дискретные случайные величины заданы следую- следующими законами распределения: X 2 3 5 К I 4 р 0,3 0,5 0,2 р 0,2 0,8 Найти заксны распределения функций: a) Z = X-\-Y\ б) Z=ATK. Отв. a) Z 3 4 6 7 9 р 0,06 0,10 0,28 0,40 0,16 б) 2 2 3 5 8 12 20 р 0,06 0,10 0,04 0,24 0,40 0,!6 9. Независимые случайные величины X и К заданы пло1 юстямн распределений Найти композицию этих законов, т. е. плотность распределения случайной величины Z = X-\~Y. ( ' e-*/b(l_e-"/15) при г 3=0; Отв. g(z) = i l \ 0 при г < 0. 148
Глава тринадцатая ПОКАЗАТЕЛЬНОЕ РАСПРЕДЕЛЕНИЕ § 1. Определение показательного распределения Показательным (экспоненциальным) называют распределение вероятностей непрерывной случайной вели- величины Хх которое описывается плотностью ° ПрИ *<0> Хе~** при х>0, где X — постоянная положительная величина. Мы видим, что показательное распределение опреде- определяется одним параметром X. Эта особенность показа- показательного распределения указывает на его преимущество f(X) Fix) О Рис. 12 по сравнению с распределениями, зависящими от боль- большего числа параметров. Обычно параметры неизвестны и приходится находить их оценки (приближенные значе- значения); разумеется, проще оценить один параметр, чем два или три и т. д. Примером непрерывной случайной вели- величины, распределенной по показательному закону, может служить время между появлениями двух последователь- последовательных событий простейшего потока (см. § 5). Найдем функцию распределения показательного закона (см. гл. XI, § 3): х 0 * J f(x)dx= J Odx + X $e-**dx=l— e-**. F(x) Итак, F(x) ¦{• О ~kx при при x<0, 149
Мы определили показательный закон с помощью плот- плотности распределения; ясно, что его можно определить, используя функцию распределения. Графики плотности и функции распределения показа- показательного закона изображены на рис. 12. Пример. Написать плотность и функцию распределения показа- показательного закона, если параметр А, = 8. Решение. Очевидно, искомая плотность распределения 8е-8* при *SsO; /(х) = 0 при х < 0. Искомая функция распределения F(x) = l— е-8* при *SsO; F(x)~0 при х < 0. § 2. Вероятность попадания в заданный интервал показательно распределенной случайной величины Найдем вероятность попадания в интервал (а, Ь) непрерывной случайной величины X, которая распреде- распределена по показательному закону, заданному функцией распределения Используем формулу (см. гл. X, § 2, следствие 1) P(a<X<b) = F(b) — F(a). Учитывая, что F(a)=l — е~и, F(b) — l—е~хь, получим Р(а< X <6)=е-*а— е-«\ (*) Значения функции е~х находят по таблице. Пример. Непрерывная случайная величина X распределена по показательному закону /{х) = 2е-2* при хзэО; /(х)=0 при х < 0. Найти вероятность того, что в результате испытания X попадает в интервал @,3, 1). Решение. По условию, А, = 2. Воспользуемся формулой (*): Р@,3 < X < 1)=е-B0-3)-е-(г1>=е-°.6-е-2 = = 0,54881—0,13534 =«0,41. 150
§ 3. Числовые характеристики показательного распределения Пусть непрерывная случайная величина X рас- распределена по показательному закону (О при х < О, I W = | Хе~Кх при (О = | Хе~К Найдем математическое ожидание (см. гл. XII, § 1): IX ОС М (X) = 5 xf (x) dx = X J xe- о о о Интегрируя по частям, получим М (X) = 1/Х. (*) Таким образом, математическое ожидание показатель- показательного распределения равно обратной величине параметра X. Найдем дисперсию (см. гл. XII, § 1): 00 00 D (X) = J x*f (x) dx — [М (Х)У = К J о о Интегрируя по частям, получим X I x4-Xxdx = 2/Х2. о Следовательно, Найдем среднее квадратическое отклонение, для чего извлечем квадратный корень из дисперсии: о (X) = 1 Д. (**) Сравнивая (*) и (**), заключаем, что т. е. математическое ожидание и среднее квадратическое отклонение показательного распределения1 равны между собой. Пример. Непрерывная случайная величина X распределена по показательному закону = 5е-?* при xSsO; f(x)—Q при х < 0. 151
Найти математическое ожидание, среднее квадратическое отклонение и дисперсию X. Решение. По условию, Л = 5. Следовательно, М(Х) = о(Х) = 1/А,= 1/5 = 0,2; D (X) = 1Д2 = 1 /52 = 0,04. Замечание 1. Пусть на практике изучается показательно распределенная случайная величина, причем параметр к неизвестен. Если математическое ожидание также неизвестно, то находят его оценку (приближенное значение), в качестве которой принимают выборочную среднюю х (см. гл. XVI, § 5). Тогда приближенное зна- значение параметра X находят с помощью равенства Л.* =1/7. Замечание 2. Допустим, имеются основания предположить, что изучаемая на практике случайная величина имеет показательное распределение. Для того чтсбы проверить эту гипотезу, находят оценки математического ожидания и среднего квадратического откло- отклонения, т. е. находят выборочную среднюю и выборочное среднее квадратическое отклонение (см. гл. XVI, § 5, 9). Математическое ожидание и среднее квадратическое отклонение показательного рас- распределения равны между собой, поэтому их оценки должны разли- различаться незначительно. Если оценки окажутся близкими одна к дру- другой, то данные наблюдений подтверждают гипотезу о показательном распределении изучаемой величины; если же оценки различаются существенно, то гипотезу следует отвергнуть. Показательное распределение широко применяется в приложениях, в частности в теории надежности, одним из основных понятий которой является функция надеж- надежности. § 4. Функция надежности Будем называть элементом некоторое устройство независимо от того, «простое» оно или «сложное». Пусть элемент начинает работать в момент времени /0=0, а по истечении времени длительностью t происходит отказ. Обозначим через Т непрерывную случайную величину — длительность времени безотказной работы элемента. Если элемент проработал безотказно (до наступления отказа) время, меньшее t, то, следовательно, за время длитель- длительностью t наступит отказ. Таким образом, функция распределения F (t)=P (T < /) определяет вероятность отказа за время длитель- длительностью /. Следовательно, вероятность безотказной работы за это же время длительностью t, т. е. вероятность про- противоположного события Т > t, равна R(t)--=P(T>t)=l-F{t). (*) 152
Функцией надежности R (t) называют функцию, опре- определяющую вероятность безотказной работы элемента за время длительностью t: R(t) = P(T>t). § 5. Показательный закон надежности Часто длительность времени безотказной работы элемента имеет показательное распределение, функция распределения которого F @ = 1—е-*'. Следовательно, в силу соотношения (*) предыдущего па- параграфа функция надежности в случае показательного распределения времени безотказной работы элемента имеет вид Показательным законом надежности называют функ- функцию надежности, определяемую равенством где К — интенсивность отказов. Как следует из определения функции надежности (см. § 4), эта формула позволяет найти вероятность без- безотказной работы элемента на интервале времени длитель- длительностью /, если время безотказной работы имеет, показа- показательное распределение. Пример. Время безотказной работы элемента распределено по показательному закону / (г)=0,02е-°.02' при /;з=0 {t — время). Найти вероятность того, что элемент проработает безотказно 100 ч. Решение. По условию, постоянная интенсивность отказов Х = 0,02. Воспользуемся формулой (%): Искомая вероятность того, что элемент проработает безотказно 100 ч, приближенно равна 0,14. Замечание. Если отказы элементов в случайные моменты времени образуют простейший поток, то вероятность того, что за время длительностью t не наступит ни одного отказа (см. гл. VI, § 6), Pt@)=e-w, что согласуется с равенством (*), поскольку "К в обеих формулах имеет один и тот же смысл (постоянная интенсивность отказов). 153
§ в. Характеристическое свойство показательного закона надежности Показательный закон надежности весьма прост и удобен для решения задач, возникающих на практике. Очень многие формулы теории надежности значительно упрощаются. Объясняется это тем, что этот закон обла- обладает следующим важным свойством: вероятность безот- безотказной работы элемента на интервале времени длитель- длительностью t не зависит от времени предшествующей работы до начала рассматриваемого интервала, а зависит только от длительности времени t (при заданной интенсивно- интенсивности отказов %). Для доказательства свойства введем обозначения со- событий: А—безотказная работа элемента на интервале @, t0) длительностью t0; В—безотказная работа на интервале (^о> *о + О длительностью t. Тогда АВ—безотказная ра- работа на интервале @, *0 + 0 длительностью to + t. Найдем вероятности этих событий по формуле (*) (см. § 5): Р (АВ) = е-* <'•+'> = е~м»е~м. Найдем условную вероятность того, что элемент будет работать безотказно на интервале (/„, to + t) при условии, что он уже проработал безотказно на предшествующем интервале @, t0) (см. гл. III, § 2): Р(АВ) -''"•«"".. с-ц с Полученная формула не содержит t0, а содержит только /. Это и означает, что время работы на предшест- предшествующем интервале не сказывается на величине вероятно- вероятности безотказной работы на последующем интервале, а зависит только от длины последующего интервала, что и требовалось доказать. Полученный результат можно сформулировать несколь- несколько иначе. Сравнив вероятности Р (В) — е~м и PA(B) = e~ki, заключаем: условная вероятность безотказной работы эле- элемента на интервале длительностью t, вычисленная в пред- предположении, что элемент проработал безотказно на пред- предшествующем интервале, равна безусловной вероятности. 154
Итак, в случае показательного закона надежности безотказная работа элемента «в прошлом» не сказывается на величине вероятности его безотказной работы «в бли- ближайшем будущем». Замечание. Можно доказать, что рассматриваемым свойством обладает только показательное распределение. Поэтому если на практике изучаемая случайная величина этим свойством обладает, то она распределена по показательному закону. Например, при допу- допущении, что метеориты распределены равномерно в пространстве и во времени, вероятность попадания метеорита в космический корабль не зависит от того, попадали или не попадали метеориты в корабль до начала рассматриваемого интервала времени. Следовательно, слу- случайные моменты времени попадания метеоритов в космический корабль распределены по показательному закону. Задачи 1. Написать функцию распределения F (х) и плотность вероятности f (х) непрерывной случайной величины X, распределен- распределенной по показательному закону с параметром Я = 5. Отв. f (*)=5е~в* при х2гО; /(х)=0 при х < 0; F[x) = \— е-**. 2. Непрерывная случайная величина X распределена по пока- показательному закону: ((x) = 5e~Sx при лсЭеО, f (х)=0 при х < 0. Найти вероятность того, что в результате испытания X попадет в интер- интервал @,4, I). Отв. Р@,4 < X < I) = 0,13. 3. Непрерывная случайная величина X распределена по показа- показательному закону f (х) = 4л~*ж (х > О). Найти математическое ожида- ожидание, среднее квадратическое отклонение и дисперсию X. Отв. М (Х) = а(Х) = 0,25; D(X)= 0,0625. 4. Время безотказной работы элемента распределено по показа- показательному закону /(<) = 0,01 e-°.olt (t > 0), где / — время, ч. Найти вероятность того, что элемент проработает безотказно 100 ч. Отв. R A00) = 0,37. Глава четырнадцатая СИСТЕМА ДВУХ СЛУЧАЙНЫХ ВЕЛИЧИН § 1. Понятие о системе нескольких случайных величин До сих пор рассматривались случайные вели- величины, возможные значения которых определялись одним числом. Такие величины называют одномерными. Напри- Например, число очков, которое может выпасть при бросании игральной кости, — дискретная одномерная величина; рас- 155
стояние от орудия до места падения снаряда — непрерыв- непрерывная одномерная случайная величина. Кроме одномерных случайных величин изучают вели- величины, возможные значения которых определяются двумя, тремя, ..., п числами. Такие величины называются соот- соответственно двумерными, трехмерными, . . ., «-мерными. Будем обозначать через (X, Y) двумерную случайную величину. Каждую из величин X я У называют состав- составляющей (компонентой); обе величины X и Y, рассматри- рассматриваемые одновременно, образуют систему двух случайных величин. Аналогично «-мерную величину можно рассмат- рассматривать как систему п случайных величин. Например, трехмерная величина (X, У, Z) определяет систему трех случайных величин X, У и Z. Пример. Станок-автомат штампует стальные плитки. Если конт- контролируемыми размерами являются длина X и ширина Y, то имеем двумерную случайную величину (X, Y); если же контролируется и высота Z, то имеем трехмерную величину (X, Y, Z). Двумерную случайную величину (X, Y) геометрически можно истолковать либо как случайную точку М (X, У) на плоскости (т. е. как точку со случайными координатами), либо как случайный век- тгр ОМ. Трехмерную случайную величину геометрически можно ис- истолковать как точку М (X, Y, Z) в трехмерном пространстве или как вектор ОМ. Целесообразно различать дискретные (составляющие этих вели- величин дискретны) и непрерывные (составляющие этих величин непре- непрерывны) многомерные случайные величины. § 2. Закон распределения вероятностей дискретной двумерной случайной величины Законом распределения дискретной двумерной слу- случайной величины называют перечень возможных значений этой величины, т. е. пар чисел (х,-, #,-) и их вероятно- вероятностей p(xh yj)(i= I, 2, .... n; / = 1, 2, .... m). Обычно закон распределения задают в виде таблицы с двойным входом (табл. 2). Первая строка таблицы содержит все возможные зна- значения составляющей X, а первый столбец — все возможные значения составляющей У. В клетке, стоящей на пере- пересечении «столбца а;,» и «строки */,», указана вероятность Р (*/> У/) того, что двумерная случайная величина примет значение (xit y^). Так как события (X=xh K=i/y)(i=l, 2, .... п; /=1, 2, .... т) образуют полную группу (см. гл. II, § 2), 156
то сумма вероятностей, помещенных во всех клетках таб- таблицы, равна единице. Таблица 2 У Ух У/ Ут P(Xl, Ух) »/> р р р <„, (хг, Л Ух) У,) Ут) xi Р (xi, ... Р (*/, Р (¦*/. Ух) У/) Ут) кп Р(х„, Р(хп, Р(хп, Ух) VA Ут) Зная закон распределения двумерной дискретной слу- случайной величины, можно найти законы распределения каждой из составляющих. Действительно, например, со- события (X=Xl; Y^yt), {Х = х,; У=у2), .... (Х=хг; Y=ym) несовместны, поэтому вероятность Р (хг) того, что X при- примет значение xlt по теореме сложения такова: P(xl)==p{x1, yv) + p(xx, уг)+ . . . +p(xlt у,п). Таким образом, вероятность того, что X примет зна- значение хг, равна сумме вероятностей «столбца xt». В об- общем случае, для того чтобы найти вероятность Р{Х=х(), надо просуммировать вероятности столбца х{. Аналогично сложив вероятности «строки у», получим вероятность Пример. Найти законы распределения соста(»ляющих двумерной случайной величины, заданной законом распределения (табл. 3). Решение. Сложив вероятности по столбцам, получим вероят- вероятности возможных значений Х:Р (лг1) = О, 16; Р (*г) = 0,48; Р(лг3)=0,35. Напишем закон распределения составляющей X: X Р 0,16 0,48 0,36 157
Таблица Y У\ Уг X 0,10 0,06 0,30 0,18 0,20 0,16 Контроль: 0,16+0,48+0,36=1. Сложив вероятности по строкам, получим вероятности возможных значений Y: Р (yi)=0,60; Р (yt)=0,40. Напишем закон распределения й Y: составляющей У Ух Р 0,60 Контроль: 0,60+0,40=1. У» 0,40 § 3. Функция распределения двумерной случайной величины Рассмотрим двумерную случайную величину (X, Y) (безразлично, дискретную или непрерывную). Пусть х, у—пара действи- действительных чисел. Вероятность события, состоящего в том, что X примет значение, мень- меньшее х, и при этом Y примет значение, меньшее у, обоз- начим через F (х, у). Если х и у будут изменяться, то, вообще говоря, будет изме- изменяться и F (х, у), г. е. F (х, у) есть функция от х и у. Функцией распределения двумерной случайной вели- величины (X, К) называют функцию F (х, у), определяющую для каждой пары чисел х, у вероятность того, что X примет значение, меньшее х, и при этом У примет зна- значение, меньшее у: F(x,y) = P(X<x, Y<y). Геометрически это равенство можно истолковать так: F (х, у) есть вероятность того, что случайная точка (X, Y) 158 Рис. 13
попадет в бесконечный квадрант с вершиной (х, у), рас- расположенный левее и ниже этой вершины (рис. 13). Пример. Найти вероятность того, что в результате испытания составляющая X двумерной случайной величины (X, Y) примет зна- значение X < 2 и при этом составляющая Y примет значение Y < 3, если известна функция распределения системы Решение. По определению функции распределения двумерной случайной величины, F(x, y)=P(X<x, Y <у). Положив х = 2, у = 3, получим искомую вероятность Р(Х<2, И<3)=/42, 3)=(^-arctg-|+4") X 3 i i § 4. Свойства функции распределения двумерной случайной величины Свойство 1. Значения функции распределения удовлетворяют двойному неравенству Доказательство. Свойство вытекает из определе- определения функции распределения как вероятности: вероят- вероятность— всегда неотрицательное число, не превышающее единицу. Свойство 2. F (х, у) есть неубываюищя функиия по каждому аргументу, т.е. F (x2, y)>F (xlt у), если х2 > хх; F (х, у2) > F {х, ух), если у2 > ух. Доказательство. Докажем, что F (х, у) — неубы- неубывающая функция по аргументу х. Событие, состоящее в том, что составляющая X примет значение, меньшее хг, и при этом составляющая У < у, можно подразделить на следующие два несовместных события: 1) X примет значение, меньшее хх, и при этом У < у с вероятностью Р (X < хх, У < у); 2) X примет значение, удовлетворяющее неравенству хг^.Х < х2, и при этом К<(/ с вероятностью Р (xt^. <Х<хг), Y <у). 159
По теореме сложения, Р{Х<хг, У<у)=Р(Х<хл, y<y) + P(Xl^X<Xi, Y<y). Отсюда P(X<xt,Y<y) — P(X<xl,Y<y) = P(xl^X<xtt V<y), или F(x2,y) — F(xl,y) = P(xl<^X<xi, У<у). Любая вероятность есть число неотрицательное, поэтому F(x2, у)— F(xlt у)>0, или F (x2, */)> F (хх, у), что и требовалось доказать. Свойство становится наглядно ясным, если восполь- воспользоваться геометрическим истолкованием функции распре- распределения как вероятности попадания случайной точки в бесконечный квадрант с вершиной (х; у) (рис. 13). При возрастании х правая граница этого квадранта сдвигается вправо; при этом вероятность попадания случайной точки в «новый» квадрант, очевидно, не может уменьшиться. Аналогично доказывается, что F (х, у) есть неубыва- неубывающая функция по аргументу у. Свойство 3. Имеют место предельные соотношения: 1) F(-oo,y) = 0, 2) F(x, -oo) = 0, 3) F(—оо, -оо) = 0, 4) F(oo, оо)=1. Доказательство. 1) F( — оо, у) есть вероятность события X < — оо и Y <С у; но такое событие невозможно (поскольку невозможно событие Х< — оо), следовательно, вероятность этого события равна нулю. Свойство становится наглядно ясным, если прибегнуть к геометрической интерпретации: при х—> — оо правая граница бесконечного квадранта (рис. 13) неограниченно сдвигается влево и при этом вероятность попадания слу- случайной точки в квадрант стремится к нулю. 2) Событие К< — оо невозможно, поэтому F (х, — оо) = 0. 3) Событие X < — оо и У < — оо невозможно, поэтому F(—oo, — оо) = 0. 4) Событие X < оо и У < оо достоверно, следовательно, вероятность этого события F(oo, oo)= 1. Свойство становится наглядно ясным, если принять во внимание, что при х—»• оо и у—>¦ оо бесконечный квад- квадрант (рис. 13) превращается во всю плоскость хОу и, следовательно, попадание случайной точки (X; У) в эту плоскость есть достоверное событие. 160
Свойство 4. а) При у=*оо функция распределения системы становится функцией распределения составляю- составляющей X: F(x, oo) = Fl(x). б) При х = оо функция распределения системы стано- становится функцией распределения составляющей Y: Доказательство, а) Так как событие Y< оо досто- достоверно, то F (х, оо) определяет вероятность события X < х, т. е. представляет собой функцию распределения состав- составляющей X. б) Доказывается аналогично. а) § 5. Вероятность попадания случайной точки в полуполосу Используя функцию распределения системы слу- случайных величин X и К, легко найти вероятность того, что в результате испыта- испытания случайная точка попа- попадает в полуполосу дс, < X < <xt и У<у (рис. 14, а) или в полу полосу Х<* и Ух<У<У* (рис- 14, б). Вычитая из вероятности _—^—.ШШ%Ь,_ к попадания случайной точки в квадрант с вершиной (ха; у) вероятность попада- попадания точки в квадрант с вер- вершиной (хх; у) (рис. 14, а), по- получим Р(хг^Х<х2, У<у) = = F(x2, y) — F{xlt у). Аналогично имеем Р(Х<х, y1^Y<yt) = = F (x, ya) — F {x, #,). Рис. 14 Таким образом, вероятность попадания случайной точки в полуполосу равна приращению функции распре- распределения по одному из аргументов. 11—2730 161 б) ж Ш Y Уа ш т *¦¦ 0 к
§ в. Вероятность попадания случайной точки в прямоугольник Рассмотрим прямоугольник ABCD со сторонами, параллельными координатным осям (рис. 15). Пусть урав- уравнения сторон таковы: У У3 У. *(*у.уг) Рис. 15 Найдем вероятность по- попадания случайной точки (X; У) в этот прямоуголь- прямоугольник. Искомую вероятность можно найти, например, так: из вероятности по- попадания случайной точ- ' ки в полу полосу А В с ¦х вертикальной штриховкой (эта вероятность равна Р {х ы ^ —— Р (х и W вы~* честь вероятность попада- попадания точки в полуполосу CD с горизонтальной штриховкой (эта вероят- вероятность равна F(xt, yt) — F (xlt yj): P{Xl^X<xt, y1<Y<yt) = [F{х„ yt) — F(xlt yt)] — Пример. Найти вероятность попадания случайной точки (X; Y) в прямоугольник, ограниченный прямыми х — я/6, х = л/2, у=п/А, у = п/3, если известна функция распределения F(x, y)=sinxsiny@<x<n/2 Решение. Положив Xi=n/6, xt = в формуле (*), получим уг—п/4, yt = Р (я/6 < X < я/2, я/4 < К < я/3) = [F (я/2, я/3) — — ^(я/6, я/3)]-[F(я/2, я/4)-^ (я/6, я/4)] = = [6in (я/2) sin (n/3) —sin (я/6) sin (я/3)] —[sin (я/2) sin (я/4) — sin (я/6) sin (я/4)] = [ К1/2 — V~Zl4\ — [ 1^2/2 — >//4] 162
§ 7, Плотность совместного распределения вероятностей непрерывной двумерной случайной величины (двумерная плотность вероятности) Двумерная случайная величина задавалась с по- помощью функции распределения. Непрерывную двумерную величину можно также задать, пользуясь плотностью распределения. Здесь и далее будем предполагать, что функция распределения F (х, у) всюду непрерывна и имеет всюду (за исключением, быть может, конечного числа кривых) непрерывную частную производную второго порядка. Плотностью совместного распределения вероятностей f (х, у) двумерной непрерывной случайной величины (X, У) называют вторую смешанную частную производную от функции распределения: Геометрически эту функцию можно истолковать как по- поверхность, которую называют поверхностью распределения. Пример. Найти плотность совместного распределения f(x, у) системы случайных величин (X, Y) по известной функции распреде- распределения F(х, y) = sinxsiny@<x<,n/2, 0<#<я/2). Р е ш е н и е. По определению плотности совместного распределения. Найдем частную производную по х от функции распределения: OF —-=cosxsiny. Найдем от полученного результата частную производную по у, в итоге получим искомую плотность совместного распределения: d'F f (х, у) =fa-fy = co § 8. Нахождение функции распределения системы по известной плотности распределения Зная плотность совместного распределения f (x, у), можно найти функцию распределения F (х, у) по формуле У X F(x,y)= J J f(x,y)dxdy, — со —со П* 163
что непосредственно следует из определения плотности распределения двумерной непрерывной случайной вели- величины (X, Y). Пример. Найти функцию распределения двумерной случайной величины по данной плотности совместного распределения I Решение. Воспользуемся формулой у х F(x,y)= J J f{x, y)dx4y. — 00—00 Положив f(x, У) = я«A+^)A+у3)> получим § 9. Вероятностный смысл двумерной плотности вероятности Вероятность попадания случайной точки (X; Y) в прямоугольник ABCD (рис. 16) равна (см. § 6) Р (xt < X < xt, yt < У < уш) = [F ixt, yt)-F(xlf у,)] — ~[F(xt, yt)-F(xt, yj]. Обозначив для краткости левую часть равенства через Pabcd и применив к правой части теорему Лагранжа, получим где xt <?<*„ bx = x%—Xi\ yt<x\<yt, &y = yt—yl. Отсюда r*«- ч)-5^. С) 164
или (**) у У» Ут 0 А(*,;у,*ду) в(л лу с(х,;у,) j ДХ ,+дх;у,+ду) Д(х,+дх,у,) 1 '1 > Приняв во внимание, что произведение АхАу равно площади прямоугольника ABCD, заключаем: / (?, т)) есть отношение вероятности попадания случайной точ- точки в прямоугольник ABCD к площади этого прямо- прямоугольника. Перейдем теперь в ра- равенстве (**) к пределу при Ах —> 0 и Ау —> 0. Тогда 1—>-х, г]—*у и, следова- Рис ,6 тельно, /(?, r\)—+ f(x, у). Итак, функцию f (x, у) можно рассматривать как пре- предел отношения вероятности попадания случайной точки в прямоугольник (со сторонами Ах и Ау) к площади этого прямоугольника, когда обе стороны прямоугольника стре- стремятся к нулю. § 10. Вероятность попадания случайной точки в произвольную область Перепишем соотношение (**) § 9 так: = Р ABCD' Отсюда заключаем: про- произведение / (|, т]) Ах Ау есть вероятность попада- попадания случайной точки в прямоугольник со сторо- сторонами Ах и Ау. Пусть в плоскости хОу задана произвольная об- Рнс. 17 ласть D. Обозначим собы- событие, состоящее в попада- попадании случайной точки в эту область, так: (X, Y)aD. Разобьем область D на п элементарных областей пря- прямыми, параллельными оси Оу, находящимися на расстоя- расстоянии Ах одна от другой, и прямыми, параллельными оси Ох, находящимися на расстоянии Ау одна от другой (рис. 17) ^для простоты предполагается, что эти прямые пересекают контур области не более чем в двух точках). Так как J65 У t Ау ¦ 0 ч АХ / в 15» ^^ Ч > J АхЬ
события, состоящие в попадании случайной точки в эле- элементарные области, несовместны, то вероятность попада- попадания в область D приближенно (сумма элементарных об- областей приближенно равна области D!) равна сумме вероятностей попаданий точки в элементарные области: Р ((X, f (?,-, т,,) Д* Ьу. Переходя к пределу при Д*—>-0 и Д(/—»-0, получим Р((Х, У) <= D) = S J / (*, у) dx dy. (*) (О D от функции *(|;0 (О) Итак, для того чтобы вычислить вероятность попада- попадания случайной точки (X; Y) в область D, достаточно найти двойной интеграл по области fix, у). Геометрически равенство (*) можно истолковать так: вероятность попадания слу- случайной точки (X; У) в область -х D равна объему тела, огра- ограниченного сверху поверхно- поверхностью z = f(x, у), основанием которого служит проекция этой поверхности на плоскость хОу. Замечание. Подынтегральное выражение / {х, у) dx dy назы- называют элементом вероятности. Как следует из предыдущего, элемент вероятности определяет вероятность попадания случайной точки в эле- элементарный прямоугольник со сторонами dx и dy. Пример. Плотность распределения двумерной случайной величины M(VT;O) рнс> I8 Найти вероятность попадания случайной точки в прямоугольник (рис. 18) с вершинами /СA; 1), Ь(У; l), MA; 0) и N(У~3; 0). Решение. Искомая вероятность Р((Х, if = —s- arctg* VI 1 Г dy _ я2 J И7? J ГП? о L 1 J • 1 (п п\ . \ 1 я я 1 =W IT~ТУ * arctg * | =1? ' 12 " T=48- 166
§ 11. Свойства двумерной плотности вероятности Свойство 1. Двумерная плотность вероятно- вероятности неотрицательна: f{x, у) 2*0. Доказательство. Вероятность попадания случай- случайной точки в прямоугольник со сторонами Да: и Дг/ есть неотрицательное число; площадь этого прямоугольника — положительное число. Следовательно, отношение этих двух чисел, а значит, и их предел (при Дх—>-0 и Дг/—»-0), который равен / (х, у) (см. § 9), есть неотрицательное число, т. е. fix, y)>0. Заметим, что свойство непосредственно следует из того, что Fix, у) — неубывающая функция своих аргументов (§4). Свойство 2. Двойной несобственный интеграл с бес- бесконечными пределами от двумерной плотности равен единице: 00 CD / ix, y)dxdy = 1. — 00 — 00 Доказательство. Бесконечные пределы интегри- интегрирования указывают, что областью интегрирования служит вся плоскость хОу; поскольку событие, состоящее в том, что' случайная точка попадет при испытании на плоскость хОу, достоверно, то вероятность этого события (она и определяется двойным несобственным интегралом от дву- двумерной плотности) равна единице, т. е. J J /(*, y)dxdy=l. Пример. Задана плотность совместного распределения непрерыв- непрерывной двумерной случайной величины (X, Y): f (x, y)=C cos* cos у в квадрате 0«^дс<л/2, 0<у«Сл/2; вне этого квадрата f(x,y) — Q. Найти постоянный параметр С. Решение. Воспользуемся свойством 2, учитывая, что х и у изменяются от 0 до я/2: 00 00 С \ \ cos х cosy dxdy= 1. — 00 — 00 167
Отсюда /я/* я/2 \ Д С совдгЛс С cosj/dj/j. \ о о / Выполнив интегрирование, получим искомое значение парамет- параметра С=1. § 12. Отыскание плотностей вероятности составляющих двумерной случайной величины Пусть известна плотность совместного распреде- распределения вероятностей системы двух случайных величин. Найдем плотности распределения каждой из состав- составляющих. Найдем сначала плотность распределения составляю- составляющей X. Обозначим через Рг(х) функцию распределения составляющей X. По определению плотности распределе- распределения одномерной случайной величины, Приняв во внимание соотношения M*. y)dxdy (см. § 8), F1(x) = F(x, оо) (см. § 4), найдем Ft(x)= i ) fix, y)dxdy. — <e —oo Продифференцировав обе части этого равенства по х, получим 4?-= ] fix, y)dy, или /iW= S H*. iO<ty- (*) — оо 168
Аналогично находится плотность распределения состав- составляющей Y: т I f(x, y)dx. (**) Итак, плотность распределения одной из составляю- составляющих равна несобственному интегралу с бесконечными пре- пределами от плотности совместного распределения системы, причем переменная интегрирования соответствует другой составляющей. Пример. Двумерная случайная величина (X, Y) задана плот- плотностью совместного распределения О при х*/9 + у*/4 > 1. Найти плотности распределения составляющих X и Y. Решение. Найдем плотность распределения составляющей X по формуле (*): при | х | < 3, ПрН |*|д:3. ¦Аналогично, используя формулу (**), найдем плотность распре- распределения составляющей Y: f (u)z=} У*=Ц*/BП) при |»|<2. I 0 при |y|S=2. Рекомендуем читателю для контроля самостоятельно убедиться в том, что найденные функции удовлетворяют соотношениям fx(x)dx=\ и § 13. Условные законы распределения составляющих системы дискретных случайных величин Известно, что если события А я В зависимы, то условная вероятность события В отличается от его безус- безусловной вероятности. В этом случае (см. гл. III, § 2) = Р(АВ)/Р(А). (*) 169
Аналогичное положение имеет место и для случайных величин. Для того чтобы охарактеризовать зависимость между составляющими двумерной случайной величины, введем понятие условного распределения. Рассмотрим дискретную двумерную случайную вели- величину (X, У). Пусть возможные значения составляющих таковы: xlt х хп; ух, у ут. Допустим, что в результате испытания величина У приняла значение У — уг\ при этом X примет одно из своих возможных значений: xlf или хг или х„. Обо- Обозначим условную вероятность того, что X примет, на- например, значение х1 при условии, что У — ух, через Р(.Х\\У\)- Эта вероятность, вообще говоря, не будет равна безусловной вероятности р(хх). В общем случае условные вероятности составляющей будем обозначать так: Р(Х{\У/) ('==1, 2, .... п; /=1, 2, ..., т). Условным распределением составляющей X при У — yj называют совокупность условных вероятностей p\xx\yj)t Р(*2 !«//)> •••. Р(хП\У/)> вычисленных в предположении, что событие У = Уу (/ имеет одно и то же значение при всех значениях X) уже наступило. Аналогично опреде- определяется условное распределение составляющей У. Зная закон распределения двумерной дискретной слу- случайной величины, можно, пользуясь формулой (*), вы- вычислить условные законы распределения составляющих. Например, условный закон распределения X в предпо- предположении, что событие Y = yx уже произошло, может быть найден по формуле *=1. 2, .... л). В общем случае условные законы распределения со- составляющей X определяются соотношением Р («/1 У/) = Р (xi, У/УР(У/): (**) Аналогично находят условные законы распределения составляющей У: Р (У/1 х{) = р {Х(, yj)/p(Xi). (***) Замечание. Сумма вероятностей условного распределения равна единице. Действительно, так как при фиксированном yj имеем 170
(см. § 2) ]g P(*i< У/) = )> то л i=1 Аналогично доказывается, что при фиксированном Х{ Это свойство условных распределений используют для контроля вы- вычислений. Пример. Дискретная двумерная случайная величина задана табл. 4. Таблица 4 Y У1 У» X 0,10 0,06 *• 0,30 0,18 0,20 0,16 Найти условный закон распределения составляющей X при ус- условии, что составляющая Y приняла значение yv Решение. Искомый закон определяется совокупностью сле- следующих условных вероятностей: Р(х1\у1), р(хг\у{), р(х3\у1). Воспользовавшись формулой (*) и приняв во внимание, что P(^i)=0,60 (см. § 2, пример), имеем: Р (*i I Vi) = Р («1, Vi)/P (J/i) = 0.10/0,60 = 1/6; Р (*s I Уд = Р <*а. </i)/P G/i) = 0,30/0.60 = 1/2; Р (*s I Уг) = Р (*э. У1)/Р (!/i) = 0,20/0,60 = 1/3. Сложив для контроля найденные условные вероятности, убедим- убедимся, что их сумма равна единице, как и должно быть, в соответствии с замечанием, помещенным выше: 1/6 —J— 1/2-(-1/3= 1. § 14. Условные законы распределения составляющих системы непрерывных случайных величин Пусть (X, Y) — непрерывная двумерная случай- случайная величина. Условной плотностью <р(х|#) распределения состав- составляющих X при данном значении Y — y называют отно- 171
шение плотности совместного распределения / (х, у) си- системы (X, Y) к плотности распределения f2(y) состав- составляющей Y: Ф<*|0) = /(*. У)П,(У)- <•> Подчеркнем, что отличие условной плотности Ц>(х\у) от безусловной плотности /х (х) состоит в том, что функ- функция <р(х\у) дает распределение X при условии, что со- составляющая Y приняла значение Y = у; функция же /х (х) дает распределение X независимо от того, какие из возможных значений приняла составляющая Y. Аналогично определяется условная плотность состав- составляющей У при данном значении X =х: Ф (у !*) = /<*. y)/h(x). (**) Если известна плотность совместного распределения / (х, у), то условные плотности составляющих могут быть найдены в силу (*) и (**) (см. § 12) по формулам: 00 Ф (х | У) = f (x, y)\ \ f (х, у) dx, (***) — 00 00 ф (у | х) = / (х, y)j J / (х, у) йу. (****) — 00 Запишем формулы (*) и (**) в виде fix, y) = f,(y)v(x\y), f(x, у) = М*Ж*1*)- Отсюда заключаем: умножая закон распределения одной из составляющих на условный закон распределе- распределения другой составляющей, найдем закон распределения системы случайных величин. Как и любая плотность распределения, условные плотности обладают следующими свойствами: 4(x\y)dx=U — 00 00 Пример. Двумерная случайная величина (X, Y) задана плот- плотностью совместного распределения П • У) \0 при *• + *"> Л 172
Найти условные законы распределения вероятностей состав- составляющих. Р е ш е н и е. Найдем условную плотность составляющей X при |х| < У*г1—у* по формуле (¦*¦): 1/(яг*) 1 Так как /(jc, jr) = O при хг + уг > г1, то <р(ж| у)=0 при | ж| > > Кг»-у». Пользуясь формулой (**•**), аналогично найдем условную плот- плотность составляющей Y: § 15. Условное математическое ожидание Важной характеристикой условного распределе- распределения вероятностей является условное математическое ожи- ожидание. Условным математическим ожиданием дискретной случайной величины Y при Х — х (х—определенное воз- возможное значение X) называют произведение возможных значений Y на их условные вероятности: /=1 Для непрерывных величин М (У | X = х) = где ty(y\x) — условная плотность случайной величины Y при X = х. Условное математическое ожидание М (V | х) есть функ- функция от х: которую называют функцией регрессии Y на X. Аналогично определяются условное математическое ожидание случайной величины X и функция регрессии X на Y: 173
Пример. Дискретная двумерная случайная величина задана табл. 5. Таблица 5 У У1 = 3 Уа = 6 X jr,= l 0,15 0,30 0,06 0,10 0,25 0,03 Х4=8 0,04 0,07 Найти условное математическое ожидание составляющей К при л =^ Xi=== 1 ¦ Решение. Найдем р (х{), для чего сложим вероятности, по- помещенные в первом столбце табл. 5: при Найдем условное распределение вероятностей величины У Х=х1=\ (см. § 13): Р (Mi I *i)=P<*ь ViVP (ifi) = 0,15/0,45= 1/3; Р (У* I *i) = Р (*г. У*)/Р (х±) = 0,30/0,45 = 2/3. Найдем искомое условное математическое ожидание по фор- формуле (•): 2 = 5. § 16. Зависимые и независимые случайные величины Мы назвали две случайные величины независи- независимыми, если закон распределения одной из них не зави- зависит от того, какие возможные значения приняла другая величина. Из этого определения следует, что условные распределения независимых величин равны их безуслов- безусловным распределениям. Выведем необходимые и достаточные условия незави- независимости случайных величин. Теорема. Для того чтобы случайные величины X и Y были независимыми, необходимо и достаточно, чтобы функция распределения системы (X, Y) была равна про- произведению функций распределения составляющих: F(x, y) = Fl(x)Fi(y). Доказательство, а) Необходимость. Пусть X и У независимы. Тогда события X < х и Y < у неза- 174
висимы, следовательно, вероятность совмещения этих событий равна произведению их вероятностей: Р(Х<х, Y<y) = P(X<x)P(Y<y), или F(x, У) = РЛх)РАу)- б) Достаточность. Пусть F(x, y) = Ft(x)Ft(y). Отсюда Р(Х<х, Y<y) = P(X<x)P(Y<y), т. е. вероятность совмещения событий X < х и Y < у равна произведению вероятностей этих событий. Следова- Следовательно, случайные величины X и Y независимы. Следствие. Для того чтобы непрерывные случайные величины X и Y были независимыми, необходимо и доста- достаточно, чтобы плотность совместного распределения си- системы (X, Y) была равна произведению плотностей рас- распределения составляющих: f(x, y)^h(x)ft(y). Доказательство, а) Необходимость. Пусть X и У—независимые непрерывные случайные величины. Тогда (на основании предыдущей теоремы) F(x, y) = F1(x)Fi(y). Дифференцируя это равенство по х, затем по у, имеем дхду дх ду ' или (по определению плотностей распределения двумер- двумерной и одномерной величин) б) Достаточность. Пусть Интегрируя это равенство по х и по у, получим х у f{x, y)dxdy= Ul(x)dx Ut(y)dy, или (см. § 8 гл. XIV и § 3 гл. XI) F{x, y) = F1(x)F2(y). 175
Отсюда (на основании предыдущей теоремы) заклю- заключаем, что X и Y независимы. Замечание. Так как приведенные выше условия являются необходимыми и достаточными, то можно дать новые определения независимых случайных величин: 1) две случайные величины называют независимыми, если функ- функция распределения системы этих величин равна произведению функ- функций распределения составляющих; 2) две непрерывные случайные величины называют независимы- независимыми, если плотность совместного распределения системы этих величин равна произведению плотностей распределения составляющих. Пример. Двумерная непрерывная случайная величина (X, У) задана плотностью совместного раопределения /(*. i/) = (ein *sinj/)/4 в квадрате 0<х<л, 0<{/«?я; вне квадрата f (х, «/) —0. Доказать, что составляющие X и Y независимы. Решение. Используя формулы (*) и (**) § 12, легко найдем плотности распределения составляющих: /х (х) = sin х/2, /а (у) = sin у/2. Плотность совместного распределения рассматриваемой системы рав- равна произведению плотностей распределения составляющих, поэтому X и Y независимы. Разумеется, можно было доказать, что условные законы распре- распределения составляющих равны их беаусловным законам, откуда также следует независимость X и Y. § 17. Числовые характеристики системы двух случайных величин. Корреляционный момент. Коэффициент корреляции Для описания системы двух случайных величин кроме математических ожиданий и дисперсий составляю- составляющих используют и другие характеристики; к их числу относятся корреляционный момент и коэффициент корре- корреляции. Корреляционным моментом \аху случайных величин X и У называют математическое ожидание произведения отклонений этих величин: Для вычисления корреляционного момента дискрет- дискретных величин используют формулу Их, = .2 Д [*i-M (X)] [У/-М (Y)] р (*,., У/), а для непрерывных величин—формулу » I §, y)dxdy. — OD — 00 176
Корреляционный момент служит для характеристики связи между величинами X и У. Как будет показано ниже, корреляционный момент равен нулю, если X и У независимы; следовательно, если корреляционный момент не равен нулю, то X и У— зависимые случайные вели- величины. Замечание 1. Учитывая, что отклонения есть центрирован- центрированные случайные величины (см. гл. VIII, § 2), корреляционный момент можно определить как математическое ожидание произведения цент- центрированных случайных величин: VLXV= М [*Y\. Замечание 2. Легко убедиться, что корреляционный момент можно записать в виде цх„ = М (ХК) - М (X) М (У). Теорема 1. Корреляционный момент двух независимых случайных величин X и Y равен нулю. Доказательство. Так как X и У— независимые случайные величины, то их отклонения X — М (X) и У— М (У) также независимы. Пользуясь свойствами ма- математического ожидания (математическое ожидание про- произведения независимых случайных величин равно произ- произведению математических ожиданий сомножителей) и отклонения (математическое ожидание отклонения равно нулю), получим М [X — М (X)] M[Y — M (У)] = 0. Из определения корреляционного момента следует, что он имеет размерность, равную произведению размер- размерностей величин X и У. Другими словами, величина корреляционного момента зависит от единиц измерения случайных величин. По этой причине для одних и тех же двух величин величина корреляционного момента имеет различные значения в зависимости от того, в каких еди- единицах были измерены величины. Пусть, например, X и У были измерены в сантимет- сантиметрах и \ixj. = 2 см2; если измерить X и У в миллиметрах, то \iXy = 200 мм. Такая особенность корреляционного мо- момента является недостатком этой числовой характеристи- характеристики, поскольку сравнение корреляционных моментов различных систем случайных величин становится затруд- затруднительным. Для того чтобы устранить этот недостаток, вводят новую числовую характеристику—коэффициент корреляции. 12 — 2740 177
Коэффициентом корреляции гху случайных величин X и У называют отношение корреляционного момента к произведению средних квадратических отклонений этих величин: Так как размерность \аху равна произведению размер- размерностей величин X и У, ах имеет размерность величины X, оу имеет размерность величины Y (см. гл. VIII, § 7), то гхр—безразмерная величина. Таким образом, величина коэффициента корреляции не зависит от выбора единиц измерения случайных величин. В этом состоит преиму- преимущество коэффициента корреляции перед корреляционным моментом. Очевидно, коэффициент корреляции независимых слу- случайных величин равен нулю (так как р,Ж1/ = 0). Замечание 3. Во многих вопросах теории вероятностей це- целесообразно вместо случайной величины X рассматривать нормиро- нормированную случайную величину X', которую определяют как отношение отклонения к среднему квадратическому отклонению: Х'=(Х-М(Х))/ох. Нормированная величина имеет математическое ожидание, равное нулю, и дисперсию, равную единице. Действительно, используя свойства математического ожидания и дисперсии, имеем: М(Х')=М \Х~^ |(ХI =— М[Х — М(Х)] — i- .0 = 0; а% Легко убедиться, что коэффициент корреляции гху равен корре- корреляционному моменту нормированных величин Л' и Y : М{[Х-М (X)] [Y-M (У)]} жй [Х-М (X) Y-Miyy\ жй [Х-М (X) Y-Miyy\ Теорема 2. Абсолютная величина корреляционного мо- момента двух случайных величин X и Y не превышает сред- среднего геометрического их дисперсий: Доказательство. Введем в рассмотрение случай- случайную величину Zi—OyX—oxY и найдем ее дисперсию D(Zl) — M[Z1—mZl]8. Выполнив выкладки, получим 178
Любая дисперсия неотрицательна, поэтому Отсюда Введя случайную величину Zt = oyX+ vxY, аналогич- аналогично найдем Рх„>—<W (***) Объединим (**) и (***): — ОхОу < И-дгу < °х°у, (****) или lH-*y Итак, Теорема 3. Абсолютная величина коэффициента кор- корреляции не превышает единицы: Доказательство: Разделим обе части двойного неравенства (****) на произведение положительных чисел Итак, § 18. Коррелированность и зависимость случайных величин Две случайные величины X и У называют кор- коррелированными, если их корреляционный момент (или, что то же, коэффициент корреляции) отличен от нуля; X и У называют некоррелированными величинами, если их корреляционный момент равен нулю. Две коррелированные величины также и зависимы. Действительно, допустив противное, мы должны заклю- заключить, что \хху=0, а это противоречит условию, так как для коррелированных величин р,ху=т*=О. Обратное предположение не всегда имеет место, т. е. если две величины зависимы, то они могут быть как коррелированными, так и некоррелированными. Другими 12* 179
словами, корреляционный момент двух зависимых вели- величин может быть не равен нулю, но может и равняться нулю. Убедимся на примере, что две зависимые величины могут быть некоррелированными. Пример. Двумерная случайная величина (X, Y) задана плот- плотностью распределения: f (*, у)=1/6я внутри эллипса дс*/9+у*/4 = 1; f(x, у)=0 вне этого эллипса. Доказать, что X и Y — зависимые некоррелированные величины. Решение. Воспользуемся ранее вычисленными плотностями распределения составляющих X и Y (см. § 12): 2 1 ^ ^~9я У 9 — *Л> Mv) —9= V 4 — У* внутри заданного эллип- эллипса и /1(х) = 0, /2(у)=0 вне его. Так как ((х, у) Ф fx (х) /, (у), то X и К — зависимые величины (см. § 16). Для того чтобы доказать некоррелированность X и У, доста- достаточно убедиться в том, что цх„ = 0. Найдем корреляционный момент по формуле (см. § 17) = J \ [*- М (X)] [у- М (У)] ({х, у) dx dy. — 00 — OB Поскольку функция ft (x) симметрична относительно оси Оу, то М{Х)=0; аналогично, М(У)=0 в силу симметрии / (у) относи- относительно оси Ох. Следовательно, ао ао xyf (x* у) ** dy' — оо —оо Вынося постоянный множитель f(x, у) за знак интеграла, получим Внутренний интеграл равен нулю (подынтегральная функция нечетна, пределы интегрирования симметричны относительно начала коорди- координат), следовательно, цж„ = 0, т.е. зависимые случайные величины X и Y некоррелированы. Итак, из коррелнрованности двух случайных величин следует их зависимость, но из зависимости еще не вы- вытекает коррелированность. Из независимости двух вели- величин следует их некоррелированность, но из некоррели- некоррелированности еще нельзя заключить о независимости этих величин. 180
Заметим, однако, что из некоррелированности нор- нормально распределенных величин вытекает их независи- независимость. Это утверждение будет доказано в следующем параграфе. § 19. Нормальный закон распределения на плоскости На практике часто встречаются двумерные слу- случайные величины, распределение которых нормально. Нормальным законом распределения на плоскости на- называют распределение вероятностей двумерной случайной величины (X, Y), если f (х, у) = хе Мы видим, что нормальный закон на плоскости опре- определяется пятью параметрами: ах, аг, ах, оу и тХу. Можно доказать, что эти параметры имеют следующий вероят- вероятностный смысл: ах, а2 — математические ожидания, ах, ау — средние квадратические отклонения, гху — коэффици- коэффициент корреляции величин X и У. Убедимся в том, что если составляющие двумерной нормально распределенной случайной величины некорре- некоррелированны, то они и независимы. Действительно, пусть X и Y некоррелированны. Тогда, полагая в формуле (*) гХу = 0, получим 1 -и- Таким образом, если составляющие нормально рас- распределенной случайной величины некоррелированны, то плотность совместного распределения системы равна произведению плотностей распределения составляющих, а отсюда и следует независимость составляющих (см. § 16). Справедливо и обратное утверждение (см. § 18). Итак, для нормально распределенных составляющих двумерной случайной величины понятия независимости и некоррелированности равносильны. 181
Замечание. Используя формулы (*) и (**) § 12, можно до- доказать, что если двумерная случайная величина распределена нор- нормально с параметрами aj, at, ах, ау, гху, то ее составляющие также распределены нормально с параметрами, соответственно равными аи ах и ал, оу. § 20. Линейная регрессия. Прямые линии среднеквадратической регрессии Рассмотрим двумерную случайную величину (X, Y), где X и У—зависимые случайные величины. Пред- Представим одну из величин как функцию другой. Ограни- Ограничимся приближенным представлением (точное приближе- приближение, вообще говоря, невозможно) величины Y в виде линейной функции величины X: где а и р — параметры, подлежащие определению. Это можно сделать различными способами: наиболее употре- употребительный из них—метод наименьших квадратов. Функцию g(X)=a.X-\-$ называют «наилучшим при- приближением» Y в смысле метода наименьших квадратов, если математическое ожидание М [Y—g(X)]* принимает наименьшее возможное значение; функцию g(x) называют среднеквадратической регрессией К на X. Теорема. Линейная средняя квадратическая регрессия Y на X имеет вид где mJf = ) y {) х ) y () г — \аХу/(охои)—коэффициент корреляции величин X и Y. Доказательство. Введем в рассмотрение функцию двух независимых аргументов аир: Учитывая, что М (X—mx)—M(Y—т„) = 0, М [(X—тх)х X(Y—ту)] = Цху = га^у, и выполнив выкладки, получим F (а, Р) = or^4-paaj—2roxoy$ + (т^—а—ртх)г. Исследуем функцию F (а, Р) на экстремум, для чего приравняем нулю частные производные: |?-=— 2(т„—a—pmj =0, 182
Отсюда Легко убедиться, что при этих значениях аир рассмат- рассматриваемая функция принимает наименьшее значение. Итак, линейная средняя квадратическая регрессия Y и X имеет вид или 0„ Коэффициент р = г —— называют коэффициентом ре- ^ грессии Y на X, а прямую называют прямой среднеквадратмеской регрессии К на Л". Подставив найденные значения а и р в соотношение (*), получим минимальное значение функции F (о, р), равное оЦ\—га). Величину аЦ\—г») называют остаточной дис- дисперсией случайной величины Y относительно случайной величины X; она характеризует величину ошибки, кото- которую допускают при замене У линейной функцией g(X)= =а + рх. При г = ±1 остаточная дисперсия равна нулю; другими словами, при этих крайних значениях коэффи- коэффициента корреляции не возникает ошибки при представ- представлении Y в виде линейной функции от X. Итак, если коэффициент корреляции г = ± 1, то Y и X связаны линейной функциональной зависимостью. Аналогично можно получить прямую среднеквадрати- ческой регрессии X на Y: X-mx = r^.{Y~mv) (***) (I/ « г——коэффициент регрессии X на К] и остаточную дисперсию 0*A—га) величины X относительно Y. Если г = ± 1, то обе прямые регрессии, как видно из (**) и (***), совпадают. Из уравнений (**) и (***) следует, что обе прямые регрессии проходят через точку (тх\ ту), которую назы- называют центром совместного распределения величин X и К. 183
§ 21. Линейная корреляция. Нормальная корреляция Рассмотрим двумерную случайную величину (X, Y). Если обе функции регрессии У на X и X на У линейны (см. § 15), то говорят, что X и К связаны ли- линейной корреляционной зависимостью. Очевидно, что гра- графики линейных функций регрессии — прямые линии, причем можно доказать, что они совпадают с прямыми средне- квадратической регрессии (см. § 20). Имеет место следу- следующая важная теорема. Теорема. Если двумерная случайная величина (X, Y) распределена нормально, то X и Y связаны линейной корреляционной зависимостью. Доказательство. Двумерная плотность вероят- вероятности (см. § 19) f (Xt у) = * 2noxovV I— *¦* где и = (х—аг)/ох, v = (y—at)/of. (•*) Плотность вероятности составляющей X (см. § 19, замечание) f (х\ — ' с-"*71 (***) Найдем функцию регрессии М (Y | х), для чего сначала найдем условный закон распределения величины Y при Х=х [см. § 14, формула (**)]: Подставив (*) и (**) в правую часть этой формулы и выполнив выкладки, имеем Заменив и и с по формулам (**), окончательно получим 184
Полученное условное распределение нормально с ма- математическим ожиданием (функцией регрессии У на X) и дисперсией а* A—г2). Аналогично можно получить функцию регрессии X на Y: Так как обе функции регрессии линейны, то корре- корреляция между величинами X и Y линейная, что и требо- требовалось доказать. Принимая во внимание вероятностный смысл пара- параметров двумерного нормального распределения (см. § 19), заключаем, что уравнения прямых регрессии у — а,=г-^(дс—at), x—at = r^(y—a,) совпадают с уравнениями прямых среднеквадратической регрессии (см. § 20). Задачи 1. Найти законы распределения составляющих дискретной двумерной случайной величины, заданной законом распределения Y Уг. У» 0.12 0.10 X 0,18 0.11 *• 0,10 0,39 Отв. X *i х% х„ Y уг у% р 0.22 0,29 0.49 р 0,40 0.60 2. Найти вероятность того, что составляющая X двумерной слу- случайной величины примет значение X < 1/2 и при этом составляю- составляющая Y примет значение У < 1/3, если известна функция распреде- распределения системы Отв. Р(Х < 1/2, Y < 1/3)=9/16. 3. Найти вероятность попадания случайной точки (X; К) в пря- прямоугольник, ограниченный прямыми х^л/4, х = п/2, у = я/6. у = п/3. 185
если известна функция распределения F(x, y) = sinxsin Отв. Р (я/4 < X < я/2, к/6 < Y < я/3) = 0,11. 4. Найти плотность распределения системы двух случайных ве- величин по известной функции распределения F(х, y) = (l-e- Отв. f(x, У)=^;=6е- 5. Внутри прямоугольника, ограниченного прямыми х = 0, х = я/2, у = 0, у=*п/2, плотность распределения системы двух слу- случайных величин / (х, у) =С sin (х-\-у); вне прямоугольника / (х, у)=0. Найти: а) величину С; б) функцию распределения системы. Отв. а) С=0,5; б) F(x, у) = 0,5 [sin x+ sin у— sin (x-f F)] @<х<;я/2, 0<j/<n/2). в. Система двух случайных величин распределена равномерно: в прямоугольнике, ограниченном прямыми х = 4, х = 6, у =10, у—15, функция / (х, у) сохраняет постоянное значение, а вне этого прямо- прямоугольника она равна нулю. Найти: а) плотность f (x, у) совместного распределения; б) функцию распределения системы. Отв. a) f(x, „ 7. Плотность совместного распределения системы двух случайных Q величин fix, у)= /44-х») (94-у2) ' Найти: а^ величинУ с> б) Функ- Функцию распределения системы. Отв. а)С=6/я»; б) Fix, {f)=(-i-arctg y+-j) (-^-aTctg-|-+1) . 8. Двумерная случайная величина задана плотностью совмест- совместного распределения fix, у) Найти условные законы распределения составляющих. ( » Y Отв. <р(х| у)=-^е Ч У ? 4>(х| »)»=-—¦ е ]М К я
ЧАСТЬ ТРЕТЬЯ ЭЛЕМЕНТЫ МАТЕМАТИЧЕСКОЙ СТАТИСТИКИ Глава пятнадцатая ВЫБОРОЧНЫЙ МЕТОД § 1. Задачи математической статистики Установление закономерностей, которым подчи- подчинены массовые случайные явления, основано на изучении методами теории вероятностей статистических данных — результатов наблюдений. Первая задача математической статистики—указать способы сбора и группировки статистических сведений, полученных в результате наблюдений или в результате специально поставленных экспериментов. Вторая задача математической статистики—разрабо- статистики—разработать методы анализа статистических данных в зависи- зависимости от целей исследования. Сюда относятся: а) оценка неизвестной вероятности события; оценка неизвестной функции распределения; оценка параметров распределения, вид которого известен; оценка зависи- зависимости случайной величины от одной или нескольких случайных величин и др.; б) проверка статистических гипотез о виде неизвест- неизвестного распределения или о величине параметров распре- распределения, вид которого известен. Современная математическая статистика разрабатывает способы определения числа необходимых испытаний до начала исследования (планирование эксперимента), в ходе исследования (последовательный анализ) и решает многие другие задачи. Современную математическую статистику определяют как науку о принятии решений в условиях неопределенности. Итак, задача математической статистики состоит в со- создании методов сбора и обработки статистических данных для получения научных и практических выводов. 187
§ 2. Краткая историческая справка Математическая статистика возникла (XVII в.) и развивалась параллельно с теорией вероятностей. Даль- Дальнейшее развитие математической статистики (вторая по- половина XIX — начало XX в.) обязано, в первую очередь, П. Л. Чебышеву, А. А. Маркову, А. М. Ляпунову, а также К. Гауссу, А. Кетле, Ф. Гальтону, К. Пирсону и др. В XX в. наиболее существенный вклад в математи- математическую статистику был сделан советскими математиками (В. И. Романовский, Е. Е. Слуцкий, А. Н. Колмогоров, Н. В. Смирнов), а также английскими (Стьюдент, Р. Фи- Фишер, Э. Пирсон) и американскими (Ю. Нейман, А. Вальд) учеными. § 3. Генеральная и выборочная совокупности Пусть требуется изучить совокупность однород- однородных объектов относительно некоторого качествен- качественного или количественного признака, характе- характеризующего эти объекты. Например, если имеется партия деталей, то качественным признаком может служить стандартность детали, а количественным — контролируе- контролируемый размер детали. Иногда проводят сплошное обследование, т. е. обсле- обследуют каждый из объектов совокупности относительно признака, которым интересуются. На практике, однако, сплошное обследование применяют сравнительно редко. Например, если совокупность содержит очень большое число объектов, то провести сплошное обследование фи- физически невозможно. Если обследование объекта связано с его уничтожением или требует больших материальных затрат, то проводить сплошное обследование практически не имеет смысла. В таких случаях случайно отбирают из всей совокупности ограниченное число объектов и подвергают их изучению. Выборочной совокупностью или просто выборкой назы- называют совокупность случайно отобранных объектов. Генеральной совокупностью называют совокупность объектов, из которых производится выборка. Объемом совокупности (выборочной или генеральной) называют число объектов этой совокупности. Например, если из 1000 деталей отобрано для обследования 100 де- 188
талей, то объем генеральной совокупности N = 1000, а объем выборки я =100. Замечание. Часто генеральная совокупность содержит ко- конечное число объектов. Однако если это число достаточно велико, то иногда в целях упрощения вычислений, или для облегчения теоре- теоретических выводов, допускают, что генеральная совокупность состоит из бесчисленного множества объектов. Такое допущение оправды- оправдывается тем, что увеличение объема генеральной совокупности (доста- (достаточно большого объема) практически не сказывается на результатах обработки данных выборки. § 4. Повторная и бесповторная выборки. Репрезентативная выборка При составлении выборки можно поступать двумя способами: после того как объект отобран и над ним произведено наблюдение, он может быть возвращен либо не возвращен в генеральную совокупность. В соответствии со сказанным выборки подразделяют на повторные и бес- бесповторные. Повторной называют выборку, при которой отобран- отобранный объект (перед отбором следующего) возвращается в генеральную совокупность. Бесповторной называют выборку, при которой отобран- отобранный объект в генеральную совокупность не возвращается. На практике обычно пользуются бесповторным слу- случайным отбором. Для того чтобы по данным выборки можно было до- достаточно уверенно судить об интересующем признаке генеральной совокупности, необходимо, чтобы объекты выборки правильно его представляли. Другими словами, выборка должна правильно представлять пропорции гене- генеральной совокупности, с^го требование коротко формули- формулируют так: выборка должна быть репрезентативной (пред- (представительной). В силу закона больших чисел можно утверждать, что выборка будет репрезентативной, если ее осуществить случайно: каждый объект выборки отобран случайно из генеральной совокупности, если все объекты имеют оди- одинаковую вероятность попасть в выборку. Если объем генеральной совокупности достаточно ве- велик, а выборка составляет лишь незначительную часть этой совокупности, то различие между повторной и бес- бесповторной выборками стирается; в предельном случае, 189
когда рассматривается бесконечная генеральная совокуп- совокупность, а выборка имеет конечный объем, это различие исчезает. § 5. Способы отбора На практике применяются различные способы отбора. Принципиально эти способы можно подразделить на два вида: 1. Отбор, не требующий расчленения генеральной со- совокупности на части. Сюда относятся: а) простой слу- случайный бесповторный отбор; б) простой случайный по- повторный отбор. 2. Отбор, при котором генеральная совокупность раз- разбивается на части. Сюда относятся: а) типический отбор; б) механический отбор; в) серийный отбор. Простым случайным называют такой отбор, при ко- котором объекты извлекают по одному из всей генераль- генеральной совокупности. Осуществить простой отбор можно различными способами. Например, для извлечения п объ- объектов из генеральной совокупности объема N поступают так: выписывают номера от I до N на карточках, которые тщательно перемешивают, и наугад вынимают одну кар- карточку; объект, имеющий одинаковый номер с извлеченной карточкой, подвергают обследованию; затем карточку возвращают в пачку и процесс повторяют, т. е. карточки перемешивают, наугад вынимают одну из них и т. д. Так поступают п раз; в итоге получают простую случайную повторную выборку объема п. Если извлеченные карточки не возвращать в пачку, то выборка является простой случайной бесповторной. При большом объеме генеральной совокупности опи- описанный процесс оказывается очень трудоемким. В этом случае пользуются готовыми таблицами «случайных чисел», в которых числа расположены в случайном порядке. Для того чтобы отобрать, например, 50 объектов из пронуме- пронумерованной генеральной совокупности, открывают любую страницу таблицы случайных чисел и выписывают под- подряд 50 чисел; в выборку попадают те объекты, номера которых совпадают с выписанными случайными числами. Если бы оказалось, что случайное число таблицы пре- превышает число N, то такое случайное число пропускают. При осуществлении бесповторной выборки случайные числа таблицы, уже встречавшиеся ранее, следует также пропустить. 190
Типическим называют отбор, при котором объекты отбираются не из всей генеральной совокупности, а из каждой ее «типической» части. Например, если детали изготовляют на нескольких станках, то отбор производят не из всей совокупности деталей, произведенных всеми станками, а из продукции каждого станка в отдельности. Типическим отбором пользуются тогда, когда обследуемый признак заметно колеблется в различных типических частях генеральной совокупности. Например, если про- продукция изготовляется на нескольких машинах, среди которых есть более и менее изношенные, то здесь типи- типический отбор целесообразен. Механическим называют отбор, при котором генераль- генеральную совокупность «механически» делят на столько групп, сколько объектов должно войти в выборку, а из каждой группы отбирают один объект. Например, если нужно отобрать 20% изготовленных станком деталей, то отби- отбирают каждую пятую деталь; если требуется отобрать 5% деталей, то отбирают каждую двадцатую деталь, и т. д. Следует указать, что иногда механический отбор может не обеспечить репрезентативности выборки. Например, если отбирают каждый двадцатый обтачиваемый валик, причем сразу же лосле отбора производят замену резца, то отобранными окажутся все валики, обточенные затуплен- затупленными резцами. В таком случае следует устранить совпа- совпадение ритма отбора с ритмом замены резца, для чего надо отбирать, скажем, каждый десятый валик из двад- двадцати обточенных. Серийным называют отбор, при котором объекты от- отбирают из генеральной совокупности не по одному, а «сериями», которые подвергаются сплошному обследова- обследованию. Например, если изделия изготовляются большой группой станков-автоматов, то подвергают сплошному обследованию продукцию только нескольких станков. Серийным отбором пользуются тогда, когда обследуемый признак колеблется в различных сериях незначитель- незначительно. Подчеркнем, что на практике часто применяется ком- комбинированный отбор, при котором сочетаются указанные выше способы. Например, иногда разбивают генеральную совокупность на серии одинакового объема, затем простым случайным отбором выбирают несколько серий и, наконец, из каждой серии простым случайным отбором извлекают отдельные объекты. 191
§ в. Статистическое распределение выборки Пусть из генеральной совокупности извлечена выборка, причем xt наблюдалось пх раз, хъ— л, раз, xk—пк раз и 2П/ —л — объем выборки. Наблюдаемые значения х,- называют вариантами, а последовательность вариант, записанных в возрастающем порядке,— вариа- вариационным рядом. Числа наблюдений называют частотами, а их отношения к объему выборки nt/n — Wi—относи- Wi—относительными частотами. Статистическим распределением выборки называют пе- перечень вариант и соответствующих им частот или относи- относительных частот. Статистическое распределение можно за- задать также в виде последовательности интервалов и соответ- соответствующих им частот (в качестве частоты, соответствующей интервалу, принимают сумму частот, попавших в этот интервал). Заметим, что в теории вероятностей под распределением понимают соответствие между возможными значениями случайной величины и их вероятностями, а в математи- математической статистике—соответствие между наблюдаемыми вариантами и их частотами, или относительными частотами. Пример. Задано распределение частот выборки объема п — 20: х{ 2 6 12 щ 3 10 7 Написать распределение относительных частот. Решение. Найдем относительные частоты, для чего разделим частоты на объем выборки: 1^ = 3/20 = 0.15, W,= 10/20 = 0,50, Wt = 7/20 == 0,36. Напишем распределение относительных частот: х/ 2 6 12 Wi 0,15 0,50 0,35 Контроль: 0,15 + 0,50 + 0,36=1. § 7. Эмпирическая функция распределения Пусть известно статистическое распределение ча- частот количественного признака X. Введем обозначения: пх—число наблюдений, при которых наблюдалось значение признака, меньше* х; п—общее число наблюдений (объем выборки). Ясно, что относительная частота события X < х равна пх/п. Если х изменяется, то, вообще говоря, из- изменяется и относительная частота, т. е. относительная 192
частота nxjn есть функция от х. Так как эта функция находится эмпирическим (опытным) путем, то ее называют эмпирической. Эмпирической функцией распределения (функцией рас- распределения выборки) называют функцию F* (х), опреде- определяющую для каждого значения х относительную частоту события X < х. Итак, по определению, где пх—число вариант, меньших х; п — объем выборки. Таким образом, для того чтобы найти, например, F*(x2), надо число вариант, меньших хг, разделить на объем выборки: В отличие от эмпирической функции распределения выборки функцию распределения F (х) генеральной сово- совокупности называют теоретической функцией распределе- распределения. Различие между эмпирической и теоретической функ- функциями состоит в том, что теоретическая функция F (х) определяет вероятность события X < х, а эмпирическая функция F* (х) определяет относительную частоту этого же события. Из теоремы Бернулли следует, что относи- относительная частота события X < х, т. е. F* (х) стремится по вероятности к вероятности F (х) этого события. Другими словами, при больших п числа F* (х) и F (х) мало отли- отличаются одно от другого в том смысле, что lim Р [ | F (х)— П -> ее — F* (х) | < е] = 1 (е > 0). Уже отсюда следует целесооб- целесообразность использования эмпирической функции распреде- распределения выборки для приближенного представления теоре- теоретической (интегральной) функции распределения гене- генеральной совокупности. Такое заключение подтверждается и тем, что F* (х) обладает всеми свойствами F (х). Действительно, из опре- определения функции F* (х) вытекают следующие ее свойства: 1) значения эмпирической функции принадлежат от- отрезку [0, 1]; 2) F* (х) — неубывающая функция; 3) если х^ — наименьшая варианта, то F*(x) — 0 при х^х^, если xk — наибольшая варианта, то F*(x)=l при x>xk. 13 — 2730 193
Итак, эмпирическая функция распределения выборки служит для оценки теоретической функции распределения генеральной совокупности. Пример. Построить эмпирическую функцию по данному распре- распределению выборки: варианты Х{ 2 6 10 частоты щ 12 18 30 Решение. Найдем сбгем выборки: 12 + 18 + 30 = 60. Наименьшая варианта равна 2, следовательно, F*(x)=0 при х<2. Значение X < 6, а именно ¦ л:1 = 2, наблюдалось 12 раз, следовательно, ; 1 ± X F* (х) = 12/60 = 0,2 при Значения X < 10, а именно хг = 2 и *2 = 6, наблюдались 12 + 18 = 30 раз, следовательно, /*(*) = 30/60 = 0,5 при 6 < х< 10. Так как х=Ю — наибольшая варианта, то f(x)=l при х> 10. Искомая эмпирическая функция 1' 0 при х<2, 0,2 при 2 • 0,5 при 6 • 1 при х > 10. График этой функции изображен на рис. 19. § 8. Полигон и гистограмма Для наглядности строят различные графики ста- статистического распределения и, в частности, полигон и гистограмму. Полигоном частот называют ломаную, отрезки которой соединяют точки (хх; пх), (х2; п2), .... (xk; nk). Для по- построения полигона частот на оси абсцисс откладывают варианты х{, а на оси ординат—соответствующие им частоты nt. Точки (х,; и,) соединяют отрезками прямых и получают полигон частот. Полигоном относительных частот называют ломаную, отрезки которой соединяют точки (хх\ №г), (х2; W%), ... 194
3 <S 5 6 Рис. 20 7 8 .... (xk; Wk). Для построения полигона относительных частот на оси абсцисс откладывают варианты xit а на оси ординат—соответствующие им относительные ча- частоты W{. Точки (х{1 W{) соединяют отрезками прямых и получают полигон огно- w сительных частот. На рис. 20 изображен полигон относительных ча- частот следующего распре- распределения : X 1,5 3,5 5,5 7,5 W 0,1 0,2 0,4 0,3 В случае непрерывного признака целесо- целесообразно строить гистограмму, для чего интервал, в ко- котором заключены все наблюдаемые значения признака, разбивают на несколько частичных интервалов длиной А т и находят для каждого частичного интервала п,-—сумму частот вари- вариант, попавших в t-й интервал. Гистограммой ча- частот называют ступен- ступенчатую фигуру, состоя- состоящую из прямоугольни- прямоугольников, основаниями кото- ¦—| | рых служат частичные I I I I I I I I интервалы длиною Л, а высоты равны отноше- отношению njh (плотность ча- 0 5 10 19 20 2S 30 35 40 Рис. 21 стоты). Для построения гистограммы частот на оси абсцисс откладывают частичные интервалы, а над ними проводят отрезки, параллельные оси абсцисс на расстоянии nt/h. Площадь 1-го частичного прямоугольника равна hnilh = nl—сумме частот вариант t-ro интервала; следо- следовательно, площадь гистограммы частот равна сумме всех частот, т. е. объему выборки. На рис. 21 изображена гистограмма частот распреде- распределения объема п=100, приведенного в табл. 6. Гистограммой относительных частот называют сту- ступенчатую фигуру, состоящую из прямоугольников, осно- основаниями которых служат частичные интервалы длиною h, 13* 195
а высоты равны отношению W(/h (плотность относитель- относительной частоты). Для построения гистограммы относительных частот на оси абсцисс откладывают частичные интервалы, а над Таблица 6 Частичный интервал длиною /1=5 5—10 10—15 15—20 20—25 25—30 30—35 35—40 Сумма частот вариант частичного интер- вала п. 4 6 16 36 24 10 4 Плотность частоты л>//1 0,8 1,2 3,2 7,2 4,8 2,0 0,8 ними проводят отрезки, параллельные оси абсцисс на расстоянии W{Ih. Площадь /-го частичного прямоуголь- прямоугольника равна hWj/h — Wi—относительной частоте вариант, попавших в t-й интервал. Следовательно, площадь гисто- гистограммы относительных частот равна сумме всех отно- относительных частот, т. е. единице. Задачи 1. Построить график эмпирической функции распределения х( 5 7 п, 2 3 10 8 15 7 2. Построить полигоны частот и относительных частот распре' деления xi 1 3 5 7 9 гц 10 15 30 33 12 3. Построить гистограммы частот и относительных частот рас- распределения (в первом столбце указан частичный интервал, во вто- втором—сумма частот вариант частичного интервала) 2—5 9 5—8 10 8—11 25 11—14 6 196
Глава шестнадцатая СТАТИСТИЧЕСКИЕ ОЦЕНКИ ПАРАМЕТРОВ РАСПРЕДЕЛЕНИЯ § 1. Статистические оценки параметров распределения Пусть требуется изучить количественный признак генеральной совокупности. Допустим, что из теоретичес- теоретических соображений удалось установить, какое именно рас- распределение имеет признак. Естественно возникает задача оценки параметров, которыми определяется это распреде- распределение. Например, если наперед известно, что изучаемый признак распределен в генеральной совокупности нормаль- нормально, то необходимо оценить (приближенно найти) матема- математическое ожидание и среднее квадратическое отклонение, так как эти два параметра полностью определяют нормаль- нормальное распределение; если же есть основания считать, что признак имеет, например, распределение Пуассона, то необходимо оценить параметр X, которым это распреде- распределение определяется. Обычно в распоряжении исследователя имеются лишь данные выборки, например значения количественного при- признака xlf х2, . . ., хп, полученные в результате п наблюде- наблюдений (здесь и далее наблюдения предполагаются независимы- независимыми). Через эти данные и выражают оцениваемый параметр. Рассматривая xlt xit .. ., х„ как независимые случайные величины Xlt X2 Х„, можно сказать, что найти статистическую оценку неизвестного параметра теоретиче- теоретического распределения — это значит найти функцию от наблюдаемых случайных величин, которая и дает при- приближенное значение оцениваемого параметра. Например, как будет показано далее, для оценки математического ожидания нормального распределения служит функция (среднее арифметическое наблюдаемых значений признака) Итак, статистической оценкой неизвестного пара- параметра теоретического распределения называют функцию от наблюдаемых случайных величин. 197
§ 2. Несмещенные, эффективные и состоятельные оценки Для того чтобы статистические оценки давали «хорошие» приближения оцениваемых параметров, они должны удовлетворять определенным требованиям. Ниже указаны эти требования. Пусть в*—статистическая оценка неизвестного пара- параметра в теоретического распределения. Допустим, что по выборке объема п найдена оценка 6J. Повторим опыт, т. е. извлечем из генеральной совокупности другую вы- выборку того же объема и по ее данным найдем оценку 8а. Повторяя опыт многократно, получим числа 61,0J, ..., 0JJ, которые, вообще говоря, различны между собой. Таким образом, оценку в* можно рассматривать как случайную величину, а числа 6J, 6J, .... 0* — как ее возможные значения. Представим себе, что оценка в* дает приближенное значение в с избытком; тогда каждое найденное по дан- данным выборок число 0< (» = 1, 2, ..., k) больше истинного значения 0. Ясно, что в этом случае и математическое ожидание (среднее значение) случайной величины 0* боль- больше, чем 0, т. е. М @*) > 0. Очевидно, что если 0* дает оценку с недостатком, то М @*) < 0. Таким образом, использование статистической оценки, математическое ожидание которой не равно оцениваемому параметру, привело бы к систематическим •' (одного знака) ошибкам. По этой причине естественно потребовать, чтобы математическое ожидание оценки 0* было равно оценива- оцениваемому параметру. Хотя соблюдение этого требования не устранит ошибок (одни значения 0* больше, а другие меньше 0), однако ошибки разных знаков будут встреча! ь- ся одинаково часто. Иными словами, соблюдение требова- требований М @*) = 0 гарантирует от получения систематических Ошибок. Несмещенной называют статистическую оценку 0*, мате- математическое ожидание которой равно оцениваемому пара- параметру 0 при любом объеме выборки, т. е. *> В теории ошибок измерений систематическими ошибками назы- называют неслучайные ошибки, искажающие результаты измерений в одну определенную сторону Например, измерение длины растянутой рулет- рулеткой систематически дает заниженные результаты. 198
Смещенной называют оценку, математическое ожидание которой не равно оцениваемому параметру. Однако было бы ошибочным считать, что несмещенная оценка всегда дает хорошее приближение оцениваемого параметра. Действительно, возможные значения в* могут быть сильно рассеяны вокруг своего среднего значения, т е. дисперсия D (©*) может быть значительной. В этом случае найденная по данным одной выборки оценка, на- например 61, может оказаться весьма удаленной от среднего значения в*, а значит, и от самого оцениваемого пара- параметра в; приняв @1 в качестве приближенного значения в, мы допустили бы большую ошибку. Если же потребовать, чтобы дисперсия в* была малой, то возможность допустить большую ошибку будет исключена. По этой причине к статистической оценке предъявляется требование эффек- эффективности. Эффективной называют статистическую оценку, которая (при заданном объеме выборки п) имеет наименьшую воз- возможную дисперсию. При рассмотрении выборок большого объема (п вели- велико!) к статистическим оценкам предъявляется требование состоятельности. Состоятельной называют статистическую оценку, кото- которая при п—>-оо стремится по вероятности к оцениваемому параметру. Например, если дисперсия несмещенной оценки при п—»-оо стремится к нулю, то такая оценка оказы- оказывается и состоятельной. § 3. Генеральная средняя Пусть изучается дискретная генеральная совокуп- совокупность относительно количественного признака X. Генеральной средней хг называют среднее арифметичес- арифметическое значений признака генеральной совокупности. Если все значения xlt хй, ..., хн признака генераль- генеральной совокупности объема N различны, то *Г= <*! + *!+ •¦• +XN)lN. Если же значения признака х1У хг xk имеют соответственно частоты Nlt N2, .. ., Nk, причем Nx -f- -t-tf,+ ...+Nh=*N, то xr = {xxNl+xtN% +... +xkNk)/N, 199
т. е. генеральная средняя есть средняя взвешенная зна- значений признака с весами, равными соответствующим ча- частотам. Замечание. Пусть генеральная совокупность объема Л/ со- содержит объекты с различными значениями признака X, равными xlt Хъ x/f. Представим себе, что из этой совокупности наудачу извлекается один объект. Вероятность того, что будет извлечен объект со значением признака, например хь очевидно, равна 1/N. С этой же вероятностью может быть извлечен и любой другой объект. Таким образом, величину признака X можно рассматривать как случайную величину, возможные значения которой xlt х2 х„ имеют одина- одинаковые вероятности, равные 1/N. Найдем математическое ожидание М(Х): Итак, если рассматривать обследуемый признак X генеральной совокупности как случайную величину, то математическое ожидание признака равно генеральной средней этого признака: М(Х)=~хт. Этот вывод мы получили, считая, что все объекты генеральной совокупности имеют различные значения признака. Такой же итог будет получен, если допустить, что генеральная совокупность содер- содержит по нескольку объектов с одинаковым значением признака. Обобщая полученный результат на генеральную совокупность с непрерывным распределением признака X, и в этом случае опре- определим генеральную среднюю как математическое ожидание признака: § 4. Выборочная средняя Пусть для изучения генеральной совокупности относительно количественного признака X извлечена вы- выборка объема п. Выборочной средней ха называют среднее арифмети- арифметическое значение признака выборочной совокупности. Если все значения xlt х , хп признака выборки объема п различны, то + ... +Х„)/П. Если же значения признака xlt хг, . .., хк имеют соот* ветственно частоты пх, п8, ..., nk, причем п1 + пг+ ... ... -f- nk = п, то *В = («Л ИЛИ / k N 200
т. е. выборочная средняя есть средняя взвешенная зна- значений признака с весами, равными соответствующим ча- частотам. Замечание. Выборочная средняя, найденная по данным одной выборки, есть, очевидно, определенное число. Если же извлекать другие выборки того же объема из той же генеральной совокупности, то выборочная средняя будет изменяться от выборки к выборке. Таким образом, выборочную среднюю можно рассматривать как слу- случайную величину, а следовательно, можно говорить о распределениях (теоретическом и эмпирическом) выборочной средней и о числовых характеристиках этого распределения (его называют выборочным), в частности о математическом ожидании и дисперсии выборочного распределения. Заметим, что в теоретических рассуждениях выборочные значения хх> х2, ..., х„ признака X, полученные в итоге независимых наблюдений, также рассматривают как слу- случайные величины Xlt Х2, . . ., Хп, имеющие то же распре- распределение и, следовательно, те же числовые характеристики, которые имеют X. § 5. Оценка генеральной средней по выборочной средней. Устойчивость выборочных средних Пусть из генеральной совокупности (в резуль- результате независимых наблюдений над количественным при- признаком X) извлечена повторная выборка объема п со значениями признака xlt ха, . .., хп. Не уменьшая общ- общности рассуждений, будем считать эти значения признака различными. Пусть генеральная средняя хг неизвестна и требуется оценить ее по данным выборки. В каче- качестве оценки генеральной средней принимают выборочную среднюю *в = (*! + **+ • • • +Х„)/П. Убедимся, что хв — несмещенная оценка, т. е. покажем, что математическое ожидание этой оценки равно хг. Будем рассматривать л:в как случайную величину и xlt х2, ..., хп как независимые, одинаково распределенные случайные величины Хх, Хг Хп. Поскольку эти величины оди- одинаково распределены, то они имеют одинаковые числовые характеристики, в частности одинаковое математическое ожидание, которое обозначим через а. Так как матема- математическое ожидание среднего арифметического одинаково распределенных случайных величин равно математичес- 201
кому ожиданию каждой из величин (см. гл. VIII, § 9), то Приняв во внимание, что каждая из величин Хх, Х2, . . . .. ., Х„ имеет то же распределение, что и генеральная совокупность (которую мы также рассматриваем как слу- случайную величину), заключаем, что и числовые характе- характеристики этих величин и генеральной совокупности оди- одинаковы. В частности, математическсе ожидание а каждой из величин равно математическому ожиданию признака X генеральной совокупности, т. е. Заменив в формуле (*) математическое ожидание а на хг, окончательно получим Тем самым доказано, что выборочная средняя есть не- несмещенная оценка генеральной средней. Легко показать, что выборочная средняя является и состоятельной оценкой генеральной средней. Действи- Действительно, допуская, что случайные величины Хх, Х2, ..., Хп имеют ограниченные дисперсии, мы вправе применить к этим величинам теорему Чебышева (частный случай), в силу которой при увеличении п среднее арифметическое рассматриваемых величин, т. е. Хь, стремится по веро- вероятности к математическому ожиданию а каждой из вели- величин, или, что то же, к генеральной средней л:г (так как хг = а). Итак, при увеличении объема выборки п выборочная средняя стремится по вероятности к генеральной средней, а это и означает, что выборочная средняя есть состоятель- состоятельная оценка генеральной средней. Из сказанного следует также, что если по нескольким выборкам достаточно боль- большого объема из одной и той же генеральной совокупности будут найдены выборочные средние, то они будут при- приближенно равны между собой. В этом и состоит свойство устойчивости выборочных средних. Заметим, что если дисперсии двух одинаково распре- распределенных совокупностей равны между собой, то близость выборочных средних к генеральным не зависит от отно- отношения объема выборки к объему генеральной совокуп- совокупности. Она зависит от объема выборки: чем объем выборки 202
больше, тем меньше выборочная средняя отличается от генеральной. Например, если из одной совокупности ото- отобран 1 % объектов, а из другой совокупности отобрано 4% объектов, причем объем первой выборки оказался большим, чем второй, то первая выборочная средняя бу- будет меньше отличаться от соответствующей генеральной средней, чем вторая. Замечание. Мы предполагали выборку повторной. Однако полученные выводы применимы и для бесповторной выборки, если ее объем значительно меньше объема генеральной совокупности. Это по- положение часто используется на практике. § в. Групповая и общая средние Допустим, что все значения количественного при- признака X совокупности, безразлично-генеральной или вы- выборочной, разбиты на несколько групп. Рассматривая каждую группу как самостоятельную совокупность, можно найти ее среднюю арифметическую. Групповой средней называют среднее арифметическое значений признака, принадлежащих группе. Теперь целесообразно ввести специальный термин для средней всей совокупности. Общей средней х называют среднее арифметическое значений признака, принадлежащих всей совокупности. Зная групповые средние и объемы групп, можно найти общую среднюю: общая средняя равна средней арифмети- арифметической групповых средних, взвешенной по объемам групп. Опуская доказательство, приведем иллюстрирующий пример. Пример. Найти общую среднюю совокупности, состоящей ил сле- следующих двух групп: Группа первая вторая Значение признака ... I 6 1 5 Частота 10 15 20 30 Объем 10+15 = 25 20 + 30=50 Решение. Найдем групповые средние: 7„ = B0-1+30-5)/50 = 3,4. Найдем общую среднюю по групповым средним: 3 амечание. Для упрощения расчета общей средней совокуп- совокупности большого обг ема целесообразно разбить ее на несколько групп, найги групповые средние и по ним общую среднюю. 203
§ 7. Отклонение от общей средней и его свойство Рассмотрим совокупность, безразлично—гене- безразлично—генеральную или выборочную, значений количественного при- признака X объема п: значения признака . . . . хх хг ... хк частоты n, dj ... nk k При этом 2 tit = n. Далее для удобства записи знак сум- к мы 2 заменен знаком 2« i = i Найдем общую среднюю: х = B «,*/)/«• Отсюда 2 n,Xi = tix. (*) Заметим, что поскольку х — постоянная величина, то 2 п<* = х^п, = пх. (**) Отклонением называют разность х,—х между значе- значением признака и общей средней. Теорема. Сумма произведений отклонений на соответ- соответствующие частоты равна нулю: 2я, (*,-*) = 0. Доказательство. Учитывая (*) и (**), получим 2«, (х,— x) = ^lnlxi — ^lnlx = nx — nx = 0. Следствие. Среднее значение отклонения равно нулю. Действительно, (S «/ <*/—*))/2 «' = °/« = °- Пример. Дано распределение количественного признака X: xt 12 3 «4 10 4 6 Убедиться, что сумма произведений отклонений на соответствующие частоты равна нулю. Решение. Найдем общую среднюю: Найдем сумму произведений отклонений на соответствующие частоты 2 «/(*i — Г) = 10A — 1,8) + 4B— 1,8)+ 6C— 1,8) =8 — 8 = 0. 204
§ 8. Генеральная дисперсия Для того чтобы охарактеризовать рассеяние зна- значений количественного признака X генеральной совокуп- совокупности вокруг своего среднего значения, вводят сводную характеристику — генеральную дисперсию. Генеральной дисперсией DT называют среднее арифме- арифметическое квадратов отклонений значений признака гене- генеральной совокупности от их среднего значения хт. Если все значения хг хг, .... xN признака генеральной совокупности объема N различны, то Если же значения признака xlt хг, ..., хк имеют соответственно частоты Nlt Nt, ..., Nk, причем Nx + + N2+...+Nk = N, то т. е. генеральная дисперсия есть средняя взвешенная квадратов отклонений с весами, равными соответствую- соответствующим частотам. Пример. Генеральная совокупность задана таблицей распреде- распределения xi 2 4 5 6 Ni 8 9 10 3 Найти генеральную дисперсию. Решение. Найдем генеральную среднюю (см. § 3): _ 8-2 + 9-44-10-5 + 36 120 *г— 8 + 9+10 + 3 30 Найдем генеральную дисперсию; Кроме дисперсии для характеристики рассеяния зна- значений признака генеральной совокупности вокруг своего среднего значения пользуются сводной характеристикой— средним квадратическим отклонением. Генеральным средним квадратическим отклонением (стандартом) называют квадратный корень из генераль- генеральной дисперсии: 205
§ 9. Выборочная дисперсия Для того чтобы охарактеризовать рассеяние наблюдаемых значений количественного признака выборки вокруг своего среднего значения ха, вводят сводную характе- характеристику— выборочную дисперсию. Выборочной дисперсией DB называют среднее арифме- арифметическое квадратов отклонения наблюдаемых значений признака от их среднего значения хв. Если все значения хи хг, ..., х„ признака выборки объема п различны, то Если же значения признака х1У х , хк имеют со- соответственно частоты nlf пш, ..., пк, причем пх + пл-\-.., . = п, то /¦А —. \I п, т. е. выборочная дисперсия есть средняя взвешенная квадратов отклонений с весами, равными соответствую- соответствующим частотам. Пример. Выборочная совокупность задана таблицей распре- распределения xt 1 2 3 4 п, 20 15 10 5 Найти выборочную дисперсию. Решение. Найдем выборочную среднюю (см. § 4): - _20-1 + 15-2+Ю-3 + 5-4_100 *в~ 20+15+Ю + 5 ~50 Найдем выборочную дисперсию: _ 20A— 2)»+15-B — 2)*+ 10C — 2)л + 5D—2)а Ов = ^ =, = 50/50 = 1. Кроме дисперсии для характеристики рассеяния зна- значений признака выборочной совокупности вокруг своего среднего значения пользуются сводной характеристи- характеристикой— средним квадратическим отклонением. Выборочным средним квадратическим отклонением (стандартом) называют квадратный корень из выбороч- выборочной дисперсии: 206
§ 10. Формула для вычисления дисперсии Вычисление дисперсии, безразлично—выборочной или генеральной, можно упростить, используя следую- следующую теорему. Теорема. Дисперсия равна среднему квадратов значений признака минус квадрат общей средней: D= ~xs — [х]*. Доказательство. Справедливость теоремы выте- вытекает из преобразований: D Итак, где х Пример. Найти дисперсию по данному распределению х, 1 2 3 4 ni 20 15 10 5 Решение. Найдем общую среднюю: -_ 20-1 + 152+Ю-3 + 5-4 100 * 20+15+Ю+5 ~ 50 Найдем среднюю квадратов значений признака -а_ 20-1»+15-22+10.3а + 5-48 _^5 Искомая дисперсия § 11. Групповая, внутри групповая, межгрупповая и общая дисперсии Допустим, что все значения количественного признака X совокупности, безразлично—генеральной или выборочной, разбиты на k групп. Рассматривая каждую группу как самостоятельную совокупность, можно найти групповую среднюю (см. § 6) и дисперсию значений при- 207
знака, принадлежащих группе, относительно групповой средней. Групповой дисперсией называют дисперсию значений признака, принадлежащих группе, относительно группо- групповой средней где п{ — частота значения х(\ j — номер группы; х}— груп- групповая средняя группы /; Л/у = 2л;—объем группы /. Пример 1. Найти групповые дисперсии совокупности, состоящей яз следующих двух групп: Первая группа Вторая группа Х{ П( Xj П{ 2 1 3 2 4 7 8 3 5 2 Решение. Найдем групповые средние: Найдем искомые групповые дисперсии: = (ЬB —4J + 7-D—4J + 2-E —4J)/10 = 0,6; D2rp = B • C - б)« + 3 • (8 - 6)*)/5 = 6. Зная дисперсию каждой группы, можно найти их среднюю арифметическую. Внутригрупповой дисперсией называют среднюю ариф- арифметическую дисперсий, взвешенную по объемам групп: k где Nj — объем группы /; п = 2 Nj — объем всей сово- /=i купности. Пример 2. Найти внутригрупповую дисперсию по данным при- примера 1. Решение. Искомая внутригрупповая дисперсия равна ?>в„гр = (^l^irp + NJJTV)ln = A0 • 0,6 + 5 • 6)/15 = 12/5. Зная групповые средние и общую среднюю, можно найти дисперсию групповых средних относительно общей средней. 208
Межгрупповой дисперсией называют дисперсию груп- групповых средних относительно общей средней: А«ежгр = B Nj (Xj — xYVn, где Xj—групповая средняя группы /; Nj—объем группы /; х — общая средняя; п— 2 N/ — объем всей совокупности. Пример 3. Найти межгруппсвую дисперсию по данным при- примера 1. Решение. Найдем общую среднюю: X = ¦ 15 3 " Используя вычисленные выше величины хг — А, х2 = Ь, найдем искомую межгрупповую дисперсию: fli(*i-*) + 1-/межгр _ 10D— 14/3J + 5-F— 14/3J 8 ~ 15 ~~ 9 " Теперь целесообразно ввести специальный термин для дисперсии всей совокупности. Общей дисперсией называют дисперсию значений при- признака всей совокупности относительно общей средней: где п,- — частота значения х,-; х—общая средняя; п — объем всей совокупности. Пример 4. Найти сбщую дисперсию по данным примера 1. Решение. Найдем искомую общую дисперсию, учитывая, что общая средняя равна 14/3: 1-B-14/3)» + 7-D-14/3)Ч-2-E-14/3)г •'-'общ — j-g Г ¦ 2-C—14/3)а+3-(8—14/3)» 148 ""*" 15 ~45' Замечание. Найденная общая дисперсия равна сумме внутри- групповой и межгрупповой дисперсий: = 148/45; 4- Я„ежгр =12/5 + 8/9 = 148/45. В следующем параграфе будет доказано, что такая закономерность справедлива для любой совокупности. 14 — 2730 209
§ 12. Сложение дисперсий Теорема. Если совокупность состоит из несколь- нескольких групп, то общая дисперсия равна сумме внутригруп- повой и межгрупповой дисперсий: ^б === ^внгр "т" "межгр- Доказательство. Для упрощения доказательства предположим, что вся совокупность значений количест- количественного признака X разбита на две следующие группы: Группа первая вторая Значение признака . . . хх х2 хх х% Частота тхт% пхп% Объем группы Nx — mx + m% Nt = пх + п3 Групповая средняя . . . хх xt Групповая дисперсия . . D^p ?>2гр Объем своей совокупности п = Nx + Na 2 Далее для удобства записи вместо знака суммы 2 2 пишется знак 2- Например, 2m/= 2'n/ = mi + m« =^г- Следует также иметь в виду, что если под знаком суммы стоит постоянная величина, то ее целесообразно выносить за знак_ суммы. Например, 2m/(*i—х)% = = (хг — х)г Xmi = (^i — *)* ^i- Найдем общую дисперсию: = B mi ixt—xy + 2 ni (x.—m/n. (*) Преобразуем первое слагаемое числителя, вычтя и при- прибавив хг: 2 т, (х{—х)* = 2 Щ [(х, — xj + К—x)f = = 2 "»/(*/ — х1У+2(х1 — хJ'"/(х1— Так как (равенство следует из соотношения ?>1гр=B'п/(*/ и в силу § 7 210
то первое слагаемое принимает вид Аналогично можно представить второе слагаемое чи- числителя (*) (вычтя и прибавив х2): ^nt(xt—x)^NtDm + NM{xa—x)K (***) Подставим (**) и (***) в (*): _ А,бд = (# Лр +NtDtrv)/n + + Wt (хг— *)• + tf, (x,— ж)«)/л = ?>вигр Итак, Пример, иллюстрирующий доказанную теорему, приведен в предыдущем параграфе. Замечание. Теорема имеет не только теоретическое, но и важное практическое значение. Например, если в результате наблю- наблюдений получены несколько групп значении признака, то для вычис- вычисления общей дисперсии можно группы в единую совокупность не объединять. С другой стороны, если совокупность имеет большой объем, то целесообразно разбить ее на несколько трупп. В том и другом случаях непосредственное вычисление сбщей дисперсии заме- заменяется вычислением дисперсий отдельных групп, что облегчает рас- расчеты. § 13. Оценка генеральной дисперсии по исправленной выборочной Пусть из генеральной совокупности в резуль- результате п независимых наблюдений над количественным при- признаком X извлечена повторная выборка объема п: значения признака xt ха ... xk частоты пг пл ... пк При этом пх + п, + ... + лА == п. Требуется по данным выборки оценить (приближенно найти) неизвестную генеральную дисперсию Dr. Если в ка- качестве оценки генеральной дисперсии принять выборочную дисперсию, то эта оценка будет приводить к систематиче- систематическим ошибкам, давая заниженное значение генеральной дисперсии. Объясняется это тем, что, как можно дока- доказать, выборочная дисперсия является смещенной оценкой Dr, другими словами, математическое ожидание выбороч- выборочной дисперсии не равно оцениваемой генеральной дис- 14* 211
персии, а равно Легко «исправить» выборочную дисперсию так, чтобы ее математическое ожидание было равно генеральной дисперсии. Достаточно для этого умножить DB на дробь п/(п—1). Сделав это, получим исправленную дисперсию, которую обычно обозначают через s2: — 1 п п—1 Исправленная дисперсия является, конечно, несме- несмещенной оценкой генеральной дисперсии. Действительно, M Fs'l = Итак, в качестве оценки генеральной дисперсии при- принимают исправленную дисперсию -Cs (л-1). Для оценки же среднего квадратического отклонения генеральной совокупности используют «исправленное» среднее квадратическое отклонение, которое равно квад- квадратному корню из исправленной дисперсии: Подчеркнем, что s не является несмещенной оценкой; чтобы отразить этот факт, мы написали и будем писать далее так: «исправленное» среднее квадратическое откло- отклонение. Замечание. Сравнивая формулы *(**-*в)!1)/'» и s» видим, что они отличаются лишь знаменателями. Очевидно, при достаточно больших значениях п объема выборки выборочная и исправ- исправленная дисперсии различаются мало. На практике пользуются исправ- исправленной дисперсией, если примерно п < 30. 212
§ 14. Точность оценки, доверительная вероятность (надежность). Доверительный интервал Точечной называют оценку, которая определяется одним числом. Все оценки, рассмотренные выше,— точечные. При выборке малого объема точечная оценка может значительно отличаться от оцениваемого параметра, т. е. приводить к грубым ошибкам. По этой причине при небольшом объеме выборки следует пользоваться интер- интервальными оценками. Интервальной называют оценку, которая определяется двумя числами — концами интервала. Интервальные оценки позволяют установить точность и надежность оценок (смысл этих понятий выясняется ниже). Пусть найденная по данным выборки статистическая характеристика в* служит оценкой неизвестного пара- параметра G. Будем считать 0 постоянным числом @ может быть и случайной величиной). Ясно, что 0* тем точнее определяет параметр 0, чем меньше абсолютная величина разности |0—0*|. Другими словами, если б>0 и [0 — 0*| < б, то чем меньше б, тем оценка точнее. Таким образом, положительное число б характеризует точность оценки. Однако статистические методы не позволяют катего- категорически утверждать, что оценка 0* удовлетворяет нера- неравенству J0—0* | < б; можно лишь говорить о вероят- вероятности у, с которой это неравенство осуществляется. Надежностью (доверительной вероятностью) оценки в по 0* называют вероятность у, с которой осуществ- осуществляется неравенство |0 — 0*|<б. Обычно надежность оценки задается наперед, причем в качестве у берут число, близкое к единице. Наиболее часто задают надеж- надежность, равную 0,95; 0,99 и 0,999. Пусть вероятность того, что |0—0*|<6, равна у} Р[\в—в*\<6] = у. Заменив неравенство | 0—0* | < б равносильным ему двой- двойным неравенством — б<0 — 0* < б, или 0* — б < 0 < <0* + б, имеем Р [& — б < 0 < ©• + б] = у. Это соотношение следует понимать так: вероятность того, что интервал @* — б, 0* + б) заключает в себе (покры- (покрывает) неизвестный параметр 0, равна Y- 213
Доверительным называют интервал (в*—6, в*+ 6), который покрывает неизвестный параметр с заданной надежностью Y- Замечание. Интервал (в* — б, 6* + <5) имеет случайные концы (их называют доверительными границами). Действительно, в разных выборках получаются различные значения в*. Следова- Следовательно, от выборки к выборке будут изменяться и концы довери- доверительного интервала, т. е. доверительные границы сами являются случайными величинами—функциями от *», xt хя. Так как случайной величиной является не оцениваемый пара- параметр в, а доверительный интервал, то более правильно говорить не о вероятности попадания О в доверительный интервал, а о вероят- вероятности того, что доверительный интервал покроет в. Метод доверительных интервалов разработал амери- американский статистик Ю. Нейман, исходя из идей англий- английского статистика Р. Фишера. § 15. Доверительные интервалы для оценки математического ожидания нормального распределения при известном о Пусть количественный признак X генеральной совокупности распределен нормально, причем среднее квадратическое отклонение о этого распределения известно. Требуется оценить неизвестное математическое ожидание а по выборочной средней х. Поставим своей задачей найти доверительные интервалы, покрывающие параметр а с надежностью у. Будем рассматривать выборочную среднюю х как слу- случайную величину X (х изменяется от выборки к выборке) и выборочные значения признака хг, хг, ..., хп—как одинаково распределенные независимые случайные вели- величины Xlt X2, ...,Хп (эти числа также изменяются от выборки к выборке). Другими словами, математическое ожидание каждой из этих величин равно а и среднее квадратическое отклонение—о. Примем без доказательства, что если случайная вели- величина X распределена нормально, то выборочная средняя И, найденная по независимым наблюдениям, также рас- распределена нормально. Параметры распределения X таковы (см. гл. VIII, § 9): М (X) = а, а (X) = о1У~п. 214
Потребуем, чтобы выполнялось соотношение Р(\Х — а\ <6) = Т> где у— заданная надежность. Пользуясь формулой (см. гл. XII, § 6) заменив X на X и а на а(Х) = а!\^п, получим Р (| X — а |< б) = 2Ф F Vnfo ) = 2Ф (/), где t =» б ]/"« /с Найдя из последнего равенства б = tafY^n , можем на- написать Р (| X—а | < *о/уТ) = 2Ф (О. Приняв во внимание, что вероятность Р задана и равна у, окончательно имеем (чтобы получить рабочую формулу, выборочную среднюю вновь обозначим через х) P{x — toj\/~n <a <x Смысл полученного соотношения таков: с надежностью у можно утверждать, что доверительный интервал (х—taj^n , x-\-tatyn ) покрывает неизвестный параметр а; точность оценки б = taj^n. Итак, поставленная выше задача полностью решена. Укажем еще, что число t определяется из равенства 2Ф(/) = 7> или Ф@ = У/2; по таблице функции Лапласа (см. приложение 2) находят аргумент t, которому соот- соответствует значение функции Лапласа, равное 7/2. Замечание 1. Оценку \х—в | < (а/ У~п называют классиче- классической. Из формулы 6 = <а/угц, определяющей точность классической оценки, можно сделать следующие выводы: 1) при возрастании объема выборки л число б убывает и, следо- следовательно, точность оценки увеличивается; 2) увеличение надежности оценки у = 2Ф(/) приводит к увеличе- увеличению t (Ф (/) — возрастающая функция), следовательно, и к возраста- возрастанию б; другими словами, увеличение надежности классической оценки влечет за собой уменьшение ее точности. Пример. Случайная величина X имеет нормальное распределение с известным средним квадратическим отклонением о = 3. Найти дове- доверительные интервалы для оценки неизвестного математического ожи- ожидания а по выборочным средним х, если объем выборки л = 36 и задана надежность оценки 7 = 0,95. 215
Решение. Найдем t. Из соотношения 2Ф@ = 0,95 получим Ф(О = 0,475. По таблице приложения 2 находим f=l,96. Найдем точность оценки: б = to/ Уп = A,96 • 3)/ У~36 = 0,98. Доверительный интервал таков: (х— 0,98; ~х + 0,98). Например, если лс = 4,1, то доверительный интервал имеет следующие доверительные границы: 7—0,98 = 4,1—0,98 = 3,12; 7+0,98 = 4,1+0,98 = 5,08. Таким образом, значения неизвестного параметра а, согласую- согласующиеся с данными выборки, удовлетворяют неравенству 3,12 < а < 5,08. Подчеркнем, что было бы ошибочным написать Р C,12 < а < 5,08) = 0,95. Действительно, так как а — постоянная величина, то либо она заклю- заключена в найденном интервале (тогда событие 3,12 < а < 5,08 досто- достоверно и его вероятность равна единице), либо в нем не заключена (в этом случае событие 3,12 < а < 5,08 невозможно и его вероят- вероятность равна нулю). Другими словами, доверительную вероятность не следует связывать с оцениваемым параметром; она связана лишь с границами доверительного интервала, которые, как уже было ука- указано, изменяются от выборки к выборке. Поясним смысл, который имеет заданная надежность. Надеж- Надежность 7 = 0,95 указывает, что если произведено достаточно большое число выборок, то 95% из них определяет такие доверительные интер- интервалы, в которых параметр действительно заключен; лишь в 5% слу- случаев он может выйти за границы доверительного интервала. Замечание 2. Если требуется оценить математическое ожида- ожидание с наперед заданной точностью 6 и надежностью у, то минималь- минимальный объем выборки, который обеспечит эту точность, находят по формуле п — (следствие равенства 6 = ta/ У~п). § 16. Доверительные интервалы для оценки математического ожидания нормального распределения при неизвестном о Пусть количественный признак X генеральной совокупности распределен нормально, причем среднее квадратическое отклонение а неизвестно. Требуется оце- оценить неизвестное математическое ожидание а с помощью доверительных интервалов. Разумеется, невозможно вос- воспользоваться результатами предыдущего параграфа, в ко- котором о предполагалось известным. Оказывается, что по данным выборки можно построить случайную величину (ее возможные значения будем обо- 216
значать через /): ~ Х—а которая имеет распределение Стьюдента с k = n—1 сте- степенями свободы (см. пояснение в конце параграфа); здесь X—выборочная средняя, S—«исправленное» среднее квадратическое отклонение, п—объем выборки. Плотность распределения Стьюдента г„е В = Г(п/2) Мы видим, что распределение Стьюдента определяется параметром п—объемом выборки (или, что то же, чис- числом степеней свободы ft = n—1) и не зависит от неиз- неизвестных параметров а и о; эта особенность является его большим достоинством. Поскольку S(t, n)—четная функ- функция от /, вероятность осуществления неравенства Y определяется так (см. гл. § XI, 2, замечание): > (\ Х-а t \ _, \SIVT 'v Заменив неравенство в круглых скобках равносильным ему двойным неравенством, получим Р (X-tySlVJ < а < X + tySlV^) = у. Итак, пользуясь распределением Стьюдента, мы_нашли доверительный интервал (jc—tysl\/~n, x-\- tyslV^n), по- покрывающий неизвестный параметр а с надежностью у. Здесь случайные величины X к S заменены неслучайными величинами х и s, найденными по выборке. По таблице приложения 3 по заданным пну можно найти ty. Пример. Количественный признак X генеральной совокупности распределен нормально. По выборке объема п = 16 найдены выбороч- выборочная средняя х = 20,2 и «исправленное» среднее квадратическое откло- отклонение s = 0,8. Оценить неизвестное математическое ожидание при помощи доверительного интервала с надежностью 0,95. Решение. Найдем ty. Пользуясь таблицей приложения 3, по Y = 0,95 и /1=16 находим /v=2,13. 217
Найдем доверительные границы: ж— *vs/ VH =20,2 — 2,130,8/ уЧб = 19,774. 7+tys/V~n =20,2 + 2,13 0,8/*Пб = 20.626. Итак, с надежностью 0,95 неизвестный параметр а заключен в доверительном интервале 19,774 < а < 20,626. Замечание. Из предельных соотношений следует, что при неограниченном возрастании объема выборки п распределение Стьюдента стремится к нормальному. Поэтому прак- практически при л > 30 можно вместо распределения Стьюдента пользо- пользоваться нормальным распределением. Однако важно подчеркнуть, что для малых выбо- выборок (л < 30), в особенности для малых значений п, замена распределения нормальным приводит к грубым ошибкам, а именно к неоправданному сужению довери- доверительного интервала, т. е. к повышению точности оценки. Например, если л = 5 и у=0,99, то, пользуясь распре- распределением Стьюдента, найдем /Y = 4,6, а используя функ- функцию Лапласа, найдем *т = 2,58, т. е. доверительный ин- интервал в последнем случае окажется более узким, чем найденный по распределению Стьюдента. То обстоятельство, что распределение Стьюдента при малой выборке дает не вполне определенные результаты (широкий доверительный интервал), вовсе не свидетельст- свидетельствует о слабости метода Стьюдента, а объясняется тем, что малая выборка, разумеется, содержит малую информацию об интересующем нас признаке. Пояснение. Ранее было указано (см. гл. XII, § 14), что если Z—нормальная величина, причем M(Z)~0, a(Z)=l, a V—независимая от Z величина, распределен- распределенная по закону ха с ^ степенями свободы, то величина распределена по закону Стьюдента с k степенями свободы. Пусть количественный признак X генеральной сово- совокупности распределен нормально, причем М(Х) = а, а (X) = а. Если из этой совокупности извлекать выборки объема п и по ним находить выборочные средние, то можно доказать, что выборочная средняя распределена нормально, причем (см. гл. VIII, § 9) 218
Тогда случайная величина также имеет нормальное распределение как линейная функция нормального аргумента Хв (см. гл. XII, § 10, замечание), причем М (Z) — 0, a (Z) — 1. Доказано, что случайные величины Z и ]/ = ((«— l)S2)/a* (**¦) независимы (S2 — исправленная выборочная дисперсия) и что величина V распределена по закону х* с k = n—1 степенями свободы. Следовательно, подставив (**) и (***) в (*), получим величину г = ((*„-«) которая распределена по закону Стьюдента с k = n—1 степенями свободы. § 17. Оценка истинного значения измеряемой величины Пусть производится п независимых равноточных измерений некоторой физической величины, истинное зна- значение а которой неизвестно. Будем рассматривать резуль- результаты отдельных измерений как случайные величины Xlt Хг, .... Х„. Эти величины независимы (измерения независимы), имеют одно и то же математическое ожида- ожидание а (истинное значение измеряемой величины), одина- одинаковые дисперсии <та (измерения равноточны) и распреде- распределены нормально (такое допущение подтверждается опы- опытом). Таким образом, все предположения, которые были сделаны при выводе доверительных интервалов в двух предыдущих параграфах, выполняются, и, следовательно, мы вправе использовать полученные в них формулы. Другими словами, истинное значение измеряемой вели- величины можно оценивать по среднему арифметическому результатов отдельных измерений при помощи довери- доверительных интервалов. Поскольку обычно а неизвестно, следует пользоваться формулами, приведенными в § 16. Пример. По данным девяти независимых равноточных измерений физической величины найдены среднее арифметической результатов 219
отдельных измерений дс = 42,319 и «исправленное» среднее квадрати- ческое отклонение s = 5,0. Требуется оценить истинное значение измеряемой величины с надежностью у = 0,95. Решение. Истинное значение измеряемой величины равно ее математическому ожиданию. Поэтому задача сводится к оценке мате- математического ожидания (при неизвестном о) при помощи доверитель- ного интервала 7— tyS/Vn < а < 7+tyS/V'n, покрывающего а с заданной надежностью у — 0,95. Пользуясь таблицей приложения 3, по у = 0,95 и п = 9 находим /v = 2,31. Найдем точность оценки: t v (si Vn) = 2,31 ¦ E/ VW) = 3,85. Найдем доверительные границы: 7—/Ys/^T = 42,319 — 3,85 = 38,469; J+/Vs//7T =42,319 + 3,85 = 46,169. Итак, с надежностью 0,95 истинное значение измеряемой вели- величины заключено в доверительном интервале 38,469 < а < 46,169. § 18. Доверительные интервалы для оценки среднего квадратического отклонения о нормального распределения Пусть количественный признак X генеральной совокупности распределен нормально. Требуется оценить неизвестное генеральное среднее квадратическое откло- отклонение а по «исправленному» выборочному среднему квад- ратическому отклонению s. Поставим перед собой задачу найти доверительные интервалы, покрывающие параметр а с заданной надежностью y- Потребуем, чтобы выполнялось соотношение Р(\°—s|<S) = v, или P(s — б< <j<s + 6) = v Для того чтобы можно было пользоваться готовой таблицей, преобразуем двойное неравенство s—б < о в равносильное неравенство s(l — 6/s)<o< s(l + 6/s). Положив б/s =* q, получим 220
Остается найти q. С этой целью введем в рассмотрение случайную величину «хи»: x = (S/o)Kn-l, где п—объем выборки. Как было указано [см. § 16, пояснение, соотношение (***)], величина S2{n—1)/о2 распределена по закону х* с п — 1 степенями свободы, поэтому квадратный корень из нее обозначают через %. Плотность распределения х имеет вид (см. пояснение в конце параграфа) #(%¦ и)= . Х" е/„-1\ • (**) Это распределение не зависит от оцениваемого параметра а, а зависит лишь от объема выборки п. Преобразуем неравенство (*) так, чтобы оно приняло вид Xi < х < %г- Вероятность этого неравенства (см. гл. XI, § 2) равна заданной вероятности у, т. е. Хш Предполагая, что q < 1, перепишем неравенство (*) так: a Умножив все члены неравенства HaSV^n—1, получим ИЛИ Вероятность того, что это неравенство, а следовательно, и равносильное ему неравенство (*) будет осуществлено, равна 221
Из этого уравнения можно по заданным я и у найти q. Практически для отыскания q пользуются таблицей при- приложения 4. Вычислив по выборке s и найдя по таблице q, полу- получим искомый доверительный интервал (*), покрывающий а с заданной надежностью у, т. е. интервал s(l — q)<a<s(\ + q). Пример 1. Количественный признак X генеральной совокупности распределен нормально. По выборке объема я = 25 найдено «исправ- «исправленное» среднее квадратическое отклонение s = 0,8- Найти доверитель- доверительный интервал, покрывающий генеральное среднее квадратическое отклонение а с надежностью 0,95. Решен'ие. По таблице приложения 4 по данным у = 0,95 и п — 25 найдем </«=0,32. Искомый доверительный интервал (*) таков: 0,8 A—0,32) < о < 0,8 A +0,32), или 0,544 < о < 1,056. Замечание. Выше предполагалось, что q < I. Если q > 1, то неравенство (*) примет вид (учитывая, что о > 0) 0 < а < s(l-H), или (после преобразований, аналогичных случаю q < 1) Следовательно, значения q > I могут быть найдены из уравнения Практически для отыскания значений q> 1, соответствующих различным заданным пну, пользуются таблицей приложения 4. Пример 2. Количественный признак X генеральной совокупности распределен нормально. По выборке объема я = 10 найдено «исправ- «исправленное» среднее квадратическое отклонение s = 0,16. Найти довери- доверительный интервал, покрывающий генеральное среднее квадратнческое отклонение а с надежностью 0,999. Решение. По таблице приложения 4 по данным 7 = 0,999 и л=10 найдем 9=1,80 (q > 1). Искомый доверительный интервал таков: 0 < а < 0,16A + 1,80), или 0 < а < 0,448. Пояснение. Покажем, что плотность распределе- распределения % имеет вид (**). Если случайная величина X распределена по закону X* с k — n—1 степенями свободы, то ее плотность рас- распределения (см. гл. XII, § 13) 2"* Г [ ъ 222
или после подстановки k = n—1 /<*) = х(п-а)/2 е-х/2 2(л-1)/гр f ?_ Воспользуемся формулой (см. гл. XII, § 10) чтобы найти распределение функции х=Ф (Х)=У~Х (%>0). Отсюда обратная функция = ха и ¦Ф'(Х) = 2Х. Так как % > 0, то | -ф' (х) | = 2х, следовательно, г (х) - П* (х)] • I *'WI - ^ Выполнив элементарные преобразования и изменив обозначения (g(%), заменим на R (%, п)), окончательно получим R (х, л) = § 19. Оценка точности измерений В теории ошибок принято точность измерений (точность прибора) характеризовать с помощью среднего квадратического отклонения а случайных ошибок изме- измерений. Для оценки а используют «исправленного среднее квадратическое отклонение s. Поскольку обычно резуль- результаты измерений взаимно независимы, имеют одно и то же математическое ожидание (истинное значение измеряемой величины) и одинаковую дисперсию (в случае равноточ- равноточных измерений), то теория, изложенная в предыдущем параграфе, применима для оценки точности измерений. Пример. По 15 равноточным измерениям найдено «исправленное» среднее квадратическое отклонение s = 0,12. Найти точность измере- измерений с надежностью 0,99. Решение. Точность измерений характеризуется средним квад- ратическим отклонением о случайных ошибок, поэтому задача сво- сводится к отысканию доверительного интервала (*), покрывающего о с заданной надежностью 0,99 (см. § 18). 223
По таблице приложения 4 по у = 0,99 и л =15 найдем 9 = 0,73. Искомый доверительный интервал 0,12A—0,73)< о < 0,12A+0,73), или 0,03 < о < 0,21. § 20. Оценка вероятности (биномиального распределения) по относительной частоте Пусть производятся независимые испытания с неизвестной вероятностью р появления события А в каждом испытании. Требуется оценить неизвестную вероятность р по относительной частоте, т. е. надо найти ее точечную и интервальную оценки. А. Точечная оценка. В качестве точечной оценки не- неизвестной вероятности р принимают относительную частоту W = т/п, где т—число появлений события А; п—число испыта- испытаний *». Эта оценка несмещенная, т. е. ее математическое ожи- ожидание равно оцениваемой вероятности. Действительно, учитывая, что М(т) = пр (см. гл. VII, § 5), получим М (W) = М [т/п] = М (т)/п = пр/п = р. Найдем дисперсию оценки, приняв во внимание, что D(m) = npq (см. гл. VII, § 6): D (W) = D [т/п] = D (т)/п* = npq/n2 = pq/n. Отсюда среднее квадратическое отклонение. Б. Интервальная оценка. Найдем доверительный ин- интервал для оценки вероятности по относительной частоте. Напомним, что ранее (см. гл. XII, § 6) была выведена формула, позволяющая найти вероятность того, что аб- абсолютная величина отклонения не превысит положитель- положительного числа 6: ¦> Напомним, что случайные величины обозначают прописными, а их возможные значения—строчными буквами. В различных опытах число т появлений события будет изменяться и поэтому является случайной величиной М. Однако, поскольку через М уже обозначено математическое ожидание, мы сохраним для случайного числа появ- появлений события обозначение т. 224
где X— нормальная случайная величина с математи- математическим ожиданием М(Х) = а. Если п достаточно велико и вероятность р не очень близка к нулю и к единице, то можно считать, что от- относительная частота распределена приближенно нор- нормально, причем, как показано в п. А, М (№) = р. Таким образом, заменив в соотношении (*) случайную величину X и ее математическое ожидание а соответ- соответственно случайной величиной W и ее математическим ожиданием р, получим приближенное (так как относи- относительная частота распределена приближенно нормально) равенство (**) Приступим к построению доверительного интервала (Ри Pa)t который с надежностью у покрывает оцениваемый параметр р, для чего используем рассуждения, с помощью которых был построен доверительный интервал в гл. XVI, § 15. Потребуем, чтобы с надежностью у выполнялось соотношение (**): P(\W—р|<6) Заменив ow через ]/pq/n (см. п. А), получим Р (| W—р |< б) = 2Ф (б \Tn\VJq) = 2Ф @ = у, где t — б У"n\Vpq. Отсюда и, следовательно, P(\W—p\<t Vpqjn) = 2Ф (/) = у. Таким образом, с надежностью у выполняется нера- неравенство (чтобы получить рабочую формулу, случайную величину W заменим неслучайной наблюдаемой относи- относительной частотой w и подставим 1—р вместо q): \w—p\<tVp(l—p)/n. Учитывая, что вероятность р неизвестна, решим это неравенство относительно р. Допустим, что wi> р. Тогда w—p <tVp(l—p)/n. 15 — 2730 225
Обе части неравенства положительны; возведя их в квад- квадрат, получим равносильное квадратное неравенство от- относительно р: Дискриминант трехчлена положительный, поэтому его корни действительные и различные: меньший корень больший корень п Г , /* . . -./w(l-w) , ft \*1 / ч Итак, искомый доверительный интервал pt<p < р,, где рг и р, находят по формулам (***) и (****). При выводе мы предположили, что w > p; тот же ре- результат получим при w < р. Прииер. Производят независимые испытания с одинаковой, но неизвестной вероятностью р появления события Л в каждом испыта- испытании. Найти доверительный интервал для оценки вероятности р с на- надежностью 0,95, если в 80 испытаниях событие А появилось 16 раз. Решение. По условию, п = 80, m=16, v = 0.95. Найдем от- относительную частоту появления события А: w = m/n = 16/80 = 0,2. Найдем / из соотношения Ф (/) = у 12 = 0,95/2 =0,475; по таблице функции Лапласа (см. приложение 2) находим / = 1,96. Подставив л = 80, и» = 0,2, / = 1,96 в формулы (***) и (*¦**), получим соответственно рх = 0,128, рг =0,299. Итак, искомый доверительный интервал 0,128 < р < 0,299. Замечание 1. При больших значениях л (порядка сотен) слагаемые t2/Bn) и (//Bл)J очень малы и множитель л/(/г + л) =w 1, поэтому можно принять в качестве приближенных границ довери- доверительного интервала 1 — w)/n и pt=w + t Yu>(\—w)/n. Замечание 2. Чтобы избежать расчетов концов доверитель- доверительных интервалов, можно использовать табл. 28 книги Я н к о Я. Математико-статистические таблицы. М., Госстатиздат, 1961. § 21. Метод моментов для точечной оценки параметров распределения Можно доказать, что начальные и центральные эмпирические моменты являются состоятельными оценками соответственно начальных и центральных теоретических 226
моментов того же порядка. На этом основан метод момен- моментов, предложенный К. Пирсоном. Достоинство метода — сравнительная его простота. Метод моментов точечной оценки неизвестных параметров заданного распределения состоит в приравнивании теоретических моментов рас- рассматриваемого распределения соответствующим эмпириче- эмпирическим моментам того же порядка. А. Оценка одного параметра. Пусть задан вид плот- плотности распределения / (х, 8), определяемой одним неиз- неизвестным параметром 8. Требуется найти точечную оценку параметра 0. Для оценки одного параметра достаточно иметь одноуравнение относительно этого параметра. Следуя методу моментов, приравняем, например, начальный тео- теоретический момент первого порядка начальному эмпири- эмпирическому моменту первого порядка: \1 = М1. Учитывая, что vl^M(X) (см. гл. VIII, § 10), М1 = хв (см. гл. XVII, § 2), получим Математическое ожидание М (X), как видно из соотно- соотношения «в М(Х)= J xf(x; 8)Ле = ф@), — 00 есть функция от 8, поэтому (*) можно рассматривать как уравнение с одним неизвестным 8. Решив это уравнение относительно параметра 8, тем самым найдем его точеч- точечную оценку 8*, которая является функцией от выбороч- выборочной средней, следовательно, и от вариант выборки: Пример 1. Найти методом моментов по выборке лгь xt, .... х„ точечную оценку неизвестного параметра X показательного распреде- распределения, плотность распределения которого f(x) = \e-tje (x^sO). Решение. Приравняем начальный теоретический момент пер- первого порядка начальному эмпирическому моменту первого порядка: Vi = Af1. Учитывая, что v1==Af(X), Л11=хв, получим М (Х)=хв. Приняв во внимание, что математическое ожидание показательного распределения равно 1/Х (см. гл. XIII, § 3), инеем 15* 827
Отсюда Итак, искомая точечная оценка параметра К показательного рас- распределения равна величине, обратной выборочной средней: Б. Оценка двух параметров. Пусть задан вид плотности распределения / (дс; 6г, в,), определяемой неизвестными параметрами 9t и 0,. Для отыскания двух параметров необходимы два уравнения относительно этих параметров. Следуя методу моментов, приравняем, например, началь- начальный теоретический момент первого порядка начальному эмпирическому моменту первого порядка и центральный теоретический момент второго порядка центральному эм- эмпирическому моменту второго порядка: Учитывая, что vx = М (X), щ = D (X) (см. гл. VIII, § 10), М1 = хв, ma = DB (см. гл. XVII, § 2), получим D(X) = DB. I Математическое ожидание и дисперсия есть функции от вх и 8а, поэтому (**) можно рассматривать как систему двух уравнений с двумя неизвестными Bt и 9,. Решив эту систему относительно неизвестных параметров, тем самым получим их точечные оценки 0j и QI. Эти оценки являются функциями от вариант выборки: 0I = ^i(*i. *» хп), Q*t = yt(xlt хг, ..., хп). Пример 2. Найти методом моментов по выборке xit х2, ..., хп точечные оценки неизвестных параметров а и о нормального рас- распределения Решение. Приравняем начальные теоретические и эмпиричес- эмпирические моменты первого порядка, а также центральные и эмпирические моменты второго порядка: Учитывая, что Vi = M(X), щ=О(Х), М1=~хя, mt = DB, получим М(Х) = 7Й, D(X)=DB. 228
Приняв во внимание, что математическое ожидание нормального рас- распределения равно параметру а, дисперсия равна о2 (см. гл. XII, § 2), имеем: а=~хв, oa = DB. Итак, искомые точечные оценки параметров нормального рас- распределения: Замечание 1. Для оценок, неизвестных параметров можно приравнивать не только сами моменты, но и функции от моментов. В частности, этим путем получают состоятельные оценки характе- характеристик распределений, которые являются функциями теоретических моментов. Например, асимметрия теоретического распределения (см. гл. XII, § 9) есть функция от центральных моментов второго и третьего порядков. Заменив эти теоретические моменты соответствующими эмпирическими моментами, получим точечную оценку асимметрии Замечание 2. Учитывая, что Yт2 = V^u = о„, последнюю формулу можно записать в виде As — ma/al. Далее эта оценка будет принята в качестве определения асиммет- асимметрии эмпирического распределения (см. гл. XVII, § 9). § 22. Метод наибольшего правдоподобия Кроме метода моментов, который изложен в пре- предыдущем параграфе, существуют и другие методы точеч- точечной оценки неизвестных параметров распределения. К ним относится метод наибольшего правдоподобия, предложен- предложенный Р. Фишером. А. Дискретные случайные величины. Пусть X—диск- X—дискретная случайная величина, которая в результате п ис- испытаний приняла значения хг, х2, . .., хп. Допустим, что вид закона распределения величины X задан, но неиз- неизвестен параметр 9, которым определяется этот закон. Требуется найти его точечную оценку. Обозначим вероятность того, что в результате испы- испытания величина X примет значение x,(i= 1, 2, ..., п), через Р(*,-; в). Функцией правдоподобия дискретной случайной вели- величины X называют функцию аргумента 6: L(xlt х2, .... хп\ в) = р(х1; 6)р(ха; в) ... р(хп; 9), где хи хг хп—фиксированные числа. 229
В качестве точечной оценки параметра 9 принимают та- такое его значение 9* = 9*(х1, х2, .. ., х„), при котором фун- функция правдоподобия достигает максимума. Оценку в* на- называют оценкой наибольшего правдоподобия. Функции L и lnL достигают максимума при одном и том же значении 9, поэтому вместо отыскания максимума функции L ищут (что удобнее) максимум функции rnL. Логарифмической функцией правдоподобия называют функцию In/,. Как известно, точку максимума функции lnL аргумента 9 можно искать, например, так: ... d\nL 1) найти производную-^5-; 2) приравнять производную нулю и найти критическую точку—корень полученного уравнения (его называют уравнением правдоподобия); 3) найти вторую производную ,Рг ; если вторая производная при 9 = 9* отрицательна, то 9*—точка мак- максимума. Найденную точку максимума 9* принимают в качестве оценки наибольшего правдоподобия параметра 9. Метод наибольшего правдоподобия имеет ряд досто- достоинств: оценки наибольшего правдоподобия, вообще говоря, состоятельны (но они могут быть смещенными), распреде- распределены асимптотически нормально (при больших значениях п приближенно нормальны) и имеют наименьшую дисперсию по сравнению с другими асимптотически нормальными оценками; если для оцениваемого параметра 9 существует эффективная оценка 9*, то уравнение правдоподобия имеет единственное решение 9*; этот метод наиболее полно ис- использует данные выборки об оцениваемом параметре, поэтому он особенно полезен в случае малых выборок. Недостаток метода состоит в том, что он часто требует сложных вычислении. Замечание 1. Функция правдоподобия — функция от аргу- аргумента 6; оценка наибольшего правдоподсбия — функция от независи- независимых аргументов xlt xt, ..., ж„. Замечание 2. Оценка наибольшего правдоподобия не всегда совпадает с оценкой, найденной методом моментов. Пример 1. Найти методом наибольшего правдоподобия оценку параметра X распределения Пуассона где т — число произведенных испытаний, х/—число появлений собы- события в 1-м ('=1, 2, ..., л) опыте (опыт состоит из т испытаний). 230
Решение. Составим функцию правдоподобия, учитывая, что Х: 2; А.) ... р(х„; А,) = е-*- xx\ xt\ ¦¦• х„\ xx\xt\ . . хп\ ' Найдем логарифмическую функцию правдоподобия: Найдем первую производную по к: d\nL 2*' ___„_ „. Напишем уравнение правдоподобия, для чего приравняем пер- первую производную нулю: Найдем критическую точку, для чего решим полученное уравне- уравнение относительно X: Найдем вторую производную по Я,: d*lnL Легко видеть, что при к~хв вторая производная отрицательна; следовательно, Х — хд — точка максимума и, значит, в качестве оценка наибольшого правдоподобия параметра Х_ распределения Пуассона надо принять выборочную среднюю к* = хъ. Пример 2. Найти методом наибольшего правдоподобия оценку параметра р биномиального распределения kkk если в /ii независимых испытаниях событие А появилось ж1 = т1 раз и в л2 независимых испытаниях событие А появилось х2 = тг раз. Решение. Составим функцию правдоподобия, учитывая, что 6=р: Z. = Pn> (mi) Pn% (ma)==C^|»C^tlpm»+m' (I _p)t"l» + '»i)-t'»«+'««>]. Найдем логарифмическую функцию правдоподобия: In L = In (C;C^) + («! + «») In P+ [(«! +л»)-( + ™»)] In A-P). Найдем первую производную по р: d In L dp ~ p l—p Напишем уравнение правдоподобия, для чего приравняем первую производную нулю* __ _0. 231
Найдем критическую точку, для чего решим полученное урав- уравнение относительно р: Найдем вторую производную по р: dp* - p* T~ A-p)* Легко убедиться, что при р = (mx + "ia)/(nx + яа) вторая произ- производная отрицательна; следовательно, P = (mi-\-fn2)/{ni-\-n2)—точка максимума и, значит, ее надо принять в качестве оценки наиболь- наибольшего правдоподобия неизвестной вероятности р биномиального рас- распределения: Б. Непрерывные случайные величины. Пусть X — не- непрерывная случайная величина, которая в ре- результате п испытаний приняла значения хг, х2, ..., хп. Допустим, что вид плотности распределения / (х) задан, но не известен параметр в, которым определяется эта функция. Функцией правдоподобия непрерывной случайной вели- величины X называют функцию аргумента 9: L (х1г х3, ..., хп; 0) = / (Xl; 6) / (xs; в) ... / (х„; 9), где xlt x8, ..., х„—фиксированные числа. Оценку наибольшего правдоподобия неизвестного па- параметра распределения непрерывной случайной величины ищут так же, как в случае дискретной величины. Пример 3. Найти методом наибольшего правдоподобия оценку параметра Я. показательного распределения /(*) = Xe"Ajc @<x<oo), если в результате л испытаний случайная величина X, распределен- распределенная по показательному закону, приняла значения хи х2 хп. Решение. Составим функцию правдоподобия, учитывая, что Q — X: Отсюда Найдем логарифмическую функцию правдоподобия: 1п/. = я1пХ — А. 2^. Найдем первую производную по X: dlnL n 232
Напишем уравнение правдоподобия, для чего приравняем первую производную нулю: Найдем критическую точку, для чего решим полученное уравне- уравнение относительно К: * = п/2 */= 1/( 2 х,/п) = 1/ЗГв. Найдем вторую производную по А.: cPln L п Легко видеть, что при Х= \/хв вторая производная отрицательна; следовательно, X == 1 /лгв — точка максимума и, значит, в качестве оценки наибольшего правдоподобия параметра X показательного рас- распределения надо принять величину, обратную выборочной средней: Замечание. Если плотность распределения /(х) непрерывной случайной величины X определяется двумя неизвестными парамет- параметрами 6Х и 6а, то функция правдоподобия является функцией двух независимых аргументов 8t и 62: L = f(x* вь в2)/(*а; вь в,) ... /(*„; вь е2), где xt, х2, .... х„ — наблюдавшиеся значения X. Далее находят ло- логарифмическую функцию правдоподобия и для отыскания ее макси- максимума составляют и решают систему =0, Пример 4. Найти методом наибольшего правдоподобия оценки параметров а и о нормального распределения е t I * — /J если в результате п испытаний величина X приняла значения *1. Х2 ¦*/»• Решение. Составим функцию правдоподобия, учитывая, что вх = а и 62=а: c -te.-g>'/io' о /2л о /л Отсюда 233
Найдем логарифмическую функцию правдоподобия: Найдем частные производные по а и по о: dlnL a . да a ~*~ ст8 Приравняв частные производные нулю и решив полученную си- систему двух уравнений относительно а и о2, получим: a-2x'/"=I»; °* = B <*'~ *»>*)/n = Db- Итак, искомые оценки наибольшего правдоподобия: а* — хв; а*= YT^l- Заметим, что первая оценка несмещенная, а вторая сме- смещенная. § 23. Другие характеристики вариационного ряда Кроме выборочной средней и выборочной диспер- дисперсии применяются и другие характеристики вариационного ряда. Укажем главные из них. Модой Мо называют варианту, которая имеет наиболь- наибольшую частоту. Например, для ряда варианта . . . . J 4 7 9 частота .... 5 1 20 6 мода равна 7. Медианой те называют варианту, которая делит ва- вариационный ряд на две части, равные по числу вариант. Если число вариант нечетно, т. е. п = 2k+ 1, то те при четном n = 2k медиана Например, для ряда 2 3 5 6 7 медиана равна 5; для ряда 2 3 5 6 7 9 медиана равна E + 6)/2 = 5,5. Размахом варьирования R называют разность между наибольшей и наименьшей вариантами: Например, для ряда 1 3 4 5 6 10 размах равен 10—1 =9. Размах является простейшей характеристикой рассея- рассеяния вариационного ряда. Средним абсолютным отклонением 6 называют среднее арифметическое абсолютных отклонений: 234
Например, имеем: R-4-| ДЛЯ хв ¦ 1—4 ряда */ 1 п, 4 4-1 + 10-3- 4+10 1+10- |3-4 3 10 + 5 + | + 5. 6 5 1 |б- 16 1 5 ¦И 80 20 -н - 4.. - *» 16 — 4 Среднее абсолютное отклонение служит для характерис- характеристики рассеяния вариационного ряда. Коэффициентом вариации V называют выраженное в процентах отношение выборочного среднего квадратичес- кого отклонения к выборочной средней: Коэффициент вариации служит для сравнения величин рассеяния по отношению к выборочной средней двух вариационных рядов: тот из рядов имеет большее рас- рассеяние по отношению к выборочной средней, у которого коэффициент вариации больше. Коэффициент вариации — безразмерная величина, поэтому он пригоден для срав- сравнения рассеяний вариационных рядов, варианты которых имеют различную размерность, например если варианты одного ряда выражены в сантиметрах, а другого—в грам- граммах. Замечание. Выше предполагалось, что вариационный ряд составлен по данным выборки, поэтому все описанные характерис- характеристики называют выборочными; если вариационный ряд составлен по данным генеральной совокупности, то характеристики называют гене- генеральными. Задачи 1. Найти групповые средние совокупности, состоящей из двух групп: первая группа . . . Х{ вторая группа . . . х(- Отв. хг — 0,41; ~xt — 0,23. 2. Найти общую среднюю по данным задачи 1 двумя способами: а) объединить обе группы в одну совокупность; б) использовать най- найденные в задаче 1 групповые средние. Отв. х = 0,29. 235 0.1 3 0,1 10 0,4 2 0,3 4 0,6 5 0,4 6
3. Дано распределение статистической совокупности: ж,- 1 4 5 п{ 6 11 3 Убедиться, что сумма произведений отклонений на соответствующие частоты равна нулю. 4. Дано распределение статистической совокупности: ж, 4 7 10 15 п,- 10 15 20 5 Найти дисперсию совокупности: а) исходя из определения диспер- дисперсии; б) пользуясь формулой D = x2— [ж)8. Отв. О = 9,84. 5. Найти внутригрупповую, межгрупповую и общую дисперсии совокупности, состоящей из трех групп: 1 2 первая группа . . . вторая группа . . . третья группа . . . Отв. ?>внгр = 4,6; Du nt Xi я.- Xi ni >ежг 1 30 1 10 3 20 р=1; в. Найти внутригрупповую, совокупности, состоящей первая группа . . . вторая группа . . . ИЗ xt Х{ гч двух 2 6 2 2 2 8 15 5 6 15 8 5 Д>бщ=5,6. межгрупповую и групп: 7 4 7 8 общую дисперсия Отв. ВНГр межгр; овщ 7. Найти выборочную и исправленную дисперсии вариационного ряда, составленного по данным выборкам: варианта ... 1 2 5 8 9 частота ... 3 4 6 4 3 Отв: о! = 8,4; sa = 8,84. В задачах 8—9 даны среднее квадратическое отклонение, выбо- выборочная средняя и объем выборки нормально распределенного приз- признака. Найти доверительные интервалы для оценки неизвестного мате- математического ожидания с заданной надежностью. 8. о = 2, ж„ = 5,40, я=10, v = 0,95. Отв. 4,16_< а< 6,64. 9. а = 3, жв = 20,12\ я = 25, у = 0,99. Отв. 18,57 < а< 21,67. 10. Найти минимальный объем выборки, при котором с надеж- надежностью 0,95 точность оценки математического ожидания нормально распределенного признака по выборочной средней будет равна 0,2, если среднее квадратическое отклонение равно 2. Указание. См. замечание 2, § 15. Отв. л = 385. В задачах 11—12 даны «исправленное» среднее квадратическое отклонение, выборочная средняя и объем малой выборки нормально распределенного признака. Найти, пользуясь распределением Стью- 236
дейта, доверительные интервалы для оценки неизвестного математи- математического ожидания с заданной надежностью. 11. s= 1,5, *в=16,8, л = 12, у = 0,95. Отв. 15,85 < а < 17,75. 12. s = 2,4, хв=14,2, п = 9, v = 0,99. Отв. 11,512 < а < 16,888. 13. По данным 16 независимых равноточных измерений физичес- физической величины найдены хв = 23,161 и s = 0,400. Требуется оценить истинное значение а измеряемой величины и точность измерений а с надежностью 0,95. Отв. 22,948 < а< 23,374; 0,224 < о < 0,576. 14. Найти доверительный интервал для оценки неизвестной ве- вероятности р биномиального распределения с надежностью 0,95, если в 60 испытаниях событие появилось 18 раз. Отв. 0,200 < р < 0,424. 15. Найти методом моментов точечную оценку эксцесса ?д = = mt/a*—3 теоретического распределения. Отв. eft = m4/oj—3. 16. Найти методом моментов точечные оценки параметров аир гамма-распределения /(*> «*-*»(«> -1. Р>о, Указание. Сделать подстановку у = х/$ и, используя гамма- 00 функцию Г (п)= \ x"-1e-xdx, найти сначала М (Х) = (а+1) р\ о ?)(Х)=(аН-1)ра, а затем приравнять М{Х)=*хл, D(X) = DB. Отв. a* = (xl/DB)— 1; р* = ?>в/хв. 17. Найти методом наибольшего правдоподобия по выборке хи хг, ..., х„ точечную оценку неизвестного параметра Р гамма-рас- гамма-распределения, если параметр а известен. Указание. Использовать плотность гамма-распределения, приведенную в задаче 16. Отв. р*=^в/( Глава семнадцатая МЕТОДЫ РАСЧЕТА СВОДНЫХ ХАРАКТЕРИСТИК ВЫБОРКИ § 1. Условные варианты Предположим, что варианты выборки располо- расположены в возрастающем порядке, т. е. в виде вариацион- вариационного ряда. Равноотстоящими называют варианты, которые обра- образуют арифметическую прогрессию с разностью h. 237
Условными называют варианты, определяемые равен- равенством «/ = (*/—О/А, где С—ложный нуль (новое начало отсчета); Л — шаг, т. е. разность между любыми двумя соседними первона- первоначальными вариантами (новая единица масштаба). Упрощенные методы расчета сводных характеристик выборки основаны на замене первоначальных вариант условными. Покажем, что если вариационный ряд состоит из равно- равноотстоящих вариант с шагом Л, то условные варианты есть целые числа. Действительно, выберем в качестве ложного нуля произвольную варианту, например хт. Тогда "' А А 1~т- Так как i и т—целые числа, то их разность /—т = = и{—также целое число. Замечание 1. В качестве ложного нуля можно принять лю- любую варианту. Максимальная простота вычисления достигается, если выбрать в качестве ложного нуля варианту, которая расположена примерно в середине вариационного ряда (часто такая варианта имеет наибольшую частоту). Замечание 2. Варианте, которая принята в качестве лож- ложного нуля, соответствует условная варианта, равная нулю. Пример. Найти условные варианты статистического распределения: варианты . . . 23,6 28,6 33,6 38,6 43,6 частоты ... 5 20 50 15 10 Решение. Выберем в качестве ложного нуля варианту 33,6 («та варианта расположена в середине вариационного ряда). Найдем шаг: А = 28.6—23,6 = 5. Найдем условную варианту: «! = (*!—Q/A = B3,6—33,6)/5 = —2. Аналогично получим: иа = — 1, и3 = 0, ы4 = ', "в = 2. Мы видим, что условные варианты — небольшие целые числа. Разумеется, опе- оперировать с ними проще, чем с первоначальными вариантами. § 2. Обычные, начальные и центральные эмпирические моменты Для вычисления сводных характеристик выборки удобно пользоваться эмпирическими моментами, опреде- определения которых аналогичны определениям соответствую- 238
щих теоретических моментов (см. гл. VIII, § 10). В от- отличие от теоретических эмпирические моменты вычисляют по данным наблюдений. Обычным эмпирическим моментом порядка k называют среднее значение k-x степеней разностей х,—С: где х,-—наблюдаемая варианта, п/—частота варианты, п = 2п*—объем выборки, С—произвольное постоянное число (ложный нуль). Начальным эмпирическим моментом порядка k назы- называют обычный момент порядка k при C — Q В частности, т. е. начальный эмпирический момент первого порядка равен выборочной средней. Центральным эмпирическим моментом порядка k на- называют обычный момент порядка k при С = хв »**= (Sfr (*,—х~)*)/п. В частности, т. е. центральный эмпирический момент второго порядка равен выборочной дисперсии. Легко выразить центральные моменты через обычные (рекомендуем читателю сделать это самостоятельно): ma = Mi — (M[)\ (*») \ \ '1y — Z(Mr1)t j <***> § 3. Условные эмпирические моменты. Отыскание центральных моментов по условным Вычисление центральных моментов требует до- довольно громоздких вычислений. Чтобы упростить рас- расчеты, заменяют первоначальные варианты условными. Условным эмпирическим моментом порядка k называ- называют начальный момент порядка k, вычисленный для ус- 239
ловных вариант: Mk- В частности, Отсюда Таким образом, для того чтобы найти выборочную сред- среднюю, достаточно вычислить условный момент первого порядка, умножить его на h и к результату прибавить ложный нуль С. Выразим обычные моменты через условные: Отсюда Таким образом, для того чтобы найти обычный момент порядка k, достаточно условный момент того же порядка умножить на Л*. Найдя же обычные моменты, легко найти централь- центральные моменты по равенствам (**) и (***) предыдущего параграфа. В итоге получим удобные для вычислений формулы, выражающие центральные моменты через ус- условные: Y]h\ (**) В частности, в силу (**) и соотношения (*) предыду- предыдущего параграфа получим формулу для вычисления выбо- выборочной дисперсии по условным моментам первого и вто- второго порядков DB = [Ml—(Ml)*]h*. (****) Техника вычислений центральных моментов по услов- условным описана далее. 240
§ 4. Метод произведений для вычисления выборочных средней и дисперсии Метод произведений дает удобный способ вычис- вычисления условных моментов различных порядков вариаци- вариационного ряда с равноотстоящими вариантами. Зная же условные моменты, нетрудно найти интересующие нас начальные и центральные эмпирические моменты. В част- частности, методом произведений удобно вычислять выбороч- выборочную среднюю и выборочную дисперсию. Целесообразно пользоваться расчетной таблицей, которая составляется так: 1) в первый столбец таблицы записывают выборочные (первоначальные) варианты, располагая их в возрастаю- возрастающем порядке; 2) во второй столбец записывают частоты вариант; складывают все частоты и их сумму (объем выборки п) помещают в нижнюю клетку столбца; 3) в третий столбец записывают условные варианты u1 = (x,—C)jh, причем в качестве ложного нуля С выби- выбирают варианту, которая расположена примерно в сере- середине вариационного ряда, и полагают h равным разности между любыми двумя соседними вариантами; практически же третий столбец заполняется так: в клетке строки, содержащей выбранный ложный нуль, пишут 0; в клет- клетках над нулем пишут последовательно —1, —2, —3 и т.д., а под нулем—1, 2, 3 и т.д.; 4) умножают частоты на условные варианты и запи- записывают их произведения щщ в четвертый столбец; сло- сложив все полученные числа, их сумму 2niuf помещают в нижнюю клетку столбца; 5) умножают частоты на квадраты условных вариант и записывают их произведения л,и* в пятый столбец; сложив все полученные числа, их сумму 2"iM* поме- помещают в нижнюю клетку столбца; 6) умножают частоты на квадраты условных вариант, увеличенных каждая на единицу, и записывают произве- произведения п,-(м,•+1 )а в шестой контрольный столбец; сложив все полученные числа, их сумму 2n/ (u/+ 1)а помещают в нижнюю клетку столбца. Замечание 1. Целесообразно отдельно складывать отрица- отрицательные числа четвертого столбца (их сумму Аг записывают в клет- клетку строки, содержащей ложный нуль) и отдельно положительные 16 2730 241
числа (их сумму А2 записывают в предпоследнюю клетку столбца); тогда 'Yn,u/ = ./41-f Л . Замечание 2. При вычислении произведений гцщ пятого столбца целесообразно числа л/м/ четвертого столбца умножать на н/. Замечание 3. Шестой столбец служит для контроля вычис- вычислений: если сумма *5\п((и(+1)а окажется равной сумме 2rtf«\-f -J-2 2n/u/ + n (как и Должно быть в соответствии с тождеством yi{ui + 1)а = 2л'а' + 22Л/"' + ")' то вычисления проведены равильно. После того как расчетная таблица заполнена и про- проверена правильность вычислений, вычисляют условные моменты: Наконец, вычисляют выборочные среднюю и диспер- дисперсию по формулам (*) и (****) § 3: хл=M\h+с, db=[Mi—(м;)*] h\ Пример. Найти методом произведений выборочные среднюю и дисперсию следующего статистического распределения: варианты 10,2 10,4 10,6 10,8 11,0 11,2 11,4 11,6 11,8 12,0 частоты 2 3 8 13 25 20 12 10 6 1 Решение. Составим расчетную таблицу, для чего: 1) запишем варианты в первый столбец; 2) запишем частоты во второй столбец; сумму частот A00) по- поместим в нижнюю клетку столбца; 3) в качестве ложного нуля выберем варианту 11,0 (эта вариан- варианта расположена примерно в середине вариационного ряда); в клетке третьего столбца, которая принадлежит строке, содержащей выбран- выбранный ложный нуль, пишем 0; над нулем записываем последовательно —1, —2, —3, —4, а под нулем — 1, 2, 3, 4, 5; 4) произведения частот на условные варианты записываем в чет- четвертый столбец; отдельно находим сумму (—46) отрицательных и от- отдельно сумму A03) положительных чисел; сложив эти числа, их сумму E7) помещаем в нижнюю клетку столбца; о) произведения частот на квадраты условных вариант запишем в пятый столбец; сумму чисел столбца C83) помещаем в нижнюю клетку столбца; 6) произведения частот на квадраты условных вариант, увели- увеличенных на единицу, запишем в шестой контрольный столбец; сумму E97) чисел столбца помещаем в нижнюю клетку столбца. В итоге получим расчетную табл. 7. Контроль: 2 п/"9< + 22 "/«' +п = 383 + 2-57 + 100 = 597- Вычисления произведены правильно. 242
Таблица 7 1 xi 10,2 10,4 10,6 10,8 11,0 П.2 П.4 П.6 11,8 12,0 2 ni 2 3 8 13 25 20 12 10 6 1 n=100 3 "i —4 —3 —2 1 0 1 2 3 4 5 4 71,11, —8 —9 —16 — 13 Лх=—46 20 24 30 24 5 Л4=103 2 я/И/ = 57 S niuf 32 27 32 13 20 48 90 96 25 2 я,"? = 383 6 18 12 8 0 25 80 108 160 150 36 ]?л;(«Н-1)г=597 Вычислим условные моменты первого и второго порядков: Ml = B п/и/)/я = 57/100 = 0,57; Л*г = B л/ы*)/л = 383/100 = 3,83. Найдем шаг: h = 10,4— 10,2 = 0,2. Вычислим искомые выборочные среднюю и дисперсию: xB=Mlh+C = 0,57-0,2 + П, 0=11,1; Ов = [Л^-(М1)8]Ла = [3,83-@,57)Ч. 0,2» = 0,14. § 5. Сведение первоначальных вариант к равноотстоящим Выше изложена методика расчета выборочных характеристик для равноотстоящих вариант. На прак- практике, как правило, данные наблюдений не являются рав- 16* 343
ноотстоящими числами. Естественно, возникает вопрос: нельзя ли соответствующей обработкой наблюдаемых значений признака свести вычисления к случаю равноот- равноотстоящих вариант? Оказывается, можно. С этой целью интервал, в котором заключены все наблюдаемые значе- значения признака (первоначальные варианты), делят на не- несколько равных частичных интервалов. (Практически в каждый частичный интервал должно попасть не менее 8—10 первоначальных вариант.) Затем находят середины частичных интервалов, которые и образуют последователь- последовательность равноотстоящих вариант. В качестве частоты каждой «новой» варианты (середины частичного интервала) принимают общее число первона- первоначальных вариант, попавших в соответствующий частичный интервал. Ясно, что замена первоначальных вариант серединами частичных интервалов сопровождается ошибками (перво- (первоначальные варианты левой половины частичного интер- интервала будут увеличены, а варианты правой половины уменьшены), однако эти ошибки будут в основном пога- погашаться, поскольку они имеют разные знаки. Пример. Выборочная совокупность объема п= 100 задана табл. 8. Составить распределение равноотстоящих вариант. Решение. Разобьем интервал 1,00—1,50, например, на сле- следующие 5 частичных интервалов. 1,00—1,10; 1,10—1,20; 1,20—1,30; 1,30—1,40; 1,40—1,50. Таблица 8 1,00 ,03 ,05 ,06 1,08 1,10 1,12 1,15 1.16 "t 1 3 6 4 2 4 3 6 5 1,19 1,20 1,23 1.25 1,26 1,29 1,30 1,32 1.33 "i 2 4 4 8 4 4 6 4 5 *i 1,37 ,38 1,39 1,40 1,44 1.45 1.46 1,49 1,50 6 2 1 2 3 3 2 4 2 Приняв середины частичных интервалов, в качестве новых вариант щ, получим равноотстоящие варианты: 01=1,05; уг=\,\Ъ; jrs = l,25; ft =1,35; у4=1,45. 244
Найдем частоту варианты уг- = 18 (Поскольку первоначальная варианта 1,10 Одновременно является концом первого частичного интервала и началом второго, частота 4 этой варианты поровну распределена между обоими частичными ин- интервалами ) Найдем частоту варианты у2' па = 4/2 + 3 + 6 + 5 + 2 + 4/2 = 20. Аналогично вычислим частоты остальных вариант: «8 = 25; я« = 22; я6=15. В итоге получим следующее распределение равноотстоящих ва- вариант: У1 1,05 1,15 1,25 1,35 1,45 я,- 18 20 25 22 15 Рекомендуем читателю убедиться, что выборочные средние и дис- дисперсии, вычисленные по первоначальным и равноотстоящим вариан- вариантам, окажутся соответственно равными. хв = 1,250, ув=1,246; Dx = 0,018; Dv = 0,017. Как видим, замена первоначальных вариант равноотстоящими не при- привела к существенным ошибкам; при этом объем вычислительной работы значительно уменьшается. § 6. Эмпирические и выравнивающие (теоретические) частоты А. Дискретное распределение. Рассмотрим дис- дискретную случайную величину X, закон распределения которой неизвестен. Пусть гГроизведено п испытаний, в которых величина X приняла пг раз значение х„ nt раз значение х2, ..., пк раз значение хк, причем 2^n, = n. Эмпирическими частотами называют фактически на- наблюдаемые частоты п,. Пусть имеются основания предположить, что изуча- изучаемая величина X распределена по некоторому определен- определенному закону. Чтобы проверить, согласуется ли это пред; положение с данными наблюдений, вычисляют частоты наблюдаемых значений, т. е. находят теоретически частоту n't каждого из наблюдаемых значений в предпо- предположении, что величина X распределена по предполагае- предполагаемому закону. Выравнивающими (теоретическими) в отличие от фак- фактически наблюдаемых эмпирических частот называют частоты п\, найденные теоретически (вычислением). Вы- 245
равнивающие частоты находят с помощью равенства где п—число испытаний; Р{—вероятность наблюдаемого значения х{, вычисленная при допущении, что X имеет предполагаемое распределение. Итак, выравнивающая частота наблюдаемого значения X/ дискретного распределения равна произведению числа испытаний на вероятность этого наблюдаемого значения. Пример. В результате эксперимента, состоящего из п = 520 испы- испытании, в каждом из которых регистрировалось число х/ появлений некоторого события, получено следующее эмпирическое распределение: набл. значения . . X/ О 1 2 34567 эмп. частота . . гц 120 167 130 69 27 5 1 1 Найти выравнивающие частоты п\ в предположении, что случайная величина X (генеральная совокупность) распределена по закону Пуассона. Решение. Известно, что параметр А,, которым определяется распределение Пуассона, равен математическому ожиданию этого распределения. Поскольку в качестве оценки математического ожи- ожидания принимают выборочную среднюю (см. гл. XVI, § 5), то и в качестве оценки Я можно принять выборочную среднюю Зсв. Легко найти по условию, что выборочная средняя равна 1,5, следовательно, можно принять X =1,5. Таким образом, формула Пуассона принимает вид Рмо(*>-О.6»-е Пользуясь этой формулой, найдем вероятности Pb2o(k) при Д = 0, 1, 2, 3, 4, 5, 6, 7 (для простоты записи индекс 520 далее опущен): Р@) = 0,22313, РA) = 0.33469, Р B) = 0,251021, РC) = 0,125511, Р D) = 0,047066, Р E) = 0,014120, Р F) = 0,003530, Р G) = 0,000755. Найдем выравнивающие частоты (результаты умножения округ- округлены до единицы): п[ = пР@) = 520- 0,22313 =116, п» = пР A) = 5200,33469 = 174. Аналогично находят и остальные выравнивающие частоты. В ито- итоге получим: эмп. частота . . 123 167 130 69 27 5 1 I выр. частота . . 116 174 131 65 25 7 2 0 Сравнительно небольшое расхождение эмпирических и выравни- выравнивающих частот подтверждает предположение, что рассматриваемое распределение подчинено закону Пуассона. Заметим, что если подсчитать выборочную дисперсию по данному распределению, то окажется, что она равна выборочной средней, т.е. 1,5. Это служит еще одним подтверждением сделанного предпо- предположения, поскольку для распределения Пуассона \ = М (X) = D (X). 246
Сравнения эмпирических и теоретических частот «на глаз», ко- конечно, недостаточно. Чтобы сделать это более обоснованно, надо использовать, например, критерий Пирсона (см. гл. XIX, § 23). Проверка гипотезы о распределении случайной величины по закону Пуассона изложена в книге: Гмурман В. Е. Руководство к реше- решению задач по теории вероятностей и математической статистике. М., «Высшая школа», 1972 (см. гл. XIII, § 17). Б. Непрерывное распределение. В случае непрерывного распределения, вероятности отдельных возможных значе- значений равны нулю (см. гл, X, § 2, следствие 2). Поэтому весь интервал возможных значений делят на k непересе- непересекающихся интервалов и вычисляют вероятности Я,- попа- попадания X в 1-й частичный интервал, а затем, как и для дискретного распределения, умножают число испытаний на эти вероятности. Итак, выравнивающие частоты непрерыв- непрерывного распределения находят по равенству п',=пР„ где п—число испытаний; Pt — вероятность попадания X в 1-й частичный интервал, вычисленная при допущении, что X имеет предполагаемое распределение. В частности, если имеются основания предположить, что случайная величина X (генеральная совокупность) распределена нормально, то выравнивающие частоты могут быть найдены по формуле ni = ~ где п—число испытаний (объем выборки), h—длина час- частичного интервала, <тв — выборочное среднее квадрати- ческое отклонение, ы/ = (х,— хв)/ав (х{—середина t-ro частичного интервала), Пример на применение формулы (*) приведен в § 7. Пояснение. Поясним происхождение формулы (*). Напишем плотность общего нормального распределения: -J=-e< 247
При а = 0 и а=1 получим плотность нормированного распределения: или, изменив обозначение аргумента, ф(")е""'/2 Положив и = (х—а)/о, имеем Сравнивая (**) и (***), заключаем, что Если математическое ожидание а и среднее квадрати- ческое отклонение а неизвестны, то в качестве оценок этих параметров принимают соответственно выборочную среднюю хв и выборочное среднее квадратическое откло- отклонение ав (см. гл. XVI, § 5,9). Тогда где и = (х—хв)/ав. Пусть х,—середина i-ro интервала (на которые раз- разбита совокупность всех наблюдаемых значений нормально распределенной случайной величины X) длиной h. Тогда вероятность попадания X в этот интервал приближенно равна произведению длины интервала на значение плот- плотности распределения f (x) в любой точке интервала и, в частности, при х = х? (см. гл. XI, § 5): Следовательно, выравнивающая частота п, =пР, = —ф(и/), где Ui = (x(—хв)/ал. Мы получили формулу (*). 248
§ 7. Построение нормальной кривой по опытным данным Один из способов построения нормальной кривой по данным наблюдений состоит в следующем: 1) находят хв и ав, например, по методу произведений; 2) находят ординаты у{ (выравнивающие частоты) теоретической кривой по формуле #,= ф(и,), где п — сумма наблюдаемых частот, h — разность между двумя соседними вариантами: ы,- = (л:,-—хв)/ов и q>(u)=* ) (/ 3) строят точки (xit у() в прямоугольной системе ко- координат и соединяют их плавной кривой. Близость выравнивающих частот к наблюдаемым под- подтверждает правильность допущения о том, что обследуе- обследуемый признак распределен нормально. Пример. Построить нормальную кривую по данному распределе- распределению: варианты ... дг/ 15 20 25 30 35 40 45 50 55 частоты . . . п,- 6 13 38 74 106 85 30 10 4 Решение. Пользуясь методом произведений (см. § 4), найдем *в = 34,7, 0В = 7,38. Вычислим выравнивающие частоты (табл. 9). Таблица 9 15 20 25 30 35 40 45 50 55 6 13 38 74 106 85 30 10 4 п=366 — 19,7 -14,7 —9,7 -4,7 0,3 5,3 10,3 15,3 20,3 , Х1-Хв 1 а °в -2,67 —1,99 —1,31 —0,63 0,05 0,73 1.41 2,09 2,77 0,0113 0,0551 0,1691 0,3271 0,3984 0,3056 0,1476 0,0449 0,0086 3 14 42 82 99 76 37 11 2 2 У/= 366 249
На рис. 22 построены нормальная (теоретическая) кривая по выравнивающим частотам (они отмечены круж- кружками) и полигон наблюдаемых частот (они отмечены крестиками). Сравнение Y{ графиков наглядно по- показывает, что построен- построенная теоретическая кри- кривая удовлетворительно отражает данные на- наблюдений. Для того чтобы бо- более уверенно считать, что данные наблюдении свидетельствуют о нор- нормальном распределении « Ц го зо to so 60 х' признака, пользуются Рис 22 специальными правила- правилами (их называют кри- критериями согласия), понятие о которых можно найти далее (см. гл. XIX, § 23). 400 во 60 20 § 8, Оценка отклонения эмпирического распределения от нормального. Асимметрия и эксцесс Для оценки отклонения эмпирического распре- распределения от нормального используют различные характе- характеристики, к числу которых относятся асимметрия и эксцесс. Смысл этих характеристик аналогичен смыслу асимметрии и эксцесса теоретического распределения (см. гл. XII, §9). Асимметрия эмпирического распределения определяется равенством /l где пгя—центральный эмпирический момент третьего порядка (см. § 2). Эксцесс эмпирического распределения определяется ра- равенством —3, где mt—центральный эмпирический момент четвертого порядка. Моменты т8 и mt удобно вычислять методом произ- произведений (см. § 4), используя формулы (***) § 3. 250
Пример. Найти асимметрию и эксцесс эмпирического распреде- распределения: варианта 10,2 10,4 10,6 10,8 11,0 11,2 11,4 11,6 11,8 12,0 частота 2 3 8 13 25 20 12 10 6 1 Решение. Воспользуемся методом произведений, для чего со- составим расчетную табл. 10. Поскольку в § 4 указано, как заполня- заполняются столбцы 1—5 таблицы, ограничимся краткими пояснениями: для заполнения столбца 6 удобно перемножать числа каждой строки столбцов 3 и 5; для заполнения столбца 7 удобно перемножать числа каждой строки столбцов 3 и 6. Столбец 8 служит для контроля вычислений по тождеству: Контроль: 2 «/(«/ 21|"^-г- 2 = 4079 + 4-609 + 6-383 + 4.57 +100 = 9141. Таблица 10 1 */ 10,2 10,4 10,6 10,8 11,0 11,2 11,4 11,6 11,8 12,0 2 "/ 2 3 8 13 25 20 12 10 6 1 п = = 100 3 "/ —4 —3 —2 —1 0 1 2 3 4 5 4 «Л —8 —9 —16 —13 -46 20 24 30 24 5 103 2 Л|«/ = =57 s n.uf 32 27 32 13 20 48 90 96 25 2 niut= =383 6 ntf —128 —81 —64 —13 —286 20 96 270 384 125 895 2«i«? = =609 7 ","? 512 243 128 13 20 192 810 1536 625 2 n,«f = =4079 8 162 48 8 — 25 320 972 2560 3750 1296 2«i(«/ + +1)«=9141 251
Совпадение сумм свидетельствует о том, что вычисления произведены правильно. В примере § 4 для рассматриваемого распределения было най- найдено: Alt = 0,57; AJj = 3,83; DB = 0,14, следовательно, о„= У 0,14. Найдем условные моменты третьего и четвертого порядка: Ml = B n.uf)/л = 609/100 = 6,09; М\ = (? п,«?)/п=4079/100 = 40,79. Найдем центральные эмпирические моменты третьего и четвер- четвертого порядка: тя = [Ml—Ш1МI + 2 (AftK] ft* = = [6,09—30,57-3,83 + 2.@,57K]-0,23= — 0,0007; mt = [Ml—4M\Ml + G(Ml)* Ml—3(Aft)*]/i« = = [40,79—4.0,57-6,09 + 6 @,57J-3,83—З.@,57)*]0,2* = 0,054. Найдем асимметрию и эксцесс: а3 = тя/о1 = (—0,0007)/( Уа~п)* = —0,01; е*= mjot— 3 = @,054/(^1O14) * —3= —0,24. Замечание. В случае малых выборок к оценкам асимметрии и эксцесса следует относиться с осторожностью и определить точ- точность этих оценок (см.: Смирнов Н. В. иДунин-Барков- с к и й И. В. Курс теории вероятностей и математической статистики. М., «Наука», 1965, с. 277). Задачи В задачах 1 —2 даны выборочные варианты и их частоты. Найти, пользуясь методом произведений, выборочные среднюю и дисперсию. 1. х/ 10,3 10,5 10,7 10,9 11,1 11,3 11,5 11,7 11,9 12,1 п( 4 7 8 10 25 15 12 10 4 5 Отв. жв=11,19, DB = 0,19. 2. х( 83 85 87 89 91 93 95 97 99 101 л/ 6 7 12 15 30 10 8 6 4 2 Отв. Жв = 90,72, ?>в=17,20. S. Найти асимметрию и эксцесс эмпирического распределения */ 10,6 10,8 11,0 11,2 11,4 11,6 11,8 п/ 5 10 17 30 20 12 6 Отв. а, = —0,0006, eh — 0,00004. 262
Глава восемнадцатая ЭЛЕМЕНТЫ ТЕОРИИ КОРРЕЛЯЦИИ § 1. Функциональная, статистическая и корреляционная зависимости Во многих задачах требуется установить и оце- оценить зависимость изучаемой случайной величины Y от одной или нескольких других величин. Рассмотрим сначала зависимость Y от одной случайной (или неслучайной) величины X, а затем от нескольких величин (см. § 15). Две случайные величины могут быть связаны либо функциональной зависимостью (см. гл. XII, § 10), либо зависимостью другого рода, называемой "статистической, либо быть независимыми. Строгая функциональная зависимость реализуется ред- редко, так как обе величины или одна из них подвержены еще действию случайных факторов, причем среди них могут быть и общие для обеих величин (под «общими» здесь подразумеваются такие факторы, которые воздействуют и на К и на X). В этом случае возникает статистическая зависимость. Например, если Y зависит от случайных факторов Zlt Z*> Vi> ^2> a X зависит от случайных факторов Zx, Za, V,, то между Y и X имеется статистическая зависимость, так как среди случайных факторов есть общие, а имен- именно: Zx и Z2. Статистической называют зависимость, при которой изменение одной из величин влечет изменение распреде- распределения другой. В частности, статистическая зависимость проявляется в том, что при изменении одной из величин изменяется среднее значение другой; в этом случае ста- статистическую зависимость называют корреляционной. Приведем пример случайной величины Y, которая не связана с величиной X функционально, а связана кор- корреляционно. Пусть Y — урожай зерна, X — количество удобрений. С одинаковых по площади участков земли при равных количествах внесенных удобрений снимают различный урожай, т. е. Y не является функцией от X. Это объясняется влиянием случайных факторов (осадки, температура воздуха и др.). Вместе с тем, как показы- показывает опыт, средний урожай является функцией от количе- количества удобрений, т. е. Y связан с X корреляционной зависи- зависимостью. 253
§ 2. Условные средние В качестве оценок условных математических ожиданий (см. гл. XIV, § 15) принимают условные сред- средние, которые находят по данным наблюдений (по выборке). Условным средним #х называют среднее арифметиче- арифметическое наблюдавшихся значений Y, соответствующих X = х. Например, если при jc1 = 2 величина Y приняла значе- значения t/x = 5, t/2 = 6, t/s=10, то условное среднее ух =* = E + 6+10)/3 = 7. Аналогично определяется условное среднее ху. Условным средним ху называют среднее арифметическое наблюдавшихся значений X, соответствующих У—у. § 3. Выборочные уравнения регрессии В гл. XIV, § 15 были введены уравнения регрес- регрессии Y на X и X на Y: Условное математическое ожидание М (Y | х) является функцией от х, следовательно, его оценка, т. е. услов- условное среднее ух, также функция от х; обозначив эту функ- функцию через f*(x), получим уравнение Это уравнение называют выборочным уравнением регрес- регрессии Y на X; функцию f*(x) называют выборочной регрес- регрессией Y на X, а ее график—выборочной линией регрес- регрессии Y на X. Аналогично уравнение называют выборочным уравнением регрессии X на Y; функ- функцию <р* (у) называют выборочной регрессией X на Y, а ее график—выборочной линией регрессии X на Y. Как найти по данным наблюдений параметры функ- функций f*(x) и ф*(у), если вид их известен? Как оценить силу (тесноту) связи между величинами ХиКи устано- установить, коррелированы ли эти величины? Ответы на эти вопросы изложены ниже. 254
§ 4. Отыскание параметров выборочного уравнения прямой линии среднеквадратичной регрессии по несгруппированным данным Пусть изучается система количественных приз- признаков (X, Y). В результате п независимых опытов полу- получены п пар чисел {xlt t/x), (xt yt), ..., (х„, у„). Найдем по данным наблюдений выборочное уравнение прямой линии среднеквадратичной регрессии (см. гл. XIV, § 20). Для определенности будем искать уравнение регрессии Y на X. Поскольку различные значения х признака X и соот- соответствующие им значения у признака Y наблюдались по одному разу, то группировать данные нет необходи- необходимости. Также нет надобности использовать понятие услов- условной средней, поэтому искомое уравнение можно записать так: Угловой коэффициент прямой линии регрессии У на X называют выборочным коэффициентом регрессии К на X и обозначают через pvx; он является оценкой коэффици- коэффициента регрессии р (см. гл. XIV, § 20). Итак, будем искать выборочное уравнение прямой линии регрессии У на X вида Подберем параметры рух и Ь так, чтобы точки (xt> Hi) (xt; y2), ¦ ••• (•*„'» У„), построенные по данным наб- наблюдений, на плоскости хОу лежали как можно ближе к прямой (*). Уточним смысл этого требования. Назовем отклонением разность Yt-yt (t=l. 2, ...,n), где У,—вычисленная по уравнению (*) ордината, соответ- соответствующая наблюдаемому значению х(; у(—наблюдаемая ордината, соответствующая xt. Подберем параметры руХ и Ь так, чтобы сумма квад- квадратов отклонений была минимальной (в этом состоит сущность метода наименьших квадратов). Так как каж- каждое отклонение зависит от отыскиваемых параметров, то и сумма квадратов отклонений есть функция F этих 255
параметров (временно вместо рух будем писать р): или 2 Для отыскания минимума приравняем нулю соответству- соответствующие частные производные: §? = 2 2 (р*,-+ &-«/,•) = 0. i 1 Выполнив элементарные преобразования, получим си- систему двух линейных уравнений относительно р и &*>: B*2)р+B*)&=2^; B*)р+^=2#- (**> Решив эту систему, найдем искомые параметры: Аналогично можно найти выборочное уравнение пря- прямой линии регрессии X на Y: Ху = где рху—выборочный коэффициент регрессии X на Y. Пример. Найти выборочное уравнение прямой линии регрессии У на X по данным я = 5 наблюдений: х 1,00 1,50 3,00 4,50 5,00 у 1,25 1,40 1,50 1,75 2,25 Решение. Составим расчетную табл. 11. Найдем искомые параметры, для чего подставим вычисленные по таблице суммы в соотношения (***): = E-26,975—15-8,15)/E-57,5— 15а) = 0,202; 6 = E7,5.8,15—15-26,975)/62,5= 1,024. •' Для простоты записи вместо 2 условимся писать 2 • 256
Таблица 11 xi 1,00 1,50 3,00 4,50 5,00 У{ 1,25 1,40 1,50 1,75 2,25 *? 1,00 2,25 9,00 20,25 25,00 24 = 57,50 xi»t 1,250 2,100 4,500 7,875 11,250 2 ^i =26,975 Напишем искомое уравнение регрессии: Y = 0,202x4-1,024. Для того чтобы получить представление, насколько хорошо вы- вычисленные по этому уравнению значения К,- согласуются с наблюдае- наблюдаемыми значениями у/, найдем отклонения К,-—{/,-. Результаты вычис- вычислений приведены в табл. 12. Таблица 12 *t 1,00 1,50 3,00 4,50 5,00 1,226 1,327 1,630 1,933 2,034 1,25 1,40 1,50 1,75 2,25 —0,024 —0,073 0,130 0,183 —0,216 Как видно из таблицы, не все отклонения достаточно малы. Это объясняется малым числом наблюдений. § 5. Корреляционная таблица При большом числе наблюдений одно и то же значение х может встретиться пх раз, одно и то же зна- значение у—пу раз, одна и та же пара чисел (х, у) может наблюдаться пху раз. Поэтому данные наблюдений груп- группируют, т. е. подсчитывают частоты сгруппированные данные записывают которую называют корреляционной. 17 -2730 , Пу, виде Все таблицы, 257
Поясним устройство корреляционной таблицы на при- примере табл. 13. Таблица 13 У 0.4 0,6 0.8 пх X 10 5 — 3 8 20 2 19 21 30 7 6 —— 13 40 14 4 _ 18 26 12 22 л = 60 В первой строке таблицы указаны наблюдаемые зна- значения A0; 20; 30; 40) признака X, а в первом столбце — наблюдаемые значения @,4; 0,6; 0,8) признака Y. На пе- пересечении строк и столбцов находятся частоты пХу наблю- наблюдаемых пар значений признаков. Например, частота 5 указывает, что пара чисел A0; 0,4) наблюдалась 5 раз. Все частоты помещены в прямоугольнике, стороны кото- которого проведены жирными отрезками. Черточка означает, что соответственная пара чисел, например B0; 0,4), не наблюдалась. В последнем столбце записаны суммы частот строк. Например, сумма частот первой строки «жирного» прямо- прямоугольника равна nv = 54-7-f ,14 = 26; это число указы- указывает, что значение признака К, равное 0,4 (в сочетании с различными значениями признака X), наблюдалось 26 раз. В последней строке записаны суммы частот столбцов. Например, число 8 указывает, что значение признака X, равное 10 (в сочетании с различными значениями при- признака V), наблюдалось 8 раз. В клетке, расположенной в нижнем правом углу таблицы, помещена сумма всех частот (общее число всех наблюдений п). Очевидно, 2n* = 2nv~rt- В нашем при- примере 60 и 2^=26+124-22=60. 258
§ 6. Отыскание параметров выборочного уравнения прямой линии регрессии по сгруппированным данным В § 4 для определения параметров уравнения прямой линии регрессии Y на X была получена система уравнений <2*2)P+B*)*-2*</ \ Предполагалось, что значения X и соответствующие им значения У наблюдались по одному разу. Теперь же допустим, что получено большое число данных (практи- (практически для удовлетворительной оценки искомых парамет- параметров должно быть хотя бы 50 наблюдений), среди них есть повторяющиеся, и они сгруппированы в виде корреля- корреляционной таблицы. Запишем систему (*) так, чтобы она отражала данные корреляционной таблицы. Восполь- Воспользуемся тождествами: 2 х = пх (следствие из ~х = 2 Х1п)'< 2 У = "У (следствие из ~у = 2 У1п)\ 2*2 = «*а (следствие из ха = 2 2 ХУ ~ 2 n*v ХУ (учтено, что пара чисел (х, у) наблюда- наблюдалась пху раз). Подставив правые части тождеств в систему (*) и со- сократив обе части второго уравнения на л, получим Решив эту систему, найдем параметры руХ и Ь и, следо- следовательно, искомое уравнение Однако более целесообразно, введя новую величину — выборочный коэффициент корреляции, написать уравне- уравнение регрессии в ином виде. Сделаем это. Найдем b из второго уравнения (**): Ь = у—рухх. п* 259
Подставив правую часть этого равенства в уравнение Ух = Рухх + Ь, получим Ух—У = Ри* (*—*)• (***) Найдем ** из системы (*) коэффициент регрессии, учи- учитывая, что х3 — (х)г = ох (см. гл. XVI, § 10): Умножим обе части равенства на дробь ox/ayi Обозначим правую часть равенства через гв и назовем ее выборочным коэффициентом корреляции (см. замечание 3): в похоу Подставим гв в (****): Отсюда v Подставив правую часть этого равенства в (***), оконча- окончательно получим выборочное уравнение прямой линии регрессии У на X вида Ух—У =* г»—{*—*)• Ох Замечание 1. Аналогично находят выборочное уравнение прямой линии регрессии X на V вида *у—~х = га%?{у—у), где rBax/Oy=pxv. •' В этой* главе выборочное среднее квадратическое отклонение обозначено через а; например, ах — выборочное среднее квадратиче- квадратическое отклонение X. 260
Замечание 2. Уравнения выборочных пряных регрессии можно записать в более симметричной форме: Замечание 3. Выборочный коэффициент корреляции является оценкой коэффициента корреляции г= Уху =М (XY) -М(Х)-М (Y) ахоу axav Действительно, используя метод моментов (см. гл. XVI, § 21), т. е. заменив числовые характеристики их оценками, получим —~ху 2 п*У*У ~~ п*у~ § 7. Выборочный коэффициент корреляции Как следует из предыдущего параграфа, выбо- выборочный коэффициент корреляции определяется равенством noxav где х, у—варианты (наблюдавшиеся значения) признаков X и Y; пху—частота пары вариант (х, у); п—объем выборки (сумма всех частот); ах, оу—выборочные средние квадратические отклонения; х, у—выборочные средние. Известно, что если величины Y и X независимы, то коэффициент корреляции г=0 (см. гл. XIV, § 17); если /=d=l,TO Y и X связаны линейной функциональной зависимостью (см. гл. XIV, § 20). Отсюда следует, что коэффициент корреляции г измеряет силу (тесноту) л и- нейной связи между Y и X. Выборочный коэффициент корреляции гв является оценкой коэффициента корреляции г генеральной сово- совокупности и поэтому также служит для измерения линей- линейной связи между величинами—количественными призна- признаками У и X. Допустим, что выборочный коэффициент корреляции, найденный по выборке, оказался отличным от нуля. Так как выборка отобрана случайно, то отсюда еще нельзя заключить, что коэффициент корреляции ге- генеральной совокупности также отличен от нуля. Возни- Возникает необходимость проверить гипотезу о значимости (существенности) выборочного коэффициента корреляции 261
(или, что то же, о равенстве нулю коэффициента корре- корреляции генеральной совокупности). Если гипотеза о равен- равенстве нулю генерального коэффициента корреляции будет отвергнута, то выборочный коэффициент корреляции зна- значим, а величины X и Y коррелированы; если гипотеза принята, то выборочный коэффициент корреляции незна- незначим, а величины X и У не коррелированы. Проверка гипотезы о значимости выборочного коэф- коэффициента корреляции для случая нормальной корреляции изложена далее (см. гл. XIX, § 21). Если выборка имеет достаточно большой объем и хорошо представляет генеральную совокупность (репре- (репрезентативна), то заключение о тесноте линейной зависимо- зависимости между признаками, полученное по данным выборки, в известной степени может быть распространено и на генеральную совокупность. Например, для оценки коэф- коэффициента корреляции гг нормально распределенной гене- генеральной совокупности (при п^50) можно воспользо- воспользоваться формулой Замечание 1. Знак выборочного коэффициента корреляции совпадает со знаком выборочных коэффициентов регрессии,> что сле- следует из формул (см. § 6): Замечание 2. Выборочный коэффициент корреляции равен среднему геометрическому выборочных коэффициентов регрессии. Действительно, перемножив левые и правые части равенств (*), получим Отсюда Знак при радикале в соответствии с замечанием 1 должен совпадать со знаком коэффициентов регрессии. § 8. Методика вычисления выборочного коэффициента корреляции Пусть требуется по данным корреляционной таблицы вычислить выборочный коэффициент корреляции. Можно значительно упростить расчет, если перейти к 262
условным вариантам (при этом величина гв не изменится) «/ = (*/—Ci)/*i и Vj<={yj—Ct)lht. В этом случае выборочный коэффициент корреляции вы- вычисляют по формуле J bJ= B nuvuv—nuv)/(naaav). Величины и, v, aa и ov можно найти методом произве- произведений (см. гл. XVII, § 4), а при малом числе данных — непосредственно исходя из определений этих величин. Остается указать способ вычисления 2п«>"и> гДе п™ — частота пары условных вариант (и, v). Можно доказать, что справедливы формулы (см. пояс- пояснение в конце параграфа): 2лог."у = 2"^» ГДе V — ^inavv- Для контроля целесообразно выполнить расчеты по обеим формулам и сравнить результаты; их совпадение свидетельствует о правильности вычислений. Покажем на примере, как пользоваться приведенными формулами. Пример 1. Вычислить 2 nBt,uo по данным корреляционной табл. 14. Таблица 14 У 15 25 35 45 55 X 10 5 — — _ — 5 20 7 20 — _ — 27 30 — 23 30 10 — 63 40 — — 47 11 9 67 50 — — 2 20 7 29 во — — — 6 3 9 12 43 79 47 19 п = 200 263
Решение. Перейдем к условным вариантам: щ = (Х{—Ci)/Ai =» = (х, —40)/10 (в качестве ложного нуля Ci взята варианта х = 40, расположенная примерно в середине вариационного ряда; шаг ht равен разности между двумя соседними вариантами: 20—10 = 10) и Vj — (yi — C3)/ht = (yi — 35)/10 (в качестве ложного нуля Ct взята варианта у = 35, расположенная в середине вариационного ряда; шаг h2 равен разности между двумя соседними вариантами: 25 — 15=10). Составим корреляционную таблицу в условных вариантах. Прак- Практически это делают так: в первом столбце вместо ложного нуля Ct (варианты 35) пишут 0; над нулем последовательно записывают —1, •~2; под нулем пишут 1, 2. В первой строке вместо ложного куля Сг (варианты 40) пишут 0; слева от нуля последовательно записывают —1, —2, —3; справа от нуля пишут 1, 2. Все остальные данные переписывают из первоначальной корреляционной таблицы. В итоге получим корреляционную табл. 15 в условных вариантах. Таблица 15 V —2 — 1 .0 1 2 па -3 5 — — — — 5 -2 7 20 — — — 27 и -. | 0 — 23 30 10 — 63 — — 47 11 9 67 1 — — 2 20 7 29 г — — — 6 3 9 12 43 79 47 19 « = 200 Теперь для вычисления искомой суммы У^ navuv составим рас- расчетную табл. 16. Пояснения к составлению табл. 16: 1. В каждой клетке, в которой частота nav ф 0, записывают в правом верхнем углу произведение частоты nav на варианту и. Например, в правых верхних углах клеток первой строки записаны произведения: 5-(—3) = —15; 7-(—2) = —14. 2. Складывают все числа, помещенный в правых верхних углах клеток одной строки и их сумму записывают в клетку этой же строки столбца U. Например, для первой строки (/=—15 + (—14)=—29. 3. Умножают варианту v на U и полученное произведение заци- сывают в последнюю клетку той же строки, т. е, в клетку столбца vU. Например, в первой строке таблицы v = —2, 17 = — 29; следо- следовательно, vU=(—2)-(—29) = 58. 4. Наконец, сложив все числа столбца vU, получают сумму 2^- которая равна искомой сумме S яддцр. Например, для табл. 16 о имеем 2jvU = 169; следовательно, искомая сумма У!пцдш>= 169. V 264
265
Для контроля аналогичные вычисления производят по .столбцам: произведения nuvv записывают в левый нижний угол клетки, содер- содержащей частоту nuv Ф 0; все числа, помещенные в левых нижних углах клеток одного столбца, складывают и их сумму записывают в строку V; далее умножают каждую варианту и на V и результат записывают в клетках последней строки. Наконец, сложив все числа последней строки, получают сумму JkV, которая также равна искомой сумме 2 nuvuv. Например, для и табл. 16 имеем 2 ыУ= 169; следовательно, 2 nuvuv= 169. и Теперь, когда мы научились вычислять 2по»ии» при- приведем пример на отыскание выборочного коэффициента корреляции. Пример 2. Вычислить выборочный коэффициент корреляции Гш«=Bпв»М1'—пйп)/(паво„) по данным корреляционной табл. 14. Решение. Перейдя к условным вариантам, получим корреля- корреляционную табл. 15. Величины п, 1), 3„ и о„ можно вычислить методом произведений; однако, поскольку числа и{, vt малы, вычислим п и 1», исходя из определения средней, а о„ и о„ — используя формулы (см. гл. XVI, § 10) Найдем ы и v: + 9-2]/200 = —0,425; = ll2-(—2L-43- (—1) + 47 • 1-f 19-2]/200=0,09. Вычислим вспомогательную величину па, а затем оп: 1+29.1+9-4)/200= 1,405; ов==К«» — (й)*= V 1,405 —@,425)" = 1,106. Аналогично получим сгв= 1,209. Найдем искомый выборочный коэффициент корреляции, учитывая, что ранее уже вычислена сумма 2 nuvuv = 169: гь— B"к»""~ nuv)/(nauov) = = [ 169—200 • (—0,425) • 0,09]/B00 • 1,106 • 1,209) = 0,603. Итак, /¦„ = 0,603. Пояснение. Покажем, что 2 ««/ = 2 и^. гДе ^ =2 nuvu- Рассмотрим корреляционную таблицу в условных вариантах (для про- простоты таблица содержит мало данных): 266
0 и Пи,г; nUivt nU2Vt natu» «3 rtO3fl "ал. Найдем 2 navuv двумя способами: суммируя произведения частот Ля, на произведения соответствующих условных вариант «у по строкам и по столбцам. Для первой строки таблицы = fi 2 "apt"- (¦) (**) «в.©.- Для второй строки таблицы Сложим (*) и (**): navuv — vIjU nuDin~rva Zu nuviu' и и Итак, где С/=2]я^и- и Аналогично, суммируя произведения частот пт на произведения соответствующих условных вариант uv по столбцам, получим где V = 2jnwf- § 9. Пример на отыскание выборочного уравнения прямой линии регрессии Теперь, когда известно, как вычисляют г„ уме- уместно привести пример на отыскание уравнения прямой линии регрессии. Поскольку при нахождении гв уже вычислены Ъ, о], <*«» av> TO целесообразно пользоваться формулами: Здесь сохранены обозначения предыдущего параграфа. Рекомендуем читателю самостоятельно вывести эти фор- формулы. 267
Пример. Найти выборочное уравнение прямой линии регрессии К на X по данным корреляционной табл. 14 примера предыдущего параграфа. Решение. Напишем искомое уравнение в общем виде: Коэффициент корреляции уже вычислен в предыдущем параграфе. Остается найти х, у, ох и ау: x=uft1+c1 = —0,425-10+40 = 35,75} у = пЛ2 + с, = 0,09-10+35 = 35,9; 0^ = 5^!= 1,106-10=11,06; о,, = ооЛ,= 1,209-10= 12,09. Подставив найденные величины в (*), получим искомое уравнение ^-35,9=0,603 i^g (x-35,75), или окончательно ?,. = 0,659*+12,34. Сравним условные средние, вычисленные: а) по этому уравнению; б) по данным корреляционной табл. 14. Например, при * = 30: а) У80 = 0,659.30+12,34 = 32,11; б) У30 = B3 - 25 + 30 • 35 + 10 - 45)/63 = 32,94. Как видим, согласование расчетного и наблюдаемого условных средних — удовлетворительное. § 10. Предварительные соображения к введению меры любой корреляционной связи Выше рассматривалась оценка тесноты линейной корреляционной связи. Как оценить тесноту любой корреляционной связи? Пусть данные наблюдений над количественными при- признаками X и Y сведены в корреляционную таблицу. Можно считать, что тем самым наблюдаемые значения У раз- разбиты на группы; каждая группа содержит те значения У, которые соответствуют определенному значению X. На- Например, дана корреляционная табл. 17. К первой группе относятся те 10 значений Y D раза наблюдалось ^ = 3 и 6 раз ys = 5), которые соответст- соответствуют хг = 8. Ко второй группе относятся те 20 значений Y A3 раз наблюдалось (/j = 3h7 раз уа = 5), которые соответствуют х, = 9. 268
Таблица 17 у 3 5 л* Ух X 3 4 6 10 4.2 9 13 7 20 3.7 Условные средние теперь можно назвать групповыми средними: групповая средняя первой группы #, =¦ = D-3 + 6-5)/Ю = 4,2; групповая средняя второй группы у9 ( + )/ Поскольку все значения признака Y разбиты на груп- группы, можно представить общую дисперсию признака в виде суммы внутригрупповой и межгрупповой дисперсий (см. гл. XVI, § 12): + ^межгр • (•) Покажем справедливость следующих утверждений: 1) если Y связан с X функциональной зависимостью, то D межгр/ то 2) если Y связан с X корреляционной зависимостью, ^межгр/^общ *"••• * ¦ Доказательство. 1) Если Y связан с X функ- функциональной зависимостью, то определенному зна- значению X соответствует одно значение Y. В этом случае в каждой группе содержатся равные между собой значе- значения К*», поэтому групповая дисперсия каждой группы равна нулю. Следовательно, средняя арифметическая *> Например, если значению дс1 = 3 соответствует У\ = 7, причем *1=3 наблюдалось 5 раз, то в группе содержится 5 значений ^х = 7. 269
групповых дисперсий (взвешенная по объемам групп), т. е. внутригрупповая дисперсия DBHrp = 0 и равенство (*), имеет вид Отсюда 2) Если Y связан с X корреляционной зави- зависимостью, то определенному значению X соответствуют, вообще говоря, различные значения Y (образующие груп- группу). В атом случае групповая дисперсия каждой группы отлична от нуля. Следовательно, средняя арифметическая групповых дисперсий (взвешенная по объемам групп) Аиггр^О. Тогда одно положительное слагаемое иМЖГ9 меньше суммы двух положительных слагаемых ?>ВНгр+ 4АА Отсюда Уже из приведенных рассуждений видно, что чем связь между признаками ближе к функциональной, тем меньше DBKTV и, следовательно, тем больше приближается DmesKTp к Do€m, а значит, отношение DmmplDo6m—к единице. Отсюда ясно, что целесообразно рассматривать в качестве меры тесноты корреляционной зависимости отношение межгрупповой дисперсии к общей, или, что то же, отно- отношение межгруппового среднего квадратического отклоне- отклонения к общему среднему квадратическому отклонению. §11. Выборочное корреляционное отношение Для оценки тесноты линейной корреляционной связи между признаками в выборке служит выборочный коэффициент корреляции. Для оценки тесноты нелиней- нелинейной корреляционной связи вводят новые сводные ха- характеристики: i\yX—выборочное корреляционное отношение У к X; t\Xy—выборочное корреляционное отношение X к Y. Выборочным, корреляционным отношением Y к X на- называют отношение межгруппового среднего квадратиче- квадратического отклонения к общему среднему квадратическому 270
отклонению признака Y: или в других обозначениях or, -КД м«жгр' пх(ух—у)*)/п; 8десь где п—объем выборки (сумма всех частот); пх—частота значения х признака X; п„—частота значения у признака У; у—общая средняя признака У; ух—условная средняя признака у. Аналогично определяется выборочное корреляцнонное отношение X к Yi Пример. Найти х\ух по данным корреляционной табл. 18. Таблица 18 У 15 25 Пх Ух X 10 4 6 10 21 20 28 — 28 15 30 6 6 12 20 «1/ 38 12 л = 50 Решение. Найдем общую среднюю: ?= B п^)/л = C8.15+12.25)/50= 17,4. Найдем общее среднее квадратическое отклонение: V [38A5.— 17,4)»+12 B5—17,4)»]/50= 4,27. 271
Найдем межгрупповое среднее квадратическое отклонение: х = У[10 B1 — 17,4)а + 28 A5— 17,4)*+12 B0— 17,4)8]/50 = 2,73. Искомое корреляционное отношение х\рх = о _ / 5у = 2,73/4,27 = 0,64. § 12. Свойства выборочного корреляционного отношения Поскольку t\Xv обладает теми же свойствами, что и т\ух, перечислим свойства только выборочного корре- корреляционного отношения tij,,, которое далее для упрощения записи будем обозначать через г\ и для простоты речи называть «корреляционным отношением». Свойство 1. Корреляционное отношение удовлетво- удовлетворяет двойному неравенству Доказательство. Неравенство tj^0 следует из того, что т) есть отношение неотрицательных чисел — средних квадратических отклонений (межгруппового к общему). Для доказательства неравенства rj^l воспользуемся формулой Разделив обе части равенства на Do6m, получим ^ =^: •*^внгр/^о6щ "т" ^м ИЛИ Так как оба слагаемых неотрицательны и сумма их равна единице, то каждое из них не превышает единицы; в част- частности, т|2^ 1. Приняв во внимание, что 1)^0, заключаем: Свойство 2. Если г\ = 0, то признак Y с призна- признаком X корреляционной зависимостью не связан. Доказательство. По условию, Л = стмежгр/аобщ = 0- Отсюда o-M(HKrp = 0 и, следовательно, Д„ежгр = 0. 272
Межгрупповая дисперсия есть дисперсия условных (групповых) средних ух относительно общей средней у. Равенство нулю межгрупповой дисперсии означает, что при всех значениях X условные средние сохраняют по- постоянное значение (равное общей средней). Иными словами, при г)=-0 условная средняя не является функцией от X, а значит, признак У не связан корреляционной зависи- зависимостью с признаком X. Замечание 1. Можно доказать и обратное предложение: если признак Y не связан с признаком X корреляционной зависимостью, то т) = 0. Свойство 3. Если tj = 1, то признак Y связан с при- признаком X функциональной зависимостью. Доказательство. По условию, Л = °иежгрМ>бщ = * • Отсюда Возведя обе части равенства в квадрат, получим Так как Do6u, = DBHrp + DMeiKrp, то в силу (*) 0. (**) Поскольку внутригрупповая дисперсия есть средняя арифметическая групповых дисперсий (взвешенная по объ- объемам групп), то из (**) следует, что дисперсия каждой группы (значений Y, соответствующих определенному значению X) равна нулю. А это означает, что в группе содержатся равные значения Y, т. е. каждому значению X соответствует одно значение Y. Следовательно, при т) = 1 признак У связан с признаком X функциональной зависимостью. Замечание 2. Можно доказать и обратное предположение: если признак Y связан с признаком X функциональной зависимостью, то т) = 1. Приведем еще два свойства, опустив доказательства. Свойство 4. Выборочное корреляционное отношение 18 — 2730 273
не меньше абсолютной величины выборочного коэффициента корреляции: \\ Свойство 5. Если выборочное корреляционное отно- отношение равно абсолютной величине выборочного коэффи- коэффициента корреляции, то имеет место точная линейная корреляционная зависимость. Другими словами, если т| = | гв |, то точки (хх\ j/x), (•*Y> Уг)> ¦••>(хп'Уп) лежат на прямой линии регрессии, найденной способом наименьших квадратов. § 13. Корреляционное отношение как мера корреляционной связи. Достоинства и недостатки этой меры В предыдущем параграфе установлено: прит1 = 0 признаки не связаны корреляционной зависимостью; при т) = 1 имеет место функциональная зависимость. Убедимся, что с возрастанием г\ корреляционная связь становится более тесной. С этой целью преобразуем соот- соотношение ?>общ = ?>внгр Ч-?>Межгр так: ^внгр == *Л)бщ L * (. ИЛИ Если г\ —> 1, то DBlirp —>¦ 0, следовательно, стремится к нулю и каждая из групповых дисперсий. Другими словами, при возрастании ц значения Y, соответствующие опреде- определенному значению X, все меньше различаются между собой и связь Y с X становится более тесной, переходя в функциональную при т)=1. Поскольку в рассуждениях не делалось никаких до- допущений о форме корреляционной связи, г\ служит мерой тесноты связи любой, в том числе и линейной, формы. В этом состоит преимущество корреляционного отношения перед коэффициентом корреляции, который оценивает тесноту лишь линейной зависимости. Вместе с тем кор- корреляционное отношение обладает недостатком: оно не позволяет судить, насколько близко расположены точки, найденные по данным наблюдений, к кривой опре- определенного вида, например к параболе, гиперболе и т. д. Это объясняется тем, что при определении корреляцион- корреляционного отношения форма связи во внимание не принималась. 274
§ 14. Простейшие случаи криволинейной корреляции Если график регрессии yx = f {x) или ху = ср (у) изображается кривой линией, то корреляцию называют криволинейной. Например, функции регрессии Y на X могут иметь вид: ух = ах2 + Ьх -f- с (параболическая корреляция второго порядка); ух = ах* -f- Ьхг + сх + d (параболическая корреляция третьего порядка). Для определения вида функции регрессии строят точки (х; ух) и по их расположению делают заключение о при- примерном виде функции регрессии; при окончательном ре- решении принимают во внимание особенности, вытекающие из сущности решаемой задачи. Теория криволинейной корреляции решает те же за-. дачи, что и теория линейной корреляции (установление формы и тесноты корреляционной связи). Неизвестные параметры уравнения регрессии ищут методом наимень- наименьших квадратов. Для оценки тесноты криволинейной кор- корреляции служат выборочные корреляционные отношения (см. § 11). Чтобы выяснить суть дела, ограничимся параболиче- параболической корреляцией второго порядка, предположив, что данные п наблюдений (выборки) позволяют считать, что имеет место именно такая корреляция. В этом случае выборочное уравнение регрессии К на X имеет вид где А, В, С—неизвестные параметры. Пользуясь методом наименьших квадратов, получают систему линейных уравнений относительно неизвестных параметров (вывод опущен, поскольку он не содержит ничего нового сравнительно с § 4): B п*х*)А + B п**я) в+B ***•) с=2 П ) B "***>А + B "**2) В + B "**) С = 2 пхУхх; \ (**) B я**1)А + B я**) в+пс=2 п*у*- Найденные из этой системы параметры А, В, С подстав- подставляют в (*); в итоге получают искомое уравнение регрессии. 18* 275
Пример. Найти выборочное уравнение регрессии Y на X вида Ахг-\-Вх-\-С по данным корреляционной табл. 19. Таблица 19 У 6 7 7,5 пх ~Ух X 1 8 — — 8 6 1.1 2 30 1 33 6,73 1,2 — — 9 9 7,5 "у 10 30 10 я = 50 Составим расчетную табл. 20. Подставив числа (суммы) нижней строки табл. 20 в (**), получим систему 74,98 A + 67,48 Я+ 60,89 С = 413,93, 67,48 Л+60,89 S + 55.10 С-- 60,89 А +55,10 В + 50 С = 413,93, 1 7=373,30, \ : = 337,59. J Решив эту систему, найдем: искомое уравнение регрессии: = 1,94, fi = 2,98, С ==1,10. Напишем ух = 1,94*2 + 2,98* +1,10. Легко убедиться, что условные средние, вычисленные по этому уравнению, незначительно отличаются от условных средних корре- корреляционной таблицы. Например, при дсг=1 найдем: по таблице у! = 6; по уравнению ^=1,94+2,98+1,10=6,02. Таким образом, найденное уравнение хорошо согласуется с данными наблюдений (выборки). § 15. Понятие о множественной корреляции До настоящего параграфа рассматривалась кор- корреляционная связь между двумя признаками. Если же исследуется связь между несколькими признаками, то корреляцию называют множестеенной. 276
В простейшем слу- 8 чае число признаков се равно трем и связь меж- " ду ними линейная: ч В этом случае возни- возникают задачи: 1) найти по данным наблюдений выборочное уравнение связи вида т. е. требуется найти коэффициенты регрес- регрессии Аи В к параметр С; 2) оценить тесноту связи между Z и обо- обоими признаками X, У; 3) оценить тесноту связи между Z и X (при постоянном Y), между Z и Y (при по- постоянном X). Первая задача ре- решается методом наи- наименьших квадратов, причем вместо уравне- уравнения (*) удобнее искать уравнение связи вида z—г- + в А (х—х) (У-У), тхг гуггху I—fly - тхггху l—rlL m Н X е \ к > \ X н н оо оо 00 оо оо <о 00 - ,30 244 8 222 48,32 S го со СО со СО 1.1 ао о СО 18,66 S ю ,96 со о о СО С» •> СО ,30 373 S 337 74,98 00 ,89 CD S 1 1 S 277
Здесь rxz, ryz, гхц—коэффициенты корреляции соот- соответственно между признаками X и Z, У и Z, X и У; <*xt ау> ог—средние квадратические отклонения. Теснота связи признака Z с признаками X, У оцени- оценивается выборочным совокупным коэффициентом корреляции -ш / г Г —2/-Л„ г хг гу2 + Туг 1 1 — причем O^.R^.1. Теснота связи между Z и X (при постоянном У), между Z и У (при постоянном X) оценивается соответ- соответственно частными выборочными коэффициентами корре- корреляции: г хг (у) Эти коэффициенты имеют те же свойства и тот же смысл, что и обыкновенный выборочный коэффициент корреляции, т. е. служат для оценки линейной связи между признаками. Задачи В задачах 1—2 даны корреляционные табл. 21 и 22. НаЙтн: a) fB', б) выборочные уравнения прямых регрессии; в) и\ух и r\xv. Отв. к задаче 1. а) 0,636; б) уж = 1,17 дс+16,78, *„ = 0,345 + 1,67; в) т)„я = 0,656, ^„=0,651. 278
1. Таблица 21 у 10 20 30 40 50 л* Ух 5 2 5 3 — — 10 21 10 — 4 8 3 — 15 29,33 Л 15 — 1 6 6 2 15 36 20 — — 3 6 1 10 38 пу 2 10 20 15 3 « = 50 ~ху 5 8 12,25 16 16,67 2. Таблица 22 У 30 40 50 60 70 пх Ух X 65 5 95 — 4 1 12 — — — 9 34,44 8 1 — 21 44,76 125 — — 5 5 — 10 55 155 — — 4 7 — 11 56,36 185 — — — 2 1 3 63,33 215 — — — — 1 1 70 nv 5 16 17 15 2 п = 55 65 87,5 101,18 145 200 279
Отв. к задаче 2. а) 0,825; б) ^ = 0, —27,25; в) tiVJe = 0,859, цХ1/ = 0,875. = 2,92у — В задачах 3—4 найти выборочные уравнения регрессии ух Л2 + Д + С по данным корреляционных табл. 23 и 24. 3. Таблица 23 У 25 45 ПО л* X 2 20 — — 20 3 — 30 1 31 в — 1 48 49 "у 20 31 49 я=100 Отв. уЛ = 2, ,27 х—1,25. 4. Таблица 24 Y 2 6 я* X 1 30 1 31 2 1 18 19 "у 31 19 п = 50 280 Отв. у* =0,39 х* + 2,49 х — 0,75.
Глава девятнадцатая СТАТИСТИЧЕСКАЯ ПРОВЕРКА СТАТИСТИЧЕСКИХ ГИПОТЕЗ § 1. Статистическая гипотеза. Нулевая и конкурирующая, простая и сложная гипотезы Часто необходимо знать закон распределения генеральной совокупности. Если закон распределения неизвестен, но имеются основания предположить, что он имеет определенный вид (назовем его А), выдвигают ги- гипотезу: генеральная совокупность распределена по за- закону А. Таким образом, в этой гипотезе речь идет о в и де предполагаемого распределения. Возможен случай, когда закон распределения известен, а его параметры неизвестны. Если есть основания пред- предположить, что неизвестный параметр в равен определен- определенному значению 90, выдвигают гипотезу: 8 = 60. Таким образом, в этой гипотезе речь идет о предполагае- предполагаемой величине параметра одного известного рас- распределения. Возможны и другие гипотезы: о равенстве параметров двух или нескольких распределений, о независимости выборок и многие другие. Статистической называют гипотезу о виде неизвест- неизвестного распределения, или о параметрах известных рас- распределений. , Например, статистическими являются гипотезы: 1) генеральная совокупность распределена по закону Пуассона; 2) дисперсии двух нормальных совокупностей равны между собой. В первой гипотезе сделано предположение о виде неизвестного распределения, во второй—о параметрах двух известных распределений. Гипотеза «на Марсе есть жизнь» не является статисти- статистической, поскольку в ней не идет речь ни о виде, ни о параметрах распределения. Наряду с выдвинутой гипотезой рассматривают и про- противоречащую ей гипотезу. Если выдвинутая гипотеза будет отвергнута, то имеет место противоречащая гипотеза. По этой причине эти гипотезы целесообразно различать. Нулевой (основной) называют выдвинутую гипотезу Яв. 281
Конкурирующей (альтернативной) называют гипотезу Hlt которая противоречит нулевой. Например, если нулевая гипотеза состоит в предпо- предположении, что математическое ожидание а нормального распределения равно 10, то конкурирующая гипотеза, в частности, может состоять в предположении, что аф 10. Коротко это записывают так: #0:а=10; Нх\аф 10. Различают гипотезы, которые содержат только одно и более одного предположений. Простой называют гипотезу, содержащую только одно предположение. Например, если Я—параметр показатель- показательного распределения, то гипотеза #0:Л = 5—простая. Ги- Гипотеза Яо: математическое ожидание нормального рас- распределения равно 3 (а известно)—простая. Сложной называют гипотезу, которая состоит из ко- конечного или бесконечного числа простых гипотез. Напри- Например, сложная гипотеза Н: А, > 5 состоит из бесчисленного множества простых вида Hi:X = bi, где bt—любое число, большее 5. Гипотеза #0: математическое ожидание нор- нормального распределения равно 3 (а неизвестно)—сложная. § 2. Ошибки первого и второго рода Выдвинутая гипотеза может быть правильной или неправильной, поэтому возникает необходимость ее проверки. Поскольку проверку производят статистиче- статистическими методами, ее называют статистической. В итоге статистической проверки гипотезы в двух случаях может быть принято неправильное решение, т. е. могут быть допущены ошибки двух родов. Ошибка первого рода состоит в том, что будет отверг- отвергнута правильная гипотеза. Ошибка второго рода состоит в том, что будет принята неправильная гипотеза. Подчеркнем, что последствия этих ошибок могут ока- оказаться весьма различными. Например, если отвергнуто правильное решение.«продолжать строительство жилого дома», то эта ошибка первого рода повлечет материаль- материальный ущерб; если же принято неправильное решение «про- «продолжать строительство», несмотря на опасность обвала стройки, то эта ошибка второго рода может повлечь ги- гибель людей. Можно привести примеры, когда ошибка первого рода влечет более тяжелые последствия, чем ошибка второго рода. 282
Замечание I. Правильное решение может быть принято также в двух случаях: 1) гипотеза принимается, причем и в действительности она пра- правильная; 2) гипотеза отвергается, причем и в действительности она неверна. Замечание 2. Вероятность совершить ошибку первого рода принято обозначать через а; ее называют уровнем значимости. Наи- Наиболее часто уровень значимости принимают равным 0,05 или 0,01. Если, например, принят уровень значимости, равный 0,05, то это означает, что в пяти случаях из ста имеется риск допустить ошибку первого рода (отвергнуть правильную гипотезу). § 3. Статистический критерий проверки нулевой гипотезы. Наблюдаемое значение критерия Для проверки нулевой гипотезы используют спе- специально подобранную случайную величину, точное или приближенное распределение которой известно. Эту ве- величину обозначают через U или Z, если она распределена нормально, F или р2— по закону Фишера—Снедекора, Т—по закону Стьюдента, %г—по закону «хи квадрат» и т. д. Поскольку в этом параграфе вид распределения во внимание приниматься не будет, обозначим эту величи- величину в целях общности через К. Статистическим критерием (или просто критерием) называют случайную величину /С, которая служит для проверки нулевой гипотезы. Например, если проверяют гипотезу о равенстве дис- дисперсий двух нормальных генеральных совокупностей, то в качестве критерия К принимают отношение исправлен- исправленных выборочных дисперсий: Эта - величина случайная, потому что в различных опытах дисперсии принимают различные, наперед неизвестные значения, и распределена по закону Фишера—Снедекора. Для проверки гипотезы по данным выборок вычисляют частные значения входящих в критерий величин и таким образом получают частное (наблюдаемое) значение кри- критерия. Наблюдаемым значением /Сваб* называют значение кри- критерия, вычисленное по выборкам. Например, если по двум выборкам найдены исправленные выборочные дисперсии sJ = 20 и s§ = 5, то наблюдаемое значение критерия F 283
§ 4. Критическая область. Область принятия гипотезы. Критические точки После выбора определенного критерия множество всех его возможных значений разбивают на два непере- непересекающихся подмножества: одно из них содержит значе- значения критерия, при которых нулевая гипотеза отвергается, а другая—при которых она принимается. Критической областью называют совокупность значе- значений критерия, при которых а) * • ^К нулевую гипотезу отвергают. *f Областью принятия гипо- .>> , .. тезы (областью допустимых ^ ккр о """" значений) называют совокуп- совокупность значений критерия, при в) ¦ . • »/С которых гипотезу принима- принимала О Хнр ют. Рис- 23 Основной принцип провер- проверки статистических гипотез можно сформулировать так: если наблюдаемое значение критерия принадлежит критической области—гипотезу отвергают, если наблюдаемое значение критерия принад- принадлежит области принятия гипотезы—гипотезу принимают. Поскольку критерий К—одномерная случайная вели- величина, все ее возможные значения принадлежат некоторому интервалу. Поэтому критическая область и область при- принятия гипотезы также являются интервалами и, следо- следовательно, существуют точки, которые их разделяют. Критическими точками (границами) Акр называют точки, отделяющие критическую область от области при- принятия гипотезы. Различают одностороннюю (правостороннюю или лево- левостороннюю) и двустороннюю критические области. Правосторонней называют критическую область, опре- определяемую неравенством К > &Кр> где kKV—положительное число (рис. 23, а). Левосторонней называют критическую область, опре- определяемую неравенством К < kKP, где Акр—отрицательное число (рис. 23,6). Односторонней называют правостороннюю или лево- левостороннюю критическую область. Двусторонней называют критическую область, опреде- определяемую неравенствами К < klt /C> kt, где fta > kt. В частности, если критические точки симметричны 284
относительно нуля, двусторонняя критическая область определяется неравенствами (в предположении, что?кр>0): /С <—Лкр, К > feKp, или равносильным неравенством \К\> >kuv (рис. 23, в). § 5. Отыскание правосторонней критической области Как найти критическую область? Обоснованный ответ на этот вопрос требует привлечения довольно слож- сложной теории. Ограничимся ее элементами. Для определен- определенности начнем с нахождения правосторонней критической области, которая определяется неравенством /С> /гкр, где &кР > 0- Видим, что для отыскания правосторонней кри- критической области достаточно найти критическую точку. Следовательно, возникает новый вопрос: как ее найти? Для ее нахождения задаются достаточной малой ве- вероятностью— уровнем значимости а. Затем ищут крити- критическую точку ftKp, исходя из требования, чтобы при усло- условии справедливости нулевой гипотезы вероятность того, что критерий К примет значение, большее йкр, была равна принятому уровню значимости: Для каждого критерия имеются соответствующие таб- таблицы, по которым и находят критическую точку, удов- удовлетворяющую этому требованию. Замечание I. Когда критическая точка уже найдена, вычис- вычисляют по данным выборок наблюденное значение критерия и, если окажется, что Киабя > *кр. то нулевую гипотезу отвергают; если же А"„абл < Акр. то нет оснований, чтобы отвергнуть нулевую гипотезу. Пояснение. Почему правосторонняя критическая область была определена исходя из требования, чтобы при справедливости нулевой гипотезы выполнялось соотно- соотношение Поскольку вероятность события К > kKP мала (а—малая вероятность), такое событие при справедливости нулевой гипотезы, в силу принципа практической невозможности маловероятных событий, в единичном испытании не должно наступить (см. гл. II, § 4). Если все же оно произошло, т. е. наблюдаемое значение критерия оказалось больше kKV, то это можно объяснить тем, что нулевая гипотеза ложна 285
и, следовательно, должна быть отвергнута. Таким обра- образом, требование (*) определяет такие значения критерия, при которых нулевая гипотеза отвергается, а они и со- составляют правостороннюю критическую область. Замечание 2. Наблюдаемое значение критерия может ока- еаться большим Лкр не потому, что нулевая гипотеза ложна, а по другим причинам (малый объем выборки, недостатки методики экспе- эксперимента и др.)- В этом случае, отвергнув правильную нулевую гипо- гипотезу, совершают ошибку первого рода. Вероятность этой ошибки равна уровню значимости а. Итак, пользуясь требованием (*), мы с вероятностью а рискуем совершить ошибку первого рода. Заметим кстати, что в книгах по контролю качества продукции вероятность признать негодной партию годных изделий называют «риском производителя», а вероятность принять негодную партию — «риском потребителя». Замечание 3. Пусть нулевая гипотеза принята; ошибочно думать, что тем самым она доказана. Действительно, известно, что один пример, подтверждающий справедливость некоторого общего утверждения, еще не доказывает его. Поэтому-более правильно гово- говорить «данные наблюдений согласуются с кулевой гипотезой и, следо- следовательно, не дают оснований ее отвергнуть». На практике для большей уверенности принятия гипотезы ее проверяют другими способами или повторяют эксперимент, увеличив объем выборки. Отвергают гипотезу более категорично, чем принимают. Действи- Действительно, известно, что достаточно привести один пример, противореча- противоречащий некоторому общему утверждению, чтобы это утверждение отверг- отвергнуть. Если оказалось, что наблюдаемое значение критерия принадлежит критической области, то этот факт и служит примером, противоречащим нулевой гипотезе, что позволяет ее отклонить. § 6. Отыскание левосторонней и двусторонней критических областей Отыскание левосторонней и двусторонней кри- критических областей сводится (так же, как и для право- правосторонней) к нахождению соответствующих критических точек. Левосторонняя критическая область определяется (см. § 4) неравенством К. < kKV(kKV < 0). Критическую точку находят исходя из требования, чтобы при справед- справедливости нулевой гипотезы вероятность того, что критерий примет значение, меньшее /гкр, была равна принятому уровню значимости: Двусторонняя критическая область определяется (см. § 4) неравенствами К <kx, K> kt. Критические точки находят исходя из требования, чтобы при спра- 286
ведливости нулевой гипотезы сумма вероятностей того, что критерий примет значение, меньшее kt или большее k±, была равна принятому уровню значимости: Ясно, что критические точки могут быть выбраны бесчис- бесчисленным множеством способов. Если же распределение кри- критерия симметрично относительно нуля и имеются основания (например, для увеличения мощности*1) выбрать симмет- симметричные относительно нуля точки—kKP и kKX,(kKV>0), то Учитывая (*), получим Р(К>КР) = а/2. Это соотношение и служит для отыскания критических точек двусторонней критической области. Как уже было указано (см. § 5), критические точки находят по соответствующим таблицам. § 7. Дополнительные сведения о выборе критической области. Мощность критерия Мы строили критическую область, исходя из требования, чтобы вероятность попадания в нее критерия была равна а при условии, что нулевая гипотеза спра- справедлива. Оказывается целесообразным ввести в рассмот- рассмотрение вероятность попадания критерия в критическую область при условии, что нулевая гипотеза неверна и, следовательно, справедлива конкурирующая. Мощностью критерия называют вероятность попада- попадания критерия в критическую область при условии, что справедлива конкурирующая гипотеза. Другими словами, мощность критерия есть вероятность того, что нулевая гипотеза будет отвергнута, если верна конкурирующая гипотеза. Пусть для проверки гипотезы принят определенный уровень значимости и выборка имеет фиксированный объем. Остается произвол в выборе критической области. Покажем, что ее целесообразно построить так, чтобы мощность критерия была максимальной. Предварительно убедимся, что если вероятность ошибки второго рода *} Определение мощности дано в § 7. 287
(принять неправильную гипотезу) равна р, то мощность равна 1—р. Действительно, если р—вероятность ошибки второго рода, т. е. события «принята нулевая гипотеза, причем справедлива конкурирующая», то мощность кри- критерия равна 1—р. Пусть мощность 1—р возрастает; следовательно, уменьшается вероятность р совершить ошибку второго рода. Таким образом, чем мощность больше, тем вероят- вероятность ошибки второго рода меньше. Итак, если уровень значимости уже выбран, то кри* тическую область следует строить так, чтобы мощность критерия была максимальной. Выполнение этого требова* ния должно обеспечить минимальную ошибку второго рода, что, конечно, желательно. Замечание 1. Поскольку вероятность события «ошибка вто. рого рода допущена» равна р, то вероятность противоположного события «ошибка второго рода не допущена» равна 1—р, т. е. мощ< ности критерия. Отсюда следует, что мощность критерия есть веро- вероятность того, что не будет допущена ошибка второго рода. Замечание 2. Ясно, что чем меньше вероятности ошибок первого и второго рода, тем критическая область «лучше». Однако при заданном объеме выборки уменьшить одновременно аир невозможно; если уменьшить а, то р будет возрастать. Например, если принять а = 0, то будут приниматься все гипотезы, в том числе и неправильные, т. е. возрастает вероятность Р ошибки второго рода. Как же выбрать а наиболее целесообразно? Ответ на этот вопроо зависит от «тяжести последствий» ошибок для каждой конкретной задачи. Например, если ошибка первого рода повлечет большие по- потери, а второго рода—малые, то следует принять возможно меньшее а. Если а уже выбрано, то, пользуясь теоремой Ю. Неймана и Э. Пирсона, изложенной в более полных курсах, можно построить критическую область, для которой р будет минимальным и, следова- следовательно, мощность критерия максимальной. Замечание 3. Единственный способ одновременного уменьшения вероятностей ошибок первого и второго рода состоит в увеличении объема выборок. § 8. Сравнение двух дисперсий нормальных генеральных совокупностей На практике задача сравнения дисперсий возни- возникает, если требуется сравнить точность приборов, ин- инструментов, самих методов измерений и т. д. Очевидно, предпочтительнее тот прибор, инструмент и метод, кото- который обеспечивает наименьшее рассеяние результатов измерений, т. е. наименьшую дисперсию. 288
Пусть генеральные совокупности X и К распределены нормально. По независимым выборкам с объемами, соот- соответственно равными пх и пг, извлеченным из этих сово- совокупностей, найдены исправленные выборочные дисперсии s\ и Sy. Требуется по исправленным дисперсиям при заданном уровне значимости а проверить нулевую гипо- гипотезу, состоящую в том, что генеральные дисперсии рас- рассматриваемых совокупностей равны между собой: Учитывая, что исправленные дисперсии являются несмещенными оценками генеральных дисперсий (см. гл. XVI, § 13), т. е. нулевую гипотезу можно записать так: Таким образом, требуется проверить, что математи- математические ожидания исправленных выборочных дисперсий равны между собой. Такая задача ставится потому, что обычно исправленные дисперсии оказываются различными. Возникает вопррс: значимо (существенно) или незна- незначимо различаются исправленные диспер- дисперсии? Если окажется, что нулевая гипотеза справедлива, т. е. генеральные дисперсии одинаковы, то различие ис- исправленных дисперсий незначимо и объясняется случай- случайными причинами, в частности случайным отбором объектов выборки. Например, если различие исправленных выбо- выборочных дисперсий результатов измерений, выполненных двумя приборами, оказалось незначимым, то приборы имеют одинаковую точность. Если нулевая гипотеза отвергнута, т. е. генеральные дисперсии неодинаковы, то различие исправленных дис- дисперсий значимо и не может быть объяснено случайными причинами, а является следствием того, что сами генераль- генеральные дисперсии различны. Например, если различие исправленных выборочных дисперсий результатов изме- измерений, произведенных двумя приборами, оказалось зна- значимым, то точность приборов различна. В качестве критерия проверки нулевой гипотезы о равенстве генеральных дисперсий примем отношение большей исправленной дисперсии к меньшей, т. е. слу- 19 2730 289
чайную величину Величина F при условии справедливости нулевой гипотезы имеет распределение Фишера — Снедекора (см. гл. XII, § 15) со степенями свободы ^ — п^—1 и fet = n2—1, где п1—объем выборки, по которой вычислена большая исправленная дисперсия, п2 — объем выборки, по которой найдена меньшая дисперсия. Напомним, что распределение Фишера — Снедекора зависит только от чи- чисел степеней свободы и не зависит от других параметров. Критическая область строится в зависимости от вида конкурирующей гипотезы. Пе р вы й случай. Нулевая гипотезаH0:D(X)—D(Y). Конкурирующая гипотеза Ht:D (X) > D (К). В этом случае строят одностороннюю, а именно пра- правостороннюю, критическую область, исходя из требова- требования, чтобы вероятность попадания критерия F в эту область в предположении справедливости нулевой гипо- гипотезы была равна принятому уровню значимости: Критическую точку FKP (a; klt kt) находят по таблице критических точек распределения Фишера — Снедекора (см. приложение 7), и тогда правосторонняя критическая область определяется неравенством F > Fw, а область принятия нулевой гипотезы — неравенством F < FKV. Обозначим отношение большей исправленной диспер- дисперсии к меньшей, вычисленное по данным наблюдений, через FBa6a и сформулируем правило проверки нулевой гипотезы. Правило 1. Для того чтобы при заданном уровне зна- значимости проверить нулевую гипотезу H0:D(X) = D(Y) о равенстве генеральных дисперсий нормальных совокуп- совокупностей при конкурирующей гипотезе H1:D(X) > D(Y), надо вычислить отношение большей исправленной диспер- дисперсии к меньшей, т. е. и по таблице критических точек распределения Фишера— Снедекора, по заданному уровню значимости а и числам степеней свободы At и 1гг (k^—число степеней свободы большей исправленной дисперсии) найти критическую точку Fua6a(a; klt kt). 290
Если Рна6л < FKV— нет оснований отвергнуть нулевую гипотезу. Если Ряабл > FKV— нулевую гипотезу отвергают. Пример 1. По двум независимым выборкам объемов n1=i2 и па=15, извлеченным из нормальных генеральных совокупностей X и Y, найдены исправленные выборочные дисперсии sx = 11,41 н s^, = 6,52. При уровне значимости 0,05 проверить нулевую гипотезу H0:D(X) = D(Y) о равенстве генеральных дисперсий при конкури- конкурирующей гипотезе Ht:D (X) > D (Y). Решение. Найдем отношение большей исправленной дисперсна к меньшей: = 11.41/6,52 = 1,75. Конкурирующая гипотеза имеет вид D(X) > D(Y), поэтому крити- критическая область — правосторонняя. По таблице приложения 7, по уровню значимости а = 0,05 и числам степеней свободы fex=12— 1 = 11 и k2=l5—1 = 14 находим критическую точку FKn @,05; 11, 14) = 2,56. Так как У^набл < ^р —нет оснований отвергнуть нулевую гипо- гипотезу о равенстве генеральных дисперсий. Второй случай. Нулевая гипотеза H0:D (X)=D(Y). Конкурирующая гипотеза H1:D(X)=/=D(Y). В этом случае строят двустороннюю критическую область, исходя из требования, чтобы вероятность попа- Ft 0 Г, Рис. 24 дания критерия в эту область в предположении спра- справедливости нулевой гипотезы была равна принятому уровню значимости а. Как выбрать границы критической области? Оказы- Оказывается, что наибольшая мощность (вероятность попадания критерия в критическую область при справедливости конкурирующей гипотезы) достигается тогда, когда вероят- вероятность попадания критерия в каждый из двух интервалов критической области равна а/2. Таким образом, если обозначить черег /71 левую границу критической области и через Fa — правую, то должны иметь место соотношения (рис. 24): P(F< FJ = а/2, Р (F > Ft) =а/2. Мы видим, что достаточно найти критические точки, чтобы найти саму критическую область: F < Flf F > Ft, 19* 291
а также область принятия нулевой гипотезы: Ft < F < Ft. Как практически отыскать критические точки? Правую критическую точку Ft = FKX> (a/2; ku k2) нахо- находят непосредственно по таблице критических точек рас- распределения Фишера — Снедекора по уровню значимости а/2 и степеням свободы kt и ka. Однако левых критических точек эта таблица не со- содержит и поэтому найти Ft непосредственно по таблице невозможно. Существует способ, позволяющий преодолеть это затруднение. Однако мы не будем его описывать, поскольку можно левую критическую точку и не отыски- отыскивать. Ограничимся изложением того, как обеспечить по- попадание критерия F в двустороннюю критическую область с вероятностью, равной принятому уровню значимости а. Оказывается, достаточно найти правую критическую точку Fa при уровне значимости, вдвое меньшем заданного. Тогда не только вероятность попадания критерия в «пра- «правую часть» критической области (т. е. правее F2) равна а/2, но и вероятность попадания этого критерия в «левую часть» критической области (т. е. левее Ft) также равна а/2. Так как эти события несовместны, то вероятность попадания рассматриваемого критерия во всю двусторон- двустороннюю критическую область будет равна а/2 + а/2 = а. Таким образом, в случае конкурирующей гипотезы Hl:D(X)?=D(Y) достаточно найти критическую точку Ft = FKV(al2\klt kt). Правило 2. Для того чтобы при заданном уровне зна- значимости а проверить нулевую гипотезу о равенстве гене- генеральных дисперсий нормально распределенных совокуп- совокупностей при конкурирующей гипотезе Н1:О(Х)фО(У), надо вычислить отношение большей исправленной дис- дисперсии к меньшей, т. е. FHa6]l = sl/Su и по таблице кри- критических точек распределения Фишера—Снедекора по уровню значимости а/2 (вдвое меньшем заданного) и чис- числам степеней свободы kt и kt (kt—число степеней свободы большей дисперсии) найти критическую точку FKp (a/2; ft,, fea). Если /^абд < F„р—нет оснований отвергнуть нулевую гипотезу. Если Рнабл > FKp—нулевую гипотезу отвергают. Пример 2. По двум независимым выборкам, объемы которых соответственно равны n!=10 и пг=18, извлеченным из нормальных генеральных совокупностей X и Y, найдены исправленные выбороч- выборочные дисперсии 5*^ = 1,23 и s|, = 0,41. При уровне значимости а = 0,1 292
проверить нулевую гипотезу о равенстве генеральных дисперсий при конкурирующей гипотезе Ht'.D (X) ф D (У). Решение. Найдем отношение большей исправленной дисперсии к меньшей: ^Найл= 1,23/0,41=3. По условию, конкурирующая гипотеза имеет вид D (X) Ф D (К), поэтому критическая область—двусторонняя. По таблице, по уровню значимости, вдвое меньшем заданного, т. е. при а/2 = 0,1/2 = 0,05, и числам степеней свободы кг= 10—1=9, Аа = 18 —1 = 17 находим критическую точку FKV @,05, 9, 17) = 2,50. Так как ^"навл > ^кр> нулевую гипотезу о равенстве генеральных дисперсий отвергаем. Другими словами, выборочные исправленные дисперсии различаются значимо. Например, если бы рассматриваемые дисперсии характеризовали точность двух методов измерений, то следует предпочесть тот метод, который имеет меньшую дисперсию @,41). § 9. Сравнение исправленной выборочной дисперсии с гипотетической генеральной дисперсией нормальной совокупности Пусть генеральная совокупность распределена нормально, причем генеральная дисперсия хотя и неиз- неизвестна, но имеются основания предполагать, что она равна гипотетическому (предполагаемому) значению Сто. На прак- практике а§ устанавливается на основании предшествую- предшествующего опыта или теоретически. Пусть из генеральной совокупности извлечена выборка объема п и по ней найдена исправленная выборочная дисперсия S2 с & = л — 1 степенями свободы. Требуется по исправленной дисперсии при заданном уровне значи- значимости проверить нулевую гипотезу, состоящую в том, что генеральная дисперсия рассматриваемой совокупности равна гипотетическому значению cj. Учитывая, что 5а является несмещенной оценкой гене- генеральной дисперсии, нулевую гипотезу можно записать так: Итак, требуется проверить, что математическое ожи- ожидание исправленной дисперсии равно гипотетическому значению генеральной дисперсии. Другими словами, тре- требуется установить, значимо или незначимо различаются исправленная выборочная и гипотетическая генеральная дисперсии. На практике рассматриваемая гипотеза проверяется, если нужно проверить точность приборов, инструментов, 293
станков, методов исследования и устойчивость техноло- технологических процессов. Например, если известна допустимая характеристика рассеяния контролируемого размера дета- деталей, изготавливаемых станком-автоматом, равная а\, а найденная по выборке окажется значимо больше ag, то станок требует подналадки. В качестве критерия проверки нулевой гипотезы при- примем случайную величину (п—l)S2/al. Эта величина слу- случайная, потому что в разных опытах S8 принимает раз- различные, наперед неизвестные значения. Поскольку можно доказать, что она имеет распределение х* с k — n— 1 степенями свободы (см. гл. XII, § 13), обозначим ее через х*. Итак, критерий проверки нулевой гипотезы Х« = (я —l)SVaJ. Критическая область строится в зависимости от вида конкурирующей гипотезы. Первый случай. Нулевая гипотеза Н0:ог — о*. Конкурирующая гипотеза //1:a*>ag. В этом случае строят правостороннюю критическую область, исходя из требования, чтобы вероятность попа- попадания критерия в эту область в предположении справед- справедливости нулевой гипотезы была равна принятому уровню значимости: Критическую точку х*р (a; k) находят по таблице кри- критических точек распределения х2 (см- приложение 5), и тогда правосторонняя критическая область определяется неравенством х* > х?р. а область принятия нулевой гипо- гипотезы— неравенством х* < Х*р- Обозначим значение критерия, вычисленное по данным наблюдений, через Хнабл и сформулируем правило про- проверки нулевой гипотезы. Правило 1. Для того чтобы при заданном уровне зна- значимости а проверить нулевую гипотезу Н0:а2 = о1 о ра- равенстве неизвестной генеральной дисперсии нормальной совокупности гипотетическому значению при конкурирую- конкурирующей гипотезе #1:a2>a2., надо вычислить наблюдаемое значение критерия хИабл = («—l)S2/°o и по таблице кри- критических точек распределения x2t п° заданному уровню значимости а и числу степеней свободы k — n—1 найти критическую точку Хкр(а; Щ> 294
Если Хмбл < ХкР—нет оснований отвергнуть нулевую гипотезу. Если х?абл > Хкр—нулевую гипотезу отвергают. Пример 1. Из нормальной генеральной совокупности извлечена выборка объема п=13 и по ней найдена исправленная выборочная дисперсия s2=14,6. Требуется при уровне значимости 0,01 проверить нулевую гипотезу Я0:о2 = а*= 12, приняв в качестве конкурирующей гипотезы Hi'.a1 > 12. Решение. Найдем наблюденное значение критерия: По условию, конкурирующая гипотеза имеет вид о2 > 12, по- поэтому критическая область правосторонняя. По таблице приложения 5, по уровню значимости 0,01 и числу степеней свободы k = n—1 = 13—1 = 12 находим критическую точку Х2р@,01; 12) = 26,2. Так как х'абл "^ ^кр —нет оснований отвергнуть нулевую гипо- гипотезу. Другими словами, различие между исправленной дисперсией A4,6) и гипотетической генеральной дисперсией A2) — незначимое. Второй случай. Нулевая гипотеза Н0:о* = а1. Конкурирующая гипотеза Нг:о2 Фа\. В этом случае строят двустороннюю критическую область, исходя из требования, чтобы вероятность попа- попадания критерия в эту область в предположении справед- справедливости нулевой гипотезы была равна принятому уровню значимости а. Критические точки—левую и правую границы крити- критической области—находят, требуя, чтобы вероятность по- попадания критерия в каждой из двух интервалов крити- критической области была равна а/2: Р [Xя < Хлев.кр (а/2; *)] = а/2, В таблице критических точек распределения х1 ука- указаны лишь «правые» критические точки, поэтому возни- возникает кажущееся затруднение в отыскании «левой» крити- критической точки. Это затруднение легко преодолеть, если ПрИНЯТЬ ВО ВНИМаНИе, ЧТО СОбЫТИЯ Х2 < Хлев.кр И X* > > Хлев.кр противоположны и, следовательно, сумма их вероятностей равна единице: Р (Ха < Хлев.кр) + Р (X2 > Хлев.кр) = 1. Отсюда Р (Ха > Хлев.кр) = 1 — Р (X2 < Хлев.кр) = I — (о/2). Мы видим, что левую критическую точку можно искать как правую (и значит, ее можно найти по таб- 295
лице), исходя из требования, чтобы вероятность попада- попадания критерия в интервал, расположенный правее этой точки, была равна 1—(а/2). Правило 2. Для того чтобы при заданном уровне зна- значимости а проверить нулевую гипотезу о равенстве не- неизвестной генеральной дисперсии о2 нормальной сово- совокупности гипотетическому значению or2, при конкурирую- конкурирующей гипотезе Н^.&ФвХ, надо вычислить наблюдаемое значение критерия Хнабл = («—\)s*/ol и по таблице найти левую критическую точку ХкрA—а/2;/г) и правую кри- критическую точку xi<p(a/2;k). ЕСЛИ Хлев.кр<Хнабл<Хправ.кр —Нет ОСНОВЭНИЙ ОТВерГ- нуть нулевую гипотезу. ЕСЛИ Хнабл < Хлев.кр ИЛИ Хнабл > Хправ.кр — Нулевую ГИПО- тезу отвергают. Пример 2. Из нормальной генеральной совокупности извлечена выборка объема л=13 и по.ней найдена исправленная выборочная дисперсия s2=10,3. Требуется при уровне значимости 0,02 проверить нулевую гипотезу Нв:а* = о*= 12, приняв в качестве конкурирующей гипотезы Яг:а2 Ф 12. Решение. Найдем наблюдавшееся значение критерия: Х2яабл = (п-1)*г/<г2=(A3-1)-10,3)/12=10,3. Так как конкурирующая гипотеза имеет вид аа ф 12, то крити- критическая область—двусторонняя. По таблице приложения 5 находим критические точки: левую — Xjp(!-a/2; к) = х2 A -0,02/2; 12) = хакр@,99; 12) = 3,57 и правую- Xjp(a/2; k)=%^p@,0l'. 12) = 26,2. Так как наблюдавшееся значение критерия принадлежит области принятия гипотезы C,57 < 10,3 < < 26,2) — нет оснований ее отвергнуть. Другими словами, исправлен- исправленная выборочная дисперсия A0,3) незначимо отличается от гипотети- гипотетической генеральной дисперсии A2). Третий случай. Конкурирующая гипотеза Правило 3. При конкурирующей гипотезе //1:a2<aJ находят критическую точку ХкрО—a; k). Если Хнабл >ХкрA—a; ft) — нет оснований отвергнуть нулевую гипотезу. Если х5абл < Хкр A —«; Ь) — нулевую гипотезу отвер- отвергают. Замечание 1. В случае, если найдена выборочная диспер- дисперсия DB, в качестве критерия принимают случайную величину Xs =лО„/СТо, которая имеет распределение хг с к = п—1 степенями свободы, либо переходят к s2 = [n/(n-—l)] DB. Замечание 2. Если число степеней свободы к > 30, то кри- критическую точку можно найти приближенно по равенству Уилсона »— 296
Гилферти Х»р(а; к)=к11- а где га определяют, используя'функцию Лапласа (см. приложение 2), по равенству Ф(га) = A—2а)/2. § 10. Сравнение двух средних нормальных генеральных совокупностей, дисперсии которых известны (независимые выборки) Пусть генеральные совокупности X и У распре- распределены нормально, причем их дисперсии известны (на- (например, из предшествующего опыта или найдены теоре- теоретически). По независимым выборкам, объемы которых соответственно равны пит, извлеченным из этих сово- совокупностей, найдены выборочные средние хну. Требуется по выборочным средним при заданном уровне значимости а проверить нулевую гипотезу, со- состоящую в том, что генеральные средние (математические ожидания) рассматриваемых совокупностей равны между собой, т. е. Учитывая, что выборочные средние являются несме- несмещенными оценками генеральных средних (см. гл. XV, § 5), т. е. М(Х) = М(Х) и М (У) = М (Y), нулевую гипотезу можно записать так: Таким образом, требуется проверить, что математиче- математические ожидания выборочных средних равны между собой. Такая задача ставится потому, что, как правило, выбо- выборочные средние оказываются различными. Возникает вопрос: значимо или незначимо различаются выборочные средние? Если окажется, что нулевая гипотеза справедлива, т. е. генеральные средние одинаковы, то различие выбо- выборочных средних незначимо и объясняется случайными причинами и, в частности, случайным отбором объектов выборки. Например, если физические величины А и В имеют одинаковые истинные размеры, а средние арифметиче- 297
ские х я у результатов измерений этих величин раз* личны, то это различие незначимое. Если нулевая гипотеза отвергнута, т. е. генеральные средние неодинаковы, то различие выборочных средних значимо и не может быть объяснено случайными причи- причинами, а объясняется тем, что сами генеральные средние (математические ожидания) различны. Например, если среднее арифметическое х результатов измерений физиче- физической величины А значимо отличается от среднего ариф- арифметического у результатов измерений физической вели- величины В, то это означает, что истинные размеры (матема- (математические ожидания) этих величин различны. В качестве критерия проверки нулевой гипотезы при- примем случайную величину у x—Y X—Y о (X—Y) YD(X)/n + D(Y)/m Эта величина случайная, потому что в различных опы- опытах х и у принимают различные, наперед неизвестные значения. Пояснение. По определению среднего квадратиче- ского отклонения, а(Х — Y) — V D (X — V). На основании свойства 4 (см. гл. VIII, § 5), D (X-Y) = D(X) + D (Y). _ По формуле (*) (см. гл. VIII, § 9), D(X) = D(X)/n, ) ) Следовательно, Критерий Z—нормированная нормальная случайная величина. Действительно, величина Z распределена нор- нормально, так как является линейной комбинацией нор- нормально распределенных величин X и Y; сами эти вели- величины распределены нормально как выборочные средние, найденные по выборкам, извлеченным из нормальных генеральных совокупностей; Z—нормированная величина потому, что Л1B) = 0; при справедливости нулевой гипо- гипотезы a(Z)=l, поскольку выборки независимы. Критическая область строится в зависимости от вида конкурирующей гипотезы. 298
Первый случай. Нулевая гипотеза Н„: М(Х) = = M(Y). Конкурирующая гипотеза Нг'. М (X) ФМ (Y). В этом случае строят двустороннюю критическую область, исходя из требования, чтобы вероятность попа- попадания критерия в эту область в предположении справед- справедливости нулевой гипотезы была равна принятому уровню значимости а. Наибольшая мощность критерия (вероятность попа- попадания критерия в критическую область при справедли- справедливости конкурирующей гипотезы) достигается тогда, когда Рис. 25 «левая» и «правая» критические точки выбраны так, что вероятность попадания критерия в каждый из двух ин- интервалов критической области равна а/2: Р (Z < гЛев. «») = а/2, Р (Z > znpaB. кр) =а/2. Поскольку Z—нормированная нормальная величина, а распределение такой величины симметрично относи- относительно нуля, критические точки симметричны относи- относительно нуля. Таким образом, если обозначить правую границу дву- двусторонней критической области через zKP, то левая гра- граница равна — zKP (рис. 25). Итак, достаточно найти правую границу, чтобы найти саму двустороннюю критическую область Z<—zKp, Z > zKP и область принятия нулевой гипотезы (—zKp, zKP). Покажем, как найти zKP—правую границу двусторон- двусторонней критической области, пользуясь функцией Лапласа Ф(г). Известно, что функция Лапласа определяет вероят- вероятность попадания нормированной нормальной случайной величины, например Z, в интервал @, г): P@<Z<z) = <D(z). (**) Так как распределение Z симметрично относительно нуля, то вероятность попадания Z в интервал @, оо) равна 1/2. Следовательно, если разбить этот интервал точкой гкр на интервалы @, гкр) и (гкр, оо), то, по теореме 299
сложения, Р @< Z < zKP) + Я (Z>zKP)= 1/2, (***) В силу (*) и (#*) получим <D(zKP) + a/2=l/2. Следовательно, ФBкр) = A-а)/2. Отсюда заключаем: для того чтобы найти правую гра- границу двусторонней критической области (zKP), достаточно найти значение аргумента функции Лапласа, которому соответствует значение функции, равное A—а)/2. Тогда двусторонняя критическая область определяется нера- неравенствами " <->~—2Кр, /* J> ZKp, или равносильным неравенством | Z | > zKP, а область при- принятия нулевой гипотезы—неравенством—гкр < Z < zKP, или равносильным неравенством 12 | < гкр. .Обозначим значение критерия, вычисленное поданным наблюдений, через Zna6x и сформулируем правило про- проверки нулевой гипотезы. Правило 1. Для того чтобы при заданном уровне зна- значимости а проверить нулевую гипотезу Но: М (Х) = М (У) о равенстве математических ожиданий двух нормальных генеральных совокупностей с известными дисперсиями при конкурирующей гипотезе Нх\ М {Х)^=М (У), надо вычислить наблюденное значение критерия Zna6x — = , х~у и по таблице функции Лапласа найти У D(X)/n-\-D(Y)/m критическую точку по равенству Ф2к =A—а)/2. Если |^наEл|<гкр—нет оснований отвергнуть нуле- нулевую гипотезу. Если |2набл|>гкр—нулевую гипотезу отвергают. Пример 1. По двум независимым выборкам, объемы которых соответственно равны я = 60 и т = 50, извлеченным из нормальных генеральных совокупностей, найдены выборочные средние Зс = 1250 и у =1275. Генеральные дисперсии известны: D(X)=]20, D(K)=100. При уровне значимости 0,01 проверить нулевую гипотезу Яо: М(Х) = = M(Y), при конкурирующей гипотезе Hi. М (X) Ф М (Y). Решение. Найдем набл () ( наблюдаемое значение критерия: х—у 1250—1275 = . = V D(X)/n-i-D(Y)/m У 120/60+ 100/50 300 = —12,5.
По условию, конкурирующая гипотеза имеет вид М (X) ф М (У), поэтому критическая область — двусторонняя. Найдем правую критическую точку: ) = A-а)/2 = A -0,01)/2 = 0,495. По таблице функции Лапласа (см. приложение 2) находим 2*0=* 2,58. Так как |2Иабл1>2кр— нулевую гипотезу отвергаем. Другими словами, выборочные средние различаются значимо. Второй случай. Нулевая гипотеза Яо: М (X) — = М (У). Конкурирующая гипотеза Нг: М (X) > М (У). На практике такой случай имеет место, если про- профессиональные соображения позволяют предположить, что генеральная средняя од- одной совокупности больше генеральной средней дру- гой. Например, если введено усовершенствование техноло- Рис. гического процесса, то есте- естественно допустить, что оно приведет к увеличению вы- выпуска продукции. В этом случае строят правостороннюю критическую область, исходя из требования, чтобы вероят- вероятность попадания критерия в эту область в предположении справедливости нулевой гипотезы была равна принятому уровню значимости (рис. 26): Р (Z > гкр) = а. (#***) Покажем, как найти критическую точку с помощью функции Лапласа. Воспользуемся соотношением (***): Р @ < Z < гкр) + Р (Z > гкр) = 1/2. В силу (**) и (****) имеем Следовательно, Отсюда заключаем: для того чтобы найти границу пра- правосторонней критической области (zKP), достаточно найти значение аргумента функции Лапласа, которому соответ- соответствует значение функции, равное A—2а)/2. Тогда право- правосторонняя критическая область определяется неравенст- неравенством Z > гкр, а область принятия нулевой гипотезы — неравенством Z < zKP. Правило 2. Для того чтобы при заданном уровне зна- значимости а проверить нулевую гипотезу Яо: M(X) = M(Y) 301
о равенстве математических ожиданий двух нормальных генеральных совокупностей с известными дисперсиями при конкурирующей гипотезе Нх\ М (X) > М (У), надо вычислить наблюдавшееся значение критерия ZHa6x »= «¦ ¦ , *~у и по таблице функции Лапласа найти VD(X)/n + D(Y)/m критическую точку из равенства Ф(гкр) = A—2а)/2. Если ZHa6jI < zKP—нет оснований отвергнуть нулевую гипотезу. Если ZBa6jI>zKp—нулевую гипотезу отвергают. Пример 2. По двум независимым выборкам, объемы которых соответственно равны л =10 и т=10, извлеченным из нормальных генеральных совокупностей, найдены выборочные средние х=14,3 и ?=12,2. Генеральные дисперсии известны: D(X) = 22, D(Y)=i8. При уровне значимости 0,05 проверить нулевую гипотезу Яо: М (X) =t = M(Vr), при конкурирующей гипотезе Нх: М (X) > М (У). Решение. Найдем наблюдаемое значение критерия; _ 14,3-12,2 пс. 2На6д = —7===- = 1,05. У 22/10+ 18/10 По условию, конкурирующая гипотеза имеет вид М (X) > М (У), поэтому критическая область—правосторонняя. По таблице функции Лапласа находим гкр=1,64. Так как 2„абл < *кр—нет оснований отвергнуть нулевую гипо- гипотезу. Другими словами, выборочные средние различаются незначимо. Третий случай. Нулевая гипотеза Но: М (X) «= *= М (У). Конкурирующая гипотеза Ях. М (X) < М (Y). В этом случае строят левостороннюю критическую область, исходя из требования, чтобы вероятность попа- 0 Рис. 27 дания критерия в эту область в предположении справед- справедливости нулевой гипотезы была равна принятому уровню значимости (рис. 27): Приняв во внимание, что критерий Z распределен симметрично относительно нуля, заключаем, что искомая критическая точка z'Kp симметрична такой точке [zKV > 0, для которой P(Z>zKP)=a, т. е. г'кр = — гкр/ Таким 302
образом, для того чтобы найти точку z'Kp, достаточно сначала найти «вспомогательную точку» zKp так, как описано во втором случае, а затем взять найденное значение со знаком минус. Тогда левосторонняя крити- критическая область определяется неравенством Z <—zKp, а область принятия нулевой гипотезы—неравенством Z>— zKP. Правило 3. При конкурирующей гипотезе Нх\ М (X) < < М (Y) надо вычислить ZHa6j, и сначала по таблице функции Лапласа найти «вспомогательную точку» zKP по равенству Ф(гкр = A—2а)/2, а затем положить ZkP«*—г^. Если ZHa6jI >—zKP—нет оснований отвергнуть нуле- нулевую гипотезу. Если ZHa6il <—zKp—нулевую гипотезу отвергают. Пример 3. По двум независимым выборкам, объемы 'которых соответственно равны л = 50 и т = 50, извлеченным из нормальных генеральных совокупностей, найдены выборочные средние 1= 142 и у"=150. Генеральные дисперсии известны: D(X) = 28,2, D (Y) =22,8. При уровне значимости 0,01 проверить нулевую гипотезу Яо: Af(X)«= ==Л1 (г), при конкурирующей гипотезе Я»: M(X)<M(Y). Решение. Подставив данные задачи в формулу для вычисле- вычисления наблюдаемого значения критерия, получим ZHaee =—8. По условию, конкурирующая гипотеза имеет вид М (X) < М (К), поэтому критическая область — левосторонняя. Найдем «вспомогательную точку» zKp: ФBкр) = A—2<х)/2 = A— 2.0,01)/2 = 0,49. По таблице функции Лапласа находим zKp = 2,33. Следова- Следовательно, Zkp = —ZicP = —2,33. Так как Ъкл(,л <—гкр—нулевую гипотезу отвергаем. Другими словами, выборочная средняя х значимо меньше выборочной сред- средней у. § 11* Сравнение двух средних произвольно распределенных генеральных совокупностей (большие независимые выборки) В предыдущем параграфе предполагалось, что генеральные совокупности X и Y распределены нор- нормально, а их дисперсии известны. При этих предполо- предположениях в случае справедливости нулевой гипотезы о равенстве средних и независимых выборках критерий Z распределен точно нормально с параметрами 0 и 1. 303
Если хотя бы одно из приведенных требований не выполняется, метод сравнения средних, описанный в § 10, неприменим. Однако если независимые выборки имеют большой объем (не менее 30 каждая), то выборочные средние рас- распределены приближенно нормально, а выборочные дис- дисперсии являются достаточно хорошими оценками гене- генеральных дисперсий и в этом смысле их можно считать известными приближенно. В итоге критерий распределен приближенно нормально с параметрами M(Z') = 0 (при условии справедливости нулевой гипо- гипотезы) и o(Z')=l (если выборки независимы). Итак, если: 1) генеральные совокупности распреде- распределены нормально, а дисперсии их неизвестны; 2) гене- генеральные совокупности не распределены нормально и дис- дисперсии их неизвестны, причем выборки имеют большой объем и независимы,— можно сравнивать средние так, как описано в § 10, заменив точный критерий Z прибли- приближенным критерием Z'. В этом, случае наблюдаемое зна- значение приближенного критерия таково: 7' _ Л'НяЛл -— * Замечание. Поскольку рассматриваемый критерий — прибли- приближенный, к выводам, полученным по этому критерию, следует отно- относиться осторожно. Пример. По двум независимым выборкам, объемы которых соот- соответственно равны п=100 и т=120, найдены выборочные средние х = 32,4, у = 30,1 и выборочные дисперсии DB(X) = 15,0, DB(Y)~25,2. При уровне значимости 0,05 проверить нулевую гипотезу Но; М(Х) = = M(Y), при конкурирующей гипотезе Н^. М(Х) Ф M(Y). Решение. Подставив данные задачи в формулу для вычисле- вычисления наблюдаемого значения приближенного критерия, получим , По условию, конкурирующая гипотеза имеет вид М (X) > М (У), поэтому критическая область — правосторонняя. Найдем критическую точку по равенству Ф(гкр) = A— 2а)/2 = ( 1—2- 0,05)/2 = 0,45. По таблице функции Лапласа находим гкр=1,64. Так как ZHa6a > гкр — нулевую гипотезу отвергаем. Другими словами, выборочные средние различаются значимо. 304
§ 12. Сравнение двух средних нормальных генеральных совокупностей, дисперсии которых неизвестны и одинаковы (малые независимые выборки) Пусть генеральные совокупности X и У распре- распределены нормально, причем их дисперсии неизвестны. Например, по выборкам малого объема нельзя получить хорошие оценки генеральных дисперсий. По этой при- причине метод сравнения средних, изложенный в § 11, при- применить нельзя. Однако если дополнительно предположить, что неиз- неизвестные генеральные дисперсии равны между собой, то можно построить критерий (Стью- (Стьюдента) сравнения средних. Например, если сравниваются средние размеры двух партий деталей, изготовленных на одном и том же станке, то естественно допустить, что дисперсии контролируемых размеров одинаковы. Если же нет оснований считать дисперсии одинако- одинаковыми, то, прежде чем сравнивать средние, сле- следует, пользуясь критерием Фишера—Снедекора (см. §8), предварительно проверить гипотезу о равенстве гене- генеральных дисперсий. Итак, в предположении, что генеральные дисперсии одинаковы, требуется проверить нулевую гипотезу //„: М (Х) = М (Y). Другими словами, требуется установить, значимо или незначимо различаются выборочные средние х и у, найденные по независимым малым выборкам объе- объемов п и т. В качестве критерия проверки нулевой гипотезы при- примем случайную величину X —У -|/'nm(n + m — 2) -|/'n \)Sl * Доказано, что величина Т при справедливости нулевой гипотезы имеет ^-распределение Стьюдента ck — n-\-m — 2 степенями свободы. Критическая область строится в зависимости от вида конкурирующей гипотезы. Первый случай. Нулевая гипотеза Но\ М (X) = — M(Y). Конкурирующая гипотеза Нг: М{Х)фМ(У). В этом случае строят двустороннюю критическую область, исходя из требования, чтобы вероятность попа- 20 - 2731) 305
дания критерия Т в эту область в предположении спра- справедливости нулевой гипотезы была равна принятому уровню значимости а. Наибольшая мощность критерия (вероятность попа- попадания критерия в критическую область при справедли- справедливости конкурирующей гипотезы) достигается тогда, когда «левая» и «правая» критические точки выбраны так, что вероятность попадания критерия в каждый из двух интер- интервалов двусторонней критической области равна а/2: Р (Т < *«.. кР) = «/2, Р (Т > tnvaB. кр) = а/2. Поскольку величина Т имеет распределение Стью- Стьюдента, а оно симметрично относительно нуля, то и крити- критические точки симметричны относительно нуля. Таким образом, если обозначить правую границу двусторонней критической области через *диуст. кр(а; к), то левая гра- граница равна —*дВуст. кр (а; *)• Итак, достаточно найти правую границу двусторонней критической области, чтобы найти саму двустороннюю критическую область: Т < <—Wt. кр(«; k), T > *двуст. кр (а; К) и область принятия нулевой гипотезы: [—*двуст. кр(а; k), tMycr.KV(<x; к)]. Обозначим значение критерия, вычисленное по дан- данным наблюдений, через Т„а6я и сформулируем правило проверки нулевой гипотезы. Правило 1. Для того чтобы при заданном уровне зна- значимости а проверить нулевую гипотезу Но: М (Х) — М (У) о равенстве математических ожиданий двух нормальных совокупностей с неизвестными, но одинаковыми диспер- дисперсиями (в случае независимых малых выборок) при кон- конкурирующей гипотезе Ht: М (X) ф М (К), надо вычис- вычислить наблюдаемое значение критерия: , х—у -./~nm(n-\-m—2) ^ и по таблице критических точек распределения Стьюдента, по заданному уровню значимости а (помещенному в верх- верхней строке таблицы) и числу степеней свободы k = п -\- m—2 найти критическую точку /двуст. кр (a; k). Если | Гнабл| < гдвуст. кр(а; k)'— отвергнуть нулевую ги- гипотезу нет основании. Если | Гиа6л | > tдвуст. кр (a; k)—нулевую гипотезу от- отвергают, 306
Пример. По двум независимым малым выборкам, объемы которых соответственно равны л = 5 и т = 6, извлеченным из нормальных ге- генеральных совокупностей X и У, найдены выборочные средние х = 3,3, у = 2,48 и исправленные дисперсии sjf=O,25 и s^. = 0,108. При уровне значимости 0,05 проверить нулевую гипотезу Нй:М (Х) — М (У), при конкурирующей гипотезе НХ\М (л) Ф М (У). Решение. Так как выборочные дисперсии различны, проверим предварительно нулевую гипотезу о равенстве генеральных дисперсий, пользуясь критерием Фишера—Снедекора (см. § 8). Найдем отношение большей исправленной дисперсии к меньшей: Л,абл = 0,25/0,108 = 2,31. Дисперсия s? значительно больше дисперсии s\,, поэтому в ка- качестве конкурирующей примем гипотезу HxiD(X) > D (У). В этом случае критическая область — правосторонняя. По таблице, по уровню значимости а = 0,05 и числам степеней свободы А1 = 5—1=4, k2 = = 6—1=5 находим критическую точку FKp@,05; 4; 5)«=5,19. Так как /^абл < Лср—нет оснований отвергнуть нулевую гипо- гипотезу о равенстве генеральных дисперсий. Поскольку предположение о равенстве генеральных дисперсий выполняется, сравним средние. Вычислим наблюдаемое значение критерия Стьюдента: х~ У -t/~ пт (п-\-т — 2) Подставив числовые значения величин, входящих в эту формулу, по- получим Гиа6л = 3,27. По условию, конкурирующая гипотеза имеет вид М (X) Ф М (У), поэтому критическая область—двусторонняя. По уровню значимости 0,05 и числу степеней свободы Л = 5-)-6 — 2 = 9 находим по таблице (см. приложение 6) критическую точку /ЯВуст. кр @.05; 9) = 2,26. Так как Ти„ба > *ДВуст.кр — нулевую гипотезу о равенстве гене- генеральных средних отвергаем. Другими словами, выборочные средние различаются значимо. Второй случай. Нулевая гипотеза Н0:М(Х) = — М (У). Конкурирующая гипотеза Н1:М{Х) > М (У). В этом случае строят правостороннюю критическую область, исходя из требования, чтобы вероятность попада- „ лия критерия Т в эту область в предположении спра- справедливости нулевой гипотезы была равна принятому уровню значимости: * \' J> 'правост. кр/ = а< Критическую точку /Правост. кр (а". k) находят по таблице, приложения 6, по уровню значимости а, помещенному в нижней строке таблицы, и по числу степеней свободы /e = n+m —2. Если Гва6л < /праВ0СТ4 кр—нет оснований отвергнуть ну- нулевую гипотезу, 20* 307
Если ГиабяХправост.кр—нулевую гипотезу отвергают. Третий случай. Нулевая гипотеза Н0:М (X) — г=М(У). Конкурирующая гипотеза Н^.М (X) < М(У). В этом случае строят левостороннюю критическую область, исходя из требования, чтобы вероятность по- попадания критерия в эту область в предположении спра- справедливости нулевой гипотезы была равна принятому уров- уровню значимости: Р(Т< Невест. «р) = «. В силу симметрии распределения Стьюдента относи- относительно НуЛЯ ^евост. кр=—'правост. кр- ПоЭТОМу СНЭЧала НЭ- ХОДЯТ «ВСПОМОГатеЛЬНуЮ» КрИТИЧеСКуЮ ТОЧКУ /„раВост. кр так, как описано во втором случае, и полагают 'левост. кр 'правост. кр> Если Тна6л>—*поавост. кр—отвергнуть нулевую гипо- гипотезу нет оснований. Если Гнабл< —*правост. кр—нулевую гипотезу отвер- отвергают. § 13. Сравнение выборочной средней с гипотетической генеральной средней нормальной совокупности А. Дисперсия генеральной совокупности известна. Пусть генеральная совокупность X распределена нор- нормально, причем генеральная средняя а хотя и неизвестна, но имеются основания предполагать, что она равна ги- гипотетическому (предполагаемому) значению а0. Например, если X—совокупность размеров х( партии деталей, изгото- изготовляемых станком-автоматом, то можно предположить, что генеральная средняя а этих размеров равна проектному размеру а0. Чтобы проверить это предположение, находят выборочную среднюю х_и устанавливают, значимо или незначимо различаются х и а0. Если различие окажется незначимым, то станок обеспечивает в среднем проектный размер; если различие значимое, то станок требует под- наладки. Предположим, что дисперсия генеральной совокуп- совокупности известна, например, из предшествующего опыта, или найдена теоретически, или вычислена по выборке большого объема (по большой выборке можно получить достаточно хорошую оценку дисперсии). 308
Итак, пусть из нормальной генеральной совокупности извлечена выборка объема п и по ней найдена выбороч- выборочная средняя х, причем генеральная дисперсия а* известна. Требуется по выборочной средней при заданном уровне значимости проверить нулевую гипотезу Н0:а = а0 о ра- равенстве генеральной средней а гипотетическому значе- значению а0. Учитывая, что выборочная средняя является несме- несмещенной оценкой генеральной средней (см. гл. XVI, § 5), т. е:М(Х)=а, нулевую гипотезу можно записать так: () 0 Таким образом, требуется проверить, что математи- математическое ожидание выборочной средней равно гипотети- гипотетической генеральной средней. Другими словами, надо уста- установить, значимо или незначимо различаются выборочная и генеральная средние. В качестве критерия проверки нулевой гипотезы при- примем случайную величину U = (Х-а0)/о (X) = (Х-ав) ]ЛГ/<т, которая распределена нормально, причем при справедли- справедливости нулевой гипотезы M(U) = O, a(U)—\. Поскольку здесь критическая область строится в за- зависимости от вида конкурирующей гипотезы» так же как в § 10, ограничимся формулировкой правил проверки нулевой гипотезы, обозначив значение критерия U, вы- вычисленное по данным наблюдений, через и„абл. Правило 1. Для того чтобы при заданном уровне зна- значимости а проверить нулевую гипотезу H0:a = a0 о ра- равенстве генеральной средней а нормальной совокупности с известной дисперсией <та гипотетическому значению а0 при конкурирующей гипотезе Н^.афа^, надо вычислить наблюдаемое значение критерия: и по таблице функции Лапласа найти критическую точку двусторонней критической области по равенству Если |^набл|<ыкР—нет оснований отвергнуть нуле- нулевую гипотезу. Если | ^„абл |> «кр—нулевую гипотезу отвергают, 309
Правило 2, При конкурирующей гипотезе Н^.ау-а^ критическую точку правосторонней критической области находят по равенству ^(Ukp^O—2a)/2. Если С/Набл < иНр—нет оснований отвергнуть нулевую гипотезу. Если 0„л6л > икр—нулевую гипотезу отвергают. Правило 3. При конкурирующей гипотезе Hxta<an сначала находят критическую точку ыкр по правилу 2, а затем полагают границу левосторонней критической области и'кр —— и„р. Если 0ва6л >—ыкр—нет оснований отвергнуть нуле- нулевую гипотезу. Если ина6я <—ыкр—нулевую гипотезу отвергают. Пример 1. Из нормальной генеральной совокупности с известным средним квадратическим отклонением а = 0,36 извлечена выборка объема л = 36 и по ней найдена выборочная средняя х = 21,6. Тре- Требуется при уровне значимости 0,05 проверить нулевую гипотезу Я0:а = а0 = 21, при конкурирующей гипотезе Нх:а Ф 21. Решение. Найдем наблюдаемое значение критерия: f/набл =(* — во) К"п/а = B1,6—21) >^36/0,36 = 10. По условию, конкурирующая гипотеза имеет вид а Ф а0, поэтому критическая область—двусторонняя. Найдем критическую точку: Ф (Икр) =A —а)/2 = A —0,05)/2=0,475. По таблице функции Лапласа находим мкр = 1,96. Так как (/иавд > «кр—нулевую гипотезу отвергаем. Другими словами, выборочная и гипотетическая генеральная средние разли- различаются значимо. Пример 2. По данным примера 1 проверить нулевую гипотезу Н0:а = 21 при конкурирующей гипотезе а > 21. Решение. Так как конкурирующая гипотеза имеет вид а > 21, критическая область — правосторонняя. Найдем критическую точку из равенства По таблице функции Лапласа находим икр=1,65. Так как 6/Набл=^> икр — нулевую гипотезу отвергаем; разли- различие между выборочной и гипотетической генеральной средней — значимое. Заметим, что в примере 2 нулевую гипотезу можно было отверг- отвергнуть сразу, поскольку она была отвергнута в примере 1 при двусто- двусторонней критической области; полное решение приведено в учебных целях. Б. Дисперсия генеральной совокупности неизвестна. Если дисперсия генеральной совокупности неизвестна (например, в случае малых выборок), то в качестве кри- 310
терия проверки нулевой гипотезы принимают случайную величину где S—«исправленное» среднее квадратическое отклоне- отклонение. Величина Т имеет распределение Стьюдента с k = n— 1 степенями свободы. Критическая область строится в зависимости от вида конкурирующей гипотезы. Поскольку это делается так, как описано выше, ограничимся правилами проверки нулевой гипотезы. Правило 1. Для того чтобы при заданном уровне зна- значимости а проверить нулевую гипотезу Н0:а = а0 о ра- равенстве неизвестной генеральной средней а (нормальной совокупности с неизвестной дисперсией) гипотетическому значению а0 при конкурирующей гипотезе Н^. надо вычислить наблюдаемое значение критерия: и по таблице критических точек распределения Стьюдента, по заданному уровню значимости а, помещенному в верх- верхней строке таблицы, и числу степеней свободы k = n—1 найти критическую точку /двуст- кр (a; k). Если | Тяабл | < *дВуст. кр—нет оснований отвергнуть нулевую гипотезу. Если | Гва6л| > ^д8уст. „р—нулевую гипотезу отвергают. Правило 2. При конкурирующей гипотезе Н1:а'^>а0 по уровню значимости а, помещенному в нижней строке таблицы приложения 6, и числу степеней свободы k = n—1 находят критическую точку /nt(aB0CT. KP (a; k) правосто- правосторонней критической области. Если Тиа6я< *правост. кр—нет оснований отвергнуть нулевую гипотезу. Правило 3. При конкурирующей гипотезе Я1:а<о„, сначала находят «вспомогательную» критическую точку кр (а'« *) и полагают границу левосторонней кри- крий б / ^ „равост кр ( ) р тической Области /леВост. кр = —^правост.кр- Если Гиабл> — /правост.кр—нет оснований отвергнуть нулевую гипотезу. Если Тиабл< —*правост. „р—нулевую гипотезу отвер- отвергают. Пример 3. По выборке объема п = 20, извлеченной из нормаль- нормальной генеральной совокупности, найдены выборочная средняя дс = 16 и «исправленное» среднее квадратическое отклонение s = 4,5. Tpe- 311
буется при уровне значимости 0,05 проверить нулевую гипотезу Н0:а — а0=15, при конкурирующей гипотезе Н1:а Ф 15. Решение. Вычислим наблюдаемое значение критерия; 7\,абл=(*—До) V~n/s = A6 — 15)- /20/4,5 = 0,99. По условию, конкурирующая гипотеза имеет вид а ф а0, поэтому критическая область—двусторонняя. По таблице критических точек распределения Стьюдента, по уровню значимости а = 0,05, помещенному в верхней строке таблицы, и по числу степеней свободы ft = 20—1 = 19 находим критическую точку /двуст.кр @,05; 19) = 2,09. Так как | 7"набл I < 'двуст. кр —нет оснований, чтобы отвергнуть нулевую гипотезу; выборочная средняя незначимо отличается от ги- гипотетической генеральной средней. § 14. Связь между двусторонней критической областью и доверительным интервалом Легко показать, что, отыскивая двустороннюю критическую область при уровне значимости а,, тем самым находят и соответствующий доверительный интервал с надежностью у = 1—а. Например, в § 13, проверяя ну- нулевую гипотезу Н0:а—а0 при Hxia^a0, мы требовали, чтобы вероятность попадания критерия U ==(х—aJj/^/o" в двустороннюю критическую область была равна уровню значимости а, следовательно, вероятность попадания кри- критерия в область принятия гипотезы (—икр, ыкр) равна 1—а = у. Другими словами, с надежностью y выпол- выполняется неравенство — икр < (х—a) V~nlo < uKV, или равносильное неравенство р У п где р) у Мы получили доверительный интервал для оценки математического ожидания а нормального распределения при известном а с надежностью у (см. гл. XVI, § 15). Замечание. Хотя отыскание двусторонней критической об- области и доверительного интервала приводит к одинаковым резуль- результатам, их истолкование различно: двусторонняя критическая область определяет границы (критические точки), между которыми заключено A—а)% числа наблюдаемых критериев, найденных при повторении опытов; доверительный же интервал определяет границы (концы ин- интервала), между которыми в у = A—ос)% опытов заключено истин- истинное значение оцениваемого параметра. 312
§ 15. Определение минимального объема выборки при сравнении выборочной и гипотетической генеральной средних На практике часто известна величина (точность) 6 > 0, которую не должна превышать абсолютная вели- величина разности между выборочной и гипотетической гене- генеральной средними. Например, обычно требуют, чтобы средний размер изготовляемых деталей отличался от про- проектного не более чем на заданное б. Возникает вопрос: каким должен быть минимальный объем выборки, чтобы это требование с вероятностью у=\—а (а—уровень значимости) выполнялось? Поскольку задача отыскания доверительного интервала для оценки математического ожидания нормального рас- распределения при известном о и задача отыскания двусто- двусторонней критической области для проверки гипотезы о равенстве математического ожидания (генеральной сред- средней) гипотетическому значению (см. § 13, п. А) сводятся одна к другой {см. § 14), воспользуемся формулой (см. гл. XVI, § 15) где икР находят по равенству Ф (икр) = у/2 — A—а)/2. Если же а неизвестно, а найдена его оценка s, то (см. § 13, п. Б) § 16. Пример на отыскание мощности критерия Приведем решение примера на нахождение мощ- мощности критерия. Пример. По выборке объема п = 25, извлеченной из нормальной генеральной совокупности с известным средним квадратическим от- отклонением а=10, найдена выборочная средняя лг=18. При уровне значимости 0,05 требуется: а) найти критическую область, если проверяется нулевая гипо- гипотеза //0:а = а0 = 20 о равенстве генеральной средней гипотетическому значению при конкурирующей гипотезе Н^'.а < 20; б) найти мощность критерия проверки при ао=1б. Решение, а) Так как конкурирующая гипотеза имеет вид а < а0, критическая область—левосторонняя. Пользуясь правилом 3 (см. § 13, п. А), найдем критическую точку: "кр = —1,65. Следовательно, левосторонняя критическая область оп- 313
ределяется неравенством U < —1,65, или подробнее (х—20) уТй/Ю < —1,65. Отсюда х< 16,7. При этих значениях выборочной средней нулевая гипотеза от- отвергается; в этом смысле *=16,7 можно рассматривать как крити- критическое значение выборочной средней. б) Для того чтобы вычислить мощность рассматриваемого кри- критерия, предварительно найдем его значение при условии справедли- справедливости конкурирующей гипотезы (т. е. при ао=16), положив х= 16,7: U =(х— а0) >гп/о==A6,7— 16) 1^25/10 = 0,35. Отсюда видно, что если х< 16,7, то U < 0,35. Поскольку при х < 16,7 нулевая гипотеза отвергается, то и при U < 0,35 она также отвергается (при этом конкурирующая гипотеза справедлива, так как мы положили ао = 16). Найдем теперь, пользуясь функцией Лапласа, мощность крите- критерия, т. е. вероятность того, что нулевая гипотеза будет отвергнута, если справедлива конкурирующая гипотеза (см. § 7): P(U < 0,35) = Р(—оо < U <0,35) = Р(—оо < U < 0) + + Я@< U <0,35) = 0>5 + Ф@,35) = 0,5 + 0,1368 = 0,6368. Итак, искомая мощность рассматриваемого критерия прибли- приближенно равна 0,64. Если увеличить объем выборки, то мощность увеличится. Например, при л = 64 мощность равна 0,71. Если увеличить а, то мощность^ также увеличится. Например, при а = 0,1 мощность равна 0,7642. Замечание. Зная мощность, легко найти вероятность ошибки второго рода: р=1—0,64. (Разумеется, при решении примера можно было сначала найти р, а затем мощность, равную 1 — р.) § 17. Сравнение двух средних нормальных генеральных совокупностей с неизвестными дисперсиями (зависимые выборки) В предыдущих параграфах выборки предпола- предполагались независимыми. Здесь рассматриваются выборки одинакового объема, варианты которых попарно зави- зависимы. Например, если х( (i— 1, 2, ...,«) — результаты измерений деталей первым прибором, а у{—результаты измерений этих же деталей, произведенные в том же по- порядке вторым прибором, то х{ и yt попарно зависимы и в этом смысле сами выборки зависимые. Поскольку, как правило, Х[фу{, то возникает необходимость установить, значимо или незначимо различаются пары этих чисел. Аналогичная задача ставится при сравнении двух мето- методов исследования, осуществленных одной лаборатори- зи
ей, или если исследование произведено одним и тем же методом двумя различными лабораториями. Итак, пусть генеральные совокупности X и Y рас- распределены нормально, причем их дисперсии неизвестны. Требуется при уровне значимости а проверить нулевую гипотезу Н^-.М (Х) = М (У) о равенстве генеральных сред- средних нормальных совокупностей с неизвестными диспер- дисперсиями при конкурирующей гипотезе Н^.М (Х)фМ (У) по двум зависимым выборкам одинакового объема. Сведем эту задачу сравнения двух средних к задаче сравнения одной выборочной средней с гипотетическим значением генеральной средней, решенной в § 13, п. Б. С этой целью введем в рассмотренные случайные вели- величины— разности Dt = Xt—Yt и их среднюю Х~~ "^ Если нулевая гипотеза справедлива, т. е. М (X) = М (К), то М (X)—М(У) = 0 и, следовательно, М (D) = М (X — Y) = М (X)—М (V) = 0. Таким образом, нулевую гипотезу Но: М (X) =** М (F) можно записать так: Тогда конкурирующая гипотеза примет вид Замечание 1. Далее наблюдаемые неслучайные разности xi—yt будем обозначать через d/ в отличие от случайных разностей D{ = Xi—Y(. Аналогично выборочную среднюю этих разностей 2 **//** обозначим через d в отличие от случайной величины D. Итак, задача сравнения двух средних х и у сведена к задаче сравнения одной выборочной средней S с гипотетическим значением генеральной средней М(Б) = ай — 0. Эта задача решена ранее в§ 13, п. Б, поэтому приведем лишь правило проверки нулевой гипотезы и иллюстрирующий пример. Замечание 2. Как следует из изложенного выше, а фор- формуле (см. § 13, п. Б) 315
надо положить - - x=d, ао=о, s=sd= Тогда Ha6a Vd Правило. Для того чтобы при заданном уровне зна- значимости а проверить нулевую гипотезу Яв:М(Х) = = М (У) о равенстве двух средних нормальных совокуп- совокупностей с неизвестными дисперсиями (в случае зависимых выборок одинакового объема) при конкурирующей гипо- гипотезе М (X) ФМ (Y), надо вычислить наблюдаемое зна- значение критерия: и по таблице критических точек распределения Стьюдента, по заданному уровню значимости а, помещенному в верх- верхней строке таблицы, и по числу степеней свободы k = п— 1 найти критическую точку f двуст. кр (a; k). Если | Т„а6л | < ?аВуст. кр—нет оснований отвергнуть нулевую гипотезу. Если | Т'набл! > ^двуст. кр — нулевую гипотезу отвергают. Пример. Двумя приборами в одном и том же порядке измерены 5 деталей и получены следующие результаты (в сотых долях мил- миллиметра): *i = 6, *2 = 7, *з = 8. *4 = 5, *6 = 7; 4-1=7, 4*г = 6, у, = 8, у4 = 7, ув=8. При уровне значимости 0,05 установить, значимо или незначимо раз- различаются результаты измерений. Решение. Вычитая из чисел первой строки числа второй, получим: di = — 1, d2=l, da = 0, dt——2, d6 ——1. Найдем выборочную среднюю: ? — 2Н 1)/5 = —0,6. Учитывая, что 2d?= I +' +4+ • =7 и 2d/ = —3, найдем «исправленное» среднее квадратическое отклонение: Вычислим наблюдаемое значение критерия: Т =-1,18. По таблице критических точек распределения Стьюдента, по уровню значимости ? 0,05, помещенному в верхней строке таблицы, и числу степеней свободы k = 5 —1=4 находим критическую точку 'двуст. кр @,06; 4) = 2,78. 816
Так как |Тнабл| < 'ЯВуст. кр— нет оснований отвергнуть нулевую гипотезу. Другими словами, результаты измерений различаются незначимо. § 18. Сравнение наблюдаемой относительной частоты с гипотетической вероятностью появления события Пусть по достаточно большому числу п незави- независимых испытаний) в каждом из которых вероятность р появления события постоянна, но неизвестна, найдена относительная частота т/п. Пусть имеются основания предполагать, что неизвестная вероятность равна гипоте- гипотетическому значению р0. Требуется при заданном уровне значимости а проверить нулевую гипотезу, состоящую в том, что неизвестная вероятность р равна гипотетиче- гипотетической вероятности р0. Поскольку вероятность оценивается по относительной частоте, рассматриваемую задачу можно сформулировать и так: требуется установить, значимо или незначимо раз- различаются наблюдаемая относительная частота и гипоте- гипотетическая вероятность. В качестве критерия проверки нулевой гипотезы при- примем случайную величину где qo = \— p0. Величина U при справедливости нулевой гипотезы распределена приближенно нормально с параметрами М((/) 0 A/I () () Пояснение. Доказано (теорема Лапласа), что при достаточно больших значениях п относительная частота имеет приближенно нормальное распределение с матема- математическим ожиданием р и средним квадратическим откло- отклонением У pq/n. Нормируя относительную частоту (вычи- (вычитая математическое ожидание и деля на среднее квад- ратическое отклонение), получим У М/п—р ^ (М/п—р) У"п У ря/п Уря причем 317
При справедливости нулевой гипотезы, т. е. при р = р0, U ={M/n—Pt) V~n У РчЯо Замечание 1. Далее наблюдаемая частота обозначается через т/п в отличие от случайной величины М/п. Поскольку здесь критическая область строится так же, как и в § 10, приведем лишь правила проверки нулевой гипотезы и иллюстрирующий пример. Правило 1, Для того чтобы при заданном уровне зна- значимости проверить нулевую гипотезу Н0:р = р0 о равен- равенстве неизвестной вероятности гипотетической вероятности при конкурирующей гипотезе Н^-.рФр^, надо вычислить наблюдаемое значение критерия: ^набл = {т/п—р0) VnlVpoqo и по таблице функции Лапласа найти критическую точку цкр по равенству Ф(«кр) = A—а)/2. Если |?/цабл|<Ицр—нет оснований отвергнуть нуле- нулевую гипотезу. Если | ?/вабл I > "кр—нулевую гипотезу отвергают. Правило 2. При конкурирующей гипотезе Я1:р>р0 находят критическую точку правосторонней критической области по равенству Ф(икр) = A—2а)/2. Если ииабл<икр—нет оснований отвергнуть нулевую гипотезу. Если ?/иа6л > икр—нулевую гипотезу отвергают. Правило 3. При конкурирующей гипотезе Нх\р < р0 находят критическую точку ыкр по правилу 2, а затем полагают границу левосторонней критической области «кР = —"кр- Если ияа6я > — икр—нет оснований отвергнуть нуле- нулевую гипотезу. Если ?/„абл<—«up—нулевую гипотезу отвергают. Замечание 2. Удовлетворительные результаты обеспечивает выполнение неравенства npoqo > 9. Пример. По 100 независимым испытаниям найдена относительная частота 0,08. При уровне значимости 0,05 проверить нулевую гипо- гипотезу //0:р = р0 = 0,12 при конкурирующей гипотезе Нх:р Ф 0,12. Решение. Найдем наблюдаемое значение критерия; v»*6*^- Wfi-PoVV"" a (Q.08-0,12) УШ д j 23 По условию, конкурирующая гипотеза имеет вид р Ф р0, поэтому критическая область двусторонняя. 318
Найдем критическую точку мкр по равенству Ф(и»р)-»A—а)/2 = A—0,05)/2 = 0,475. По таблице функции Лапласа (см. приложение 2) находим Ккр=1,96. Так как |?/набл1 < цкр —нет оснований отвергнуть нулевую ги- гипотезу. Другими словами, наблюдаемая относительная частота не- незначимо отличается от гипотетической вероятности. §18. Сравнение двух вероятностей биномиальных распределений Пусть в двух генеральных совокупностях про- производятся независимые испытания; в результате каждого испытания событие А может появиться либо не появиться. Обозначим неизвестную вероятность появления собы- события А в первой совокупности через plt а во второй — через рг. Допустим, что в первой совокупности произ- произведено п1 испытаний (извлечена выборка объема nj, причем событие А наблюдалось т1 раз. Следовательно, относи- относительная частота появления события в первой совокупности w1{A)=m1/nl. Допустим, что во второй совокупности произведено я, испытаний (извлечена выборка объема nt), причем собы- событие А наблюдалось тг раз. Следовательно, относительная частота появления события во второй совокупности ша (Л) = mjn%. Примем наблюдавшиеся относительные частоты в ка- качестве оценок неизвестных вероятностей появления собы- события A: pl~wl, p2~w2. Требуется при заданном уровне значимости а проверить нулевую гипотезу, состоящую в том, что вероятности рх и р2 равны между собой: Заметим, что, поскольку вероятности оцениваются по относительным частотам, рассматриваемую задачу можно сформулировать и так: требуется установить, значимо или незначимо различаются относительные частоты хюх и ш,. В качестве критерия проверки нулевой гипотезы при- примем случайную величину Ур(\-р)(\1п1+\щ1) ' *' 319
Величина V при справедливости нулевой гипотезы распределена приближенно нормально о параметрами М (U) = 0 и a (U) = 1 (см. далее пояснение), В формуле (*) вероятность р неизвестна, поэтому заменим ее оценкой наибольшего правдоподобия (см. гл. XVI, § 21, пример 2); р* = {тг + т.)/^ + п„); кроме того, заменим случайные величины Мг и Мг их возможными значениями /пх и /п2, полученными в испы- испытаниях. В итоге получим рабочую формулу для вычис- вычисления наблюдаемого значения критерия: 11 ш\ / 1 , 1 \ Критическая область строится в зависимости от вида конкурирующей гипотезы так же, как в § 10, поэтому ограничимся формулировкой правил проверки нулевой гипотезы. Правило 1« Для того чтобы при заданном уровне зна- значимости а проверить нулевую гипотезу Н0:рг — р2 = р о равенстве вероятностей появления события в двух генеральных совокупностях (имеющих биномиальные рас- распределения) при конкурирующей гипотезе Нг:р!=?р2, надо вычислить наблюдаемое значение критерия: и по таблице функции Лапласа найти критическую точку цкр по равенству Ф(ыкр) = A— ос)/2. Если | ?/набл | < икр—нет оснований отвергнуть нуле- нулевую гипотезу. Если |?/„,6*|> Икр—нулевую гипотезу отвергают. Правило 2. При конкурирующей гипотезе Н1'.р1^> рг находят критическую точку правосторонней критической области по равенству Ф(«кр) = A—2а)/2. Если ?/Ваб*<"кр—нет оснований отвергнуть нулевую гипотезу. Если ипа6ж > u,jp—нулевую гипотезу отвергают. Правило 3, При конкурирующей гипотезе Я1:р1</з2 находят критическую точку ыкр по правилу 2, а затем полагают границу левосторонней критической области Икр =ж ~~~ ^кр« 820
Если ииабл > — икр—нет оснований отвергнуть нуле- нулевую гипотезу. Если Снабл <—мкр— нулевую гипотезу отвергают. Пример. Из первой партии изделий извлечена выборка объема Пх=100О изделий, причем /Ях = 20 изделий оказались бракованными; из второй партии извлечена выборка объема п = 900, причем /п, = 30 изделий оказались бракованными. При уровне значимости а = 0,05 проверить нулевую гипотезу Н0:р1 — р2 = р о равенстве вероятностей появления брака в обеих партиях при конкурирующей гипотезе Нх\ Pi Ф рг. Решение. По условию, конкурирующая гипотеза имеет вид Р\ Ф Рг, поэтому критическая область — двусторонняя. Найдем наблюдаемое значение критерия: ц __ Л Шх + тЛ /J |_\ rti + «2 Подставив данные задачи и выполнив вычисления, получим = -1,81. Найдем критическую точку: Ф(икр) = A—а)/2 = A—0,05)/2 = 0,475. По таблице функции Лапласа (см. приложение 2) находим ыкр=1,96. Так как | t/набл | < "кр—нет оснований отвергнуть нулевую ги- гипотезу. Другими словами, вероятности получения брака в обеих партиях различаются незначимо. Замечание. Для увеличения точности расчета вводят так называемую поправку на непрерывность, а именно вычисляют наблю- наблюдаемое значение критерия по формуле у __ [OTi/ni— l/2tti] — [m2/n2+l/2n2] П2 \ It! + П2 J \ ПХ ~*~ П2 В рассмотренном примере по этой формуле получим |?/набл| =1,96. Поскольку и икр = 1,96, необходимо провести дополнительные испыта- испытания, причем целесообразно увеличить объем выборок. Пояснение. Случайные величины Л11 и М2 рас- распределены по биномиальному закону; при достаточно большом объеме выборок их можно считать приближенно нормальными (практически должно выполняться неравен- неравенство npq~>9), следовательно, и разность U' = Mjnx — ~- Mjn2 распределена приближенно нормально. Для нормирования случайной величины U' надо вы- вычесть из нее математическое ожидание М ((/') и разделить результат на среднее квадратическое отклонение а ((/'). Покажем, что М (U') = 0. Действительно, М (Мг) — — п1р1 (см. гл. VII, § 5, замечание); при справедливости 21 2730 321
нулевой гипотезы (pl = pa = р) М (Мх) = пгр и аналогично М (Л42) = п2р. Следовательно, Покажем, что среднее квадратическое отклонение Действительно, дисперсия D(M1) = nxpl(l—рх) (см. гл. VIII, § 6, замечание); при справедливости нулевой гипотезы (Pi = p2 —p) D(M1) = nlp (I — р) и аналогично D (М2) = пгр A—р). Следовательно, D{U')=D [%•-%] =±D{Ml)+-LD(Mt) = = -!г«1рA-Р) + Л«2РA--Р) = РA--Р)(/— + — V Отсюда среднее квадратическое отклонение а ((У') = Итак, случайная величина U = (u'—М(и'))/о(и') (см. формулу (*)) нормирована и поэтому М (U) -Оно (U) — 1. § 20. Сравнение нескольких дисперсий нормальных генеральных совокупностей по выборкам различного объема. Критерий Бартлетта Пусть генеральные совокупности Xlt X2, .... Хг распределены нормально Из этих совокупностей извле- извлечены независимые выборки, вообще говоря, различных объемов п1( п2, ..., ti[ (некоторые объемы могут быть одинаковыми; если все выборки имеют одинаковый объем, то предпочтительнее пользоваться критерием Кочрена, который описан в следующем параграфе). По выборкам найдены исправленные выборочные дисперсии sf, s%, ..., s2t. Требуется по исправленным выборочным дисперсиям при заданном уровне значимости а проверить нулевую гипотезу, состоящую в том, что генеральные дисперсии рассматриваемых совокупностей равны между собой: 322
Другими словами, требуется установить, значимо или незначимо различаются исправленные выборочные дисперсии. Рассматриваемую здесь гипотезу о равенстве несколь- нескольких дисперсий называют гипотезой об однородности дисперсий. Заметим, что числом степеней свободы дисперсии s* на- называют число ki = n(—1, т. е. число, на единицу мень- меньшее объема выборки, по которой вычислена дисперсия. Обозначим через s2 среднюю арифметическую исправ- исправленных дисперсий, взвешенную по числам степеней свободы: i где k = S k{. В качестве критерия проверки нулевой гипотезы оэ однородности дисперсий примем критерий Бартлетта — случайную величину B = V/C, где V = 2,303 \k lgl» -\2 kt lg s?] , _L_ryJ A .A-1) L?i* *J' Бартлетт установил, что случайная величина В при условии справедливости нулевой гипотезы распределена приближенно как %* с /—1 степенями свободы, если все kl > 2. Учитывая, что ki = ni—1, заключаем, что п{ — — 1 > 2, или п{ > 3, т. е. объем каждой из выборок должен быть не меньше 4. Критическую область строят правостороннюю, исходя из требования, чтобы вероятность попадания критерия в эту область в предположении справедливости нулевой гипотезы была равна принятому уровню значимости: Критическую точку Хкр(а» '—*) находят по таблице приложения 5, по уровню значимости а и числу степеней 21* 323
свободы k = l—1, и тогда правосторонняя критическая область определяется неравенством В > х*р» а область принятия гипотезы—неравенством В < Xkp- Обозначим значение критерия Бартлетта, вычисленное по данным наблюдений, через ВнабЛ и сформулируем пра- правило проверки нулевой гипотезы. Правило. Для того чтобы при заданном уровне зна- значимости а проверить нулевую гипотезу об однородности дисперсий нормальных совокупностей, надо вычислить наблюдаемое значение критерия Бартлетта В = V/C и по таблице критических точек распределения х2 найти кри- критическую точку Хкр(а; I—1)- Если ?на«л<Хкр — нет оснований отвергнуть нулевую гипотезу. Если ВИабл > Хкр—нулевую гипотезу отвергают. Замечание 1. Не следует тор9питься вычислять постоян- постоянную С. Сначала надо найти V и сравнить с Хкр; если окажется, что V < Хкр, то подавно (так как С > 1) B=(V/C) < Хкр и, следовательно, С вычислять не нужно. Если же V > Хкр, то надо вычислить С и затем сравнить В с Хкр- Замечание 2. Критерий Бартлетта весьма чувствителен к отклонениям распределений от нормального, поэтому к выводам, полученным по этому критерию, надо относиться с осторожностью. Таблица 25 1 Номер вы- выборки 1 2 3 4 2 2 Объем вы- выборки  10 13 15 16 3 Число степе- ней сво- свободы ki 9 12 14 15 fc = 50 4 Дис- пер- персии •? 0,25 0,40 0,36 0,46 5 V? 2,25 4,80 5,04 6,90 18,99 6 1,3979 1,6021 1,5563 1,6628 7 *,*•? 6,5811 5,2252 7,7822 6,9420 22,5305 8 i/k. 324
Пример. По четырем независимым выборкам, объемы которых соответственно равны п1=10, яа=12, я,= 15, п4=16, извлеченным из нормальных генеральных совокупностей, найдены исправленные выборочные дисперсии, соответственно равные 0,25; 0,40; 0,36; 0,46. При уровне значимости 0,05 проверить гипотезу об однородности дисперсий (критическая область — правосторонняя). Решение. Составим расчетную табл. 25 (столбец 8 пока запол- заполнять не будем, поскольку еще неизвестно, понадобится ли вычис- вычислять С). Пользуясь расчетной таблицей, найдем: 72 = B */s?)/fe == 18,99/50 = 0,3798; lg 0,3798 = П5795; V = 2,303 [k lg ss —2 */ lg «?] = 2,303 [50.7,5795—22,5305] = 1,02. По таблице приложения 5, по уровню значимости 0,05 и числу степеней свободы I—1=4—1=3 находим критическую точку ХкР@,05; 3) = 7,8. Так как V < xJp, то подавно (поскольку С > 1) ?Набл = (У/С) < < х*р и, следовательно, отвергнуть нулевую гипотезу об однородно- однородности дисперсий нет основании. Другими словами, исправленные вы- выборочные дисперсии различаются незначимо. Замечание 3. Если требуется оценить генеральную диспер- дисперсию, то при условии однородности дисперсий целесообразно принять в качестве ее оценки среднюю арифметическую исправленных диспер- дисперсий, взвешенную по числам степеней свободы, т. е. Например, в рассмотренной задаче в качестве оценки генеральной дисперсии целесообразно принять 0,3798. § 21. Сравнение нескольких дисперсий нормальных генеральных совокупностей по выборкам одинакового объема. Критерий Кочрена Пусть генеральные совокупности Xlt Хг, .... Xt распределены нормально. Из этих совокупностей из- извлечено / независимых выборок одинакового объе- объемам и по ним найдены исправленные выборочные дис- дисперсии sf, si , s*, все с одинаковым числом степеней свободы k = п — 1. Требуется по исправленным дисперсиям при заданном уровне значимости а проверить нулевую гипотезу, со- состоящую в том, что генеральные дисперсии рассматрива- рассматриваемых совокупностей равны между собой: #0: D {Х\) = D (Хл) =•...= D (Х{). Другими словами, требуется проверить, значимо или незначимо различаются исправленные выборочные дис- дисперсии. 325
В рассматриваемом случае выборок одинакового объ- объема можно по критерию Фишера—Снедекора (см. § 8). сравнить наибольшую и наименьшую дисперсии; если окажется, что различие между ними незначимо, то по- подавно незначимо и различие между остальными диспер- дисперсиями. Недостаток этого метода состоит в том, что ин- информация, которую содержат остальные дисперсии, кроме наименьшей и наибольшей, не учитывается. Можно также применить критерий Бартлетта. Однако, как указано в § 20, известно лишь приближенное распределение этого критерия, поэтому предпочтительнее использовать критерий Кочрена, распределение которого найдено точно. Итак, в качестве критерия проверки нулевой гипо- гипотезы примем критерий Кочрена — отношение максималь- максимальной исправленной дисперсии к сумме всех исправленных дисперсий: Распределение этой случайной величины зависит только от числа степеней свободы k — n—1 и количества выбо- выборок /. Критическую область строят правостороннюю, исходя из требования, чтобы вероятность попадания критерия в эту область в предположении справедливости нулевой гипотезы была равна принятому уровню значимости: Критическую точку GKP(a;ft,/) находят по таблице приложения 8, и тогда правосторонняя критическая об- область определяется неравенством G > GKP, а область при- принятия нулевой гипотезы — неравенством G < GKP. Обозначим значение критерия, вычисленное по дан- данным наблюдений, через GKa6jI и сформулируем правило проверки нулевой гипотезы. Правило. Для того чтобы при заданном уровне зна- значимости а проверить гипотезу об однородности диспер- дисперсий нормально распределенных совокупностей, надо вы- вычислить наблюдаемое значение критерия и по таблице найти критическую точку. Если GH36fl < GRV—нет оснований отвергнуть нулевую гипотезу. Если Онабд>Скр — нулевую гипотезу отвергают. 326
Замечание. Если требуется оценить генеральную дисперсию, то при условии однородности дисперсий целесообразно принять в ка- качестве ее оценки среднюю арифметическую исправленных выбороч- выборочных дисперсий. Пример. По четырем независимым выборкам одинакового объема л =17, извлеченным из нормальных генеральных совокупностей, най- найдены исправленные дисперсии: 0,26; 0,36; 0,40; 0,42. Требуется: а) при уровне значимости 0,05 проверить нулевую гипотезу об одно- однородности генеральных дисперсий (критическая область — правосторон- правосторонняя); б) оценить генеральную дисперсию. Решение, а) Найдем наблюдаемое значение критерия Кочре- на — отношение максимальной исправленной дисперсии к сумме всех дисперсий: бнабл = 0.42/@.26 + 0..36+0,40 + 0,42) =0,2917. Найдем по таблице приложения 8, по уровню значимости 0,05, числу степеней свободы k =17—1 = 16 и числу выборок 1=4 критическую точку GKp@,05; 16; 4) =0,4366. Так как Снабл < GKp — нет оснований отвергнуть нулевую гипо- гипотезу об однородности дисперсий. Другими словами, исправленные выборочные дисперсии различаются незначимо. б) Поскольку нулевая гипотеза справедлива, в качестве оценки генеральной дисперсии примем среднюю арифметическую исправлен- исправленных дисперсий: аа = @,26 + 0,36+0,40 + 0,42)/4 =0,36. § 22. Проверка гипотезы о значимости выборочного коэффициента корреляции Пусть двумерная генеральная совокупность (X, Y) распределена нормально. Из этой совокупности из- извлечена выборка объема п и по ней найден выборочный коэффициент корреляции гв, который оказался отличным от нуля. Так как выборка отобрана случайно, то еще нельзя заключить, что коэффициент корреляции генераль- генеральной совокупности гг также отличен от нуля. В конечном счете нас интересует именно этот коэффициент, поэтому возникает необходимость при заданном уровне значи- значимости а проверить нулевую гипотезу //0:гг = 0 о равен- равенстве нулю генерального коэффициента корреляции при конкурирующей гипотезе Н1:гт = 0. Если нулевая гипотеза отвергается, то это означает, что выборочный коэффициент корреляции значимо отли- отличается от нуля (кратко говоря, значим), а X и К корре- лированы, т. е. связаны линейной зависимостью. Если нулевая гипотеза будет принята, то выбо- выборочный коэффициент корреляции незначим, а X и У не- коррелированы, т. е. не связаны линейной зависимостью. 327
В качестве критерия проверки нулевой гипотезы при- примем случайную величину Величина Т при справедливости нулевой гипотезы имеет распределение Стьюдента с k — n — 2 степенями свободы. Поскольку конкурирующая гипотеза имеет вид гг =7^0, критическая область—двусторонняя; она строится так же, как в § 12 (первый случай). Обозначим значение критерия, вычисленное по дан- данным наблюдений, через Т„а6п и сформулируем правило проверки нулевой гипотезы. Правило. Для того чтобы при заданном уровне зна- значимости а проверить нулевую гипотезу #0:гг —0 о ра- равенстве нулю генерального коэффициента корреляции нормальной двумерной случайной величины при конку- конкурирующей гипотезе Ht:rT^0, надо вычислить наблюда- наблюдаемое значение критерия: и по таблице критических точек распределения Стьюдента, по заданному уровню значимости и числу степеней сво- свободы k = n — 2 найти критическую точку tKP(a; k) для двусторонней критической области. Если |Гнабл| < *кр—нет оснований отвергнуть нуле- нулевую гипотезу. Если | Тна6л | > /кр—нулевую гипотезу отвергают. Пример. По выборке объема п— 122, извлеченной из нормальной двумерной совокупности, найден выборочный коэффициент корреля- корреляции г„ = 0,4. При уровне значимости 0,05 проверить нулевую гипо- гипотезу о равенстве нулю генерального коэффициента корреляции при конкурирующей гипотезе ffiirr Ф 0. Решение. Найдем наблюдаемое значение критерия: Гиабл = / По условию, конкурирующая гипотеза имеет вид гг Ф 0, поэтому критическая область — двусторонняя. По уровню значимости 0,05 и числу степеней свободы k = = 122 — 2=120 находим по таблице приложения 6 для двусторонней критической области критическую точку /кр@,05; 120)= 1,98. Поскольку Гнабл >/кр—нулевую гипотезу отвергаем. Другими словами, выборочный коэффициент корреляции значимо отличается от нуля, т. е. К и Y коррелнрованы. 328
§ 23. Проверка гипотезы о нормальном распределении генеральной совокупности. Критерий согласия Пирсона В предыдущих параграфах закон распределения генеральной совокупности предполагается известным. Если закон распределения неизвестен, но есть осно- основания предположить, что он имеет определенный вид (назовем его А), то проверяют нулевую гипотезу: гене- генеральная совокупность распределена по закону А. Проверка гипотезы о предполагаемом законе неизве- неизвестного распределения производится так же, как и про- проверка гипотезы о параметрах распределения, т. е. при помощи специально подобранной случайной величины — критерия согласия. Критерием согласия называют критерий проверки ги- гипотезы о предполагаемом законе неизвестного распреде- распределения. Имеется несколько критериев согласия: х2 («хи квад- квадрат») К. Пирсона, Колмогорова, Смирнова и др. Огра- Ограничимся описанием применения критерия Пирсона к про- проверке гипотезы о нормальном распределении генеральной совокупности (критерий аналогично применяется и для других распределений, в этом состоит его достоинство). С этой целью будем сравнивать эмпирические (наблюда- (наблюдаемые) и теоретические (вычисленные в предположении нормального распределения) частоты. Обычно эмпирические и теоретические частоты раз- различаются. Например (см. гл. XVII, § 7): эмп. частоты 6 13 38 74 106 85 30 10 4 теорет. частоты...3 14 42 82 99 76 37 11 2 Случайно ли расхождение частот? Возможно, что рас- расхождение случайно (незначимо) и объясняется либо ма- малым числом наблюдений, либо способом их группировки, либо другими причинами. Возможно, что расхождение частот неслучайно (значимо) и объясняется тем, что тео- теоретические частоты вычислены исходя из неверной гипо- гипотезы о нормальном распределении генеральной совокуп- совокупности. Критерий Пирсона отвечает на поставленный выше вопрос. Правда, как и любой критерий, он не доказы- доказывает справедливость гипотезы, а лишь устанавливает на 329
принятом уровне значимости ее согласие или несогласие с данными наблюдений. Итак, пусть по выборке объема п получено эмпири- эмпирическое распределение: варианты х{ хг хг ... xs эмп. частоты. . .п,- п1 па ... ns Допустим, что в предположении нормального распре- распределения генеральной совокупности вычислены теорети- теоретические частоты п\ (например, так, как в следующем па- параграфе). При уровне значимости а требуется проверить нулевую гипотезу: генеральная совокупность распреде- распределена нормально. В качестве критерия проверки нулевой гипотезы при- примем случайную величину Эта величина случайная, так как в различных опытах она принимает различные, заранее не известные значе- значения. Ясно, что чем меньше различаются эмпирические и теоретические частоты, тем меньше величина критерия (*), и, следовательно, он в известной степени характеризует близость Эмпирического и теоретического распределений. Заметим, что возведением в квадрат разностей частот устраняют возможность взаимного погашения положи- положительных и отрицательных разностей. Делением на п\ до- достигают уменьшения каждого из слагаемых; в против- противном случае сумма была бы настолько велика, что при- приводила бы к отклонению нулевой гипотезы даже и тогда, когда она справедлива. Разумеется, приведенные сооб- соображения не являются обоснованием выбранного крите- критерия, а лишь пояснением. Доказано, что при п—> оо закон распределения слу- случайной величины (*) независимо от того, какому закону распределения подчинена генеральная совокупность, стре- стремится к закону распределения %* с k степенями свободы. Поэтому случайная величина (*) обозначена через /*, а сам критерий называют критерием согласия «хи квадрат». Число степеней свободы находят по равенству k = = s—1—г, где s — число групп (частичных интервалов) выборки; г — число параметров предполагаемого распре- распределения, которые оценены по данным выборки. В частности, если предполагаемое распределение — нор- нормальное, то оценивают два параметра (математическое ззо
ожидание и среднее квадратическое отклонение), поэтому г = 2 и число степеней свободы k = s — 1—r=s—1—2 = = s—3. Если, например, предполагают, что генеральная сово- совокупность распределена по закону Пуассона, то оцени- оценивают один параметр %, поэтому г = 1 и ft=s — 2. Поскольку односторонний критерий более «жестко» отвергает нулевую гипотезу, чем двусторонний, построим правостороннюю критическую область, исходя из требо- требования, чтобы вероятность попадания критерия в эту об- область в предположении справедливости нулевой гипотезы была равна принятому уровню значимости а: Таким образом, правосторонняя критическая область определяется неравенством %2 > %1р{а\ k), а область при- принятия нулевой гипотезы — неравенством %2 <Хкр(°^ k). Обозначим значение критерия, вычисленное по дан- данным наблюдений, через Хнабл и сформулируем правило проверки нулевой гипотезы. Правило. Для того чтобы при заданном уровне зна- значимости проверить нулевую гипотезу #„;. генеральная совокупность распределена нормально, надо сначала вы- вычислить теоретические частоты, а затем наблюдаемое значение критерия: xU. = 2("/—«Л1//»/ (**) и по таблице критических точек распределения ха» по заданному уровню значимости ос и числу степеней сво- свободы k = s — 3 найти критическую точку Хкр(а'« &)• Если Хнабл < Хкр —нет оснований отвергнуть нулевую гипотезу. Если Хнабл > Хкр—нулевую гипотезу отвергают. Замечание 1. Объем выборки должен быть достаточно велик, во всяком случае ,не менее 50. Каждая группа должна содержать не менее 5—8 вариант; малочисленные группы следует объединять в од- одну, суммируя частоты. Замечание 2. Поскольку возможны ошибки первого и вто- второго рода, в особенности если согласование теоретических и эмпи- эмпирических частот «слишком хорошее», следует проявлять осторожность. Например, можно повторить опыт, увеличить число наблюдений, вос- воспользоваться другими критериями, построить график распределения, вычислить асимметрию и эксцесс (см. гл. XVII, § 8). Замечание 3. Для1 контроля вычислений формулу (*•) пре- преобразуют к виду =Г2л//п/]—¦ п. 331
Рекомендуем читателю выполнить это преобразование самостоятельно, для чего надо в (**) возвести в квадрат разность частот, сократить результат на тц и учесть, что ^я,- = л, ^,т =• п. Пример. При уровне значимости О.Оопроверить гипотезу о нор- нормальном распределении генеральной совокупности, если известны эм- эмпирические и теоретические частоты: эмп. частоты 6 13 38 74 106 85 30 14 теорет. частоты...3 14 42 82 99 76 37 13 Решение. Вычислим Хнабл, для чего составим расчетную табл. 26. Контроль: Хнабл = 7,19: l^nj/ni] — n = 373,19—366 = 7,19. Вычисления произведены правильно. Найдем число степеней свободы, учитывая, что число групп вы- выборки (число различных вариант) s = 8; к = 8 — 3 = 5. Таблица 26 1 1 1 2 3 4 5 6 7 8 2 2 ni 6 13 38 74 106 85 30 14 366 3 ni 3 14 42 82 99 76 37 13 366 4 пгп\ 3 — 1 —4 —8 7 9 —7 1 5 ("/-"II 9 1 16 64 49 81 49 1 6 {nrn\)%in'i 3 0,07 0,38 0,78 0,49 1,07 1,32 0,08 „2 Анабл = 7,19 7 «? 36 169 1444 5476 11236 7225 900 196 8 nVn'i 12 12,07 34,38 66,78 113,49 95,07 24,32 15,08 373,19 По таблице критических точек распределения %8 (см. приложе- приложение 5), по уровню значимости а = 0,05 и числу степеней свободы k = 5 находим х?р@.05; 5)= 11,1. Так как Хвабл < Хкр —нет оснований отвергнуть нулевую гипо- гипотезу. Другими словами, расхождение эмпирических и теоретических частот незначимое. Следовательно, данные наблюдений согласуются с гипотезой о нормальном распределении генеральной совокупности. 332
§ 24. Метрдика вычисления теоретических частот нормального распределения Как следует из предыдущего параграфа, сущность критерия согласия Пирсона состоит в сравнении эмпири- эмпирических и теоретических частот. Ясно, что эмпирические частоты находят из опыта. Как найти теоретические часто- частоты, если предполагается, что генеральная совокупность распределена нормально? Ниже приведен один из способов решения этой задачи. 1. Весь интервал наблюдаемых значений X (выборки объема п) делят на s частичных интервалов (xit xi+1) оди- одинаковой длины. Находят середины частичных интервалов х\ = (*,•-+-*<+г)/2; в качестве частоты л,- варианты jc* при- принимают число вариант, которые попали в i-й интервал. В итоге получают последовательность равноотстоящих вариант и соответствующих им частот: п1 пг ... ns При этом 2«/ = я. 2. Вычисляют, например методом произведений, выбо- выборочную среднюю х* и выборочное среднее квадратическое отклонение а*. 3. Нормируют случайную величину X, т. е. переходят к величине Z — (X — х*)/о* и вычисляют концы интервалов (zh zi+l): Z/ = (*#—**)/0', z/+1 = {xl+i—x*)la*, причем наименьшее значение Z, т. е. zit полагают равным — оо, а наибольшее, т. е. zs, полагают равным оо. 4. Вычисляют теоретические вероятности р,- попадания X в интервалы (x/t xl+1) по равенству (ФB)—функция Лапласа) и, наконец, находят искомые теоретические частоты n't =пр{. Пример. Найти теоретические частоты по заданному интервально- интервальному распределению выборки объема л = 200, предполагая, что генераль- генеральная совокупность распределена нормально (табл. 27). Решение 1. Найдем середины интервалов x* = (jc/-f-Jt/+1)/2. На- Например, х* — D -J- 6)/2 = 5. Поступая аналогично, получим последова- 333
тельность равноотстоящих вариант х*( и соответствующих им частот nf. х\ 5 7 9 11 13 15 17 19 21 щ 15 26 25 30 26 21 24 20 13 2. Пользуясь методом произведений, найдем выборочную среднюю и выборочное среднее квадратическое отклонение: ж* =12,63, о» =4,695. 3. Найдем интервалы (z/, z,+1), учитывая, что дг*= 12,63, о*— = 4,695, 1/о* = 0,213, для чего составим расчетную табл. 28. Таблица 27 Номер интер- интервала 1 1 2 3 4 5 Границы интервала *i 4 6 8 10 12 6 8 10 12 14 Частота "/ 15 26 25 30 26 Номер интер- интервала 1 6 7 8 9 Границы интервала X 1 X 1 14 16 18 20 16 18 20 22 Частота 21 24 20 13 л = 200 4. Найдем теоретические вероятности р/ и искомые теоретические частоты n'l=npi, для чего составим расчетную табл. 29. Таблица 28 1 1 2 3 4 5 6 7 8 9 Границы интервала Х1 4 6 8 10 12 14 16 18 20 6 8 10 12 14 16 18 20 22 хг1* —6,63 —4,63 —2,63 —0,63 1,37 3,37 5,37 7,37 —6,63 —4,63 —2,63 —0,63 1,37 3,37 5,37 7,37 Границы интервала = (jtt— ~x *)/а • 00 — 1,41 —0,99 —0,156 —0,13 0,29 0,72 1.14 1,57 -1,41 —0,99 —0,56 —0,13 0,29 0,72 1,14 1,57 00 334
Таблица 29 , t 1 2 3 4 5 6 7 8 9 Границы интервала — 00 —1,41 —0,99 —0,56 —0,13 0,29 0,72 1,14 1,57 — 1,41 —0,99 —0,56 —0,13 0,29 0,72 1,14 1,57 00 -0,5 —0,4207 —0,3389 —0,2123 —0,0517 0,1141 0,2642 0,3729 0,4418 —0,4207 —0,3389 —0,2123 —0,0517 0,1141 0,2642 0,3729 0,4418 0,5 Pl = ® <*« + !> — - Ф (г,) 0,0793 0,0818 0,1266 0,1606 0,1658 0,1501 0,1087 0,0689 0,0582 п|=лр, = 200 р{ 15,86 16,36 25,32 32,12 33,16 30,02 21,74 13,78 11,64 2^ = 200 Искомые теоретические частоты помещены в последнем столбце табл. 29. § 25. Выборочный коэффициент ранговой корреляции Спирмена и проверка гипотезы о его значимости Допустим, что объекты генеральной совокупно- совокупности обладают двумя качественными признаками. Под ка- качественным подразумевается признак, который невозмож- невозможно измерить точно, но он позволяет сравнивать объекты между собой и, следовательно, расположить их в порядке убывания или возрастания качества. Для определенности будем всегда располагать объекты в поряд- порядке ухудшения качества. При таком «ранжирова- «ранжировании» на первом месте находится объект наилучшего каче- качества по сравнению с остальными; на втором месте ока- окажется объект «хуже» первого, но «лучше» других, и т. д. Пусть выборка объема п содержит независимые объ- объекты, которые обладают двумя качественными признака- признаками Л и В. Для оценки степени связи признаков вводят, в частности, коэффициенты ранговой корреляции Спирмена (изложен в настоящем параграфе) и Кендалла (см. § 26). Для практических целей использование ранговой кор- корреляции весьма полезно. Например, если установлена 335
высокая ранговая корреляция между двумя качествен- качественными признаками изделий, то достаточно контролировать изделия только по одному из признаков, что удешевляет и ускоряет контроль. Расположим сначала объекты выборки в порядке ухуд- ухудшения качества по признаку А при допущении, что все объекты имеют различное качество по обоим признакам (случай, когда это допущение не выполняет- выполняется, рассмотрим ниже). Припишем объекту, стоящему на i-м месте, число—ранг xh равный порядковому номеру объекта. Например, ранг объекта, занимающего первое место, хх = 1; объект, расположенный на втором месте, имеет ранг дга = 2, и т. д. В итоге получим последовательность рангов по признаку А: хг=1, х2 = 2, ..., хп~п. Расположим теперь объекты в порядке убывания ка- качества по признаку В и припишем каждому из них ранг у(, однако (для удобства сравнения рангов) индекс i при у будет по-прежнему равен порядко- порядковому номеру объекта по признаку А. Напри- Например, запись Уг — Ь означает, что по признаку А объект стоит на втором месте, а по признаку В— на пятом. В итоге получим две последовательности рангов: по признаку А ... xlt х2, ..., хп по признаку В ... ylt ул, ..., уп Заметим, что в первой строке индекс t совпадает с по- порядковым номером объекта, а во второй, вообще говоря, не совпадает. Итак, в общем случае лс,-^!/,-. Рассмотрим два «крайних случая». 1. Пусть ранги по признакам А и В совпадают при всех значениях индекса t:x,-= «/,-. В этом случае ухуд- ухудшение качества по одному признаку влечет ухудшение качества по другому. Очевидно, признаки связаны: имеет место «полная прямая зависимость». > 2. Пусть ранги по признакам А и В противоположны в том смысле, что если дс1= 1, то у1 = п; если х2 — 2, то у2 = п— 1; .... если х„ = п, то уп = 1. В этом случае ухуд- ухудшение качества по одному признаку влечет улучшение по другому. Очевидно, признаки связаны — имеет место «противоположная зависимость». На практике чаще будет встречаться промежуточный случай, когда ухудшение качества по одному признаку влечет для некоторых объектов ухудшение, а для дру- других— улучшение качества. Задача состоит в том, чтобы 336
оценить связь между признаками. Для ее решения рас- рассмотрим ранги хг, х2, ..., хп как возможные значения случайной величины X, а у1г у2,--., у„ — как возможные значения случайной величины У. Таким образом, о связи между качественными признаками А и В можно судить по связи между случайными величинами X и У, для оценки которой используем коэффициент корреляции. Вычислим выборочный коэффициент корреляции слу- случайных величин X и У в условных вариантах (см. гл. XVIII, § 8): 2 navuv— nuv в ~~ nauov ' приняв в качестве условных вариант отклонения и,- = = х-,—х, Vi = y{—у. Каждому рангу х,- соответствует только один ранг yit поэтому частота любой пары ран- рангов с одинаковыми индексами, а следовательно, и любой пары условных вариант с одинаковыми индексами равна единице: nav =1. Очевидно, что частота любой пары вариант с разными индексами равна нулю. Учитывая, кроме того, что среднее значение отклонения равно нулю (см. гл. XVI, § 7, следствие), т.е. м = и = 0, получим более простую формулу вычисления выборочного коэф- коэффициента корреляции: г r» naaav ' W Таким образом, надо найти 2 м«°/« °о и <V Выразим ]У] и,-»,- через известные числа — объем выбор- выборки п и разности рангов di = Xi — */,-. Заметим, что по- поскольку средние значения рангов х = A -J- 2 + ... +п)/п и у — A + 2+ ... +п)/п равны между собой, то у—дс = О. Используем последнее равенство: dt = X; —у; = Х/ — У1 + (у — х) = (xt—x) — [yt—y) = Ui—Vi. Следовательно, df = (u,—Vi): Учитывая, что (см. далее пояснение) 2«tf = 2»? = (n>-n)/12, (**) 22 2710 337
имеем 24?=2 <«/-»,-)• = 2«?- Отсюда 2. (•**) Остается найти оа и с^. По определению выборочной дисперсии, учитывая, что и —О, и используя (**), по- получим А, = 2 («'—«)•/* = Отсюда среднее квадратическое отклонение Аналогично найдем Следовательно, = (п3 — /г)/12. Подставив правые части этого равенства и соотно- соотношения (***) в (*), окончательно получим выборочный коэф- коэффициент ранговой корреляции Спирмена Ро = 1 -[F 2 *)/(«•—л)], (****) где dj^Xi—y;. Пояснение. Покажем, что 2Ц? = (л3—п)/12. Дей- Действительно, учитывая, что 2 «*? = 2 (*/ -^L =2*?—2* после элементарных выкладок получим Аналогично можно показать, что 2и? = Сг3— 338
Приведем свойства выборочного коэффициента корре- корреляции Спирмена. Свойство 1. Если между качественными призна- признаками А и В имеется «полная прямая зависимость» в том смысле, что ранги объектов совпадают при всех значе- значениях t, то выборочный коэффициент ранговой корреляции Спирмена равен единице. Действительно, подставив d, = x,—1// = 0 в (****), по- получим Свойство 2. Если между качественными признаками А и В имеется «противоположная зависимость» в том смысле, что рангу хх = 1 соответствует ранг уг = п; рангу хг соответствует ранг у2 = п — 1; . •.; рангу хп = п соответствует ранг уп=\, то выборочный коэффициент ранговой корреляции Спирмена равен минус единице. Действительно, dx==l—п, de = 3—п, ..., dn = Bn—1)—п. Следовательно, ..+Bп— 1)»]—2n[l+3+...+Bn — п • па = [п Dпа — 1 )/3] — 2л • п* + п8 = (я8 — м)/3. Подставив 2da = («8—п)/3 в (****), окончательно по- получим Свойство 3. Если между качественными признаками А и В нет ни «полной прямой», ни «противоположной» зависимостей, то коэффициент рв заключен между — 1 и -\-\, причем чем ближе к нулю его абсолютная величина, тем зависимость меньше. Пример 1. Найти выборочный коэффициент ранговой корреляции Спирмена по данным ранга объектов выборки объема п=Ю: х{ 12 3 4 5 6 789 10 У1 6 4 8 1 2 5 10 3 7 9 Решение. Найдем разности рангов d{ — xt—у?. —5, —2, —5, 3, 3, 1,-3, 5, 2, 1. Вычислим сумму квадратов разностей рангов: 2*а = 25 + 4 + 25 + 9 + 9+ 22* 339
Найдем искомый коэффициент ранговой корреляции, учитывая, что п— 10: рв= 1 —[б 2 d*/(ns —п)] = 1 — [6-112/A000—10I =0,32. Замечание. Если выборка содержит объекты с одинако- одинаковым качеством, то каждому из них приписывается ранг, рав- равный среднему арифметическому порядковых номеров объектов. Напри- Например, если объекты одинакового качества по признаку А имеют порядковые номера 5 и 6, то их ранги соответственно равны: хл = E + 6)/2 55 55 Приведем правило, позволяющее установить значи- значимость или незначимость ранговой корреляции связи для выборок объема п^9. Если п < 9, то пользуются таб- таблицами (см., например, табл. 6.10а, 6.106 в книге: Боль- Большее Л. Н., Смирнов Н. В. Таблицы математической статистики. М., «Наука», 1965). Правило. Для того чтобы при уровне значимости а проверить нулевую гипотезу о равенстве нулю генераль- генерального коэффициента ранговой корреляции рг Спирмена при конкурирующей гипотезе Н^.ргФО, надо вычислить критическую точку: где п — объем выборки, рв — выборочный коэффициент ран- ранговой корреляции Спирмена, <кр(а; k) — критическая точка двусторонней критической области, которую находят по таблице критических точек распределения Стьюдента, по уровню значимости а и числу степеней свободы k = п—2. Если |рв|<7"кр—нет оснований отвергнуть нулевую гипотезу. Ранговая корреляционная связь между качест- качественными признаками незначима. Если |рв| > 7"кр—нулевую гипотезу отвергают. Между качественными признаками существует значимая ранговая корреляционная связь. Пример 2. При уровне значимости 0,05 проверить, является ли ранговая корреляционная связь, вычисленная в примере 1, значимой? Решение. Найдем критическую точку двусторонней критичес- кой области распределения Стьюдента по уровню значимости а = 0,05 и числу степеней свободы k = n—2=10—2 = 8 (см. приложение 6): /кр@,05; 8) = 2,31. Найдем критическую точку: Подставив /кр = 2,31, п=10, рв = 0,24, получим Ткр== 0,79. Итак, 71кр = 0,79, рв = 0,24. Так как рв < 7"кр — нет оснований отвергнуть нулевую гипотезу; ранговая корреляционная связь между признаками незначимая. 340
§ 26. Выборочный коэффициент ранговой корреляции Кендалла и проверка гипотезы о его значимости Можно оценивать связь между двумя качествен- качественными признаками, используя коэффициент ранговой кор- корреляции Кендалла. Пусть ранги объектов выборки объема п (здесь сохранены все обозначения § 25): по признаку А хх, хг, .... хп по признаку В уг, уа уп Допустим, что правее у1 имеется /?, рангов, больших yt; правее у2 имеется Ra рангов, больших у%\ ... ; правее уп_1 имеется /?„_х рангов, больших у„_,. Введем обозначение суммы рангов Rt(i=l, 2 п—1): Выборочный коэффициент ранговой корреляции Кен- балла определяется формулой (п—1)]—1, (*) п-\ где п — объем выборки, R = 2 Я,-. Убедимся, что коэффициент Кендалла имеет те же свойства, что и коэффициент Спирмена. 1. В случае «полной прямой зависимости» признаков Правее у1 имеется п—1 рангов, больших уи поэтому i?1 = n—1. Очевидно, что R2 = n — 2 Rn-i= *• Следо- Следовательно, (**) Подставив (**) в (*), получим т„=1. 2. В случае «противоположной зависимости» х1= I, х2 = 2*, .. ., хп = п 341
Правее t/x нет рангов, больших yt; поэтому R1 = 0. Оче- Очевидно, что Rt = Ra = ... =/?„_! = 0. Следовательно, R = 0. (***) Подставив (***) в (*), получим Замечание. При достаточно большом объеме выборки и при значениях коэффициентов ранговой корреляции, не близких к еди- единице, имеет место приближенное равенство рв = C/2)тв. Пример 1. Найти выборочный коэффициент ранговой корреляции Кендалла по данным рангам объектов выборки объема я = 10: по признаку А ... Xi 12345617 89 10 по признаку В...^ 648125 10 37 9 Решение. Правее i/i = 6 имеется 4 ранга (8, 10, 7, 9), боль- больших уг, поэтому #1 = 4. Аналогично найдем. #а = 5, R3=2, Rt = &, /?в=5, Re—3, R7 — 0, /?в = 2, #9 = 1. Следовательно, сумма рангов /? = 28. Найдем искомый коэффициент ранговой корреляции Кендалла, учитывая, что л = 10- .9] —1=0,24. Приведем правило, позволяющее установить значи- значимость или незначимость ранговой корреляционной связи Кендалла. Правило. Для того чтобы при уровне значимости ос, проверить нулевую гипотезу о равенстве нулю генераль- генерального коэффициента ранговой корреляции тг Кендалла при конкурирующей гипотезе Я1:тг=?^0, надо вычислить критическую точку: кР — zKp у 9л(п—1) ' где п—объем выборки; zKp—критическая точка двусто- двусторонней критической области, которую находят по таблице функции Лапласа по равенству <D(zKP) = (l—а)/2. Если |тв|<Гкр—нет оснований отвергнуть нулевую гипотезу. Ранговая корреляционная связь между качест- качественными признаками незначимая. Если |тв| > Ткр—нулевую гипотезу отвергают. Между качественными признаками существует значимая ранговая корреляционная связь. Пример 2. При уровне значимости 0,05 проверить, является ли ранговая корреляционная связь тв = 0,24, вычисленная в примере 1, значимой? 342
Решение. Найдем критическую точку гкр: По таблице функции Лапласа (см. приложение 2) находим гкр=1,96 Найдем критическую точку: 'кр-гкр у 9я(п-1) * Подставив zKp=l,96 и л = 10, получим 7^ = 0,487. В примере 1 тв = 0,24. Так как тв < Т"кр — нет оснований отвергнуть нулевую гипотезу; ранговая корреляционная связь между признаками незначимая. § 27. Критерий Вилкоксона и проверка гипотезы об однородности двух выборок Критерий Вилкоксона *' служит для проверки однородности двух независимых выборок: х1,хг,...1хПхк у17 Уг> • • •» Упг- Достоинство этого критерия состоит в' том, что он применим к случайным величинам, распределения которых неизвестны; требуется лишь, чтобы величины были непрерывными. Если выборки однородны, то считают, что они извле- извлечены из одной и той же генеральной совокупности и, следовательно, имеют одинаковые, причем неизвестные, непрерывные функции распределения F1{x) и F%(x), Таким образом, нулевая гипотеза состоит в том, что при всех значениях аргумента (обозначим его через х) функции распределения равны между собой: F1(x) = Fa(x). Конкурирующими являются следующие гипотезы: Л (*) ФР3 (х), Ft (х) < F2 (х) и Ft (x) > F2 (x). Заметим, что принятие конкурирующей гипотезы Нх: Fx (x) < Ft (x) означает, что X > У. Действительно, неравенство F1 (x) < F% (x) равносильно неравенству Р (X < х) < Р (Y < х). Отсюда легко получить, что Р (X > х) > Р (У > х). Другими словами, вероятность того, что случайная величина X превзойдет фиксированное действительное число х, больше, чем вероятность слу- случайной величине Y оказаться большей, чем х\ в этом смысле X > Y. Аналогично, если справедлива конкурирующая гипо- гипотеза H1:F1 (х) > F, (у), то X < Y. •' В 1945 г. Вилкоксон опубликовал критерий сравнения двух выборок одинакового объема, в 1947 г. Манн и Уитни обобщили кри- критерий на выборки различного объема. 343
Далее предполагается, что объем первой выборки меньше (не больше) объема второй: пг^:Пг; если это не так, то выборки можно перенумеровать (поменять местами). А. Проверка нулевой гипотезы в случае, если объем обеих выборок не превосходит 25. Правило 1. Для того чтобы при заданном уровне значимости а = 2Q проверить нулевую гипотезу Но: Fx (x) — F2 (x) об однородности двух независимых выборок объемов л, и п2 (nt ^ п3) при конку- конкурирующей гипотезе Hl:F1(x)=^=F2(x), надо: 1) расположить варианты обеих выборок в возрастаю- возрастающем порядке, т. е. в виде одного вариационного ряда, и найти в этом ряду наблюдаемое значение кри- критерия Й7"набл—сумму порядковых номеров вариант пер- первой выборки; 2) найти по таблице приложения 10 нижнюю крити- критическую точку иуинжн, KP(Q; пи л,), где Q =а/2; 3) найти верхнюю критическую точку по формуле «"верхи, «р = (Л, + Л, + 1) «х-И>ннжи. кр. Если Wm6x < шнижн. кр или Й?набл > оуверхн. кр—нулевую гипотезу отвергают. Если даннжн. кр< Wna6]t<wBepxH. кр—нет оснований от- отвергнуть нулевую гипотезу. Пример 1. При уровне значимости 0,05 проверить нулевую гипо- гипотезу об однородности двух выборок. объемов «1 = 6 и п2 = 8: х,- 15 23 25 26 28 29 yi 12 14 18 20 22 24 27 30 при конкурирующей гипотезе Я1:/?1(*) Ф F2(x). Решение. Расположим варианты обеих выборок в виде одного вариационного ряда и перенумеруем их: порядковые номера... 1 2 3 4 5 6 7 8 9 10 11 12 13 14 варианты ... 12 14 15 18 20 22 23 24 25 26 27 28 29 30 Найдем наблюдаемое значение критерия Вилкоксона — сумму по- порядковых номеров (они набраны курсивом) вариант первой выборки: ^набл = 3 + 7 + 9+Ю+12-f 13 = 54. Найдем по таблице приложения 10 нижнюю критическую точку, учитывая, что Q = а/2 =0,05/2 = 0,025, ni = 6, na — 8: 0Wh. кр @,025; 6. 8) = 29. Найдем верхнюю критическую точку: Так как 29 < 54 < 61, т. е. а/Няжн.кр < ^набд < ^верхн. кр.— нет оснований отвергнуть нулевую гипотезу об однородности выборок. 344
Правило 2. При конкурирующей гипотезе F, (х) > Ft (х) надо найти по таблице нижнюю критическую точку жн KP(Q; «i5 ",), где Q=a. Если WHa6jI > о>иижн. кр—нет оснований отвергнуть нуле- нулевую гипотезу. Если №яа6л < а>„н11Ш. кр—нулевую гипотезу отвергают. Правило 3. При конкурирующей гипотезе //1:F1(a:)< <F2(jc) надо найти верхнюю критическую точку: «Wh.kpW; nlf п2) = («1 + «2+1)Мг—аунижн. KP(Q; nlt лг), где Q=a. ЕСЛИ ^набл < И'верхн. кр Нет ОСНОВЭНИЙ ОТВврГНуТЬ нулевую гипотезу. Если ^„абл > ^верхн. кр—нулевую гипотезу отвергают. Замечание. Если несколько вариант только одной выборки одинаковы, то в общем вариационном ряду им припи- приписывают обычные порядковые номера (совпавшие варианты нумеруют так, как если бы они были различными числами); если же совпа- совпадают варианты разных выборок, то всем им присваивают один и тот же порядковый номер, равный среднему арифметическому порядковых номеров, которые имели бы эти варианты до совпадения. Б. Проверка нулевой гипотезы в случае, если объем хотя бы одной из выборок превосходит 25. 1. При конку- конкурирующей гипотезе /71 (л:) =/= Fs (x) нижняя критическая точка кр па)~ 1 12 где Q = a/2; zKP находят по таблице функции Лапласа по равенству Ф(гкр) = A—а)/2; знак [а] означает целую часть числа а. В остальном правило 1, приведенное в п. А, сохра- сохраняется. 2. При конкурирующих гипотезах Ft (x) > F% (x) и /?1 (дс) < F2 (x) нижнюю критическую точку находят по формуле (*), положив Q — a; соответственно zKV находят по таблице функции Лапласа по равенству Ф(гкр) = = A—2а)/2. В остальном правила 2—3, приведенные в п. А, сохраняются. Пример -2. При уровне значимости 0,01 проверить нулевую гипо- гипотезу об однородности двух выборок объемов пх —30 и л2 = 50 при кон- конкурирующей гипотезе H1:F1 (x) Ф F2(x), если известно, что в общем вариационном ряду, составленном из вариант обеих выборок, сумма порядковых номеров вариант первой выборки ВРНабл= 1600. 345
Решение. По условию, конкурирующая гипотеза имеет вид Fx (х) ?= F2 (х), поэтому критическая область — двусторонняя. Найдем гкр по равенству Ф (*кР) = A - «)/2 = A - 0,01 )/2 = 0,495. По таблице функции Лапласа (см. приложение 2) находим гкр = 2,58. Подставив /ix = 30, л2 = 50, гкр = 2,58 в формулу (*), получим '"янжн. кр == 954. Найдем верхнюю критическую точку: р = 2430 — 954=1476. Так как 1600 > 1476, т. е. Н7набл > шверх.кР— нулевая гипотеза отвергается. Задачи 1. По двум независимым выборкам, объемы которых соот- соответственно равны пг и л-2, извлеченным из нормальных генеральных совокупностей X и К, найдены исправленные выборочные дисперсии sx н s\. При уровне значимости а проверить нулевую гипотезу Яо: D(X) = D(Y) о равенстве генеральных дисперсий при конкурирую- конкурирующей гипотезе Н±. D(X) > D(Y), если: а) П! = 10, n4 = 16, sx = 3,6, sy = 2,4, a = 0,05; б) пх = 13, л2=18, sax = 0,72, s^ = 0,20, а = 0,01. Отв. a) FHafa=l,5; FKP@,05; 9; 15) = 2,59. Нет оснований отверг- отвергнуть нулевую гипотезу; б) ^иабл^З.б; ^кр{0,01; 12; 17)=3,45. Нуле- Нулевая гипотеза отвергается. 2. По двум независимым выборкам, объемы которых соответст- соответственно равны пит, извлеченным из нормальных генеральных сово- совокупностей X и Y, найдены выборочные средние х и у. Генеральные дисперсии D (X) и D (Y) известны. При уровне значимости а прове- проверить нулевую гипотезу Но: M(X) — M(Y) о равенстве математиче- математических ожиданий при конкурирующей гипотезе НХ:М(Х) Ф М (Y), если: а) n = 30, m = 20, D(X)=120, D(V)=100, <x = 0,05; б) n = 50, m = 40, D(X) = 50, D(K)=120, a = 0,01. Отв. a) ZHa6j(=l, zKp = l,96. Нет оснований отвергнуть нулевую гипотезу; б) 2набл = 10, гкр = 2,58. Нулевая гипотеза отвергается. 3. По двум независимым выборкам, объемы которых соответст- соответственно равны п = 5 и т = 6, извлеченным из нормальных генеральных совокупностей X и Y, найдены выборочные средние jt=15,9, у =14,1 и исправленные выборочные дисперсии s\= 14,76, s^ = 4,92. При уровне значимости 0,05 проверить нулевую гипотезу Н0:М (Х) = М (X) о равенстве математических ожиданий при конкурирующей гипотезе Указание. Предварительно сравнить дисперсии. Отв. 7*набл = 0,88, <кр@,05; 9) = 2,26. Нет оснований отвергнуть нулевую гипотезу. 4. Из нормальной генеральной совокупности с известным сред- средним квадратическим отклонением а = 2,1 извлечена выборка объема 346
п = 49 и по ней найдена выборочная средняя х = 4,5. Требуется при уровне значимости 0,05 проверить нулевую гипотезу Яо: а = 3 о ра- равенстве математического ожидания гипотетическому значению при конкурирующей гипотезе Ht: а Ф 3. Отв. ?/набл = 5, "up =1.96. Нулевая гипотеза огвергается. 5. По выборке объема п— 16, извлеченной из нормальной гене- генеральной совокупности, найдены выборочная средняя лс = 12,4 и «исправленное» среднее квадрэтическое отклонение s = 1,2. Требуется при уровне значимости 0,05 проверить нулевую гипотезу Но: а=11,8 о равенстве математического ожидания гипотетическому значению при конкурирующей гипотезе Н\ш.аф 11,8. Oms. Т"набл = 2, *Кр@,05; 15) = 2,13. Нет оснований отвергнуть нулевую гипотезу. в. Двумя приборами измерены 5 деталей. Получены следующие результаты (мм): При уровне значимости 0,05 проверить, значимо или незначимо раз- различаются результаты измерений. Отв. 7"набл= 10,54, /кр @,05; 4) = 2,78. Различие результатов измерений значимое. 7. По 100 независимым испытаниям найдена относительная час- частота т/п = 0,15. При уровне значимости 0,05 проверить нулевую гипотезу Н0:р=0,17 о равенстве относительной частоты гипотетиче- гипотетической вероятности при конкурирующей гипотезе Нх'.р Ф 0,17. Отв. | f/йабл 1=0,53, ыкр=1,96. Нет оснований отвергнуть нуле- нулевую гипотезу. 8. Из партии картона фабрики № 1 случайно отобрано 150 листов, среди которых оказалось 12 нестандартных; из 100 листов картона фабрики № 2 обнаружено 15 нестандартных. Можно ли считать на пятипроцентном уровне значимости, что относительные частоты полу- получения нестандартного картона обэими фабриками различаются зна- значимо? Указание. Принять в качестве конкурирующей гипотезы Ях:р! Ф р*. Отв. (/„абл =—'.75; икр—1,96. Различие относительных частот незначимое. 9. По пяти независимым выборкам, объемы которых соответст- соответственно равны rti = 7, пг = 9, л3—'0, п4 = 12, п5 = 12, извлеченным из нормальных генеральных совокупностей, найдены исправленные выбо- выборочные дисперсии: 0,27; 0,32; 0,40; 0,42; 0,48. При уровне значи- значимости 0,05 [проверить нулевую гипотезу об однородности дисперсий (критическая область — правосторонняя). Указание. Использовать критерий Бартлетта (см. § 20). Отв. К = 6,63, Хкр@,05; 4) =9,5. Нет оснований отвергнуть нуле- нулевую гипотезу. 10. По Четырем независимым выборкам одинакового объема я =17, извлеченным из нормальных совокупностей, найдены исправленные выборочные дисперсии: 2,12; 2,32; 3,24; 4,32. Требуется: а) при уровне значимости 0,05 проверить нулевую гипотезу д равенстве генеральных дисперсий (критическая область — правосторонняя); б) оценить генеральную дисперсию. Указание. Использовать критерий Кочрена (см. § 21). 347
Отв. а) Онабл = 0,36; GKp@,05; 16; 4) = 0,4466. Нет оснований отвергнуть нулевую гипотезу; б) о = 3. 11. По выборке объема « = 62, извлеченной из двумерной нор- нормальной совокупности (X, Y), найден выборочный коэффициент кор- корреляции гв = 0,6. При уровне значимости 0,05 проверить нулевую гипотезу #„.'/> = 0 о равенстве нулю генерального коэффициента кор- корреляции при конкурирующей гипотезе гТ ф 0. Отв. 7"набл = 5,81, /кр@,05; 60) = 2,0. Нулевая гипотеза отвер- отвергается. 12. При уровне значимости 0,05 проверить гипотезу о нормаль- нормальном распределении генеральной совокупности, если известны эмпири- эмпирические (приведены в первой строке) и теоретические частоты (приве- (приведены во второй строке): а) 6 12 16 40 13 8 5 4 11 15 43 15 6 6 б) 5 6 14 32 43 39 30 20 6 5 4 7 12 29 48 35 34 18 7 6 в) 5 13 12 44 8 12 6 2 20 12 35 15 10 6 Отв. Хнабл=2,5, Хкр @,05; 4) = 9,5. Нет оснований отвергнуть гипотезу; б) Хнабл = 3, хкр@,05; 7)= 1461. Нет оснований отверг- отвергнуть гипотезу; в)Хнабл=13, Хкр @,05; 4) = 9,5. Гипотеза отвергается. 13. а) Найти выборочный коэффициент ранговой корреляции Спирмена по данным рангам объектов выборки объема п = 10: ж,- 1 2 3 4 5 6 7 8 9 10 У1 4 3 5 8 6 1 7 10 2 9 б) значима ли ранговая корреляционная связь при уровне значи- значимости 0,05? Отв. а) рв = 1/3; б) Ткр = 0,77; корреляционная ранговая связь незначима. 14. а) Найти выборочный коэффициент ранговой корреляции Кендалла по данным рангам объектов выборки объема л = 10: а;,- 1 2 3 4 5 6 7 8 9 10 {/,• 4 3 5 8 6 1 7 10 2 9 б) значима ли ранговая корреляционная связь при уровне значи- значимости 0,05? Отв. а) тв = 0,29; б) Ткр==0,96; ранговая корреляционная связь незначима. 15. Известны результаты измерения (мм) изделий двух выборок, объемы которых соответственно равны лх = 6 и ns = 6: *,• 12 10 8 15 14 11 У! 13 9 16 17 7 18 При уровне значимости 0,05 проверить нулевую гипотезу FJ{x) = Fjl(x) об однородности выборок при конкурирующей гипотезе H1:F1(x) Ф *)- Указание. Использовать критерий Вилкоксона. Отв. Нулевая гипотеза отвергается: шнижн кр @,025; 6; 6) = 26, = 52 В7б = 70 H.KP набл 16. Используя критерий Вилкоксона, при уровне значимости 0,05 проверить нулевую гипотезу об однородности двух выборок, 348
объемы которых соответственно равны /^ = 30 и п2 = 50, при конку- конкурирующей гипотезе F1(x) > Ft(x), если известно, что сумма поряд- порядковых номеров вариант первой выборки в общем вариационном ряду Гбл=М50. Отв. Her оснований отвергнуть нулевую гипотезу: р @.05; 30; 50) = 1048, wBepxu.KV=l382. Глава двадцатая ОДНОФАКТОРНЫЙ ДИСПЕРСИОННЫЙ АНАЛИЗ § 1. Сравнение нескольких средних. Понятие о дисперсионном анализе Пусть генеральные совокупности Xlf Xt, ..., Хр распределены нормально и имеют одинаковую, хотя и неизвестную, дисперсию; математические ожидания также неизвестны, но могут быть различными. Требуется при заданном уровне значимости по выборочным средним проверить нулевую гипотезу Н0:М (Xt) = М (Ха) ==...= = М(ХР) о равенстве всех математических ожиданий. Другими словами, требуется установить, значимо или. незначимо различаются выборочные средние. Казалось бы, для сравнения нескольких средних (р > 2) можно срав- нить.„их попарно. Однако с возрастанием числа средних возрастает и наибольшее различие между ними: среднее новой выборки может оказаться больше наибольшего или меньше наименьшего из средних, полученных до нового опыта. По этой причине для сравнения нескольких сред- средних пользуются другим методом, который основан на сравнении дисперсий и поэтому назван дисперсионным анализом (в основном развит английским статистиком Р. Фишером). На практике дисперсионный анализ применяют, чтобы установить, оказывает ли существенное влияние некото- некоторый качественный фактор F, который имеет р уров- уровней Flt Ft, ..., Fp на изучаемую величину X. Например, если требуется выяснить, какой вид удобрений наиболее эффективен для получения наибольшего урожая, то фак- фактор F—удобрение, а его уровни—виды удобрений. Основная идея дисперсионного анализа состоит в срав- сравнении «факторной дисперсии», порождаемой воздействием фактора, и «остаточной дисперсии», обусловленной слу- случайными причинами. Если различие между этими дис- 349
персиями значимо, то фактор оказывает существенное влияние на X; в этом случае средние наблюдаемых зна- значений на каждом уровне (групповые средние) различа- различаются также значимо. Если уже установлено, что фактор существенно влияет на X, а требуется выяснить, какой из уровней оказы- оказывает наибольшее воздействие, то дополнительно произ- производят попарное сравнение средних.. Иногда дисперсионный анализ применяется, чтобы установить однородность нескольких совокупностей (дисперсии этих совокупностей одинаковы по предполо- предположению; если дисперсионный анализ покажет, что и мате- математические ожидания одинаковы, то в этом смысле сово- совокупности однородны). Однородные же совокупности можно объединить в одну и тем самым получить о ней более полную информацию, следовательно, и более надежные выводы. В более сложных случаях исследуют воздействие нескольких факторов на нескольких постоянных или случайных уровнях и выясняют влияние отдельных уров- уровней и их комбинаций (многофакторный анализ). Мы ограничимся простейшим случаем однофакторного анализа, когда на X воздействует только один фактор, который имеет р постоянных уровней. § 2. Общая факторная и остаточная суммы квадратов отклонений Пусть на количественный нормально распреде- распределенный признак X воздействует фактор F, который имеет р постоянных уровней. Будем предполагать, что число Таблица 30 Номер испытания 1 2 Я Групповая средняя Уровни фактора F. Хц хг1 Xqi xrp г, *Я2 *Гр2 • » ¦ ... Х1р Xip Хдр 350
наблюдений (испытаний) на каждом уровне одинаково и равно q. Пусть наблюдалось n = pq значений x,j признака X, где i — номер испытания (i— 1,2, ..., q), /—номер уровня фактора (/'=1, 2, ...,р). Результаты наблюдений при- приведены в табл. 30. Введем, по определению, 2j 2j (общая сумма квадратов отклонений наблюдаемых значе- значений от общей средней х), 7 2 (rpy Y ( = 1 D>акторная сумма квадратов отклонений групповых сред- средних от общей средней, которая характеризует рассеяние «между группами»), 1 _ ^ост == 2-i (xil -*rpi) "Г i = 1 I — I 1 •—• 1 (остаточная сумма квадратов отклонений наблюдаемых значений группы от своей групповой средней, которая характеризует рассеяние «внутри групп»). Практически остаточную сумму находят по равенству (см. § 3, следствие) с с с °ост °общ °факт- Элементарными преобразованиями можно получить формулы, более удобные для расчетов: =± Р,- [( ± Я,)'/ {pq)\ , Я где Pj— 2 •**/—сумма квадратов значений признака на Я я уровне Fj\ Rj— 2 x,j—^сумма значений признака на уровне Fj. 351
Заме чание. Для упрощения вычислений вычитают из каждого наблюдаемого значения одно и то же число С, примерно равное общей средней. Если уменьшенные значения уц-=хц—С, то Яобш = 2 Q/ - | ( 2 ТЛ / (р?) 1 , (***) S4aKT= Г J] T*,/q 1 - \( 2 TJ)•/ (P«I • <****) где Qy= 2^'/ — сумма квадратов уменьшенных значений признака *1 1 на уровне Fa Т,— 2 У// — сумма уменьшенных значений признака i=i на уровне Fj. Для вывода формул (***) и (****) достаточно подставить хи — уп-\-С я q я в соотношение (*) и Rf= 2 *//= 2 (^/+С)= 2У>/ + Iе = Г/ + «° (=1 i=l «=1 в соотношение (**). Пояснения. 1. Убедимся, что S^aKT характеризует воздействие фактора F. Допустим, что фактор оказывает существенное влияние на X. Тогда группа наблюдаемых значений признака на одном определенном уровне, вообще говоря, отличается от групп наблюдений на других уров- уровнях. Следовательно, различаются и групповые средние, причем они тем больше рассеяны вокруг общей средней, чем большим окажется воздействие фактора. Отсюда сле- следует, что для оценки воздействия фактора целесообразно составить сумму квадратов отклонений групповых сред- средних от общей средней (отклонение возводят в квадрат, чтобы исключить погашение положительных и отрица- отрицательных отклонений). Умножив эту сумму на q, получим 5Факт- Итак, 5факт характеризует воздействие фактора. 2. Убедимся, что 50ст отражает влияние случайных причин. Казалось бы, наблюдения одной группы не должны различаться. Однако, поскольку на X, кроме фактора Fy воздействуют и случайные причины наблюде- наблюдения одной и той же группы, вообще говоря, различны и, значит, рассеяны вокруг своей групповой средней. Отсюда следует, что для оценки влияния случайных при- причин целесообразно составить сумму квадратов отклонений наблюдаемых значений каждой группы от своей групповой средней, т. е. 5ОСТ. Итак, S0CT характеризует воздействие случайных причин. 352
3. Убедимся, что So6m отражает влияние и фактора и случайных причин. Будем рассматривать все наблюдения как единую совокупность. Наблюдаемые значения при- признака различны вследствие воздействия фактора и случай»- ных причин. Для оценки этого воздействия целесообразно составить сумму квадратов отклонений наблюдаемых зна- значений от общей средней, т. е. So6l4. Итак, So6ui характеризует влияние фактора и случай- случайных причин. Приведем пример, который наглядно показывает, что факторная сумма отражает влияние фактора, а остаточ- остаточная—влияние случайных причин. Пример. Двумя приборами произведены по два измерения физи- физической величины, истинный размер которой равен х. Рассматривая в качестве фактора систематическую ошибку С, а в качестве его уровней — систематические ошибки Ct и С2 соответственно первого и второго прибора, показать, что 5факт определяется систематиче- систематическими, a S0CT — случайными ошибками измерений. Решение. Введем обозначения: аь а2 — случайные ошибки первого и второго измерений первым прибором; $и р— случайные ошибки первого и второго измерений вторым прибором. Тогда наблюдаемые значения результатов измерений соответст- соответственно равны (первый индекс при х указывает номер измерения, а второй — номер прибора): Средние значения измерений первым и вторым приборами соот- соответственно равны: Общая средняя *=(^rpi + ^rP2)/2 = * + l(C1+ факторная сумма Зфакт = С*гР 1—*)* + (*гР г—*>*• Подставив величины, заключенные в скобках, после элементарных преобразований получим Мы видим, что 5факт определяется главным образом, первым слагаемым (поскольку случайные ошибки измерений малы) и, следо- следовательно, действительно отражает влияние фактора С. Остаточная сумма Подставив величины, заключенные в скобках, получим 5осг = 1(а1-а)г + (аа-аL] + КЭ1-Р)а + (Ра-РL]. 23 2730 353
Мы видим, что S0CT определяется случайными ошибками измере- измерений и, следовательно, действительно отражает влияние случайных причин. Замечание. То, что S0CT порождается случайными причинами, следует также из равенства (см. § 3, следствие) ^ост ==1-)общ "факт- Действительно, 50вщ является результатом воздействия фактора и случайных причин; вычитая 5факт, мы исключаем влияние фактора. Следовательно, «оставшаяся часть» отражает влияние случайных причин. § 3. Связь между общей, факторной и остаточной суммами Покажем, что ¦^общ = <5факт + SOCT. Для упрощения вывода ограничимся двумя уровнями (р = 2) и двумя испытаниями на каждом уровне (q — 2). Результаты испытаний представим в виде табл. 31. Таблица 31 Номер испытания i 1 2 *гр/ Уровни фактора Ft Хц *21 *гр 1 F, •*12 *22 *Гр 2 Тогда Вычтем и прибавим к каждому (xlt —ley + (х22—х)\ наблюдаемому значению на первом уровне групповую среднюю дсгр1, а на вто- втором—xTV2. Выполнив возведение в квадрат и учитывая, что сумма всех удвоенных произведений равна нулю (рекомендуем читателю убедиться в этом самостоятельно), получим — *гр аJ "Т" "о 354
Итак, Следствие. Из полученного ,равенства вытекает важное следствие: с с с °ост °общ °факт- Отсюда видно, что нет надобности непосредственно вы- вычислять остаточную сумму: достаточно найти общую и факторную суммы, а затем их разность. § 4. Общая, факторная и остаточная дисперсии Разделив суммы квадратов отклонений на соот- соответствующее число степеней свободы, получим общую, факторную и остаточную дисперсии: ^общ „а '-'Факт са "ост s4KT — »ост — (~ где р—число уровней фактора; q— число наблюдений на каждом уровне; pq—1—число степеней свободы общей дисперсии; р—I—число степеней свободы факторной дисперсии; p(q—1) — число степеней свободы остаточной дисперсии. Если нулевая гипотеза о равенстве средних справед- справедлива, то все эти дисперсии являются несмещенными оценками генеральной дисперсии. Например, учитывая, что объем выборки n = pq, заключаем, что "общ "общ pq— 1 п— 1 — исправленная выборочная дисперсия, которая, как известно, являет- является несмещенной оценкой генеральной дисперсии. Замечание. Число степеней свободы p(q—1) остаточной дисперсии равно разности между числами степеней свободы общей и факторной дисперсий. Действительно, (Р9— 1) — (Р— 1) = рд—Р = Р(Я— 1). § 5. Сравнение нескольких средних методом дисперсионного анализа Вернемся к задаче, поставленной в § 1: прове- проверить при заданном уровне значимости нулевую гипотезу о равенстве нескольких (р > 2) средних нормальных со- совокупностей с неизвестными, но одинаковыми дисперси- 2V* 355
ями. Покажем, что решение этой задачи сводится к срав- сравнению факторной и остаточной дисперсий по критерию Фишера — Снедекора (см. гл. XIX, § 8). 1. Пусть нулевая гипотеза о равенстве нескольких средних (далее будем называть их групповыми) пра- правильна. В этом случае факторная и остаточная дисперсии являются несмещенными оценками неизвестной генераль- генеральной дисперсии (см. § 4) и, следовательно, различаются незначимо. Если сравнить эти оценки по критерию F, то очевидно, критерий укажет, что нулевую гипотезу о равенстве факторной и остаточной дисперсий следует принять. Таким образом, если гипотеза о равенстве групповых средних правильна, то верна и гипотеза о равенстве фак- факторной и остаточной дисперсий. 2. Пусть нулевая гипотеза о равенстве групповых средних ложна. В этом случае с возрастанием расхожде- расхождения между групповыми средними увеличивается фактор- факторная дисперсия, а вместе с ней и отношение Fua6jl = s|aKT/s«:T- В итоге /^„абл окажется больше FKV и, следовательно, гипотеза о равенстве дисперсий будет отвергнута. Таким образом, если гипотеза о равенстве групповых средних ложна, то ложна и гипотеза о равенстве фак- факторной и остаточной дисперсий. Легко доказать от противного справедливость обрат- обратных утверждений: из правильности (ложности) гипотезы о дисперсиях следует правильность (ложность) гипотезы о средних. Итак, для того чтобы проверить нулевую гипотезу о равенстве групповых средних нормальных совокупностей с одинаковыми дисперсиями, достаточно проверить по критерию F нулевую гипотезу о равенстве факторной и остаточной дисперсий. В этом и состоит метод диспер- дисперсионного анализа. Замечание 1. Если факторная дисперсия окажется меньше остаточной, то уже отсюда следует справедливость гипотезы о равен- равенстве групповых средних и, значит, нет надобности прибегать к кри- критерию F. Замечание 2. Если нет уверенности в справедливости пред- предположения о равенстве дисперсий рассматриваемых р совокупностей, то это предположение следует проверить предварительно, например по критерию Кочрена. Пример. Произведено по 4 испытания на каждом из трех уров- уровней. Результаты испытаний приведены в табл. 32. Методом диспер- дисперсионного анализа при уровне значимости 0,05 проверить нулевую 3S6
Таблица 32 Номер испытания 1 1 2 3 4 Уровнн фактора f. Л | F, | F, 51 52 56 57 54 52 54 56 58 55 42 44 50 52 47 гипотезу о равенстве групповых средних. Предполагается, что выборки извлечены из нормальных совокупностей с одинаковыми дисперсиями. Решение. Для упрощения расчета вычтем С = 52 из каждого наблюдаемого значения: уц = хц — 52. Составим расчетную табл. 33. Пользуясь таблицей и учитывая, что число уровней фактора р = 3, число испытаний на каждом уровне <? = 4, найдем общую и факторную суммы квадратов отклонений (см. § 2, формулы (***) Таблица 33 Ноиер испытания I 1 2 3 4 т) Уровни фактора F. Ун — 1 0 4 5 8 64 1 0 16 25 42 F, »1г 0 2 4 6 12 144 0, 4 16 36 56 F, У(з —10 —8 —2 0 —20 400 100 64 4 0 168 Итоговый столбец 2<2/ = 266 2^ = 608 357
н (***•)): 2 Q/- Г( S TJ) I <W> 1=266-0 = 266; S4aKT= Г 2 T)lq\- Г ( 2 Tj) / <P4) 1 =F08/4)-0= 152. Найдем остаточную сумму квадратов отклонений: Soct = So6al ~ S*aKT = 266—152=114. Найдем факторную и остаточную дисперсии: 4а«т= S4aKT/(p-1) = 152/C-1) = 76; 7-l))= 114/3D-1)= 114/9=12,67. Сравним факторную и остаточную дисперсии по критерию F (см. гл. XIX, §8), для чего найдем наблюдаемое значение критерия: ^набл = 4акт/4ст = 76/12,67 = 6. Учитывая, что число степеней свободы числителя ftl = 2, а зна- знаменателя А2 = 9 и уровень значимости а = 0,05, по таблице приложе- приложения 7 находим критическую точку: FKp@,05; 2; 9) = 4,26. Так как ^набл > -^кр—нулевую гипотезу о равенстве групповых средних отвергаем. Другими словами, групповые средние «в целом» различаются ' значимо. Если требуется сравнить средние попарно, то следует воспользоваться критерием Стьюдента. Замечание 3. Если наблюдаемые значения ж,-у—десятичные дроби с одним знаком после запятой, то целесообразно перейти к числам yij=\Qx(j—С, где С — примерно среднее значение чисел 10лс/у. В итоге получим сравнительно небольшие целые числа. Хотя при этом факторная и остаточная дисперсия увеличиваются в 10* раз, их отношение не изменится. Например, если жп=12,1, х21= 12,2, *si= •2,6, то, приняв уц= 10-х,/—123, получим: «/и= 121 —123 = —2, уи=122—123 =—1, уп= 126—123 = 3. Аналогично поступают, если после запятой имеется k знаков: — С. § 6. Неодинаковое число испытаний на различных уровнях Выше число испытаний на различных уровнях предполагалось одинаковым. Пусть число испытаний на различных уровнях, вообще говоря, различно, а именно: произведено qt испытаний на уровне Flt q2 испытаний — на уровне /•"„, ...,qp испытаний — на уровне Fp. В этом 358
случае общую сумму квадратов отклонений находят по формуле 1 Т • • • "Г гр\ | где Р1=2л;?1—сумма квадратов наблюдавшихся значе- значений признака на уровне Ft; <*%—сумма квадратов наблюдавшихся значе- значений признака на уровне Ft; Рр= 2 Xjp—сумма квадратов наблюдавшихся значе- iaz 1 ний признака на уровне Fp\ /С 1 — /j л/t• *^* ~~" ^j ^i**f • • •» *^» ""¦ ^j•*/»~~~суммы наблюдавшихся значений признака соответственно на уров- уровнях Fn Ft, .... Fp, n = q1 + qt+ ... +Яр—общее число испытаний (объем выборки). Если для упрощения вычислений из каждого наблю- наблюдавшегося значения х,-, вычитали одно и то же число С начения х,-, У,/ = Хц — С, И ПрИНЯЛИ У,/ = Хц — С, ТО q где qx = Syh, Q, = 2 у%, • • ¦, Qp = S 2 2 % = 2j уitt • • •. Tp — 2, ?//p- Факторную сумму квадратов отклонений находят по .формуле если значения признака были уменьшены {уу = Ху—С), то 369
Остальные вычисления производят, как и в случае одинакового числа испытаний: "^ост ~ ^общ ^факт» 4акт = S^aKT/(p — 1), Slcj. = S0CT/(n — р). Пример. Произведено 10 испытаний, из них 4 на первом уровне фактора, 4—на втором и 2—на третьем. Результаты испытаний при- приведены в табл. 34. Методом дисперсионного анализа при уровне зна- значимости 0,01 проверить нулевую гипотезу о равенстве групповых средних. Предполагается, что выборки извлечены из нормальных совокупностей с одинаковыми дисперсиями. Таблица 34 Номер испытания 1 2 3 4 ¦ Уровни фактора F, F, 40 44 48 36 42 F, 62 80 71 91 76 F. 92 76 84 Решение. Для упрощения расчета вычтем С = 64 из каждого наблюдаемого значения: уц=х,у — 64. Составим расчетную табл. 35. Используя табл. 35, найдем общую и факторную суммы квадратов отклонений: f)*/n\ =3253— [(—27J/Ю] = = 3253 — 72,9 = 3180,1; 5факт = [(TVЯг) + (TVЯш) + (TVЯ.)] - [B T,Yln] = = G744/4) + D4l/4) + A600/2)l —72,90 = 2846,25—72,90 = 2773,35. Найдем остаточную сумму квадратов отклонений: Soct = S06ui —S.taKT =3180,10 — 2773,35 = 406,75. Найдем факторную и остаточную дисперсии: 8факт=5Факт/(р—0 = 2773,35/C-1) = 2773,35/2 = 1387; SocT = S0CT/(rt—p) = 406,75/A0 — 3) = 406,75/7 = 58. Сравним факторную и остаточную дисперсии по критерию F (см. гл. XIX, § 8), для чего найдем наблюдаемое значение критерия: F„аб- - *Факт/ 4т = 1387/58 = 23,9. 360
Таблица 35 Номер испытания 1 2 3 4 Уровни фактора Fj F, У, — 24 —20 — 16 —28 —88 7744 у1 576 400 256 784 2016 F, Уч —2 16 21 441 4 256 49 309 F, у, 28 12 40 1600 у?3 784 144 928 Итоговый столбец Учитывая, что число степеней свободы числителя ^=2, а зна- знаменателя Л2 = 7 и уровень значимости а = 0,01, по таблице приложе- приложения 7 находим критическую точку: FKV@,0l\ 2; 7) = 9,55. Так как /^набл > ^кр—нулевую гипотезу о равенстве групповых средних отвергаем. Другими словами, групповые средние различаются значимо. Задачи В задачах 1—3 требуется при уровне значимости 0,05 про- проверить нулевую гипотезу о равенстве групповых средних. Предпо- Предполагается, что выборки извлечены из нормальных совокупностей с оди- одинаковыми генеральными дисперсиями. 1. Номер испытания t 1 2 3 4 Xrpj F, 42 55 67 67 57,75 Уровни фактора F, 66 91 96 98 87,75 35 50 60 69 53.50 Fi f. 64 70 79 81 73,50 F. 70 79 88 90 81,75 Отв. /г„абл отвергается. @,05; 4; 15) =3,06. Нулевая гипотеза 361
2. Номер испытания { 1 2 3 4 Уровня-фактора F/ Fl 6 7 8 11 8 F. 6 7 11 12 9 F, 9 12 13 14 12 F, 7 9 10 10 9 Отв. /?иабя = 2,4; FKV @,05; 3; 12)=«=3,49. Нет оснований отверг- отвергнуть нулевую гипотезу. Номер испытания 1 1 2 3 4 5 6 хгр/ Уровня фактора F/ Fi 37 47 40 60 46 F, 60 86 67 92 95 98 83 F, 69 100 98 89 Отв. .FHa6a=^.92; FKV @,05; 2; 10) =4,10. Нуле- Нулевая гипотеза отвергается.
ЧАСТЬ ЧЕТВЕРТАЯ МЕТОД МОНТЕ-КАРЛО. ЦЕПИ МАРКОВА Глава двадцать первая МОДЕЛИРОВАНИЕ (РАЗЫГРЫВАНИЕ)СЛУЧАЙНЫХ ВЕЛИЧИН МЕТОДОМ МОНТЕ-КАРЛО § 1. Предмет метода Монте — Карло Датой рождения метода Монте—Карло принято считать 1949 г., когда американские ученые Н. Метропо- лис и С. Улам опубликовали статью «Метод Монте — Карло», в которой систематически его изложили. Назва- Название метода связано с названием города Монте—Карло, где в игорных домах (казино) играют в рулетку—одно из простейших устройств для получения случайных чисел, на использовании которых основан этот метод. ЭВМ позволяют легко получать так называемые псев- псевдослучайные числа (при решении задач их применяют вместо случайных чисел); это привело к широкому внедре- внедрению метода во многие области науки и техники (статисти- (статистическая физика, теория массового обслуживания, теория игр и др.)- Метод Монте—Карло используют для вычис- вычисления интегралов, в особенности многомерных, для реше- решения систем алгебраических уравнений высокого порядка, для исследования различного рода сложных систем (автоматического управления, экономических, биологи- биологических и т. д.). Сущность метода Монте — Карло состоит в следующем: требуется найти значение а некоторой изу- изучаемой величины. Для этого выбирают такую случайную величину X, математическое ожидание которой равно а: Практически же поступают так: производят п испы- испытаний, в результате которых получают п возможных зна- значений X; вычисляют их среднее арифметическое 363
и принимают х в качестве оценки (приближенного значе- значения) а* искомого числа а: Поскольку метод Монте — Карло требует проведения большого числа испытаний, его часто называют методом статистических испытаний. Теория этого метода указы- указывает, как наиболее целесообразно выбрать случайную величину X, как найти ее возможные значения. В част- частности, разрабатываются способы уменьшения дисперсии используемых случайных величин, в результате чего уменьшается ошибка, допускаемая при замене искомого математического ожидания а его оценкой а*. Отыскание возможных значений случайной величины X (моделирование) называют «разыгрыванием случайной ве- величины». Изложим лишь некоторые способы разыгрывания случайных величин и укажем, как оценить допускаемую при этом ошибку. § 2. Оценка погрешности метода Монте — Карло Пусть для получения оценки а* математического ожидания а случайной величины X было произведено п независимых испытаний (разыграно л возможных значе- значений X) и по ним была найдена выборочная средняя х, ко- которая принята в качестве искомой оценки: а* — х. Ясно, ч-то если повторить опыт, то будут получены дру- другие возможные значения X, следовательно, другая сред- средняя, а значит, и другая оценка а*. Уже отсюда следует, что получить точную оценку математического ожидания невозможно. Естественно, возникает вопрос о величине допускаемой ошибки. Ограничимся отысканием лишь верхней границы б допускаемой ошибки с заданной ве- вероятностью (надежностью) у: Интересующая нас верхняя граница ошибки б есть не что иное, как «точность оценки» математического ожидания по выборочной средней при помощи доверительных ин- интервалов, о которой уже шла речь в гл. XVI. Поэтому воспользуемся результатами, полученными ранее, и рас- рассмотрим следующие три случая. 1. Случайная величина X распределена нормально и ее среднее квадратическое 364
отклонение а известно. В этом случае с надеж- надежностью у верхняя граница ошибки (см. гл. XVI, § 15) где п—число испытаний (разыгранных значений X); t — значение аргумента функции Лапласа, при котором <D(f) = Y/2, a — известное среднее квадратическое откло- отклонение X. Пример I. С надежностью v = 0>95 найти верхнюю границу ошибки б, если для оценки математического ожидания нормальной величины X с известным средним квадратическим отклонением, равным 0,5, было разыграно 100 возможных значений X. Решение. По условию, л=100, а = 0,5, Ф@ = 0,95/2 = 0,475. По таблице функции Лапласа (см. приложение 2) находим < = 1,96. Искомая верхняя граница ошибки б = 1,96-0,5/^100 = 0,098. 2. Случайная величина X распределена нормально, причем ее среднее квадрати- квадратическое отклонение а неизвестно. В этом слу- случае с надежностью у верхняя граница ошибки (см. гл. XVI, § 16) б = ty s I y~n, (**) где п — число испытаний; s — «исправленное» среднее квад- квадратическое отклонение, /Y находят по таблице приложе- приложения 3. Пример 2. С надежностью у = 0,95 найти верхнюю границу ошибки б, если для оценки математического ожидания нормальной величины X было разыграно 100 ее возможных значений и по ним найдено «исправленное» среднее квадратическое отклонение s = 0,5. Решение По условию, я=100, s = 0,5 Испольчуя таблицу приложения 3, по -у = 0.95, п=100 находим /v= 1,984. Искомая верхняя граница ошибки 6 = 1,984 0,5/^100 = 0,099. 3. Случайная величина X распределена по закону, отличному от нормального. В этом случае при достаточно большом числе испытаний (п>30) с надежностью, приближенно равной у, верхняя граница ошибки может быть вычислена по формуле (*), если среднее квадратическое отклонение о случайной ве- величины X известно; если же а неизвестно, то можно подставить в формулу (*) его оценку s — «исправленное» среднее квадратическое отклонение либо воспользоваться формулой (**). Заметим, что чем больше п, тем меньше различие между результатами, которые дают обе формулы. Это объясняется тем, что при п —»¦ оо распределение 365
Стьюдента стремится к нормальному (см. гл. XVI, § 16, замечание). В частности (примеры 1 и 2), при п=100, V = 0,95 верхняя граница ошибки равна 0,098 по формуле (*) и 0,099 по формуле (**). Как видим, результаты раз- различаются незначительно. Замечание. Для того чтобы найти наименьшее число испы- испытаний, которые обеспечат наперед заданную верхнюю границу ошибки б, надо выразить л из формул (*) и (**): Например, если 6 = 0,098, /=1,96, ст = 0,5, то минимальное число испытаний, при которых ошибка не превысит 0,098, равно п= 1,96а 0,52/0,098а = 100. § 3. Случайные числа Ранее было указано, что метод Монте—Карло основан на применении случайных чисел; дадим опреде- определение этих чисел. Обозначим через R непрерывную слу- случайную величину, распределенную равномерно в интер- интервале @, 1). Случайными числами называют возможные значения г непрерывной случайной величины R, распределенной равномерно в интервале @, 1). В действительности пользуются не равномерно рас- распределенной случайной величиной R, возможные значе- значения которой, вообще говоря, имеют бесконечное число десятичных знаков, а квазиравномерной случайной величиной R*, возможные значения которой имеют к о- нечное число знаков. В результате замены" R на R* разыгрываемая величина имеет не точно, а прибли- приближенно заданное распределение. В приложении 9 при- приведена таблица случайных чисел, заимствованная из книги: Большее Л. Н., Смирнов Н. В. Таблицы математической статистики. М., «Наука», 1965, с. 428. § 4. Разыгрывание дискретной случайной величины Пусть требуется разыграть дискретную случай- случайную величину X, т. е. получить последовательность ее возможных значений xt (i— I, 2, ..., п), зная закон рас- распределения X: X х-у лг2 • • • хп - Р Pi Р* ••¦ Рп 366
Обозначим через R непрерывную случайную величину, распределенную равномерно в интервале @, 1), а через ^j(i— 1.2, ...)—ее возможные значения, т. е. случайные числа. Разобьем интервал 0 < R < 1 на оси Or точками с координатами рг, pt + pt, Рх + р, + р„ ..., р.+р,+ ... •••+Ря-1 на п частичных интервалов Alt Д„ ...,ДЯ: Дл. Д, = р,—0 = /?,, Дл. Д, = ( Дл. Д„=1 — (Pi Видим, что длина частичного интервала с индексом i равна вероятности с тем же индексом: Дл. Д/«/>л (#) Теорема. Если каждому случайному числу т{ @ ^ гу < 1), которое попало в интервал Д/( ставить в соответствие возможное значение х(, то разыгрываемая величина будет иметь заданный закон распределения: л хг хх ... хп Р Pi Pi • • • Рп Доказательство. Так как при попадании слу- случайного числа Гу в частичный интервал Д/ разыгрываемая величина принимает возможное значение х(, а таких интервалов всего п, то разыгрываемая величина имеет те же возможные значения, что и X, а именно xlt xt х„. Вероятность попадания случайной величины R в ин- интервал Д/ равна его длине (см. гл. XI, § 6, замечание), а в силу (») Дл. Д/ = р/. Таким образом, вероятность попадания R в интервал Д, равна ph Следова- Следовательно, вероятность того, что разыгрываемая величина примет возможное значение xh также равна pt (поскольку мы условились в случае попадания случайного числа г, в интервал Д,- считать, что разыгрываемая величина при- приняла возможное значение х(\. Итак, разыгрываемая ве- величина имеет заданный закон распределения. Правило. Для того чтобы разыграть дискретную слу- случайную величину, заданную законом распределения А х± хг ... хп Р Pi Pi • • ¦ Рп 367
надо: 1) разбить интервал @, 1) оси Or на п частичных интервалов: Дх — @; рг), Д2 — (рх; p^ + pj, . .., Ап — (р1 + Р2 Рп1 О 2) выбрать (например, из таблицы случайных чисел) случайное число г,. Если Г] попало в частичный интервал Д,-, то разыг- разыгрываемая дискретная случайная величина приняла воз- возможное значение х{. Пример. Разыграть 8 значений дискретной случайной величины X, закон распределения которой задан в виде таблицы X 3 11 24 р 0,25 0,16 0,59 Решение. 1. Разобьем интервал @,1) оси Or точками с коор- координатами 0,25; 0,254 0,16 = 0,41 на 3 частичных интервала: А1 — — @; 0,25), Л2 —@,25; 0,41), Дэ —@,41; 1). 2. Выпишем из таблицы приложения 9 восемь случайных чисел, например: 0,10; 0,37; 0,08; 0,99; 0,12; 0,66; 0,31; 0,85. Случайное число гг = 0,10 принадлежит частичному интервалу Дь поэтому разыгрываемая дискретная случайная величина приняла воз- возможное значение дсх = 3. Случайное число г2 = 0,37 принадлежит частичному интервалу Д2, поэтому разыгрываемая величина приняла возможное значение х2 = 11. Аналогично получим остальные возмож- возможные значения. ( Итак, разыгранные возможные значения X таковы' 3; II; 3; 24; 3; 24; 11; 24. Замечание. Далее будет показано, что разыгрывание собы- событий можно свести к разыгрыванию дискретной случайной величины. Сначала рассмотрим полную группу, состоящую из двух событий (см. § 5), а затем из п событий (см. § 6). Разумеется, полная группа из двух событий является частным случаем полной группы п событий. Однако исходя из методических соображений этот частный случай намерено выделен в самостоятельный параграф—§5. § 5. Разыгрывание противоположных событий Пусть требуется разыграть испытания, в каждом из которых событие А появляется с известной вероят- вероятностью р и, следовательно, не появляется с вероятностью q= I—p. Введем в рассмотрение дискретную случайную вели- величину X с двумя возможными значениями (для определен- определенности примем ^=1, х2 = 0) и соответствующими .им ве- вероятностями pt = p, pa = q. Условимся считать, что если в испытании величина X приняла возможное значение jc, = 1, то событие А наступило; если X = ха = 0, то собы- 368
тие А не наступило, т. е. появилось противоположное событие А. Таким образом, разыгрывание противоположных собы- событий А и А сведено к разыгрыванию дискретной случай- случайной величины X с заданным законом распределения: X 1 О Р Р Я Для разыгрывания X надо (по правилу § 4) интервал (О, 1) разбить точкой р на два частичных интервала: Дх— @, р) и А2 — (р, 1). Затем выбирают случайное число /у. Если Tj попадает в интервал Лг, то X — xt (наступило событие А); если Гу попадает в интервал Д2, то X = ха = О (событие А не наступило). Правило. Для того чтобы разыграть испытания, в каж- каждом из которых вероятность появления события равна р и, следовательно, вероятность наступления противополож- противоположного события А равна 1—р, надо выбрать (например, из таблицы случайных чисел) случайное число Гу(/=1, 2, .. .); если г, < р, то событие А наступило; если rj^p, то появилось противоположное событие А. Пример. Разыграть 6 испытаний, в каждом из которых событие А появляется с вероятностью /? = 0,35. Решение. Выберем из таблицы приложения 9 шесть случайных чисел, например: 0,10; 0,36; 0,08; 0,99; 0,12; 0,06. Считая, что при Tj < 0,35 событие А появилось, а при Г] Зг 0,35 наступило противо- противоположное событие А, получим искомую последовательность событий: § 6. Разыгрывание полной группы событий Разыгрывание полной группы п (п > 2) несов- несовместных событий Аи А2, ..., Ап, вероятности которых Pi. P2> • • • i Рп известны, можно свести к разыгрыванию дискретной случайной величины X со следующим законом распределения (для определенности примем хг= 1, лса = 2, .... ж„ = л): X 1 2 ... п Р Pi Pi--- Рп Действительно, достаточно считать, что если в испы- испытании величина X приняла значение */ = i (i — 1,2, .... я), то наступило событие At. Справедливость этого утвержде- утверждения следует из того, что число п возможных значений X 24 27~Ч) 369
равно числу событий полной группы и вероятности воз- возможных значений х( и соответствующих им событий А{ одинаковы: P(X — xt) = P (At) = ph Таким образом, появ- появление в испытании события А равносильно событию, состоящему в том, что дискретная случайная величина X приняла возможное значение х,. Правило. Для того чтобы разыграть испытания, в каж- каждом из которых наступает одно из событий Ах, Ал, ..., А„ полной группы, вероятности которых pt, pt, ..., рп из- известны, достаточно разыграть (по правилу § 4) дискретную случайную величину X со следующим законом распреде- распределения: XI 2 ... п Р Pi Pt • • • Рп Если в испытании величина X приняла возможное зна- значение Xi = l, то наступило событие At. Пример 1. Заданы вероятности четырех событий, образующих полную группу: pt=P (Л,) «0,19, р,=Я (/,)=0,21, р9ш=Р (Л,)=0,34, р4 = Р (Л4)-= 0,26. Разыграть 5 испытаний, в каждом из которых появляется одно из четырех заданных событий. Решение. В соответствии с правилом, приведенным в настоящем параграфе, надо разыграть дискретную случайную величину "X, закон распределения которой X 1 2 3 4 р 0,19 0,21 0,34 0,26 По правилу $ 4 разобьем интервал @,1) на четыре частичных интервала: Ах —@; 0,19), Д,—@,19; 0,40), А,—@,40; 0,74), А4 — @,74; 1). Выберем из таблицы приложения 9 пять случайных чисел, например: 0,66; 0,31; 0,85; 0,63; 0,73. Так как случайное число ^ = 0,66 принадлежит интервалу А3, то Х=3, следовательно, наступило собы- событие А%. Аналогично найдем остальные события. Итак, искомая последовательность событий такова: А», Л», At, At, A». Пример 2. События А и В независимы и совместны. Разыграть 6 испытаний, в каждом из которых вероятность появления события А равна 0,6, а вероятность появления события В равна 0,2. Решение. Возможны 4 исхода испытания: Ai*=AB, причем в силу независимости событий Р(АВ) = *=Р (А) Р (В) = 0,6 0,2 = 0,12; At*=AB, причем Я(/4В)=0,60,8=0,48; АЛ**АВ, причем Р(АВ)«=0,4-0,2 = 0,08; Д4я=АВ", причем Р(ЛВ) = 0,4-0,8 = 0,32. Таким образом, задача сведена к разыгрыванию полной группы четырех событий: Аг с вероятностью р,=0.12, Л, с вероятностью ра» 0,48, А, с вероятностью р, = 0,0$ и At с вероятностью р*=0,32. 370
В свою очередь, в соответствии с правилом настоящего пара- параграфа эта задача сводится к разыгрыванию дискретной случайной величины X, закон распределения которой X I 2 3 4 р 0,12 0,48 0,08 0,32 Используем правило § 4. Выберем 6 случайных чисел, например: 0,45; 0,65; 0,06; 0,59; О.ЗЗг 0,70. Построим частичные интервалы: Лх-@; 0,12), Дя-'@.12; 0,60); Д8-@,60; 0.68), Д4-@,68; 1). Слу- Случайное число л1 = 0,45 принадлежит интервалу Лг, поэтому наступило событие А2=АВ. Аналогично найдем исходы остальных испытаний. Итак, искомая_последовательность_исходов разыгранных испыта- испытаний такова: АВ, АВ, АВ, АВ, АВ, АВ~. Пример 3. События А и В зависимы и совместны. Разыграть 4 испытания, в каждом из которых заданы вероятности Р (А) = 0,8, Р? 06 PDB) 05 ) () Решение. Возможны 4 исхода испытания: At = AB, причем, по условию, Р (АВ)=0,Ъ; А2=-АЪ, примем Р(АВ) = Р(А) — Р(АВ)='0,8—0,5=0,3; А» = АВ, причем Р (АВ) = Р (В) — Р (АВ) =0,6—0,5 = 0,1; Ai = AB, причем Р(А~В) = I — [Р(АЦ-\-Р (AJ + P (Аг)]=1 — @5 + 03 + 01) 01 Таким образом, задача сведена к разыгрыванию полной группы четырех событий: At с вероятностью 0,5, At с вероятностью 0,3, А3 с вероятностью 0,1 и А4 с вероятностью 0,1 и At с вероятно- вероятностью 0,1. Рекомендуем закончить решение самостоятельно, считая для определенности, что выбраны случайные числа: 0,65; 0,06; 0,59; 0,33*. Для контроля приводим ответ: А~В, АВ, Ав~, АВ. Пояснение. Так как А—А В-\-АВ, то Р (А)=Р (АВ)-\-Р (АН). Отсюда Р (АВ) = Р(А) — Р (АВ). Аналогично получим, что § 1. Разыгрывание непрерывной случайной величины. Метод обратных функций Пусть требуется разыграть непрерывную случай- случайную величину X, т. е. получить последовательность ее возможных значений xt(i=l, 2, ...), зная функцию распределения F (х). Теорема. Если rt—случайное число, то возможное зна- значение х{ разыгрываемой непрерывной случайной величины X с заданной функцией распределения F (х), соответ- 24" 371
ствующее г{, является корнем уравнения Доказательство. Пусть выбрано случайное число /(,< 1). Так как в интервале всех возможных зна- значений X функция распределения F (х) монотонно возра- возрастает от 0 до 1, то в этом интервале существует, причем только одно, такое значение аргумента х,, при котором функция распределения примет значение г,. Другими словами, уравнение (*) имеет единственное решение где F~l—функция, обратная функции y = F(x). Докажем теперь, что корень х, уравнения (*) есть возможное значение такой непрерывной случайной вели- величины (временно обозначим ее через |, а потом убедимся, что ? = Х). С этой целью докажем, что вероятность попа- попадания ? в интервал, например (с, d), принадлежащий интервалу всех возможных значений X, равна прираще- приращению функции распределения F (х) на этом интервале: Действительно, так как F (х)— монотонно возрастаю- возрастающая функция в интервале всех возможных значений X, то в этом интервале большим значениям аргумента соот- соответствуют большие значения функции, и обратно. Поэтому, если с < х{ < d, то F(c) < г,- < F (d), и обратно [учтено, что в силу (*) F(x,) = rt]. Из этих неравенств следует, что если случайная величина ? заключена в интервале с < ? < d, (**) то случайная величина R заключена в интервале F (c)< R < F (d), (***) и обратно. Таким образом, неравенства (**) и (***) рав- равносильны, а, значит, и равновероятны: P(c<l<d) = P[F(c)<R<F(d)]. (****) Так как величина R распределена равномерно в ин- интервале @, 1), то вероятность попадания R в некоторый интервал, принадлежащий интервалу @, 1), равна его длине (см. гл. XI, § 6, замечание). В частности, Р [F (c)< R < F (d)] - F {d)~F(c). 372
Следовательно, соотношение (****) можно записать в виде P{c<l<d) = F(d) — F (с). Итак, вероятность попадания | в интервал (с, d) равна приращению функции распределения F (х) на этом интер- интервале, а это означает, что | = ЛГ. Другими словами, числа х„ определяемые формулой (*), есть возможные значения величины X с заданной функцией распределения F (х), что и требовалось доказать. Правило 1. Для того чтобы найти возможное значение х( непрерывной случайной величины X, зная ее функцию распределения F (х), надо выбрать случайное число г{, приравнять его функции распределения и решить отно- относительно х1 полученное уравнение Замечание 1. Если решить это уравнение в явном виде не удается, то прибегают к графическим или численным методам. Пример I. Разыграть 3 возможных значения непрерывной слу- случайной величины X, распределенной равномерно в интервале B, 10). Решение. Напишем функцию распределения величины X, рас- распределенной равномерно в интервале (а, Ь) (см. гл. XI, § 3, пример): F(x) = (x-a)l{b-a). По условию, а = 2, 6=10, следовательно, Используя правило настоящего параграфа, напишем уравнение для отыскания возможных значений ж/, для чего приравняем функцию распределения случайному числу: (*,-2)/8 = /-,-. Отсюда х; = 8г,- + 2. Выберем 3 случайных числа, например, /•1 = 0,11, га = 0,17, л, = 0,66. Подставим эти числа в уравнение, разрешенное относительно xf, в итоге получим соответствующие возможные значения X: ^ = 8-0,11+2 = 2,88; *2=1,36; *3 = 7,28. Пример 2. Непрерывная случайная величина X распределена по показательному закону, заданному функцией распределения (параметр Я > 0 известен) F(x)=\— e~Xx (х>0). Требуется найти явную формулу для разыгрывания возможных зна- значений X. Решение. Используя правило настоящего параграфа, напишем уравнение 1—е '=/¦/. Решим это уравнение относительно Xf. е ' = 1 — Г{, или —Kxt — In (I — /¦,). 373
Отсюда Случайное число г/ заключено в интервале @, 1); следовательно, число 1—/•,• также случайное и принадлежит интервалу @,1). Дру- Другими словами, величины R и 1—R распределены одинаково. Поэтому для отыскания xt можно воспользоваться более простой формулой Х/="~Т1пг'' Замечание 2. Известно, что (см. гл. XI, § 3) X В частности, F(x{)= J f(x)dx. — 00 Отсюда следует, что если известна плотность вероятности f(x), то для разыгрывания X можно вместо уравнений F (х,-) = г/ решить относительно х/ уравнение Правило 2. Для того чтобы найти возможное значение Х[ непрерывной случайной величины X, зная ее плот- плотность вероятности f (x), надо выбрать случайное число rt и решить относительно х( уравнение или уравнение a где a—наименьшее конечное возможное значение X. Пример 3. Задана плотность вероятности непрерывной случайной величины X f(x)=\(l—Хх/2) в интервале @; 2/Я); вне этого интер- интервала /(х) = 0. Требуется найти явную формулу для разыгрывания возможных значении X. 374
Решение, На пишем в соответствии с правилом 2 уравнение (l—Kx/2)dx=r{. Выполнив интегрирование и решив полученное квадратное уравнение относительно х/, окончательно получим § 8. Метод суперпозиции Пусть функция распределения разыгрываемой случайной величины X может быть представлена в виде линейной комбинации двух функций распределения: F (х) = CtFt (х) + CtF3 (x) (Ct > О, Ct > 0). При х—>-оо каждая из функций распределения стремится к единице, поэтому Сх + С2 = 1. Введем вспомогательную дискретную случайную вели- величину Z с законом распределения Z 1 2 Р Сг С* Мы видим, что Выберем два независимых случайных числа гг и га. По числу г1 разыгрываем возможное значение Z (см. § 4). Если окажется, что Z—1, то ищут искомое возможное значение X из уравнения F1(x) = ri\ если Z — 2, то ре- решают относительно х уравнение /7а(х) = га. Докажем, что функция распределения разыгрываемой случайной величины равна заданной функции распреде- распределения. Воспользуемся формулой полной вероятности (см. гл. IV, § 2) Р(А) = Р (В,) PBl (А) + Р (В,) PBt (Л). Обозначим через А событие X < х; тогда PP(X<x) = F(x). (**) Рассмотрим гипотезы Вх: Z=l и б2: Z — 2. Вероятности этих гипотез в силу (*): P(B1) = P(Z = 1) = C1 и P(BS)-P(Z = 2) = C3. (***) 375
Условные вероятности появления события А соответ- соответственно равны: Подставив (**), (***) и (****) в формулу полной вероят- вероятности, окончательно получим F(x) = ClFi(x)-{-CMFt(x), что и требовалось доказать. Замечание. Метод суперпозиции обобщается на п слагаемых функций распределения. Правило. Для того чтобы разыграть возможное зна- значение случайной величины X, функция распределения которой где Сх > О, С, >0 и Сг + Сг=\, надо выбрать два неза- независимых случайных числа гх и г% и по случайному числу ri разыграть возможное значение вспомогательной дискрет- дискретной случайной величины Z (по правилу § 4): Z 1 2 Р С, Са Если окажется, что Z=l, то решают относительно х уравнение Ft (х) = г2; если Z = 2, то решают уравнение Ft(x) = rt. Пример. Найти явные формулы для разыгрывания 'непрерывной случайной величины X, заданной функцией распределения F (х)= 1—0,25 (е-2ж + 3е-*), 0 < х < оо. Решение. Воспользуемся методом суперпозиции, для чего представим заданную функцию в виде 0,25(l—е-2*) + 0,75 A-е-*). Таким образом, можно принять: F1(x) = l—е-2*, А,(х)=1— е-*, С1==0,25, С2 = 0,75. Введем в рассмотрение вспомогательную дискретную случайную величину Z с законом распределения Z 1 2 р 0,25 0,75 Выберем независимые случайные числа тх и г2. Разыграем Z по случайному числу гь для чего по правилу § 4 построим частичные 976
интервалы Д,— @; 0,25) и А2 —@,25; 1). Если гх < 0,25, то Z=l, если rj:>5 0,25, то Z = 2. Итак, возможное значение X находят, решая относительно х уравнение 1_е-г* = г2, если тх < 0,25, или 1—е-* = г2, если т^ЗаО.гб. Используя решение примера 2 (см. § 7), в котором была найдена явная формула х = —A/X) In т для разыгрывания возможных значений показательного распределения с заданным параметром X, окончательно получим: х= — A/2) In r2, если rt < 0,25; х——In rt, если ri^0,25. § 9. Приближенное разыгрывание нормальной случайной величины Напомним предварительно, что если случайная величина R распределена равномерно в интервале @, 1), то ее математическое ожидание и дисперсия соответственно равны (см. гл. XII, § 1, замечание 3): M(R)= 1/2, (*) D (/?) =1/12. (**) Составим сумму п независимых, распределенных рав- равномерно в интервале @, 1) случайных величин #,(/=1, 2 я): % Rj. (***) Для нормирования этой суммы найдем предварительно ее математическое ожидание и дисперсию. Известно, что математическое ожидание суммы слу- случайных величин равно сумме математических ожиданий слагаемых. Сумма (***) содержит п слагаемых, матема- математическое ожидание каждого из которых в силу (*) равно 1/2; следовательно, математическое ожидание суммы (***) Известно, что дисперсия суммы независимых случай- случайных величин равна сумме дисперсий слагаемых. Сумма (***) содержит п независимых слагаемых, дисперсия каж- каждого из которых в силу (**) равна 1/12; следовательно. 377
дисперсия суммы (#*#) 2 R, =n/12. N i J Отсюда среднее квадратическое отклонение суммы (***) Пронормируем рассматриваемую сумму, для чего выч- вычтем математическое ожидание и разделим результат на среднее квадратическое отклонение: 2 Л/ 7 -(я/2) В силу центральной предельной теоремы при п—*оо распределение этой нормированной случайной величины стремится к нормальному с параметрами а = 0 и 0=1. При конечном п распределение прибли- приближенно нормальное. В частности, при п— 12 получим достаточно хорошее и удобное для расчета приближение Правило. Для того чтобы разыграть возможное зна- значение X/ нормальной случайной величины X с парамет- параметрами а —О и 0=1, надо сложить 12 независимых слу- случайных чисел и из полученной суммы вычесть 6: 12 */= 2 г,—6 = S,—6. Пример, а) Разыграть 100 возможных значений нормальной вели- величины X с параметрами а = 0 и о=1; б) оценить параметры разыг- разыгранной величины. Решение, а) Выберем 12 случайных чисел из первой строки таблицы *>, сложим их и из полученной суммы вычтем 6; в итоге имеем х1 = @,10 + 0.09+...+0,67) —6 = —0,99. Аналогично, выбирая из каждой следующей строки таблицы пер- первые 12 чисел, найдем остальные возможные значения X. *) См.: Большее Л. Н., Смирнов Н. В. Таблицы матема- математической статистики. М., «Наука», 1965, с, 428—429. 378
б) Выполнив расчеты, получим искомые оценки: 0»=^=-—0,05, о*= УЩ^ 1.04. Оценки удовлетворительные: а* близко к нулю, а* мало отличается от единицы. Замечание. Если требуется разыграть возможное значение г,- нормальной случайной величины Z с математическим ожиданием а и средним квадратическим отклонением а, то, разыграв по пра- правилу настоящего параграфа возможное значение */, находят искомое возможное значение по формуле Эта формула получена из соотношения^,- — а)/о" = ж/. Задачи 1. Разыграть 6 значений дискретной случайной величины X, закон распределения которой задан в виде таблицы X 2 3,2 10 р 0,18 0,24 0,58 Указание. Для определенности принять, что выбраны слу- случайные числа: 0,73; 0,75; 0,54; 0,08; 0,28; 0,53. Отв. 10; 10; 10; 2; 3; 22; 10. 2. Разыграть 4 испытания, в каждом из которых вероятность появления события А равна 0,52. Указание. Для определенности принять, что выбраны слу- случайные числа^ 0j28;J),53; 0,91; 0,89. Отв. А, А, А, А. 3. Заданы вероятности трех событий, образующих полную группу: р (Аг) = 0,20, Р(Л2) = 0,32, Р(Ая) = 0,48. Разыграть 6 испытаний, в каждом из которых появляется одно из заданных событий. У Казание. Для определенности принять, что выбраны слу- случайные числа: 0,77; 0,19; 0,21; Д51; 0,99; 0,33. Отв. А3, Аг, Аг, Аг, Ая, А%. 4. События А и В независимы и совместны. Разыграть 5 испы- испытаний, в каждом из которых вероятность появления события А равна 0,5, а события В —0,8. Указание. Составить полную группу событий: АХ = АВ, А2 — АВ, А3 = АВ, Ai = AB; для определенности принять случайные числа: 0,34; 0,41; 0,48; 0,21; 0,57. Отв. А\, Аг, Л,, Alt Aa. 5. События А, В, С независимы и совместны. Разыграть 4 испы- испытания, в каждом из которых вероятности появления событий заданы: Р(Л) = 0,4, Р(Я) = 0,6, Р(С) = 0,5. Указание. Составить_ полную группу событий!: А]_ [ Ъ [ Ай = АВС; для определенности принять, что выбраны случайные числа: 0,075; 0,907; 0,401; 0,344. Отв. Ait AB, Ait At. в. События А и В зависимы и совместны. Разыграть 4 испыта- испытания,'в каждом из которых заданы вероятности: Р(Л)=0,7, Р(В) = 0,6, Р (Ли) = 0,4. 379
У к_а з а н и е. Составить полную группу событий: Аг = АВ, А2 = АВ, А3=АВ, А4 = АВ; для определенности принять случайные числа: 0,28; 0,53; 0,91; 0,89. Отв. Аи А2, Л4, А3. 7. Разыграть 3 возможных значения непрерывной случайной величины X, которая распределена по показательному закону и задана функцией распределения F(x)=\—е~10х. Указание. Для определенности принять, что выбраны слу- случайные числа: 0,67; 0,79; 0,91. Отв. 0,04; 0,02; 0,009. 8. Разыграть 4 возможных значения непрерывной случайной величины X, распределенной равномерно в интервале F, 14). Указание. Для определенности принять, что выбраны слу- случайные числа: 0,11: 0,04; 0,61; 0,93. Отв. 6,88; 6,32; 10,88; 13,44. 9. Найти методом суперпозиции явные формулы для разыгрыва- разыгрывания непрерывной случайной величины X, заданной функцией рас- распределения F{x)=\ — (l/3)Be-2*+e-s*), 0 < х < оо. Отв. * = —A/2) In r2, если гх < 2/3; х=—A/3) In rt, если гг^=2/3. 10. Найти явную формулу для разыгрывания непрерывной слу- случайной величины X, заданной плотностью вероятности /(*) = — Ь/(\-\-ах)л в интервале 0«s**^l/(*—а); вне этого интервала /() 0 Отв. Х[=—Г{/(Ь () 11. Разыграть 2 возможных значения нормальной случайной величины с параметрами: а) а — 0, о=1; б) а = 2, о = 3. Указание. Для определенности принять случайные числа (далее указано число сотых долей; например, числу 74 соответствует слу- случайное число Л! = 0,74): 74, 10, 88, 82, 22, 88, 57, 07, 40, 15, 25, 70; 62, 88, 08, 78, 73, 95, 16, 05, 92, 21, 22, 30. Отв. а) *! = — 0,22, дса = —0,10; б) z1 = l,34, za = 2,70. Глава двадцать вторая ПЕРВОНАЧАЛЬНЫЕ СВЕДЕНИЯ О ЦЕПЯХ МАРКОВА § 1. Цепь Маркова Цепью Маркова называют последовательность испытаний, в каждом из которых появляется только одно из k несовместных событий Аи At, ..., Ак полной группы, причем условная вероятность P//(s) того, что в s-м испы- испытании наступит событие А}Ц=\, 2, ...,k), при усло- условии, что в (s—1)-м испытании наступило событие /1,A = 1,2, ...,k), не зависит от результатов предшест- предшествующих испытаний. Например, если последовательность испытаний обра- образует цепь Маркова и полная группа состоит из четырех несовместных событий Alt At, Aa, At, причем известно, что в шестом испытании появилось событие Аг, то услов- 380
ная вероятность того, что в седьмом испытании насту- наступит событие Aif не зависит от того, какие события поя- появились в первом, втором, ..., пятом испытаниях. Заметим, что независимые испытания являются част- частным случаем цепи Маркова. Действительно, если испы- испытания независимы, от появление некоторого определенного события в любом испытании не зависит от результатов ранее произведенных испытаний. Отсюда следует, что понятие цепи Маркова является обобщением понятия независимых испытаний. Далее используется терминология, которая принята при изложении цепей Маркова. Пусть некоторая система в каждый момент времени находится в одном из k состоя- состояний: первом, втором, .... fe-м. В отдельные моменты времени в результате испытания состояние системы изме- изменяется, т. е. система переходит из одного состояния, например i, в другое, например /. В частности, после испытания система может остаться в том же состоянии («перейти» из состояния i в состояние / = i). Таким образом, события называют состояниями си- системы, а испытания — изменениями ее состояний. Дадим теперь определение цепи Маркова, используя новую терминологию. Цепью Маркова называют последовательность испы- испытаний, в каждом из которых система принимает только одно из k состояний полной группы, причем условная вероятность p,j(s) того, что в s-м испытании система будет находиться в состоянии /, при условии, что после (s—1)-го испытания она находилась в состоянии i, не зависит от результатов остальных, ранее произведенных испытаний. Цепью Маркова с дискретным временем, называют цепь, изменение состояний которой происходит в опре- определенные фиксированные моменты времени. Цепью Маркова с непрерывным временем называют цепь, изменение состояний которой происходит в любые случайные возможные моменты времени. § 2, Однородная цепь Маркова. Переходные вероятности. Матрица перехода Однородной называют цепь Маркова, если услов- условная вероятность p,j(s) (перехода из состояния i в состоя- состояние /) не зависит от номера испытания. Поэтому вместо P,j{s) ПИШут ПрОСТО Ptj. 381
Пример. Случайное блуждание. Пусть на прямой Ох в точке с целочисленной координатой х — п находится материальная частица. В определенные моменты времени tlt t2, ta, ... частица испытывает толчки. Под действием толчка частица с вероятностью р смещается на единицу вправо и с вероятностью 1 — р— на единицу влево. Ясно, что положение (координата) частицы после толчка зави- зависит от того, где находилась частица после непосредственно предшест- предшествующего толчка, и не зависит от того, как она двигалась под дейст- действием остальных предшествующих толчков. Таким образом, случайное блуждание — пример однородной цепи Маркова с дискретным временем. Далее ограничимся элементами теории конечных одно- однородных цепей Маркова. Переходной вероятностью р1} называют условную вероятность того, что из состояния i (в котором система оказалась в результате некоторого испытания, безраз- безразлично какого номера) в итоге следующего испытания система перейдет в состояние /. Таким образом, в обозначении pt] первый индекс ука- указывает номер предшествующего, а второй—номер после- последующего состояния. Например, рп—вероятность «пере- «перехода» из первого состояния в первое; р2Э — вероятность перехода из второго состояния в третье. Пусть число состояний конечно и равно k. Матрицей перехода системы называют матрицу, ко- которая содержит все переходные вероятности этой сис- системы: rpll Pi* ,-( Pkt • • • Phb* Так как в каждой строке матрицы помещены вероят- вероятности событий (перехода из одного и того же состояния t в любое возможное состояние /), которые образуют полную группу, то сумма вероятностей этих событий равна единице. Другими словами, сумма переходных вероятностей каждой строки матрицы перехода равна единице: S^/=l (/=1,2 к). 382
0, 0, 0, 5 4 6 0,2 0,5 0,3 0, 0, 0, 3 1 1 Приведем пример матрицы перехода системы, которая может находиться в трех состояниях: 5-х Н Здесь Рц — 0,5 — вероятность перехода из состояния t = 1 в это же состояние /=1; р21 = 0,4— вероятность перехода из состояния i — 2 в состояние / = 1. Анало- Аналогичный смысл имеют остальные элементы матрицы. § 3, Равенство Маркова Обозначим через P,j(n) вероятность того, что в результате п шагов (испытаний) система перейдет из состояния i в состояние /. Например, Р25A0) — вероят- вероятность перехода за 10 шагов из второго состояния в пятое. Подчеркнем, что при п = 1 получим переходные веро- вероятности Поставим перед собой задачу: зная переходные веро- вероятности p;j, найти вероятности Р^(п) перехода системы из состояния / в состояние / за п шагов. С этой целью введем в рассмотрение промежуточное (между i и /) состояние г. Другими словами, будем считать, что из первоначального состояния i за т шагов система перей- перейдет в промежуточное состояние г с вероятностью Pir(tn), после чего за оставшиеся п—m шагов из промежуточного состояния г она перейдет в конечное состояние / с веро- вероятностью Prj(n — m). По формуле полной вероятности, k Р (П) = 2 Pir («) PrJ (п—т). (*) Эту формулу называют равенством Маркова. Пояснение. Введем обозначения: А — интересую- интересующее нас событие (за п шагов система перейдет из началь- начального состояния i в конечное состояние /), следовательно, Р (А) = Ри (п); Вг (г = 1, 2, . .., k)—гипотезы (за т шагов система перейдет из первоначального состояния i в про- промежуточное состояние г), следовательно, Р (Вг) = Р(г(т); 383
PBr{A) — условная вероятность наступления А при усло- условии, что имела место гипотеза Вг (за п — т шагов система перейдет из промежуточного состояния г в конечное состояние /), следовательно, РВг (Л) = Prj (n — т). По формуле полной вероятности, г- 1 или в принятых нами обозначениях к Рц{п)=2> Pir(m)PrJ{n-m), что совпадает с формулой (*) Маркова. Покажем, что, зная все переходные вероятности р^= — Pjj(\), т. е. зная матрицу 5\ перехода из состояния в состояние за один шаг, можно найти вероятности Р,у- B) перехода из состояния в состояние за два шага, следо- следовательно, и саму матрицу перехода 5\,; по известной матрице 9*2 можно найти матрицу $*а перехода из состоя- состояния в состояние за 3 шага, и т. д. Действительно, положив л = 2, т = 1 в равенстве Маркова k P,y(n)=2 P{rirn)PrJ[n — m), получим Pt/B)= 2 P,r A)^,B-1), r = l ИЛИ k PuB)=^PirPrJ- (**) /•= 1 Таким образом, по формуле (**) можно найти все вероятности Рц B), следовательно, и саму матрицу 5*2. Поскольку непосредственное использование формулы (**) оказывается утомительным, а матричное исчисление ведет к цели быстрее, напишем вытекающее из (**) соотноше- соотношение в матричной форме: Положив /1 = 3, т = 2 в (*), аналогично получим 384
В общем случае „ ? Пример. Задана матрица перехода 5*1= (q'3 л?) * ^айти мат" рицу перехода Л- Решение. Воспользуемся формулой 5ia = 5>i: ~ /0,4 0,6\ /0,4 0,6\ "*~U.3 0,7,1 1,0,3 0,7; • Перемножив матрицы, окончательно получим ф /0,34 0,66\ ~ 1.0,33 0,67) • Задачи 1. Задана матрица перехода ^=E'? o'gJ . Найти мат- матрицу перехода 5*»- Отв. 5)»= ^5 0.65 2. Задана матрица перехода ^l—(л'з 0 7/' перехода 5V /0,244 0.756N =@252 0.748J * 25- 2730
ЧАСТЬ ПЯТАЯ СЛУЧАЙНЫЕ ФУНКЦИИ Глава двадцать третья СЛУЧАЙНЫЕ ФУНКЦИИ § 1. Основные задачи Можно выделить два основных вида задач, ре- решение которых требует использования теории случайных функций. Прямая задача (анализ): заданы параметры неко- некоторого устройства и его вероятностные характеристики (математические ожидания, корреляционные функции, законы распределения) поступающей на его «вход» функ- функции (сигнала, процесса); требуется определить характе- характеристики на «выходе» устройства (по ним судят о «каче- «качестве» работы устройства). Обратная задача (синтез): заданы вероятностные характеристики «входной» и «выходной» функций; тре- требуется спроектировать оптимальное устройство (найти его параметры), осуществляющее преобразование заданной входной функции в такую выходную функцию, которая имеет заданные характеристики. Решение этой задачи требует кроме аппарата случайных функций привлечения и других дисциплин и в настоящей книге не рассматри- рассматривается. § 2, Определение случайной функции Случайной функцией называют функцию неслу- неслучайного аргумента t, которая при каждом фиксированном значении аргумента является случайной величиной. Слу- Случайные функции аргумента t обозначают прописными буквами X(t), Y(t) и т.д. Например, если U—случайная величина, то функция X(t) = t*U — случайная. Действительно, при каждом фик- 386
сированном значении аргумента эта функция является случайной величиной: при tt — 2 получим случайную величину X1 = 4U, при /8=1,5—случайную величину X, = 2,25t/ и т.д. Для краткости дальнейшего изложения введем понятие сечения. Сечением случайной функции называют случайную величину, соответствующую фиксированному значению аргумента случайной функции. Например, для случайной функции X(t) = t*U, приведенной выше, при значениях аргумента ^ = 2 и /2= 1,5 были получены соответственно случайные величины X, =41/ и X2 = 2,25U, которые и являются сечениями заданной случайной функции. Итак, случайную функцию можно рассмат- рассматривать как совокупность случайных вели- величин \X(t)}, зависящих от параметра t. Воз- Возможно и другое истолкование случайной функции, если ввести понятие ее реализации. Реализацией (траекторией, выборочной функцией) слу- случайной функции X (t) называют неслучайную функцию аргумента t, равной которой может оказаться случайная функция в результате испытания. Таким образом, если в опыте наблюдают случайную функцию, то в действительности наблюдают одну из воз- возможных ее реализаций; очевидно, при повторении опыта будет наблюдаться другая реализация. Реализации функции X (t) обозначают строчными бук- буквами xt (t), хг (t) и т. д., где индекс указывает номер испытания. Например, если X(t) — U sin t, где U — непре- непрерывная случайная величина, которая в первом испытании приняла возможное значение «х — 3, а во втором испы- испытании ыа = 4,6, то реализациями X (t) являются соответ- соответственно неслучайные функции хх (t) = 3 sin t и х2 (t) = = 4,6 sin t. Итак, случайную функцию можно рассмат- рассматривать как совокупность ее возможных реализаций. Случайным (стохастическим) процессом называют слу- случайную функцию аргумента t, который истолковывается как время. Например, если самолет должен лететь с за- заданной постоянной скоростью, то в действительности вследствие воздействия случайных факторов (колебание температуры, изменение силы ветра и др.), учесть влияние которых заранее нельзя, скорость изменяется. В этом ,,* 387
примере скорость самолета — случайная функция от не- непрерывно изменяющегося аргумента (времени), т. е. скорость есть случайный процесс. Заметим, что если аргумент случайной функции изме- изменяется дискретно, то соответствующие ему значения случайной функции (случайные величины) образуют слу- случайную последовательность. Аргументом случайной функции может быть не только время. Например, если измеряется диаметр ткацкой нити вдоль ее длины, то вследствие воздействия случайных факторов диаметр нити изменяется. В этом примере диаметр—случайная функция от непрерывно изменяюще- изменяющегося аргумента (длины нити). Очевидно, задать случайную функцию аналитически (формулой), вообще говоря, невозможно. В частных слу- случаях, если вид случайной функции известен, а опреде- определяющие ее параметры—случайные величины, задать ее аналитически можно. Например, случайными являются функции: X(t) = s'mQt, где Q —случайная величина, X (/) — ?/sin/, где U —случайная величина, X(t) = U s'mQt, где Q и U—случайные величины. § 3. Корреляционная теория случайных функций Как известно, при фиксированном значении ар- аргумента случайная функция является случайной величи- величиной. Для задания этой величины достаточно задать закон ее распределения, в частности одномерную плотность вероятности. Например, случайную величину X1=^X(tl) можно задать плотностью вероятности / (хх); в теории случайных функций ее обозначают через fx(xx\ /х); здесь индекс 1 при f указывает, что плотность вероятности одномерная, tx—фиксированное значение аргумента t, х,—возможное значение случайной величины X1 = X(t1). Аналогично, через /х (xt; tt), /, (х9; ta) и т. д. обозначают одномерные плотности вероятности сечений Xg = X(*,), Хл — X (tt) и т. д. Одномерную плотность вероятности любого сечения обозначают через fl(x; t), подразумевая, что аргумент t принимает все допустимые значения. Например, если случайная функция X (/) распределена нормально с параметрами mx(t) — 4, ox(t) — 3, то
Хотя функция /, (х; t) полностью характеризует каж- каждое отдельно взятое сечение, нельзя сказать, что она полностью описывает и саму случайную функцию. (Ис- (Исключением является случай, когда любой набор сечений образует систему независимых случайных величин.) Например, зная лишь одномерную функцию распределения сечения, невозможно выполнять над случайной функцией операции, требующие совместного рассмотрения совокуп- совокупности сечений. В простейшем случае совместно рассматривают два сечения: Х1 = Х(/1) и Х2 — X (tf4), т.е. изучают систему двух случайных величин (X,, Хг). Известно, что эту систему можно задать двумерным законом распределения, в частности двумерной плотностью вероятности / (xlt ха). В теории случайных функций ее обозначают через fs(*i. *»; *ц *»)'• здесь индекс 2 при f указывает, что плотность вероятности двумерная; tt и tt—значения ар- аргумента t\ xlt хг—возможные значения случайных вели- величин, соответственно Х, = Х(^) и Xt = X{t2). Хотя двумерный закон распределения описывает слу- случайную функцию более полно, чем одномерный (по из- известному двумерному можно найти одномерный закон), он не характеризует случайную функцию исчерпывающим образом (исключением являются случаи, когда случайная функция распределена нормально или представляет собой марковский случайный процесс). Аналогично обстоит дело и при переходе к трехмер- трехмерным, четырехмерным распределениям и т. д. Поскольку такой способ изучения случайных функций является, вообще говоря, громоздким, часто идут по другому пути, не требующему знания многомерных законов распределе- распределения, а именно изучают моменты, причем ограничиваются моментами первых двух порядков. Корреляционной теорией случайных функций называют теорию, основанную на изучении моментов первого и второго порядка. Эта теория оказывается достаточной для решения многих задач практики. В отличие от случайных величин, для которых моменты являются числами и поэтому их называют числовыми характеристиками, моменты случайной функции явля- являются неслучайными функциями (их называют характеристиками случайной функции). Ниже рассматриваются следующие характеристики случайной функции: математическое ожидание (начальный 389
момент первого порядка), дисперсия (центральный момент второго порядка), корреляционная функция (корреля- (корреляционный момент). § 4. Математическое ожидание случайной функции Рассмотрим случайную функцию X (t). При фиксированном значении аргумента, например при t = tt, получим сечение—случайную величину X (fx) с матема- математическим ожиданием М [X (tj]. (Полагаем, что математи- математическое ожидание любого сечения существует.) Таким образом, каждое фиксированное значение аргумента опре- определяет сечение—случайную величину, а каждой слу- случайной величине соответствует ее математическое ожи- ожидание. Отсюда следует, что каждому фиксированному значению аргумента t соответствует определенное мате- математическое ожидание; это означает, что математическое ожидание случайной функции есть функция (неслучайная) от аргумента t; ее обозначают через mx(t). В частном случае функция mx(t) может сохранять постоянное зна- значение при всех допустимых значениях аргумента. Дадим теперь определение математического ожидания. Математическим ожиданием случайной функции X (t) называют неслучайную функцию mx(t), значение которой при каждом фиксированном значении аргумента t равно математическому ожиданию сечения, соответствующего этому же фиксированному значению аргумента: Геометрически математическое ожидание случайной функции можно истолковать как «среднюю кривую», около которой расположены другие кривые—реализации; при фиксированном значении аргумента математическое ожи- ожидание есть среднее значение сечения («средняя ордината»), вокруг которого расположены его возможные значения (ординаты). § 5. Свойства математического ожидания случайной функции Используя свойства математического ожидания случайной величины, легко получить свойства математи- математического ожидания случайной функции. 390
Свойство 1. Математическое ожидание неслучай- неслучайной функции ф @ равно самой неслучайной функции: Свойство 2. Неслучайный множитель ф (t) можно выносить за знак математического ожидания: М [Ф (О X @] = ф @ Af [X @] = Ф @ тх (/). Свойство 3. Математическое ожидание суммы двух случайных функций равно сумме математических ожида- ожиданий слагаемых: Следствие. Для того чтобы найти математическое ожидание суммы случайной и неслучайной функций, доста- достаточно к математическому ожиданию случайной функции прибавить неслучайную функцию: Рекомендуем самостоятельно доказать приведенные свойства, учитывая, что при любом фиксированном зна- значении аргумента случайная функция является случай- случайной величиной, а неслучайная функция — постоянной величиной. Например, свойство 3 доказывается так: при фиксированном значении аргумента случайные функции X @ и Y (t) являются случайными величинами, для которых математическое ожидание суммы равно сумме математических ожиданий слагаемых. Пример. Найти математическое ожидание случайной функции X(t)*=U cost, где U — случайная величина, причем M(U)=2. Решение. Найдем математическое ожидание, учитывая, что неслучайный множитель cos / можно вынести за знак математического ожидания: М [X (t)] = M [U cos f J = cos tM ({/) = 2 cos t. Итак, искомое математическое ожидание mx(t)=3 cos t. § 6. Дисперсия случайной функции Рассмотрим случайную функцию X (/). При фиксированном значении аргумента, например при t = tlt получим сечение — случайную величину X (^) с диспер- дисперсией Z) [X (*,,)] ^ 0 (предполагается, что дисперсия любого сечения существует). Таким образом, каждое фиксирован- 391
ное значение аргумента определяет сечение—случайную величину, а каждой случайной величине соответствует ее дисперсия. Отсюда следует, что каждому фиксирован- фиксированному значению аргумента t соответствует определенная дисперсия; это означает, что дисперсия случайной функ- функции есть функция (неслучайная, причем неотрицательная) от аргумента t; ее обозначают через Dx(t). В частном случае Dx (t) может сохранять постоянное значение при всех допустимых значениях аргумента. Дадим теперь определение дисперсии. Дисперсией случайной функции X (t) называют неслу- чайнукГнеотрицательнуюфункциюDx(t), значение которой при каждом фиксированном значении аргумента / равно дисперсии сечения, соответствующего этому же фиксиро- фиксированному значению аргумента: Дисперсия характеризует степень рассеяния возмож- возможных реализаций (кривых) вокруг математического ожи- ожидания случайной функции («средней кривой»). При фик- фиксированном значении аргумента дисперсия характеризует степень рассеяния возможных значений (ординат) сечения вокруг математического ожидания сечения («средней ординаты»). Часто вместо дисперсии рассматривают среднее квад- ратическое отклонение случайной функции, которое определяют по аналогии со средним квадратическим отклонением случайной величины. Средним квадратическим отклонением случайной функ- функции называют квадратный корень из дисперсии: § 7. Свойства дисперсии случайной функции Используя свойства дисперсии случайной вели- величины, легко получить свойства дисперсии случайной функции. Свойство 1. Дисперсия неслучайной функции ср (/) равна нулю: Свойство 2. Дисперсия суммы случайной функции X (t) и неслучайной функции ф (t) равна дисперсии слу- 392
чайной функции: Свойство 3. Дисперсия произведения случайной функции X {t) на неслучайную функцию <р (/) равна про- произведению квадрата неслучайного множителя на диспер- дисперсию случайной функции: Рекомендуем самостоятельно доказать приведенные свойства, учитывая, что при любом фиксированном зна- значении аргумента случайная функция является случай- случайной величиной, а неслучайная функция — постоянной величиной. Пример. Найти дисперсию случайной функции X(t) = U sin /, где U — случайная величина, причем D(U) = 6. Решение. Найдем дисперсию, приняв во внимание, что неслу- неслучайный множитель sin t можно вынести за знак дисперсии, возведя его в квадрат: D [X (/)] = D IU sin /J = sin* tD (U) = 6 sin* /. Итак, искомая дисперсия De(f) = 6sina /. § 8. Целесообразность введения корреляционной функции Математическое ожидание и дисперсия характе- характеризуют случайную функцию далеко не полно. Можно привести примеры двух случайных функций, которые имеют одинаковые математические ожидания и дисперсии, но поведение которых различно. Зная лишь эти две характеристики, в частности, ничего нельзя сказать о степени зависимости двух сечений. Для оценки этой зависимости вводят новую характеристику — корреляци- корреляционную функцию. Далее покажем, что, зная корреляцион- корреляционную функцию, можно найти и дисперсию; поэтому знать закон распределения для отыскания дисперсии нет необ- необходимости. Уже это обстоятельство указывает на целе- целесообразность введения корреляционной функции. Прежде чем перейти к дальнейшему изложению, введем понятие центрированной случайной функции по аналогии с понятием центрированной случайной величины (центри- (центрированной случайной величиной называют разность между случайной величиной и ее математическим ожиданием: Х = Х — тх). 393
Центрированной случайной функцией называют раз- разность между случайной функцией и ее математическим ожиданием: X{t) = X(t)-mx(t). § 9. Корреляционная функция случайной функции Рассмотрим случайную функцию X (t). При двух фиксированных значениях аргумента, например при t = t1 и t = tt, получим два сечения — систему двух случайных величин X (tj и X (t2) с корреляционным моментом * *(*,)], где Таким образом, каждая пара чисел tt и 1г определяет систему двух случайных величин, а каждой такой системе соответствует ее корреляционный момент. Отсюда сле- следует, что каждой паре фиксированных значений tt и /а соответствует определенный корреляционный момент; это означает, что корреляционный момент случайной функ- функции есть функция (неслучайная) двух независимых аргу- аргументов tx и /2; ее обозначают через Кх (tlt tt). В частном случае значения обоих аргументов могут быть равны между собой. Приведем теперь определение корреляционной функции. Корреляционной функцией случайной функции X (t) называют неслучайную функцию Kx(tu гг) двух незави- независимых аргументов tt и t2, значение которой при каждой паре фиксированных значений аргументов равно корре- корреляционному моменту сечений, соответствующих этим же фиксированным значениям аргументов: Замечание. При равных между собой значениях аргументов t1 = i2^=t корреляционная функция случайной функции равна дис- дисперсии этой функции: Действительно, учитывая, что Dx(t) = M [X (О-я» (/)!» = AI [Я (/)]*, получим Kx(t, t) = MlXV)X(t)] = M[X(t)\* = Dx( 394
Таким образом, достаточно знать корреляционную функцию, чтобы найти дисперсию случайной функции. Пример. Задана случайная функция X(t) = Ut, где U — случай- случайная величина, причем М (?/) = 4, D(U)—10. Найти: а) корреляцион- корреляционную функцию; б) дисперсию заданной случайной функции. Решение, а) Найдем математическое ожидание: тх (t) = M [X (t)] = Найдем центрированную функцию: *(<) = Х@—mx(t) = Ut — At = (U~ 4)t. Отсюда *('i) = (tf-4)/i. X(tt) = (U-4)tt. Найдем корреляционную функцию: Kx{tu t,) = M [X (/,) к уя)] = МЦи-4) /x(t/- = tttt M l(U-4)*) =tittB (U)=> iOtttt. Итак, искомая корреляционная функция Kx(d, /,)=10/x/2. б) Найдем дисперсию, для чего положим /г = /, = / Dx(t) = Kx Итак, искомая дисперсия § 10. Свойства корреляционной функции Свойство 1. При перестановке аргументов корреляционная функция не изменяется (свойство сим- симметрии): Доказательство. По определению корреляционной функции, Kx(tt, *,) = А4 [* (<г) X (/,)], Kx{tt. /1) = Af[X(/,)X(M]. Правые части этих равенств равны (математическое ожи- ожидание произведения не зависит от порядка сомножителей), следовательно, равны и левые части. Итак, **(<!. '.) = **(*,. tt). Замечание I. Прибавление к случайной функции X(t) не- неслучайного слагаемого ф (/) не изменяет ее центрированной функции: 395
если Y(t)~X(t)+<p(t), то Действительно, математическое ожидание функции Y (t) „(/) = т Следовательно, Итак, Свойство 2. Прибавление к случайной функции X(t) неслучайного слагаемого <р (/) не изменяет ее корреляцион- корреляционной функции: если то Доказательство. В силу замечания 1 Отсюда ^(/О-ДС^) и V(tt) = X{tt). Следовательно, Итак, Замечание 2. При умножении случайной функции X(t) на неслучайный множитель <р (/) ее центрированная функция умножается на этот же множитель: если то Действительно, математическое ожидание функции Y (t) ту О) = М[Х (/) <р (/)]=ф (/) тж (О- Следовательно, *¦ @ = У @ -/nu @ = [X @ ф (/)] - [тх @ ф (/)J = = <Р (О IX @—тж @)=Ф (О X (О- 396
Итак, *¦</) = * (О ф<0. Свойство 3. При умножении случайной функции X(t) на неслучайный множитель <р @ ее корреляционная функция умножается на произведение Ф(^)ф (/,)•' если то Kv(tt, tt) = KAU, t,L>(ttL>(t.). Доказательство. В силу замечания 2 Y(t) = X(t). Следовательно, Ки (tx. t,)=M [У (tt) Y (ta)]=M {[X (tx) Ф (tt)] [X (tt) Ф (/,)]}. Вынесем неслучайные множители за знак математического ожидания: Ку (tv *,)-ф (<г) ф (/,) м [X (t,) Я (/,)Нф (/») ф(^)/С,(^ ^)- Итак, Свойство 4. Абсолютная величина корреляционной функции не превышает среднего геометрического дисперсий соответствующих сечений: Доказательство. Известно, что для модуля кор- корреляционного момента двух случайных величин справед- справедливо неравенство (см. гл. XIV, § 17, теорема 2) При фиксированных значениях аргументов /, и /, значе- значение корреляционной функции равно корреляционному моменту соответствующих сечений—случайных величин X (ft) и X (*,). Поэтому неравенство (*) можно записать так: 397
§11. Нормированная корреляционная функция Известно, что для оценки степени линейной за- зависимости двух случайных величин пользуются коэффи- коэффициентом корреляции (см. гл. XIV, § 17, соотношение (*)) В теории случайных функций аналогом этой характери- характеристики служит нормированная корреляционная функция. Очевидно, что каждой паре фиксированных значений tl и t2 аргумента случайной функции X (t) соответствует определенный коэффициент корреляции Kx{ti, h)/aAh)a(h) соответствующих сечений — случайных величин X (tj) и X (/2); это означает, что коэффициент корреляции слу- случайной функции есть функция (неслучайная) двух неза- независимых аргументов tx и t2; ее обозначают через рх (tlt t2). Дадим теперь определение нормированной корреля- корреляционной функции. Нормированной корреляционной функцией случайной функции X (t) называют неслучайную функцию двух неза- независимых переменных tx и /2, значение которой при каж- каждой паре фиксированных значений аргументов равно ко- коэффициенту корреляции сечений, соответствующих этим же фиксированным значениям аргументов: Учитывая, что ож(*1) = угОЛ^) = УХ(*1, <i) * ox(t2) = = VKX (*2, tt), получим i. *i)VKx{t,. U) Таким образом, зная корреляционную функцию, можно найти нормированную корреляционную функцию. Пример. Найти нормированную корреляционную функцию слу» чайной функции X (t) по ее известной корреляционной функции К*«1. <2)=5cos(<2— <г). Решение. Искомая нормированная корреляционная функция 5 cos (t2 — tj) ~~ У 5 cos (/i —/x) V~5 cos (/2 —12) 398
Нормированная корреляционная функция имеет те же свойства, что и корреляционная функция (см. § 10), при- причем свойство 4 заменяется на следующее: абсолютная величина нормированной корреляционной функции не превышает единицы: Это свойство следует из того, что пр.и фиксированных значениях аргументов значение нормированной корреля- корреляционной функции равно коэффициенту корреляции двух случайных величин — соответствующих сечений, а абсо- абсолютная величина коэффициента корреляции не превышает единицы (см. гл. XIV, § 17, замечание 3). Легко видеть из (*) или (#*), что при равных значе- значениях аргументов нормированная корреляционная функция равна единице: px(t, t)—\. Очевидно, нормированная корреляционная функция имеет тот же вероятностный смысл, что и коэффициент корреляции: чем ближе модуль этой функции к единице, тем линейная связь между сечениями сильнее; чем ближе модуль этой функции к нулю, тем эта связь слабее. § 12. Взаимная корреляционная функция Для того чтобы оценить степень зависимости сечений двух случайных функций, вводят характери- характеристику— взаимную корреляционную функцию. Рассмотрим две случайные функции X (t) и Y(t). При фиксированных значениях аргумента, например t = t1 и t = ti, получим два сечения — систему двух случайных величин X (tj) и К(/2) с корреляционным моментом М [kiti)? (tt)]. Таким образом, каждая пара чисел tt и tt определяет систему двух случайных величин, а каж- каждой такой системе соответствует ее корреляционный мо- момент. Отсюда следует, что каждой паре фиксированных значений t1 и t2 соответствует определенный корреляци- корреляционный момент; это означает, что взаимная корреляцион- корреляционная функция двух случайных функций есть функция (не- (неслучайная) двух независимых аргументов tl и tt; ее обозначают через Rxy (tt, tt). Дадим теперь определение взаимной корреляционной функции. Взаимной корреляционной функцией двух случайных функций X @ и Y (t) называют неслучайную функцию Rxy (*i> U) ДВУХ независимых аргументов tt и fa, значе- 399
ние которой при каждой паре фиксированных значений аргументов равно корреляционному моменту сечений обеих функций, соответствующих этим же фиксированным зна- значениям аргументов: Коррелированными называют две случайные функции, если их взаимная корреляционная функция не равна тождественно нулю. Некоррелированными называют две случайные функции, взаимная корреляционная функция которых тождественно равна нулю. Пример. Найти взаимную корреляционную функцию двух слу- случайных функций X (t) = tU и К(/) = /2?/, где О—случайная величина, причем D(t/) = 3. Решение. Найдем математические ожидания: Найдем центрированные функции: Найдем взаимную корреляционную функцию: *„Сь ta) = M[X(tt) Y (/.)] = M{{t1 (V-mu)\ [t\(U-mu)]\ = *х<| M [(U — ma)*]= tx Итак, искомая взаимная корреляционная функция § 13. Свойства взаимной корреляционной функции Свойство 1. При одновременной перестановке индексов и аргументов взаимная корреляционная функция не изменяется: Свойство 2. Прибавление к случайным функциям X (/) и Y (t) неслучайных слагаемых, соответственно <р (/) и г? @. не изменяет их взаимной корреляционной функции: если XAt)=>X(t) + V(t) и Y1(t) = то 400
Свойство 3. При умножении случайных функций X {t) и Y (t) на неслучайные множители, соответственно «р (О и ij) (t), взаимная корреляционная функция умно- умножается на произведение ф (<1)'Ч>(*2): если ^@ = ^@9@ и Y1(t)=Y(t)Vp(t), то Свойство 4. Абсолютная величина взаимной корре- корреляционной функции двух случайных функций не превы- превышает среднего геометрического их дисперсий: \RxyVi, Доказательства этих свойств аналогичны доказатель- доказательствам свойств корреляционной функции. § 14. Нормированная взаимная корреляционная функция Наряду с взаимной корреляционной функцией для оценки степени зависимости сечений двух случайных функций пользуются характеристикой — нормированной взаимной корреляционной функцией. Нормированной взаимной корреляционной функцией двух случайных функций ХA) и У (t) называют неслучай- неслучайную функцию двух независимых аргументов tx и t2: R ( t) Rx it t ) ^ Rxy ('1г tl) => Rxv Нормированная взаимная корреляционная функция имеет те же свойства, что и взаимная корреляционная функция (см. § 13), причем свойство 4 заменяется сле- следующим свойством: абсолютная величина нормированной взаимной корреляционной функции не превышает единицы: Пример. Найти нормированную взаимную корреляционную функ- функцию двух случайных функций X(t) = tU и Y (t)*=t2U, где U— слу- случайная величина, причем D(t/) = 3. Решение. Ранее при решении примера (см. § 12), в котором заданы те же функции, что и в настоящем примере, были найдены функции: 26 2710 401
Пользуясь этими результатами, легко найдем корреляционные функции: и нормированную функцию: PxvVU *i) =— ¦" = ————-:¦ = 1. Итак, искомая нормированная взаимная корреляционная функция Заметим, что функция У (/) связана с X (/) линейной функци- функциональной зависимостью: У (/) =/Ч/=/ § 15. Характеристики суммы случайных функций Пусть X (t) и У (t)—случайные функции. Найдем характеристики суммы этих функций по известным ха- характеристикам слагаемых. Теорема 1. Математическое ожидание суммы двух случайных функций равно сумме математических ожи- ожиданий слагаемых: если Z(t)~X(t)+Y{t), то Эта теорема уже была приведена ранее (см. § 5, свой- свойство 3); здесь она помещена для систематизации изло- изложения. Методом математической индукции теорему можно обобщить на п слагаемых. Следствие. Математическое ожидание суммы слу- случайной функции X (t) и случайной величины Y равно сумме их математических ожиданий; если то Замечание 1. Центрированная функция суммы случайных функций равна сумме центрированных слагаемых: если Z(t) = X(t)+Y(t), то 402
Теорема 2. Корреляционная функция суммы двух кор- коррелированных случайных функций равна сумме корреля- корреляционных функций слагаемых и взаимной корреляционной функции, которая прибавляется дважды (с разным по- порядком следования аргументов): если Выполнив умножение, приравняем математические ожи- ожидания обеих частей равенства: Методом математической индукции теорему можно обобщить на п попарно коррелированных случайных функций: 26* 403 По определению корреляционной и взаимной корреля- корреляционной функций имеем
если то п 1=1 l где индексы i, j второго слагаемого есть размещения чисел 1, 2, ...,п, взятых по два. Следствие 1. Корреляционная функция суммы двух некоррелированных случайных функций равна сумме кор- корреляционных функций слагаемых: если то Доказательство. Так как функции X(t) и Y(t) не коррелированы, то их взаимные корреляционные функ- функции равны нулю. Следовательно, соотношение (*) при- примет вид КАК, h)=Kx{ti, tt)+Ky(tx, tt). Методом математической индукции следствие можно обобщить на п попарно некоррелированных функций. Замечание 2. В частности, при равных значениях аргумен- аргуменt1 = tt = t получим Кг (t, t)=Kx(t, t)+Kv{t, t), или тов Итак, дисперсия суммы двух некоррелирован- некоррелированных случайных функций равна сумме дисперсий слагаемых. Следствие 2. Корреляционная функция случайной функции X (t) и некоррелированной с ней случайной вели- величины Y равна сумме корреляционной функции случайной функции и дисперсии случайной величины: если то Пояснение. Случайную величину Y можно считать случайной функцией, не изменяющейся при изменении 404
аргумента t:Y {t) — Y при всех значениях t. Тогда Y {t)—Y и, следовательно, Пример, Заданы случайные функции X(t) — tU, H(/) = /*t/, где U и К—некоррелированные случайные величины, причем М (У) = 3, М<У)=6, D(u) = 0,2, D(V) — 5. Найти: а) математическое ожида- ожидание; б) корреляционную функцию; в) дисперсию суммы Z(t) = X (t)-\- + У (')• Решение, а) Найдем математическое ожидание суммы задан- заданных функций. По теореме 1 тг (t)=*mx (t) + my (t)=M (W) + M (t*V)=tM (U) + t*M (V) = 3t + 6P. б) Найдем корреляционную функцию суммы Z (t). Так как слу- случайные величины 0 и V не коррелированы, то их корреляционный момент равен нулю: M[(U — 3)(V — 6)]=0. Следовательно, взаимная корреляционная функция RxvVt, t2) = M[X (/t) >> (/г)] =txt\M [{U -3) (V-6)) =0, а значит, функции X (t) и Y (t) не коррелированы. Поэтому искомая корреляционная функция в силу следствия I К Ah. t»)*=Kx(h, tJ + KyVi, '.)¦ Выполнив выкладки, окончательно получим в) Найдем искомую дисперсию: Dt(t) = KAt, 0 =0.2**+ 5**. § 16. Производная случайной функции и ее характеристики При изучении случайных величин встречалось понятие сходимости по вероятности. Для изучения слу- случайных функций необходимо ввести среднеквадратичную сходимость. Говорят, что последовательность случайных величин Хг, Xlt ..., Х„, ... сходится в среднеквадратичном к слу- случайной величине X, если математическое ожидание квад- квадрата разности Хп — X стремится к нулю при п—юо: М[(Хп-Х)*] = 0. Случайную величину X называют пределом в среднеквад- среднеквадратичном последовательности случайных величин Xlt *а> • • •» *п» • • • и пишут 405
Заметим, что из среднеквадратичной сходимости сле- следует сходимость по вероятности; обратное утверждение, вообще говоря, неверно. Случайную функцию X (t) называют дифференцируе- дифференцируемой, если существует такая функция X' (t) (ее называют производной), что lim M\ д/-*о I At Итак, производной случайной функции X (t) называют среднеквадратичный предел отношения приращения функ- функции к приращению аргумента Д* при М—-О: Пусть известны характеристики случайной функции. Как найти характеристики ее производной? Ответ на этот вопрос дают теоремы, приведенные ниже, причем рас- рассматриваются только среднеквадратично дифференцируемые случайные функции. Теорема 1. Математическое ожидание производной X' (t) = x от случайной функции X(t) равно производной от ее математического ожидания: Доказательство. По определению производной, \t) = l.i.m. —1 ^ —. Приравняем математические ожидания обеих частей ра- равенства, а затем изменим порядок нахождения матема- математического ожидания и предела (законность изменения по- порядка этих операций примем без доказательства): Используя свойства математического ожидания, получим М[Х'(О]= HmOT Д<-^0 Итак, mk{t) = m'x(t). 406
Замечание 1.По существу доказано, что для среднеквадра- тически дифференцируемых случайных функций операции нахождения математического ожидания и дифференцирования можно менять ме- местами. Действительно, запишем доказанную теорему так: M[X'{t)] = {M[X{t)\}'. Мы видим, что в левой части равенства сначала находят производ- производную, а затем математическое ожидание; в правой части — наоборот. Пример 1. Зная математическое ожидание mx(t)=i2-\-t случай- случайной функции X (<), найти математическое ожидание ее производной. Решение. Искомое математическое ожидание Замечание 2. Если первая производная дифференцируема, то производную от первой производной называют второй производной и обозначают через X" (/). Аналогично определяют производные более высоких порядков. Замечание 3. Теорему 1 можно обобщить: математическое ожидание производной порядка я равно производной этого же по- порядка от математического ожидания случайной функции. Теорема 2. Корреляционная функция производной от случайной функции X (t) равна второй смешанной произ- производной от ее корреляционной функции: Доказательство. По определению корреляцион- корреляционной функции, K-X(tv /,) = Л! [X'(Л) *'('.)]• Представим произведение производных как вторую смешанную частную производную: Следовательно, d^k(t1)k(t2)]\ —гГ[Ш1 / Изменив порядок операций нахождения математического ожидания и дифференцирования (на основании замеча- замечания 1), окончательно получим w а * * дт & ('*>х Ai^i, Iг)~ dtidta Итак, 407
Пример 2. Зная корреляционную функцию Кх (*ь '»)== 2fijJ случайной функции X (/), найти корреляционную функцию ее произ- производной. Решение. Найдем частную производную от заданной корре- корреляционной функции по t-i- Найдем частную производную от полученного результата по ta: д*Кх (<ь t2) а*ха/а = дГш Искомая корреляционная функция Теорема 3. Взаимная корреляционная функция случай- случайной функции X (t) и ее производной X' (t) =jt равна част- частной производной от корреляционной функции по соот- соответствующему аргументу [если индекс Jt при R записан на первом (втором) месте, то дифференцируют по пер- первому (второму) аргументу}: g\ D . (f f \ __ ОЛ X 1*1» *2/ Доказательство. а) По определению взаимной корреляционной функ- функции двух функций X (t) и X' (t)—x, Изменим порядок операций дифференцирования и нахождения математического ожидания: „ ., 4 ч эм [х(JJ к Итак, искомая взаимная корреляционная функция р // / \ _ ЗА* (/ц /») б) Доказывается аналогично. 408
Пример 3. Задана корреляционная функция Kx(tx, t2) — t1ttet> + tt случайной функции X (/). Найти взаимную корреляционную функ- функцию RxxVi. t%). Р е ш е н и е. Воспользуемся формулой Выполнив дифференцирование заданной корреляционной функции по t2, получим Итак, искомая взаимная корреляционная функция § 17. Интеграл от случайной функции и его характеристики Интегралом от случайной функции X (/) по отрезку [0, t] называют предел в среднеквадратическом интегральной суммы при стремлении к нулю частичного интервала As, максимальной длины (переменная интегри- интегрирования обозначена через s, чтобы отличить ее от пре- предела интегрирования /): As,. i^i\ X(s)ds. Пусть известны характеристики случайной функции. Как найти характеристики интеграла от случайной функ- функции? Ответ на этот вопрос дают теоремы, приведенные ниже. Теорема 1. Математическое ожидание интеграла от случайной функции равно интегралу от ее математи- математического ожидания: если t то t ту @ = J т* (*) ds- о Доказательство. По определению интеграла, As(--»-0 409
Приравняем математические ожидания обеих частей ра- равенства: Изменим порядок нахождения математического ожи- ожидания и предела (законность изменения порядка этих операций примем без доказательства): M[Y(t)]= Iim [M2X (s^ As,]. Воспользуемся теоремой сложения математических ожиданий: M[Y(t)]= Iim 2m*(s/)As'- Учитывая, что 2m*(s')^s/—интегральная сумма функции mx(s), окончательно получим t ту (t) = ^тх (s) ds. о Замечание. По существу доказано, что операции нахождения математического ожидания и среднеквадратичного интегрирования можно менять местами. Действительно, запишем доказанную тео- теорему так: Г Г 1 f М\ \j X (s) ds = \ М [X (s)] ds. Lo Jo Видим, что в левой части равенства сначала находят интеграл, а затем математическое ожидание; в правой части — наоборот. Пример 1. Зная математическое ожидание тх(/) = 2/+1 случай- случайной функции X (/), найти математическое ожидание интеграла t о Решение. Искомое математическое ожидание Теорема 2. Корреляционная функция интеграла от случайной функции X (t) равна двойному интегралу от ее корреляционной функции: 410
если то о о Доказательство. По определению корреляцион- корреляционной функции, Центрированная случайная функция Y (*) = Y{t)-mB(t) или Поскольку под знаком определенного интеграла перемен- переменную интегрирования можно обозначать любой буквой, обозначим переменную интегрирования в одном интеграле через slf а в другом—через st (чтобы отличить перемен- переменные интегрирования и пределы интегрирования): Y <<х) = J X (sx) dslt Y it,) = J X is,) ds,. о о Следовательно, '• '. t, и Yih)Y it,) = J X is,) dst J X is,) ds, = S J X is,) X is,) ds, ds,. e о oo Приравняем математические ожидания обеих частей ра- равенства: М [Y it,) Y it,)] = М Г11X (sx) X is,) ds, ds, J. 411
Изменив порядок операций нахождения математичес- математического ожидания и интегрирования, окончательно получим у И о о Пример 2. Зная корреляционную функцию Kx(h> 'i) i«4 + 9/f /| случайной функции X (t), найти корреляционную функцию интеграла Y (t) = \ X (s) ds. о Решение. Используя формулу (**), найдем 'it, О Выполнив интегрирование, получим искомую корреляционную функ- функцию: Теорема 3. Взаимная корреляционная cf/ункция случай- -I ной функции X (t) и интеграла Y (t) = j X (s) ds равна о интегралу от корреляционной функции случайной функ- функции X(t): а)/*»„</„ tJ= б) /?„*(*!,/,) = J О Доказательство, а) По определению взаимной корреляционной функции, **„(<!. *.)=Л1 [*<*,)?<*,)]. (*»*) В силу соотношения (*) центрированная функция следовательно, и Y{ta)^\ X(s)ds. о 412
Подставим правую часть этого равенства в (***): Операции нахождения математического ожидания и интегрирования можно менять местами (см. § 17, заме- замечание), поэтому t, или окончательно '. RXy(tlt tJ^^KxWi* s)ds. о б) Доказывается аналогично. Пример 3. Задана корреляционная функция Kx{tt, C») = 3<1/, случайной функции X (/)• Найти взаимную корреляционную функцию Rxy Ci. h) случайной функции X (t) и Y(t)=\ X (s) ds. о Решение. Используя формулу Rxy(tu 'a)= \ -/Cjc ('i. s)ds, о получим искомую корреляционную функцию: RxyVi. '*) = 3/1 J sds = C/2)^/1. о § 18. Комплексные случайные величины и их числовые характеристики В дальнейшем кроме действительных рассматри- рассматриваются и комплексные случайные функции. Эти функции и их характеристики определяют по аналогии с комплекс- комплексными случайными величинами, поэтому начнем изло- изложение с комплексных величин. Комплексной случайной величиной называют величину Z = X~\-Yi, где X и Y—действительные случайные ве- величины. 413
Сопряженной случайной величине Z*=X-\-Yi назы- называют случайную величину Z = X— Yi. Обобщим определения математического ожидания и дисперсии на комплексные случайные величины так, чтобы, в частности, при У = 0 эти характеристики совпали с ра- ранее введенными характеристиками действительных слу- случайных величин, т. е. чтобы выполнялись требования: mz = тх, DZ = DX. (**) Математическим ожиданием комплексной случайной величины Z~X-{-Yi называют комплексное число тг = тх В частности, при t/ = 0 получим mz~mx, т. е требо- требование (*) выполняется. Дисперсией комплексной случайной величины Z назы- называют математическое ожидание квадрата модуля центри- центрированной величины Z: В частности, при У = 0 получим Dt = М [(XJ] = Dx, т.е. требование (**) выполняется. Учитывая, что математическое ожидание суммы равно сумме математических ожиданий слагаемых, имеем Dz = М [ | Z |«] - М [(кГ + (Г)«] = М [(ХП + М [(YJ] Итак, дисперсия комплексной случайной величины равна сумме дисперсий ее действительной й мнимой частей: Известно, что корреляционный момент двух равных случайных величин Л\ = Хг = Х равен дисперсии Dx — положительному действительному числу. Обобщим опре- определение корреляционного момента так, чтобы, в частности, корреляционный момент двух равных комплексных слу- случайных величин Z1 = Z1! = Z был равен дисперсии Dz — положительному действительному числу, т. е. чтобы вы- выполнялось требование HZZ=DZ, (***) 414
Корреляционным моментом двух комплексных случай- случайных величин называют математическое ожидание произ- произведения отклонения одной из величин на сопряженное отклонение другой: Zt]. В частности, при Zl==Z, = Z, учитывая, что произведение сопряженных комплексных чисел равно квадрату их мо- модуля, получим т. е. требование (***) выполняется. Корреляционный момент комплексных случайных ве- величин Zl=* X1 + Y1i и Zt = Xt+Y2i выражается через корреляционные моменты действительных и мнимых ча- частей этих величин следующей формулой: , — Ц*,„,) I. (****) Рекомендуем вывести ату формулу самостоятельно. § 19. Комплексные случайные функции н их характеристики Комплексной случайной функцией называют функцию где X (t) и К @—действительные случайные функции действительного аргумента /. Обобщим определения математического ожидания и дисперсии на комплексные случайные функции так, чтобы, в частности, при Y — 0 эти характеристики совпали с ра- ранее введенными характеристиками для действительных случайных функций, т. е. чтобы выполнялись требования: Dt(t) = Dx{t). (**) Математическим ожиданием комплексной случайной функции Z{t) = X (t) + Y (t) i называют комплексную функцию (неслучайную) 415
В частности, при У = 0 получим mz(t) — mx(t), т. е. тре- требование (*) выполняется. Дисперсией комплексной случайной функции Z(t) на- называют математическое ожидание квадрата модуля центри- центрированной функции Z(t): В частности, при У=0 получим Dz (t) = M [X (t)]2 = — Dx(t), т. е. требование (**) выполняется. Учитывая, что математическое ожидание суммы равно сумме математических ожиданий слагаемых, имеем D,(t) = M[\t (/) /»] = М {[X </)]¦ + [Y (/)]*} = k + m Итак, дисперсия комплексной случайной функции равна сумме дисперсий ее действительной и мнимой частей: Известно, что корреляционная функция действитель- действительной случайной функции X (/) при разных значениях аргу- аргументов равна дисперсии Dx{t). Обобщим определение корреляционной функции на комплексные случайные функции Z(t) так, чтобы при равных значениях аргу- аргументов t1 = t2 — t корреляционная функция Kz(t, t) была равна дисперсии Dz(t), т. е. чтобы выполнялось требо- требование К,(t, t) = DAt). (***) Корреляционной функцией комплексной случайной функции Z (t) называют корреляционный момент сечений &(tx) и ! KAU. tt) = M[Z(t1)Z(ti)]. В частности, при равных значениях аргументов К At, t) = W т. е. требование (***) выполняется. Если действительные случайные функции X (t) и Y (/) коррелированы, то Ka(tt, t%) = KAti.tt) + Ku(tx. t,) + [RKUVt, tj\ — —Rxy it» t,)] i; 416
если X (t) и Y (t) не коррелированы, то Рекомендуем убедиться в справедливости этих формул, используя соотношение (***•*) предыдущего параграфа. Обобщим определение взаимной корреляционной функ- функции на комплексные случайные функции Z1{t) = X1{t) + -f F, {I) i и Z2 (i) = Xs {t) + Yt (t) i так, чтобы, в частности, при Vj —К4 = 0 выполнялось требование *„,,<'!' <,) = **,*,<'l. '.)• (****) Взаимной корреляционной функцией двух комплексных случайных функций называют функцию (неслучайную) В частности, при Y, = Fa = O получим т. е. требование (****) выполняется. Взаимная кЪрреляционная функция двух комплексных случайных функций выражается через взаимные корре- корреляционные функции их действительных и мнимых частей следующей формулой: Рекомендуем вывести эту формулу самостоятельно. Задачи 1. Найти математическое ожидание случайных функций: а) ХA) — Шг, где U — случайная величина, причем M(i/) = 5; б) X @ = U cos2/-f Vt где U и V—случайные величины, причем Af(t/) 3 M(V) 4 () , () Отв. а) тх(() = Ы2; б) mx@ = 3co + 2. Задана корреляционная функция Kx(ti, tz) случайной функ- функции X (t). Найти корреляционные функции случайных функций- a) Y(t)=X(t) + t; б) Y(t) = (t + \)X{t); в) Y{t) = 4X(t). Отв. a) Ky(tu h) = Kx(t1, /,); б) /ftf(/b /J = (/i+l)(/«+l)X X/fx(/i, /2); в) /fw(/lf /2)=16/(x^1, /,). 3. Задана дисперсия Dx (I) случайной - функции X (t). Найти дисперсию случайных функций: a) Y (/) = X (/) + е<; б) Y (t) = tX (t). Отв. a) Dy(t) = Dx(i); б) Dy(t) = t*Dx(t). 4. Найти: а) математическое ожидание; б) корреляционную функ- функцию; в) дисперсию случайной функции XA) = U sin 2/, где С —слу- —случайная величина, причем М (U) = 3, D (U) — 6. 27 27^0 417
Отв. а) /л* @ = 3 sin 2/; б) К* (tlt tt) «= в sin 2tt sin 2/t; в) /?х@=б51п*2Л 5. Найти нормированную корреляционную функцию случайной функции X (t), зная ее корреляционную функцию Кх (/ь <») = -3 сое (*,-*!). Ome. р*^, tt) = cos(tt—t1). в. Найти: а) взаимную корреляционную функцию; б) нормирован- нормированную взаимную корреляционную функцию двух случайных функций X(t) (t + l)U У (t) (t* + l)U Uй рру фу у у фу () ( + ) и У (t) = (t* + l)U, где U—случайная величина, причем ?>(?/) = 7. Отв. а) Ях„(/Ь ^ = 7(^+1) (/|-М); б) y 7. Заданы случайные функции X (/) = (/ — \)U и (O , где U и V — некоррелированные случайные величины, причем M(U) = 2, M(V) = 3, D(U)=*4, D(V) = 5. Найтн: а) математическое ожидание; б) корреляционную функцию; в) дисперсию суммы Z(t) = Х@ + К@ @ + @ Указание. Убедиться, что взаимная корреляционная функция заданных случайных функции равна нулю и, следовательно, X (t) и Y (t) не коррелированы. Отв. в) я1ж@«2(<-1) + 3/»; б) Kt(tu ^,) = 4(/1-l) (/,-1) + + 6/J/J; в) D, </) = 4 (/-!)» + #«. 8. Задано математическое ожидание mx{t)=t*-\-\ случайной функции X (t). Найти математическое ожидание ее производной. Отв. т. (/) = 2/. 9. Задано математическое ожидание mx(t) —t*+3 случайной функции X (/). Найти математическое ожидание случайной функции ?(t) = tX'(t) + t». Отв. /ny@ = **(<+2). 10. Задана корреляционная функция Kx(h, /i) = e-<*i-fi>* слу- случайной функции л (/). Найти корреляционную функцию ее произ- производной. Отв. K.x(h, *,)«&-«•-*.>" [1-2(/«-/О1!. П. Задана корреляционная функция Kx(h> /a) = e-(t*-<«>1 слу- случайной функции а (О. Найти взаимные корреляционные функции: «) Rxx 0ь '»): б) Rkx (tu /,). Отв. a) RxxVu /,)=-2(^~/1)е-«.-*.>1; б) Л^(/1р /,) = «2(/,—/!)е-«1-'Л 12. Задано математическое ожидание тх @ = 4/* случайной функ- цнн X (/). Найти математическое ожидание интеграла Y (t) = Г X ($) da. Отв. mv(t) — t*. 13. Задана случайная функция А" (/) =» U cos* /, где С/—случай- С/—случайная величина, причем М@) — 2. Найти математическое ожидание i случайной функции Y @ = (<* +1) J X (s) rfs. о Ome. mv (/) = (/> + !)[' + (sin 2/)/2J. 418
14. Задана корреляционная функция Kx(t\, t2) = cos со tt cos a>ta случайной функции X (/). Найти: а) корреляционную функцию; б) дисперсию интеграла Y (t)=\ X (s) ds. о ^ ч и- ,1 , > sin соЛ sin со/, ,.» ^ /j% i . • « , * Отв. а) /(„(<!, <2)= ^ ?; б) Dj/@ = (sins<uf)/o>a- 15*. Задана случайная функция X (t) — Uezt cos 2t, где U — слу- случайная величина, причем M(U) = 5, D(U)=l. Найти: а) математи- математическое ожидание, б) корреляционную функцию, в) дисперсию интег- t рала Y @ = С X (s) ds. о Отв. а) тх (t) — 5e3i cos 2t; б) /С„(/ь /а) = A/169) [e*<iB sin 2*! + 3 cos 2/0— 3] [е8'» B sin 2^„+ + 3cos 2/2 — 3]; в) Dv@ = A/169) [e3i B sin 2* + 3cos 2t) — 3}2. 16. Задана корреляционная функция Kx(ti, /j) = /i/* случайной функции X (/). Найти взаимные корреляционные функции: a) #xv (/x, /s); б) RyX (h, h) случайных функций X (t) и Y (t)= \ X (s) ds. Отв. a) Rxy(tu /2) = ^/i/3; б) Ryx Глава двадцать четвертая СТАЦИОНАРНЫЕ СЛУЧАЙНЫЕ ФУНКЦИИ § 1. Определение стационарной случайной функции Среди случайных функций целесообразно выде- выделить класс функций, математические ожидания которых сохраняют одно и то же постоянное значение при всех значениях аргумента / и корреляционные функции кото- которых зависят только от разности аргументов tz—tx. Ясно, что для таких функций начало отсчета аргумента может быть выбрано произвольно. Такие случайные функции называют «стационарными в широком смысле» в отличие от случайных функций, «стационарных в узком смысле» (все характеристики этих функций не зависят от самих значений аргументов, но зависят от их взаимного рас- расположения на оси t). Из стационарности в узком смысле следует стацио- стационарность в широком смысле; обратное утверждение не- неверно. 27» 419
Поскольку мы ограничиваемся корреляционной тео- теорией, которая использует только две характеристики (математическое ожидание и корреляционную функцию), далее рассмотрим случайные функции, стационарные в широком смысле, причем будем их называть просто ста- стационарными. р Стационарной называют случайную функцию X (t), математическое ожидание которой постоянно при всех значениях аргумента t и корреляционная функция кото- которой зависит только от разности аргументов tl—tl. Из этого определения следует, что: 1) корреляционная функция стационарной случайной функции есть функция одного аргумента \ — tt — tlt т.е. 2) дисперсия стационарной случайной функции по- постоянна при всех значениях аргумента t и равна значе- значению ее корреляционной функции в начале координат (т = 0), т. е. Dx(t) = Kx(t, t) = kx(t — t)=kx(O). (**) Пример. Задана случайная функция X (/) = cos (/-f-ф), где <р — случайная величина, распределенная равномерно в интервале @, 2я). Доказать, что X (t) — стационарная случайная функция. Решение. Найдем математическое ожидание: тх (t) = M [cos (/ + ф)) = М [cos t cos ф—sin / sin ф]=соз tM (cos ф)— — sin tM (этф). Используя формулы (**) из гл. XII, § 11 и (*) из гл. XI, § 6, по- получим: 2л 1 С М (созф) = —— \ cos ф <fo = 0 и Af(sinffi)=:O. Следовательно, тх (/) = 0. Найдем корреляционную функцию, учитывая, что центрирован- центрированная функция X(t) = X(t)— mx @ = Х@ = со [COS (/i + ф) COS 1_ J (Легко убедиться, что М [cos (tt + ti + 2ф)]=0.) Итак, математическое ожидание случайной функции X (/) по- постоянно при всех значениях аргумента и ее корреляционная функ- функция зависит только от разности аргументов. Следовательно, X (t) — стационарная случайная функция. 420
Заметим, что, положив ti — t2 = i в корреляционной функции, найдем дисперсию Dx (t) — Kx (t, t) — {cos(t — t)]/2=l/2. Таким обра- образом, дисперсия сохраняет постоянное значение при всех значениях аргумента, как и должно быть для стационарной случайной функции. § 2. Свойства корреляционной функции стационарной случайной функции Свойство 1. Корреляционная функция ста- стационарной случайной функции есть четная функция: Доказательство. Корреляционная функция лю- любой случайной функции при перестановке аргументов не изменяется (см. гл. XXIII, § 10, свойство 1). В частно- частности, для стационарной функции Положив t = t2 — tlt получим Свойство 2. Абсолютная величина корреляционной функции стационарной случайной функции не превышает ее значения в начале координат: Доказательство. Для любой случайной функции (см. гл. XXIII, § 10, свойство 4) В частности, для стационарной функции КAU, *,) = *,<*) и Dx(t1) = Dx(t3) Следовательно, IК (т) | < VKMKW) = kx @). § 3. Нормированная корреляционная функция стационарной случайной функции Кроме корреляционной функции для оценки сте- степени зависимости сечений стационарной случайной функ- функции используют еще идну характеристику — нормирован- нормированную корреляционную функцию. 421
Ранее нормированная корреляционная функция была определена так (см. гл. XXIII, § 11): В частности, для стационарной функции числитель и зна- знаменатель этой дроби имеют вид (см. § 1, соотношения (*) и (**)) КA^i, '•)=**(*). ox(t) = VbJi) = V~kAV)- Следо- Следовательно, для стационарной функции правая часть (*) равна kx (x)/kx @) и является функцией одного аргу- аргумента г; очевидно, и левая часть (*) — функция от т. Нормированной корреляционной функцией стационар- стационарной случайной функции называют неслучайную функцию аргумента т: Абсолютная величина нормированной корреляционной функции стационарной случайной функции не превышает единицы. Справедливость этого свойства уже была дока- доказана ранее для любой случайной функции (см. гл. XXIII, § 11). В учебных целях докажем его непосредственно для стационарной функции. Приняв во внимание, что абсолютная величина част- частного равна частному абсолютных величин, получим I рЛ-0 I = 1К {i)/kx @) | -1 kx (т) |/| kx @) |. Учитывая, что |Ая(т)|<Ая@) (см. § 2, свойство 2), окончательно имеем Замечание. При т —0 нормированная корреляционная функ- функция равна единице. Действительно, Пример. Задана корреляционная функция kx (т) = A/2) cos т ста- стационарной случайной функции X (t). Найти нормированную корреля- корреляционную функцию. Решение. Воспользуемся определением нормированной корреля- корреляционной функции: , 0 kx{i) A/2) cost Итак, искомая нормированная корреляционная функция Р*(*) = созт. Заметим, что рх @) = 1, как и должно быть в соответствии с за- анием, приведенным в этом параграфе,
§ 4, Стационарно связанные случайные функции Стационарно связанными называют две случай- случайные функции X (t) и Y(t), если их взаимная корреля- корреляционная функция зависит только от разности аргумен- аргументов x — tt—1^\ Взаимная корреляционная функция стационарно свя- связанных случайных функций обладает следующим свой- свойством: г*у СО = V (— т>- Это равенство следует из свойства 1 взаимной корреля- корреляционной функции (при одновременной перестановке ин- индексов и аргументов взаимная корреляционная функция не изменяется): rXy{t% — t1) = ryx{tx—tt), или г^(т) = г„х(—т). Геометрически свойство можно истолковать так: гра- график кривой гух{—т) симметричен графику кривой гХв (т) относительно оси ординат. Заметим, что если каждая из двух случайных функ- функций стационарна, то отсюда еще нельзя заключить, что их взаимная корреляционная функция зависит только от разности аргументов. Стационарными и стационарно связанными называют две стационарные случайные функции X {t) и Y(t), взаим- взаимная корреляционная функция которых зависит только от разности аргументов т = *, — tt. Пример. Заданы две стационарные случайные функции X (/) =» = соз(/ + ф) и V @ = sin (/ +ф>, где <р — случайная величина, рас- распределенная равномерно в интервале @,2л). Доказать, что заданные стационарные функции стационарно связаны. Решение. Ранее было найдено, что т* @ = 0 (см. § I, пример); аналогично можно получить, что /п„ @ = 0. Запишем центрированные функции: К @ -/л„ @ = К </) = sin Найдем взаимную корреляционную функцию: R*v <<ь '*> = м I* Ci) * С*» - М [cos (<»+Ч>) sin ^М Г «ln (/¦-<i) + »ln (/i + f,-t-2«p) I __ 1+м[* "Г 423
Легко убедиться, что математическое ожидание второго слагае- слагаемого равно нулю (см. § 1, пример), поэтому «*v('i.*i) = A/2) sin (/,-<,). Итак, взаимная корреляционная функция заданных стационар- стационарных случайных функций зависит только от разности аргументов; следовательно, эти функции стационарно связаны. § 5. Корреляционная функция производной стационарной случайной функции Теорема. Корреляционная функция производной X'(t) = ? дифференцируемой стационарной случайной функции X (t) равна второй производной от ее корреля- корреляционной функции, взятой со знаком минус: Доказательство. Известно, что корреляционная функция производной любой дифференцируемой случай- случайной функции равна второй смешанной производной от ее корреляционной функции (см. гл. XXIII, § 16, теорема 2): По условию, X (t)—стационарная функция, поэтому ее корреляционная функция зависит только от разности аргументов: КА^ '.) = **(*). Из соотношения x==tt — /х следует, что д% , дх , . . _ = _! и ^=1. (.) Учитывая равенства (*), получим д Видим, что искомая корреляционная функция зависит только от т. поэтому Kx(tlt /,) = А;(т). Итак, 424
Пример. Задана корреляционная функция &х(т) = 2е 0-6t ста- стационарной случайной функции X (*)- Найти: а) корреляционную функцию; б) дисперсию производной X' (t) = x. Решение, а) Продифференцировав дважды заданную корреля- корреляционную функцию и изменив знак результата на противоположный, найдем искомую корреляционную функцию: б) Положив т = 0, по.лучим искомую дисперсию: D. =ft.@) = 2. § 6. Взаимная корреляционная функция стационарной случайной функции и ее производной Теорема. Взаимная корреляционная функция диф- дифференцируемой стационарной случайной функции X (t) и ее производной X' (t) = x равна первой производной от корреляционной функции kx(x), взятой со своим (проти- (противоположным) знаком, если индекс х стоит на втором (первом) по порядку месте: a) rxi(x) = kx(x); б) rxx(x) = -k'x{x). Предполагается, что T — tt—tx. Доказательство, а) По определению взаимной корреляционной функции, Ях i <<i. '•) = М I* d) * «»>] = М Операции нахождения математического ожидания и диф- дифференцирования можно переставить (см. гл. XXIII, § 16, замечание 1), поэтому „ .. . ч dM{X(tl)X(ti)] _dKx(t1.tj Так как X (t) — стационарная функция, то ее корреля- корреляционная функция зависит только от разности аргументов: JCjcCi»-'*)^^*), гдет = *,~-tt и, следовательно, gp-=l. Таким образом, 42S
Правая часть равенства зависит только от т; следова- следовательно, и левая часть есть функция от т. Обозначив ее через гхх (т), окончательно получим б) Доказывается аналогично. Заметим, что поскольку взаимная корреляционная функция гх? (т) зависит только от т, то стационарная случайная функция и ее производная стационарно свя- связаны (см. § 4). Пример. Задана корреляционная функция Лх(т) = е~|х1 (I +| т|) стационарной случайной функции X({)• Найти взаимную корреля- корреляционную функцию, г • (х) заданной случайной функции и ее произ- производной. Решение. Воспользуемся формулой а) Пусть т^О. Тогда |т|=т, Ax(T) = e~T(l+т), *',(т) = е~тх XI—A+т)е~х = —te". Таким образом, при т^О г . (т) = — те~*. XX V ' б) Пусть т < 0. Тогда | т | =—т, Ая(т) = ет A —т), k'x(t) = — eT + -f-(l—T)eT = — те* . Таким образом, при т< 0 г . (т)=—те* . XX V ' Итак, искомая взаимная корреляционная функция при г . (т) ** ^ —'тет при т < 0. § 7. Корреляционная функция интеграла от стационарной случайной функцни Теорема. Корреляционная функция интеграла У (t) = j X (s) ds от стационарной случайной функции равна = 1 о 426
Доказательство. Известно, что корреляционная функция интеграла Y(t)=}X(s)ds от случайной функ- о ции X (t) равна двойному интегралу от ее корреляцион- корреляционной функции (см. гл. XXIII, § 17, теорема 2): t, t. О О Принимая во внимание, что корреляционная функция стационарной случайной функции зависит только от раз- разности аргументов, т. е. Kx(st, sa) = kx(sa — sj, получим 't) = И k* (sa —si) о о Вычисление этого интег- интеграла весьма громоздко, по- поэтому ограничимся указани- указаниями: перейти к новым пере- переменным x = sa — slf | = s,-l-s1; начертить новую область ин- интегрирования, ограниченную прямыми т = ?, т = — ^, т = 5 —2/lf т = — l + 2t2, и выполнить интегрирование по |. Двойной интеграл по области OABD можно вычис- вычислить как разность двойных интегралов по областям О АС и В DC. При интегрирова- интегрировании по области ODE переста- переставить пределы интегрирования по т и перейти к новой переменной т' = — т (рис. 28). Рис. 28 Следствие. Дисперсия интеграла Y(t) = j X (s) ds о от стационарной случайной функции равна (**) 427
Действительно, положив tl = tt*=t в формуле (•), полу- получим 1 О Kv(t, t) = После приведения подобных членов окончательно имеем Пример. Задана корреляционная функция *х(т) = 1/A+т*) ста- стационарной случайной функции X (/). Найти дисперсию интеграла t О Решение. Воспользуемся формулой (*•): i кя (т) Л% - 2 С (" Выполнив интегрирование, получим искомую дисперсию: Z)v (/) « 2/ arctg / — In (I + /»). Заметим, что функция К (/) не стационарна, так как ее дисперсия не постоянна, а зависит от аргумента /. § 8. Определение характеристик аргодичееких стационарных случайных функций на опыта Среди стационарных случайных функций можно выделите класс функций, оценка характеристик которых путем усреднения множества реализаций равносильна усреднению по времени только одной реализации доста- достаточно большой длительности. Стационарную случайную функцию Kit) называют аргодической, если ее характеристики, найденные усред- усреднением множества реализаций, совпадают с соот- соответствующими характеристиками, полученными усредне- усреднением по времени одной реализации x(t), которая 428
наблюдалась на интервале (О, Т) достаточно большой длительности. Достаточное условие эргодичности стационарной слу- случайной функции X (t) относительно математи- математического ожидания состоит в том, что ее корреля- корреляционная функция kx(r) при т—»• оо стремится к нулю: lim kx (т) = 0. Достаточное условие эргодичности стационарной слу- случайной функции X (t) относительно корреляци- корреляционной функции состоит в том, что корреляцион- корреляционная функция ky (т) при т —> оо стремится к нулю: limfe (т) = 0, Х-»-00 где Y(t, т) = Х(/)Х(Ит). В качестве оценки математического ожидания эргоди- ческой стационарной случайной функции X(t) по наблю- наблюдавшейся на интервале @, Т) реализации x(t) принимают среднее по времени ее значение: г mx = -LSx(t)dt. (*) Известно, что корреляционная функция стационарной случайной функции Таким образом, оценить йх(т) означает оценить мате- математическое ожидание функции X (t)X (t +г), поэтому можно воспользоваться соотношением (*), учи- учитывая, что функция k(t-\-T) определена при t-\-x^T и, следовательно, t ^.Т—т. Итак, в качестве оценки корреляционной функции эргодической стационарной случайной функции принимают Г-Т либо, что равносильно, Г-т 429
Практически интегралы вычисляют приближенно, на- например по формуле прямоугольников. С этой целью делят интервал (О, Т) на п частичных интервалов длиной Д* = Т/п; в каждом частичном i-м интервале выбирают одну точку, например его середину /,-. В итоге оценка (*) принимает вид ^ = ^-Yi x(tt). Учитывая, что At —Т/п, окончательно получим .< = ! Аналогично приближенно вычисляют интеграл (**), полагая, что т принимает значения At, 2At, ..., (п— 1) At, или, что то же, Т/п, 2Т/п, ЗТ/п, ..,, (п—1)Т/п. В итоге оценки корреляционной функции (**) и (***) принимают соответственно вид: п-1 «¦= 1 п-1 где 1=1, 2, ..., п— 1. Замечание. Можно показать, что оценка (*) — несмещенная, т.е. iM[m^] = mx; оценка (**) — асимптотически несмещенная, т.е. lim M [kx (г)] = kx (т). Задачи 1. Является ли стационарной случайная функция X (t)~ = t*U, где U—случайная величина, причем: а) та Ф О, б) /ив = 0? Отв. а) Нет: тх (/) Ф const; б) Нет: корреляционная функция зависит не от разности аргументов, а от каждого из них. 2. Стационарна ли случайная функция X (<) = sin (t + ф), где Ф — случайная величина, распределенная равномерно в интервале (О, 2я)? Отв. Да: тх @ = 0 = const, Kx (tlt tt) = 0,5 cos (fa —fx). 3. Известно, что если ф — случайная величина, распределенная равномерно в интервале @, 2я), то случайная функция X (t) = = в1п(<-|-ф) — стационарная. Можно ли отсюда непосредственно заключить, что случайная функция К (f) = cos (t -)- ф) также стацио- стационарна? Отв. Можно: изменив начало отсчета аргумента, например на яУ2, стационарной функции X (/), получим функцию У (/). 430
4. Задана случайная функция X (t)=t-{-U 6in <+Vcos t, где U и V—случайные величины, причем М (U) — М (V)=0, D (U)=D (V)=5, М (UV) — O. Доказать, что: а) X (t)— нестационарная функция; б) X @ — стационарная функция. Отв. а) тх (t)Фconst; б) /n«(/) = const, Кх (tlt /,) = 5cos (tt — ti). 5. Известна корреляционная функция kx(x) — 3e~ix' стационар- стационарной случайной функции X (t). Найти корреляционную функцию слу- случайной функции У(<)=бХ(<). Отв. *у(т)=75е-*г\ в. Задана корреляционная функция Л*(т) = 2е~8Т* стационарной случайной функции X (t). Найти нормированную корреляционную функцию. Отв. рх (т) = е~т\ 7. Заданы две стационарные случайные функции X (/)=cos B/-)-ф) и V @ = sin B<+<р), где ф—случайная величина, распределенная равномерно в интервале @, 2л). Доказать, что заданные функции стационарно связаны. Отв. RXy(h, <,) = 0,5ein2(fs— tt). 8. Задана корреляционная функция й*(т) = 6е~в>*х' стационарной случайной функции X (t). Найти: а) корреляционную функцию; 6) дисперсию производной X'(t) = x. Отв. а)А.(т) = 0,24е-°'"'A—0,4та); б) D.=0,24. * * г 9. Задана корреляционная функция Ая(т) = е~г стационарной случайной функции X (t). Найти взаимные корреляционные функции случайной функции X (/) и ее производной. Отв. rxi (г) = — 2те"т'; г.^ (т) = 2те-х\ 10. Задана корреляционная функция &х(т) —е~ стационарной. случайной функции X (<). Найти дисперсию интеграла Y @=\ X (,s)ds, о Отв. ?>„@ = 2(< + е-*— 1). Глава двадцать пятая ЭЛЕМЕНТЫ СПЕКТРАЛЬНОЙ ТЕОРИИ СТАЦИОНАРНЫХ СЛУЧАЙНЫХ ФУНКЦИЙ § 1. Представление стационарной случайной функции в виде гармонических колебаний со случайными амплитудами и случайными фазами В этой главе вводится новая характеристика стационарной случайной функции—спектральная плот- плотность, которая упрощает теоретические и практические 431
расчеты. В частности, используя ее, можно найти ха- характеристики выходной функции стационарной линейной динамической системы по известным характеристикам входной функции (см. § 8). Далее будет показано, что стационарную случайную функцию, вообще говоря, можно представить в виде гар- гармонических колебаний со случайными амплитудами и случайными фазами. 1. Рассмотрим случайную функцию вида Z@ = U cosoit+V sit\<at, (*) где to — постоянное действительное число; U и V—некор- V—некоррелированные случайные величины с математическими ожиданиями, равными нулю, и одинаковыми дисперсиями: ~« «, Г\ Г} Г) /~) ГПа — "ly — v, LJn — *-^v — * Преобразуем правую часть соотношения (*): Z @ = V (-р- cos at + sin о>П. Положив tZ/K = tg ф и выполнив элементарные выкладки, получим Z @ = VU* + V* sin (Ы + ф), где <p = arctg Отсюда следует, что случайную функцию Z (t) = ~ U cosЫ-\-V s\n <i>t можно истолковать как гармониче- гармоническое колебание со случайной амплитудой l^U2 + V, случайной фазой со/ + arctg (U/V) и ча- частотой (О. Заметим, что, по допущению, ma = mv = 0, поэтому U и V — центрированные случайные величины: U = U и V—V. Легко убедиться, что mz(t) = 0. Следовательно, Z(t) — центрированная случайная функция: Покажем, что Z (t) = U cos (ot + V sin (at — стационарная случайная функция. Действительно, математическое ожи- ожидание mz(t) — 0, т.е. постоянно при всех значениях аргу- аргумента. Найдем корреляционную функцию, приняв во внимание, что Z(t) — Z(t): К, (/», /,) = М \Z <*,) Z (/,)] = M[Z (/,) Z (f,)] = = M [(U cos catX + V sino)/,) (U cos ш/2 -f-Vsin <at2)]. 432
Выполнив элементарные выкладки *>, получим Итак, корреляционная функция случайной функции Z(t) зависит только от разности аргументов, а ее мате- математическое ожидание постоянно. Следовательно, Z{t) — стационарная случайная функция, что и тре- требовалось доказать. 2. Рассмотрим теперь случайную функцию X (/), ко- которая является суммой конечного числа слагаемых вида (*): п х (о = 2 luicos <м+visin °v]. (**) 1=1 где случайные величины Ux и Vt не коррелированы, их математические ожидания равны нулю и дисперсии вели- величин с одинаковыми индексами равны между собой: D (?/,) = ?> (К,-) = ?>. Заметим, что X (t) — центрированная функция, т. е. X (t) — X @- Действительно, математическое ожидание каждого слагаемого суммы (**) равно нулю; следова- следовательно, математическое ожидание mx{t) этой суммы также равно нулю и, значит, Докажем, что функция X (t) вида (**) — стационар- стационарная. Действительно, математическое ожидание mx(t) — O при всех значениях аргумента, т. е. постоянно. Кроме того, слагаемые суммы (**) попарно не коррелированы (см. далее пояснение), поэтому корреляционная функция этой суммы равна сумме корреляционных функций сла- слагаемых (см. гл. XXIII, § 15, следствие 1 из теоремы 2). В п. 1 доказано, что корреляционная функция каждого слагаемого (**) зависит только от разности аргументов tB — tx. Следовательно, корреляционная функция сум- суммы (**) также зависит только от разности аргументов: п Kx(ti, /,) = 2 Di cos щ (t,— t)u i= 1 *> При выкладках следует учесть, что, по условию, М (О2) = = jW(V2) = D, а так как U = U, V= V, то М (U2) = M (V2) = D. Слу- Случайные величины U и У не коррелированы, поэтому их корреляци- корреляционный момент nBV = M(UV) = M (UV) = O, 28 2" К) 433
или л kx (т) = 2 Д?cos «¦>/¦*» (•#•) где x = tt—t1. Таким образом, случайная функция X(t) вида (**) есть стационарная функция (разумеется, должны выполняться условия, указанные в п. 2). Принимая во внимание, что (см. п. 1) Х{ @ = V U\ + V*, sin (о,./ + Ф,), где ф,' = arctg ([/,/V/), заключаем, что сумму (**) можно записать в виде п X @ = S VUj + V\sln (со,* + ф(). j i Итак, если случайная функция X (t) может быть пред' ставлена в виде суммы гармоник различных частот со случайными амплитудами и случайными фазами, то X (/)— стационарная функция. Спектральным разложением стационарной случайной функции называют представление этой функции в виде суммы гармонических колебаний различных частот со случайными амплитудами и случайными фазами. Пояснение. Покажем, что слагаемые суммы (**) попарно не коррелированы. Для простоты, не теряя общ- общности доказательства, ограничимся двумя слагаемыми: j^ + jinoi)^ и Убедимся, что их взаимная корреляционная функция равна нулю и, следовательно, они не коррелированы (см. гл. XXIII, § 12): Д.л d. '«) = М [Хх (tj Xt (*,)] - М [X, (tt) Xt (/,)] = = М [(t/x cos <uxf i + Vx sin (Hjt,) (C/2 cos <attt + Vt sin c»,^,)]. Выполнив умножение и вынеся неслучайные множители за знак математического ожидания, найдем Я*,*, (*u t%) = cos ©^cos (otttM (C/.t/,) + + sin ©Л cos <otttM (игУг) + sin o>aff cos oo^M (U + sin <altl sin <utttM (VjVJ, 434
Случайные величины Ult t/2, Vlt V2 попарно не корре- лированы, поэтому их корреляционные моменты равны нулю; отсюда следует, что все математические ожидания парных произведений этих величин равны нулю. Напри- Например, корреляционный момент величин иг и Ut равен нулю: \iUiut = M фг0г) = 0; так как эти величины центрирован- центрированные (см. п. 1), то MiU^J^Q. Итак, взаимная корреляционная функция /?*,*,(<!, (г) — — 0, что и требовалось доказать. § 2. Дискретный спектр стационарной случайной функции А. Частоты — произвольные числа, количество их конечно. Пусть стационарная случайная функция X (t) может быть представлена в виде спектрального разло- разложения X @ = S X, @ - 2 [Ut coso,.* + Vt sino»,/], (*) « = 1 i= 1 причем сохраняются допущения, указанные в начале п. 2 (см. § 1). Найдем дисперсию одной гармоники X,- (t), учитывая, что случайные величины U; и V,- не коррели- рованы и дисперсии величин с одинаковыми индексами равны между собой: D (U',-) = D(V() —D,: D [Xi @] = D Wi cos injt + V{ sin ©,.<] = D [Ut cos ©^] + + D \Vt sin и>Д = cos2 ш.Ш (t/t) + sin* ©,./ D (Kf) = = (cos2 4>it + sin2 to^) Dt = D4-. Итак, Oi. (**) Таким образом, дисперсия i-й гармоники спектраль- спектрального разложения (*) равна дисперсии случайной вели- величины Uit или, что то же, дисперсии случайной величины V(. Найдем теперь дисперсию стационарной случайной функции X (/), приняв во внимание, что слагаемые Х{ (t) не коррелированы (см. § 1) и поэтому дисперсия их суммы равна сумме дисперсий слагаемых (см. гл. XXIII, § 15, замечание 2): D [X @] = D ^2 Xt @ j - .S D [Xi (t)]. 2Я* 435
Используя (**), окончательно получим Итак, дисперсия стационарной случайной функции, которая может быть представлена в виде суммы конеч- конечного числа гармоник с произвольными частотами, равна сумме дисперсий составляющих ее гармоник. Дискретным спектром стационарной случайной функ- функции X @ вида (*) называют совокупность дисперсий всех составляющих ее гармоник. Заметим, что поскольку каждой частоте а>{ можно поставить в соответствие дисперсию Dh то спектр можно изобразить графически: на горизонтальной оси отклады- откладывают частоты to,, а в качестве соответствующих ординат (их называют спектральными линиями) строят диспер- дисперсии Д-. Этот дискретный спектр называют линейчатым. Пример. Построить дискретный спектр стационарной случайной функции X (О = (У, cos 2/ + Vt sin 2t]-\-[Ut cos 3/ + Vt sin 3/] -f если случайные величины Ult U2, Ua; Vlt Vt, Va не коррелированы, их математические ожидания равны нулю и заданы дисперсии: D(l/)?>(V) 5 D(t/)L>(V) 6 D(?/) D(VL Решение. Отложив на горизонтальной оси частоты «i>i = 2, ша = 3, ш, — 4, а на вертикальной оси — соответствующие им ординаты D1 = 5, Dt — 6, Dg = 4, получим график искомого спектра. Б. Равноотстоящие частоты, множество их бесконеч- бесконечное (счетное). В предыдущем пункте предполагалось, что число частот в спектральном разложении (*) конечно, а сами частоты — произвольные числа. Теперь рассмотрим спектральное разложение вида X @ = 2 [Ui cos со,/ + V{ sin ю, Л, (=i в котором число частот бесконечно (счетно), они равноотстоящие, причем разность любых двух «со- «соседних» частот где Т—действительное положительное число. Таким образом, п 2л я< o>i = y » ю« ~ ~т~ • "" • ю' ~ ~т ' ' 436
Напишем корреляционную функцию [см. § 1, фор- формула (***)] рассматриваемой стационарной случайной функции X (t), положив toi = ni/T, п — оо: Ui COS -=- Т. (*) (=1 При т —0, учитывая, что kx(O) = Dx, получим Dx=%Dh (**) Итак, дисперсия стационарной случайной функции, которая может быть представлена в виде суммы беско- бесконечного (счетного) множества гармоник с равноотстоя- равноотстоящими частотами, равна сумме дисперсий слагаемых гармоник (если сумма существует, т. е. ряд (**) сходится). Заметим, что соотношение (*) можно рассматривать как разложение корреляционной функции в ряд Фурье по косинусам. Из (*) видно, что kx{%) — периодическая функция с периодом 271, поэтому коэффициенты Фурье т Di = -f \ kx (T) C0S ~Т т или, учитывая, что щ = т/Т и подынтегральная функ- функция— четная, Dt — у- \ kx (т) cos со/Т dr. о Если каждой частоте со, = я//7т (/ = 1, 2, ...) ставить в соответствие дисперсию D,-, то получим, как и в случае конечного числа произвольных частот, дискретный линейчатый спектр, причем число спектральных линий (ординат D,) бесконечно (счетно) и они равно- равноотстоящие (соседние спектральные линии находятся одна от другой на одном и том же расстоянии Дсо — я/Т). § 3. Непрерывный спектр стационарной случайной функции. Спектральная плотность Среди стационарных случайных функций есть такие функции, корреляционные функции которых нельзя представить в виде ft* (т) = 2 Di cos со,т (D,- > 0), 437
где число слагаемых конечно или счетно. Спектр этих функций не дискретный, а непрерывный. Для рассмот- рассмотрения стационарных случайных функций с непрерывным спектром необходимо ввести понятие спектральной плот- плотности. Выше, когда частоты гармоник спектрального разло- разложения стационарной случайной функции были дискрет- дискретными и равноотстоящими, был получен дискретный ли- линейчатый спектр, причем соседние частоты отличались на величину Да> = я/7\ Пусть Т—юо, тогда До»—»-0. Ясно, что при этом частота изменяется непрерывно (по- (поэтому обозначим ее через со без индекса), соседние ординаты спектра сближаются и в пределе вместо дискретного спектра мы получим непрерывный спектр, т. е. каж- каждой частоте (о(<о^0) соответствует ордината, которую обозначим через s*(co). Хотя отрицательные частоты физического смысла не имеют, для упрощения вычислений целесообразно считать, что частоты изменяются в интервале (—с», оо), и вместо функции sj(<o) рассматривать функцию, которая имеет вдвое меньшие ординаты: Спектральной плотностью стационарной случайной функции X (t) называют функцию s*(o)), которая связана с корреляционной функцией kx(x) взаимно обратными преобразованиями Фурье: kx(x) = 5 sx (со) e'm< dm. (*#) Эти формулы называют формулами Винера — Хинчина. В действительной форме они представляют собой взаимно обратные косинус-преобразования Фурье: СЕ sx (со) =в — \ kx (т) cos о»т dx, (***) =в — \ (т) = 2 j sx (at) cos сот dto. (****) о 438
Важное значение спектральной плотности состоит в том, что, зная ее, можно найти корреляционную функ- функцию, и обратно (в этом смысле спектральная плотность и корреляционная функция эквивалентны); кроме того, как уже было указано, использование спектральной плот- плотности в ряде случаев значительно упрощает теоретические и практические расчеты. Подчеркнем, что, как следует из формулы (***), спек- спектральная плотность—четная функция: Выясним вероятностный смысл функции sx (<o). Поло- Положив т = 0 в соотношении (****) и учитывая, что kx(O)~Dx, sx((u)—четная функция, получим х(<»)Жо= J s,((o)d<o. Видим, что дисперсия стационарной случайной функ- функции X (t) представляет собой «сумму» элементарных дис- дисперсий sx (ю) do» = sx (со) Дю; каждая элементарная диспер- дисперсия соответствует частичному интервалу частот Дм. В частности, частичному интервалу Д<о = сой—соЛ соответ- соответствует дисперсия По теореме о среднем, Dx = (<оь—<oe) sx (сос) = Atosx (<ое), где сов <С ч>с *С Wj. Отсюда s* (toc) == Dx/A©. Из этой формулы заключаем: а) величину sx(tac) можно истолковать как среднюю плотность дисперсии на частичном интервале А©, содержащем частоту <ос; б) при Д«о —>- 0 естественно считать, что sx (<лс) — плот- плотность дисперсии в точке сое. Поскольку никаких ограничений на частоту toc наложено не было, получен- полученный результат справедлив для любой частоты. 439
Итак-, спектральная плотность описывает распределе- распределение дисперсий стационарной случайной функции по не- непрерывно изменяющейся частоте. Из вероятностного смысла спектральной функции сле- следует, что спектральная плотность — неотрица- неотрицательная функция sx(a>)~^0. Пример 1. Найти спектральную плотность стационарной случай- случайной функции X ((), зная ее корреляционную функцию — -j\%\ при |т|<;2, ,0 при |т| > 2. Решение. Используя формулу (ю) = — \ kx (т) cos ют dx и учитывая, что |т| = т в интервале @, 2), имеем 2 sx (ш) = — \ A т ] cos (от df. Интегрируя по частям, окончательно получим искомую спектраль- спектральную плотность: sx ((о) = sin2 ©/(жо2). Пример 2. Найти спектральную плотность стационарной случай- случайной функции X (t), зная ее корреляционную функцию kx (т) = De~a ' т', а > 0. Решение. Используем формулу 00 Учитывая, что |т| = — т при т < 0, |т|=т при т^О, получим kx(x)=Deax при т < 0, kx(x) = De-<" при Следовательно, D Выполнив интегрирование, найдем искомую спектральную плот- плотность: I-» 0 J 440
Пример 3. Найти корреляционную функцию стационарной случай- случайной функции X (t), зная ее спектральную плотность {s0 в интервале —&>0<^<о<Шо, О вне этого интервала. Решение. Используя формулу 00 kx (т) = 2 V sx (o>) cos сот dx о и учитывая, что 5ж(<й)—а>0 в интервале @, ©о), имеем ш» kx (т) = 2s0 С cos ют rfv. о Выполнив интегрирование, получим искомую корреляционную функцию: kx (T) =2s0 sin (оот/т. § 4. Нормированная спектральная плотность Наряду со спектральной плотностью часто исполь- используют нормированную спектральную плотность. Нормированной спектральной плотностью стационар- стационарной случайной функции X (t) называют отношение спек- спектральной плотности к дисперсии случайной функции: Пример. Задана спектральная плотность sK (<о) = 5/(я A +«**)) стационарной случайной функции X (t). Найти нормированную спек- спектральную плотность. Решение. Найдем дисперсию: 00 00 П С \ И ^ С ^ ® ж— j s*l ~ я J 1 + о»2 ~~ п *"~ — 00 — 00 Найдем искомую нормированную спектральную плотность, для чего разделим заданную спектральную плотность на дисперсию Dx = 5; в итоге получим **.ори(<«>) = 1/(яA+й»г)). Нормированная спектральная плотность представима в виде косинус-преобразования Фурье нормированной корреляционной функции: CD cos ^ dT- 441
Действительно, чтобы получить эту формулу, достаточно разделить на Dx обе части соотношения (***) (см. § 3). В свою очередь, нормированная корреляционная функ- функция выражается через нормированную спектральную плот- плотность при помощи обратного преобразования Фурье: 00 Р* СО = 2 J sx яорн (со) cos сот dco. о В частности, положив т = 0 и учитывая, что рх@)=1, получим =l, или —а> Геометрически этот результат означает, что площадь, ограниченная снизу осью О<о и сверху кривой s,HOpM(to), равна единице. § 5. Взаимная спектральная плотность стационарных и стационарно связанных случайных функций Пусть X (/) и Y(t)—стационарные и стационарно связанные случайные функции со взаимной корреляцион- корреляционной функцией гху(т). Взаимной спектральной плотностью двух стационар- стационарных и стационарно связанных случайных функций X(t) и К @ называют функцию sxu (со), определяемую преобра- преобразованием Фурье: В свою очередь, взаимная корреляционная функция выражается через взаимную спектральную плотность с помощью обратного преобразования Фурье: Пример. Задана корреляционная функция kx (т) стационарной случайной функции Х{1), Найти: а) взаимную корреляционную функ- функцию; 6) взаимную спектральную плотность случайных функций Л (/) 442
Решение, а) Легко убедиться, что У (t) — стационарная функ- функция. Найдем взаимную корреляционную функцию: RxV (ti,-tt) = M [X м у (/,)! = Af [X (/о х ( Отсюда видно, что стационарные функции X (/) и У (t) стационарно связаны (их взаимная корреляционная функция зависит только от разности аргументов т). б) Найдем взаимную спектральную плотность: ее , . 1 Итак, искомая взаимная спектральная плотность § 6. Дельта-функция Дельта-функция б (t) является примером обобщен- обобщенной функции (обобщенная функция—предел последова- последовательности однопараметрического семейства непрерывных функций). Дельта-функцию определяют тем условием, что она ставит в соответствие всякой непрерывной функции f (t) ее значение при t = 0: Правую часть равенства можно представить в виде пре- предела: —е где 0 при [t\^e, f = \ i при 111 < е. Таким образом, дельта-функцию можно рассматривать как предел последовательности функций б„ (t) при е—«-0. Учитывая, что бе (t)—»-0 при гфО, be(t)—*-оо при t—»-0 и ^ 2е*> условно пишут —е о при (Фа, оо при { = 0. 443
Физически дельта-функцию можно истолковать как плотность единичной массы, сосредоточенной в нуле. Можно- доказать, что дельта-функция представима ин- интегралом Фурье: Отсюда — 00 окончательно имеем Таким образом, корреляционная функция стационар- стационарного белого шума пропорциональна дельта-функции; коэф- коэффициент пропорциональности 2ns называют интенсив- интенсивностью стационарного белого шума. 444 § 7. Стационарный белый шум Стационарным белым шумом называют стацио- стационарную случайную функцию X (/), спектральная плотность которой постоянна: sx (G>) = s = const. Найдем корреляционную функцию белого шума. Исполь- Используя формулу (#*) (см. § 3)
Дельта-функция равна нулю при всех значениях поэтому и корреляционная функция /г* (т.) также равна нулю при этих же значениях т [это видно из формулы (**)]. Равенство же нулю корреляционной функции стационар- стационарного белого шума означает некоррелированность любых двух его сечений—случайных величин ХAг) и X (tt) (t^tt). Благодаря этой особенности белый шум находит широ- широкое применение в теории случайных функций и ее при- приложениях. Однако эта же особенность указывает на то, что осуществить белый шум невозможно, так как в дей- действительности при очень близких значениях tx и tt соот- соответствующие случайные величины X {tj) и X (tz) в извест- известной степени коррелированы. Таким образом, стационарный белый шум — математи- математическая абстракция, полезная для теории случайных функ- функций и ее приложений. В частности, белый шум исполь- используют для моделирования случайных процессов, которые имеют постоянную спектральную плотность в опреде- определенном диапазоне частот, причем поведение спектральной плотности вне его исследователя не инте- интересует. Пример. Спектральная плотность стационарной случайной функ- функции X (О постоянна в диапазоне частот (— ы0. *»о). а вне его равна нулю: 0 s 0 при при — (i при (О « i0 < (й < <а : С—«о. > 0H. Найти: а) корреляционную функцию; б) дисперсию случайной функ- функции X (()¦ Решение, а) Найдем искомую корреляционную функцию: б>, (О, (тс) = V s cos штасл = 2s \ cos CDTdco = -й), О Итак, кх(х) б) Найдем искомую дисперсию: DK = II» kK (т) - Itan Итак, Dx=2sa»e. 445
§ 8. Преобразование стационарной случайной функции стационарной линейной динамической системой Стационарной линейной динамической системой называют устройство, которое описывается линейным дифференциальным уравнением с постоянными коэффи- коэффициентами вида @ + Ь^-» @ + ... + ЪтХ Ц), (*) где X (t) — входная стационарная случайная функ- функция (воздействие, возмущение), Y (t) — выходная случай- случайная функция (реакция, отклик). Если динамическая система устойчива, то при доста- достаточно больших значениях t, т. е. по окончании переход- переходного процесса, функцию У (t) можно считать стационарной. Подчеркнем, что при дальнейшем изложении предпола- предполагается, что X (t) и Y(t) — стационарные случайные функции. Поставим перед собой задачу найти характеристики выходной функции по известным характеристикам вход- входной функции. Найдем математическое ожидание ту, зная тх, для чего приравняем математические ожидания левой и правой частей уравнения (*). Учитывая, что X (t) и Y(t) — ста- стационарные случайные функции, а значит, математические ожидания производных этих функций равны нулю, по- получим Отсюда искомое математическое ожидание ту=-Ьттх/ап. (••) Пример 1. На вход линейной 'динамической системы, описываемой уравнением У" (О +2Y (О = 5Л* @ + 6* (/), подается стационарная случайная функция X (t) с математическим ожиданием тх=10. Найти математическое ожидание случайной функ- функции Y (t) на выходе системы в установившемся режиме (после зату- затухания переходного процесса). Решение. Используя формулу (•*), получим ту = Ьттх/а„ = F/2)-10 = 30. Введем понятия передаточной функции и частотной характеристики, которые понадобятся далее. Предвари- 446
тельно запишем уравнение (*) в операторной форме, обо- обозначив оператор дифференцирования -^ через р, ^ — через рг и т. д. В итоге уравнение (*) примет вид + a1p"'l + ...+an)Y(t)= «Решим» это уравнение относительно Y (t): -^ ¦ ¦. +bm y ,, Передаточной функцией линейной динамической си- системы называют отношение многочлена относительно р при X (t) к многочлену при У (/) в операторном уравне- уравнении (***): Из соотношения (***¦) следует, что выходная и вход- входная функции связаны равенством Частотной характеристикой линейной динамической системы называют функцию, которая получается заменой аргумента р в передаточной функции на аргумент fa> ((о—действительное число): (to)—*+ - a0 Доказано, что спектральные плотности выходной и входной функций связаны равенством Отсюда заключаем: для того чтобы найти спектраль- спектральную плотность выходной функции, надо умножить спект- спектральную плотность входной функции на квадрат модуля частотной характеристики. Зная же спектральную плотность выходной функции, можно найти ее корреляционную функцию [§3, форму- формула (**)]: 447
а следовательно, и дисперсию: Пример 2. На вход линейной стационарном динамической систе- системы, описываемой уравнением ЗУ" (/) + У (О = 4*' подается стационарная случайная функция X (t) с корреляционной функцией Ая (т) = бе,-2 I * I. Найти дисперсию случайной функции Y (t) на выходе системы в установившемся режиме. Решение 1. Найдем спектральную плотность выходной функ- функции. Используя решение примера 2 (см. § 4) при D = 6 и a = 2, получим Ра. _ 6-2 12 S* @))~ я (<оа + а2) ~л(<о2 +4)~~л (со2 +4)' 2. Найдем передаточную функцию, для чего напишем заданное уравнение в операторной форме: <3/> + 1)К(/) Отсюда Следовательно, передаточная функция 3. Найдем частотную характеристику, для чего заменим в пере- передаточной функции аргумент р на ш: •«•>-¦??- 4. Найдем спектральную плотность выходной функции, для чего умножим спектральную плотность входной функции на квадрат мо- модуля частотной характеристики: 12 |4j"(d + 1 |a 12 16<оа4-1 4)' 5. Найдем искомую дисперсию: С _12 Г (»6юа+1)Дю _24f О»- j sv(co>do)-- J (в» + 4)(9о»»-М)—JTJ 0 Представим подынтегральную функцию в виде суммы простейших дробей: ~ «о dm l^ Г* da Г " @2 + 4 L О 448
Выполнив интегрирование, получим искомую дисперсию: Задачи 1. Найти дисперсию стационарной случайной функции X(t), аная ее спектральную плотность sx(ш)=—ry-j-—jr. Отв. D,=6. 2. Найти спектральную плотность стационарной случайной функ- функции Х((), зная ее корреляционную функцию О при | т | > 3. _ , , 2sin*Cco/2) Отв. sx (to)= яд а • 3. Найти спектральную плотность стационарной случайной функции X{t), зная ее корреляционную функцию <гж(г) = 5ё~8|т'. 4. Задана спектральная плотность sx (со) = 6/(л A -f ш2)) стацио- стационарной случайной функции X (t). Найти нормированную спектральную плотность. Отв. sx „орм (to) = !/(я A +»*))• 5. Найти корреляционную функцию стационарной случайной функции X (/), зная ее спектральную плотность s0 в интервалах (—4<оо, —2а>0) и Bсоо, 4<оо), О вне этих интервалов. 2s Отв. **(т) = —- sin шот B cos 2<оот— 1). в. Спектральная плотность стационарной случайной функции X(t) постоянна в диапазоне частот (а>ь шг), а вне его равна нулю: О при to < щ sx(u>)={ s при ш, < ш < ш,, при to > ш,. 1° I О Найти: а) корреляционную функцию; б) дисперсию; в) нормированную корреляционную функцию случайной функции X (/). « v <. / v *(sinwaT—sin ы,т) Отв. a) kx (т) = -1 2—' !-=; -v г. , . ч , . ein ш.т — sin О) Dx = s\(>s1 — <?>\)\ в) " — 7. На вход линейной стационарной динамической системы, опи- описываемой уравнением подается стационарная случайная функция X (t) с математическим ожиданием тх = 6 и корреляционной функцией Ах(т) = 5е~а'т'. Найти 29- 27М) 449
математическое ожидание и дисперсию случайной функции Y (I) на выходе системы в установившемся режиме. Отв. mj, = 8; Dv = 22/3. 8. На вход линейной стационарной динамической системы, описы- описываемой уравнением У (l) + 5Yl (t) + GY @ = Хй @ + Х (О. подается стационарная случайная функция X (t) с математическим ожиданием тх = 4 н корреляционной функцией кх(х) = е~'т'. Найти математическое ожидание и спектральную плотность случайной функции Y (t) на выходе системы в установившемся режиме. Отв. mv=T; ву(ы)=- 9*. На вход линейной стационарной динамической системы, описы- описываемой уравнением подается стационарная случайная функция X (t) с известной корре- корреляционной функцией kx (т) = 2е~'1Е1 A -)-| т |). Найти спектральную плотность случайной функции Y (t) на выходе системы в установив- установившемся режиме. Указание. Разложить на линейные множители знаменатель передаточной функции: ра+6рг+ Ир + 6 = (Р+ О (Р + 2) (р + 3). Отв. sv (ю) = 4 D9шв +25)/(я (<о2+ 1 K (о>2 + 4) (со2+ 9)). 10. На вход линейной стационарной динамической системы, опи- описываемой уравнением Yl (t)-\-Y (t) — X(t), поступает случайная функ- функция X (t) с постоянной спектральной плотностью s0 (стационарный белый шум). Найти дисперсию случайной функции Y (t) на выходе системы в установившемся режиме. Отв. D = son.
ДОПОЛНЕНИЕ А. Пример расчета многоканальной системы массового обслуживания с отказами методом Монте— Карло Пусть в систему массового обслуживания с отка- отказами (заявка покидает такую систему, если все каналы заняты), состоящую из N каналов, поступает простейший поток заявок (см. гл. VI, § 6), причем плотность распре- распределения промежутка времени между двумя последова- последовательными заявками задана: / (т) = **-*« (К > О, О < т < оо). Каждая заявка поступает в первый канал. Если первый канал свободен, то он обслуживает заявку; если первый канал занят, то заявка поступает во второй канал, обслу- обслуживается им (если канал свободен) или передается в тре- третий канал (если первый и второй каналы заняты) и т. д. В случае, если в момент поступления заявки все ка- каналы заняты, наступает отказ, т. е. поступившая заявка не обслуживается и из дальнейшего рассмотрения исклю- исключается. Ведется подсчет числа обслуженных заявок и числа отказов. Если заявка обслужена, то в «счетчик обслу- обслуженных заявок» добавляют единицу; при отказе единицу добавляют в «счетчик отказов». Ставится задача: найти математические ожидания числа обслуженных заявок и числа отказов за заданное время Т. Для решения этой задачи производят п испы- испытаний, каждое длительностью Т, и определяют в каждом испытании число обслуженных заявок и число отказов. Введем обозначения: /обсл—длительность обслуживания заявки каналом; ti—момент освобождения t-ro канала; Тк— момент поступления k-н заявки; хк—длительность времени между поступлениями &-й и (/г + 1)-й заявок; Тк+л = Тк-\-тк—момент поступления (&+1)-й заявки, п — число испытаний. Пусть первая заявка поступила в момент 7\ = 0, когда все каналы свободны. Эта заявка поступит в первый 29* 451
канал и будет им обслужена за время /обсд. В счетчик обслуженных заявок надо записать единицу. Разыграем момент Т% поступления второй заявки, для чего выберем случайное число г, и разыграем тх (учиты- (учитывая, что т распределено по показательному закону) по формуле (см. гл. XXI, § 7, пример 2) Следовательно, вторая заявка поступит в момент времени Если окажется, что /j^T1, (вторая заявка поступила после того, как первый канал освободился), то вторая заявка будет обслужена первым каналом и в счетчик обслуженных заявок надо добавить единицу. Если же окажется, что tt > Тг, то первый канал занят, и заявка поступит во второй канал и будет им обслужена, поскольку расчет начат в предположении, что все каналы свободны; в счетчик обслуженных заявок надо добавить единицу. Дальнейший расчет производится аналогично. Если в некоторый момент времени поступления очередной заявки все каналы заняты, то наступает отказ и в счетчик отказов надо добавить единицу. Испытание заканчивается, если очередная заявка по- поступит в момент времени, превышающий момент окончания испытания, т. е. если ГА+1 > Т. В итоге i-ro испытания в счетчиках окажутся соот- соответственно число обслуженных заявок л/о«сл и число отказов м10Гк. Пусть произведено всего п испытаний, каждое длитель- длительностью Т, причем ^ i-м испытании зарегистрировано •**1обсл обслуженных заявок и лс,Отк отказов. В качестве оценок искомых математических ожиданий принимают выборочные средние: I ¦*/ обсл 2- -5 . A«*[*OTJ='-^ Для вычисления наименьшего числа испытаний, кото- которые с надежностью у обеспечат наперед заданную верхнюю 452
границу ошибки д, можно использовать формулу (см. гл. XVI, $ 16, замечание 2) /«о» где t находят по равенству Ф (/) = v/2, а =¦»= 1А (см. гл. XIII, § 3). Пусть, например, известны среднее квадратическое от- отклонение сг-=4 и у —0,95, в » 0,7. Тогда Ф (/)== 0,95/2 «=» -0,475 и /«1,96. Минимальное число испытаний |.96'-4» Предполагалось, что время обслуживания — неслучай- неслучайная величина; если время обслуживания случайно, то расчет производится аналогично. Разумеется для разы- разыгрывания случайного времени обслуживания надо задать законы его распределения для каждого канала. На практике расчет производят ЭВМ. Б. Применение метода Монте — Карло к вычислению определенных интегралов Приведем один из способов вычисления опре- определенных интегралов методом Монте—Карло—способ усреднения подынтегральной функции. Требуется найти оценку 1{ определенного интеграла / = V <р (x)dx. Рассмотрим случайную величину X, распре- т деленную равномерно в интервале интегрирования (о, Ь) с плотностью / (х) = l/(fc—а). Тогда математическое ожи- ожидание » * Отсюда Заменин математическое ожидание М [<р (X)] его оцен- 463
кой—выборочной средней, получим оценку II искомого интеграла: 2ф<*/> где х{—возможные значения случайной величины X. Так как величина X распределена равномерно в интер- интервале (а, Ь) с плотностью f(x)—\/(b—а), то xt разыгры- ь вают по формуле -^——\dx = r{ (см. гл. XXI, § 7, пра- а вило 2). Отсюда х{ — а + {Ь—а)г,-. Пример. Найти;- а) оценку l\ определенного интеграла / = з = С (x-\-\)dx\ б) абсолютную погрешность |/ — /i|; в) минимальное число испытаний, которые с надежностью границу ошибки 6=0,1. Решение. Используем формулу 0,95 обеспечат верхнюю 2 1=1 По условию e=l, fc = 3, <p(x)=x-f-i. Примем для простоты число испытаний я = 10. Тогда оценка 2 .* /о t\ /, = C—1) 10 О =2- '=1 10 Результаты 10 испытаний приведены в табл. 36. Случайные числа взяты из приложения 9 с тремя знаками после запятой. Таблица 36 Номер ис- испытания i I 8 10 '•-It 0,100 0,200 1,200 2,200 973 0 0. 1, 2,946 946 0 ,253 .506 1,506 376 0 о, 0,752 1. 752 2 ,520 1,040 ,040 0,135 0,863 0 0,270 1,270 2,726 467 0,354 1.726 0.934 0,708 1,934 .708 2 0.876 1,752 ,752 3,9462,506 2,752 3.040 l.i 2,270 3,726 2.934 2,708 3,752 Сложив числа последней строки таблицы, находим 2 Ф (*/) — 29,834. 454
Искомая оценха интеграла /J=2-B9,834/10) = б) Найдем абсолютную погрешность, приняв во внимание, что 3 \t-ll | = 6 — 5,967 = 0,033. в) Найдем дисперсию усредняемой функции <р (Х) = Х+1, учи- учитывая, что случайная ьеличииа X в интервале интегрирования A,3) распределена равномерно и ее дисперсия D(X) = C—1)*/12=1/3 (см. гл. XII, § 1, пример 2): г) Найдем минимальное число испытаний, которые с надеж- надежностью 0,95 обеспечат верхнюю границу ошибки 6 = 0,1. Из равен- равенства Ф (/) =0,95/2 = 0,475 по таблице приложения 2 находим f =1,96. Искомое минимальное число испытаний /«о« _ 1,9641/3) .„ft л—Ж —= 128 В. Примеры случайных процессов 1. Процесс Пуассона. Рассмотрим простейший поток случайных событий, наступающих в интервале времени @, t). Напомним свойства простейшего потока (см. гл. VI, § 6): 1) стационарность (вероятность появления k событий за время t зависит только от Л и /); 2) отсутствие последействия (вероятность появления k событий в течение промежутка времени (Т, T + t) не зависит от того, сколько событий и как появлялось до момента Г); 3) ординарность (вероятность появления более одного события за малый промежуток времени At есть бесконечно малая более высокого порядка, чем Л/, т. е. 0 ( где Поставим своей задачей найти вероятность Рк (t) по- появления k событий за время длительности t. Для упро- упрощения вывода используем следствие, которое можно по- получить из приведенных выше свойств: 4) вероятность того, что за малое время Д/ наступит ровно одно событие, пропорциональна Д/ с точностью до бесконечно малой высшего порядка относительно Д/: 455
а) Найдем вероятность Ро (t) того, что за время длительности t не наступит ни одного со- события. Для этого примем во внимание, что на проме- промежутке / + Д/ не наступит ни одного события, если на каждом из двух промежутков t и At не появится ни одного события. В силу свойств 1 и 2, по теореме умножения, События «за время Д/ не появилось ни одного собы- события», «появилось одно событие», «появилось более одного события» образуют полную группу, поэтому сумма ве- вероятностей этих событий равна единице: Учитывая, что Рь>\ (At) = о (At) (свойство 3), P1(At)== = ХД/+о(Д/) (свойство 4), имеем Рв(Д/)=1 — *. А/— о (At). (***) Заметим, что, перейдя к пределу при At—»-0, найдем Р0@)=1. (***•) Подставим (***) в (**): Ро (t + At) = Pa (t) [I — \At— о (ДО]- Отсюда Разделив обе части равенства на At и перейдя к пределу при Д/—»-0, получим дифференциальное уравнение общее решение которого Р0(/)=Се-». Используя (****), найдем, что С — 1 и, следовательно, Итак, вероятность того, что за время t не появится ни одного события, найдена. б) Найдем вероятность Px(t) появления за вре- время / ровно одного события. Для этого опреде- определим вероятность того, что за время 14- At событие по- появится один раз. Так будет в двух несовместных случаях: 466
1) событие наступит за время / и не наступит за время At, 2) событие не наступит за время / и наступит за время At. По формуле полной вероятности, /\ (/ + до = Р, (/) Ро (ДО 4- Р. (О Р, (ДО- Заменим Рх (At) и Ро (At) соответственно по формулам (*) и (***), перенесем Р, @ в левую часть равенства, разделим обе его части на At и перейдем к пределу при At—«-0. В итоге получим линейное неоднородное уравнение пер- первого порядка Учитывая начальные условия, найдем С = 0 и, следова- следовательно, Р, (О = (Xt) е-*-'. (*****) Итак, вероятность .того, что за время / появится ровно одно событие, найдена. в) Найдем вероятность Р, (О появления за время t ровно двух событий. Для этого опреде- определим вероятность того, что за время / -f- At событие по- появится два раза. Так будет в трех несовместных случаях: 1) событие наступит 2 раза за время / и не наступит за время At, 2) событие наступит 1 раз за время t и 1 раз за время At, 3) событие не наступит за время / и наступит 2 раза за время At. По формуле полной вероятности, Р, (/ + АО = Р, (О Р. (АО + Рг (О Рг (АО + Р* (/) Р, (А/)- Заменим Рв(Д/), Pt(AO и РДО соответственно по фор- формулам (**¦), (•) и (*****); примем во внимание условие 4; перенесем Р,@ в левую часть равенства, разделим обе его части на At и перейдем к пределу при Д/ —•- О. В итоге получим дифференциальное уравнение Решив это уравнение, найдем вероятность того, что за время t появится ровно два события: р Аналогично можно получить вероятность того, что за время / наступит k событий: 457
Таким образом, если события, наступающие в случай- случайные моменты времени, удовлетворяют указанным выше условиям, то число событий, наступающих за фиксиро- фиксированное время /, распределено по закону Пуассона с па- параметром Xt. Другими словами, если X (О— число событий простейшего потока, наступивших за время t, то при фиксированном t функция X (t) есть случайная величина, распределенная по закону Пуассона с параметром Ы. Функцию X (О называют случайным процессом Пуассона. Очевидно, каждая реализация X (t) есть неубывающая ступенчатая функция. Процесс Пуассона широко используется при решении многих задач практики и особенно в теории массового обслуживания. Замечание. Длительность времени между появле- появлениями двух последовательных событий простейшего потока (случайная величина Т) распределена по показательному закону. Действительно, убедимся, что функция распре- распределения случайной величины Т имеет вид f @=1 — e~kt. События Т < / и Т~^ t противоположны, поэтому или Отсюда. ) есть вероятность того, что за время длительно- длительности t не появится ни одного события потока; эта вероят- вероятность, как показано выше, равна е~и. Итак, что и требовалось доказать. 2. Винеровский процесс. Известно, что если в жидкость погрузить маленькую частицу, то она под влиянием уда- ударов молекул жидкости будет двигаться по ломаной линии со случайными направлениями звеньев. Это явление на- называют броуновским движением по имени английского ботаника Р. Броуна, который в 1827 г. открыл явление, но не объяснил его. Лишь в 1905 г. А. Эйнштейн описал броуновское движение математически. В 1918 г. и в по- последующие годы американский ученый Н. Винер построил 458
математическую модель, более точно описывающую броу- броуновское движение. По этой причине процесс броуновского движения называют винеровским процессом. Прежде чем определить винеровский процесс, введем предварительно понятия нормального процесса и процесса с независимыми приращениями. Случайный процесс X (t) называют нормальным (гаус- (гауссовым), если совместное распределение X (/,), X (ta), .... X (tk) является нормальным для каждого k и всех // (/=1, 2, ..., к). Нормальный процесс полностью опре- определяется его характеристиками: математическим ожида- ожиданием и корреляционной функцией. Случайный процесс X {t) называют процессом с неза- независимыми приращениями, если его приращения на непе- неперекрывающихся интервалах взаимно независимы, т. е. случайные величины X(tt)—X(/t), X(t,)—X(tt), .... X(tk)—X(/*_,) для t1<tt<... <tt взаимно незави- независимы. Процессе независимыми приращениями определяется распределением приращений X (/) — X(s) для произволь- произвольных t и s. Если приращение X (I)—X(s) зависит только от разности /—s, то процесс называют процессом со стационарными приращениями. Винеровским процессом (процессом броуновского дви- движения) называют нормальный случайный процесс X (t) с независимыми стационарными приращениями, для ко- которого Х@) = 0, М[Х(/)]=О, М [X @*1=а*< для всех t > О. Важное значение винеровского процесса состоит в том, что он используется при изучении многих других слу- случайных процессов. 3. Марковский случайный процесс. Используем терми- терминологию, введенную в гл. XXII, § 1. Пусть в каждый момент времени некоторая система может находиться в одном из состояний Ег, Ег, ... (число состояний ко- конечно или счетно). Если система случайно переходит из одного состояния, например ?,-, в другое, например Ej, то говорят, что в системе происходит случайный процесс. Если при этом вероятность перехода из состояния Е{ в состояние Е/ зависит только от состояния Е,- и не за- зависит от того, когда и как система пришла в это состоя- состояние, то случайный процесс X (t) называют марковским. Другими словами, если для каждого момента времени t0 протекание случайного процесса X (t) в будущем (при t > t0) определяется его настоящим (значением X (/,)) и 459
не зависит от прошлого (от значений X (t) при t < /0), то X (t) — марковский случайный процесс. Различают марковские процессы с дискретным мно- множеством состояний (число состояний конечно или счетно, переходы из состояния в состояние происходят скачком) и с непрерывным множеством состояний, а также разли- различают процессы с дискретным временем (моменты переходов фиксировании) и с непрерывным временем (моменты пе- переходов случайны). В качестве примера рассмотрим процесс обслуживания простейшего потока заявок системой массового обслужи- обслуживания с ожиданием (в такой системе заявка «становится в очередь», если все каналы заняты) и показательным временем обслуживания; покажем, что этот процесс является марковским. Допустим, что в момент времени t0 система находи- находилась в некотором определенном состоянии (обслуживается некоторое число заявок, причем обслуживание каждой из них уже длилось определенное время). Назовем условно «будущим обслуживанием» обслуживание для моментов времени / > t0, которое определяется: а) длительностью оставшегося времени обслуживания заявок, поступивших до момента /„; б) числом заявок, которые поступят после момента t0; в) длительностью обслуживания этих заявок. Убедимся, что будущее обслуживание не зависит от того, как происходило обслуживание до момента t0. Действительно: а) длительность оставшегося времени обслуживания заявок, которые уже обслуживались в момент t0, не за- зависит от времени обслуживания в силу характеристи- характеристического свойства показательного распределения; б) число заявок, которые поступят после момента /0, не зависит от числа заявок, которые поступили до мо- момента te, в силу свойства отсутствия последействия про-' стейшего потока; в) длительность обслуживания заявок, поступивших после момента /„, очевидно, не зависит ни от числа заявок, которые поступили до момента /„, ни от длительности обслуживания каждой из них. Итак, будущий процесс обслуживания (при t > /0) за- зависит только от состояния системы в момент <„и не зависит от того, как протекала работа системы до момента /0. Дру- Другими словами, процесс обслуживания простейшего потока заявок системой с ожиданием и показательным законом времени обслуживания является марковским процессом.
ПРИЛОЖЕНИЯ Приложение 1 Таблица значений функции
Продолжение прилож. I Приложение 2 Таблица значений функции
Продолжение прилож. 2 463
Приложение 3 Таблица значений /у = / (у, п) Приложение 4 Таблица значений q = q(y, n) 464
Пр вложение Б Число степеней свободы 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 Критические 0.01 6.6 9.2 11.3 13,3 15.1 16.8 18,5 20.1 21.7 23.2 24.7 26,2 27.7 29.1 30.6 32,0 33.4 34.8 36,2 37.6 38.9 40.3 41,6 43,0 44,3 45.6 47,0 48,3 49,6 50,9 0.025 5,0 7,4 9,4 11,1 12,8 14.4 16.0 17.5 19,0 20.5 21,9 23,3 24,7 26,1 27,5 28.8 30,2 31,5 32.9 34,2 35,5 36,8 38,1 39,4 40,6 41,9 43,2 44.5 45,7 47.0 точки распределения х* Уровень значимости а 0,05 3.8 6.0 7,8 9,5 п.) 12,6 14,1 15,5 16,9 18,3 19,7 21,0 22,4 23,7 25,0 26,3 27,6 28,9 30,1 31,4 32.7 33,9 35,2 36.4 37,7 38,9 40,1 41,3 42,6 43.8 0.96 0,0039 0,103 0.352 0,711 1,15 1,64 2,17 2,73 3,33 3.94 4,57 5,23 5,89 6,57 7,26 7,96 8,67 9,39 10,1 10,9 11,6 12,3 13,1 13,8 14,6 15.4 16.2 16,9 17,7 18.5 0,975 0,00098 0,051 0,216 0.484 0,831 1,24 1,69 2,18 2,70 3,25 3,82 4,40 5,01 5.63 6.26 6,91 7,56 8,23 8.91 9.59 10,3 11.0 П.7 12.4 13,1 13,8 14.6 15.3 16,0 16.8 0,89 0,00016 0,020 0,115 0,297 0,554 0,872 1,24 1,65 2.09 2.56 3,05 3,57 4,11 4.66 5,23 5,81 6,41 7,01 7,63 8.26 8,90 9,54 10.2 10,9 11.5 12.2 12,9 13,6 14.3 15.0 30 -2710
Приложение 6 Критические точки распределения Стьюдента Число степеней свободы 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 40 60 120 со Уровень значимости а (двусторонняя критическая область) 0, 10 6,31 2,92 2,35 2,13 2,01 ,94 .89 ,86 ,83 .81 ,80 ,78 ,77 ,76 .75 .75 ,74 .73 .73 .73 .72 1,72 .71 1.71 1.71 1.71 1.71 1,70 1,70 1,70 1,68 1,67 1,66 1,64 0.05 0,05 12,7 4,30 3,18 2,78 2,57 2,45 2,36 2,3! 2,26 2.23 2,20 2,18 2,16 2,14 2,13 2,12 2,11 2,10 2,09 2,09 2,08 2,07 2,07 2,06 2,06 2,06 2,05 2,05 2,05 2,04 2,02 2,00 1,98 1,96 0,025 0,02 31,82 6,97 4,54 3,75 3,37 3,14 3,00 2,90 2,82 2,76 2,72 2,68 2,65 2,62 2,60 2,58 2,57 2,55 2,54 2,53 2,52 2,51 2,50 2,49 2,49 2,48 2,47 2,46 2,46 2,46 2,42 2,39 2,36 2,33 0,01 0,01 63,7 9,92 5,84 4,60 4,03 3,71 3,50 3,36 3,25 3,17 3,11 3,05 3,01 2,98 2,95 2,92 2,90 2,88 2,86 2,85 2,83 2,82 2,81 2,80 2,79 2,78 2,77 2,76 2,76 2,75 2,70 2,66 2,62 2,58 0,005 0,002 318,3 22,33 10,22 7,17 5,89 5,21 4,79 4,50 4,30 4,14 4,03 3,93 3,85 3,79 3,73 3,69 3,65 3,61 3,58 3,55 3,53 3,51 3,49 3,47 3,45 3,44 3,42 3,40 3,40 3,39 3,31 3,23 3,17 3,09 0.001 0,001 637.0 31,6 12,9 8,61 6,86 5,96 5,40 5,04 4,78 4,59 4,44 4,32 4,22 4,14 4,07 4,01 3,96 3,92 3,88 3,85 3,82 3,79 3.77 3,74 3,72 3,71 3,69 3,66 3,66 3,65 3,55 3,46 3,37 3,29 0,0005 Уровень значимости о> (односторонняя критическая об- ласть) 466
Приложение 7 Критические точки распределении F Фишера — Снедекора t — число степеней свободы большей дисперсии, *» 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 А 1 4052 98.49 34,12 21,20 16,26 13,74 12,25 11,26 10,56 10.04 9,86 9,33 9,07 8.86 8,68 8,53 8,40 ', — ЧИСЛО 2 4999 99,01 30,81 18,00 13,27 10.92 9.55 8,65 8,02 7,56 7,20 6.93 6,70 6,51 6,36 6,23 6.11 5403 99,17 29,46 16,69 12,06 9.78 8,45 7,59 6,99 6,55 6,22 5,95 5,74 5,56 5,42 5,29 5,18 степеней свободы меньшей Уровень значимости а=0,01 4 5625 99,25 28,71 15,98 11,39 9.15 7.85 7,01 6,42 5.99 5,67 5,41 5,20 5,03 4,89 4,77 4,67 5 5764 99,30 28,24 15,52 10,97 8,75 7,46 6.63 6.06 5,64 5,32 5,06 4.86 4,69 4,56 4,44 4,34 * 6 5889 99.33 27,91 15,21 10.67 8.47 7,19 6,37 5,80 5,39 5,07 4,82 4,62 4,46 4,32 4,20 4,10 7 5928 99,34 27,67 14.98 10,45 8.26 7.00 6.19 5.62 5.21 4,88 4,65 4.44 4,28 4.14 4,03 3,93 8 5981 99,36 27,49 14,80 10,27 8,10 6,84 6,03 5,47 5.06 4,74 4,50 4,30 4,14 4,00 3,89 3,79 дисперсии) 9 6022 99,38 27,34 14,66 10,15 7.98 6.71 5,91 5.35 4,95 4,63 4,39 4,19 4.03 3.89 3,78 3,68 10 6056 99,40 27,23 14,54 10,05 7,87 6,62 5,82 5,26 4.85 4,54 4,30 4,10 3,94 3,80 3,69 3,59 6082 99,41 27,13 14,45 9,96 7.79 6,54 5,74 5,18 4,78 4,46 4,22 4,02 3,86 3,73 3,61 3,52 И 6106 99,42 27,05 14,37 9.89 7.72 6,47 5,67 5,11 4.71 4.40 4,16 3,96 3,80 3,67 3,55 3,45 Уровень значимости а.= 0.05 *. 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 1 161 18,51 10,13 7,71 6,61 5.99 5,59 5.32 5,12 4,96 4,84 4,75 4,67 4.60 4,54 4,49 4.45 2 200 19,00 9,55 6.94 5.79 5,14 4,74 4.4S 4,26 4,10 3,98 3.88 3.80 3,74 3,68 3,63 3.59 3 216 19.16 9,28 6,59 5.41 4,76 4,35 4.07 3,86 3,71 3,59 3,49 3,41 3.34 3,29 3.24 3,20 4 225 19.25 9.12 6,39 5.19 4,53 4,12 3,84 3,63 3,48 3,36 3,26 3,18 3,11 3,06 3,01 2,90 6 230 19,30 9,01 6,26 5,05 4,39 3,97 3,69 3,48 3,33 3,20 3,11 3,02 2,96 2,90 2,85 2,81 6 234 19,33 8,94 6,16 4,95 4,28 3.87 3.58 3.37 3,22 3,09 3,00 2,92 2,85 2,79 2,74 2,70 7 237 19,36 8.88 6,09 4,88 4,21 3,79 3,50 3.29 3,14 3,01 2.S2 2,84 2,77 270 2,66 2,62 8 239 19,37 8,84 6,04 4,82 4,15 3,73 3,44 3,23 3,07 2,95 2,85 2.77 2,70 2,64 2,59 2,55 9 241 19,38 8,81 6,00 4,78 4,10 3,68 3,39 3,18 3.02 2,90 2,80 2,72 2,65 2,59 2.54 2,50 10 242 19.39 8,78 5,96 4.74 4.06 3,63 3,34 3.13 2,97 2,86 2.76 2,67 2,60 2,55 2.49 2,45 и 243 19,40 8.76 5.93 4,70 4,03 3.60 3.31 3,10 2,94 2,82 2,72 2.63 2,56 2,51 2,45 2,41 12 244 19,41 8,74 5,91 4,68 4.00 3.57 3,28 3,07 2,91 2,79 2.69 2.60 2,53 2.48 2.42 2.38 30* 467
Приложение 8 Критические точки распределения Кочрена (А— число степеней свободы, / — количество выборок) 468
Продолжение прилож. Я Уровень значимости <х=0,05 2 3 4 5 6 7 8 9 10 12 15 20 24 30 40 60 120 00 0,9985 9669 9065 0,8412 7808 7271 0,6798 6385 6020 0,5410 4709 3894 0,3434 2929 2370 0,1737 0998 0000 0,9750 8709 7679 0,6338 6161 5612 0,5157 4775 4450 0,3924 3346 2705 0,2354 1980 1576 0,1131 0632 0000 0,9392 7977 6841 0,5981 5321 4800 0,4377 4027 3733 0,3624 2758 2205 0,1907 1593 1259 0,0895 0495 0000 0,9057 7457 6287 0,5440 4803 4307 0,3910 3584 3311 0,2880 2419 1921 0,1656 1377 1082 0,0765 0419 0000 0,8772 7071 5895 0,5063 4447 3974 0,3595 3286 3029 0,2624 2195 1735 0,1493 1237 0968 0,0682 0371 0000 0,8534 6771 0,5598 4783 4184 3726 0,3362 3067 2823 0,2439 2034 1602 0,1374 1137 0887 0,0623 0337 0000 0,8332 6530 5365 0,4564 3980 3535 0,3185 2901 2666 0,2299 1911 1501 0,1286 1061 0827 0,0583 0312 0000 Уровень значимости а=0,05 / 2 3 4 5 6 7 8 9 10 12 15 20 24 30 40 60 120 00 к 8 0,8159 6333 5175 0,4387 3817 3384 0,3043 2768 2541 0,2187 1815 1422 0,1216 1002 0780 0,0552 0292 0000 9 0,8010 6167 5017 0.4241 3682 3259 0,2926 2659 2439 0,2098 1736 1357 0,1160 0958 0745 0,0520 0279 0000 10 0,7880 6025 4884 0,4118 3568 3154 0,2829 2568 2353 0,2020 1671 1303 0,1113 0921 0713 0,0497 0266 0000 16 0,7341 5466 4366 0,3645 3135 2756 0,2462 2226 2032 0,1737 1429 1108 0,0942 0771 0595 0,0411 0218 0000 36 0,6602 4748 3720 0,3066 2612 2278 0,2022 1820 1655 0,1403 1144 0879 0,0743 0604 0462 0,0316 0165 0000 144 0,5813 4031 3093 0,2013 2119 1833 0,1616 1446 1308 0,1100 0889 0675 0,0567 0457 0347 0.0234 0120 0000 00 0,5000 3333 2500 0,2000 1667 1429 0,1250 1111 1000 0,0833 0667 0500 0,0417 0333 0250 0,0167 0083 0000 469
Приложение 9 Равномерно распределенные случайные числа 1009 7325 33 37 54 20 48 05 08 42 26 89 53 99 01902529 1280 79 99 70 76 52 013586 64 89 47 42 96 1964 509303 09 37 6707 15 8015 736147 34 67 35 48 76 24 805240 37 2320902560 38 31 131165 64 032366 53 80959091 17 2063610402 1595 3347 64 8867674397 98951168 77 6606 5747 17 3106010805 852697 76 02 6357332135 73 79 64 57 53 34 07276850 4557 1824 06 02 0516 5692 0532 54 7048 0352 96 47 78 36 69 7361 70 35 3034 26 14 6866 574818 905535 7548 358083 42 82 65813398 85 86 79 90 74 39 73 053852 47 28 45 82 87 09 6093 52 03 44 9852 017767 11805054 31 834529 96 34 886854 0200 995946 7348 1490 56 8607 398082 7732 0628898083 8650 7584 01 875176 4969 22 109405 58 50 72 5682 48 13 74 6700 78 36 7666 79 51 91826089 28 6097093433 29<052 42 01 1847540610 9036 476493 93 78 561368 654811 76 74 8012 4356 35 74 350998 17 6991626803 0989 320505 1746 850950 17 72 708015 77 4027 72 14 66 25 229148 1422 568514 5804 776974 453182 2374 43236002 10 369368 72 03 48 42 75 67 88 7303 95 7186 21 115782 53 45 52 1642 37 7662 113990 96 29 77 88 22 91499145 23 80 33 69 45 98 44 10481949 125507 37 42 6360 64 9329 68 4792 76 86 26 94 03 68 58 8515 74 79 54 11 10002040 165053 44 84 4616 283554 7029 734135 32 97 92 65 75 12 86 0746 97 4021952563 94 75 08 99 23 5314 03 3340 57 6004 0881 9664 4894 39 43 6517 7082 61 196904 46 1547 44 5266 94 55 72 8573 42 4811 62 13 2352 37 8317 2645 747774 95 27 07 99 53 67 89 7543 87 97 34 4087 21 73 208898 37 5192 4337 29 59 36 78 38 48 54 62 24 44 31 1686 84 87 67 68 93 591416 65 3945 9593 82 39 6101 18 91 1904 2592 03 07 11 20 59 26 2522 96 63 04 49 35 24 94 0054 99 7654 3596 3153 07 59 80808391 460588 52 36 7524 63 38 24 64 0518 8159 26 89 809354 4542 72 68 42 01 39 09 22 86 4586 25 1025 9611963896 33 351354 62 83 6094 97 00 77 28 14 40 77 61 96 279335 54 69 282391 7797 450024 1302 12 4892 93 9108 36 47 470
Продолжение прилож. 9 32 17 90 0597 69 23 46 14 06 19 56 54 14 30 45 15 51 49 38 94 86 43 19 94 98 08 62 48 26 33 18 5162 32 80 95 10 04 06 79 75 24 91 40 18 63 33 25 37 74 02 94 39 02 54 17 84 5й 11 11 66 44 98 83 48 32 47 79 28 69 07 49 41 38 87 37 92 52 41 20 11 74 52 04 01 75 87 53 79 19 47 60 72 46 36 16 81 08 51 45 24 02 84 04 41 94 15 09 49 96 38 27 07 74 71 96 1282 96 98 14 50 65 71 77 55 73 22 70 80 99 33 71 43 52 07 98 48 27 31 24 96 47 10 87 63 79 19 76 05 56 70 70 07 15 95 66 00 00 40 41 92 15 85 43 66 79 45 43 86 74 31 71 57 18 74 39 24 23 66 67 43 68 06 59 04 79 00 33 34 88 88 15 53 0154 03 54 56 44 99 90 88 96 89 43 54 85 81 20 15 12 33 87 69 86 10 25 91 31 01 02 46 74 97 79 01 71 19 05 33 51 29 69 59 38 17 15 39 02 29 53 68 70 35 58 40 44 01 39 09 47 34 07 88 69 54 19 94 25 01 62 52 98 74 85 22 05 39 05 45 56 14 27 52 52 75 80 21 56 127192 55 09 97 33 34 40 32 30 75 75 46 10 5182 16 15 Приложение 10 Критические точки критерия Вилкоксона Объемы выборок «. 6 л. 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 0,005 23 24 25 26 27 28 30 31 32 33 34 36 37 38 39 40 42 43 44 45 0,0] 24 25 27 28 29 30 32 33 34 36 37 39 40 41 43 44 45 47 48 50 0,025 26 27 29 31 32 34 35 37 38 40 42 43 45 46 48 50 51 53 54 56 0,05 28 30 31 33 35 37 38 40 42 44 46 47 49 51 53 55 57 58 60 62 Объемы выборок -. 7 .. 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 0.005 32 34 35 37 38 40 41 43 44 46 47 49 50 52 53 55 57 58 60 ( 0.0 1 34 35 37 39 40 42 44 45 47 49 51 52 54 56 58 59 61 63 64 0,025 36 38 40 42 44 46 48 50 52 54 56 58 60 62 64 66 68 70 72 0,05 39 41 43 45 47 49 52 54 56 58 61 63 65 67 69 72 74 76 78 471
Объемы выборок 8 9 10 п, 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 10 11 12 13 14 15 16 17 0.005 43 45 47 49 51 53 54 56 58 60 62 64 66 68 70 71 73 75 56 58 61 63 65 67 69 72 74 76 78 81 83 85 88 90 92 71 73 76 79 81 84 86 89 0.01 45 47 49 51 53 56 58 60 62 64 66 68 70 72 74 76 78 81 59 ¦ 61 63 66 68 71 73 76 78 81 83 85 88 90 93 95 98 74 77 79 82 85 88 91 93 0.025 49 51 '53 55 58 60 62 65 67 70 72 74 77 79 81 84 86 89 62 65 68 71 73 76 79 82 84 87 90 93 95 98 101 104 107 78 81 84 88 91 94 97 100 0.05 51 54 56 59 62 64 67 69 72 75 77 80 83 85 88 90 93 96 66 69 72 75 78 81 84 87 90 93 96 99 102 105 108 111 114 82 86 89 92 96 99 103 106 Продолжение Объемы выборок 11 12 13 18 19 20 21 22 23 24 25 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 12 13 14 15 16 17 18 19 20 21 22 23 24 25 13 14 15 16 17 18 0,005 92 94 97 99 102 105 107 ПО 87 90 93 96 99 102 105 108 111 114 117 120 123 126 129 105 109 112 115 119 122 125 129 132 136 139 142 146 149 125 129 133 136 140 144 0,01 96 99 102 105 108 ПО 113 116 91 94 97 100 103 Ш7 ПО 113 Ч6 1Г9 1-23 126 129 132 136 109 113 116 120 124 127 131 134 138 142 145 149 153 156 130 134 138 142 146 150 прилож. 10 } к 0.025 103 107 ПО 113 116 119 122 126 96 99 103 106 ПО 113 117 121 124 128 131 135 139 142 146 115 119 123 127 131 135 139 143 147 151 155 159 163 167 136 141 145 150 154 158 0.05 ПО 113 117 120 123 127 130 134 100 104 108 112 116 120 123 127 131 135 139 143 147 151 155 120 125 129 133 138 142 146 150 155 159 163 168 172 176 142 147 152 156 161 166 472
Объемы выборок R, 14 15 16 17 л» 19 20 21 22 23 24 25 14 15 16 17 18 19 20 21 22 23 24 25 15 16 17 18 19 20 21 22 23 24 25 16 17 18 19 20 21 22 23 24 25 17 18 19 9,005 148 151 155 159 163 166 170 147 151 155 159 163 168 172 176 180 184 188 192 171 175 180 184 189 193 198 202 207 211 216 196 201 206 210 215 220 225 230 235 240 223 228 234 о 0.01 154 158 162 166 170 174 178 152 156 161 165 .170 174 178 183 187 192 196 200 176 181 186 190 195 200 205 210 214 219 224 202 207 212 218 223 228 233 238 244 249 230 235 241 0.О25 163 167 171 176 180 185 189 160 164 169 174 179 183 188 193 198 203 207 212 184 190 195 200 205 210 216 221 226 231 237 211 217 222 228 234 239 245 251 256 262 240 246 252 0.05 171 175 180 185 189 194 199 166 171 176 182 187 192 197 202 207 212 218 223 192 197 203 208 214 220 225 231 236 242 248 219 225 231 237 243 249 255 261 267 273 249 255 262 Продолжение Объемы выборок 18 19 20 21 22 1 23 24 25 п. 20 21 22 23 24 25 18 19 20 21 22 23 24 25 19 20 21 22 23 24 25 20 21 22 23 24 25 21 22 23 24 25 22 23 24 25 23 24 25 24 25 25 0,005 239 244 249 255 260 265 252 258 263 269 275 280 286 292 283 289 295 301 307 313 319 315 322 328 335 341 348 349 356 363 370 377 386 393 400 408 424 431 439 464 4/2 505 с 0,01 246 252 258 263 269 275 259 265 271 277 283 289 295 301 291 297 303 311 316 323 329 324 331 337 344 351 358 359 366 373 381 388 396 403 411 419 434 443 451 475 484 517 прилож. 10 0,025 258 264 270 276 282 288 270 277 283 290 296 303 309 316 303 309 316 323 330 337 344 337 344 351 359 366 373 373 381 388 396 404 411 419 427 435 451 469 468 492 501 536 0.05 268 274 281 287 294 300 280 287 294 301 307 314 321 328 313 320 328 335 342 350 357 348 356 364 371 379 387 385 393 401 410 418 424 432 441 450 465 474 483 507 517 552 473
ПРЕДМЕТНЫЙ УКАЗАТЕЛЬ Асимметрия 137, 138, 229, 250 Асимптотическое приближение 57 Варианта 192 Варианты равноотстоящие 237 — условные 238 Вариационный ряд 192 Величина случайная 64 двумерная 156 дискретная 65 комплексная 413 непрерывная 65, 111 одномерная 155 центрированная 87 Величины случайные взаимно не- независимые 79 зависимые 79 — — коррелированные 179 независимые 79, 176 некоррелированные 179 Вероятность безусловная 37 — доверительная (надежность) 213 — заданного отклонения нормаль- нормальной случайной величины 133 —, определение аксиоматическое 21 —, — геометрическое 27 —, — классическое 19, 20 —, — статистическое 26 — отклонения относительной ча- частоты от вероятности в не- независимых испытаниях 61, 62 — переходная 382 — попадания в заданный интервал непрерывной случайной ве- величины 117 нормальной слу- случайной величины 133 — — — — — показательно рас- распределенной случайной ве- величины 150 случайной точки в полу- полуплоскость 161 • произвольную об- область 166 прямоугольник 162 — условная 37, 38 474 Выборка 188 — бесповторная 189 — повторная 189 — репрезентативная 189 Выборочное корреляционное от- отношение 270, 271 , свойства 272—274 Гамма-функция 146 Гипотеза 52 — конкурирующая (альтерна- (альтернативная) 282 — нулевая (основная) 281 — простая 282 — сложная 282 — статистическая 281 Гистограмма 195, 196 Дельта-функция 443, 444 Дисперсионный анализ 349 Дисперсия 87 — внутригрупповая 208 —'¦ выборочная 206 — генеральная 205 — групповая 208 — дискретной случайной вели- величины 88 —, свойства 90—92 — исправленная 212 — комплексной случайной вели- величины 414 — — — функции 416 — межгрупповая 209 — непрерывной случайной вели- величины 125, 126 — общая 209, 355 — остаточная 183, 355 — случайной функции 392 , свойства 392, 393 — факторная 355 Доверительный интервал 214 — — для математического ожи- ожидания нормального распре- распределения при известном о 215, 312 вестном о 217
среднего квадратическо- го отклонения нормального распределения 222 Зависимость корреляционная 253 линейная 184 — статистическая 253 — функциональная 139 Закон больших чисел 108 — надежности показательный 153—155 — распределения вероятностей 66, 122 — — — двумерной случайной ве- величины 156, 157 условный 170, 172 устойчивый 144 Интеграл от случайной функции 409 Интенсивность потока 70 — стационарного белого шума 444 Испытание 17 Исход благоприятствующий 19 — элементарный 19 Качественный признак 335 Композиция 144 Корреляционная теория случай- случайных функций 389 -— функция, см. Функция Корреляция криволинейная 275 — линейная 270 — множественная 276 — ранговая 335 Коэффициент вариации 235 — корреляции 178, 179 выборочный 261—263 Кендалла 341, 342 — — — совокупный 278 — Спирмена 339, 340 частный 278 — регрессии 183 выборочный 255 Кривая нормальная (кривая Гаус- Гаусса) 130, 131 ¦ , построение по опытным данным 249, 250 — нормированная 132 Критерий Бартлетта 323, 324 — Вилкоксона 343—345 — Кочрена 326 — Пирсона 329—331 — согласия 329 — статистический 283 Критические точки 284 См. также Таблица значений кри- критических точек Линии регрессии выборочные 254 — спектральные 436 Ложный нуль 238 Математическое ожидание 75 дискретной случайной ве- величины 76 , вероятностный смысл 77, 78 свойства 78—82 комплексной случайной ве- величины 414 — функции 415 непрерывной случайной ве- величины 125 случайной функции 390 свойства 391 условное 173 функции одного случайного аргумента 141, 142 Матрица перехода системы 382 Медиана 234 Метод наибольшего правдоподо- правдоподобия 229. 230 — Монте — Карло 363, 364 , применение к вычисле нню определенных интег- интегралов 453—455 , расчету многоканаль- многоканальной системы массового об- обслуживания с отказами 451—453 — моментов 227, 228 — обратных функций 371—374 — произведений 241, 242 — суперпозиции 375, 376 Многоугольник распределения 66 Мода 138, 234 Момент корреляционный 176, 177 — — двух случайных комплекс- комплексных величин 415 — начальный теоретический 99 эмпирический 239 — обычный эмпирический 239,240 — условный эмпирический 239, 240 — центральный теоретический 99 эмпирический 239, 240 Мощность критерия 287 Наблюдаемое значение критерия 283 475
Надежность 213 Независимые испытания 55 Неравенство Чебышева 102, 103 Область критическая 284 — принятия гипотезы 284 Объем выборки минимальный 216. 313 — совокупности 188 Отбор механический 191 — простой случайный 190 — типический 191 Отклонение 86, 204 См. также Среднее квадратиче- ское отклонение Отыскание критических обла- областей 285—287 — параметров прямой регрессии по несгруппнрованным дан- данным 255, 256 сгруппированным данным 259, 260 Оценка вероятности биномиально- биномиального распределения по относи- относительной частоте 224, 226 — генеральной дисперсии по ис- исправленной выборочной 212 — интервальная 213, см. также Доверительный интервал — истинного значения измеряе- измеряемой величины 219 — классическая 215 — наибольшего правдоподобия 230 — несмещенная 198 — погрешности метода Монте — Карло 364—366 — смещенная 199 — состоятельная 199 — тесноты корреляционной свя- связи 269, 270 — точечная 223 — точности измерений 223 — эффективная 199 Ошибка второго рода 282 — первого рода 282 Перестановки 22 Плотность спектральная 438—440 — — взаимная 442 нормированная 441, 442 — распределения 116 — —, вероятностный смысл 121, 122 476 , свойства 119, 120 , связь с функцией распре- распределения 118 двумерная 163 , вероятностный смысл 164, 165 , свойства 167 составляющих двумерной случайной величины 169 ; условная 171, 172 Поверхность распределения 163 Полигон 194, 195 Полная группа событий 17, 18 Поправка на непрерывность 321 Правила проверки нулевой гипо- гипотезы 290—292, 294—296, 300—303, 306, 309—311, 316, 318, 320,321, 324, 326, 328, 331, 340, 342, 344, 345 — разыгрывания непрерывной случайной величины 373, 374 Правило произведения 23 — разыгрывания дискретной слу- случайной величины 367, 368 нормальной случайной ве- величины 378 полной группы событий 370 противоположных событий 369 случайной величины, функ- функция распределения которой имеет вид F (x^CxFi (х)-\г + C2F2(x) 376 — суммы 23 — трех сигм 134, 135 Предел в среднеквадратичном 405 Поток событий 69 простейший (пуассонов- ский) 70 Принцип практической невозмож- невозможности маловероятных собы- событий 35 Проверка гипотезы о значимости выборочного коэффициента корреляции 327, 328 — ранговой кор- корреляции Кендалла 342 Спир- мена 340 — нормальном распреде- распределении генеральной сово- совокупности 329—331 — — об однородности двух вы- выборок 343—345
Произведение независимых слу- случайных величин 79 — событий 37 Производная случайной функции 406 Пространство элементарных собы- событий 21 Процесс винеровский 459 — марковский 459, 460 — нормальный (гауссов) 459 — Пуассона 457, 458 — случайный (стохастический) 387 — с независимыми приращениями 459 — со случайными приращениями 459 Прямая среднеквадратической ре- регрессии 183 Равенство Маркова 383 — Уилсона — Гилферти 297 Размах варьирования 234 Размещения 22 Разыгрывание, см. соотв. правила Распределение биномиальное 66, 67 — выборки статистическое 192 — выборочное 201 — геометрическое 72, 73 — гипергеометрическое 73, 74 — нормальное 127, 128 — — на плоскости 181 — — нормированное 128, 129 общее 12?, 129 — показательное (экспоненци- (экспоненциальное) 149—151 — Пуассона 68, 69 — равномерное 122 — Стьюдента 146 — теоретическое 137 — условное 170 — Фишера — Снедкора 147 — «хи квадрат» 145, 146 — эмпирическое 137 Реализация 387 Регрессия выборочная 254 — средняя квадратическая 182 Свойство ординарности 70 — отсутствия последействия 70 — стационарности 69, 70 — устойчивости выборочных средних 202 Сечение 387 Случайная последовательность 388 — функция, см. Функция Случайные числа 367 Событие достоверное 14 — невозможное 14 — простое 55 — сложное 55 — случайное 14 События зависимые 41 — независимые 41 — — в совокупности 42 попарно 41 — несовместные 17 — противоположные 34 — равновозможные 18 — совместные 48 — элементарные 20 Совокупность выборочная 188 — генеральная 188 Состояние системы 381 Сочетания 22 Спектр стационарной случайной функции 436, 438 Спектральное разложение стацио- стационарной случайной функции 432—435 Способ усреднения подынтеграль- подынтегральной функции 453, 454 Сравнение выборочной средней с гипотетической генераль- генеральной средней нормальной совокупности 308—311 •— двух вероятностей биномиаль- биномиального распределения 319— 322 дисперсий нормальных ге- генеральных совокупностей 288—292 средних нормальных гене- генеральных совокупностей с известными дисперсиями 297—303 — неизвест- неизвестными дисперсиями 314— 316 — — — — — ' — одина- одинаковыми дисперсиями 305— 308 — — — произвольно распреде- распределенных генеральных сово- совокупностей 303, 304 — исправленной выборочной дис- дисперсии с гипотетической генеральной дисперсией нормальной совокупности 293—296 477
Сравнение наблюдаемой относи- относительной частоты с гипоте- гипотетической вероятностью со- события 317, 318 — нескольких дисперсий нормаль- ных генеральных совокуп- совокупностей по выборкам одина- одинакового объема 325—327 различ- различного объема 322—324 — — средних методом диспер- дисперсионного анализа 355, 356, 358—360 Среднее абсолютное отклонение 234 — квадратнческое отклонение 94, 126 — выборочное 206 генеральное 205 — — — исправленное 212 случайной функции 392 — условное 254 Средняя выборочная 200—202 — генеральная 199, 201 — групповая 203 — общая 203 Стандарт 205, 206 Стационарная линейная динами- динамическая система 446 Стационарный белый шум 444, 445 Сумма общая 351—355 — остаточная 351, 352, 354, 355 — случайных величин 81 — событий 31 — факторная 351, 352, 354, 355 Сходимосгь в среднеквадратич- среднеквадратичном' 405 — по вероятности ПО Таблица значений критических точек критерия Вилкоксо- на 471—473 — распределения Коч- рена 468, 469 — Стьюдента 466 — — — — — Фишера — Снед- кора 467 X2 465 — — равномерно распределен- распределенных случайных чисел 470, 471 функции ф (*)= -у~= e~*V2 461, 462 478 462, 463 <T=/(Y. «) 464 ¦ q—q(y, n) 464 — корреляционная 257, 258 Теорема Бернулли 108—ПО. — Лапласа интегральная 59, 61 локальная 57, 58 — Ляпунова (центральная пре- предельная теорема) 135, 136 — о вероятности попадания не- непрерывной случайной ве- величины в заданный интер- интервал 116, 117 появления хотя бы од- одного события 45 дисперсии числа появлений события в л независимых испытаниях 92, 93 линейной корреляции 184, 185 математическом ожидании числа появлений события в л независимых испытаниях 83, 84 — — независимости двух слу- случайных величин 174, 175 — об общей дисперсии 211, 212 — сложения вероятностей несов- несовместных событий 32 — — — совместных событий 49 — умножения вероятностей 38, 39 — Чебышева 103—108 Теоремы о корреляционных мо- моментах 177—179 функциях 424—427 — — характеристиках интегра- интеграла от случайной функции 409—413 — — — производной от случай- случайной функции 406—408 — суммы случайных функ- функций 402, 403 — — числовых характеристиках среднего арифметического одинаково распределенных случайных величин 96, 97 Точность оценки 213 Уравнение правдоподобия 230 Уравнения регрессии 173 — — выборочные 254
— — генеральной совокупности (теоретическая функция распределения) 193 — — двумерной случайной ве- величины 158—161 — регрессии 173 — случайная 386 — — дифференцируемая 406 комплексная 415 — — стационарная 420 эр годи ческа я 428, 429 центрированная 394 — характеристическая 136, 137 Характеристика выборочная 235 — генеральная 235 — случайной функции 389 — числовая 389 —• частотная 447 Центр совместного распределения 183 Цепь Маркова 380, 381 однородная 381 с дискретным временем 381 непрерывным временем 381 Частота 192 — выравнивающая (теоретиче- (теоретическая) 245—247 — относительная 24, 192 — эмпирическая 245 Эксцесс 138, 250
Учебное издание Гмурман Владимир Ефимович ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА Художник К Э Семеиков Технический редактор Л А Овчинникова Корректор Г И Koimpuhoea Лицензия ИД № 06236 от 09 11 01 Изд № ФМ-228 Подп в печать 14 02 03 Формат 60 х 88'/,6 Бумага газетн Гарнитура литературная Печать офсетная Объем 29,40 уел печ л 29,40 уст кр -отт 22 76 уч -изд л Тираж 20 000 экз Заказ J4° 2730 ФГУП «Издательство «Высшая школа», 127994 Москва, ГСП-4 Неглинная ул д 29/14 Тел @95) 200-04-56 Е mail info(gjV-shkola ru http //www v-shkola ru Отдеч реализации @95J00-07-69 200-59-39, факс @95J00-03-01 F-mail sales(o)v-shkola ru Отдеч «Книга почтой» @95) 200-33-36 E-mail bookpost@v-shkola ru Отпечатано в соответствии с качес1вом предоставленных диапозитивов в ФГУП ордена «Знак Почета» Смоленской областной типографии им В И Смирнова 214000, г Смоленск, пр-т им Ю Гагарина, 2 ISBN 5-06-004214-6 9 785060 »0 42146

В.Е. ГМУРМАНРуководствок решению задачпо теориивероятностейи математическойстатистжеИздание девятое, стереотипноеРекомендованоМинистерством образованияРоссийской Федерациив качестве учебного пособиядля студентов вузовМосква«Высшая школа» 2 0 0 4У Д К 519.2Б Б К 22.171Г 55I S B N 5-06-004212-Х© ФГУП «Издательство «Высшая школа», 2004Оригинал-макет данного издания является собственностью издательства«Высшая пшола», и его репродуцирование (воспроизведение) любым способомбез согласия издательства запрещается.ОГЛАВЛЕНИЕЧАСТЬ ПЕРВАЯСЛУЧАЙНЫЕ СОБЫТИЯГлава первая.

<§ 1. Классическое и статистическое определения вероятности…§ 2. Геометрические вероятностиГлава вторая. Осионпие теоремы§§§§1. Теорема сложения и умножения вероятностей2. Вероятность появления хотя бы одного события3. Формула полной вероятности4. Формула БейесаГлава третья. Попорешю •саытшшй§ 1. Формула Бернулли§ 2. Локальная и интегральная теоремы Лапласа§ 3. Отклонение относительной частоты от постоянной верояггности в независимых испытаниях§ 4. Наивероятнейшее число появлений события в независимыхиспытаниях§ 5.

Производящая функция8121818293132373739434650ЧАСТЬ ВТОРАЯСЛУЧАЙНЫЕ ВЕЛИЧИНЫГлава четвертая. Дшсшретие сяучаЛиые велрвош§ Ь Закон распределения вероетноетей дискретной случайнойвеличины. Законы биномиальный и Пуассона52523§ 2. Простейший поток событий§ 3. Числовые хараюеристики дискретных случайных величин.§ 4. Теоретические моментыГлава пятая. Запш большвх чисел§ 1. Неравенство Чебышева§ 2. Теорема Чебышева606379828285Глава шестая.

Фувкщш н nJurraocni распределеии вероятностей слу§ 1. Функция распределения вероятностей случайной величины§ 2. Плотность распределения вероятностей непрерывной слу­чайной величины§ 3. Числовые характеристики непрерывных случайных величин§ 4. Равномерное распределение§ 5. Нормальное распределение§ 6. Показательное распределение и его числовые характеристики§ 7. Функция надежностиГлава седьмая. Распределение функции одного и даух слдгчайных apiyмеигов§ 1. Функция одного случайного аргумента§ 2. Функция двух случайных аргументовГлава восьмая. Система двух случайных величин§ 1.

Закон распределения двумерной случайной величины§ 2. Условные законы распределения вероятностей составля­ющих дис1фетной двумерной случайной величины§ 3. Отыскание плотностей и условных законов распределениясоставляющих непрерывной двумерной случайной величины….§ 4. Числовые характеристики непрерывной системы двух слу­чайных величин879194106109114119121121132137137142144146ЧАСТЬ ТРЕТЬЯЭЛЕМЕНТЫ МАТЕМАТИЧЕСКОЙ СТАТИСТИКИГлава девятая. Выборочный метод§ 1. Статистическое распределение выборки§ 2. Эмпирическая функция распределения§ 3. Полигон и гистограммаГлава десятая.

Спгпкппескне оценки нарвиетрои расиределення…..§ 1. Точечные оценки4151151152152157157§ 2. Метод моментов§ 3. Метод наибольшего правдоподобия§ 4. Интервальные оценкиГлава одиннадцатая. Методы расчета сводных характеристик выборки§ 1. Метод произведений вычисления выборочных средней идисперсии§ 2. Метод сумм вычисления выборочньпс средней и дисперсии§ 3. Асимметрия и эксцесс эмпирического распределенияГлава двенадцатая. Элементы теории корреляции%\.

Линейная корреляция§ 2. Криволинейная корреляция§ 3. Ранговая корреляция163169174181181184186190190196201Глава тринадцатая. Статисгаческая проверка спггастических гапотез 206§ 1. Основные сведения§ 2. Сравнение двух дисперсий нормальных генеральных сово­купностей§ 3. Сравнение исправленной выборочной дисперсии сгипотетической генеральной дисперсией нормальной совокуп­ности§ 4. Сравнение двух средних генеральных совокупностей,дисперсии которых известны (большие независимые выборки).§ 5.

Сравнение двух средних нормальных генеральных совокуп­ностей, дисперсии которых неизвестны и одинаковы (малыенезависимые выборки)§ 6. Сравнение выборочной средней с гипотетической генераль­ной средней нормальной совокупности§ 7. Сравнение двух средних нормальных генеральных совокуп­ностей с неизвестными дисперсиями (зависимые выборки)§ 8. Сравнение наблюдаемой относительной частоты сгипотетической вероятностью появления события§ 9. Сравнение нескольких дисперсий нормальных генеральныхсовокупностей по выборкам различного объема.

Критерий Бартлетта§ 10. Сравнение нескольких дисперсий нормальных генеральныхсовокупностей по выборкам одинакового объема. Критерий Кочрена§11. Сравнение двух вероятностей биномиальных распределений§ 12. Проверка гипотезы о значимости выборочногокоэффициента корреляции§ 13. Проверка гипотезы о значимости выборочногокоэффициента ранговой корреляции Спирмена206207210213215218226229231234237239244§ 14.

Проверка гипотезы о значимости выборочного коэф­фициента ранговой корреляции Кецдалла§ 15. Проверка гипотезы об однородности двух выборок по]фитерию Вилкоксона§ 16. Проверка гипотезы о нормальном распределении генераль­ной совокупности по критерию Пирсона§ 17. Графическая проверка гипотезы о нормальном распреде­лении генеральной совокупности. Метод спрямленных диаграмм§ 18. Проверка гипотезы о показательном распределении гене­ральной совокупности§ 19.

Проверка гипотезы о распределении генеральной совокуп­ности по биномиальному закону§ 20. Проверка гипотезы о равномерном распределении генераль­ной совокупности§ 21. Проверка гипотезы о распределении генеральной совокуп­ности по закону ПуассонаГлава четырнадцатая. Одрюфиториый дкперсвошшй ашшв§ 1.

Одинаковое число испытаний на всех уровнях§ 2. Неодинаковое число испытаний на различных уровнях24624725125 9268272275279283283289ЧАСТЬ ЧЕТВЕРТАЯМОДЕЛИРОВАНИЕ СЛУЧАЙНЫХ ВЕЛИЧИНГлава пятнадцатая. Моделаромшю (разыгрышипе) сяучшЛшиквелпш методом Мовте-Карло§ 1. Разыгрывание дискретной случайной величины§ 2. Разыгрывание полной группы событий§ 3. Разыгрывание непрерывной случайной величины§ 4. Приближенное разыгрывание нормальной случайнойвеличины§ 5. Разыгрывание двумерной случайной величины§ 6.

Оценка надежности простейших систем методом МонтеКарло§ 7. Расчет систем массового обслуживания с отказами методомМонге-Карло§ 8. Вычисление определенных икгегралов методом Мон­те-Карло294294295297302303307311317ЧАСТЬ ПЯТАЯСЛУЧАЙНЫЕ ФУНКЦИИГлава шестнадцатая. Корреляцрошиш теорш сяучшЁяых футщЛ ••••§ 1. Основные понятия. Характеристики случайных функций…6330330§ 2. Характеристики суммы случайных функций§ 3. Характеристики производной от случайной функции§ 4.

Характеристики интеграла от случайной функцииГлава семнадцатая. Стацкоиярные случайные функции§ 1. Характеристики стационарной случайной функции§ 2. Стационарно связанные случайные функции§ 3. Корреляционная функция производной от стационарнойслучайной функции§ 4. Корреляционная фушощя интеграла от стационарной слу>чайной функции§ 5. Взаимная корреляционная функция дифференцируемойстационарной случайной функции и ее производных§ 6.

Спектральная плотность стационарной случайной функции§ 7. Преобразование стационарной случайной функциистационарной линейной динамической системойОтветыПриложения337339342347347351352355357360369373387Часть перваяСЛУЧАЙНЫЕ СОБЫТИЯГлава перваяОПРЕДЕЛЕНИЕ ВЕРОЯТНОСТИ§ 1. Классическое и статистическоеопределение вероятностиПри классическом определении вероятность события опреле^-хпется равенствомР(А)^т/п.где Л1—число элементарных исходов испытания, благоприятствующихпоявлению события А; п—общее число возможных элементарныхисходов испытания. Предполагается, что элементарные исходы обра­зуют полную группу и равновозможны.Относительная частота события А определяется равенствомWiA)^m/n,где т—число испытаний, в которых событие А наступило; п —общеечисло произведенных испытаний.При статистическом определении в качестве вероятности событияпринимают его относительную частоту.1.

Брошены две игральные кости. Найти вероятность того, чтосумма очков на выпавших гранях—четная, причем на срани хотя(кд одирй из костей появится шестерка.Р е ш е н и е . На выпавшей грани «первой)^ игральной косги мо*жет появиться одно очко, два очка, . . . , шесть очков. Аналогич­ные шес1ъ элементарных исходов возможны при бросании «второй»кости. Каждый из исходов бросания «первой» кости может сочетаться с каждым из исходов бросания «второй».

Таким образом, общеечисло возможных элементарных исходов испытания равно 6-6’=^-36.Эти исходы образуют полную группу и в силу симметрии костейравновозможны.Благоприятствующими интересующему нас событию (хотя бы на од­ной грани появится шестерка, сумма выпавших очков — четная) явля­ются следующие пять исходов (первым записано число очков, выпав­ших на «первой» кости, вторым—число очков, выпавших на «второй»кости; далее найдена сумма очков):1) 6, 2; 64-2 = 8, 2) 6, 4; 6 + 4-= 10. 3) 6, 6; 6-f6=rl2, 4) 2.

6:2 + 6-«8. 5) 4, 6; 4 + 6 = 1 0 .Искомая вероятность равна отношению числа исходов, благопри­ятствующих событию, к числу всех возможных элементарных исхо­дов: Я = 5/36.2. При перевозке ящика, в котором содержались 21 стандартнаяя 10 нестандартных деталей, утеряна одна деталь, причем неизвестнокакая. Наудачу извлеченная (после перевозки) из ящика детальоказалась стандартной. Найти вероятность того, что была утеряна:а) стандартная деталь; б) нестандартная деталь.Р е ш е н и е , а) Извлеченная стандартная деталь, очевидно, немогла быть утеряна; могла быть потеряна любая из остальных 30детглей (21-Ь10 — 1 = 3 0 ) , причем среди них было 20 стандартных(21—1=20).

Вероятность того, что была потеряна стандартная де­таль, Р = 20/30 =.2/3.б) Среди 30 деталей, каждая из которых могла быть утеряна, бы­ло 10 нестандартных. Вероятность того, что потеряна нестандартнаядеталь, Р == 10/30-^ 1/3.3. Задумано двузначное число. Найти вероятностьтого, что задуманным числом окажется: а) случайно на­званное двузначное число; б) случайно названное двузнач­ное число, цифры которого различны.4.

Указать ошибку «решения» задачи: брошены двеигральные кости; найти вероятность того, что сумлш вы­павших очков равна 3 (событие А).«Р е ш е н и е>. Возможны два исхода испытания: сумма выпавшихочков равна 3, сумма выпавших очков не равна 3. Отбытию Л 6.iaroприятствует один исход; общее число исходов равно двум. Следова­тельно, искомая вероятность Р(>4)~1/2.Ошибка этого «решения» состоит в том, что рассматриваемые ис­ходы не являются равновозможными.П р а в и л ! ь н о е р е ш е н и е .

Главная » Математика » Руководство к решению задач по теории вероятностей и математической статистике. Гмурман В. Е.

Руководство к решению задач по теории вероятностей и математической статистике. Гмурман В. Е.

В пособии ( 8-е изд. — 2003г.) приведены необходимые теоретические сведения и формулы, даны решения типовых задач, помещены задачи для самостоятельного решения, сопровождающиеся ответами и указаниями. Большое внимание уделено методам статистической обработки экспериментальных данных.

  • Рубрика: Математика / Студентам Математика Студентам Математика
  • Автор: Гмурман В. Е.
  • Год: 2004
  • Язык учебника: Русский
  • Формат: PDF
  • Страниц: 404

Отрывок:

Название :  Руководство к решению задач по теории вероятностей и математической статистике
Авторы/Редакторы : 
Дата публикации :  2012
Издательство :  Юрайт
Библиографическое описание :  Гмурман, В. Е. Руководство к решению задач по теории вероятностей и математической статистике [Электронный ресурс] : учеб. пособие для вузов : электрон. копия / Гмурман В. Е. — М. : Юрайт, 2012. — on-line
Аннотация :  Гриф.
Другие идентификаторы :  RU/НТБ СГАУ/WALL/519/Г 559-502438
Ключевые слова:  функция одного случайного аргумента
функция двух случайных аргументов
функции распределения
система двух случайных величин
теория корреляции
теория вероятностей
теоремы
теорема Чебышева
теорема Лапласа
плотность распределения
повторение испытаний
формула Бейеса
формула Бернулли
статистические гипотезы
стационарные случайные функции
дискретные случайные величины
вероятности случайных величин
математическая статистика
критерий Кочрена
критерий Пирсона
критерий Вилкоксона
критерий Бартлетта
моделирование случайных величин
выборка
выборочный метод
закон Пуассона
закон больших чисел
корреляционная теория случайных функций
корреляция Кендалла
корреляция Спирмена
метод Монте-Карло
неравенство Чебышева
параметры распределения
Располагается в коллекциях: Ресурсы ограниченного доступа

Все ресурсы в архиве электронных ресурсов защищены авторским правом, все права сохранены.

В пособии (8-е изд. — 2003 г.) приведены необходимые теоретические сведения и формулы, даны решения типовых задач, помещены задачи для самостоятельного решения, сопровождающиеся ответами и указаниями. Большое внимание уделено методам статистической обработки экспериментальных данных.
Для студентов вузов. Может быть полезно лицам, применяющим вероятностные и статистические методы при решении практических задач.
ОГЛАВЛЕНИЕ
ЧАСТЬ ПЕРВАЯ. СЛУЧАЙНЫЕ СОБЫТИЯ
Глава первая. Определение вероятности………8
§ 1. Классическое и статистическое определения вероятности… 8
§ 2. Геометрические вероятности………12
Глава вторая. Основные теоремы………18
§ 1. Теорема сложения и умножения вероятностей……….18
§ 2. Вероятность появления хота бы одного события………..29

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

1

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

2

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

3

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

4

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

5

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

6

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

7

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

8

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

9

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

10

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

11

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

12

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

13

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

14

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

15

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

16

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

17

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

18

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

19

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

20

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

21

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

22

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

23

§ 3. Формула полной вероятности………..31
§ 4. Формула Бейеса………..32
Глава третья. Повторение испытаний……….37
§ 1. Формула Бернулли…………37
§ 2. Локальная и интегральная теоремы Лапласа……….39
§ 3. Отклонение относительной частоты от постоянной вероятности в независимых испытаниях……..43
§ 4. Наивероятнейшее число появлений события в независимых испытаниях………46
§ 5. Производящая функция………….50

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

24

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

25

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

26

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

27

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

28

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

29

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

30

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

31

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

32

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

33

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

34

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

35

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

36

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

37

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

38

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

39

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

40

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

41

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

42

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

43

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

44

ЧАСТЬ ВТОРАЯ. СЛУЧАЙНЫЕ ВЕЛИЧИНЫ
Глава четвертая. Дискретные случайные величины………52
§ 1. Закон распределения вероятностей дискретной случайной
величины. Законы биномиальный и Пуассона………….52
§ 2. Простейший поток событий…………..60
§ 3. Числовые характеристики дискретных случайных величин…..63
§ 4. Теоретические моменты……….79

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

45

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

46

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

47

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

48

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

49

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

50

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

51

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

52

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

53

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

54

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

55

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

56

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

57

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

58

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

59

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

60

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

61

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

62

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

63

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

64

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

65

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

66

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

67

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

68

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

69

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

70

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

71

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

72

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

73

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

74

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

75

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

76

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

77

Глава пятая. Завой больших чисел……..82
§ 1. Неравенство Чебышева……..82
§ 2. Теорема Чебышева………..85
Глава шестая. Функция плотности распределения вероятностей случайных величин…………87
§ 1. Функция распределения вероятностей случайной величины….87
§ 2. Плотность распределения вероятностей непрерывной случайной величины………..91
§ 3. Числовые характеристики непрерывных случайных величин……94
§ 4. Равномерное распределение……….106
§ 5. Нормальное распределение……….109
§ 6. Показательное распределение и его числовые характеристики……114
§ 7. Функция надежности………..119
Глава седьмая. Распределение функции одного и двух случайных аргументов……….121
§ 1. Функция одного случайного аргумента………..121
§ 2. Функция двух случайных аргументов……..132
Глава восьмая. Система двух случайных величин……137
§ 1. Закон распределения двумерной случайной величины………137
§ 2. Условные законы распределения вероятностей составляющих дискретной двумерной случайной величины……..142
§ 3. Отыскание плотностей и условных законов распределения составляющих непрерывной двумерной случайной величины….144
§ 4. Числовые характеристики непрерывной системы двух случайных величин………..146

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

78

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

79

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

80

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

81

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

82

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

83

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

84

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

85

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

86

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

87

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

88

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

89

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

90

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

91

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

92

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

93

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

94

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

95

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

96

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

97

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

98

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

99

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

100

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

101

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

102

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

103

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

104

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

105

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

106

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

110

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

111

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

112

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

113

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

114

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

115

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

116

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

117

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

118

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

119

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

120

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

121

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

122

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

123

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

124

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

125

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

126

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

127

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

128

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

129

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

130

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

131

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

132

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

133

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

134

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

135

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

136

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

137

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

138

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

139

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

140

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

141

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

142

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

143

ЧАСТЬ ТРЕТЬЯ. ЭЛЕМЕНТЫ МАТЕМАТИЧЕСКОЙ СТАТИСТИКИ
Глава девятая. Выборочный метод………151
§ 1. Статистическое распределение выборки………151
§ 2. Эмпирическая функция распределения………152
§ 3. Полигон и гистограмма………….152
Глава десятая. Статистические оценки параметров распределения……….157
§ 1. Точечные оценки…………157
§ 2. Метод моментов……….. 163
§ 3. Метод наибольшего правдоподобия………. 169
§ 4. Интервальные оценки………. 174

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

144

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

145

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

146

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

147

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

148

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

149

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

150

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

151

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

152

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

153

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

154

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

155

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

156

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

157

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

158

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

159

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

160

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

161

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

162

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

163

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

164

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

165

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

166

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

167

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

168

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

169

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

170

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

171

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

172

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

173

Глава одиннадцатая. Методы расчета сводных характеристик выборки….181
§ 1. Метод произведений вычисления выборочных средней и дисперсии……….181
§ 2. Метод сумм вычисления выборочных средней и дисперсии…..184
§ 3. Асимметрия и эксцесс эмпирического распределения……..186
Глава двенадцатая. Элемент теории корреляции……… 190
§ 1. Линейная корреляция…….. 190
§ 2. Криволинейная корреляция…….. 196
§ 3. Ранговая корреляция……… 201
Глава тринадцатая. Статистическая проверка статистических гипотез….206
§ 1. Основные сведения……….. 206
§ 2. Сравнение двух дисперсий нормальных генеральных совокупностей ……….. 207
§ 3. Сравнение исправленной выборочной дисперсии с гипотетической генеральной дисперсией нормальной совокупности……… 210
§ 4. Сравнение двух средних генеральных совокупностей, дисперсии которых известны (большие независимые выборки)… 213
§ 5. Сравнение двух средних нормальных генеральных совокупностей, дисперсии которых неизвестны и одинаковы (малые
независимые выборки)………. 215
§ 6. Сравнение выборочной средней с гипотетической генеральной средней нормальной совокупности……. 218
§ 7. Сравнение двух средних нормальных генеральных совокупностей с неизвестными дисперсиями (зависимые выборки)……. 226
§ 8. Сравнение наблюдаемой относительной частоты с гипотетической вероятностью появления события……….. 229
§ 9. Сравнение нескольких дисперсий нормальных генеральных совокупностей по выборкам различного объема. Критерий Бартлетта………… 231
§ 10. Сравнение нескольких дисперсий нормальных генеральных совокупностей по выборкам одинакового объема. Критерий Кочрена…………. 234
§ 11. Сравнение двух вероятностей биномиальных распределений …….237
§ 12. Проверка гипотезы о значимости выборочного коэффициента корреляции…….. 239
§ 13. Проверка гипотезы о значимости выборочного коэффициента ранговой корреляции Спирмена…………. 244
§ 14. Проверка гипотезы о значимости выборочного коэффициента ранговой корреляции Кевдалла……… 246
§ 15. Проверка гипотезы об однородности двух выборок по критерию Вилкоксона…….. 247
§ 16. Проверка гипотезы о нормальном распределении генеральной совокупности по критерию Пирсона………. 251
§ 17. Графическая проверка гипотезы о нормальном распределении генеральной совокупности. Метод спрямленных диаграмм …..259

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

174

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

175

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

176

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

177

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

178

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

179

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

180

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

181

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

182

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

183

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

184

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

185

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

186

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

187

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

188

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

189

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

190

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

191

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

192

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

193

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

194

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

195

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

196

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

197

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

198

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

199

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

200

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

201

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

202

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

203

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

204

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

205

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

206

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

207

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

208

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

209

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

210

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

211

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

212

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

213

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

214

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

215

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

216

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

217

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

218

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

219

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

220

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

221

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

222

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

223

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

224

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

225

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

226

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

227

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

228

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

229

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

230

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

231

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

232

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

233

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

234

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

235

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

236

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

237

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

238

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

239

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

240

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

241

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

242

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

243

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

244

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

245

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

246

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

247

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

248

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

249

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

250

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

251

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

252

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

253

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

254

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

255

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

256

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

257

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

258

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

259

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

260

§ 18. Проверка гипотезы о показательном распределении генеральной совокупности………. 268
§ 19. Проверка гипотезы о распределении генеральной совокупности по биномиальному закону………… 272
§ 20. Проверка гипотезы о равномерном распределении генеральной совокупности…………. 275
§ 21. Проверка гипотезы о распределении генеральной совокупности по закону Пуассона………. 279
Глава четырнадцатая. ОдиофякторныЙ дисперсионный шпштч………. 283
§ 1. Одинаковое число испытаний на всех уровнях…………… 283
§ 2. Неодинаковое число испытаний на различных уровнях……. 289

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

261

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

262

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

263

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

264

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

265

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

266

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

267

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

268

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

269

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

270

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

271

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

272

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

273

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

274

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

275

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

276

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

277

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

278

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

279

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

280

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

281

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

282

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

283

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

284

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

285

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

286

ЧАСТЬ ЧЕТВЕРТАЯ. МОДЕЛИРОВАНИЕ СЛУЧАЙНЫХ ВЕЛИЧИН
Глава пятнадцатая. Моделирование (разыгрывание) случайных величин методом Мот-Каряо…….294
§ 1. Разыгрывание дискретной случайной величины……….294
§ 2. Разыгрывание полной группы событий……….295
§ 3. Разыгрывание непрерывной случайной величины………297
§ 4. Приближенное разыгрывание нормальной случайной величины………….302
§ 5. Разыгрывание двумерной случайной величины………….303
§ 6. Оценка надежности простейших систем методом Монте-Карло………….307
§ 7. Расчет систем массового обслуживания с отказами методом Монте-Карло…………311
§ 8. Вычисление определенных интегралов методом Монте-Карло ……….. 317

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

287

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

288

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

289

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

290

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

291

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

292

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

293

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

294

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

295

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

296

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

297

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

298

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

299

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

300

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

301

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

302

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

303

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

304

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

305

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

306

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

307

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

308

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

309

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

310

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

311

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

312

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

313

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

314

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

315

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

316

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

317

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

318

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

319

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

320

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

321

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

322

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

323

ЧАСТЬ ПЯТАЯ. СЛУЧАЙНЫЕ ФУНКЦИИ
Глава шестнадцатая. Корреляционная теории случайных функций…. 330
§ 1. Основные понятия. Характеристики случайных функций… 330
§ 2. Характеристики суммы случайных функций……….337
§ 3. Характеристики производной от случайной функции………339
§ 4. Характеристики интеграла от случайной функции………342
Глава семнадцатая. Стационарные случайные функции………347
§ 1. Характеристики стационарной случайной функции……..347
§ 2. Стационарно связанные случайные функции……..351
§ 3. Корреляционная функция производной от стационарной случайной функций…………352
§ 4. Корреляционная функция интеграла от стационарной случайной функции………….355
§ 5. Взаимная корреляционная функция дифференцируемой стационарной случайной функции и ее производных……….357
§ 6. Спектральная плотность стационарной случайной функции…..360
§ 7. Преобразование стационарной случайной функции стационарной линейной динамической системой………..369

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

324

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

325

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

326

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

327

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

328

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

329

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

330

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

331

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

332

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

333

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

334

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

335

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

336

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

337

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

338

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

339

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

340

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

341

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

342

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

343

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

344

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

345

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

346

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

347

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

348

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

349

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

350

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

351

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

352

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

353

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

354

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

355

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

356

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

357

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

358

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

359

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

360

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

361

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

362

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

363

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

364

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

365

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

366

Ответы………….373

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

1

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

2

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

3

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

4

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

5

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

6

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

7

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

8

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

9

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

10

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

11

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

12

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

13

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

14

Приложения………….387

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

1

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

2

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

3

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

4

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

5

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

6

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

7

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

8

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

9

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

10

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

11

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

12

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

13

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

14

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

15

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

16

Решения задач по теории вероятностей и математической статистике из сборника Гмурмана В.Е.  ОНЛАЙН

17

Понравилась статья? Поделить с друзьями:
  • Руководство санкт петербургского университета гпс
  • Душевая кабина джакузи с турецкой баней руководство
  • Diablo 3 руководство по варвару
  • Руководство налоговой ростовской области
  • Порядок регулировки клапанов ваз 2107 инжектор своими руками пошаговая инструкция