Основные понятия теории вероятностей icon

Основные понятия теории вероятностей





Скачать 367.88 Kb.
НазваниеОсновные понятия теории вероятностей
Дата конвертации21.05.2013
Размер367.88 Kb.
ТипДокументы
Часть ІІЙ. Теория вероятностей.

Глава 1. Основные понятия теории вероятностей.


§1. Элементы комбинаторики.

Определение 1. Комбинаторика ЁC это раздел математики, изучающий вопросы о том, сколько комбинаций определенного типа можно составить из данных предметов.


Определение 2. Различные группы, составленные из каких ЁC либо элементов, и отличающиеся одна от другой либо их порядком, либо элементами, называются соединениями.

Различают три вида соединений:

перестановки;

сочетания;

размещения.

Определение 3. Перестановками называются такие соединения из «n» элементов, которые составлены из одних и тех же элементов и отличаются только порядком следования элементов.

Обозначаются перестановки µ §

µ §


µ §


Пример: Сколькими способами можно разместить 5 человек за одним столом? µ §


Определение 4. Сочетаниями называются такие соединения, которые взяты из «n» элементов по «m» в каждом и отличаются друг от друга хотя бы одним элементом (порядок следования элементов не учитывается).


µ §

Пример: Сколькими способами можно заполнить карточки спортлото 6 из 49?

µ §


Определение 5. Размещениями называются соединения из «n» элементов по «m» в каждом, отличающиеся одно от другого как самими элементами, так и их порядком.

µ §

Пример: Сколькими способами можно составить расписание, состоящее из 3-х пар на 1 день по 7 предметам.

µ §


§2. Предмет теории вероятностей.


В единичных случаях наступление многих явлений заранее предсказать нельзя, но если рассматривать их как массовые, однородные явления, то выявляются определенные закономерности.

Например, при подбрасывании монеты нельзя предсказать, какой стороной она упадет (орел или решка), при достаточно большом числе бросаний вскрывается закономерность: орел и решка выпадают приблизительно поровну.

Рождение близнецов - случайное событие, по при изучении этого события как массового, установлена закономерность: на каждые 1000 родов приходится в среднем 12 двойняшек и на каждые 8000 родов-1 тройня.

Устойчивость обнаруживают все массовые однородные явления: всхожесть семян, урожайность культур, плодовитость и продуктивность животных, число поражений мишени при большом числе выстрелов из одного и того же орудия и т.д.


Изучение закономерностей однородных массовых случайных явлений составляет предмет теории вероятностей и основанной на ней математической статистики.


§3. Основные понятия теории вероятностей. Пространство элементарных событий.


Испытание - это опыт, наблюдение, эксперимент.

Событие ЁC это результат (исход) испытания.


Пример: сев зерен ЁC испытание; всходы ЁC событие


События обозначают заглавными буквами латинского алфавита: А, В, С, ЎK .


Определение 3. Событие называется случайным, если при данных испытаниях оно может произойти или нет; достоверным, если обязательно произойдет при данных испытаниях; невозможным, если при данных испытаниях никогда не произойдет.


Случайные события:


Пример: Бросают игральную кость.

Выпало 6 очков ЁC событие случайное

- АА - четное число очков ЁC событие достоверное

- АА - 0 очков событие невозможное.

Множество всех исходов данного явления называется пространством элементарных событий, относящихся к этому явлению.


§4. Классификация случайных событий. Множество всех исходов данного


Определение 1. Событие µ §, состоящее в не появлении события А, называется ему противоположным.


Пример: А ЁC попадание в цель; µ § - промах.


Определение 2. События А, В, С называются несовместными, если в условиях данных испытаний возможно появление только одного из них, т.е. они не могут появиться одновременно.


Пример: µ §

Замечание.

Противоположные события ЁC это частный случай несовместных событий.


Определение 3. События А и В называются независимыми, если появление одного из них изменяет вероятность наступления другого.


Пример: Два стрелка стреляют в цель.

µ §


Определение 4. События А и В называются равновозможными, если нет оснований считать, что в данных испытаниях событие А произойдет чаще, чем событие В.


Пример: При подбрасывании монеты выпадет орел или решка.


Определение 5. События А, В и С называются единственно возможными, если при данных испытаниях произойдет одно из них и никакое другое.


Пример: Светофор ЁC после красного загорится желтый, затем - зеленый и т.д.


Определение 6. Совокупность всех несовместных и единственно возможных событий называется полной системой событий.


Пример: Шкала оценок (1-5); число очков на игральной кости (1-6).


§5. Классическое определение вероятности.


Используется, когда исходы равновозможны и число их конечное.


Определение 1. Вероятностью события А называется отношение числа благоприятствующих данному событию исходов к общему числу всех возможных и равновозможных исходов испытания.

Это классическое определение вероятности.


µ §

Пример: В коробке 30 карандашей, из них 5 красных. Карандаши перемешали. Какова вероятность того, что достанем красный карандаш.

µ §

Свойства вероятностей событий:


Вероятность достоверного события = 1

µ §

Вероятность невозможного

события = 0

µ §

Вероятность случайного события находится в пределах от 0 до 1, т.е. это правильная положительная дробь.

µ §

Вероятность любого события удовлетворяет неравенству:

µ §


§6. Относительная частота (частость) события.


Пусть произведено N независимых испытаний на наступление события А и пусть событие А наступило ровно М раз.


Определение 1. Относительной частотой события А называется отношение числа испытаний, в которых событие наступило к общему числу проведенных испытаний.

µ § µ §


Пример: В партии 100 изделий, из которых 4- бракованные. Какова частость появления бракованного изделия?

µ §

§7. Статистическая вероятность события.


Пусть проведена серия N- испытаний

µ §- событие А наступило µ § раз

µ §- событие А наступило µ § раз

ЎK . ЎKЎKЎK. .. ЎKЎKЎKЎK ЎK ЎK.

µ §- событие А наступило µ § раз.

µ § , т.е.

Получена последовательность частот µ §


Определение 1. Предел последовательности относительных частот при µ §называется статистической вероятностью события.

µ §


Статистическое определение вероятности, как и понятия и методы теории вероятностей в целом, применимы не к любым событиям с неопределенным исходом, а только к тем из них, которые обладают определенными свойствами.


§8. Геометрическое определение вероятности.


Определение 1. Геометрической вероятностью события А называется отношение геометрических мер: длин, площадей, объемов.


µ §


Пушка


s


S


Мост


Пример. Произошел обрыв телефонной линии, соединяющей пункты A и B, расстояние между которыми 2000м.

Какова вероятность того, что обрыв произошел в 400м от пункта A?


Решение.

L=2000, l =400


P=400:2000=0,2


§9. Алгебра событий.


Определение 1. Суммой (объединением) двух событий А и В называют такое событие С, которое состоит в том, что наступит хотя бы одно из этих событий.

µ §


Для совместных событий: или А, или В, или А и В вместе.

Для несовместных событий: или А, или В.


Пример: А - 1-й стрелок попал

В - 2-й стрелок попал

С =А+В ЁC цель поражена


Определение 2. Произведением (совмещением) двух событий А и В называется такое событие С, которое состоит в совместном наступлении событий А и В.

µ §

и событие А, и событие В.


Пример: А - 1-й стрелок попал

В - 2-й стрелок попал

С =А·В ЁC оба стрелка попали.


Пример: Пусть А ЁC высказывание « Первая бригада выполнила план», В ЁC высказывание «Вторая бригада выполнила план». Записать в виде формул следующие высказывания:


а) «Хотя бы одна бригада выполнила план»

б) «Обе бригады выполнили план»

в) «Ни одна бригада не выполнила план»

г) «План выполнила только первая бригада»

д) «План выполнила только вторая бригада»

е) «План выполнила только одна бригада»

Решение:

а) А+В

б) А В

в)  §

г) А  §

д)  § В

е) А  § + А  §


§10. Понятие условной вероятности.


Как отмечено выше, вероятность Р (В) как мера степени объективной возможности наступления события В имеем смысл при выполнении определенного комплекса условий. При изменении условий вероятность события В может измениться.


Определение 1. Вероятность события В,

зависящего от А, вычисленная при условии, что произошло А, называется условной вероятностью события В и обозначается.

µ §

Пример: Для некоторой местности среднее число дождливых дней в августе равно 15.К.в.т.,ч. 2-го августа будет дождь?

Пусть А ЁC событие 1.08 ЁC дождь,

В ЁC событие 2.08 - дождь


µ §

В ЁC зависит от А, µ §


§11. Теорема умножения двух зависимых событий.


Теорема. Вероятность совместного наступления двух зависимых событий А и В равна произведению вероятности одного из них на условную вероятность другого, в предположении, что первое событие уже произошло.

µ § µ §

Доказательство: Пусть проводится «n» независимых испытаний.


Событие А благоприятствует m исходам µ §. Событие В благоприятствует k исходам µ §, при условии, что событие А произошло.

Тогда

µ §, а т.к. события А и В могут произойти вместе только в «k» случаях, то

µ §µ § , ч.т.д.

Следствие 1. Теорема (1) легко обобщается на случай произвольного числа событий

µ §

При этом вероятность каждого последующего события вычисляется в предположении, что все предыдущие события произошли.


Следствие 2. Для любого из событий А и В справедливо равенство

µ §, т.е. теорема (1) обладает коммутативностью умножения µ §


Пример: См. условие предыдущей задачи. К.в.т.,ч. 1, 2, 3 августа будут дождливы?

А ЁC 1.08. ЁC дождь

В ЁC 2.08. ЁC дождь

С ЁC 3.08. ЁC дождь

µ §


§12. Теорема умножения для независимых событий.


Пусть события А и В ЁC независимы, тогда µ §


Теорема. Вероятность совместного наступления двух независимых событий А и В равна произведению вероятностей этих событий.

µ § µ §


Следствие. Вероятность совместного появления нескольких событий, независимых в совокупности, равна произведению вероятностей этих событий.

µ §

Пример: Имеется 3 ящика, содержащих по 10 деталей. В первом ящике 8, во втором 7 и в третьем 9 стандартных деталей. Из каждого ящика наудачу выбирают по одной детали. К.в.т.,ч. все три вынутые детали окажутся нестандартными?

µ §

µ §


§13. Теорема сложения вероятностей несовместных событий.


Теорема. Вероятность наступления хотя бы одного из двух несовместных событий А или В равна сумме вероятностей этих событий.

µ § µ §

Доказательство:


Пусть проводится серия «n» независимых испытаний. Событию А благоприятствует

«µ §» исходов. Событию В благоприятствует

«µ §» исходов

µ §

Т.к. события А и В несовместные, то ни один из случаев, благоприятствующих одному из этих событий, не благоприятствует другому. Поэтому событию (А+В) будет благоприятствовать µ § случаев.


Следовательно,

µ §µ § , ч.т.д.


Пример: В денежно - вещевой лотерее на каждые 10000 билетов разыгрывается 150 вещевых и 50 денежных выигрышей. Чему равна вероятность выигµ §


Следствие 1. Данная теорема справедлива для «n» несовместных событий.

µ §


Следствие 2. Сумма вероятностей событий, образующих полную систему, равна 1.

µ §

Доказательство: Если µ § - события несовместные и единственно возможные, то они образуют полную систему событий.

Так как события µ § единственно возможные, то событие µ §, состоящее в появлении хотя бы одного из этих событий, является событием достоверным, т.е. его вероятность равна 1.

µ §

В силу того, что события µ § - несовместные, к ним применима теорема сложения вероятностей, т.е.

µ § ч.т.д.

Следствие 3. Сумма вероятностей противоположных событий равна 1.

µ §,

где µ §

Данное утверждение следует из того, что противоположные события образуют полную систему событий. Принято обозначать µ §. Следовательно µ §.

Пример. Если вероятность попадания в цель р = 0,8, то вероятность промаха q = 0,2.


§14. Теорема сложения для совместных событий.


Теорема. Вероятность появления хотя бы одного из двух совместных событий равна сумме вероятностей этих событий без вероятности их совместного наступления.

µ § µ §

В случае 3-х и более совместных событий формула будет очень громоздка. Так, для 3-х событий:

µ §

Поэтому проще перейти к противоположному событию и использовать формулу:

µ § или µ §, т.е.


Определение 1. Вероятность суммы событий µ §, независимых в совокупности, равна разности между единицей и произведением вероятностей противоположных событий µ §.


Частный случай. Если события µ §имеют одинаковую вероятность, равную «р», то вероятность появления хотя бы одного из этих событий равна: µ §

Пример: В типографии имеется 4 плоскопечатные машины. Для каждой машины вероятность того, что она работает в данный момент = 0,9. К.в.т., ч. в данный момент работает хотя бы одна машина (событие А).

µ §


Замечание. При использовании формулы (4) следует иметь в виду, что события А и В могут быть как независимыми, так и зависимыми.

Для независимых событий:

µ §

Для зависимых событий:

µ §


Пример 1: Устройство содержит два независимо работающих элемента. Вероятность отказа1-го из них ЁC 0,05;2-го - 0,08. К.в.т.,ч. откажет все устройство, если для этого достаточно, чтобы отказал хотя бы один элемент?

µ §

Пример 2: На 100 лотерейных билетов приходится 5 выигрышных. К.в. выигрыша хотя бы по одному билету, если приобретено 2.

µ §


§15. Вероятность появления только одного события.


Пусть вероятности появления каждого из двух независимых событий µ § и µ § соответственно равны µ § и µ §. Найдем вероятность появления только одного из этих событий.

Имеем событие  §

µ §


Пример: Два стрелка стреляют по мишени. Вероятность попадания в мишень при одном выстреле для 1-го стрелка = 0,7, для 2-го = 0,8. К.в.т.,ч. при одном залпе в мишень попадет только один стрелок.

µ §


§16. Формула полной вероятности. Формула Байеса.


Теорема. Если событие А может произойти только при условии появления одного из событий (гипотез) µ §, образующих полную систему событий, то вероятность события А равна сумме произведений вероятностей каждого из этих событий (гипотез) на соответствующие условные вероятности события А.

µ § , где µ §

Доказательство:

По условию события (гипотезы) µ §образуют полную систему => они единственно возможные и несовместные. Т.к. гипотезы µ § - единственно возможные, а событие А по условию теоремы может произойти только вместе с одной из гипотез, то

µ §

В силу того, что гипотезы µ § несовместны, можно применить теорему сложения вероятностей:

µ §.

По теореме умножения для зависимых событий µ §, откуда получаем

µ § , ч.т.д.


Пример: Известна сеть дорог между пунктами M и N.


M

4

2

1


3


N

Какова вероятность того, что путник дойдет из M в N?

А ЁC путник дойдет.

В1 ЁC пошел по 1 дороге

В2 - пошел по 2 дороге

В3 ЁC пошел по 3 дороге

В4 ЁC пошел по 4 дороге


Пример: В урну, содержащую два шара, опущен белый шар, после чего из нее наудачу извлечен один шар. К.в.т.,ч. извлеченный шар окажется белым, если равновероятны все возможные предположения о первоначальном составе шаров (по цвету).


Решение. А - извлечен белый шар

Гипотезы о первоначальном составе шаров:

µ § - белых шаров нет;

µ § - один белый шар;

µ § - два белых шара.

Т.к. все гипотезы равновероятны и сумма их вероятностей = 1, то вероятность каждой из гипотез = 1/3 , т.е. µ §

Условная вероятность того, что будет извлечен белый шар, при условии, что первоначально в урне не было белых шаров,

µ §(по первой гипотезе)

По второй гипотезе - µ §


По третьей гипотезе - µ §


Искомую вероятность найдем по формуле:

µ §

Следствием теоремы умножения и формулы полной вероятности является формула Байеса.

Она применяется, когда событие А, которое может появится только с одной из гипотез µ §, образующих полную систему событий, произошло и необходимо произвести количественную переоценку априорных вероятностей этих гипотез µ §, известных до испытания, т.е. надо найти апостериорные (получаемые после проведения испытания) условные вероятности гипотез µ §.

µ § - формула Байеса


Доказательство:

Воспользуемся теоремой умножения вероятностей событий А и µ §в двух формах:

µ §, откуда

µ §, с учетом формулы полной вероятности:

µ § имеем

µ §, ч.т.д.


Пример: Два автомата производят одинаковые детали, которые поступают на общий конвейер. Производительность первого автомата вдвое больше производительности второго. Первый автомат производит в среднем 60% деталей отличного качества, а второй ЁC 84%. Наудачу взятая с конвейера деталь оказалась отличного качества. К.в.т.,ч. эта деталь произведена первым автоматом.


Решение: А - деталь отличного качества;


Гипотезы

µ § - деталь произведена первым автоматом;

µ § - АА 2-м АА АА

µ § µ §

µ § µ §

µ §

Искомая вероятность того, что взятая отличная деталь произведена 1-м автоматом по формуле Байеса равна:

µ §


Часть ІІЙ. Теория вероятностей.


Глава 3. Повторение независимых испытаний.


§17. Повторные независимые испытания. Формула Бернулли.


Теорема . Вероятность того, что в серии

n ЁC независимых испытаний с постоянной вероятностью наступления события в каждом отдельном испытании µ § и ненаступления события (q), событие А наступит ровно m раз вычисляется по формуле БЕРНУЛЛИ:


µ § или


µ §, ч.т.д.


Пример: Вероятность того, что из яйца выведется петушок - µ §, курочка - µ §.

Что вероятнее:

что из 4 яиц будет 2 курочки или

что из 6 яиц будет 3 курочки? (негодных яиц нет).


µ §µ §

µ §


µ §

Ответ: вероятнее получить 2 курочки из 4 яиц.

Теорема Бернулли может быть использована только при µ § и µ §.


Далее определим вероятность того, что в

n ЁC испытаниях событие наступит:

менее m раз: µ §;

более m раз: µ §;

не менее m раз: µ §;

не более m раз: µ §.


§18. Локальная теорема Лапласа.


Теорема. Вероятность того, что в серии

n ЁC независимых испытаний событие А наступит m раз, если только вероятность появления события в каждом отдельном испытании постоянна µ §, вычисляется по формуле:

µ § µ §,

где µ §

Формула тем точнее, чем больше n.

Определение 1. Выражение µ § - называется локальной функцией Лапласа.


Значения этой функции вычислены и помещены в специальную таблицу. Для решения задач пользуются рабочей формулой:

µ § , где µ §


Свойства функции µ §


µ §

µ §- функция четная, график симметричен относительно оси ОУ.

С осью ОХ не пересекается, так как µ §- показательная функция и нулем быть не может.

В точке х=0 функция достигает µ §

µ §

При µ §


- кривая Гаусса или кривая распределения вероятностей


Пример: Вероятность того, что в колосе пшеницы будет ровно 40 зерен = 0,2. К.в.т.,ч. среди 4 тысяч колосьев будет 800 штук таких, у которых в колосе будет 40 зерен?

µ §


Замечания:

Переменную х всегда нужно вычислять с двумя знаками после запятой.

Если µ §, то формула Лапласа дает большую погрешность.

Следовательно, формула (2) применяется, если µ §


§19. Теорема Пуассона.


Теорема. Если вероятность р наступления события А в каждом испытании стремится к нулю µ § при неограниченном увеличении числа n испытаний µ §, причем произведение µ § стремится к постоянному числу µ §, то вероятность µ § того, что событие А появится m раз в n независимых испытаниях, удовлетворяет предельному равенству:


µ §, где µ §


Это формула Пуассона (формула редких событий).


Формула Пуассона используется при µ §

Параметр л можно искать иначе, если указано среднее число µ § появления события за единицу какой ЁC нибудь области и размер области, то тогда µ §.

Закону Пуассона подчиняются:

Число б- частиц, испускаемых радиоактивным изотопом в единицу времени;

Число вызовов, поступающих на телефонную станцию в единицу времени;

Число самолетов, принимающих в аэропорт за какую- нибудь единицу времени.

Теорема Пуассона чаще всего применяется в теории массового обслуживания.


Пример 1: Завод отправил на базу 5000 доброкачественных изделий. Вероятность того, что в пути изделие повредится = 0,0002. К.в.т.,ч. на базу прибудут 3 негодных изделия?

µ §

Пример 2: Коммутатор учреждения обслуживает 100 абонентов. Вероятность того, что в течение одной минуты абонент позвонит на коммутатор = 0,02. Какое из событий вероятнее: в течение одной минуты позвонит 3 абонента или 4 абонента?

µ §


§20. Наивероятнейшее число появлений события А в серии

n ЁC независимых испытаний.


Определение 1. Наивероятнейшим числом наступления события А в серии

n ЁC независимых испытаний называется такое число µ § наступлений этого события, которому соответствует наибольшая вероятность.


Формулы нахождения наивероятнейшего числа.

1. Если µ § - целое число, то µ §

2. Если µ § - дробное, то µ § находят из неравенств:

µ §


Пример: Вероятность всхожести семян 0,8. Найти наивероятнейшее число всходов, если посадили 38 зерен?

µ §


§21. Интегральная теорема Лапласа.


Пусть проводится серия n ЁC независимых испытаний на наступление события А, в каждом из которых вероятность появления события А постоянна и равна р µ §.


Теорема. Вероятность того, что событие А в серии n ЁC независимых испытаний появится не менее µ § - раза и не более µ § - раз приближенно равна:

µ §,


где µ § ;


µ §


При решении такого вида задач пользуются специальными таблицами.


Свойства функции Ф(х):


Функция Ф(х) нечетная, т.е. µ §;


Наименьшее значение функция принимает в точке х=0 µ §;


Наибольшее значение функция принимает при х=5 µ §;


Для всех х>5 берут значение µ §.


Пример: Вероятность того, что вес зерен гороха 0,25г. = 0,3. К.в.т.,ч. среди взятых 200 штук, с этим весом будет от 50 до 70 штук.


µ §

Следствие. Если вероятность р наступления события А в каждом испытании постоянна и отлична от 0 и 1, то при достаточно большом числе n ЁC независимых испытаний вероятность того, что:

Число m наступлений события А отличается от произведения µ § не более, чем на величину µ § (по абсолютной величине), т.е.

µ §

Частость µ § события А заключена в пределах от б до в (включительно), т.е.

µ § , где


µ §

Отклонение относительной частоты µ § от постоянной вероятности р по абсолютной величине не превышает заданного числа µ §


µ §


Пример 1: В некоторой местности из каждых 100 семей 80 имеют морозильники. К.в.т.,ч. от 280 до 360 семей из 400 имеют морозильники.

Воспользуемся следствием (а)

µ §

Пример 2: По статистическим данным в среднем 87% новорожденных доживают до 50 лет. К.в.т.,ч. из 1000 новорожденных доля (частость) доживших до 50 лет будет:


заключена в пределах от 0,9 до 0,95


будет отличаться от вероятности этого события не более, чем на 0,04 (по абсолютной величине).


Решение

µ §

µ §

Так как неравенство µ § µ § неравенству µ §, то полученный результат означает, что практически достоверно, что от 0,83 до 0,91 числа новорожденных из 1000 доживут до 50 лет.


Часть ІІЙ. Теория вероятностей.


Глава 4. Дискретная случайная величина.


§22. Основные понятия.


Определение 1. Величина х, принимающая в зависимости от некоторых обстоятельств значения µ §, имеющие определенные вероятности, называется случайной величиной и обозначается: µ §.


Определение 2. Дискретной - называется такая случайная величина, которая принимает отдельные изолированные значения.


Пример 1: Если х ЁC число попаданий в цель (0, 1, 2, 3 ЎK).


Пример 2: х ЁC количество зерен в колосе (0, 1, 2 ЎK 50).


Пример 3: х ЁC количество студентов, которые учатся на «хорошо» и «отлично».


Определение 3. Совокупность значений случайной величины и соответствующих им вероятностей называется законом распределения случайной величины.

µ §µ §µ §ЎKµ §µ §µ §µ §ЎKµ §µ §


µ §


Пример: Пусть х - число выпавших очков на игральной кости:

µ §123456µ §µ §µ §µ §µ §µ §µ §


µ §

Для наглядности закона распределения дискретной случайной величины его можно изобразить графиком в виде полигона или многоугольника распределения вероятностей.


Полученная ломаная линия µ §соединяет на плоскости точки с координатами. Причем, µ §соединяют с (0;0), а µ § - с µ §.


§23. Действия над дискретными случайными величинами.


Определение 1. Дискретные случайные величины х и у называются независимыми между собой, если вероятность любого значения каждой из них не зависит от полученных значений всех остальных.


µ §µ §µ §µ §ЎKµ §µ §µ §µ §µ §ЎKµ §


µ §µ §µ §µ §ЎKµ §µ §µ §µ §µ §ЎKµ §


Определение 2. Алгебраической суммой дискретных случайных независимых величин х и у называется новая случайная величина µ §, которая принимает значения вида: µ §, где


µ § с вероятностями µ §.


Определение 3. Произведением двух дискретных случайных величин х и у называется новая случайная величина µ §, принимающая значения вида µ § с соответствующими вероятностями µ §.


Определение 4. Квадратом случайной величины х называется новая случайная величина µ §, имеющая закон распределения:

µ §µ §µ §µ §ЎKµ §µ §µ §µ §µ §ЎKµ §


Определение 5. Случайную величину х можно умножать на любое действительное число µ §, вероятности при этом остаются без изменения.

µ §µ §µ §µ §ЎKµ §µ §µ §µ §µ §ЎKµ §


Для сравнения случайных величин между собой, служат их числовые характеристики:

µ §- среднее арифметическое взвешенное;

µ §- математическое ожидание;

µ §- дисперсия;

µ §- среднее квадратическое отклонение.


§24. Среднее арифметическое взвешенное.


Пусть произведено N испытаний, в которых случайные величины появлялись соответственно М раз.

µ §µ §µ §µ §ЎKµ §µ §µ §µ §µ §ЎKµ §


µ §


Определение 1. Средним арифметическим взвешенным µ § называется сумма произведений значений случайной величины на их относительные частоты.

µ §

µ §

µ § - вычисляется всегда после опыта и измеряется в тех же единицах, что и

сама случайная величина.


§25. Математическое ожидание.


Если N будет стремиться к µ §, то µ §.


Определение 1. Математическое ожидание дискретной случайной величины есть сумма произведений значений случайной величины на соответствующие вероятности.

µ §

µ §

Для каждой случайной величины ее математическое ожидание µ § есть величина постоянная: µ § для некоторой х.

Пример: В результате испытаний двух приборов установлена вероятность наблюдения помех, оцениваемых по трехбалльной системе:


1 прибор

уровень

помех Х123 0,60,30,1

2 прибор

уровень

помех Y123 0,70,20,1

Какой прибор лучше?


Решение:

М(Х) = 10,6 + 20,3 + 30,1 = 1,5


М(Y) = 10,7 + 20,2 + 30,1 = 1,4


M(X)  §M(Y)


Второй прибор лучше!


Свойства µ §:

Математическое ожидание постоянной величины равно самой постоянной величине.

µ §сµ §1

µ §


Постоянный множитель выносят за знак математического ожидания.

µ §

Математическое ожидание произведения двух независимых случайных величин равно произведению их математических ожиданий.

µ §


Математическое ожидание алгебраической суммы двух независимых случайных величин равно алгебраической сумме их математических ожиданий.

µ §


Математическое ожидание числа появлений события А в «n» независимых испытаниях равно произведению числа испытаний на вероятность появления события в каждом испытании.

µ §

Математическое ожидание отклонения случайной величины от ее математического ожидания равно 0.

µ §


Математическое ожидание квадрата отклонения случайной величины от ее математического ожидания равно разности между математическим ожиданием квадрата случайной величины и квадратом ее математического ожидания.


µ §


§26 Дисперсия.


µ § можно рассматривать как центр, относительно которого происходит рассеивание этой случайной величины, однако, случайные величины могут иметь равные математические ожидания, а сами вести себя будут по-разному. Для сравнения случайных величин служит дисперсия.


Определение 1. Дисперсией случайной величины х называют математическое ожидание квадрата отклонения случайной величины от своего математического ожидания.

µ § или

µ §

На практике пользуются формулой:

µ §

Дисперсия всегда есть величина положительная, т.е. µ §.

Чем больше дисперсия, тем больше рассеивание случайной величины относительно µ §, поэтому при сравнении двух случайных величин, та величина считается более устойчивой, у которой меньше дисперсия.


Пример: Имеются 2 сорта пшеницы:


1 сорт

Пшеница Х182022 0,10,70,2


2 сорт

Пшеница Y182022 0,20,50,3

Какой сорт лучше?


Решение:

M(X) = 180,1 + 200,7 + 220,2 = 20,2


M(Y) = 180,2 + 200,5 + 220,3 = 20,2


M(X)  §M(Y)


Д(X) = ( §


Д(Y) = ( §


Д(X)  §Д(Y)


2 сорт лучше!


µ § - единицы измерения те же, что у случайной величины.


µ § - единицы квадратные.


Свойства µ §:


Дисперсия постоянной величины

равна 0.

µ §


µ §

Постоянный множитель можно выносить за знак дисперсии, но в квадрате.

µ §


Дисперсия алгебраической суммы случайных величин равна сумме дисперсий этих величин.

µ §


µ §

Дисперсия числа появлений события А в «n» независимых испытаниях равна µ §


µ §

§27. Среднее квадратическое отклонение.


Определение 1. Средним квадратическим отклонением случайной величины называется квадратный корень из дисперсии.

µ §

µ § - характеристика рассеивания, но имеющая ту же размерность, что и сама случайная величина.


Свойства µ §:


В серии «n» независимых испытаний, если µ §, то:

µ §


µ §

µ § - коэффициент вариации. Чем меньше µ §, тем более устойчива случайная величина.

Замечание. Обратим внимание на интерпретацию математического ожидания и дисперсии в финансовом анализе.

Пусть, например, известно распределение доходности Х некоторого актива (например, акции), т.е. известны значения доходности µ § и соответствующие им вероятности µ § за рассматриваемый промежуток времени. Тогда, очевидно, математическое ожидание µ § выражает среднюю (прогнозную) доходность актива, а дисперсия µ § или среднее квадратическое отклонение µ § - меру отклонения, колебленности доходности от ожидаемого среднего значения, т.е. риск данного актива.


Часть ІІЙ. Теория вероятностей.


Глава 5. Непрерывная случайная величина.


§28. Способы задания непрерывной случайной величины.


Определение 1. Случайная величина называется непрерывной, если она принимает все значения некоторого интервала (конечного или бесконечного).

Например: длина стебля; рост человека; длина ступни.

Непрерывная случайная величина может быть задана следующими способами:

Табличный

Графический

Аналитический


28.1 Табличный способ

Непрерывная случайная величина задается таблично в виде закона распределения, который представляет из себя таблицу, в первой строке которой перечислены интервальные изменения случайной величины, а во второй строке соответствующие вероятности или частости.


µ §µ §µ §µ §ЎKµ §µ §µ §µ §µ §ЎKµ §


µ §


Пример: Дается распределение длины колоса пшеницы, где х - длина колоса, N = 100

Составить таблицу распределения по частостям.


µ §7-88-99-1010-1111-1212-1313-14µ §82028241082

По частостям:

µ §7-88-99-1010-1111-1212-1313-14µ §0,080,20,280,240,100,080,02


От непрерывной случайной величины можно перейти к дискретной, заменив интервал изменения непрерывной случайной величины серединой каждого интервала.


µ §7,58,59,510,511,512,513,5µ §0,080,20,280,240,100,080,02

Замечание. Если распределение случайной величины дано по частотам или частостям, то такое распределение называется вариационным рядом. Значения величины х называют вариантами, частоты - весами, а общее число рассматриваемых объектов - объемом совокупности.


28.2Графическое задание.

Непрерывную случайную величину можно изобразить графически - гистограммой.


Определение 2. Гистограммой распределения вероятностей (частостей или частот) называется ступенчатая фигура, составленная из прямоугольников, основаниями которых служат интервалы изменения случайной величины, а высотами вероятности, частоты или частости.


Для непрерывной случайной величины можно построить и полигон, взяв середины интервалов.

28.3 Аналитическое задание непрерывной случайной величины.

Непрерывную случайную величину можно задать еще с помощью функции

µ §- функции распределения вероятностей случайной величины.


Определение 1. Функцией распределения (интегральной функцией распределения) называется вероятность того, что случайная величина Х примет значения в результате испытания меньше, чем х

µ §, т.е. µ §


Свойства функции µ §

Т.к. µ §, то

µ § неотрицательная: µ §

µ §- неубывающая, т.к. для µ §

Если все возможные значения случайной величины находятся в промежутке µ §, то при µ §

Вероятность того, что случайная величина примет значение, заключенное в интервале µ §будет равна:

µ §

µ §- универсальная характеристика случайной величины, так как она существует и для непрерывной , и для дискретной случайной величины.

Для непрерывной случайной величины. ЁC график µ § непрерывная линия.

Для дискретной случайной величины ЁC график µ §имеет ступенчатый вид.


Свойства функции µ §дают представления о графике этой функции:

График расположен в полосе, ограниченной прямыми µ § и µ § (1-е свойство)

при µ §ординаты графика = 0

при µ § ординаты графика = 1


Построим функцию распределения случайной величины Х, закон распределения которой представлен таблицей:

µ §µ §µ §µ §ЎKµ §ЎKµ §µ §µ §µ §µ §ЎKµ §ЎKµ §


при µ § µ §

при µ § µ §

при µ § µ §

приµ § µ §

приµ § µ §

при µ §


Для дискретной случайной величины график функции распределения представляет собой разрывную ступенчатую линию. Когда переменная х проходит через какое-нибудь из возможных значений случайной величины, значение функции распределения меняется скачкообразно, т.е. функция имеет скачок в тех точках, в которых случайная величина принимает конкретное значение согласно закону распределения, причем величина скачка равна вероятности этого значения. Сумма величин всех скачков функции распределения равна 1. В интервалах между значениями случайной величины функция µ § постоянна.


Пример 1: Дана дискретная случайная величина х, заданная законом распределения. Найти функцию распределения и построить ее график.


µ §148µ §0,30,10,6при µ § µ §


при µ § µ §


при µ § µ §


при µ § µ §

µ §


Пример 2: Построить график функции распределения и найти вероятность того, что случайная величина примет значение из интервала µ §

µ §02µ §-10µ § µ §


при µ §µ §


µ §


§29. Плотность распределения вероятностей.


Определение 1. Дифференциальной функцией распределения или плотностью распределения вероятностей называется первая производная интегральной функции распределения µ §.

µ § µ § - первообразная для µ §


Плотность распределения вероятностей µ §, как и функция распределения µ §, является одной из форм закона распределения, но в отличие от функции распределения она существует только для непрерывных случайных величин, поскольку для существования µ § требуется непрерывность и дифференцируемость функции µ §, а для дискретной случайной величины эти требования не выполняются.


График плотности распределения µ § называется кривой распределения.


Свойства плотности распределения вероятностей.

Для любых Х дифференциальная функция распределения µ § неотрицательна, т.е.µ §


Для интегральной и дифференциальной функции распределения имеет место равенство:

µ §


Вероятность того, что случайная величина Х примет значение из интервала µ § равна определенному интегралу от ее плотности вероятности в пределах от б до в


µ §


С геометрической точки зрения, вероятность попадания случайной величины в интервал µ §численно выражается площадью криволинейной трапеции, ограниченной сверху кривой µ §, снизу - осью ОХ µ §, слева и справа прямыми µ § и µ §


Несобственный интеграл в бесконечных пределах от плотности распределения вероятностей равен 1.


µ §


Если случайная величина принимает значения в замкнутом интервале

µ §, т.е. µ §, то определенный интеграл плотности распределения = 1.

µ §


Пример: Задана плотность распределения непрерывной случайной величины Х. Найти функцию распределения и построить графики µ §и µ §.

µ §

По формуле µ § имеем:

при µ § µ §

при µ § µ §

при µ § µ §

µ §


§30. Числовые характеристики непрерывной случайной величины.


Рассмотрим непрерывную случайную величину Х, возможные значения которой находятся в интервале µ §, с плотностью вероятности µ §.


1. Математическим ожиданием непрерывной случайной величины Х, возможные значения которой µ §, называется определенный интеграл

µ §


Если возможные значения случайной величины распределены по всей оси ОХ, то µ § - предполагается, то несобственный интеграл сходится абсолютно.

По аналогии с дисперсией дискретной случайной величины определяется дисперсия непрерывной случайной величины.


2. Дисперсией непрерывной случайной величины с плотностью вероятности µ § называется определенный интеграл математического ожидания квадрата ее отклонения.

µ § или

µ §

Если возможные значения принадлежат всей оси ОХ, то

µ §


3. Среднее квадратическое отклонение непрерывной случайной величины равно корню квадратному из ее дисперсии.

µ §


Замечание: Свойства µ § и µ § формулируются так же, как и соответствующие свойства для дискретной величины.


Пример: Дана функция распределения вероятностей.

µ §µ §

µ §

µ §

µ §µ §


§31. Числовые характеристики случайных величин, отражающих особенности распределения.


Определение 1. Модой µ §случайной величины Х называется ее наиболее вероятное значение (для которого вероятность µ § или плотность вероятности µ § достигает максимума).

Если вероятность или плотность вероятности достигает µ § не в одной, а в нескольких точках, то распределение называют полимодальным.


Определение 2. Медианой µ § непрерывной случайной величины Х называется такое ее значение, которое определяется равенством:

µ § µ §


То есть вероятность того, что случайная величина Х примет значение меньше медианы µ § или больше ее, одна и та же и µ §.

Геометрически: вертикальная прямая µ §, проходящая через точку с абсциссой = µ §, делит площадь фигуры под кривой распределения на две равные части.


Пример: Найти моду, медиану и µ § случайной величины Х с плотностью вероятности µ § при µ §

Построим кривую распределения µ §


µ §01Ѕµ §033/4


µ §


µ §

µ §


Определение 3. Начальным моментом k-го порядка случайной величины Х называется математическое ожидание k-й степени этой величины.

µ §

Для дискретной случайной величины µ §

Для непрерывной случайной величиныµ §


Определение 4. Центральным моментом

k-го порядка случайной величины Х называется математическое ожидание k-й степени отклонения случайной величины Х от ее математического ожидания.


µ §


Для дискретной случайной величины:


µ §µ §


Для непрерывной случайной величины:

µ §µ §

Нетрудно заметить, что при µ § первый начальный момент случайной величины Х есть ее математическое ожидание, т.е. µ §, при µ § - второй центральный момент ЁC дисперсия, т.е. µ §.

Центральные моменты могут быть выражены через начальные моменты µ §по формулам:

µ §


Итак, первый начальный момент характеризует среднее значение или положение распределения случайной величины Х или ее µ §.


Второй центральный момент - степень рассеивания распределения Х относительно µ § - или µ §.


Третий центральный момент µ §служит для характеристики асимметрии (скошенности) распределения. Он имеет размерность куба случайной величины. Поэтому, чтобы получить безразмерную величину, ее делят на µ §.


Определение 5. Коэффициентом асимметрии А называется величина, равная отношению третьего центрального момента к кубу среднего квадратического отклонения.


Если коэффициент асимметрии отрицательный, то это говорит о большом влиянии на величину µ §отрицательных отклонений. В этом случае кривая распределения более полога слева от µ §(левосторонняя асимметрия) µ §.


Если коэффициент µ §, а значит, преобладает влияние положительных отклонений, то кривая распределения более полога справа от µ §(правосторонняя асимметрия) µ §.


Четвертый центральный момент µ §служит для характеристики крутости (островершинности или плосковершинности) распределения.


Определение 1. Эксцессом случайной величины называется число:


µ §


I. Для наиболее распространенного в природе нормального закона распределения (который будет рассматриваться далее) отношение µ §. Поэтому эксцесс служит для сравнения данного распределения с нормальным, у которого µ §.


II. Если для данного распределения µ §, то соответствующая кривая распределения более островершинная по сравнению с кривой нормального распределения.


III. Если µ §, то кривая распределения более плосковершинная.


Пример: Случайная величина задана функцией:

µ § µ §


Вычислим начальные моменты до 4-го порядка:

µ §

Найдем центральные моменты:

µ §µ §

Отсюда следует, что

µ §

Тогда имеем:

µ § кривая распределения более полога справа µ §

µ §

кривая распределения островершинная µ §.


§32.Основные законы распределения вероятностей случайных величин.


1) Биномиальное распределение значений случайной величины.

Дискретная случайная величина называется распределенной по биномиальному закону, если его вероятности находятся по формуле Бернулли.


Рk,n=Ckn· pk · qn-k


Х012ЎKnРiСn0·p0· qnCn1·p1·qn-1Cn2 · p2 · qn-2ЎKCnn · pn · qn0

Название “биномиальный” происходит от того, что формула Бинома ЁC Ньютона имеет вид:

(p+q)n=Cn0 · p0 · q0+Cn1 · p · qn-1+ЎK+Cnn · pn · q0

ѓnѓГpi=1

М(Х)=n·p D(Х)=n · p ·q

2) Распределение Пуассона.

Дискретная случайная величина называется распределенной по закону Пуассона, если вероятности его значений находятся по формуле Пуассона:µ §

Х012ЎKkЎKРie-ѓЬµ §µ §ЎKµ §ЎK

M(X)=ѓЬѓzѓnD(X)=ѓЬ

3) Геометрическое распределение.

Пусть производится “n” независимых испытаний на наступление события А и в каждом испытании вероятность наступления равна p. Испытания заканчиваются как только появляется событие. Таким образом случайная величина Х представляет собой число испытаний до 1-го появления события. В этом случае вероятность наступления событий находится по формуле общего члена геометрической прогрессии.

Х012ЎKkpiPp·qp·q2ЎKp·qk

p, p ·q, p ·q2, ЎK, p · qk ЁC бесконечная геометрическая прогрессия со знаменателем 0
4) Показательное распределение.

Непрерывная случайная величина считается распределенной по показательному закону, если функция распределения

µ §

график этой функции имеет вид:

µ § µ §; µ §


5). Равномерное распределение.


Определение 1. Непрерывная случайная величина Х имеет равномерное распределение на отрезке µ §, если на этом отрезке плотность распределения вероятностей случайной величины постоянна, т.е. если дифференциальная функция распределения µ §имеет вид:


µ §


С=µ §


Построим функцию распределения µ §.


µ §


Найдем основные числовые характеристики рассматриваемой случайной величины:


Математическое ожидание:


µ §


Математическое ожидание случайной величины, равномерно распределенной на отрезке µ §, совпадает с серединой этого отрезка.


Дисперсия:


µ §


Среднее квадратическое отклонение:


µ §


Равномерный закон распределения используется при анализе ошибок округления при проведении числовых расчетов.


Пример: Поезда метрополитена идут регулярно с интервалом 2 мин. Пассажир

выходит на платформу в случайный момент времени. Какова вероятность того, что ждать пассажиру придется не больше полминуты.


Х - время ожидания поезда; µ § - отрезок времени ожидания

µ §


случайная величина имеет равномерный закон распределения на отрезке µ §.

Поэтому вероятность того, что пассажиру придется ждать не более полминуты равна:


µ §


§33. Нормальное распределение.

(Закон распределения Гаусса).


Нормальный закон распределения является предельным законом, к которому приближаются другие законы распределения при часто встречающихся аналогичных условиях.


Нормальному закону подчиняются только непрерывные случайные величины. Значит, это распределение можно задать в виде плотности вероятности.


Определение 1. Непрерывная случайная величина Х имеет нормальное распределение (распределена по нормальному закону), если плотность распределения вероятности µ §имеет вид:

µ § , где

а-математическое ожидание и µ §-среднее квадратическое отклонение.

По формуле µ § функция распределения примет вид

µ §


Определим основные числовые характеристики нормального распределения:

Математическое ожидание


µ §


Дисперсия

µ §


Определение 3. Дисперсия нормально распределенной случайной величины Х равна квадрату среднего квадратического отклонения.

Пример: Найти математическое ожидание и дисперсию случайной величины, распределенной по нормальному закону, если

µ §

Ответ: M(x)=5, D(x)=49

График плотности нормального распределения имеет колоколообразную форму. Эта форма является отличительной чертой нормального распределения. Ее называют кривой Гаусса.


При изменении параметров а и µ § будет меняться нормальная кривая.

f(x)


Если µ § и µ § и меняется параметр а µ §, т.е. центр симметрии распределения, то нормальная кривая будет смещаться вдоль оси абсцисс, не меняя формы.


Если µ § и меняется параметр µ §µ §, то меняется ордината максимума кривой µ §. При увеличении µ § ордината максимума кривой уменьшается, но так как S под любой кривой должна оставаться = 1, то кривая становится более плоской, растягиваясь вдоль оси абсцисс; при уменьшении µ § - нормальная кривая вытягивается вверх, одновременно сжимаясь с боков.

Таким образом, параметр µ § характеризует положение, а µ § форму нормальной кривой.


Определение 4. Нормальный закон распределения случайной величины с параметрами µ § и µ §, называется нормированным, а соответствующая нормальная кривая ЁCнормированной.


§34. Вероятность попадания нормально распределенной случайной величины в заданный интервал. Правило трех сигм.


Пусть дан интервал µ §. Вероятность того, что случайная величина, подчиненная нормальному закону, попадет в этот интервал:


µ §, где Ф (х) ЁC функция Лапласа


Правило «трех сигм»:

Если случайная величина имеет нормальное распределение, то отклонение этой величины от ее математического ожидания по абсолютной величине практически не превышает утроенного среднего квадратического отклонения:

µ §

Пример: Вес вылавливаемых в пруду рыб подчиняется нормальному закону со среднем квадратическим отклонением 25г. и математическим ожиданием 375г.

1.Найти вероятность того, что средний вес пойманной рыбы заключается в пределах от 300г до 485г.

2.Определить вес самой большой и самой малой рыбы.

Решение1: µ §

µ §

2.По правилу «трех сигм»: µ §


§35. Распределения, связанные с нормальным распределением.


Распределение µ § или распределение Пирсона (англ. статистик ЁC 1857- 1936гг.)


Определение 1. Распределением µ § с k степенями свободы называется распределение суммы квадратов k независимых случайных величин, распределенных по стандартному нормальному закону, так как

µ § , где

µ §имеет нормальное распределение µ §


Число k является параметром µ § распределения. Число степеней свободы определяют как разность между числом суммируемых случайных величин и числом линейных связей, ограничивающих свободу изменения этих величин. Так как в сумме µ § слагаемые независимы, то число степеней свободы равно числу слагаемых, т.е. k.


Графики Пирсона при µ § приведены на чертеже. Они показывают, что

µ §- распределение асимметрично и обладает правосторонней асимметрией µ §. При µ § распределение случайной величины µ § близко к стандартному нормальному закону µ § µ §


Определение 2. Дисперсия величины µ §, т.е.µ §


Определение 3. Если случайные величины µ §и µ §независимы, то их сумма имеет µ § ЁC распределение с числом степеней свободы µ §, т.е.

µ §


Распределение Стьюдента (псевдоним англ. статиста В. Госсета) или

t- распределение.


Определение 4. Распределением Стьюдента называется распределение случайной величины Z:

µ § , где

Z - случайная величина, распределенная по стандартному нормальному закону, т.е. µ §

µ §ЁC независимая от Z случайная величина, имеющая µ §- распределения с

k- степенями свободы.


Кривая µ § - распределения с k степенями свободы симметрична оси ординат, но по сравнению с нормальной, более пологая. При µ § t - распределение приближается к нормальному. При µ § можно считать

t - распределение приближенно нормальным.


Определение 5. Математическое ожидание случайной величины, имеющей

t - распределение, в силу симметрии ее кривой распределения = 0, а ее дисперсия = µ §, т.е.

µ § µ §


Распределение Фишера (англ. статистик) или F- распределение.


Определение 6. Распределением Фишера называется распределение случайной величины:

µ § , где

µ § и µ §- независимые случайные величины, имеющие µ §- распределение соответственно с µ § и µ §степенями свободы.

Так как случайные величины µ §и µ §, то и µ §.


При µ § F- распределение приближается к нормальному закону.


§36Закон больших чисел и предельные теоремы.


Под законом больших чисел в широком смысле понимается общий принцип, согласно которому, по формулировке акад. Колмогорова А.Н., совокупное действие большого числа случайных факторов приводит (при некоторых весьма общих условиях) к результату почти не зависящему от случая.

Другими словами, при большом числе случайных величин их средний результат перестает быть случайным и может быть предсказан с большой степенью определенности.

Под законом больших чисел в узком смысле понимается ряд математических теорем, в каждой из которых для тех или иных условий устанавливается факт приближения средних характеристик большого числа испытаний к некоторым определенным постоянным. К ним относятся теорема Чебышева, теорема Маркова, теорема Чебышева-Маркова.


Теорема Чебышева - Маркова.


Теорема 1. При достаточно большом числе независимых случайных величин µ §, дисперсия каждой из которых не превышает одного и того же постоянного числа В, для произвольного сколь угодно малого числа Е справедливо неравенство:

µ §


Среднее арифметическое случайных величин при возрастании их числа проявляет свойство устойчивости, т.е. стремится по вероятности к неслучайной величине, которой является среднее арифметическое математических ожиданий этих величин.

Пример: Для определения средней урожайности культуры взято на выборку с площади n=2000га по 1м2 с каждого гектара. С какой вероятностью можно ожидать, что средняя выборочная урожайность культуры будет отличаться от среднего истинного урожая этой культуры не более, чем на 0,25ц, если дисперсии не превышают 4,5.

Решение: n=2000га, µ §=0,25, B=4,5.


µ §

Итак, P>0.964


§37. Центральная предельная теорема Ляпунова.


Рассмотренный выше закон больших чисел устанавливает факт приближения средней большого числа случайных величин к определенным постоянным. Центральная предельная теорема состоит из группы теорем, устанавливающих связь между законом распределения суммы случайных величин и его предельной формой - нормальным законом распределения.

Среди этих теорем важнейшее место принадлежит теореме Ляпунова.


Теорема Ляпунова Если µ §- независимые случайные величины, у каждой из которых существует математическое ожидание µ §, дисперсия µ §, и µ §,где µ §

то закон распределения суммы µ § при µ § неограниченно приближается к нормальному с математическим ожиданием µ § и дисперсией µ §.

Добавить документ в свой блог или на сайт
Ваша оценка этого документа будет первой.
Ваша оценка:

Похожие:

Основные понятия теории вероятностей iconЭлементы и множества. Операции над множествами и их свойства. Графы. Элементы графов. Виды графов и операции над ними. Обоснование основных понятий комбинаторики: факториал, перестановки, размещения, сочетания. Элементы теории вероятностей

Основные понятия теории вероятностей icon1. Термодинамика основные понятия и определения. Основные параметры состояния газов. Уравнения состояния идеального газа

Основные понятия теории вероятностей iconОсновные понятия химии

Основные понятия теории вероятностей icon1. Лидер и лидерство: основные понятия

Основные понятия теории вероятностей iconОсновные понятия концепции kaizen 14

Основные понятия теории вероятностей iconОсновные понятия квантовой механики

Основные понятия теории вероятностей iconОсновные понятия и термины по Ботанике

Основные понятия теории вероятностей icon1. Основные понятия «безопасности организации»

Основные понятия теории вероятностей iconОсновные понятия, используемые в настоящем Законе

Основные понятия теории вероятностей iconТема: Логика. Основные понятия логики



База данных защищена авторским правом © 2016
обратиться к администрации | правообладателям | пользователям
поиск