Залежні та незалежні випадкові події. Залежні та незалежні випадкові величини. Умовні закони розподілу та підступність дискретних СВ Умовні закони розподілу. Регресія

Умовні закони розподілу. Регресія.

Визначення. Умовним законом розподілу однієї з одновимірних складових двовимірної випадкової величини (X, Y) називається її закон розподілу, обчислений за умови, що інша складова набула певного значення (або потрапила до якогось інтервалу). У попередній лекції розглянуто знаходження умовних розподілів для дискретних випадкових величин. Там же наведено формули умовних ймовірностей:

У разі безперервних випадкових величин необхідно визначити щільність ймовірності умовних розподілів j у (х) і j Х (y). З цією метою в наведених формулах замінимо ймовірність подій їх «елементами ймовірності»!

після скорочення на dx та dy отримаємо:

тобто. умовна густина ймовірності однієї з одновимірних складових двовимірної випадкової величини дорівнює відношенню її спільної густини до густини ймовірності іншої складової. Ці співвідношення записані у вигляді

називаються теоремою (правилом) множення густин розподілів.

Умовні щільності j у (х) та j Х (y). мають всі властивості «безумовної» щільності.

При вивченні двовимірних випадкових величин розглядаються числові характеристики одновимірних складових X та Y – математичні очікування та дисперсії. Для безперервної випадкової величини (X, Y) вони визначаються за формулами:

Поряд з ними розглядаються також числові характеристики умовних розподілів: умовні математичні очікування M х (Y) та М у (Х) та умовні дисперсії D х (Y) та D Y (X). Ці характеристики знаходяться за звичайними формулами математично очікування та дисперсії, в яких замість ймовірностей подій або густин ймовірності використовуються умовні ймовірності або умовні густини ймовірності.

Умовне математичне очікування випадкової величини Y за X = х, тобто. M x (Y), є функція від х, яка називається функцією регресії або просто регресією Y по Х. Аналогічно М Y (Х) називається функцією регресії або просто регресією X по Y. Графіки цих функцій називаються відповідно лініями регресії (або кривими регресії) Y за X або X за У.

Залежні та незалежні випадкові величини.

Визначення.Випадкові величини X і Y називаються незалежними, якщо їхня спільна функція розподілу F(x,y) представляється у вигляді добутку функцій розподілів F 1 (x) і F 2 (y) цих випадкових величин, тобто.

В іншому випадку випадкові величини Х і Y називаються залежними.

Диференціюючи двічі рівність за аргументами х і у, отримаємо

тобто. для незалежних безперервних випадкових величин X і Y їхня спільна щільність j(х,у) дорівнює добутку щільностей ймовірності j 1 (х) і j 2 (у) цих випадкових величин.

Досі ми стикалися з поняттям функціональної залежності між змінними X і Y, коли кожному значенню х однієї змінної відповідало строго певне значення в іншій. Наприклад, залежність між двома випадковими величинами - числом одиниць устаткування, що вийшли з ладу, за певний період часу та їх вартістю - функціональна.

Загалом, стикаються із залежністю іншого типу, менш жорсткою, ніж функціональна.

Визначення.Залежність між двома випадковими величинами називається імовірнісною (стохастичною чи статистичною), якщо кожному значенню однієї з них відповідає певний (умовний) розподіл іншої.

У разі імовірнісної (стохастичної) залежності не можна, знаючи значення однієї з них, точно визначити значення іншої, а можна вказати лише розподіл іншої величини. Наприклад, залежності між числом відмов обладнання та витрат на його профілактичний ремонт, вагою та зростанням людини, витратами часу школяра на перегляд телевізійних передач та читання книг тощо. є імовірнісними (стохастичними).

На рис. 5.10 наведено приклади залежних та незалежних випадкових величин X та Y.

Будь-який їх, залежить від цього, які значення прийняли (чи приймуть) інші випадкові величини.

Наприклад, система двох гральних кубиків - зрозуміло, що результат кидка одного кубика ніяк не впливає на ймовірність випадання граней іншого кубика. Або однакові незалежно працюючі ігрові автомати. І, мабуть, у деяких склалося враження, що незалежні взагалі будь-які СВ. Однак це далеко не завжди так.

Розглянемо одночаснескидання двох кубиків-магнітів, у яких північні полюси знаходяться на боці 1-очкової грані та південні – на протилежній грані 6 очок. Чи незалежними будуть аналогічні випадкові величини? Так, будуть. Просто знизяться ймовірності випадання «1» і «6» і збільшаться шанси інших граней, т.к. в результаті випробування кубики можуть притягнути протилежні полюси.

Тепер розглянемо систему, в якій кубики скидаються послідовно:

– кількість очок, що випали першому кубику;

– кількість очок, що випали на другому кубику, за умови, що він весь час скидається праворуч (наприклад) бік від 1-го кубика.

І тут закон розподілу випадкової величини залежитьвід того, як розташувався перший кубик. Друга кістка може або притягнутися, або навпаки - відскочити (якщо «зустрілися» однойменні полюси), або частково або повністю проігнорувати 1-й кубик.

Другий приклад: припустимо, що однакових гральних автоматів об'єднані в єдину мережу, та - Є система випадкових величин - виграшів на відповідних автоматах. Не знаю, чи законна ця схема, але власник ігрового залу цілком може налаштувати мережу наступним чином: при випаданні великого виграшу на якомусь автоматі автоматично змінюються закони розподілу виграшів взагалі на всіх автоматах. Зокрема, доцільно на деякий час обнулити ймовірності великих виграшів, щоб заклад не зіткнувся з нестачею коштів (у тому випадку, якщо раптом хтось виграє ще раз). Таким чином, розглянута система буде залежною.

Як демонстраційний приклад розглянемо колоду з 8 карт, нехай це будуть королі та дами, і просту гру, в якій два гравці послідовно (не важливо, в якому порядку) вилучають із колоди по одній карті. Розглянемо випадкову величину, яка символізує одного гравця і набуває наступних значень: 1 , якщо він витягнув червову карту, і 0 - Якщо карту іншої масті.

Аналогічно, нехай випадкова величина символізує іншого гравця і теж приймає значення 0 або 1, якщо він витягнув не хробака і хробака відповідно.

- Імовірність того, що обидва гравці витягнуть черву,

- Імовірність протилежної події, і:

- Імовірність того, що один витягне черву, а інший - ні; ну чи навпаки:

Таким чином, закон розподілу ймовірностей залежної системи:

Контроль: , Що і потрібно перевірити. …Можливо, у вас виникло питання, а чому я розглядаю саме 8, а не 36 карт? Та просто для того, щоб дроби вийшли не такими громіздкими.

Тепер дещо проаналізуємо результати. Якщо підсумувати ймовірності по рядках: , то вийде точно закон розподілу випадкової величини :

Легко зрозуміти, що цей розподіл відповідає ситуації, коли «іксовий» гравець тягне карту один, без «гравцевого» товариша, та його математичне очікування:
- Імовірність вилучення черви з нашої колоди.

Аналогічно, якщо підсумувати імовірності по стовпцях, то отримаємо закон розподілу одиночної гри другого гравця:

з тим же матушкуванням

Через «симетрію» правил гри, розподіли вийшли однаковими, але, у загальному випадку, вони, звичайно, різні.

Крім цього, корисно розглянути умовні закони розподілу ймовірностей . Це ситуація, коли одна з випадкових величин вже набула якогось конкретного значення, або ж ми припускаємо це гіпотетично.

Нехай "ігрековий" гравець тягне карту першим і витягує не черву. Імовірність цієї події становить (підсумовуємо ймовірності першого стовпцютаблиці - див.). Тоді, з тієї ж теореми множення ймовірностей залежних подійотримуємо такі умовні ймовірності:
- Імовірність того, що «іксовий» гравець витягне не черв'я за умови, що «ігрековий» витягнув не черв'яка;
- Імовірність того, що «іксовий» гравець витягне черв'яка, за умови, що «ігрековий» витягнув не черв'яка.

…всі пам'ятають, як позбавлятися від чотириповерхових дробів? І так, формальне, але дуже зручне технічне правило обчислення цих ймовірностей: спочатку слід підсумувати Усеймовірності по стовпцю, і потім кожну можливість розділити на отриману суму.

Таким чином, за умовного закону розподілу випадкової величини запишеться так:

, ОК. Обчислимо умовне математичне очікування:

Тепер складемо закон розподілу випадкової величини за умови, що випадкова величина набула значення , тобто. "ігрековий" гравець витяг карту червової масті. Для цього сумуємо ймовірності 2-го стовпцятаблиці ( див.): та обчислюємо умовні ймовірності:
- того, що "іксовий" гравець витягне не черву,
- І черву.
Таким чином, шуканий умовний закон розподілу:

Контроль: , та умовне математичне очікування:
- Зрозуміло, воно вийшло менше, ніж у попередньому випадку, так як "ігроковий" гравець зменшив кількість черв'яків у колоді.

«Дзеркальним» способом (працюючи з рядками таблиці)можна скласти – закон розподілу випадкової величини , за умови, що випадкова величина набула значення , і умовний розподіл , коли «іксовий» гравець витяг черву. Легко зрозуміти, що з «симетрії» гри, вийдуть самі розподілу і самі значення .

Для безперервних випадкових величинвводяться такі ж поняття умовних розподілів та матожиданийАле якщо в них немає гарячої потреби, то краще продовжити вивчення цього уроку.

Насправді у більшості випадків вам запропонують готовий закон розподілу системи випадкових величин:

Приклад 4

Двовимірна випадкова величина задана своїм законом розподілу ймовірностей:

…хотів розглянути побільше таблицю, але вирішив таки не маньячить, адже головне розібратися в самому принципі рішення.

Потрібно:

1) Скласти закони розподілу та обчислити відповідні математичні очікування. Зробити обґрунтований висновок про залежність чи незалежність випадкових величин .

Це завдання для самостійного вирішення! Нагадую, що у разі незалежності СВ закони повинні вийти однаковими і збігтися із законом розподілу випадкової величини, і закони – збігтися з . Десяткові дроби, хто знає чи забув, зручно ділити так: .
Звіритись із зразком можна внизу сторінки.

2) Обчислити коефіцієнт коваріації.

Спочатку розберемося в самому терміні, і звідки він взагалі стався: коли випадкова величина набуває різних значень, то кажуть, що вона варіюється, та кількісний вимір цієї варіації, як ви знаєте, виражається дисперсією. Використовуючи формулу обчислення дисперсії, а також властивості маточіння та дисперсії, неважко встановити, що:

тобто, при складанні двох випадкових величин підсумовуються їх дисперсії і додається додатковий доданок, що характеризує спільну варіаціюабо коротко – підступність випадкових величин.

Коваріація або кореляційний момент – це міра спільної варіаціївипадкових величин.

Позначення: або

Коваріація дискретних випадкових величин визначається, зараз «виражатимуся»:), як математичне очікування твору лінійних відхиленьцих випадкових величин від відповідних матожиданий:

Якщо , то випадкові величини залежні. Образно кажучи, ненульове значення говорить нам про закономірних«відгуках» однієї СВ зміну інший СВ.

Коваріацію можна вирахувати двома способами, я розгляну обидва.

Спосіб перший. за визначення математичного очікування:

"Страшна" формула і зовсім не страшні обчислення. Спочатку складемо закони розподілу випадкових величин і – для цього підсумовуємо ймовірності рядків («іксова» величина)і по стовпцях («Ігрекова» величина):

Погляньте на вихідну верхню таблицю – всім зрозуміло, як вийшли розподіли? Обчислимо маточіння:
і відхиленнязначень випадкових величин від відповідних математичних очікувань:

Отримані відхилення зручно помістити в двовимірну таблицю, всередину якої потім переписати ймовірності вихідної таблиці:


Тепер потрібно обчислити всі можливі твори, як приклад я виділив: (червоний колір)і (синій колір). Обчислення зручно проводити в Екселі, а на чистовику розписати докладно. Я звик працювати "по рядках" зліва направо і тому спочатку перерахую всі можливі твори з "іксовим" відхиленням -1,6, потім - з відхиленням 0,4:

Спосіб другий, Простіший і поширеніший. За формулою:

Маточування твору СВ визначається як і технічно все дуже просто: беремо вихідну таблицю завдання та знаходимо всі можливі твори на відповідні ймовірності; на малюнку нижче я виділив червоним кольором твір і синім твір:


Спочатку перерахую всі твори зі значенням , потім - зі значенням , але ви, зрозуміло, можете використовувати й інший порядок перебору - кому зручніше:

Значення вже обчислені (див. 1-й спосіб), і залишилося застосувати формулу:

Як зазначалося вище, ненульове значення коваріації говорить нам про залежність випадкових величин, причому, чим вона більша за модулемтим ця залежність ближчедо функціональної лінійноїзалежності. Бо визначається через лінійні відхилення.

Таким чином, визначення можна сформулювати точніше:

Коваріація– це міра лінійноїзалежність випадкових величин.

З нульовим значенням все цікавіше. Якщо встановлено, що , то випадкові величини можуть виявитися як незалежними, так і залежними(т.к. залежність може мати як лінійний характер). Таким чином, цей факт у загальному випадку не можна використовувати для обґрунтування незалежності СВ!

Однак якщо відомо, що незалежні, то . У цьому легко переконатися аналітично: так як для незалежних випадкових величин справедлива властивість ( див. попередній урок), то за формулою обчислення коваріації:

Які значення може набувати цей коефіцієнт? Коефіцієнт коваріації набуває значення, що не перевищують за модулем– і що більше , то сильніше виражена лінійна залежність. І все начебто добре, але є суттєва незручність такого заходу:

Припустимо, ми досліджуємо двовимірну безперервну випадкову величину(готуємося морально:)), компоненти якої вимірюються в сантиметрах, і набули значення . До речі, яка розмірність у підступності? Якщо, – сантиметри, і – теж сантиметри, то їхній твір і маточування цього твору – виявляється у квадратних сантиметрах, тобто. коваріація, як і дисперсія – є квадратичнаВеличина.

Тепер припустимо, що хтось вивчив ту саму систему, але використав не сантиметри, а міліметри. Так як 1 см = 10 мм, то коваріація збільшиться в 100 разів і дорівнюватиме !

Тому зручно розглянути нормованийкоефіцієнт коваріації, який давав би нам однакове та безрозмірне значення. Такий коефіцієнт отримав назву, продовжуємо наше завдання:

3) Коефіцієнт кореляції . Або, точніше, коефіцієнт лінійної кореляції:

, де - стандартні відхиленнявипадкових величин.

Коефіцієнт кореляції безрозмірнийта приймає значення з проміжку:

(якщо у вас на практиці вийшло інше – шукайте помилку).

Чим більше за модулемдо одиниці, тим тісніше лінійна взаємозв'язок між величинами , і що ближче до нуля – то така залежність виражена менше. Взаємозв'язок вважається суттєвим, починаючи приблизно з . Крайнім значенням відповідає строга функціональна залежність, але на практиці, звичайно, «ідеальних» випадків не зустріти.

Дуже хочеться навести багато цікавих прикладів, але кореляція актуальніша в курсі математичної статистикиі тому я прибережу їх на майбутнє. Ну а зараз знайдемо коефіцієнт кореляції у нашому завданні. Так. Закони розподілу вже відомі, скопіюю зверху:

Матождання знайдені: , і залишилося обчислити стандартні відхилення. Табличкоювже оформляти не буду, швидше підрахувати рядком:

Коваріацію знайдено у попередньому пункті , і залишилося розрахувати коефіцієнт кореляції:
Таким чином, між величинами має місце лінійна залежність середньої тісноти.

Четверте завдання знову ж таки більш характерне для завдань математичної статистики, але про всяк випадок розглянемо його і тут:

4) Скласти рівняння лінійної регресії на .

Рівняння лінійної регресії – це функція , яка найкращим чиномнаближає значення випадкової величини. Для найкращого наближення зазвичай використовують метод найменших квадратів, І тоді коефіцієнти регресії можна обчислити за формулами:
, Ось це дива, і 2-й коефіцієнт:

Випадкові події називаються незалежними, якщо поява одного з них не впливає на ймовірність появи інших подій.

Приклад 1 . Якщо є дві або більше урни з кольоровими кулями, то вилучення будь-якої кулі з однієї урни ніяк не вплине на ймовірність вилучення інших куль з урн, що залишилися.

Для незалежних подій справедлива теорема множення ймовірностей: ймовірність спільного(одночасного)Поява кількох незалежних випадкових подій дорівнює добутку їх ймовірностей:

Р(А 1 та А 2 і А 3 … і А k) = Р(А 1) ∙Р(А 2) ∙…∙Р(А k). (7)

Спільна (одночасна) поява подій означає, що відбуваються події та А 1 ,і А 2і А 3… і А k.

Приклад 2 . Є дві скриньки. В одній знаходиться 2 чорних та 8 білих куль, в іншій – 6 чорних та 4 білих. Нехай подія А-Вибір навмання білої кулі з першої урни, У- З другої. Яка можливість вибрати навмання одночасно з цих урн з білої кулі, тобто. чому дорівнює Р (Аі У)?

Рішення:ймовірність дістати білу кулю з першої урни
Р(А) = = 0,8 з другої – Р(У) = = 0,4. Імовірність одночасно дістати по білій кулі з обох урн –
Р(Аі У) = Р(АР(У) = 0,8∙ 0,4 = 0,32 = 32%.

Приклад 3. Раціон зі зниженим вмістом йоду викликає збільшення щитовидної залози у 60% тварин великої популяції. Для експерименту потрібні 4 збільшені залози. Знайдіть ймовірність того, що у 4 випадково вибраних тварин буде збільшена щитовидна залоза.

Рішення:Випадкова подія А- Вибір навмання тварини зі збільшеною щитовидною залозою. За умовою завдання ймовірність цієї події Р(А) = 0,6 = 60%. Тоді ймовірність спільної появи чотирьох незалежних подій – вибір навмання 4 тварин із збільшеною щитовидною залозою – дорівнюватиме:

Р(А 1 та А 2 та А 3 та А 4) = 0,6 ∙ 0,6 ∙0,6 ∙ 0,6=(0,6) 4 ≈ 0,13 = 13%.

Залежні події. Теорема множення ймовірностей для залежних подій

Випадкові події А та В називаються залежними, якщо поява одного з них, наприклад, А змінює ймовірність появи іншої події – Ст.Тому для залежних подій використовуються два значення ймовірності: безумовна та умовна ймовірності .

Якщо Аі Узалежні події, то ймовірність настання події Упершим (тобто до події А) називається безумовною ймовірністюцієї події і позначається Р(У).Ймовірність настання події Уза умови, що подія Авже сталося, називається умовною ймовірністюподії Уі позначається Р(У/А) або Р А(У).

Аналогічний сенс мають безумовна – Р(А) та умовна – Р(А/В) ймовірності для події А.

Теорема множення ймовірностей для двох залежних подій: ймовірність одночасного наступу двох залежних подій А і В дорівнює добутку безумовної ймовірності першої події на умовну ймовірність другої:

Р(А і В)= Р(А)∙Р(В/А) , (8)

А, або

Р(А і В)= Р(У)∙Р(А/В), (9)

якщо першим настає подія У.

Приклад 1.В урні 3 чорні кулі і 7 білих. Знайдіть ймовірність того, що з цієї урниодин за іншим (причому першу кулю не повертають в урну) будуть вийняті 2 білі кулі.

Рішення: ймовірність дістати першу білу кулю (подія А) дорівнює 7/10. Після того, як він вийнятий, в урні залишається 9 куль, з них 6 білих. Тоді ймовірність появи другої білої кулі (подія У) дорівнює Р(У/А) = 6/9, а ймовірність дістати поспіль дві білі кулі дорівнює

Р(Аі У) = Р(А)∙Р(У/А) = = 0,47 = 47%.

Наведена теорема множення ймовірностей для залежних подій допускає узагальнення будь-яку кількість подій. Зокрема, для трьох подій, пов'язаних одна з одною:

Р(Аі Уі З)= Р(А)∙ Р(В/А)∙ Р(С/АВ). (10)

Приклад 2. У двох дитячих садках, кожен із яких відвідує по 100 дітей, стався спалах інфекційного захворювання. Частки хворих складають відповідно 1/5 і 1/4, причому у першому закладі 70 %, тоді як у другому – 60 % хворих – діти молодше 3-х років. Випадковим чином обирають одну дитину. Визначте ймовірність того, що:

1) обрана дитина відноситься до першого дитячого садка (подія А) і хворий (подія У).

2) обрано дитину з другого дитячого садка (подія З), хворий (подія D) та старше 3-х років (подія Е).

Рішення. 1) шукана ймовірність -

Р(Аі У) = Р(А) ∙ Р(У/А) = = 0,1 = 10%.

2) шукана ймовірність:

Р(Зі Dі Е) = Р(З) ∙ Р(D/C) ∙ Р(Е/CD) = = 5%.

Формула Байєса

= (12)

Приклад1. При первинному огляді хворого передбачаються 3 діагнози. Н 1 , Н 2 , Н 3 . Їх ймовірності, на думку лікаря, розподіляються так: Р(Н 1) = 0,5; Р(Н 2) = 0,17; Р(Н 3) = 0,33. Отже, попередньо найімовірнішим видається перший діагноз. Для його уточнення призначається, наприклад, аналіз крові, в якому очікується збільшення ШОЕ (подія А). Заздалегідь відомо (на підставі результатів досліджень), що ймовірність збільшення ШОЕ при передбачуваних захворюваннях дорівнює:

Р(А/Н 1) = 0,1; Р(А/Н 2) = 0,2; Р(А/Н 3) = 0,9.

В отриманому аналізі зафіксовано збільшення ШОЕ (подія Асталося). Тоді розрахунок за формулою Байєса (12) дає значення ймовірностей передбачуваних захворювань при збільшеному значенні ШОЕ: Р(Н 1 /А) = 0,13; Р(Н 2 /А) = 0,09;
Р(Н 3 /А) = 0,78. Ці цифри показують, що з урахуванням лабораторних даних найреальніший не перший, а третій діагноз, ймовірність якого тепер виявилася досить великою.

Приклад 2. Визначте ймовірність, що оцінює ступінь ризику перинатальної смертності дитини у жінок з анатомічно вузьким тазом.

Рішення: нехай подія Н 1 – благополучні пологи. За даними клінічних звітів, Р(Н 1) = 0,975 = 97,5%, тоді, якщо Н 2- факт перинатальної смертності, то Р(Н 2) = 1 – 0,975 = 0,025 = 2,5 %.

Позначимо А- факт наявності вузького тазу у породіллі. З проведених досліджень відомі: а) Р(А/Н 1) - ймовірність вузького тазу при сприятливих пологах, Р(А/Н 1) = 0,029; б) Р(А/Н 2) - ймовірність вузького тазу при перинатальної смертності,
Р(А/Н 2) = 0,051. Тоді ймовірність перинатальної смертності при вузькому тазі у породіллі розраховується за формулою Байса (12) і дорівнює:

Таким чином, ризик перинатальної смертності при анатомічно вузькому тазі значно вищий (майже вдвічі) середнього ризику (4,4% проти 2,5%).

Розрізняють події залежні та незалежні. Дві події називаються незалежними, якщо поява одного з них не змінює ймовірність появи іншого. Наприклад, якщо у цеху працюють дві автоматичні лінії, за умовами виробництва не взаємопов'язані, то зупинки цих ліній є незалежними подіями.

Декілька подій називаються незалежними у сукупностіякщо будь-яка з них не залежить від будь-якої іншої події і від будь-якої комбінації інших.

Події називаються залежнимиякщо одне з них впливає на ймовірність появи іншого. Наприклад, дві виробничі установки пов'язані єдиним технологічним циклом. Тоді ймовірність виходу з експлуатації однієї з них залежить від того, в якому стані знаходиться інша. Імовірність однієї події B, обчислена у припущенні здійснення іншої події A, називається умовною ймовірністюподії Bі позначається P(A|B).

Умову незалежності події B від події A записують як P(B|A)=P(B), а умова його залежності - як P(B|A)≠P(B).

Імовірність події у випробуваннях Бернуллі. Формула Пуассон.

Повторними незалежними випробуваннями, випробуваннями Бернуллі або схемою Бернулліназиваються такі випробування, якщо при кожному випробуванні є лише два результати - поява події А або ймовірність цих подій залишається незмінною для всіх випробувань. Ця проста схема випадкових випробувань має велике значення у теорії ймовірностей.

Найбільш відомим прикладом випробувань Бернуллі є досвід із послідовним киданням правильної (симетричної та однорідної) монети, де подією А є випадання, наприклад, "герба", ("решки").

Нехай у деякому досвіді ймовірність події А дорівнює P(А)=р, Тоді , де р + q = 1. Виконаємо досвід n разів, припустивши, що окремі випробування незалежні, а значить, результат будь-яких з них не пов'язаний з результатами попередніх (або наступних) випробувань. Знайдемо ймовірність появи подій А точно раз, скажімо тільки в перших випробуваннях. Нехай - подія, що полягає в тому, що при n випробуваннях подія А з'явиться точно k разів у перших випробуваннях. Подію можна подати у вигляді

Оскільки досліди ми припустили незалежними, то

41) [стр2]Якщо ставити питання про появу події А k-раз у n випробуваннях у довільному порядку, то подія подана у вигляді

Число різних доданків у правій частині цієї рівності дорівнює числу випробувань з n по k, тому ймовірність подій, яку позначатимемо, дорівнює

Послідовність подій утворює повну групу незалежних подій . Справді, із незалежності подій отримуємо

При вивченні систем випадкових величин завжди слід звертати увагу на ступінь та характер їхньої залежності. Ця залежність може бути більш менш яскраво вираженою, більш менш тісною. У деяких випадках залежність між випадковими величинами може бути настільки тісною, що, знаючи значення однієї випадкової величини, можна точно вказати значення іншої. В іншому крайньому випадку залежність між випадковими величинами є настільки слабкою та віддаленою, що їх можна практично вважати незалежними.

Поняття про незалежні випадкові величини – одне з важливих понять теорії ймовірностей.

Випадкова величина називається незалежною від випадкової величини, якщо закон розподілу величини не залежить від того, яке значення набула величина.

Для безперервних випадкових величин умова незалежності може бути записана у вигляді:

при будь-якому.

Навпаки, якщо залежить від , то

.

Доведемо, що залежність чи незалежність випадкових величин завжди взаємні: якщо величина залежить від .

Справді, нехай не залежить від :

. (8.5.1)

З формул (8.4.4) та (8.4.5) маємо:

звідки, беручи до уваги (8.5.1), отримаємо:

що й потрібно було довести.

Так як залежність та незалежність випадкових величин завжди взаємні, можна дати нове визначення незалежних випадкових величин.

Випадкові величини і називаються незалежними, якщо закон розподілу кожної їх залежить від цього, яке значення прийняла інша. В іншому випадку величини і називаються залежними.

Для незалежних безперервних випадкових величин теорема множення законів розподілу набуває вигляду:

, (8.5.2)

т. е. щільність розподілу системи незалежних випадкових величин дорівнює добутку щільностей розподілу окремих величин, що входять до системи.

Умова (8.5.2) може розглядатися як необхідна та достатня умова незалежності випадкових величин.

Часто за видом функції можна зробити висновок, що випадкові величини , є незалежними, саме, якщо щільність розподілу розпадається на твір двох функцій, у тому числі одна залежить тільки від , інша - тільки від , то випадкові величини незалежні.

приклад. Щільність розподілу системи має вигляд:

.

Визначити, чи залежні або незалежні випадкові величини і .

Рішення. Розкладаючи знаменник на множники, маємо:

.

З того, що функція розпалася на добуток двох функцій, з яких одна залежить тільки від , а інша - тільки від , укладаємо, що величини і повинні бути незалежними. Дійсно, застосовуючи формули (8.4.2) та (8.4.3), маємо:

;

аналогічно

,

звідки переконуємось, що

і, отже, величини та незалежні.

Вищевикладений критерій судження залежність чи незалежності випадкових величин виходить із припущення, що закон розподілу системи нам відомий. Насправді частіше буває навпаки: закон розподілу системи не відомий; відомі лише закони розподілу окремих величин, що входять до системи, і є підстави вважати, що величини та незалежні. Тоді можна написати щільність розподілу системи як добуток щільностей розподілу окремих величин, що входять до системи.

Зупинимося дещо докладніше на важливих поняттях про «залежність» та «незалежність» випадкових величин.

Поняття «незалежності» випадкових величин, яким користуємося теорії ймовірностей, дещо відрізняється від звичайного поняття «залежності» величин, яким ми оперуємо в математиці. Справді, зазвичай під «залежністю» величин мають на увазі лише один тип залежності – повну, жорстку, так звану – функціональну залежність. Дві величини і називаються функціонально залежними, якщо знаючи значення однієї з них, можна точно вказати значення іншої.

Теоретично ймовірностей ми зустрічаємося з іншим, більш загальним, типом залежності - з імовірнісною чи «стохастичною» залежністю. Якщо величина пов'язана з величиною імовірнісною залежністю, то, знаючи значення , не можна вказати точно значення , а можна вказати тільки її закон розподілу, який залежить від того, яке значення набула величина .

Імовірнісна залежність може бути більш менш тісною; зі збільшенням тісноти вероятностной залежності вона дедалі більше наближається до функціональної. Таким чином, функціональну залежність можна розглядати як крайній, граничний випадок найтіснішої імовірнісної залежності. Інший крайній випадок – повна незалежність випадкових величин. Між цими двома крайніми випадками лежать усі градації імовірнісної залежності - від найсильнішої до найслабшої. Ті фізичні величини, які практично ми вважаємо функціонально залежними, насправді пов'язані дуже тісної вероятностной залежністю: при заданому значенні однієї з цих величин інша коливається в настільки вузьких межах, що її можна вважати цілком певної. З іншого боку, ті величини, які ми на практиці вважаємо незалежними, і насправді часто перебувають у певній взаємній залежності, але ця залежність настільки слабка, що нею для практичних цілей можна знехтувати.

Імовірнісна залежність між випадковими величинами часто зустрічається практично. Якщо випадкові величини і перебувають у вероятностной залежності, це означає, що із зміною величини величина змінюється цілком певним чином; це лише означає, що зі зміною величини величина має тенденцію також змінюватись (наприклад, зростати або зменшуватися при зростанні). Ця тенденція дотримується лише «в середньому», загалом, і в кожному окремому випадку від неї можливі відступи.

Розглянемо, наприклад, дві такі випадкові величини: - Зростання навмання взятої людини, - Його вага. Очевидно, величини і знаходяться у певній імовірнісній залежності; вона виявляється у тому, що загалом люди з великим зростанням мають більшу вагу. Можна навіть скласти емпіричну формулу, що приблизно замінює цю імовірнісну залежність функціональної. Така, наприклад, загальновідома формула, що приблизно виражає залежність між зростанням і вагою.