Незалежні випадкові величини. Операції над випадковими величинами. Залежні і незалежні випадкові величини Незалежні випадкові величини приклади

& nbsp Залежні і незалежні випадкові величини

& NbspПрі вивченні систем випадкових величин завжди слід звертати увагу на ступінь і характер їх залежності. Ця залежність може бути більш-менш яскраво вираженої, більш-менш тісною. У деяких випадках залежність між випадковими величинами може бути настільки тісним, що, знаючи значення однієї випадкової величини, можна в точності вказати значення іншої. В іншому крайньому випадку залежність між випадковими величинами є настільки слабкою і віддаленій, що їх можна практично вважати незалежними.
& NbspПонятіе про незалежних випадкових величинах - одне з важливих понять теорії ймовірностей.
& NbspСлучайная величина \ (Y \) називається незалежною від випадкової величини \ (X \), якщо закон розподілу величини \ (Y \) не залежить від того, яке значення прийняла величина \ (X \).
& NbspДля безперервних випадкових величин умова незалежності \ (Y \) від \ (X \) може бути записано у вигляді: $$ f (y \ mid x) = f_ (2) (y) $$ при будь-якому \ (у \).
& NbspНапротів, в разі, якщо \ (Y \) залежить від \ (X \), то $$ f (y \ mid x) \ neq f_ (2) (y) $$ & nbspДокажем, що залежність або незалежність випадкових величин завжди взаємні: Якщо величина \ (Y \) не залежить від \ (X \), то і величина \ (X \) не залежить від \ (Y \).
& NbspДействітельно, нехай \ (Y \) не залежить від \ (X \): $$ f (y \ mid x) = f_ (2) (y) $$ маємо: $$ f_ (1) (x) f (y \ mid x) = f_ (2) (y) f (x \ mid y) $$ звідки, отримаємо: $$ f_ (1) (x) = f (x \ mid y) $$ що й треба було довести.
& NbspТак як залежність і незалежність випадкових величин завжди взаємні, можна дати нове визначення незалежних випадкових величин.
& NbspСлучайние величини \ (X \) і \ (Y \) називаються незалежними, якщо закон розподілу кожної з них не залежить від того, яке значення прийняла інша. В іншому випадку величини \ (X \) і \ (Y \) називаються залежними.
& NbspДля незалежних неперервних випадкових величин теорема множення законів розподілу набуває вигляду: $$ f (x, y) = f_ (1) (x) f_ (2) (y) $$ т. Е. Щільність розподілу системи незалежних випадкових величин дорівнює добутку щільності розподілу окремих величин, що входять в систему.
Часто по самому увазі функції \ (f (x, у) \) можна зробити висновок, що випадкові величини \ (X, Y \) є незалежними, а саме, якщо щільність розподілу \ (f (x, у) \) розпадається на твір двох функцій, з яких одна залежить тільки від \ (х \), інша - тільки від \ (у \), то випадкові величини незалежні.
Приклад 1.Щільність розподілу системи \ ((X, Y) \) має вигляд: $$ f (x, y) = \ frac (1) (\ pi ^ (2) (x ^ (2) + y ^ (2) + x ^ (2) y ^ (2) +1)) $$ Визначити: залежні або незалежні випадкові величини \ (X \) і \ (Y \).
Рішення. Розкладаючи знаменник на множники, маємо: $$ f (x, y) = \ frac (1) (\ pi (x ^ (2) +1)) \ frac (1) (\ pi (y ^ (2) +1 )) $$ з того, шануй функція \ (f (x, y) \) розпалася на твір двох функцій з яких одна залежить тільки від \ (х \), а інша - тільки від \ (у \), робимо висновок, чго величини \ (X \) і \ (Y \) повинні бути незалежні. Дійсно, застосовуючи формули, маємо: $$ f (x, y) = \ frac (1) (\ pi (x ^ (2) +1)) \ int _ (- \ infty) ^ (\ infty) (\ frac ( dy) (\ pi (y ^ (2) +1))) = \ frac (1) (\ pi (x ^ (2) +1)) $$ аналогічно $$ f (x, y) = (\ frac (1) (\ pi (y ^ (2) +1))) $$ звідки переконуємося, що $$ f (x, y) = f_ (1) (x) f_ (2) (y) $$ і, отже, величини \ (X \) і \ (Y \) незалежні.

Дві випадкові величини $ X $ і $ Y $ називаються незалежними, якщо закон розподілу однієї випадкової величини не змінюється від того, які можливі значення прийняла інша випадкова величина. Тобто, для будь-яких $ x $ і $ y $ події $ X = x $ і $ Y = y $ є незалежними. Оскільки події $ X = x $ і $ Y = y $ незалежні, то по теоремі твори ймовірностей незалежних подій $ P \ left (\ left (X = x \ right) \ left (Y = y \ right) \ right) = P \ left (X = x \ right) P \ left (Y = y \ right) $.

приклад 1 . Нехай випадкова величина $ X $ висловлює грошовий виграш за квитками однієї лотереї «Русское лото», а випадкова величина $ Y $ висловлює грошовий виграш за квитками інший лотереї «Золотий ключ». Очевидно, що випадкові величини $ X, \ Y $ будуть незалежними, так як виграш за квитками однієї лотереї не залежить від закону розподілу виграшів за квитками інший лотереї. У тому випадку, коли випадкові величини $ X, \ Y $ висловлювали б виграш по одній і тій же лотереї, то, очевидно, дані випадкові величини були б залежними.

приклад 2 . Двоє робітників трудяться в різних цехах і виготовляють різні вироби, незв'язані між собою технологіями виготовлення і використовуваним сировиною. Закон розподілу числа бракованих виробів, виготовлених першим робочим за зміну, має такий вигляд:

$ \ Begin (array) (| c | c |)
\ hline
Число \ бракованих \ виробів \ x & 0 & 1 \\
\ hline
Імовірність & 0,8 & 0,2 \\
\ hline
\ End (array) $

Число бракованих виробів, виготовлених другим робочим за зміну, підпорядковується наступними закону розподілу.

$ \ Begin (array) (| c | c |)
\ hline
Число \ бракованих \ виробів \ y & 0 & 1 \\
\ hline
Імовірність & 0,7 & 0,3 \\
\ hline
\ End (array) $

Знайдемо закон розподілу числа бракованих виробів, виготовлених двома робочими за зміну.

Нехай випадкова величина $ X $ - число бракованих виробів, виготовлених першим робочим за зміну, а $ Y $ - число бракованих виробів, виготовлених другим робочим за зміну. За умовою, випадкові величини $ X, \ Y $ незалежні.

Число бракованих виробів, виготовлених двома робочими за зміну, є випадкова величина $ X + Y $. Її можливі значення рівні $ 0, \ 1 $ і $ 2 $. Знайдемо ймовірності, з якими випадкова величина $ X + Y $ приймає свої значення.

$ P \ left (X + Y = 0 \ right) = P \ left (X = 0, \ Y = 0 \ right) = P \ left (X = 0 \ right) P \ left (Y = 0 \ right) = 0,8 \ cdot 0,7 = 0,56. $

$ P \ left (X + Y = 1 \ right) = P \ left (X = 0, \ Y = 1 \ або \ X = 1, \ Y = 0 \ right) = P \ left (X = 0 \ right ) P \ left (Y = 1 \ right) + P \ left (X = 1 \ right) P \ left (Y = 0 \ right) = 0,8 \ cdot 0,3 + 0,2 \ cdot 0,7 = 0,38. $

$ P \ left (X + Y = 2 \ right) = P \ left (X = 1, \ Y = 1 \ right) = P \ left (X = 1 \ right) P \ left (Y = 1 \ right) = 0,2 \ cdot 0,3 = 0,06. $

Тоді закон розподілу числа бракованих виробів, виготовлених двома робочими за зміну:

$ \ Begin (array) (| c | c |)
\ hline
Число \ бракованих \ виробів & 0 & 1 & 2 \\
\ hline
Імовірність & 0,56 & 0,38 & 0,06 \\
\ hline
\ End (array) $

У попередньому прикладі ми виконували операцію над випадковими величинами $ X, \ Y $, а саме знаходили їх суму $ X + Y $. Дамо тепер більш суворе визначення операцій (додавання, різниця, множення) над випадковими величинами і наведемо приклади рішень.

визначення 1. Твором $ kX $ випадкової величини $ X $ на постійну величину $ k $ називається випадкова величина, яка набуває значень $ kx_i $ з тими ж можливостями $ p_i $ $ \ left (i = 1, \ 2, \ \ dots, \ n \ right) $.

визначення 2. Сумою (різницею або твором) випадкових величин $ X $ і $ Y $ називається випадкова величина, яка приймає всі можливі значення виду $ x_i + y_j $ ($ x_i-y_i $ або $ x_i \ cdot y_i $), де $ i = 1 , \ 2, \ dots, \ n $, з вірогідністю $ p_ (ij) $ того, що випадкова величина $ X $ прийме значення $ x_i $, а $ Y $ значення $ y_j $:

$$ p_ (ij) = P \ left [\ left (X = x_i \ right) \ left (Y = y_j \ right) \ right]. $$

Так як випадкові величини $ X, \ Y $ незалежні, то по теоремі множення ймовірностей для незалежних подій: $ p_ (ij) = P \ left (X = x_i \ right) \ cdot P \ left (Y = y_j \ right) = p_i \ cdot p_j $.

приклад 3 . Незалежні випадкові величини $ X, \ Y $ задані своїми законами розподілу ймовірностей.

$ \ Begin (array) (| c | c |)
\ hline
x_i & -8 & 2 & 3 \\
\ hline
p_i & 0,4 & 0,1 & 0,5 \\
\ hline
\ End (array) $

$ \ Begin (array) (| c | c |)
\ hline
y_i & 2 & 8 \\
\ hline
p_i & 0,3 & 0,7 \\
\ hline
\ End (array) $

Складемо закон розподілу випадкової величини $ Z = 2X + Y $. Сумою випадкових величин $ X $ і $ Y $, тобто $ X + Y $, називається випадкова величина, яка приймає всі можливі значення виду $ x_i + y_j $, де $ i = 1, \ 2, \ dots, \ n $ , з вірогідністю $ p_ (ij) $ того, що випадкова величина $ X $ прийме значення $ x_i $, а $ Y $ значення $ y_j $: $ p_ (ij) = P \ left [\ left (X = x_i \ right ) \ left (Y = y_j \ right) \ right] $. Так як випадкові величини $ X, \ Y $ незалежні, то по теоремі множення ймовірностей для незалежних подій: $ p_ (ij) = P \ left (X = x_i \ right) \ cdot P \ left (Y = y_j \ right) = p_i \ cdot p_j $.

Отже, має закони розподілу випадкових величини $ 2X $ і $ Y $ відповідно.

$ \ Begin (array) (| c | c |)
\ hline
x_i & -16 & 4 & 6 \\
\ hline
p_i & 0,4 & 0,1 & 0,5 \\
\ hline
\ End (array) $

$ \ Begin (array) (| c | c |)
\ hline
y_i & 2 & 8 \\
\ hline
p_i & 0,3 & 0,7 \\
\ hline
\ End (array) $

Для зручності знаходження всіх значень суми $ Z = 2X + Y $ і їх ймовірностей складемо допоміжну таблицю, в кожній клітині якої помістимо в лівому кутку значення суми $ Z = 2X + Y $, а в правому кутку - ймовірності цих значень, отримані в результаті перемноження ймовірностей відповідних значень випадкових величин $ 2X $ і $ Y $.

В результаті отримаємо розподіл $ Z = 2X + Y $:

$ \ Begin (array) (| c | c |)
\ hline
z_i & -14 & -8 & 6 & 12 & 10 & 16 \\
\ hline
p_i & 0,12 & 0,28 & 0,03 & 0,07 & 0,15 & 0,35 \\
\ hline
\ End (array) $

Випадкові події називаються незалежними, якщо поява однієї з них ніяк не впливає на ймовірність появи інших подій.

приклад 1 . Якщо є дві або більше урни з кольоровими кулями, то витяг якої-небудь кулі з однієї урни ніяк не вплине на можливість отримання інших куль з решти урн.

Для незалежних подій справедлива теорема множення ймовірностей: ймовірність спільного(одночасного)появи декількох незалежних випадкових подій дорівнює добутку їх ймовірностей:

Р (А 1 і А 2 і А 3 ... і А k) = Р (А 1) ∙ Р (А 2) ∙ ... ∙ Р (А k). (7)

Спільне (одночасне) поява подій означає, що відбуваються події і А 1,і А 2,і А 3... і А k.

приклад 2 . Є дві урни. В одній знаходиться 2 чорних і 8 білих куль, в іншій - 6 чорних і 4 білих. нехай подія А-вибір навмання білої кулі з першої урни, В- з другої. Яка ймовірність вибрати навмання одновременноіз цих урн по білому кулі, тобто чому дорівнює Р (Аі В)?

Рішення:ймовірність дістати біла куля з першої урни
Р(А) = = 0,8 з другої - Р(В) = = 0,4. Імовірність одночасно дістати по білому кулі з обох урн -
Р(Аі В) = Р(АР(В) = 0,8∙ 0,4 = 0,32 = 32%.

Приклад 3. Раціон зі зниженим вмістом йоду викликає збільшення щитовидної залози у 60% тварин великої популяції. Для експерименту потрібні 4 збільшених залози. Знайдіть ймовірність того, що у 4 випадково обраних тварин буде збільшена щитоподібна залоза.

Рішення: Випадкова подія А- вибір навмання тваринного зі збільшеною щитовидною залозою. За умовою завдання ймовірність цієї події Р(А) = 0,6 = 60%. Тоді ймовірність спільного появи чотирьох незалежних подій - вибір навмання 4 тварин зі збільшеною щитовидною залозою - буде дорівнює:

Р(А 1 і А 2 і А 3 і А 4) = 0,6 ∙ 0,6 ∙0,6 ∙ 0,6=(0,6) 4 ≈ 0,13 = 13%.

Зовсім події. Теорема множення ймовірностей для залежних подій

Випадкові події А і В називаються залежними, якщо поява однієї з них, наприклад, А змінює ймовірність появи іншої події - В.Тому для залежних подій використовуються два значення ймовірності: безусловнаяі условнаявероятності .

якщо Аі Взавісімиесобитія, то ймовірність настання події Впершим (тобто до події А) називається безумовної ймовірністюцієї події і позначається Р(В) Ймовірно настання події Вза умови, що подія Авже відбулося, називається умовною ймовірністюподії Ві позначається Р(В/А) або Р А(В).

Аналогічний сенс мають безумовна - Р(А) І умовна - Р(А / В) Ймовірності для події А.

Теорема множення вероятностейдля двох залежних подій: ймовірність одночасного настання двох залежних подій А і В дорівнює добутку безумовної ймовірності першої події на умовну ймовірність другого:

Р(А та В)= Р(А)∙ Р(В / А) , (8)

А, або

Р(А та В)= Р(В)∙ Р(А / В), (9)

якщо першим настає подія В.

Приклад 1. В урні 3 чорних кулі і 7 білих. Знайдіть ймовірність того, що з цієї урниодін за іншим (причому перший шар не повертають в урну) будуть вийняті 2 білих кулі.

Рішення: Ймовірність дістати перший біла куля (подія А) Дорівнює 7/10. Після того як він виймуть, в урні залишається 9 куль, з них 6 білих. Тоді ймовірність появи другого білого кулі (подія В) дорівнює Р(В/А) = 6/9, а ймовірність дістати поспіль два білих кулі дорівнює

Р(Аі В) = Р(А)∙Р(В/А) = = 0,47 = 47%.

Наведена теорема множення ймовірностей для залежних подій допускає узагальнення на будь-яку кількість подій. Зокрема, для трьох подій, пов'язаних один з одним:

Р(Аі Ві З)= Р(А)∙ Р(В / А)∙ Р(З / АВ). (10)

Приклад 2. У двох дитячих садах, кожен з яких відвідує по 100 дітей, стався спалах інфекційного захворювання. Частки хворих становлять відповідно 1/5 і 1/4, причому в першому закладі 70%, а в другому - 60% хворих - діти віком до 3-х років. Випадковим чином вибирають одну дитину. Визначте ймовірність того, що:

1) обраний дитина відноситься до першого дитячого садка (подія А) І хворий (подія В).

2) обраний дитина з другого дитячого садка(подія З), Хворий (подія D) І старше 3-х років (подія Е).

Рішення. 1) шукана ймовірність -

Р(Аі В) = Р(А) ∙ Р(В/А) = = 0,1 = 10%.

2) шукана ймовірність:

Р(Зі Dі Е) = Р(З) ∙ Р(D/C) ∙ Р(Е/CD) = = 5%.

Формула Байєса

= (12)

Приклад 1. При первинному огляді хворого передбачаються 3 діагнозу Н 1 , Н 2 , Н 3. Їх ймовірності, на думку лікаря, розподіляються так: Р(Н 1) = 0,5; Р(Н 2) = 0,17; Р(Н 3) = 0,33. Отже, попередньо найбільш вірогідним здається перший діагноз. Для його уточнення призначається, наприклад, аналіз крові, в якому очікується збільшення ШОЕ (подія А). Заздалегідь відомо (на підставі результатів досліджень), що ймовірності збільшення ШОЕ при передбачуваних захворюваннях рівні:

Р(А/Н 1) = 0,1; Р(А/Н 2) = 0,2; Р(А/Н 3) = 0,9.

В отриманому аналізі зафіксовано збільшення ШОЕ (подія Авідбулося). Тоді розрахунок за формулою Байеса (12) дає значення ймовірностей передбачуваних захворювань при збільшеному значенні ШОЕ: Р(Н 1 /А) = 0,13; Р(Н 2 /А) = 0,09;
Р(Н 3 /А) = 0,78. Ці цифри показують, що з урахуванням лабораторних даних найреальніший не перший, а третій діагноз, ймовірність якого тепер виявилася досить великий.

Приклад 2. Визначте ймовірність, що оцінює ступінь ризику перинатальної * смертності дитини у жінок з анатомічно вузьким тазом.

Рішення: Нехай подія Н 1 - благополучні пологи. За даними клінічних звітів, Р(Н 1) = 0,975 = 97,5%, тоді, якщо Н 2- факт перинатальної смертності, то Р(Н 2) = 1 – 0,975 = 0,025 = 2,5 %.

позначимо А- факт наявності вузького таза у породіллі. З проведених досліджень відомі: а) Р(А/Н 1) - ймовірність вузького таза при сприятливих пологах, Р(А/Н 1) = 0,029, б) Р(А/Н 2) - ймовірність вузького таза при перинатальної смертності,
Р(А/Н 2) = 0,051. Тоді шукана ймовірність перинатальної смертності при вузькому тазі у породіллі розраховується за формулою Байса (12) і дорівнює:

Таким чином, ризик перинатальної смертності при анатомічно вузькому тазі значно вище (майже вдвічі) середнього ризику (4,4% проти 2,5%).

При вивченні систем випадкових величин завжди слід звертати увагу на ступінь і характер їх залежності. Ця залежність може бути більш-менш яскраво вираженої, більш-менш тісною. У деяких випадках залежність між випадковими величинами може бути настільки тісним, що, знаючи значення однієї випадкової величини, можна в точності вказати значення іншої. В іншому крайньому випадку залежність між випадковими величинами є настільки слабкою і віддаленій, що їх можна практично вважати незалежними.

Поняття про незалежних випадкових величинах - одне з важливих понять теорії ймовірностей.

Випадкова величина називається незалежною від випадкової величини, якщо закон розподілу величини не залежить від того, яке значення прийняла величина.

Для безперервних випадкових величин умова незалежності від може бути записано у вигляді:

при будь-якому.

Навпаки, в разі, якщо залежить від, то

.

Доведемо, що залежність або незалежність випадкових величин завжди взаємні: якщо величина не залежить від.

Дійсно, нехай не залежить від:

. (8.5.1)

З формул (8.4.4) і (8.4.5) маємо:

звідки, беручи до уваги (8.5.1), отримаємо:

що і потрібно було довести.

Так як залежність і незалежність випадкових величин завжди взаємні, можна дати нове визначення незалежних випадкових величин.

Випадкові величини і називаються незалежними, якщо закон розподілу кожної з них не залежить від того, яке значення прийняла інша. В іншому випадку величини і називаються залежними.

Для незалежних неперервних випадкових величин теорема множення законів розподілу набуває вигляду:

, (8.5.2)

т. е. щільність розподілу системи незалежних випадкових величин дорівнює добутку щільності розподілу окремих величин, що входять в систему.

Умова (8.5.2) може розглядатися як необхідна і достатня умова незалежності випадкових величин.

Часто по самому увазі функції можна зробити висновок, що випадкові величини, є незалежними, а саме, якщо щільність розподілу розпадається на твір двох функцій, з яких одна залежить тільки від, інша - тільки від, то випадкові величини незалежні.

Приклад. Щільність розподілу системи має вигляд:

.

Визначити, залежні або незалежні випадкові величини і.

Рішення. Розкладаючи знаменник на множники, маємо:

.

З того, що функція розпалася на твір двох функцій, з яких одна залежна тільки від, а інша - тільки від, робимо висновок, що величини і повинні бути незалежні. Дійсно, застосовуючи формули (8.4.2) і (8.4.3), маємо:

;

аналогічно

,

звідки переконуємося, що

і, отже, величини і незалежні.

Вищевикладений критерій судження про залежність або незалежність випадкових величин виходить з припущення, що закон розподілу системи нам відомий. На практиці частіше буває навпаки: закон розподілу системи не відомий; відомі тільки закони розподілу окремих величин, що входять в систему, і є підстави вважати, що величини і незалежні. Тоді можна написати щільність розподілу системи як твір щільності розподілу окремих величин, що входять в систему.

Зупинимося дещо докладніше на важливі поняття про «залежності» і «незалежності» випадкових величин.

Поняття «незалежності» випадкових величин, яким ми користуємося в теорії ймовірностей, дещо відрізняється від звичайного поняття «залежності» величин, яким ми оперуємо в математиці. Дійсно, зазвичай під «залежністю» величин мають на увазі тільки один тип залежності - повну, жорстку, так звану - функціональну залежність. Дві величини і називаються функціонально залежними, якщо, знаючи значення однієї з них, можна точно вказати значення іншої.

У теорії ймовірностей ми зустрічаємося з іншим, більш загальним, типом залежності - з ймовірнісної або «стохастичною» залежністю. Якщо величина пов'язана з величиною ймовірнісної залежністю, то, знаючи значення, не можна вказати точно значення, а можна вказати тільки її закон розподілу, що залежить від того, яке значення прийняла величина.

Імовірнісна залежність може бути більш-менш тісному; у міру збільшення тісноти ймовірнісної залежності вона все більше наближається до функціональної. Таким чином, функціональну залежність можна розглядати як крайній, граничний випадок найбільш тісній вероятностной залежності. Інший крайній випадок - повна незалежність випадкових величин. Між цими двома крайніми випадками лежать всі градації ймовірнісної залежності - від найсильнішої до найслабшої. Ті фізичні величини, які на практиці ми вважаємо функціонально залежними, в дійсності пов'язані вельми тісному ймовірнісної залежністю: при заданому значенні однієї з цих величин інша коливається в настільки вузьких межах, що її практично можна вважати цілком реальною. З іншого боку, ті величини, які ми на практиці вважаємо незалежними, і насправді часто перебувають в деякій взаємної залежності, але ця залежність настільки слабка, що нею для практичних цілей можна знехтувати.

Імовірнісна залежність між випадковими величинами дуже часто зустрічається на практиці. Якщо випадкові величини і знаходяться в ймовірнісної залежності, це не означає, що зі зміною величини величина змінюється цілком певним чином; це лише означає, що зі зміною величини величина має тенденцію також змінюватися (наприклад, зростати або спадати при зростанні). Ця тенденція дотримується лише «в середньому», в загальних рисах, І в кожному окремому випадку від неї можливі відступі.

Розглянемо, наприклад, дві такі випадкові величини: - зростання навмання взятої людини, - його вага. Очевидно, величини і знаходяться в певній ймовірнісної залежності; вона виражається в тому, що в загальному люди з великим зростанням мають більшу вагу. Можна навіть скласти емпіричну формулу, наближено замінює цю вірогідну залежність функціональної. Така, наприклад, загальновідома формула, наближено виражає залежність між зростом і вагою.

ПОДІЇ ВИПАДКОВІ НЕЗАЛЕЖНІ - такі випадкові події Аі В,для яких ймовірність Родночасного настання 2-х подій А до Вдорівнює добутку ймовірностей настання кожного з них окремо: Р (АВ) = Р (А) · Р (В).Аналогічно визначення незалежності пвипадкових подій. Це визначення поширюється на незалежність випадкових величин,а саме, випадкові величини X 1, Х 2, ..., Х п незалежні, якщо для будь-якої групи Х i1, X i2, ..., X ik,цих величин вірно рівність: Р (Х i1 ≤ х i1, Х i2 ≤ х i2, ..., Х ik ≤ x ik) = Р (Х i1 ≤ х i2) Р (Х i2 ≤х i2) ... (Р (Х ik ≤ х ik); 1≤ k ≤ n. При вирішенні геол. задач методами теорії ймовірностей і математичної статистикикоректна залежності досліджуваних величин часто є найбільш складною і відповідальною частиною дослідження.

Геологічний словник: в 2-х томах. - М .: Недра. За редакцією К. Н. Паффенгольца і ін.. 1978 .

Дивитися що таке "ПОДІЇ ВИПАДКОВІ НЕЗАЛЕЖНІ" в інших словниках:

    Див. Події незалежні випадкові. Геологічний словник: в 2 х томах. М .: Недра. За редакцією К. Н. Паффенгольца і ін .. 1978 ... геологічна енциклопедія

    Цей термін має також інші значення див. Незалежність (значення). У теорії ймовірностей два випадкових події називаються незалежними, якщо настання одного з них не змінює ймовірність настання іншого. Аналогічно, дві випадкові ... Вікіпедія

    коефіцієнт кореляції- (Correlation coefficient) Коефіцієнт кореляції це статистичний показник залежності двох випадкових величин Визначення коефіцієнта кореляції, види коефіцієнтів кореляції, властивості коефіцієнта кореляції, обчислення та застосування ... ... Енциклопедія інвестора

    Математична наука, що дозволяє по можливостям одних випадкових подій знаходити ймовірності інших випадкових подій, пов'язаних к. Л. чином з першими. Твердження про те, що к. Л. подія настає з імовірністю, рівною, напр., 1/2, ще не ... ... математична енциклопедія

    У теорії ймовірностей одне з найважливіших понять цієї теорії. Іноді використовують терміни статистична незалежність, стохастична незалежність. Припущення про Н. розглянутих подій, випробувань і випадкових величин було звичайною передумовою ... математична енциклопедія

    Математична наука, що дозволяє по можливостям одних випадкових подій знаходити ймовірності інших випадкових подій, пов'язаних якимось чином з першими. Твердження про те, що будь-яке подія настає з Ймовірністю, ... ... Велика Радянська Енциклопедія

    ГОСТ Р 50779.10-2000: Статистичні методи. Імовірність і основи статистики. терміни та визначення- Термінологія ГОСТ Р 50779.10 2000: Статистичні методи. Імовірність і основи статистики. Терміни та визначення оригінал документа: 2.3. (Генеральна) сукупність Безліч всіх розглянутих одиниць. Примітка Для випадкової величини ... ... Словник-довідник термінів нормативно-технічної документації

    Займається вивченням подій, настання яких достовірно невідомо. Вона дозволяє судити про розумність очікування настання одних подій в порівнянні з іншими, хоча приписування чисельних значень можливостям подій часто буває зайвим ... ... Енциклопедія Кольєра

    Розділ математики, в до ром будують і вивчають матем. моделі випадкових явищі. Випадковість властива в тій чи іншій мірі переважній більшості протікають в природі процесів. Зазвичай вона присутня там, де істот. вплив на хід процесу ... ... фізична енциклопедія

    В математичній статистицістатистичний метод, призначений для виявлення впливу окремих факторів на результат експерименту, а також для подальшого планування аналогічних експериментів. Спочатку Д. а. був запропонований Р. Фішером ... ... математична енциклопедія