Теорія імовірності. Базові терміни та поняття. Основні поняття теорії ймовірностей та математичної статистики

для студентів 2 курси всіх спеціальностей

Кафедра Вищої математики

Вступна частина

Шановні студенти!

До вашої уваги пропонується оглядова (установча) лекція професора Н.Ш.Кремера з дисципліни «Теорія ймовірностей та математична статистика» для студентів другого курсу ВЗФЕД.

У лекції обговорюються завданнявивчення теорії ймовірностей та математичної статистики в економічному вузі та її місцеу системі підготовки сучасного економіста, що розглядається організація самостійноюроботи студентів з використанням комп'ютерної навчальної системи (КОПР) та традиційних підручників, даються огляд основних положеньданого курсу, а також методичні рекомендації щодо її вивчення.

Серед математичних дисциплін, що вивчаються в економічному вузі, теорія ймовірностей та математична статистика займає особливе становище. По-перше, вона є теоретичною базою статистичних дисциплін. По-друге, методи теорії ймовірностей та математичної статистики безпосередньо використовуються при вивченні масових сукупностейспостережуваних явищ, обробці результатів спостережень та виявлення закономірностей випадкових явищ. Нарешті, теорія ймовірностей та математична статистика має важливе методологічне значення пізнавальний процес, при виявленні загальної закономірності досліджуванихпроцесів, служить логічною основоюіндуктивно-дедуктивного висновку.

Кожен студент другого курсу повинен мати наступний набір (кейс) з дисципліни «Теорія ймовірностей та математична статистика»:

1. Оглядову настановну лекціюз цієї дисципліни.

2. ПідручникН.Ш. Кремера «Теорія ймовірностей та математична статистика» – М.: ЮНІТІ – ДАНА, 2007 (надалі називатимемо просто «підручник»).

3. Навчально-методичний посібник«Теорія ймовірностей та математична статистика» / за ред. Н.Ш. Кремер. - М.: Вузовський підручник, 2005 (надалі «посібник»).

4. Комп'ютерну навчальну програмуКОПР з дисципліни (надалі – «комп'ютерна програма»).

На сайті інституту на сторінці «Корпоративні ресурси» розміщено інтернет-версії комп'ютерної програми КОПР2, оглядової настановної лекції та електронної версії посібника. Крім того, комп'ютерна програма та посібник представлені на CD - ROM ах для студентів другого курсу. Тому у «паперовому вигляді» студенту необхідно мати лише підручник.

Пояснимо призначення кожного з навчально-методичних матеріалів, що входить до зазначеного набору (кейс).

У підручникувикладено основні положення навчального матеріалу дисципліни, що ілюструються досить великою кількістю вирішених завдань.

У посібникудано методичні рекомендації щодо самостійного вивчення навчального матеріалу, виділено найбільш важливі поняття курсу та типові завдання, дано контрольні питання для самоперевірки з даної дисципліни, наведено варіанти домашніх контрольних робіт, які повинен виконати студент, а також методичні вказівки щодо їх виконання.

Комп'ютерна програмапокликана надати Вам максимальну допомогу у засвоєнні курсу у режимі діалогупрограми зі студентом для того, щоб максимально заповнити відсутність у Вас аудиторних занять, відповідного контакту з викладачем.

Для студента, який навчається за системою дистанційного навчання, першорядне значення має організація самостійної роботи

Приступаючи до вивчення даної дисципліни, прочитайте до кінця справжню оглядову (настановну) лекцію. Це дозволить Вам отримати в цілому уявлення про основні поняття та методи, що використовуються в курсі «Теорія ймовірностей та математична статистика», та вимоги до рівня підготовки студентів ВЗФЕД.

Перед вивченням кожної теми ознайомтеся з методичними рекомендаціями щодо вивчення даної теми з посібника.Тут Ви знайдете перелік навчальних питань цієї теми, які Ви маєте вивчити; з'ясуйте, які поняття, визначення, теореми, завдання є найважливішими, які треба вивчити і освоїти насамперед.

Потім перейдіть до вивчення основного навчального матеріалуза підручником відповідно до отриманих методичних рекомендацій. Радимо конспектувати в окремому зошиті основні визначення, формулювання теорем, схеми їх доказів, формули та вирішення типових завдань. Формули доцільно виписувати у спеціальні таблиці кожної частини курсу: теорія ймовірностей і математична статистика. Регулярне користування конспектом, зокрема таблицями формул, сприяє їх запам'ятовуванню.

Лише після опрацювання основного навчального матеріалу кожної теми за підручником можна перейти до вивчення цієї теми за допомогою комп'ютерної навчальної програми (КОПР2).

Зверніть увагу на структуру побудови комп'ютерної програми з кожної теми. Після назви теми наводиться перелік основних навчальних питань теми за підручником із зазначенням номерів параграфів та сторінок, які необхідно вивчити. (Нагадаємо, що перелік цих питань з кожної теми наведено також і у посібнику).

Потім у короткій формі дається довідковий матеріал з цієї теми (чи з окремим параграфам цієї теми) – основні визначення, теореми, властивості та ознаки, формули тощо. У процесі вивчення теми Ви також можете викликати на екран ті фрагменти довідкового матеріалу (за цією або попередніми темами), які потрібні в даний момент.

Потім Вам пропонується навчальний матеріал та обов'язково типові завдання ( приклади),вирішення яких розглядається в режимі діалогупрограми зі студентом. Функції ряду прикладів обмежуються виведенням на екран за запитом етапів правильного рішення, що навчається. Водночас у процесі розгляду більшості прикладів Вам будуть ставити питання того чи іншого характеру. Як відповіді на одні питання слід вводити з клавіатури цифрова відповідь,на інші – вибирати правильну відповідь (або відповіді)з кількох запропонованих.

Залежно від введеної Вами відповіді програма підтверджує її правильність або пропонує, ознайомившись із підказкою, що містить необхідні теоретичні положення, знову спробувати дати правильні рішення та відповідь. У багатьох завданнях встановлено обмеження кількість спроб рішення (при перевищенні цього обмеження на екран обов'язково виводиться правильний хід рішення). Є такі приклади, у яких кількість інформації, що міститься в підказці, зростає в міру повторення невдалих спроб відповіді.

Після ознайомлення з теоретичними положеннями навчального матеріалу та прикладами, які мають докладний розбір рішення, Ви повинні виконати вправи для самоконтролю, щоб закріпити навички вирішення типових завдань з кожної теми. Завдання самоконтролю також містять елементи діалогу зі студентом. По завершенню рішення Ви можете ознайомитися з правильною відповіддю та порівняти її з тією, яку Ви дали.

На завершення роботи з кожної теми слід виконати контрольні завдання. Правильні відповіді на них Вам не виводяться, а Ваші відповіді записуються на жорсткий диск комп'ютера для ознайомлення з ними викладача-консультанта (тьютора).

Після вивчення тем 1–7 Ви повинні виконати домашню контрольну роботу № 3, а після вивчення тем 8–11 – домашню контрольну роботу № 4. Варіанти зазначених контрольних робіт наведені у посібнику (його електронної версії). Номер варіанта, що виконується, повинен співпадати з останньою цифрою номера Вашої особистої справи (залікової книжки, студентського квитка). По кожній контрольній роботі Ви повинні проходити співбесіду, на якій необхідно показати вміння вирішувати завдання та знання основних понять (визначень, теорем (без доказу), формул тощо) на тему контрольної роботи. Завершується вивчення дисципліни курсовим іспитом.

Теорія ймовірностей – математична наука, що вивчає закономірності випадкових явищ.

Пропонована для вивчення дисципліна складається із двох розділів «Теорія ймовірностей» та «Математична статистика».

Математика включає безліч областей, однією з яких, поряд з алгеброю і геометрією, є теорія ймовірності. Існують терміни, які є загальними всім цих напрямів, але, крім них, є й специфічні, властиві лише однієї конкретної «ніші» слова, формули, теореми.

Словосполучення "теорія ймовірності" викликає у непідготовленого студента паніку. Справді, уяву малює картини, де фігурують страшні об'ємні формули, а вирішення однієї задачі займає цілий зошит. Однак на практиці все зовсім не таке жахливо: досить один раз зрозуміти зміст деяких термінів і вникнути в суть дещо своєрідної логіки міркувань, щоб перестати боятися завдань раз і назавжди. У зв'язку з цим ми розглянемо основні поняття теорії ймовірностей та математичної статистики – молодої, але вкрай цікавої галузі знань.

Навіщо вчити поняття

Функція мови - передавати інформацію від однієї людини до іншої так, щоб вона її зрозуміла, усвідомила і змогла використовувати. Кожне математичне поняття можна пояснити простими словами, але в цьому випадку акт обміну даними займав значно більше часу. Уявіть, що замість слова «гіпотенуза» вам завжди довелося б говорити «найдовша сторона прямокутного трикутника» - це вкрай незручно і довго.

Тому люди і вигадують нові терміни для тих чи інших явищ, процесів. Основні поняття теорії ймовірностей - подія, ймовірність події і т. д. - з'явилися так само. А значить, щоб використовувати формули, вирішувати завдання та застосовувати навички в житті, необхідно не просто запам'ятати нові слова, а й зрозуміти, що означає кожне з них. Чим глибше ви усвідомлюєте їх, вникаєте в зміст, тим ширше стають рамки ваших можливостей, і тим повніше ви сприймаєте навколишній світ.

У чому сенс предмета

Познайомимося із основними поняттями теорії ймовірностей. Класичне визначення ймовірності звучить так: це ставлення влаштовують дослідника результатів до загального числа можливих. Наведемо простий приклад: коли людина кидає кубик, той може випасти кожній із шести сторін догори. Таким чином, загальна кількість результатів – шість. Імовірність того, що випаде випадково обрана сторона - 1/6.

Вміння передбачати появу того чи іншого результату є вкрай важливим для різних фахівців. Скільки бракованих деталей очікується у партії? Від цього залежить, скільки потрібно зробити. Яка ймовірність, що ліки допоможе подолати хворобу? Така інформація взагалі є життєво важливою. Але не витрачатимемо час на додаткові приклади і приступимо до вивчення нової області.

Перше знайомство

Розглянемо основні поняття теорії ймовірності та їх використання. У праві, природничих науках, економіці представлені нижче формули та терміни використовуються повсюдно, оскільки мають безпосереднє відношення до статистики та похибки вимірювань. Докладніше вивчення цього питання відкриє вам і нові формули, корисні для більш точних і складних обчислень, проте почнемо з простого.

Одним із найбільш базових та основних понять теорії ймовірностей та математичної статистики є випадкова подія. Пояснимо зрозумілими словами: із усіх можливих наслідків експерименту в результаті спостерігається лише один. Навіть якщо ймовірність настання цієї події значно вища, ніж іншої, вона буде випадковою, оскільки теоретично результат міг бути й іншим.

Якщо ми провели серію експериментів і отримали кілька результатів, то ймовірність кожного з них розраховується за формулою: P(A) = m/n. Тут m - це те, скільки разів у серії випробувань ми спостерігали появу цікавого для нас результату. У свою чергу n – це загальна кількість проведених експериментів. Якщо ми кинули монетку 10 разів і 5 разів отримали «решку», то m=5, а n=10.

Види подій

Трапляється, що певний результат гарантовано спостерігається у кожному випробуванні - така подія називатиметься достовірною. Якщо воно не відбуватиметься ніколи, то називатиметься неможливим. Втім, такі події не застосовуються в умовах завдань з теорії ймовірності. Основні поняття, які знати набагато важливіше – це спільні та несумісні події.

Трапляється, що під час проведення експерименту одночасно відбувається відразу дві події. Наприклад, ми кидаємо два кубики – у цьому випадку те, що на одному випало «шість», не гарантує того, що на другому не випаде інша цифра. Такі події будуть називатися спільними.

Якщо ми кидаємо один кубик, дві цифри одночасно випасти не зможуть ніколи. В даному випадку результати у вигляді «одиниці», «двійки», що випала, і т. д. будуть розглядатися як несумісні події. Дуже важливо розрізняти, які результати мають місце у кожному даному випадку - від цього залежить, які формули застосовувати в задачі на знаходження ймовірностей. Основні поняття теорії ймовірностей ми продовжимо вивчати через кілька абзаців, коли розглянемо особливості складання та множення. Адже без них жодне завдання вирішити не вдасться.

Сума та твір

Припустимо, ви з другом кидаєте кубик, і в нього випало чотири. Вам, щоб перемогти, необхідно отримати п'ять або шість. У цьому випадку ймовірності будуть сумуватись: оскільки шанси випадання обох чисел дорівнюють 1/6, відповідь виглядатиме як 1/6 + 1/6 = 1/3.

А тепер уявіть, що ви кидаєте кубик двічі, і ваш друг отримав 11 очок. Тепер вам необхідно, щоб двічі поспіль випало "шість". Події незалежні одна від одної, тому ймовірності знадобиться перемножити: 1/6*1/6 = 1/36.

Серед основних понять та теорем теорії ймовірностей слід звернути увагу на суму ймовірностей спільних подій, тобто тих, що можуть відбуватися одночасно. Формула додавання в цьому випадку виглядатиме так: P(A+B) = P(A) + P(B) - P(AB).

Комбінаторика

Дуже часто нам потрібно знайти всі можливі поєднання деяких параметрів об'єкта або обчислити кількість комбінацій (наприклад, при підборі шифру). У цьому нам допоможе комбінаторика, яка тісно пов'язана з теорією ймовірності. Основні поняття тут включають деякі нові слова, а низка формул із цієї теми вам напевно знадобиться.

Допустимо, у вас є три цифри: 1, 2, 3. Вам треба, використовуючи їх, написати всі можливі трицифрові числа. Скільки їх буде? Відповідь: n! (знак оклику означає факторіал). Комбінації з деякої кількості різних елементів (цифр, букв та ін.), що відрізняються тільки порядком їх розташування, називаються перестановками.

Однак набагато частіше ми стикаємося з такою ситуацією: є 10 цифр (від нуля до дев'яти), з яких складається пароль або код. Припустимо, його довжина – 4 символи. Як розрахувати загальну кількість можливих кодів? І тому існує спеціальна формула: (n!)/(n - m)!

Враховуючи запропоновану вище умову задачі, n=10, m=4. Далі потрібні лише прості математичні розрахунки. До речі, називатись такі комбінації будуть розміщенням.

Зрештою, існує поняття поєднань - це послідовності, що відрізняються один від одного хоча б одним елементом. Обчислюється їх число за формулою: (n!)/(m!(n-m)!).

Математичне очікування

Важливим поняттям, з яким стикається студент на перших заняттях з предмету, є математичне очікування. Воно є сумою всіх можливих результуючих значень, помножених з їхньої ймовірності. По суті, це середнє число, яке ми можемо передбачити як результат випробування. Наприклад, є три значення, для яких у дужках вказані ймовірності: 0 (0,2); 1 (0,5); 2 (0,3). Порахуємо математичне очікування: M (X) = 0 * 0,2 + 1 * 0,5 + 2 * 0,3 = 1,1. Таким чином, із запропонованого виразу можна побачити, що дана величина є постійною і не залежить від результату випробування.

Це поняття використовується в багатьох формулах, і ви неодноразово зіткнетеся з ним надалі. Працювати з ним нескладно: математичне очікування суми дорівнює сумі мат. очікувань - M(X+Y) = M(X) + M(Y). Те саме стосується й твору: M(XY) = M(X) * M(Y).

Дисперсія

Мабуть, зі шкільного курсу фізики пам'ятаєте, що дисперсія - це розсіяння. Яке її місце серед основних понять теорії ймовірностей?

Подивіться два приклади. В одному випадку нам дано: 10 (0,2); 20(0,6); 30(0,2). В іншому – 0(0,2); 20(0,6); 40(0,2). Математичне очікування в обох випадках буде однаковим, як тоді порівнювати ці ситуації? Адже ми бачимо неозброєним оком, що розкид значень у другому випадку значно більший.

І тому було запроваджено поняття дисперсії. Щоб отримати її, необхідно розрахувати математичне очікування від суми різниць кожної випадкової величини та математичного очікування. Візьмемо числа з першого прикладу, записаного у попередньому абзаці.

Спочатку розрахуємо математичне очікування: M(X) = 10*0,2 + 20*0,6 + 30*0,2 = 20. Тоді значення дисперсії: D(X) = 40.

Ще одним із основних понять статистики та теорії ймовірності є середнє квадратичне відхилення. Розрахувати його дуже просто: потрібно лише взяти квадратний корінь з дисперсії.

Тут можна відзначити такий простий термін, як розмах. Це значення, що означає різницю між максимальним та мінімальним значенням у вибірці.

Статистика

Деякі базові шкільні поняття використовують у науці дуже часто. Двома з них є середнє арифметичне та медіана. Напевно, ви пам'ятаєте, як знайти їх значення. Але про всяк випадок нагадаємо: середнє арифметичне - це сума всіх значень, поділена на їхню кількість. Якщо значень 10, ми їх складаємо і ділимо на 10.

Медіана - це центральне значення серед всіх можливих. Якщо маємо непарне кількість величин, ми виписуємо їх у порядку зростання і вибираємо те, що виявилося у середині. Якщо ж у нас парне число значень, ми беремо два центральні і ділимо на два.

Ще два значення, що розташовуються між медіаною та двома крайніми - максимальним і мінімальним - значеннями множини, називаються квартилями. Обчислюються вони так само - при непарному кількості елементів береться число, що розташовується в середині ряду, а при парному - половина суми двох центральних елементів.

Існує і спеціальний графік, на якому можна побачити всі значення вибірки, її розмах, медіану, міжквартальний інтервал, а також викиди – значення, що не вкладаються у статистичну похибку. Зображення, що виходить, носить вельми специфічну (і навіть нематематичну) назву - «ящик з вусами».

Розподіл

Розподіл також відноситься до основних понять теорії ймовірності та математичної статистики. Коротко кажучи, воно є узагальненою інформацією про всі випадкові величини, які ми можемо побачити в результаті випробування. Головним параметром тут буде можливість появи кожного конкретного значення.

Нормальний розподіл - це таке, що має один центральний пік, в якому знаходиться величина, що зустрічається найчастіше. Від нього дугами розходяться менш і менш ймовірні результати. Загалом графік із боку схожий на «гірку». Надалі ви дізнаєтеся, що з даним видом розподілу тісно пов'язана основна для теорії ймовірності центральна гранична теорема. У ній описуються важливі для розглянутого нами відгалуження математики закономірності, дуже корисні при різноманітних розрахунках.

Але повернемось до теми. Існує ще два види розподілів: асиметричний та мультимодальний. Перше виглядає як половинка "нормального" графіка, тобто дуга спускається лише в один бік від пікової величини. Нарешті, мультимодальний розподіл - це таке, яке має кілька «верхніх» значень. Графік таким чином то опускається, то піднімається. Найбільш частотне значення у будь-якому розподілі називається модою. Це також одне з основних понять теорії ймовірностей та математичної статистики.

Гауссовий розподіл

Гауссово, чи нормальне, розподіл - такий, у якому відхилення спостережень від середнього підпорядковується певному закону.

Коротко кажучи, основний розкид значень вибірки експоненційно прагне моди - найчастішому з них. Ще точніше говорити, то 99,6 % всіх величин розташовується в межах трьох стандартних відхилень (пам'ятаєте, ми розглядали це поняття вище?).

Гауссовий розподіл – одне з основних понять теорії ймовірності. За допомогою нього можна зрозуміти, чи входить елемент за тими чи іншими параметрами до розряду «типових» - так оцінюється зростання і вага людини відповідно до віку, рівень інтелектуального розвитку, психологічний стан та багато іншого.

Як застосувати

Цікаво, що «нудні» математичні дані можна використовувати з користю собі. Наприклад, один юнак застосував теорію ймовірності та статистику, щоб виграти в рулетку кілька мільйонів доларів. Щоправда, перед цим довелося підготуватися – протягом кількох місяців записувати результати ігор до різних казино.

Після проведення аналізу він з'ясував, що один із столів трохи нахилений, а значить, ряд значень з'являється статистично значуще частіше за інші. Небагато розрахунків, терпіння – і ось власники закладу ламають голови, думаючи, як людині може так пощастити.

Є безліч повсякденних побутових завдань, які неможливо вирішити без звернення до статистики. Наприклад, як визначити, скільки магазину замовляти одяг різних розмірів: S, M, L, XL? Для цього необхідно проаналізувати, хто частіше купує одяг у місті, у районі, у прилеглих магазинах. Якщо такої інформації не отримати, власник ризикує втратити багато грошей.

Висновок

Ми розглянули безліч основних понять теорії ймовірностей: випробування, подія, перестановки та розміщення, математичне очікування та дисперсія, мода та нормальний розподіл… Крім того, ми розглянули ряд формул, на вивчення яких у вищому навчальному закладі відводиться більше місяця занять.

Не забувайте: математика необхідна щодо економіки, природничих наук, інформаційних технологій, інженерних спеціальностей. Статистику як одну з її областей тут також не можна оминати.

Тепер справа за малим: практикуйтеся, вирішуйте завдання та приклади. Навіть основні поняття та визначення теорії ймовірності забудуться, якщо не приділяти час повторенню. Крім того, наступні формули значною мірою спиратимуться на ті, що були нами розглянуті. Тому постарайтеся їх запам'ятати, тим більше, що їх не так і багато.

Основи теорії ймовірностей та математичної статистики

Основи теорії ймовірностей та математичної статистики Основні поняття теорії ймовірностей Предметом вивчення теорії ймовірностей є кількісні закономірності однорідних випадкових явищ масового характеру. Визначення 1. Подією називається будь-який можливий факт, про який можна сказати, що він станеться чи не станеться в цих умовах. приклад. приклад. Р(А) = m/n. приклад.<Р(А)<1 Основные формулы комбинаторики Определение 1 . Различные группы по m предметов, составленные из n однородных предметов ( m , n ), называются соединениями. Предметы, из которых составляют различные соединения, называют элементами. Существует 3 вида соединений: размещения, перестановки, сочетания. Определение 2. Размещениями по m элементов из данных n элементов ( m ≤ n ) называют такие соединения, которые отличаются друг от друга либо самими элементами, либо их порядком. Например, размещениями из трех предметов a , b и c по два будут следующие соединения: ab , ac , bc , ca , cb , ba . Число размещений из данных n элементов по m обозначают символом А n m = n ( n -1)( n -2)·....·( n - m +1). Пример. А 10 4 =10·9·8·7=5040. Определение 3. Перестановками из n элементов называют такие соединения, которые отличаются друг от друга только порядком элементов. Р n =А n n = n ( n -1)( n -2)...·3·2·1= n ! По определению 0!=1. Пример. Р 5 =5!=1·2·3·4·5=120. Определение 4. Сочетаниями из n элементов по m называются также соединения, которые отличаются друг от друга, по меньшей мере, одним элементом и каждое из которых содержит m различных элементов: C n m === Пример. Найти число сочетаний из 10 элементов по четыре. Решение. C 10 4 ==210. Пример. Найти число сочетаний из 20 элементов по 17. Решение. ==1040. Теоремы теории вероятностей Теорема сложения вероятностей Теорема 1 . Вероятность наступления одного какого-либо события из двух несовместимых событий А и В равно сумме вероятностей этих событий Р(А+В)=Р(А)+Р(В ). Пример. В урне 5 красных, 7 синих и 8 белых шаров, перемешанных между собой. Какова вероятность того, что взятый наугад один шар окажется не красным? Решение. Не красный шар - это или белый или синий шары. Вероятность появления белого шара (событие А) равна Р(А)= 8/20 = 2/5. Вероятность появления синего шара (событие В) равна Р(В)= 7/20. Событие, состоящее в появлении не красного шара, означает появление или А или В, т.к. события А и В несовместимы, то применима теорема 1. Искомая вероятность будет равна Р(А+В)=Р(А)+Р(В)=2/5+ +7/20=3/4. Теорема 2. Вероятность наступления одного из двух событий A или B равно сумме вероятностей этих событий минус вероятность их совместного появления P ( A + B )= P ( A )+ P ( B )+ P ( AB ). Теорема умножения вероятностей Определение 1. Два события A и B называются независимыми друг от друга, если вероятность одного из них не зависит от наступления или ненаступления другого. Пример. Пусть A - событие, состоящее в появлении герба при первом бросании монеты, а B - событие, состоящее в появлении герба при втором бросании монеты, то события A и B не зависят друг от друга, т.е. результат первого бросания монеты не может изменить вероятность появления герба при втором бросании монеты. Определение 2. Два события A и B называются зависящими друг от друга, если вероятность одного из них зависит от наступления или ненаступления другого. Пример. В урне 8 белых и 7 красных шаров, перемешанных между собой. Событие A - появление белого шара, а событие B - появление красного шара. Будем брать из урны наугад два раза по одному шару, не возвращая их обратно. До начала испытания вероятность появления события A равна P ( A )=8/15, и вероятность события B равна P ( B )=7/15. Если предположить, что в первый раз был взят белый шар (событие A ), то вероятность появления события B при втором испытании будет P ( B )=7/14=1/2. Если в первый раз был взят красный шар, то вероятность появления красного шара при втором извлечении равна P ( B )=6/14=3/7. Определение 3. Вероятность события B , вычисленная в предположении, что перед этим наступило связанное с ним событие A , называется условной вероятностью события B и обозначается PA ( B ). Теорема 3 . Вероятность совместного наступления двух зависимых событий ( A и B ) равна произведению вероятности одного из них на условную вероятность другого, вычисленную в предположении, что первое событие произошло, т.е. P ( AB )= P ( A )· P A ( B )= P ( B )· P B ( A ). Теорема 4. Вероятность совместного наступления нескольких зависимых событий равно произведению вероятности одного из них на условные вероятности всех остальных событий, вычисленные в предположении, что все предыдущие события уже наступили: P(A 1 A 2 A 3 ...A k )=P(A 1 )·P A1 (A 2 )·P A1A2 ·P(A 3 )...·P A1A2…A k-1 (A k ) Теорема 5 . Вероятность совместного наступления двух независимых событий A и B равна произведению вероятностей этих событий P ( AB )= P ( A )· P ( B ). Теорема 6 . Вероятность совместного наступления нескольких независимых событий A 1 , A 2 , ... A k равна произведению их вероятностей, т.е. P ( A 1 A 2 ... A k )= P ( A 1 )· P ( A 2 )·...· P ( A k ). Пример. Два стрелка делают одновременно по одному выстрелу в одну цель. Какова вероятность того, что оба попадут, если известно, что первый стрелок в среднем дает 7 попаданий, а второй 8 попаданий на каждые 10 выстрелов? Какова вероятность поражения мишени? Решение. Вероятность попадания первого стрелка (событие A ) равна P ( A )=0,8, вероятность попадания второго стрелка (событие B ) равна P ( B )=0,7. События A и B независимы друг от друга, поэтому вероятность совместного наступления этих событий (совместное попадание в цель) найдем по теореме умножения для независимых событий: P ( AB )= P ( A ) P ( B )=0,8·0,7=0,56. Вероятность поражения мишени означает попадание в мишень хотя бы одного стрелка. Так как попадание в мишень первого и второго стрелков являются событиями совместными, то применение теоремы сложения вероятностей для совместных событий дает следующий результат: P(A+B)=P(A)+P(B)-P(AB)=P(A)+P(B)-P(A)·P(B)=0,8+0,7- 0,8·0,7=0,94. 5.3.3. Формула полной вероятности Определение 4. Если при некотором испытании может произойти одно какое-либо событие из нескольких несовместных A 1 , A 2 ,..., A k , и при этом никаких других событий быть не может, но одно из указанных событий обязательно произойдет, то группу событий A 1 , A 2 ,..., A k называют полной группой событий. Теорема 7. Сумма вероятностей событий, образующих полную группу, равна единице: P ( A 1 )+ P ( A 2 )+...+ P ( A k )=1. Следствие. Сумма вероятностей двух противоположных событий равна единице: P ( A )+ P ( A )=1. Если вероятность одного события обозначим через p , вероятность противоположного ему события обозначим через q , тогда p + q =1. Пример. Вероятность попадания в цель равна 0,94. Найти вероятность непопадания. Решение . Попадание в цель и непопадание являются противоположными событиями, поэтому, если p =0,94, то q =1- p =1-0,94=0,06. Теорема 8 . Если случайные события A 1 , A 2 ... A n образуют полную систему, и если событие B может осуществляться только совместно с каким-нибудь одним из этих событий, то вероятность наступления события B можно определить по формуле: P(B)=P(A 1 )P A1 (B)+P(A 2 )P A2 (B)+...+P(A n )P A n (B) Это равенство называется формулой полной вероятности . Пример. На склад готовой продукции поступили изделия из трех цехов, в том числе: 30% из I -го цеха, 45% из II цеха и 25% из III цеха. Среди изделий I цеха брак составляет 0,6%, по II цеху 0,4% и по III цеху-0,16%. Какова вероятность того, что взятое наугад для контроля одно изделие окажется с браком? Решение. Одно изделие может быть взято или из продукции I цеха (событие A 1 ), или из продукции II цеха (событие A 2 ), или из продукции III цеха (событие A 3 ). Вероятности этих событий будут: P ( A 1 )=0,30; P ( A 2 )=0,45; P ( A 3 )=0,25. Вероятность того, что изделие с браком (событие B ) будет взято из продукции I цеха, есть условная вероятность P A 1 ( B ). Она равна P A 1 ( B )=0,006. Вероятность того, что изделие с браком будет взято из продукции II цеха P A 2 ( B )=0,004 и из продукции III цеха P A 3 ( B )=0,0016. Теперь по формуле полной вероятности найдем вероятность того, что взятое наугад одно изделие будет с браком: P(B)=P(A 1 )P A1 (B)+P(A 2 )P A2 (B)+...+P(A 3 )P A3 (B) = 0,3·0,006+0,45·0,004+0,25·0,0016=0,004. Формула Бернулли Теорема 9. Пусть производится n независимых повторных испытаний по отношению к некоторому событию A . Пусть вероятность появления этого события в каждом отдельном испытании остается неизменно равной p , а вероятность появления противоположного события Ā, есть q . Тогда вероятность появления интересующего нас события A равно m раз при указанных n испытаниях рассчитывается по формуле Бернулли: P m , n = p m q n - m , так как, то P m , n = · p m · q n - m Пример. Коэффициент использования станка в среднем равен 0,8. В цехе имеется 5 станков. Какова вероятность того, что в некоторый момент времени окажутся работоспособными только 3 станка? Решение. Задача подходит под схему повторных испытаний и решается по формуле Бернулли: n =5, m =3, p =0,8 и q =1-0,8=0,2: P 3,5 = (0,8) 3 ·(0,2) 2 =0,2084. Асимптотическая формула Пуассона В статистической практике нередко встречаются такие примеры независимых испытаний, когда при большом числе n независимых испытаний вероятность Р появления события в каждом отдельном испытании оказывается сравнительно малой величиной, стремящейся к нулю с увеличением числа испытаний . При этих условиях для вычисления вероятности Р m , n появление события m раз в n испытаниях пользуются асимптотической формулой Пуассона : Р m,n ≈e -a , где a=np Пример. Доля брака всей продукции завода составляет 0,5%. Какова вероятность того, что в партии, состоящей из 400 изделий, окажется три изделия бракованных? Решение. В условии примера дано p =0,005, n =400, m =3, следовательно, a = np =400·0,005=2. Вероятность данного события найдем по формуле Пуассона Р m , n (3,400) = 0,1804. Случайные величины и их числовые характеристики Определение 1. Случайной величиной называется переменная величина, которая в результате опыта принимает одно значение, причем неизвестно заранее, какое именно. Определение 2. Дискретной называется случайная величина, которая может принимать лишь отдельные, изолированные друг от друга значения. Случайная дискретная величина задается законом распределения, связывающим принимаемые ею значения x i и вероятности их принятия p i . Закон распределения чаще всего задается в табличной форме. Графическое представление закона распределения случайной дискретной величины – многоугольник распределения . Числовые характеристики дискретной случайной величины. 1) Математическое ожидание. Определение 3. Математическое ожидание случайной дискретной величины X с конечным числом значений называется сумма произведений возможных ее значений на их вероятности: M ( X ) = μ = x 1 p 1 + x 2 p 2 +...+ x n p n = . Вероятности всех значений случайной дискретной величины удовлетворяют условию нормировки: Свойства математического ожидания. 1 0 Математическое ожидание постоянной (неслучайной) величины С равно самой постоянной M ( C )= C . 2 0 Математическое ожидание алгебраической суммы нескольких случайных величин равно алгебраической сумме математических ожиданий слагаемых M ( X 1 ± X 2 ±...± X n ) = M ( X 1 ) ± M ( X 2 ) ±…± M ( X n ). 3 0 Константу можно вынести за знак математического ожидания M ( CX )= CM ( X ). 4 0 Математическое ожидание произведения нескольких независимых случайных величин равно произведению математических ожиданий этих величин: M ( X 1 X 2 ... X n ) = M ( X 1 ) M ( X 2 )... M ( X ) n . 2) Дисперсия дискретной случайной величины. Определение 4. Дисперсией случайной дискретной величины X называется математическое ожидание квадрата отклонения этой величины от ее математического ожидания. D ( X ) = M {[ X - M ( X )] 2 } = , где M ( X ) = μ Для вычисления дисперсии более удобна формула: D ( X )= M ( X 2 )-[ M ( X )] 2 , т.е. дисперсия случайной величины равна разности между математическим ожиданием квадрата этой величины и квадратом ее математического ожидания. Свойства дисперсии. 1 0 Дисперсия постоянной величины равна нулю D (С) = 0. 2 0 Постоянный множитель можно выносить за знак дисперсии, предварительно возведя его в квадрат: D ( CX ) = C 2 D ( X ). 3 0 Дисперсия суммы нескольких независимых случайных величин равна сумме дисперсий этих величин: D ( X 1 +...+ X n ) = D ( X 1 )+...+ D ( X n ). 4 0 Дисперсия разности двух независимых случайных величин равна сумме дисперсий этих величин D ( X - Y )= D ( X )+ D ( Y ). 3). Среднее квадратическое отклонение Определение 5 . Средним квадратическим отклонением случайной величины называется квадратный корень из дисперсии σ ( X )=. Пример. Найти математическое ожидание и дисперсию случайной величины X , которая задана следующим законом распределения: Решение. Найдем математическое ожидание: M ( x )=1·0,3+2·0,5+5·0,2=2,3. Найдем все возможные значения квадрата отклонения. [ x 1 - M ( x )] 2 =(1-2,3) 2 =1,69 [ x 2 - M ( x )] 2 =(2-2,3) 2 =0,09 [ x 3 - M ( x )] 2 =(5-2,3) 2 =7,29 Напишем закон распределения квадрата отклонения Найдем дисперсию: D ( x )=1,69·0,3+0,09·0,5+7,29·0,2=2,01. Числовые характеристики непрерывной случайной величины. Определение 6. Непрерывной называют случайную величину, которая может принимать все значения из некоторого конечного или бесконечного промежутка. Определение 7. Интегральной функцией распределения называют функцию F ( x ), определяющую для каждого значения x вероятность того, что случайная величина X примет значение меньше x , т.е. F ( x )= P ( X < x ). Свойства интегральной функции распределения 1 0 Значения интегральной функции распределения принадлежат отрезку 0≤ F ( x ) ≤1. 2 0 Функция распределения есть неубывающая функция. Следствие 1. Вероятность того, что случайная величина X попадет в интервал ( a , b ), равна приращению ее интегральной функции распределения на этом интервале P ( a < x < b )= F ( b )- F ( a ). Следствие 2. Вероятность того, что случайная непрерывная величина X примет одно определенное значение равна нулю P ( X = x 1 )=0. 3 0 Если возможные значения случайной величины X принадлежат интервалу ( a , b ), то F ( x )=0 при x ≤ a и F ( x )=1 при x ≥ a . Определение 8. Дифференциальной функцией распределения f ( x ) (или плотностью вероятности) называется производная от интегральной функции f ( x )= F "( x ). Интегральная функция является первообразной для дифференциальной функции, поэтому вероятность того, что случайная непрерывная величина x примет значение, принадлежащее интервалу ( a , b ), определяется равенством: P ( a < x < b )== F ( b )- F ( a )Зная дифференциальную функцию, можно найти функцию распределения: F ( x )= Свойства дифференциальной функции распределения 1 0 Дифференциальная функция распределения есть функция неотрицательная f ( x ) ≥0 2 0 Несобственный интеграл от дифференциальной функции распределения равен единице (условие нормировки): . 1) Математическое ожидание. Математическим ожиданием случайной непрерывной величины X , возможные значения которой прина д лежат отрезку ( a , b ), называется опр е деленный интеграл: M ( X ) = , где f ( x )-плотность вероятности случайной величины X . 2) Дисперсия. Дисперсия непрерывной случайной величины X есть математическое ожидание квадрата отклонения зтой величины от ее математического жидания D(X) = M{ 2 }.Следовательно, если возможные значения случайной величины X принадлежат отрезку ( a ; b ), то D ( x )= или D ( x )= 3) Среднее квадратическое отклонение определяется так: σ ( x ) = Пример. Найти дисперсию случайной величины X , заданной интегральной функцией F ( x )= Решение. Найдем дифференциальную функцию: f ( x )= F ’ ( x )= Выислим математическое ожидание M ( x ) = . Найдем искомую дисперсию D ( x ) = = = 2/4=4/3. Вероятность попадания нормально распределенной случайной величины X в заданный интервал Определение 9. Распределение вероятностей случайной непрерывной величины X называется нормальным, если плотность вероятности описывается формулой: , где μ - математическое ожидание, σ - среднее квадратическое отклонение. Определение 10. Нормальное распределение с параметрами μ = 0, σ = 1 называется нормированным или стандартным. Плотность вероятности нормированного нормального распределения описывается следующей формулой: . Значения данной функции для неотрицательных значений затабулированы. В силу четности функции φ ( x ) значения для отрицательных чисел легко определить φ (- x )= φ ( x ). Пример. Математическое ожидание нормального распределенной случайной величины X равно μ =3 и среднее квадратическое отклонение σ =2. Написать дифференциальную функцию X . Решение. f ( x )= Если случайная величина X распределена по нормальному закону, то вероятность ее попадания в интервал ( a , b ) определяется следующим о б разом: P(aS2=DB= = , яка є незміщеною оцінкою генеральної дисперсії DГ. Для оцінки середнього квадратичного відхилення генеральної сукупності використовують "виправлене" середнє квадратичне відхилення, яке дорівнює квадратному кореню з "виправленої" дисперсії. S= Визначення 14. Довірчим називають інтервал (θ*-δ;θ*+δ), який покриває невідомий параметр із заданою надійністю γ. Довірчий інтервал для оцінки математичного очікування нормального розподілу при відомому середньому квадратичному відхиленні виражаються формулою: =2Ф(t)=γ деε=tδ/ - точність оцінки. Число t визначається рівняння: 2Ф(t)=γ за таблицями функції Лапласа. приклад. Випадкова величина X має нормальний розподіл із відомим середнім квадратичним відхиленнямσ=3. Знайти довірчі інтервали для оцінки невідомого математичного очікування μ за вибірковим середнім X , якщо обсяг вибірки n = 36 і дана надійність оцінки γ = 0,95. Рішення. Знайдемоt із співвідношення 2Ф(t)=0,95; Ф(t)=0,475. З таблиць знаходимо t = 1,96. Знайдемо точність оцінки =tδ/=1,96·3/= 0,98. Довірчий інтервал (x -0,98; x +0,98). Довірчі інтервали з метою оцінки математичного очікування нормального розподілу при невідомомуσ визначається з допомогою розподілу Стьюдента сk=n-1 ступенями свободи: T= , деS - " виправлене " середнє квадратичне відхилення,n - обсяг вибірки. З розподілу Стьюдента довірчий інтервал покриває невідомий параметр μ з надійністю γ: або, де tγ-коефіцієнт Стьюдента знаходиться за значеннями γ (надійності) і k (числу ступенів свободи) з таблиць. приклад. Кількісна ознака X генеральної сукупності розподілена нормально. За вибіркою об'ємуn=16 знайдені вибіркова середняxB=20,2 та "виправлене середнє" квадратичне відхиленняS=0,8. Оцінити невідоме математичне очікування за допомогою довірчого інтервалу з надійністю? = 0,95. Рішення. З таблиці знайдемо: t = 2,13. Знайдемо довірчі межі: = 20,2-2,13 · 0,8 = 19,774 і = 20,2 + 2,13 · 0,8 / = 20,626. Отже, з надійністю 0,95 невідомий параметр знаходиться в інтервалі 19,774<μ <20,626. .Элементы теории корреляции Определение 1. Статистической называют зависимость, при которой изменение одной из величин влечет изменение распределения другой. Определение 2. Если при изменении одной из величин изменяетсясреднее значение другой величины, то такая статистическая зависимость называется корреляционной. Пример. ПустьY-урожай зерна,X-количество удобрений. С одинаковых по площади участков земли при равных количествах внесенных удобрений снимают различный урожай, т.е.Y не является функциейX. Это объясняется влиянием случайных факторов (осадки, температура воздуха и т.д.) Вместе с тем средний урожай является функцией от количества удобрений, т.е.Y связан сX корреляционной зависимостью. Определение 3. Среднее арифметическое значение величиныY, вычисленное при условии, чтоX принимает фиксированное значение, называется условным средним и обозначается. Определение 4. Условным средним называют среднее арифметическое наблюдавшихся значенийx, соответствующихY=y. Можно составить таблицу, определяющую соответствие между значениямиxi и условными среднимиyxi, а затем в декартовой системе координат строят точкиM(xi;yxi) и соединяют их отрезками прямых. Полученная линия называется эмпирической линией регрессииY наX. Аналогично строится эмпирическая линия регрессииX наY. Если точкиMi(xi;yxi) иNi(xy;y) располагаются вдоль прямой, то линия регрессии называется линией прямой регрессии и операция "сглаживания" ломаной сводится к нахождению параметровa иb функцииy=ax+b. Из двух нормальных уравнений: находят коэффициентыa иb. ρxy=a== выборочный коэффициент регрессии признакаY наX. b== Уравнение прямой линии регрессии признакаY наX имеет вид: - =ρyx(x-). Проведя аналогичные расчеты, можно получить следующие математические выражения, характеризующие прямую регрессию признакаX наY:x=cy+d. ρyx=c= = - выборочный коэффициент регрессии признакаX наY. d= - свободный член уравнения. = - уравнение прямой линии регрессии признакаX наY. Показателем тесноты связи являетсякоэффициент корреляции, используемый только при линейной корреляции:r = =. Для решения задач удобна следующая формула: r == . В формуле для коэффициента корреляцииr = числитель дроби всегда меньше знаменателя, следовательно, коэффициент корреляции - всегда правильная дробь между нулем и единицей -1≤r≤+1. Положительное значениеr указывает на прямую связь между признаками; отрицательное - на обратную связь между ними. Данные для корреляционного анализа могут быть сгруппированы в виде корреляционной таблицы. Рассмотрим пример. Пусть проведено наблюдение двух признаков (X иY) у 15 объектов. Составлена следующая таблица первичных данных: Упорядочим первичные данные, поместив их в таблицу: В первом столбце запишем в порядке возрастания значенияxi: 8,9,10,11, а во второй строке - в том же порядке значенияyi: 18,20,24,27,30. На пересечении строк и столбцов запишем число повторений одинаковых пар (xi;yi) в ряду наблюдений. Требуется установить и оценить зависимость случайной величиныY от величиныX, используя данные корреляционной таблицы. n = 15 - объем выборки Используем формулы для корреляционных расчетов. Уравнение регрессииX наY: xy=cy +d =ρxyy+d, где ρxy=. Величина коэффициента корреляцииr=± С учетом частотnx иny формулы регрессионного анализа несколько видоизменяется: ρxy=, где; ; ; ; . .Проверка статистических гипотез. Определение 1. Статистической называют гипотезу о виде неизвестного распределения или о параметрах известных распределений. Определение 2. Нулевой (основной) называют выдвинутую гипотезуH0. Определение 3. Конкурирующей (альтернативной) называют гипотезуH1, которая противоречит нулевой. Определение 4. Статистическим критерием называют специально подобранную величину, распределение которой известно (хотя бы приближенно), которая используется для проверки статистической гипотезы. Определение 5. Критической областью называют совокупность значений критерия, при которых нулевую гипотезу отвергают. Определение 6. Областью принятия гипотезы (областью допустимых значений) называют совокупность значений критерия, при которых нулевую гипотезу принимают. Основной принцип проверки статистических гипотез: если наблюдаемое значение критерия принадлежит критической области, то нулевую гипотезу отвергают; если наблюдаемое значение критерия принадлежит области принятия гипотезы, то гипотезу принимают. Определение 7. Критическими точками (границами)kkp называют точки, отделяющие критическую область от области принятия гипотезы. Определение 8. Правосторонней называют критическую область, определяемую неравенствомK>kkp де kkp>0. Визначення 9. Лівосторонньою називають критичну область, що визначається нерівністю K k2 деk2>k1. Для відшукання критичної області задаються рівнем значимості і шукають критичні точки, виходячи з наступних співвідношень: а) для правосторонньої критичної області P(K>kkp)=α; б) для лівосторонньої критичної області P(K<-kkp)=α; в) для двусторонней критической областиP(K>kkp)=α/2 іP(K<-kkp)=α/2. Пример. По двум независимым выборкам, объемы которыхn1=11 иn2=14, извлеченным из нормальных генеральных совокупностейX иY, найдены исправленные выборочные дисперсииSx2=0,76;Sy2=0,38. При уровне зависимостиα=0,05 проверить нулевую гипотезуH0:Д(x)=Д(y) о равенстве генеральных дисперсий, при конкурирующей гипотезе:H1:Д(x)>Д(y) Рішення. Знайдемо відношення великої виправленої дисперсії до меншої: Fнабл = =2. Оскільки H1:Д(x)>Д(y), то критична область - правостороння. По таблиці по = 0,05 і числам ступенів свободи k1 = n1-1 = 10; k2 = n2-1 = 13 знаходимо критичну точку Fкр (0,05; 10,13) = 2,67. Так як Fнабл На цю тему ознайомтеся з методичними вказівками на цю тему та уважно розберіть рішення прикладів із даної допомоги. Виконайте вправи для самоперевірки.

Елементи теорії ймовірностей.

Основні поняття комбінаторики.Завдання, при вирішенні яких доводиться складати різні комбінації з кінцевого числа елементів та проводити підрахунок числа всіх можливих таких комбінацій, називаються комбінаторними.

Цей розділ математики знаходить широке практичне застосування у багатьох питаннях природознавства та техніки.

Розміщення. Нехай є безліч, що містить nелементів. Кожне його впорядковане підмножина, що містить по mелементів, називається розміщеннямз nелементів по mелементів.

З визначення випливає, що і що розміщення з nелементів по m– це m-елементні підмножини, що відрізняються складом елементів або порядком їхнього прямування.

Кількість розміщень з nелементів по mелементів у кожному позначаються та обчислюються за формулою.

Кількість розміщень з nелементів по mелементів у кожному одно твору mпослідовно спадних натуральних чисел, з яких більше є n.

Для кратності твору перших nнатуральних чисел прийнято позначати ( n-факторіал):

Тоді формулу числа розміщень з nелементів по mелементів можна записати в іншому вигляді: .

приклад 1.Скільки способами з групи, що включає 25 студентів, можна вибрати актив групи у складі старости, заступника старости та профоргу?

Рішення. Склад активу групи є впорядкованою множиною з 25 елементів по три елементи. Значить. Потрібне число способів дорівнює числу розміщень з 25 елементів по три елементи в кожному: , або .

приклад 2.Перед випуском група студентів у 30 осіб обмінялася фотографіями. Скільки всього було роздано фотографій?

Рішення. Передача фотографії одним студентом іншому є розміщення із 30 елементів по два елементи. Кількість фотографій, що шукається, дорівнює числу розміщень з 30 елементів по два елементи в кожному: .

Перестановки. Розміщення з nелементів по nелементів називаються перестановкамиз nелементів.

З визначення випливає, що перестановки є окремим випадком розміщень. Так як кожна перестановка містить усі nелементів безлічі, то різні перестановки відрізняються один від одного лише порядком елементів.

Число перестановок з nелементів даної множини позначають і обчислюють за формулою

приклад 3.Скільки чотирицифрових чисел можна скласти із цифр 1, 2, 3, 4 без повторень?

Рішення. За умовою дано безліч із чотирьох елементів, які потрібно розмістити у певному порядку. Отже, потрібно знайти кількість перестановок із чотирьох елементів: , тобто. із цифр 1. 2, 3, 4 можна скласти 24 чотиризначні числа (без повторень цифр)


приклад 4.Скільки можна розсадити 10 гостей по десяти місцях за святковим столом?

Рішення. Кількість способів, що шукається, дорівнює числу перестановок з десяти елементів: .

Поєднання. Нехай є безліч, що складається з nелементів. Кожна його підмножина, що складається з mелементів, називається поєднаннямз nелементів по mелементів.

Таким чином, поєднання з nелементів по mелементів – це все m-Елементні підмножини n-елементної множини, причому різними множинами вважаються тільки ті, які мають неоднаковий склад елементів.

Підмножини, що відрізняються один від одного порядком прямування елементів, не вважаються різними.

Число підмножин по mелементів у кожному, що містяться в множині nелементів, тобто. число поєднань з nелементів по mелементів у кожному, позначають та обчислюють за формулою: або .

Число поєднань має таку властивість: ().

Приклад 5.Скільки ігор мають провести 20 футбольних команд в однокруговому чемпіонаті?

Рішення. Бо гра будь-якої команди Aз командою Bзбігається з грою команди Bз командою A, то кожна гра є поєднання з 20 елементів по 2. шукане число всіх ігор дорівнює числу поєднань з 20 елементів по 2 елементи в кожному: .

Приклад 6.Скількими способами можна розподілити 12 осіб з бригад, якщо в кожній бригаді по 6 осіб?

Рішення. Склад кожної бригади є кінцевим безліччю з 12 елементів по 6. значить, число способів, що шукається, дорівнює числу поєднань з 12 елементів по 6 в кожному:
.

Випадкові події Імовірність події.Теорія ймовірностей – це математична наука, яка вивчає закономірності у випадкових подіях. До основних понять теорії ймовірностей відносяться випробування та події.

Під випробуванням (досвідом)розуміють реалізацію даного комплексу умов, внаслідок якого безперервно станеться якась подія.

Наприклад, кидання монети – випробування; поява герба мул та цифри – події.

Випадковою подієюназивається подія, пов'язане з цим випробуванням, яке при здійсненні випробування може відбутися, а може і не відбутися. Слово "випадкове" для стислості часто опускають і говорять просто "подія". Наприклад, постріл по меті – це досвід, випадкові події у цьому досвіді – попадання в ціль чи промах.

Подія в даних умовах називається достовірним, якщо в результаті досвіду воно безупинно має відбутися, та неможливимякщо воно свідомо не відбудеться. Наприклад, випадання трохи більше шести очок під час кидання однієї гральної кістки – достовірне подія; випадання десяти очок при киданні однієї гральної кістки - неможлива подія.

Події називаються несуміснимиякщо жодні з них не можуть з'явитися разом. Наприклад, потрапляння та промах при одному пострілі – це несумісні події.

Кажуть, що кілька подій у цьому досвіді утворюють повну системуподій, якщо в результаті досвіду неодмінно має статися хоча б одна з них. Наприклад, при киданні гральної кістки події, що перебувають у випаданні одного, двох, трьох, чотирьох, п'яти та шести очок, утворюють повну групу подій.

Події називаються рівноможливимиякщо жодна з них не є об'єктивно більш можливим, ніж інші. Наприклад, під час кидання монети випадання герба чи числа – події рівноможливі.

Кожна подія має якийсь ступінь можливості. Чисельний захід ступеня об'єктивної можливості події – це ймовірність події. Ймовірність події Aпозначається P(A).

Нехай із системи nнесумісних рівноможливих результатів випробування mрезультатів сприяють події A. Тоді ймовірністюподії Aназивають відношення mчисла наслідків, які сприяють події A, до всіх результатів даного випробування: .

Ця формула називається класичного визначення ймовірності.

Якщо B- Достовірна подія, то n=mі P(B)=1; якщо З- неможлива подія, то m=0і P(С)=0; якщо A- Випадкова подія, то і .

Таким чином, ймовірність події полягає в наступних межах: .

Приклад 7.Гральну кістку підкидають один раз. Знайти ймовірність подій: A- Поява парного числа очок; B- Поява не менше п'яти очок; C- Поява не більше п'яти очок.

Рішення. Досвід має шість рівноможливих незалежних результатів (поява одного, двох, трьох, чотирьох, п'яти та шести очок), що утворюють повну систему.

Події Aсприяють три результати (випадання двох, чотирьох та шести очок), тому ; події B– два результати (випадання п'яти та шести очок), тому ; події C- п'ять результатів (випадання одного, двох, трьох, чотирьох, п'яти очок), тому .

Під час обчислення ймовірності часто доводиться використовувати формули комбінаторики.

Розглянемо приклади безпосереднього обчислення ймовірностей.

Приклад 8.В урні 7 червоних куль та 6 синіх куль. З урни одночасно виймають дві кулі. Яка ймовірність того, що обидві кулі червоні (подія A)?

Рішення. Число рівноможливих незалежних результатів дорівнює .

Події Aсприяють результатів. Отже, .

Приклад 9.У партії із 24 деталей п'ять бракованих. З партії вибирають навмання 6 деталей. Знайти ймовірність того, що серед цих 6 деталей виявляться 2 браковані (подія B)?

Рішення. Число рівноможливих незалежних результатів дорівнює.

Підрахуємо кількість результатів m, що сприяють події B. Серед шести взятих навмання деталей має бути 2 браковані та 4 стандартні. Дві браковані деталі з п'яти можна вибрати способами, а 4 стандартні деталі з 19 стандартних деталей можна вибрати
методами.

Кожна комбінація бракованих деталей може поєднуватися з кожною комбінацією стандартних деталей, тому . Отже,
.

приклад 10.Дев'ять різних книг розставлено навмання на одній полиці. Знайти ймовірність того, що чотири певні книги виявляться поставленими поруч (подія З)?

Рішення. Тут число рівноможливих незалежних наслідків є . Підрахуємо кількість результатів т, що сприяють події З. Уявімо, що чотири певні книги пов'язані разом, тоді зв'язку можна розташувати на полиці методами (в'язка плюс інші п'ять книг). Усередині зв'язки чотири книги можна переставляти методами. У цьому кожна комбінація всередині зв'язки може поєднуватися з кожним із способів утворення зв'язки, тобто. . Отже, .

Теорія ймовірностей та математична статистика


1.ТЕОРЕТИЧНА ЧАСТИНА


1 Збіжність послідовностей випадкових величин та ймовірнісних розподілів


Теоретично ймовірностей доводиться мати справу з різними видами збіжності випадкових величин. Розглянемо такі основні види збіжності: за ймовірністю, з ймовірністю одиниця, в середньому порядку р, за розподілом.

Нехай, ... - Випадкові величини, задані на деякому ймовірнісному просторі (, Ф, P).

Визначення 1. Послідовність випадкових величин, … називається ймовірністю, що сходить до випадкової величини (позначення:), якщо для будь-якого > 0


Визначення 2. Послідовність випадкових величин, … називається схожа з ймовірністю одиниця (майже напевно, майже всюди) до випадкової величини, якщо


тобто. якщо безліч наслідків, для яких () не сходяться до (), має нульову ймовірність.

Цей вид збіжності позначають так: , або, або.

Визначення 3. Послідовність випадкових величин, … називається схожим у середньому порядку р, 0< p < , если


Визначення 4. Послідовність випадкових величин, називається схожою за розподілом до випадкової величини (позначення:), якщо для будь-якої обмеженої безперервної функції


Схожість по розподілу випадкових величин визначається лише термінах збіжності їх функцій розподілу. Тому про цей вид збіжності є сенс говорити і тоді, коли випадкові величини задані на різних ймовірнісних просторах.

Теорема 1.

а) Для того, щоб (Р-п.н.), необхідно і достатньо, щоб для будь-якого > 0

) Послідовність () фундаментальна з ймовірністю одиниця тоді і лише тоді, коли для будь-якого > 0.

Доведення.

а) Нехай А = (: |- | ), А = А. Тоді



Тому затвердження а) є результатом наступного ланцюжка імплікацій:

Р(: )= 0 P() = 0 = 0 Р(А) = 0, m 1 P(A) = 0, > 0 P() 0, n 0, > 0 P( ) 0,

n 0, > 0.) Позначимо = (:), = . Тоді (: (()) не фундаментальна) = і так само, як в а) показується, що (: (()) не фундаментальна) = 0 P() 0, n.

Теорему доведено


Теорема 2. (Критер Коші збіжності майже напевно)

Для того щоб послідовність випадкових величин () була схожа з ймовірністю одиниця (до деякої випадкової величини), необхідно і достатньо, щоб вона була фундаментальна з ймовірністю одиниця.

Доведення.

Якщо, то +

звідки випливає необхідність умови теореми.

Нехай тепер послідовність () є фундаментальною з ймовірністю одиниця. Позначимо L = (: (()) не фундаментальна). Тоді для всіх числова послідовність () є фундаментальною і, згідно з критерієм Коші для числових послідовностей, існує (). Покладемо



Так, певна функція є випадковою величиною і.

Теорему доведено.


2 Метод характеристичних функцій


Метод характеристичних функцій одна із основних засобів аналітичного апарату теорії ймовірностей. Поряд із випадковими величинами (що приймають дійсні значення) теорія характеристичних функцій потребує залучення комплекснозначних випадкових величин.

Багато визначень і властивостей, які стосуються випадкових величин, легко переносяться і комплексний випадок. Так, математичне очікування М ?комплекснозначної випадкової величини ?=?+?? вважається певним, якщо визначено математичні очікування М ?та М ?. У цьому випадку за визначенням вважаємо М ?= М ? + ?М ?. З визначення незалежності випадкових елементів випливає, що комплекснозначні величини ?1 =?1+??1 , ?2=?2+??2незалежні тоді і лише тоді, коли незалежні пари випадкових величин ( ?1 , ?1) та ( ?2 , ?2), або, що те саме, незалежні ?-алгебри F ?1, ?1 і F ?2, ?2.

Поряд із простором L 2дійсних випадкових величин з кінцевим другим моментом можна ввести на розгляд гільбертовий простір комплекснозначних випадкових величин ?=?+?? з М | ?|2?|2= ?2+?2, та скалярним твором ( ?1 , ?2)= М ?1?2¯ , де ?2¯ - Комплексно-сполучена випадкова величина.

При операціях алгебри вектори Rn розглядаються як алгебраїчні стовпці,



Як вектор-рядки, a * - (а1, а2, ..., аn). Якщо Rn , то їх скалярним твором (a,b) буде розумітися величина. Зрозуміло, що

Якщо аRn та R=||rij|| - матриця порядку nхn, то



Визначення 1. Нехай F = F(х1,….,хn) - n-вимірна функція розподілу (, ()). Її характеристичною функцією називається функція


Визначення 2 . Якщо? = (?1,…,?n) - випадковий вектор, визначений на імовірнісному просторі зі значеннями, його характеристичної функцією називається функція



де F? = F?(х1,….,хn) - функція розподілу вектора?=(?1, …,?n).

Якщо функція розподілу F(х) має густину f = f(х), то тоді



І тут характеристична функція не що інше, як перетворення Фур'є функції f(x).

З (3) випливає, що характеристичну функцію ??(t) випадкового вектора можна визначити також рівністю



Основні характеристики характеристичних функцій (у разі n=1).

Нехай? =? (?) - Випадкова величина, F? = F? (х) - її функція розподілу та - характеристична функція.

Слід зазначити, якщо, то.



Справді,

де скористалися тим, що математичне очікування твору незалежних (обмежених) випадкових величин дорівнює твору їх математичних очікувань.

Властивість (6) є ключовим за підтвердженням граничних теорем для сум незалежних випадкових величин методом характеристичних функцій. У цьому зв'язку, функція розподілу виражається через функції розподілу окремих доданків вже значно складнішим чином, саме, де знак * означає згортку розподілів.

З кожною функцією розподілу можна зв'язати випадкову величину, що має цю функцію в якості своєї функції розподілу. Тому за викладі властивостей характеристичних функцій можна обмежитися розглядом характеристичних функцій випадкових величин.

Теорема 1.Нехай? - Випадкова величина з функцією розподілу F = F (х) і - її характеристична функція.

Мають місце такі характеристики:

) Поступово безперервна по;

) є дійснозначною функцією тоді і лише тоді, коли розподіл F симетрично


) якщо для деякого n? 1 , то при всіх існують похідні та



)Якщо існує і є кінцевою, то

) Нехай всім n ? 1 та


тоді за всіх |t|

Наступна теорема показує, що характеристична функція однозначно визначає функцію розподілу.

Теорема 2 (єдиності). Нехай F і G - дві функції розподілу, що мають одну й ту саму характеристичну функцію, тобто для всіх



Теорема свідчить, що функція розподілу F = F(х) однозначно відновлюється за своєю характеристичної функції. Наступна теорема дає явне уявлення функції F через.

Теорема 3 (формула узагальнення). Нехай F = F(х) – функція розподілу та – її характеристична функція.

а) Для будь-яких двох точок a, b (a< b), где функция F = F(х) непрерывна,


) Якщо функція розподілу F(х) має щільність f(x),



Теорема 4. Для того, щоб компоненти випадкового вектора були незалежними, необхідно і достатньо, щоб його характеристична функція була твором характеристичних функцій компонент:


Теорема Бохнера-Хінчина . Нехай - безперервна функція, Для того щоб була характеристичною, необхідно і достатньо, щоб вона була невід'ємно-визначеною, тобто для будь-яких дійсних t1, …, tn і будь-яких комплексних чисел



Теорема 5. Нехай – характеристична функція випадкової величини.

а) Якщо для деякого, то випадкова величина є ґратчастою з кроком, тобто


) Якщо двох різних точок, де - ірраціональне число, то випадкова величина? є виродженою:



де а – деяка константа.

с) Якщо, чи випадкова величина? вироджена.


1.3 Центральна гранична теорема для незалежних однаково розподілених випадкових величин


Нехай () - Послідовність незалежних, однаково розподілених випадкових величин. Математичне очікування M= a, дисперсія D= , S = , а Ф(х) – функція розподілу нормального закону з параметрами (0,1). Введемо ще послідовність випадкових величин



Теорема. Якщо 0<<, то при n P(< x) Ф(х) равномерно относительно х ().

У цьому випадку послідовність () називається асимптотично нормальною.

З того, що М= 1 і з теорем безперервності випливає, що поряд зі слабкою збіжністю, ФМ f() Mf() для будь-якої безперервної обмеженої f має місце також збіжність М f() Mf() для будь-якої безперервної f, такий, що |f(x)|< c(1+|x|) при каком-нибудь.

Доведення.

Рівномірна збіжність є наслідком слабкої збіжності і безперервності Ф(х). Далі, без обмеження спільності вважатимуться а = 0, оскільки інакше можна було б розглянути послідовність (), у своїй послідовність () не змінилася б. Отже, для доказу необхідної збіжності досить показати, що (t) e, коли а = 0. Маємо

(t) = де =(t).


Так як існує М, то існує і справедливе розкладання



Отже, при n

Теорему доведено.


1.4 Основні завдання математичної статистики їх коротка характеристика


Встановлення закономірностей, яким підпорядковані масові випадкові явища, полягає в вивченні статистичних даних - результатах спостережень. Перше завдання математичної статистики - вказати способи збирання та угруповання статистичних відомостей. Друге завдання математичної статистики – розробити методи аналізу статистичних даних, залежно від цілей дослідження.

При вирішенні будь-якого завдання математичної статистики мають у своєму розпорядженні два джерела інформації. Перший і найбільш певний (явний) - це результат спостережень (експерименту) як вибірки з деякої генеральної сукупності скалярної або векторної випадкової величини. При цьому обсяг вибірки n може бути фіксований, а може й збільшуватись у ході експерименту (тобто можуть використовуватися так звані послідовні процедури статистичного аналізу).

Друге джерело - це вся апріорна інформація про цікаві властивості об'єкта, що вивчається, яка накопичена до поточного моменту. Формально обсяг апріорної інформації відображається у тій вихідній статистичній моделі, яку вибирають при вирішенні задачі. Однак і про наближене у звичайному сенсі визначення ймовірності події за результатами дослідів говорити не доводиться. Під наближеним визначенням будь-якої величини зазвичай мають на увазі, що можна вказати межі похибок, у тому числі помилка не вийде. Частота ж події випадкова за будь-якої кількості дослідів через випадковість результатів окремих дослідів. Через випадковість результатів окремих дослідів частота може значно відхилятися від ймовірності події. Тому, визначаючи невідому ймовірність події як частоту цієї події за великої кількості дослідів, не можемо вказати межі похибки і гарантувати, що помилка не вийде з цих меж. Тому в математичній статистиці зазвичай говорять не про наближені значення невідомих величин, а про їх відповідні значення, оцінки.

Завдання оцінювання невідомих параметрів виникає у випадках, коли функція розподілу генеральної сукупності відома з точністю до параметра. У цьому випадку необхідно знайти таку статистику, вибіркове значення якої для аналізованої реалізації xn випадкової вибірки можна вважати наближеним значенням параметра. Статистику, вибіркове значення якої будь-якої реалізації xn приймають за наближене значення невідомого параметра, називають його точковою оцінкою чи навіть оцінкою, а - значенням точкової оцінки. Точкова оцінка має задовольняти цілком певним вимогам у тому, щоб її вибіркове значення відповідало справжньому значенню параметра.

Можливим є й інший підхід до вирішення цієї задачі: знайти такі статистики і, щоб з ймовірністю? виконувалася нерівність:



У цьому випадку говорять про інтервальну оцінку. Інтервал



називають довірчим інтервалом з коефіцієнтом довіри?.

Оцінивши за результатами дослідів ту чи іншу статистичну характеристику, постає питання: наскільки узгоджується з досвідченими даними припущення (гіпотеза) про те, що невідома характеристика має саме те значення, яке отримано в результаті оцінювання? Так виникає другий важливий клас задач математичної статистики – завдання перевірки гіпотез.

У певному сенсі завдання перевірки статистичної гіпотези є оберненою до завдання оцінювання параметра. При оцінюванні параметра ми нічого не знаємо про його дійсне значення. При перевірці статистичної гіпотези з якихось міркувань передбачається відомим його значення і необхідно за результатами експерименту перевірити це припущення.

У багатьох завданнях математичної статистики розглядаються послідовності випадкових величин, що сходяться в тому чи іншому сенсі до певної межі (випадкової величини чи константи), коли.

Таким чином, основними завданнями математичної статистики є розробка методів знаходження оцінок та дослідження точності їх наближення до оцінюваних характеристик та розробка методів перевірки гіпотез.


5 Перевірка статистичних гіпотез: основні поняття


Завдання розробки раціональних методів перевірки статистичних гіпотез – одне з основних завдань математичної статистики. Статистичною гіпотезою (або просто гіпотезою) називають будь-яке твердження про вид або властивості розподілу випадкових величин, що спостерігаються в експерименті.

Нехай є вибірка, що є реалізацією випадкової вибірки з генеральної сукупності, густина розподілу якої залежить від невідомого параметра.

Статистичні гіпотези щодо невідомого істинного значення параметра називають параметричними гіпотезами. При цьому якщо - скаляр, то йдеться про однопараметричні гіпотези, а якщо вектор - то про багатопараметричні гіпотези.

Статистичну гіпотезу називають простою, якщо вона має вигляд

де - Деяке задане значення параметра.

Статистичну гіпотезу називають складною, якщо вона має вигляд


де - кілька значень параметра, що складається більш ніж з одного елемента.

У разі перевірки двох простих статистичних гіпотез виду

де - два заданих (різних) значення параметра, першу гіпотезу зазвичай називають основною, а другу - альтернативною, чи конкуруючої гіпотезою.

Критерієм, чи статистичним критерієм, перевірки гіпотез називають правило, яким за даними вибірки приймається рішення про справедливості або першої, або другої гіпотези.

Критерій задають за допомогою критичної множини, що є підмножиною вибіркового простору випадкової вибірки. Рішення приймають так:

)якщо вибірка належить критичній множині, то відкидають основну гіпотезу і приймають альтернативну гіпотезу;

)якщо вибірка не належить критичній множині (тобто належить доповненню множини до вибіркового простору), то відкидають альтернативну гіпотезу і приймають основну гіпотезу.

При використанні будь-якого критерію можливі помилки таких видів:

1) прийняти гіпотезу, коли правильна - помилка першого роду;

)прийняти гіпотезу, коли вірна - помилка другого роду.

Імовірності вчинення помилок першого та другого роду позначають і:

де - ймовірність події за умови, що справедлива гіпотеза

Імовірність скоєння помилки першого роду називають рівнем значущості критерію.

Величину, що дорівнює ймовірності відкинути основну гіпотезу, коли вона вірна, називають потужністю критерію.


1.6 Критерій незалежності


Є вибірка ((XY), …, (XY)) із двомірного розподілу

L з невідомою функцією розподілу, для якої потрібно перевірити гіпотезу H: де деякі одномірні функції розподілу.

Простий критерій згоди для гіпотези H можна побудувати, ґрунтуючись на методиці. Цю методику застосовують для дискретних моделей з кінцевим числом результатів, тому умовимося вважати, що випадкова величина набуває кінцевого числа s деяких значень, які позначатимемо літерами, а друга компонента - k значень. Якщо вихідна модель має іншу структуру, попередньо групують можливі значення випадкових величин окремо по першій і другій компонентам. І тут безліч розбивається на s інтервалів, безліч значення - на k інтервалів, а саме безліч значень - на N=sk прямокутників.

Позначимо через число спостережень пари (кількість елементів вибірки, що належать прямокутнику, якщо дані групуються), отже. Результати спостережень зручно розташувати як таблиці спряженості двох знаків(табл. 1.1) . У додатках і зазвичай означають дві ознаки, якими проводиться класифікація результатів спостереження.

Нехай Р, i = 1, ..., s, j = 1, ..., k. Тоді гіпотеза незалежності означає, що є s+k постійних таких, як і, тобто.


Таблиця 1.1

Сума . . .. . .. . . . . .. . .. . . . . . . . . . . . . . .Сума . . .n

Таким чином, гіпотеза H зводиться до твердження, що частоти (число їх дорівнює N = sk) розподілені за поліноміальним законом з ймовірностями наслідків, що мають зазначену специфічну структуру (вектор ймовірностей наслідків р визначається значеннями r=s+k-2 невідомих параметрів.

Для перевірки цієї гіпотези, знайдемо оцінки максимальної правдоподібності для визначальних схему невідомих параметрів. Якщо справедлива нульова гіпотеза, то функція правдоподібності має вигляд L(p)= де множник від невідомих параметрів не залежить. Звідси за методом невизначених множників Лагранжа отримуємо, що оцінки, що шукаються, мають вигляд

Отже, статистика

L() при, оскільки число ступенів свободи в граничному розподілі дорівнює N-1-r=sk-1-(s+k-2)=(s-1)(k-1).

Отже, за досить великих n можна використовувати таке правило перевірки гіпотези: гіпотезу Н відкидають тоді і лише тоді, коли обчислене за фактичними даними значення t статистики задовольняє нерівності

Цей критерій має асимптотично (при) заданий рівень значущості та називається критерієм незалежності.

2. ПРАКТИЧНА ЧАСТИНА


1 Розв'язання задач про типи збіжності


1. Довести, що зі збіжності майже напевно випливає збіжність за ймовірністю. Наведіть контрольний приклад, який показує, що зворотне твердження неправильне.

Рішення. Нехай послідовність випадкових величин сходить до випадкової величини x майже напевно. Значить, для будь-кого? > 0

Так, то

і зі збіжності xn до x майже напевно випливає, що xn сходить до x за імовірністю, тому що в цьому випадку

Але зворотне твердження неправильне. Нехай - послідовність незалежних випадкових величин, що мають ту саму функцію розподілу F(x), рівну нулю при х? 0 і рівну за х > 0. Розглянемо послідовність


Ця послідовність сходить до нуля за ймовірністю, оскільки

прагне до нуля за будь-якого фіксованого? в. Однак збіжність до нуля майже напевно не буде. Дійсно

прагне до одиниці, тобто з ймовірністю 1 за будь-яких і n в послідовності знайдуться реалізації, що перевершують?.

Зазначимо, що за наявності деяких додаткових умов, що накладаються на величини xn, збіжність ймовірно тягне збіжність майже напевно.

Нехай xn – монотонна послідовність. Довести, що в цьому випадку збіжність xn до x ймовірно тягне за собою збіжність xn до x з ймовірністю 1.

Рішення. Нехай xn - монотонно спадаюча послідовність, тобто. Для спрощення наших міркувань вважатимемо, що x º 0, xn ³ 0 за всіх n. Нехай xn сходить до x за ймовірністю, проте збіжність майже напевно немає. Тоді існує? > 0, таке, що з усіх n


Але й сказане означає, що за всіх n

що суперечить збіжності xn до x за ймовірністю. Таким чином, для монотонної послідовності xn, що сходить до x за ймовірністю, має місце і збіжність з ймовірністю 1 (майже напевно).

Нехай послідовність xn сходить до x за ймовірністю. Довести, що з цієї послідовності можна виділити послідовність, що сходить до x з ймовірністю 1 при.

Рішення. Нехай - деяка послідовність позитивних чисел, причому, і - такі позитивні числа, що ряд. Побудуємо послідовність індексів n1

Тоді ряд


Так як ряд сходиться, то за будь-якого? > 0 залишок ряду прагне нулю. Але тоді прагне нуля і



Довести, що з збіжності в середньому будь-якого позитивного порядку випливає збіжність за ймовірністю. Наведіть приклад, який показує, що зворотне твердження неправильне.

Рішення. Нехай послідовність xn сходить до величини x у середньому порядку р > 0, тобто



Скористаємося узагальненою нерівністю Чебишева: для довільних? > 0 і р > 0



Спрямувавши та враховуючи, що, отримаємо, що



тобто xn сходить до x за ймовірністю.

Однак збіжність ймовірно не тягне за собою збіжність в середньому порядку р > 0. Це показує наступний приклад. Розглянемо ймовірнісний простір áW, F, Rñ, де F = B – борелівська s-алгебра, R – міра Лебега.

Визначимо послідовність випадкових величин наступним чином:

Послідовність xn сходить до 0 за ймовірністю, оскільки



але за будь-якого р > 0



тобто збіжність у середньому не матиме.

Нехай, до чого всім n . Довести, що в цьому випадку xn сходить до x у середньоквадратичному.

Рішення. Зауважимо, те й. Отримаємо оцінку. Розглянемо випадкову величину. Нехай? - Довільне позитивне число. Тоді при та за.



Якщо, то й. Отже, . А оскільки? як завгодно мало і, то при, тобто в середньоквадратичному.

Довести, що й xn сходиться до x ймовірно, має місце слабка збіжність. Наведіть контрольний приклад, який показує, що зворотне твердження неправильне.

Рішення. Доведемо, що якщо, то в кожній точці х, що є точкою безперервності (це необхідна і достатня умова слабкої збіжності), – функція розподілу величини xn, а – величини x.

Нехай х - точка безперервності функції F. Якщо, то справедливо принаймні одна з нерівностей або. Тоді



Аналогічно, при справедливо хоча б одна з нерівностей або






Якщо, то для скільки завгодно малого? > 0 існує таке N, що з усіх п > N



З іншого боку, якщо х – точка безперервності то можна знайти таке? > 0, що для скільки завгодно малого



Значить, для скільки завгодно малих? і існує таке N, що за п >N




або, що те саме,



Це означає, що у всіх точках безперервності має місце збіжність та. Отже, зі збіжності ймовірно випливає слабка збіжність.

Назад твердження, взагалі кажучи, не має місця. Щоб переконатися в цьому, візьмемо послідовність випадкових величин, не рівних з ймовірністю 1 постійним і мають одну й ту саму функцію розподілу F(x). Вважаємо, що за всіх п величини і незалежні. Очевидно, слабка збіжність має місце, оскільки у всіх членів послідовності одна й та сама функція розподілу. Розглянемо:

|З незалежності та однакової розподіленості величин, випливає, що




Виберемо серед усіх функцій розподілів невироджених випадкових величин таку F(x), що буде від нуля при всіх досить малих? Тоді не прагне нуля при необмеженому зростанні п і збіжність по ймовірності мати місце не буде.

7. Нехай має місце слабка збіжність, де з імовірністю є постійна. Довести, що в цьому випадку буде сходитися до ймовірності.

Рішення. Нехай із ймовірністю 1 дорівнює а. Тоді слабка збіжність означає збіжність за будь-яких. Так, то при і при. Тобто при і за. Звідси випливає, що для будь-кого? > 0 ймовірності



прагнуть до нуля при. Це означає що

прагне до нуля при, тобто сходитися до ймовірності.

2.2 Розв'язання задач на ЦПТ


Значення гамма-функції Г(x) за x= обчислюється методом Монте-Карло. Знайдемо мінімальну кількість випробувань необхідних для того, щоб з ймовірністю 0,95 можна було очікувати, що відносна похибка обчислень буде менше одного відсотка.

Для з точністю до маємо



Відомо що



Зробивши в (1) заміну, приходимо до інтеграла по кінцевому проміжку:



У нас, тому


Як видно, уявно у вигляді, де, а розподілена рівномірно на. Нехай зроблено статистичні випробування. Тоді статистичним аналогом є величина



де, - незалежні випадкові величини з рівномірним розподілом. При цьому



З ЦПТ слід, що асимптотично нормальна з параметрами.






Значить, мінімальна кількість випробувань, що забезпечує з ймовірністю відносну похибку обчислення трохи більше.


Розглядається послідовність із 2000 незалежних однаково розподілених випадкових величин з математичним очікуванням, рівним 4, та дисперсією, що дорівнює 1,8. Середнє арифметичне цих величин є випадковою величиною. Визначити ймовірність того, що випадкова величина набуде значення в інтервалі (3,94; 4,12).

Нехай, …,…- послідовність незалежних випадкових величин, мають однаковий розподіл M=a=4 і D==1,8. Тоді до послідовності () застосовна ЦПТ. Випадкова величина

Імовірність того, що набуде значення в інтервалі ():



При n=2000, 3,94 та 4,12 отримаємо



3 Перевірка гіпотез критерієм незалежності


В результаті проведеного дослідження було встановлено, що у 782 світлооких батьків сини теж мають світлі очі, а 89 світлооких батьків сини - темноокі. У 50 темнооких батьків сини також темноокі, а у 79 темнооких батьків сини - світлоокі. Чи є залежність між кольором очей батьків та кольором очей їхніх синів? Рівень довіри прийняти рівним 0,99.


Таблиця 2.1

ДітиБатькиСумаСвітлоокіТемноокіСвітлоокі78279861Темноокі8950139Сумма8711291000

H: немає залежності між кольором очей дітей та батьків.

H: є залежність між кольором очей дітей та батьків.



s=k=2 =90,6052 з першого ступеня свободи

Обчислення зроблено у програмі Mathematica 6.

Оскільки > , то гіпотезу H про відсутність залежності між кольором очей батьків і дітей, при рівні значущості, слід відхилити і прийняти альтернативну гіпотезу H.


Стверджується, що результат дії ліків залежить від способу застосування. Перевірте це твердження за даними, наведеними в табл. 2.2 Рівень довіри прийняти дорівнює 0,95.


Таблиця 2.2

РезультатСпосіб застосуванняАВСНесприятливий111716Сприятливий202319

Рішення.

Для розв'язання цього завдання скористаємося таблицею сполученості двох ознак.


Таблиця 2.3

РезультатСпосіб застосуванняСуммаАВСНесприятливий11171644Сприятливий20231962Сумма314035106

H: результат дії ліків не залежить від способу застосування

H: результат дії ліків залежить від способу застосування

Статистика обчислюється за такою формулою



s=2, k=3, =0,734626 з 2 ступенями свободи.


Обчислення зроблено у програмі Mathematica 6

По таблицях розподілу знаходимо, що.

Оскільки< , то гипотезу H, про отсутствия зависимости действия лекарств от способа применения, при уровне значимости, следует принять.


Висновок


У цій роботі наведено теоретичні викладки з розділу «Критерій незалежності», а також «Граничні теореми теорії ймовірностей», курсу «Теорія ймовірностей та математична статистика». У ході виконання роботи на практиці було перевірено критерій незалежності; також для заданих послідовностей незалежних випадкових величин було перевірено виконання центральної граничної теореми.

Ця робота допомогла вдосконалити мої знання з цих розділів теорії ймовірностей, роботи з літературними джерелами, твердо володіти технікою перевірки критерію незалежності.

ймовірнісна статистична гіпотеза теорема

Перелік посилань


1. Збірник завдань з теорії ймовірності з розв'язком. Уч. посібник/За ред. В.В. Семенець. – Харків: ХТУРЕ, 2000. – 320с.

Гіхман І.І., Скороход О.В., Ядренко М.І. Теорія ймовірностей та математична статистика. – К.: Вища шк., 1979. – 408 с.

Івченко Г.І., Медведєв Ю.І., Математична статистика: Навч. посібник для втузів. - М: Вищ. шк., 1984. - 248с., .

Математична статистика: Навч. для вузів/В.Б. Горяїнов, І.В. Павлов, Г.М. Цвєткова та ін; За ред. В.С. Зарубіна, А.П. Крищенко. - М: Вид-во МДТУ ім. н.е. Баумана, 2001. – 424с.


Репетиторство

Потрібна допомога з вивчення якоїсь теми?

Наші фахівці проконсультують або нададуть репетиторські послуги з цікавої для вас тематики.
Надішліть заявкуіз зазначенням теми прямо зараз, щоб дізнатися про можливість отримання консультації.