Реферати українською » Коммуникации и связь » Випадкові величини в статистичній радіотехніці


Реферат Випадкові величини в статистичній радіотехніці

Страница 1 из 2 | Следующая страница

Зміст

1. Основні поняття теорії ймовірності

2. Випадкова величина

3. Основні теореми теорії ймовірності

4. Випадкові величини і їхня закони розподілу

>Библиографический список


1. Основні поняття теорії ймовірності

 

Повна група подій: кілька таких подій утворюють повну групу, тоді як результаті досвіду неодмінно мусить з'явитися хоча одне їх.

>Несовместние події: кілька таких подій є >несовместними у цьому досвіді, якщо ніякі дві з них можуть з'явитися разом.

>Равновозможние події: кілька таких подій називаються >равновозможними, є підстави вважати, що жодне їх перестав бути кращим проти іншими.

Частота події: якщо виробляється серія з N дослідів, у кожному у тому числі могло з'явитися або з'явитися деяке подія А, то частотою події А у цій серії дослідів називається ставлення числа дослідів, у яких з'явилося подія А, до загальної кількості вироблених дослідів.

>Частоту події часто називають статистичної ймовірністю і обчислюють виходячи з результатів досвіду за такою формулою , де >m – число появ події А.

При невеличкому числі дослідів N частота не може змінюватися від однієї серії дослідів в іншу через випадковості подій. Проте за великому числі дослідів вона має сталого характеру і намагається до значенням, що називається ймовірністю події.

2. Випадкова величина

 

Випадкової величиною (СВ) називається величина, котра внаслідок досвіду може взяти ту чи іншу значення, причому невідомо заздалегідь, який саме.

Приклади: число передбачень у мішень при обмеженому числі пострілів; число викликів телефоном одиницю часу; кількість некондиційних транзисторів у Комуністичній партії випущених виробів тощо.

Випадкові величини, приймаючі лише окремі значення, які можна полічити, називаються дискретними випадковими величинами.

Існують СВ іншого типу: значення шумового тиску, виміряного у різні моменти часу; вагу буханці хліба, продаваного у книгарні тощо. Називають їх безперервними випадковими величинами.

3. Основні теореми теорії ймовірності

 

Сума і твір подій. Сумою двох подій А і Б називається подія З, яке у виконанні події А, чи події Б, чи обох разом.

Наприклад, якщо подія А – потрапляння до мішень з першого пострілі, подія Б – потрапляння до мішень другий - коли пострілі, то подія З = А + Б є потрапляння до мішень взагалі-то байдуже у якому пострілі – з першого, другий - коли або за обох разом.

Сумою кількох подій називається подія, яке у появу хоча самого з цих подій.

Твором двох подій А і Б називається подія З, яке у спільному виконанні події А і Б.

Якщо виробляється два пострілу по мішені, й якщо подія А є потрапляння з першого пострілі, а подія Б – потрапляння другий - коли пострілі, то З = >АБ є потрапляння при обох пострілах.

Твором кількох подій називається подія, яке у спільному появу всіх подій.

2. Теорему складання ймовірностей. Можливість суми двох неспільних подій дорівнює сумі ймовірностей цих подій:

.


Нехай можливі результати досвіду зводяться до сукупності випадків, які для наочності представлені на рис. 1 як N символів.

>Рис. 1

Припустимо, що з цих випадків >m сприятливі події А, а >k – події Б. Тоді

.

Оскільки події А і Б несумісні, то немає випадків, які сприятливі подій А і Б разом. Отже, події А + Б сприятливі >m + >k випадків і

.

Підставляючи отримані висловлювання на формулу для ймовірності суми двох подій, одержимо тотожність.

Слідство Якщо А1, А2, …, АN утворюють повну групу подій, то не сума їхніх ймовірностей дорівнює одиниці.

Слідство 2. Сума ймовірностей протилежних подій дорівнює одиниці.

3. Теорему множення ймовірностей. Необхідно запровадити поняття незалежних ЗМІ і залежних подій.

Подія А називається незалежним від події Б, якщо ймовірність події А залежить від того, відбулася подія Б чи ні.

Подія А називається залежним від події Б, якщо ймовірність події А змінюється від цього, відбулася подія Б чи ні.

Можливість події А, розрахований за умови, що можна говорити про інше подія У, називається умовної ймовірністю події А і позначається >P(А/У).

Теорему множення ймовірностей: ймовірність твори двох подій дорівнює твору ймовірності однієї з них як на умовну ймовірність іншого, вирахувану за умови, перше можна говорити про:

.

Нехай можливі результати досвіду зводяться до N випадків, які для наочності дано у вигляді символів на рис. 2.

>Рис. 2

Припустимо, що події А сприятливі >m випадків, а події Б>k випадків. Оскільки не передбачалися події А іБ спільними, це вони мають випадки, сприятливі і події А, і події Б одночасно. Нехай число таких випадків l. Тоді >P(АБ) = l/N; >P(A) = >m/N.Вичислим >P(Б/А), тобто. умовну ймовірність події Б в припущенні, що А можна говорити про. Якщо відомо, що подія А сталося, те з що сталися N випадків залишаються можливими лише з >m, які сприяли події А. У тому числі l випадків сприятливі події Б. Отже, >P(Б/А) = l/>m. Підставляючи висловлювання >P(АБ), >P(A) і >P(Б/А) в формулу ймовірності твори двох подій, одержимо тотожність.

Слідство Якщо подія А залежить від події Б, те й подія Б залежить від події А.

Слідство 2. Можливість твори двох незалежних подій дорівнює твору цих подій.

4. Формула повної ймовірності. Формула повної ймовірності є наслідком обох теорем – теореми складання ймовірностей і теореми множення ймовірностей.

Нехай потрібно визначити ймовірність деякого події А, яке може статися разом із однією з подій H1, H2,…, HN, їхнім виокремленням повну групу неспільних подій. Будемо ці події називати гіпотезами. Тоді

,

тобто. ймовірність події А обчислюється як сума творів ймовірності кожної гіпотези на ймовірність події нині гіпотезі.

Ця формула називається формули повної ймовірності.

Оскільки гіпотези H1, H2,…, HN утворюють повну групу подій, то подія А може з'явитися лише у комбінації з якоюсь з цих гіпотез: А = H1А + H2А + …+ HNА. Оскільки гіпотези H1, H2,…, HN несумісні, те й комбінації H1А, H2А, … HNА також несумісні. Застосовуючи до них теорему складання, одержимо:

.

Застосовуючи до події HіА теорему складання, одержимо потрібну формулу.

5. Теорему гіпотез (формула Байєса). Є повна група неспільних гіпотез H1, H2,…, HN.Вероятности цих гіпотез до досвіду відомий і рівні відповідно >P(H1), >P(H2), …, >P(HN).Произведем досвід, у результаті якого спостерігатиметься поява деякого події А. Питається, як потрібно змінити ймовірності гіпотез у зв'язку з появою цієї події?

Тут, сутнісно, йдеться у тому, як знайти умовну ймовірність кожної гіпотези після експерименту.

З теореми множення маємо:

, (і = 1, 2, …, N).

Або, відкидаючи ліву частина, одержимо

, (і = 1, 2, …, N),

звідки

, (і = 1, 2, …, N).

Висловлюючи >P(А) з допомогою формули повної ймовірності, маємо:

, (і = 1, 2, …, N).

Ця формула і має назва формули Байєса чи теореми гіпотез. Використовується вона у теорії перевірки статистичних гіпотез (зокрема, теоретично виявлення сигналів і натомість перешкод).


4. Випадкові величини і їхня закони розподілу

Законом розподілу СВ називається всяке співвідношення, встановлює зв'язок між можливими значеннями випадкової розміру й відповідними їм імовірностями. Про випадкову величину говоритимемо, що вона підпорядкована даному закону розподілу.

>Простейшей формою завдання закону України є табл. 1, у якій перераховані можливі значення СВ й формує відповідні їм ймовірності.

Таблиця 1

>x1 >x2 >xN
>p1 >p2 >pN

Проте таку таблицю неможливо побудувати для безупинної СВ, бо неї кожне окреме значення не має відмінній від нуля ймовірністю.

Для кількісної характеристики розподілу використовують залежність ймовірності події X < x, де x – деяка поточна змінна, від x. Ця функція називається функцією розподілу СВ X і позначається F(x): F(x) = >P(X < x). Функцію розподілу F(x) іноді називають інтегральної функцією розподілу чи інтегральним законом розподілу.

Функція розподілу існує всім СВ – як безперервних, і дискретних.

>Сформулируем деякі загальні властивості F(x):

1) F(x) єнеубивающая функція свого аргументу, тобто. при x2 > x1 F(x2) > F(x1);

2) на –> F(x) дорівнює нулю, тобто. F(–>) = 0;

3) F(>) =

За визначенням, F(x) попри деякий x є можливість влучення СВ X в інтервал від –> до x.

Для дискретної СВ розподіл F(x) має ступінчастий вид, причому величина кожного стрибка дорівнює ймовірності значення, у якому є стрибок F(x).

За позитивного рішення практичних завдань часто необхідно вираховуватимуть можливість, що СВ прийме значення, укладене деяких межах, наприклад, від x1 до x2. Про цю подію називається «потраплянням СВ X на ділянку від x1 до x2».Виразим ймовірність цієї події через функцію розподілу СВ X. І тому розглянемо дві події:

– подія А, яке у тому, що X < x2;

подія У, яке у тому, що X < x1;

– подія З, яке у тому, що x1 < X < x2.

З огляду на, що А = У + З, по теоремі складання ймовірностей одержимо , чи , звідки , тобто. ймовірність влучення СВ на поставлене ділянку дорівнює збільшенню функції розподілу у цьому ділянці.

Нехай є безперервна СВ X з функцією розподілу F(x), яку вважаємо безупинної ідифференцируемой.Вичислим ймовірність влучення цієї СВ на ділянку від x до x + Dx: , тобто. ця можливість дорівнює збільшенню функції розподілу у цьому ділянці. Розглянемо ставлення цієї ймовірності до довжини ділянки або на середню ймовірність, що припадає на одиницю довжини у цьому ділянці. З іншого боку,устремим Dx нанівець. У межі одержимо похідну від функції розподілу:

.

Означимо через >f(x). Отримана функція характеризує щільність, з якою розподіляється значення СВ у цій точці x. Це і щільність ймовірності. Іноді його називають диференційним законом розподілу СВ X.

Якщо X є безперервна СВ з щільністю ймовірності >f(x), то величина >f(x)>dx є елементарна ймовірність, відповідна події – потрапляння СВ X на відрізок >dx.Геометрически це є площа елементарного прямокутника, спирається на відрізок >dx і обмеженого згори функцією >f(x).

Властивості щільності ймовірності:

1) попри всі x, оскільки ймовірність може бути негативною (ще, похіднанеубивающей функції може бути негативною);

2) ;

3) ;

4) властивістьнормировки , тобто. площа, обмежена графіком щільності ймовірності та віссю x, завжди дорівнює 1 (ще, потрапляння СВ X в необмежену по обидва боки вісь x є достовірним подією).

Багато практичних ситуаціях не потрібно характеризувати СВ щільністю ймовірності. Часто буває достатньо вказати лише окремі числові параметри, що характеризують певною мірою суттєві риси розподілу СВ, наприклад, середнє, навколо якого групуються можливі значення СВ; число, характеризує ступінь незібраності цих значень щодо середнього значення й т.д. Такі характеристики називаються числовими характеристиками СВ.

Математичне очікування (МО) іноді називають середнім значенням СВ. Воно позначається й у дискретної СВ визначається за такою формулою

.

Це середнє зважене значення і називають МО.

>Математическим очікуванням СВ називають суму творів всіх можливих значень СВ на ймовірності цих значень.

Математичне очікування СВ X пов'язаний із середнім арифметичним значенням можна побачити значень СВ при великому числі дослідів як і, як і можливість із частотою події, тобто. зі збільшенням числа дослідів середнє арифметичне значення прагне МО.

Для безупинної СВ МО визначається за такою формулою

.

Фізично МО можна трактувати як координату центру ваги тіла (щільності ймовірності). Одиниця виміру МО відповідає одиниці виміру СВ.

Моменти.Дисперсия.Среднеквадратическое відхилення. >Начальним моментом >s-го порядку дискретної СВ X називається сума виду . Для безупинної СВ –


.

З положень цих формул видно, що МО не що інше, як початковий момент СВ X. Умовно, використовуючи знак МО, можна записати вираз для >s-го початкового моменту, тобто. – початковим моментом >s-го порядку СВ X називають МО >s-і ступеня цієї СВ.

>Центрированной СВ, відповідної СВ X, називають відхилення СВ X від неї МО, тобто. . Неважко переконатися, що МОцентрированной СВ одно нулю. Моментицентрированной СВ називають центральними моментами. Отже, центральним моментом >s-го порядку називають МО >s-і ступеня >центрированной СВ: . Для безупинної СВ >s-і центральний момент висловлюють інтегралом:

.

>Введем співвідношення, котрі пов'язують центральні і початкові моменти різних порядків: ; ; ;…

З усіх моментів переважно у статистичної радіотехніці застосовують МО й ті моменти – початковий Центральний. Другий центральний момент називають >дисперсией СВ X. Для неї вводять спеціальне позначення , чи DX.

>Дисперсия характеризує ступінь незібраності (чи розсіювання) СВ X щодо математичного очікування й має розмірність квадрата СВ X. Насправді зручніше користуватися величиною, розмірність якої збігаються зразмерностью СВ. І тому з дисперсії витягають квадратний корінь. Отриману величину називаютьсреднеквадратическим відхиленням (>СКО). Її позначають через . При добуванні квадратного кореня з другого початкового моменту виходить величина, названасреднеквадратическим значенням (>СКЗ). Часто використовують формулу, яка б пов'язала основні моменти:

.

Третій центральний момент служить для характеристики асиметрії (чи «>скошенности») щільності ймовірності. Якщо щільність ймовірності симетрична щодо МО, то ми все моменти непарного порядку рівні нулю. Тож природно як характеристики асиметрії щільності ймовірності вибрати якійсь із непарних моментів, їх найпростіший . Та й щоб мати безрозмірну величину, народних обранців ділять на кубсреднеквадратического відхилення . Отримана величина називається коефіцієнта асиметрії чи навіть асиметрії, позначають її через P.S>k:

.

Четвертий центральний момент служить для характеристики так званої «крутості» (>островершинности чиплосковершинности) щільності ймовірності. Ці властивості розподілу описуються з допомогою з так званого ексцесу: . Кількість 3 віднімається зі ставлення бо дуже поширеного у природі нормального закону цей показник одно трьом.

Крім розглянутих моментів, використовують іноді абсолютні моменти (початкові і центральні): ; . У тому числі найчастіше застосовують перший абсолютний центральний

Страница 1 из 2 | Следующая страница

Схожі реферати:

Навігація