Transmiterea informațiilor privind canalul de canal capacitate sknaya

Transmiterea informațiilor prin canalul de comunicație. Capacitatea canalului

Introducerea conceptului de entropie, cantitatea de informații, informații de viteză permite emiterea de redundanță sursă pentru a caracteriza proprietățile sistemelor informatice. Cu toate acestea, compararea sistemelor de informații este doar o astfel de descriere nu este suficient. De obicei, suntem interesați nu numai transferul unei cantități date de informații, dar transferul acestora către cel mai scurt timp posibil; nu numai că ține o anumită cantitate de informații, dar ține pasul cu ajutorul sumei minime de echipamente, etc.

Să presupunem că cantitatea de informații care sunt transmise prin canalul de comunicație este egal cu timpul T

. În cazul în care transmiterea mesajului are unități T de timp, rata de transfer de date va fi.

Această cantitate de informații provenind de la o medie de un singur mesaj. În cazul în care al doilea este transmis n mesaje, rata de transmisie va fi.

Capacitatea canalului este maximă realizabilă pentru o rată de transmisie de date de canal dat:

Sau cantitatea maximă de informații transmise pe unitatea de timp:

Viteza de transmisie poate fi de natură tehnică sau informații.

Sub VT viteză tehnică. De asemenea, manipulare numita viteză se înțelege numărul de semnale elementare (simboluri) sunt transmise într-o unitate de timp baud.

Rata de informare sau rata de informații determinată de valoarea medie a informațiilor transmise pe unitatea de timp este măsurată (biți / sec). R = nH.

Pentru mesajele la fel de probabile compuse în mod egal de simboluri reciproc independente

În cazul în care caracterele nu sunt la fel de

În cazul în care caracterele au durate diferite

Expresia pentru lățimea de bandă este diferită prin aceea că ea asigură entropia maximă

Pentru biți binar / sec

Lățimea de bandă este cea mai importantă caracteristică a canalelor de comunicare. Se pune întrebarea: ce ar trebui să fie capacitatea canalului, informația de la sursă la receptor X Y a acționat fără întârziere? Răspunsul la această întrebare este dat de prima teorema lui Shannon.

Dacă există o sursă de informații către Entropia H (x) și canalul din cauza lățimii de bandă C, dacă C> H (X), este posibil să codifice întotdeauna mesajul suficient de lung, astfel încât acesta va fi transmis fără întârziere. Dacă, dimpotrivă,

În orice interferență reală canal sunt întotdeauna prezente. Cu toate acestea, în cazul în care nivelul este atât de scăzut încât probabilitatea de eroare este practic nulă, se poate presupune că aproximativ toate semnalele sunt transmise nedistorsionat. În acest caz, valoarea medie a informațiilor transportate printr-un simbol egal cu I (X. Y) = I (X. X) = H (X). Valoarea maximă Hmax = log m. Prin urmare, lățimea de bandă discretă fără interferență pe unitatea de timp este egală cu

canale Real sunt caracterizate prin faptul că canalele sunt întotdeauna interferențe. Capacitatea Throughput discret canal zgomotos este calculat cu formula C = n [H (Y) - H (Y / X)] max.

În cazul în medie, entropia condiționată de receptor de semnal

O entropie a semnalelor recepționate se determină din condiția ca valoarea maximă H (y) = log m.

Exemplul 3.1. Să presupunem că doriți să determine capacitatea unei legături binare. Astfel, cu probabilitatea p fiecărei semnale binare pot trece în semnalul opus.

Figura 3.2 prezintă modelul de transfer al semnalelor binare

1 - p probabilitatea de semnalizare nedistorsionată

distorsiune a semnalului de probabilitate p

Figura 3.2. semnalele canalului simetrici în medii zgomotoase, unde x 1 și x2 transmise semnale, cum ar fi „0“ sau „1“, y 1 și y 2. semnale recepționate

Matricea pentru identificarea probabilității condiționale

Noi găsim entropia condiționată completă a sistemului y în raport cu x

Diagrama funcției este următoarea:


Cea mai mare valoare a acestei funcții ia

când p = 0 (adică, în absența zgomotului)

și când p = 1 (adică, atunci când o transmisie negativă).

Când p = 1/2 lățime de bandă este minimă.

Figura 3.3. Graficul funcției C = f (p)

Exemplul 3.2. Luați în considerare mai general caz de transmisie a canalului discret. Am găsit ropusknuyu m canal de comunicare capacitate -ary n.

Fig. 3.4 prezintă transmisia semnalului -ary modelul m, în care x 1, x2, ..., surse x m, y 1 y 2, ..., receptoare de informații YM.

Probabilitatea de eroare - p. Probabilitatea de transmisie fără erori a semnalelor este egal cu 1 - p. iar în cazul unui semnal de eroare poate fi transmis cu o probabilitate egală (egale) să fie perceput ca oricare dintre m-1 altele decât semnalele din acestea.

Figura 3.4. m - canal de transmitere a informațiilor Ary

matricea probabilitate condiționată are forma

entropia condiționată completă a sistemului Y în ceea ce privește X

Graficul funcției C (p) capacitatea canalului atunci când m = 4 este prezentată în figura 3.5

Figura 3.5. Funcția schema C (p)

Această funcție este maximizată când p = 0, cu probabilitatea. Când p = 1.

Pentru canale digitale cu interferență a dat doua teorema lui Shannon.

Să fie o sursă de informații care entropia X. per unitate de timp este egal cu H (X), și un link pentru C. Dacă H (X)> C. atunci pentru orice codificare, transmiterea de mesaje fără întârziere și distorsiunea imposibilă. Dacă H (X)