1.5. Măsurată prin cantitatea de informații?
Cât de multe informații sunt conținute, de exemplu, în textul romanului „Război și Pace“, în frescele lui Rafael, sau în codul genetic uman? Răspunsul la aceste întrebări nu dă știință și, după toate probabilitățile, nu va fi în curând. Este posibil să se măsoare în mod obiectiv cantitatea de informații. Cel mai important rezultat al teoriei informației este următoarea concluzie:
În termeni foarte generali pot fi neglijate de informații de calitate, să-și exprime numărul său număr, precum și pentru a compara cantitatea de informații conținute în diferitele grupuri de date.
În prezent, s-au răspândit abordări pentru a determina conceptul „cantitate de informație“, bazată pe faptul că informațiile cuprinse în raport, poate fi interpretat vag în sensul noutății sale sau altfel reduce incertitudinea cunoștințelor noastre despre obiect. Aceste abordări utilizează conceptul matematic de probabilitate și logaritmului. Dacă nu sunteți familiarizați cu aceste concepte, puteți sări peste acest material.
Abordări pentru a determina cantitatea de informații. Hartley și formula lui Shannon.
inginer american R. Hartley în 1928, procesul de obținere a informațiilor considerate ca alegerea unui mesaj din avansul final de un anumit set de N mesaje la fel de probabile, iar cantitatea de informații I, conținute în mesajul selectat este definit ca un logaritm binar de N.
formula Hartley: I = log2 N
Să presupunem că trebuie să ghicească numărul de unul dintr-un set de numere una la sută. Conform formulei Hartley vă puteți calcula cantitatea de informație necesară pentru acest lucru: I = log2 100> 6.644. Astfel, pentru ghicitul corect numărul mesajului conține cantitatea de informații de aproximativ 6.644 de unități de informații.
Aici sunt alte exemple de mesaje la fel de probabile.- cu clatina monede, „am avut cozile.“ "Fallen vultur";
- pe pagina cărții: „un număr par de litere“ „Un număr impar de litere.“
Să ne acum stabili dacă posturile sunt la fel de probabile, „prima femeie din ușa clădirii“ și „primul care a ieșit din om ușa clădirii.“ răspunsul la această întrebare nu poate fi clar. Totul depinde de ce fel de clădire este în cauză. Dacă este, de exemplu, stația de metrou, probabilitatea de primul pentru a ieși din uși este aceeași pentru bărbați și femei, iar în cazul în care este o cazarmă militară, pentru bărbați, această probabilitate este mult mai mare decât în cazul femeilor.
În sensul acestui tip de un om de știință american Klod Shennon a propus în 1948 o formulă diferită pentru determinarea cantității de informații care să ia în considerare posibila probabilitatea inegală a mesajelor în set.
Este ușor de observat că în cazul în care p1 de probabilitate. pN egale, atunci fiecare dintre ele este egal cu 1 / N. și formula Shannon Hartley transformă în formulă.
Pe lângă cele două abordări luate în considerare pentru a determina cantitatea de informații, există alte. Este important să ne amintim că orice rezultate teoretice sunt aplicabile numai la un anumit interval de cazuri prezentate ipotezele inițiale.
Ca informații Klod Shennon a propus o unitate de un bit (bit English -. Bi narydigit - cifre binare).
Luptele teoriei informației - cantitatea de informații necesare pentru a distinge între două mesaje la fel de probabile (cum ar fi „vultur“ - „cozi“, „ciudat“ - „ciudat“, etc.).
În calcul, un bit este cea mai mică „porțiune“ de memorie de calculator necesare pentru a stoca una dintre cele două personaje „0“ și „1“ este utilizat pentru a reprezenta date și echipele intraengine.
Bit - prea mic o unitate de măsură. În practică, folosit de multe ori unități mai mari - bytes. egală cu opt biți. Este de opt biți necesari pentru a codifica oricare dintre cele 256 de caractere ale calculatorului tastatură alfabet (256 = 2 8).
De asemenea, utilizate pe scară largă de unități și mai mari de informații derivate.
1 kilobyte (kB) = 1024 octeți = 2 10 octeți,
1 Megabyte (MB) = 1024 octeți = 2 20 octeți,