Există o mulțime de definiții ale termenului "informație". Toate acestea reflectă abordări diferite ale interpretării acestui concept.
Primele informații explicație, cum ar fi știri, mesaje, un fel de gen jurnalistic prin care o persoană primește diferite tipuri de informații, a dat jurnaliștilor și lingviști în 20-30-e. XX secol. Mai multe Paie Gaya interpretare a termenului este asociat cu apariția a două noi discipline: teoria matematică (statistică) informații și kiberne-ticuri.
Contribuția la dezvoltarea teoriei informației a fost făcută de inginerul american Ralph Hartley. În 1928, el a propus o măsură logaritmică a informațiilor. Informații de proces a fost considerat ca selectarea unui mesaj din setul final preasignată N mesaje egal probabile, iar cantitatea de informații I, conținute în mesajul selectat, definit prin formula:
Formula Hartley este potrivită numai pentru sistemele ideale. În realitate, totuși, mesajele nu sunt la fel de probabile.
În 1948, inginerul american și matematicianul Claude Shannon au formulat fundamentele teoriei matematice a informațiilor. El a investigat procese și fenomene aleatorii, pentru care incertitudinea rezultatului este caracteristică (da, nu). Informațiile nu au fost înțelese ca orice informație (mesaje), ci doar cele care reduc complet sau complet incertitudinea care a existat înainte de primirea lor. Conform teoriei lui K. Shannon, informația este o incertitudine ușurată.
Incertitudinea există atunci când poate apărea unul din mai multe evenimente. Cantitatea de informații obținute ca rezultat al eliminării incertitudinii se calculează de la o formulă numită formula Shannon:
unde eu sunt cantitatea de informații;
Pi - probabilitate eveniment, 1≤i≤m;
m este numărul tuturor evenimentelor posibile.
Formula pentru determinarea cantității de informații ține seama de posibila probabilitate inegală a mesajelor.