Fig. 3.2. Schema de mișcare a informațiilor în sistem
Întrebarea 4.2. Procesul de transfer de informații. Zgomotul informațiilor
Schema generală a fluxului de informații în sistem este după cum urmează (Figura 3.2):
1) unul dintre evenimentele posibile are loc în sistem. care este fixat de observator;
2) observatorul formulează informații despre evenimentul care a avut loc, determină limba, adică afișează evenimentul în concept;
3) în conformitate cu regulile, conceptul este codificat. adică se înlocuiește cu un semn clar;
4) expeditorul informațiilor transmite mesajul codificat pe canalul de comunicare destinatarului;
6) destinatarul informațiilor evaluează și selectează informațiile necesare pentru utilizare.
mesaje Decodare
În cadrul acestei scheme, există trei tipuri de probleme care pot apărea atunci când se transmit mesaje în sistemele de mașini umane, conform cărora se disting trei aspecte ale cercetării informaționale:
· Problema corectitudinii transmiterii simbolurilor (semnelor) utilizate pentru transmiterea mesajelor este o problemă tehnică;
· Problema acurateței exprimării conținutului simbolurilor - problema sensului;
· Problema efectului mesajului primit asupra alegerii comportamentului destinatarului - problema valorii mesajului.
În procesul de transmitere sau percepție a unui mesaj, unele informații pot fi pierdute din diferite motive. Acest proces este ilustrat în mod clar în Fig. 3.3.
Semnalul fizic pragmatic
Fig. 3.3. Procesul de percepție a informațiilor în sistem
Filtrul fizic reprezintă lărgimea de bandă a canalului de comunicare.
Un filtru semantic este tezaurul utilizatorului (un corp de cunoștințe).
Un filtru pragmatic este un mecanism de evaluare a mesajelor.
Zgomot fizic - zgomot electric, indicii, rezervări, erori tehnice.
Semnalul de zgomot nu este înțeleasă informații.
Zgomotul pragmatic este o informație inutilă.
Inițial, destinatarul primește mesajul reprezentat de o secvență specifică de caractere transmise prin canalul de comunicare fizic. Calitatea recepției depinde de zgomotul fizic din canal și receptor (zgomot electric, indicii, rezervări și erori tehnice similare), pe lățimea de bandă a acestuia din urmă. În acest sens, putem spune că atunci când percepeți mesajul trece un filtru fizic. Ceea ce a trecut prin el poate fi considerat informație sintactică.
Mesajul trebuie înțeleasă și înțeleasă de destinatar. Pentru aceasta, trebuie să treacă tezaurul. Thesaurus (lat. - Treasure) - Dicționar de concepte, care înregistrează ele însele și constantă conceptele, independent de contextul relației dintre ele (reguli, clasificări, etc.). Tezaurul joacă rolul unui filtru semantic. ecranarea zgomotului semantic. fără o corespondență între semn și obiect, între semnul și conceptul pe care o face imposibil de interpretat mesajul primit; Absența în mesaj a informațiilor care nu sunt cuprinse în tezaurul destinatarului; în absența codului destinatarului tezaur pentru a decripta mesajul primit, etc mesaj filtru semantic trecut, și anume adoptarea și includerea în primitorul tezaur -.... există informații semantice.
Prin urmare, în cadrul informațiilor este necesar să se înțeleagă noile cunoștințe, acceptate, înțelese și estimate ca fiind utile pentru decizia acestor sau a altor probleme. Informație - aceasta este ceea ce este adus la beneficiar prin intermediul mecanismului de percepție triplă.
Un exemplu. Semnalele de trafic pentru o persoană care nu este familiarizată cu regulile de trafic poartă informații sintactice: vede doar o culoare galbenă, verde sau roșie. Pentru cei care cunosc aceste reguli, lumina semaforului poartă informații semantice: el știe ce înseamnă fiecare semnal. Pentru o persoană care trece prin stradă, semaforul poartă informații pragmatice: o persoană își construiește comportamentul în funcție de mesajul primit (culoarea semnalului).
Informațiile pot fi măsurate. Trei aspecte ale analizei informațiilor - sintactice, semantice, pragmatice, - determină trei direcții de cercetare cantitativă a informațiilor.
Destinatarul mesajului are o idee clară despre posibila apariție a anumitor evenimente. Aceste reprezentări sunt, în general, nesigure și sunt exprimate prin probabilitățile cu care se așteaptă un eveniment.
Măsura generală a incertitudinii se numește entropie.
Mesajul primitor îndepărtează complet sau parțial incertitudinea, prin urmare, cantitatea de informații din mesaj poate fi măsurată după cât a scăzut entropia sistemului după primirea mesajului. Prin urmare, pentru măsurarea cantității de informații, aceeași entropie este acceptată, dar cu semnul opus # 8209; negentropia.
K. Shannon a sugerat măsurarea cantității de informații conținute în acest mesaj, ca logaritm al probabilității sale, luată cu semnul opus:
I (ai) = - log p (ai), (2)
unde I (ai) este cantitatea de informații din eveniment (mesaj) ai;
p (ai) este probabilitatea de a primi mesajul ai.
Exemplu: observațiile pe termen lung ale vremii (A) arată că probabilitatea de ploaie pe 15 mai este de 0,4 (în consecință, probabilitatea de absență este de 0,6). Numărul de informații proprii conținute în mesajul pe care pe 15 mai plouă, I (a1) = - log 0,4 = 1,32. În mesajul că nu există ploaie, I (a2) = - log 0,6 = 0,74. Cu cât mesajul este mai neașteptat (mai puțin probabil), cu atât mai multe informații conțin.
Conceptul de entropie (din Entropia greacă - rotație, transformare) a introdus fizician german R. Clausius în 1865 g denotă măsură degradarea entropie a oricărui sistem..
Că sistemul nu se degradează, este necesar să se adauge informații suplimentare (negentropie).
Prin urmare, entropia sistemului este o măsură a dezorganizării, iar informația este o măsură de organizare. Ori de câte ori sistemul de observare primește informații, entropia acestui sistem scade.
În formula de absolut absent absolut absolut de negentropie a lui Shannon, informația este privită ca o ambiguitate eliminată, eliminată. Apariția informațiilor elimină, reduce orice incertitudine. Cu toate acestea, informațiile pot fi privite nu numai ca o incertitudine eliminată, ci și mai largi. De exemplu, în biologie, informația este în primul rând o colecție de semnale reale care reflectă diferența calitativă sau cantitativă dintre orice fenomene, obiecte, procese, structuri, proprietăți. Prin această abordare, se crede că conceptul de informație este inseparabil de noțiunea de diversitate. Natura informațiilor constă în diversitate, iar cantitatea de informații exprimă cantitatea de diversitate. Orice proces, obiect, fenomen în circumstanțe diferite poate conține o cantitate diferită de informații. Depinde de soiul observat în sistem.
Setul, în care toate elementele sunt diferite, are valoarea maximă a diversității. Cu cât mai multă diversitate în sistem, cu atât este mai mare incertitudinea în comportamentul unui astfel de sistem. Reducerea diversității reduce incertitudinea sistemului. Probabilitatea de a alege la întâmplare un element dat dintr-un set cu varietatea maximă este egal cu unul împărțit la numărul tuturor elementelor setului 1 / N. Cantitatea de informații în acest caz are valoarea maximă.
Un set care are toate aceleași elemente conține cantitatea minimă de diversitate - un singur element. Cantitatea de informații dintr-o astfel de colecție este zero. În set, informațiile apar numai atunci când un element este diferit de celălalt. Între valoarea minimă și cea maximă a diversității din set, există o serie de stări intermediare care apar ca urmare a restrângerii diversității.
Un mesaj de reducere a incertitudinii conține informații a căror cantitate este asociată cu o schimbare în stările posibile (rezultate):
I = log m - log n,
unde eu sunt cantitatea de informații din mesaj;
m - numărul de evenimente posibile (rezultatele procesului) până la primirea mesajului;
n - numărul de evenimente posibile (rezultatele procesului) după primirea mesajului.
Exemplu: ancheta conține date privind 9 suspecți, inclusiv 3 femei și 6 bărbați. Examinarea a permis să se concluzioneze că suspectul este un bărbat. Cantitatea de informații furnizate de examinare:
I = log 9 - log 6 = 0,59.