Informația: aspect teoretic
Închide
Articolul precedent
Articolul urmator
586 11
Ultima descărcare din IBN:
2024-04-10 23:11
SM ISO690:2012
GARŞTEA, Ala, GRIGOR, Raisa, MAXIMILIAN, Silvestru. Informația: aspect teoretic. In: Integrare prin cercetare și inovare.: Ştiinţe socioumanistice, 28-29 septembrie 2016, Chișinău. Chisinau, Republica Moldova: Centrul Editorial-Poligrafic al USM, 2016, Vol.2, R, SSU, pp. 138-143. ISBN 978-9975-71-818-9.
EXPORT metadate:
Google Scholar
Crossref
CERIF

DataCite
Dublin Core
Integrare prin cercetare și inovare.
Vol.2, R, SSU, 2016
Conferința "Integrare prin cercetare și inovare"
Chișinău, Moldova, 28-29 septembrie 2016

Informația: aspect teoretic


Pag. 138-143

Garştea Ala, Grigor Raisa, Maximilian Silvestru
 
 
 
Disponibil în IBN: 22 aprilie 2019


Rezumat

Termenul „informație” (informatico) frecvent este identificat cu date statistice. Formularea unei definiții a „informației” este dificilă. De aceea, în continuare, vom recurge la interpretări. De exemplu, „informația” sunt date care reduc incertitudinea. Dar „datele” nu întotdeauna sunt destinate pentru reducerea incertitudini. O altă interpretare a „informației”: datele care satisfac condițiile: 1) există generator de date; 2) datele sunt veridice; 3) există consumatori, utilizatori de date; 4) utilizatorul de date are acces la date; 5) datele sunt necesare pentru adoptarea unor decizii; pot fi considerate „informație” [2]. Lipsa uneia din cele 5 condiții este identică cu lipsa informației, adică datele respective, în asemenea cazuri, nu pot fi considerate informații [2]. Conform lui N.Viner, informația este noțiunea de bază a ciberneticii, ea (informația) nu este nici materie nici energie [3].  Informația este un resurs fără dimensiuni, fără miros dar este cel mai necesar în procesul de utilizare a resurselor materiale, umane, în procese de eficientizare a tuturor activităților umane. Termenul „informație” are sens doar în procesele decizionale. Informația despre un eveniment, inclusiv despre activitățile economice, poate fi prezentată în formă discretă, în profilul unor perioade, continuă pentru perioada respectivă. În economie deosebim indicatori calitativi, cantitativi. Informația poate fi informație numai dacă ea este şi calitativă. Informație necalitativă nu există. Dacă se admite existența informației necalitative, apoi ea va genera și decizii „necalitative”. Însă pentru „informație” există indicatorul cantitativ. Cantitatea informației este cel mai important indicator din teoria informației. Admitem o acțiune, un eveniment A poate avea una și numai una dintr-un număr finit de consecințe, fie acestea , 1,2,... . i C i m  Nu știm dinainte care din aceste iC  va avea loc, dar se știe: consecința i C poate apărea cu probabilitatea ip , unde 1 1. m i i p   Știm că atunci când evenimentul A se va produce, va avea loc în mod sigur una din , 1,2,... . i C i m  , dar nu știm care, rezultatul poate fi incert, dar nu complet necunoscut. Estimarea cantitativă a incertitudinii consecinței (rezultatului) i o notăm prin iH . Estimarea este o funcție de probabilitățile , ip adică ( ), ii H f p  unde i p – probabilitatea că evenimentul Ava genera rezultatul i C . Lesne de înțeles că funcția (p ) if trebuie să satisfacă condițiile: (1) dacă consecința i C este cunoscută, atunci incertitudinea este egală cu zero ( (1) 0 f  ); (2) cu cât este mai mare argumentul (probabilitatea evenimentului) cu atât mai redusă incertitudinea (pentru pi<pj, f(pi)> f(pj)); (3) incertitudinea rezultatului constituit din două rezultate reciproc independente cu probabilitățile i p și j p este egală cu suma incertitudinilor ( (p ,p ) (p ) (p ) i j i j f f f ; (4) H este funcție de toate probabilitățile posibile; (5) H devine maximă în cazul când toate consecințele, rezultatele posibile sunt echiprobabile. Acestor condiții le corespunde funcția logaritmică:  H=f(n)=logn, n∈R+*. Pentru 1, log1 0 nH    ; pentru două evenimente  și  care se pot solda cu două rezultate echiprobabile m și n ,  log log log H nm m n H H         . Dacă baza logaritmului este egală cu 2, atunci 12 log 2 1H   este unitatea de măsură a incertitudinii, numită bit. Un bit este unitatea de măsurare a incertitudinii unei acțiuni, a unui eveniment care se poate solda cu două rezultate, consecințe echiprobabile. (Unitatea bit provine de la englezimele binary unit, adică unitate binară). Dacă evenimentul A se poate solda cu n rezultate echiprobabile, incertitudinea va fi determinată de funcția   11 1 1 1 1 log log log(n ) ( log ) ( log ) H n n n n n n p p n n n n           unde 1 p n  – probabilitatea soldării unui rezultat. Dacă rezultatele posibile nu sunt echiprobabile, atunci 1 ( log ) n ii i H p p    , numită entropia evenimentului, acțiunii  . Proprietățile entropiei: 1) 0, H   fiindcă 0 1,log 0; ii pp     2) 0 lim(plogp ) 0 i ii p   , (expresia logii pp poate fi scrisă: 0 0 0 0 2 1 log (logp ) ln2 lim lim lim lim( ) 0 1 1 1 ln2 () i i i i i i i i p p p p i i i p p p p p p              ); 3) pentru 1 ip  expresia logii ppeste descrescătoare, pentru 1ip  avem log 0; ii pp   4) H  este maximă când rezultatele posibile ale evenimentului   sunt echiprobabile.  Dacă evenimentele  și  sunt independente, atunci entropiile acestora sunt determinate de formulele 11 ( log ); ( log ). i i j j mn ii H p p H p p            Dacă însă evenimentul  este complex, componentele acestuia  și  constituie evenimente reciproc dependente. În asemenea cazuri ,, H H H H H H             unde H  – entropia evenimentului  cu condiția că este cunoscută entropia evenimentului  ; H  – entropia evenimentului  cu condiția că este cunoscută entropia evenimentului  . Tabelul Similar, linia 1 A , tabelul 2, constituie entropia 1A H  ; linia 2 A – entropia 2A H  etc. Fiecare din aceste entropii, ponderate fiind cu probabilitățile i Ap obținem entropia condiționată 1 1 1 log log i i i j i j i m m n A A A B A B A i i j H H H p p p p p              .   În toate cazurile posibile au loc relațiile 0 HH      ; 0 HH      . Adică entropia condiționată se găsește în intervalul zero și valoarea entropiei necondiționate. Altfel spus, cunoașterea unui rezultat al unui eveniment poate doar reduce incertitudinea. Din relațiile de mai sus rezultă ; ; . H H H H H H H            Pentru două evenimente reciproc dependente  și  entropia ponderată a evenimentului  cu condiția că a avut loc evenimentul  , de regulă . HH     Diferența HH     descrește odată cu reducerea interdependenței dintre evenimentele  și  până la realizarea HH     când evenimentele  și  devin totalmente independente. Altfel spus, HH     este o exprimare cantitativă a reducerii entropiei, a incertitudinii evenimentului  după realizarea evenimentului  . Diferența HH     reprezintă informația despre evenimentul  ,I H H       . Informația economică este un resurs necesar în toate activitățile economice. „Longevitatea” vieții acestui „resurs” este extrem de scurtă, „resursul” sistematic trebuie actualizat. Economistul în activitățile sale are nevoie de două teorii: teoria deciziilor optime     1 , 2 și teoria informației. Nu este secundă nici „iscusința” economistului de a selecta din mulțimea datelor informaționale informația minim necesară pentru adoptarea deciziilor.