Articolul precedent |
Articolul urmator |
586 11 |
Ultima descărcare din IBN: 2024-04-10 23:11 |
SM ISO690:2012 GARŞTEA, Ala, GRIGOR, Raisa, MAXIMILIAN, Silvestru. Informația: aspect teoretic. In: Integrare prin cercetare și inovare.: Ştiinţe socioumanistice, 28-29 septembrie 2016, Chișinău. Chisinau, Republica Moldova: Centrul Editorial-Poligrafic al USM, 2016, Vol.2, R, SSU, pp. 138-143. ISBN 978-9975-71-818-9. |
EXPORT metadate: Google Scholar Crossref CERIF DataCite Dublin Core |
Integrare prin cercetare și inovare. Vol.2, R, SSU, 2016 |
||||||
Conferința "Integrare prin cercetare și inovare" Chișinău, Moldova, 28-29 septembrie 2016 | ||||||
|
||||||
Pag. 138-143 | ||||||
|
||||||
Descarcă PDF | ||||||
Rezumat | ||||||
Termenul „informație” (informatico) frecvent este identificat cu date statistice. Formularea unei definiții a „informației” este dificilă. De aceea, în continuare, vom recurge la interpretări. De exemplu, „informația” sunt date care reduc incertitudinea. Dar „datele” nu întotdeauna sunt destinate pentru reducerea incertitudini. O altă interpretare a „informației”: datele care satisfac condițiile: 1) există generator de date; 2) datele sunt veridice; 3) există consumatori, utilizatori de date; 4) utilizatorul de date are acces la date; 5) datele sunt necesare pentru adoptarea unor decizii; pot fi considerate „informație” [2]. Lipsa uneia din cele 5 condiții este identică cu lipsa informației, adică datele respective, în asemenea cazuri, nu pot fi considerate informații [2]. Conform lui N.Viner, informația este noțiunea de bază a ciberneticii, ea (informația) nu este nici materie nici energie [3]. Informația este un resurs fără dimensiuni, fără miros dar este cel mai necesar în procesul de utilizare a resurselor materiale, umane, în procese de eficientizare a tuturor activităților umane. Termenul „informație” are sens doar în procesele decizionale. Informația despre un eveniment, inclusiv despre activitățile economice, poate fi prezentată în formă discretă, în profilul unor perioade, continuă pentru perioada respectivă. În economie deosebim indicatori calitativi, cantitativi. Informația poate fi informație numai dacă ea este şi calitativă. Informație necalitativă nu există. Dacă se admite existența informației necalitative, apoi ea va genera și decizii „necalitative”. Însă pentru „informație” există indicatorul cantitativ. Cantitatea informației este cel mai important indicator din teoria informației. Admitem o acțiune, un eveniment A poate avea una și numai una dintr-un număr finit de consecințe, fie acestea , 1,2,... . i C i m Nu știm dinainte care din aceste iC va avea loc, dar se știe: consecința i C poate apărea cu probabilitatea ip , unde 1 1. m i i p Știm că atunci când evenimentul A se va produce, va avea loc în mod sigur una din , 1,2,... . i C i m , dar nu știm care, rezultatul poate fi incert, dar nu complet necunoscut. Estimarea cantitativă a incertitudinii consecinței (rezultatului) i o notăm prin iH . Estimarea este o funcție de probabilitățile , ip adică ( ), ii H f p unde i p – probabilitatea că evenimentul Ava genera rezultatul i C . Lesne de înțeles că funcția (p ) if trebuie să satisfacă condițiile: (1) dacă consecința i C este cunoscută, atunci incertitudinea este egală cu zero ( (1) 0 f ); (2) cu cât este mai mare argumentul (probabilitatea evenimentului) cu atât mai redusă incertitudinea (pentru pi<pj, f(pi)> f(pj)); (3) incertitudinea rezultatului constituit din două rezultate reciproc independente cu probabilitățile i p și j p este egală cu suma incertitudinilor ( (p ,p ) (p ) (p ) i j i j f f f ; (4) H este funcție de toate probabilitățile posibile; (5) H devine maximă în cazul când toate consecințele, rezultatele posibile sunt echiprobabile. Acestor condiții le corespunde funcția logaritmică: H=f(n)=logn, n∈R+*. Pentru 1, log1 0 nH ; pentru două evenimente și care se pot solda cu două rezultate echiprobabile m și n , log log log H nm m n H H . Dacă baza logaritmului este egală cu 2, atunci 12 log 2 1H este unitatea de măsură a incertitudinii, numită bit. Un bit este unitatea de măsurare a incertitudinii unei acțiuni, a unui eveniment care se poate solda cu două rezultate, consecințe echiprobabile. (Unitatea bit provine de la englezimele binary unit, adică unitate binară). Dacă evenimentul A se poate solda cu n rezultate echiprobabile, incertitudinea va fi determinată de funcția 11 1 1 1 1 log log log(n ) ( log ) ( log ) H n n n n n n p p n n n n unde 1 p n – probabilitatea soldării unui rezultat. Dacă rezultatele posibile nu sunt echiprobabile, atunci 1 ( log ) n ii i H p p , numită entropia evenimentului, acțiunii . Proprietățile entropiei: 1) 0, H fiindcă 0 1,log 0; ii pp 2) 0 lim(plogp ) 0 i ii p , (expresia logii pp poate fi scrisă: 0 0 0 0 2 1 log (logp ) ln2 lim lim lim lim( ) 0 1 1 1 ln2 () i i i i i i i i p p p p i i i p p p p p p ); 3) pentru 1 ip expresia logii ppeste descrescătoare, pentru 1ip avem log 0; ii pp 4) H este maximă când rezultatele posibile ale evenimentului sunt echiprobabile. Dacă evenimentele și sunt independente, atunci entropiile acestora sunt determinate de formulele 11 ( log ); ( log ). i i j j mn ii H p p H p p Dacă însă evenimentul este complex, componentele acestuia și constituie evenimente reciproc dependente. În asemenea cazuri ,, H H H H H H unde H – entropia evenimentului cu condiția că este cunoscută entropia evenimentului ; H – entropia evenimentului cu condiția că este cunoscută entropia evenimentului . Tabelul Similar, linia 1 A , tabelul 2, constituie entropia 1A H ; linia 2 A – entropia 2A H etc. Fiecare din aceste entropii, ponderate fiind cu probabilitățile i Ap obținem entropia condiționată 1 1 1 log log i i i j i j i m m n A A A B A B A i i j H H H p p p p p . În toate cazurile posibile au loc relațiile 0 HH ; 0 HH . Adică entropia condiționată se găsește în intervalul zero și valoarea entropiei necondiționate. Altfel spus, cunoașterea unui rezultat al unui eveniment poate doar reduce incertitudinea. Din relațiile de mai sus rezultă ; ; . H H H H H H H Pentru două evenimente reciproc dependente și entropia ponderată a evenimentului cu condiția că a avut loc evenimentul , de regulă . HH Diferența HH descrește odată cu reducerea interdependenței dintre evenimentele și până la realizarea HH când evenimentele și devin totalmente independente. Altfel spus, HH este o exprimare cantitativă a reducerii entropiei, a incertitudinii evenimentului după realizarea evenimentului . Diferența HH reprezintă informația despre evenimentul ,I H H . Informația economică este un resurs necesar în toate activitățile economice. „Longevitatea” vieții acestui „resurs” este extrem de scurtă, „resursul” sistematic trebuie actualizat. Economistul în activitățile sale are nevoie de două teorii: teoria deciziilor optime 1 , 2 și teoria informației. Nu este secundă nici „iscusința” economistului de a selecta din mulțimea datelor informaționale informația minim necesară pentru adoptarea deciziilor. |
||||||
|