Informazio kantitate

Informazio-teorian, informazio kantitatea zorizko aldagai batek lagin batean eman dezakeen informazioa da. Formalki, probabilitate teorian edozein gertaerarako definitutako ausazko aldagaia da informazio kantitatea, ausazko aldagaia neurtua izango den ala ez kontuan hartu gabe. Informazio kantitatea informazio-unitateetan adierazten da.

Informazio-teoriaren testuinguruan, informazio kantitatearen itxaropen matematikoa entropia da, eta zera adierazten du: behatzaile batek sistema baten ausazko aldagai baten laginketatik lortzea espero dezaken batezbesteko informazio-kantitatea.[1]

Definizioa

Probabilitate bati dagokion informazio kantitatea erakusten duen grafikoa

X {\displaystyle X} ausazko aldagaia eta haren p ( x ) {\displaystyle p\left(x\right)} probabilitate-funtzioa izanik, X {\displaystyle X} aldagaiak x {\displaystyle x} emaitza lortzeak ematen duen informazio kantitatea horrela definitzen da:

I ( x ) = log p ( x ) = log 1 p ( x ) {\displaystyle I\left(x\right)=-\log p{\left(x\right)}=\log {\dfrac {1}{p\left(x\right)}}}

Grafikoan ikusten den bezala, x {\displaystyle x} gertaeraren p ( x ) {\displaystyle p\left(x\right)} probabilitatea baxua bada (0tik gertukoa), haren informazio ekarpena altua da; probabilitatea altua bada (1etik gertukoa), ordea, informazio-kantitate txikia ekarriko du. p ( x ) {\displaystyle p\left(x\right)} probabilitate bat izanik, [ 0 , 1 ] {\displaystyle \left[0,1\right]} tarteko balio bat hartuko du; 0 bada, informazio kantitatea kalkulatzeak ez dauka zentzurik, emaitza hori gertatzea ezinezkoa delako.

Logaritmo funtziorako aukeratzen den oinarriaren arabera, informazio kantitatea unitate desberdinean neurtzen da. Oinarria 2 bada, unitatea shannon ala bita da.

Propietateak

Gertaera independenteen batura

Bi gertaera independenteen informazio kantitatea gertaeren informazio kantitateen batura da. Matematikan, propietate hori batukortasuna da. Izan bitez X {\textstyle X} eta Y {\textstyle Y} ausazko bi aldagai independente eta p X ( x ) {\displaystyle p_{X}(x)} eta p Y ( y ) {\displaystyle p_{Y}(y)} haien probabilitate-funtzioak, hurrenez hurren. Gertaerak independenteak direnez, baterako probabilitate-funtzioa honakoa da:


p X , Y ( x , y ) = Pr ( X = x , Y = y ) = p X ( x ) p Y ( y ) {\displaystyle p_{X,Y}\!\left(x,y\right)=\Pr(X=x,\,Y=y)=p_{X}\!(x)\,p_{Y}\!(y)}


( X , Y ) = ( x , y ) {\displaystyle (X,Y)=(x,y)} emaitzaren informazio kantitatea honakoa da:


I X , Y ( x , y ) = log 2 [ p X , Y ( x , y ) ] = log 2 [ p X ( x ) p Y ( y ) ] = log 2 [ p X ( x ) ] log 2 [ p Y ( y ) ] = I X ( x ) + I Y ( y ) {\displaystyle {\begin{aligned}\operatorname {I} _{X,Y}(x,y)&=-\log _{2}\left[p_{X,Y}(x,y)\right]=-\log _{2}\left[p_{X}\!(x)p_{Y}\!(y)\right]\\&=-\log _{2}\left[p_{X}{(x)}\right]-\log _{2}\left[p_{Y}{(y)}\right]\\&=\operatorname {I} _{X}(x)+\operatorname {I} _{Y}(y)\end{aligned}}}

Adibideak

Txanpon jaurtiketa

Txanpon bat airera jaurtiz gero, aurpegia ala gurutzea ateratzeko probabilitatea p ( A ) = 0.5 {\displaystyle p(A)=0.5} ekoa eta p ( G ) = 0.5 {\displaystyle p(G)=0.5} ekoa dira, txanpona sahieska erortzea ezinezkoa dela suposatuz, noski. Beraz,

I ( A ) = log 2 p ( A ) = log 2 1 2 = 1 {\displaystyle I{\left(A\right)}=-\log _{2}p{\left(A\right)}=-\log _{2}{\dfrac {1}{2}}=1} ,

I ( G ) = log 2 p ( G ) = log 2 1 2 = 1 {\displaystyle I{\left(G\right)}=-\log _{2}p{\left(G\right)}=-\log _{2}{\dfrac {1}{2}}=1} ,

Informazio hori adierazteko bit bakar batekin nahikoa da.

Arrantzaketa

Demagun ur putzu batean 15 atun ( A {\displaystyle A} ), 13 izokin ( I {\displaystyle I} ) eta 2 txitxarro ( T {\displaystyle T} ) daudela eta bertan arrantzan ari den lagunak arrain bat harrapatu duela. Mota bakoitzeko arraina arrantzatzearen informazio kantitatea horrela kalkulatzen da:

I ( A ) = log 2 p ( A ) = log 2 15 30 = 1 {\displaystyle I{\left(A\right)}=-\log _{2}p{\left(A\right)}=-\log _{2}{\dfrac {15}{30}}=1} ,

I ( I ) = log 2 p ( I ) = log 2 13 30 1.206 {\displaystyle I{\left(I\right)}=-\log _{2}p{\left(I\right)}=-\log _{2}{\dfrac {13}{30}}\approx 1.206} ,

I ( T ) = log 2 p ( T ) = log 2 2 30 3.907 {\displaystyle I{\left(T\right)}=-\log _{2}p{\left(T\right)}=-\log _{2}{\dfrac {2}{30}}\approx 3.907} ,

Ikus daiteke informazio kantitate handieneko gertaera txitxarroa arrantzatzea dela; gertatuz gero, atuna edo izokina arrantzatzeak baino informazio gehiago emango du, putzuaren egoera nabarmenago aldatuko delako.


Entropiarekiko erlazioa

Entropia ausazko aldagai diskretu baten informazio-kantitatearen itxaropen matematikoa da. Batzuetan, entropia aldagaiaren “informazio kantitatea” dela esaten da, seguraski H ( X ) = I ( X ; X ) {\displaystyle \mathrm {H} (X)=\operatorname {I} (X;X)} betetzen delako, I ( X ; X ) {\displaystyle \operatorname {I} (X;X)} izanik X {\displaystyle X} aldagaiak bere buruarekin partekatzen duen elkarrekiko informazioa.

Jatorria

Informazioa sortzen duen entitate batek beste entitate bati informazioa transmititzen diola esaten da, bigarrenak informazio hori aldez aurretik ez bazuen ezagutzen. Izan ere, aldez aurretik eta ziurtasun osoz ezagutuko balu, transmititutakoaren informazio kantitatea zero izango litzateke.

Etorkizuneko gertaera baten emaitza jakina bada aldez aurretik ziurtasun osoz, hau da 1eko probabilitatearekin, gertaera hori behatzeak ez du inolako informaziorik emango. Informazioa emango du hartzaileak ziurtasun osoz mezuaren edukia ez badu ezagutzen; ezaguna bada 1 baino txikiagoa den probabilitatez.

Gertaera bat behatzeak behatzaileari ematen dion informazioa, gertaera horren emaitzak duen probabilitatearen araberakoa da:

I ( ω n ) = f ( P ( ω n ) ) {\displaystyle \operatorname {I} (\omega _{n})=f(\operatorname {P} (\omega _{n}))}


non ω n {\displaystyle \omega _{n}} emaitzak ematen duen informazio kantitatea I ( ω n ) {\displaystyle \operatorname {I} (\omega _{n})} den. f ( P ( ω n ) ) {\displaystyle f(\operatorname {P} (\omega _{n}))} funtzioa ω n {\displaystyle \omega _{n}} emaitzaren probabilitatearen f {\displaystyle f} funtzio bat da. Zera bete behar da:

P ( ω n ) = 1 {\displaystyle \operatorname {P} (\omega _{n})=1} denean I ( ω n ) = 0 {\displaystyle \operatorname {I} (\omega _{n})=0} ,

ezaguna den emaitza batek ez baitu informaziorik transmititzen. Zera ere bete behar da:

P ( ω n ) < 1 {\displaystyle \operatorname {P} (\omega _{n})<1} denean I ( ω n ) > 0 {\displaystyle \operatorname {I} (\omega _{n})>0} ,

ziurtasun osoz ezaguna ez den emaitza batek informazioa transmitituko duelako; handiagoa edo txikiagoa izango da, ziurgabetasun mailaren arabera.

Gainera, definizioz, informazio kantitatea batukorra da eta ez da negatiboa. C {\displaystyle C} gertakaria A {\displaystyle A} eta B {\displaystyle B} bi gertakari independenteren ebakidura bada, C {\displaystyle C} gertaerari buruzko mezuak ematen duen informazioa A {\displaystyle A} eta B {\displaystyle B} gertaerei buruzko mezuek batera ematen duten informazio bera da.


I ( C ) = I ( A B ) = I ( A ) + I ( B ) {\displaystyle \operatorname {I} (C)=\operatorname {I} (A\cap B)=\operatorname {I} (A)+\operatorname {I} (B)}


A {\displaystyle A} eta B {\displaystyle B} gertaerak independenteak direnez


P ( C ) = P ( A B ) = P ( A ) P ( B ) {\displaystyle \operatorname {P} (C)=\operatorname {P} (A\cap B)=\operatorname {P} (A)\cdot \operatorname {P} (B)}


Propietate hori kontutan izanik, f {\displaystyle f} funtzioari buruz beste zerbait jakin dezakegu


I ( C ) = I ( A ) + I ( B ) = f ( P ( C ) ) = f ( P ( A ) ) + f ( P ( B ) ) = f ( P ( A ) P ( B ) ) {\displaystyle {\begin{aligned}\operatorname {I} (C)&=\operatorname {I} (A)+\operatorname {I} (B)=\\f(\operatorname {P} (C))&=f(\operatorname {P} (A))+f(\operatorname {P} (B))\\&=f{\big (}\operatorname {P} (A)\cdot \operatorname {P} (B){\big )}\\\end{aligned}}}


Beraz f {\displaystyle f} funtzioak honako propietatea du:

f ( x y ) = f ( x ) + f ( y ) {\displaystyle f(x\cdot y)=f(x)+f(y)}

Propietate hori betetzen duten funtzioak logaritmikoak dira, edozein oinarritan. Oinarri ezberdinetako logaritmoen arteko desberdintasun bakarra faktore lineal bat da. Oinarri batetik bestera pasatzea erraza da, zera betetzen baita:

log b x = log k x log k b {\displaystyle \log _{b}x={\frac {\log _{k}x}{\log _{k}b}}}

Oinarria finkatuz gero, 2 {\displaystyle 2} adibidez, f {\displaystyle f} funtzioak honako itxura izango du:

f ( x ) = K log 2 ( x ) {\displaystyle f(x)=K\log _{2}(x)}

Gertaeren probabilitateak 0 eta 1 balioen artean daudenez eta log ( x ) {\displaystyle \log(x)} funtzioa negatiboa denez tarte horretan, K < 0 {\displaystyle K<0} izan beharko da f ( x ) = K log ( x ) {\displaystyle f(x)=K\log(x)} tarte horretan positiboa izatea nahi baldin badugu.

K {\displaystyle K} -ren edozein balio negatibo zuzena izango litzateke informazio kantitatea definitzeko. K {\displaystyle K} -ren balio absolutuaren arabera funtzioak azkarrago edo geldoago dibergituko du argumentua (probabilitatea) 0ra hurbiltzen den ahala. K {\displaystyle K} -ren balioa aldatzea, K {\displaystyle K} mantentzea eta logaritmoaren oinarria aldatzearen baliokidea da. Ohikoena K = 1 {\displaystyle K=-1} hartzea izaten da, hau da:


I ( ω n ) = log 2 ( P ( ω n ) ) {\displaystyle \operatorname {I} (\omega _{n})=-\log _{2}(\operatorname {P} (\omega _{n}))}


Interesgarria izan liteke adierazpen aljebraikoaren beste interpretazio hau aztertzea:


log 2 ( P ( ω n ) ) = log 2 ( 1 P ( ω n ) ) {\displaystyle -\log _{2}(\operatorname {P} (\omega _{n}))=\log _{2}\left({\frac {1}{\operatorname {P} (\omega _{n})}}\right)}


Gertakariaren probabilitatea logaritmoaren argumentuaren zatitzailean dagoenez, probabilitate altuagoek informazio kantitate txikiagoak eragingo dituzte eta alderantziz. Hori bat dator emandako definizioarekin.

K {\displaystyle K} ren balio ezberdinei dagokienez, K = 1 {\displaystyle K=-1} finkatuz gero eta logaritmoaren oinarri moduan 2 aukeratuz (ohikoena), lortzen den informazio kantitatearen unitateari bit deritzo; oinarria e {\displaystyle e} denean (logaritmo nepertarra) nat da unitatea eta oinarria 10 denean informazio unitateari hartley deritzo.

Ikus, gainera

  • Entropia (informazio-teoria)
  • Informazio-unitate

Informazio gehiagorako

  • A Mathematical Theory of Communication. Claude Shannon.Bell Systems Technical Journal, Vol. 27, pp 379–423, (Part I), 1948.

Erreferentziak

  1. Jones, D.S., Elementary Information Theory, Vol., Clarendon Press, Oxford pp 11-15 1979

Kanpo estekak

Autoritate kontrola
  • Wikimedia proiektuak
  • Wd Datuak: Q735075
  • Identifikadoreak
  • GND: 4213883-8
  • Wd Datuak: Q735075