Informationsmængde: Forskelle mellem versioner

Content deleted Content added
Ny. Symbolet I er fra enwiki.
Tag: 2017-kilderedigering
 
Tag: 2017-kilderedigering
Linje 12:
3. Hvis der bliver givet to udsagn med hver deres [[Uafhængighed (matematik)|uafhængige]] sandsynlighed, er sandsynligheden for at begge er rigtige givet ved produktet:
:::<math>P_{\text{tot}}=P_1P_2</math>
::Information ville dog normalt blive tænkt på som noget, der kan lægges oven i tidligere information. Dvs. at den samlede information skal være summen:
:::<math>I_{\text{tot}}=I_1+I_2</math>
::Derfor skal informationsmængden være en funktion af sandsynlighed, så den opfylder:
:::<math>f(P_1P_2)=f(P_1)+f(P_2)</math>
 
Krav 3 opfyldes af [[logaritmen]] <math>\log</math>, så informationsmængde må generelt kunne defineres som:
:<math>I=-k\log P</math>
Her sørger det negative fortegn for, at definitionen overholder krav 2. Hvis en sandsynlighed for 1 sættes ind, giver logaritmen 0, så krav 1 er også opfyldt. Konstanten <math>k</math> kanskal vælgesvære fritpositiv, men sætteskan iellers vælges frit. I informationsteori sættes konstanten typisk til 1. Inden for [[statistisk mekanik]] i [[fysik]] er konstanten dog lig med [[Boltzmanns konstant]].
 
Logaritmens basis kan også frit vælges, men typisk vælges to-talslogaritmen <math>\log_2</math> i informationsteori skønt den [[naturlige logaritme]] <math>\ln</math> bruges i fysik. Dermed bliver den endelige definition: