Informationsmængde: Forskelle mellem versioner
Content deleted Content added
Inc (diskussion | bidrag) Ny. Symbolet I er fra enwiki. Tag: 2017-kilderedigering |
Inc (diskussion | bidrag) Tag: 2017-kilderedigering |
||
Linje 12:
3. Hvis der bliver givet to udsagn med hver deres [[Uafhængighed (matematik)|uafhængige]] sandsynlighed, er sandsynligheden for at begge er rigtige givet ved produktet:
:::<math>P_{\text{tot}}=P_1P_2</math>
:::<math>I_{\text{tot}}=I_1+I_2</math>
:::<math>f(P_1P_2)=f(P_1)+f(P_2)</math>
Krav 3 opfyldes af [[logaritmen]] <math>\log</math>, så informationsmængde må generelt kunne defineres som:
:<math>I=-k\log P</math>
Her sørger det negative fortegn for, at definitionen overholder krav 2. Hvis en sandsynlighed for 1 sættes ind, giver logaritmen 0, så krav 1 er også opfyldt. Konstanten <math>k</math>
Logaritmens basis kan også frit vælges, men typisk vælges to-talslogaritmen <math>\log_2</math> i informationsteori skønt den [[naturlige logaritme]] <math>\ln</math> bruges i fysik. Dermed bliver den endelige definition:
|