|
|
Randbemerkung:
Im mathematischen Spezialgebiet der Informationstheorie wird gezeigt, dass diese Formel auch dann gilt, wenn n keine Potenz von 2 mit natürlichem Exponenten ist. (Darf sich Alice also beispielsweise eine von 10 Zahlen aussuchen, und wählt Bob eine clevere Strategie, so wird er, wenn das Spielt oft wiederholt wird, im Durchschnitt nach 2log(10) » 3.32 Fragen die gesuchte Zahl herausgefunden haben). Wir wollen dieses Resultat glauben und halten fest:
Eine von n (gleich wahrscheinlichen) Möglichkeiten zu kennen,
stellt eine Information von 2log n Bit dar.
Sind die n Möglichkeiten nicht alle gleich wahrscheinlich (d.h. nicht "gleich überraschend"), so muss diese Formel abgeändert werden und führt auf die so genannte "Shannon-Entropie" (oder das "Shannon-Informationsmaß"). Wir gehen auf sie hier nicht ein, sondern merken lediglich für Interessierte an, daß die Information in Bits dann durch
s = - p1 2log p1 - p2 2log p2 - ... - pn 2log pn
gegeben ist, wobei p1, p2,... pn die Wahrscheinlichkeiten für das Eintreten der n Möglichkeiten sind. (Sind sie alle gleich 1/n, so reduziert sich dies auf den obigen Ausdruck s = 2log n).
1 Kilobyte º 1 KB = 1024 Byte = 8192 Bit 1 Megabyte º 1 MB = 1024 KB = 1048576 Byte = 8388608 Bit 1 Gigabyte º 1 GB = 1024 MB = 1073741824 Byte = 8589934592 Bit |
1 | 00110001 | A | 01000001 | ||
2 | 00110010 | B | 01000010 | ||
3 | 00110011 | C | 01000011 | ||
a | 01100001 | / | 00101111 | ||
b | 01100010 | . | 00101110 | ||
c | 01100011 | $ | 00100100 | ||