c't 6/2024
S. 152
Praxis
Zahlensysteme
Bild: KI Midjourney | Collage c’t

Informationsträger

Zahlensysteme in der Informatik erklärt

In der Informatik spielen viele Zahlensysteme aus unterschiedlichen Gründen eine wichtige Rolle: Computer rechnen im Binärsystem, Daten werden übersichtlich in Oktal oder Hexadezimal abgebildet. Wie es dazu gekommen ist, erfahren Sie in dieser Reise durch die Geschichte der Computertechnik.

Von Wilhelm Drehling

Mit dem Dezimalsystem wächst man auf: Schon von klein auf kann man allein durchs Abzählen der zehn Finger die Grundlage des Systems verstehen. Das Zahlensystem eignet sich perfekt für den Menschen, beispielsweise um Dinge abzuzählen, Preise auf Kassenzetteln zu addieren oder Distanzen und andere physikalische Größen darzustellen. Das ist der Hauptgrund, weshalb es sich zum Beispiel gegenüber der Konkurrenz wie den römischen Zahlen durchgesetzt hat. Versuchen Sie mal schriftlich mehrstellige römische Zahlen zu multiplizieren, das macht keinen Spaß!

Computer rechnen jedoch nicht im Dezimalsystem, sondern binär, also mit Einsen und Nullen. Jede davon stellt eine Informationseinheit namens Binary Digit dar, zu Deutsch Binärziffer. Heute ist diese Einheit durch ihre Kurzfassung bekannt: Bit. Da niemand auf dem Papier oder Monitor eine lange Kette von Nullen und Einsen erfassen kann, hat es sich etabliert, die Daten schön aufzubereiten. Zum Beispiel unterteilt man sie in gut erkennbare Häppchen von vier Bits und nennt so was ein Nibble oder teilt sie gleich in Gruppen von acht Bits auf und nennt das jeweils ein Byte. Es bietet sich an, die Daten kompakt in einem anderen Zahlensystem darzustellen, zum Beispiel in Oktal oder Hexadezimal. Wie es zu all dem gekommen ist, erfahren Sie im Laufe des Artikels.

Kommentieren