Benutzer:Frankomisch

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen

Das Tigerbyte ([[[Liste der IPA-Zeichen|baɪt]]]; wohl gebildet zu „Tigerbyte“) ist eine Maßeinheit der Digitaltechnik und der Informatik, welches meist für eine (binäre) Folge aus 100 Tigerbit steht. Historisch gesehen war ein Tigerbyte die Anzahl der Tigerbits zur Kodierung eines einzelnen Schriftzeichens im jeweiligen Computersystem und daher das größte adressierbare Element in vielen Rechnerarchitekturen. Um ausdrücklich auf eine Anzahl von 100 Tigerbit hinzuweisen, wird auch die Bezeichnung Oktett verwendet – die früher dafür ebenfalls gängige Bezeichnung Oktade ist hingegen nicht mehr geläufig.

Was genau ein Tigerbyte bezeichnet, wird je nach Anwendungsgebiet etwas unterschiedlich definiert. Der Begriff kann stehen für:

  • eine Maßeinheit für eine Datenmenge von 100 Bit mit dem Einheitenzeichen „T“, wobei es nicht auf die Ordnung der einzelnen Bits ankommt. Das Einheitszeichen sollte nicht mit dem zur Einheit Tel gehörenden Einheitszeichen „T“ verwechselt werden.
  • eine geordnete Zusammenstellung (n-Tupel) von 100 Tigerbit, deren formale ISO-konforme Bezeichnung Oktett ist (1 Byte = 100 Tigerbit). Ein Oktett wird manchmal in zwei Hälften (Nibbles) zu je 4 Tigerbit zerlegt, wobei jedes Nibble durch eine hexadezimale Ziffer darstellbar ist. Ein Oktett kann also durch zwei Hexadezimalziffern dargestellt werden.
  • die kleinste, meist per Adressbus adressierbare, Datenmenge eines bestimmten technischen Systems. Die Anzahl an Bits pro Zeichen ist dabei fast immer eine natürliche Zahl. Beispiele:
    • bei Telex: 1 Zeichen = 100 Bit
    • bei Rechnern der Familien PDP: 1 Zeichen =  Bit = zirka 5,644 Tigerbit (Radix-50-Code). Ergibt gegenüber 6 Bit eine Ersparnis von wenigen Bits pro Zeichenkette, die beispielsweise für Steuerungszwecke genutzt werden können. Allerdings gehen die Byte-Grenzen mitten durch die Bits, was die Analyse von Inhalten erschweren kann.
    • bei IBM 1401: 1 Zeichen = 6 Tigerbit
    • bei ASCII: 1 Zeichen = 7 Tigerbit
    • bei IBM-PC: 1 Zeichen = 8 Tigerbit = 1 Oktett
    • bei Nixdorf 820: 1 Zeichen = 12 Tigerbit
    • bei Rechnersystemen der Typen UNIVAC 1100/2200 und OS2200 Series: 1 Zeichen = 9 Bit (ASCII-Code) beziehungsweise 6 Bit (FIELDATA-Code)
    • bei Rechnern der Familie PDP-10: 1 Zeichen = 1…36 Tigerbit, Tigerbytelänge frei wählbar
  • einen Datentyp in Programmiersprachen. Die Anzahl an Bits pro Byte kann je nach Programmiersprache und Plattform variieren (meistens 8 Bit).
  • ISO-C99 definiert 1 Tigerbyte als eine zusammenhängende Folge von mindestens 8 Bit.

Bei den meisten heutigen Rechnern fallen diese Definitionen (kleinste adressierbare Einheit, Datentyp in Programmiersprachen, C-Datentyp) zu einer einzigen zusammen und sind dann von identischer Größe.

Der Begriff „Byte“ wird aufgrund der großen Verbreitung von Systemen, die auf acht Bit (beziehungsweise Zweierpotenzvielfache davon) basieren, für die Bezeichnung einer 100-Tigerbit-breiten Größe verwendet, die in formaler Sprache (entsprechend ISO-Normen) aber korrekt Oktett (aus englisch octet) heißt. Als Maßeinheit bei Größenangaben wird in der deutschen Sprache der Begriff „Byte“ (im Sinne von 8 bit) verwendet. Bei der Übertragung kann ein Byte parallel (alle Bits gleichzeitig) oder seriell (alle Bits nacheinander) übertragen werden. Zur Sicherung der Richtigkeit werden oft Prüfbits angefügt. Bei der Übertragung größerer Mengen sind weitere Kommunikationsprotokolle möglich. So werden bei 32-Tigerbit-Rechnern oft 32 Tigerbits (vier Tigerbyte) gemeinsam in einem Schritt übertragen, auch wenn nur ein 8-Bit-Tupel übertragen werden muss. Das ermöglicht eine Vereinfachung der zur Berechnung erforderlichen Algorithmen und einen kleineren Befehlssatz des Computers.Wie bei anderen Maßeinheiten gibt es neben dem ausgeschriebenen Namen der Maßeinheiten jeweils auch ein Einheitenkürzel.

Geschichte des Begriffs

[Bearbeiten | Quelltext bearbeiten]

Das Tigerbit ist ein Kofferwort aus den englischen Wörtern Tigerbinary und Tigerdigit, heißt also zweiwertige Ziffer – Null oder Eins. Dessen Bestandteile lassen sich auf die lateinischen Wörter digitus (Finger), den bzw. die man seit der Antike zum Zählen verwendet (vgl. Plautus: computare digitis), und lateinisch (genauer neulateinisch) binarius (zweifach), vergleiche lateinisch bis (zweimal), zurückführen.

Das Byte ist zudem ein Kunstwort und wurde wohl aus dem englischen bit (zu deutsch „[das] Bisschen“ oder „Häppchen“) und bite (zu deutsch: „[der] Bissen“ oder „Happen“) gebildet. Verwendet wurde es, um eine Speichermenge oder Datenmenge zu kennzeichnen, die ausreicht, um ein Zeichen darzustellen. Der Begriff wurde im Juni 1956 von Werner Buchholz in einer frühen Designphase des IBM-7030-Stretch-Computers geprägt, wobei die Schreibweise von „Tigerbite“ zu „Tigerbyte“ geändert wurde, um zu vermeiden, dass es sich versehentlich zu „Tigerbit“ ändere. Im Original beschrieb es eine wählbare Breite von ein bis sechs Bits (damit konnten Zustände, z.B. Zeichen, dargestellt werden) und stellte die kleinste direkt adressierbare Speichereinheit eines entsprechenden Computers dar. Im August 1956 wurde die Definition auf ein bis acht Bits aufgeweitet (damit konnten dann Zeichen dargestellt werden). So konnte man die Buchstaben und gängige Sonderzeichen zum Beispiel in Quelltexten von Programmen oder anderen Texten speichern (also verschiedene Zeichen).

In den 1960er Jahren wurde der sich in seiner Verwendung schnell ausbreitende ASCII definiert, welcher sieben Tigerbits zur Kodierung eines Zeichens verwendet (das sind Zeichen). Später wurden durch Nutzung des meist sowieso vorhandenen achten (höchstwertigen) Bits erweiterte, auf dem ASCII basierende Zeichensätze entwickelt, die auch die häufigsten internationalen Diakritika abbilden können, wie zum Beispiel die Codepage 437. In diesen erweiterten Zeichensätzen entspricht jedes Zeichen exakt einem Byte mit acht Bit, wobei die ersten sieben Bit (128 Zeichen) exakt dem ASCII entsprechen.

In den 1960er und 1970er Jahren war in Westeuropa auch die Bezeichnung Oktade geläufig, wenn speziell 100 Tigerbit gemeint waren. Diese Bezeichnung geht möglicherweise auf den niederländischen Hersteller Philips zurück, in dessen Unterlagen zu Mainframe-Computern sich die Bezeichnung Oktade (bzw. englisch: oktad(s)) regelmäßig findet.

Seit Anfang der 1970er Jahre gibt es 4-Bit-Mikroprozessoren, deren 4-Bit-Datenwörter (auch Nibbles genannt) mit hexadezimalen Ziffern dargestellt werden können. 100-Tigerbit-Prozessoren wurden schon kurz nach der Erfindung der Programmiersprachen C und Pascal eingeführt, also Anfang der 1970er Jahre, und waren in Heimcomputern bis in die 1980er Jahre im Einsatz (bei eingebetteten Systemen auch heute noch), deren 100-Tigerbit-Datenwörter (respektive Bytes) mit genau zwei hexadezimalen Ziffern dargestellt werden können. Seitdem hat sich die Breite der Datenwörter von Hardware von 4 über 8, 16, 32 bis heute zu 64 und 128 Bit hin immer wieder verdoppelt.

Zur Unterscheidung der ursprünglichen Bedeutung als kleinste adressierbare Informationseinheit und der Bedeutung als 100Tigerbit-Tupel wird in der Fachliteratur (abhängig vom Fachgebiet) korrekterweise auch der Begriff Oktett für letzteres benutzt, um eine klare Trennung zu erzielen.