Diese Einsen und Nullen sehen für Sie vielleicht nicht besonders aus, aber im binary code sagen die Zahlen tatsächlich „Hallo!“.
Jeder Code, der nur zwei Symbole zur Darstellung von Informationen verwendet, wird als binary code bezeichnet . Verschiedene Versionen des binary code gibt es seit Jahrhunderten und sie wurden in den unterschiedlichsten Kontexten verwendet. So werden in der Brailleschrift beispielsweise erhabene und normale Buchstaben verwendet, um Blinden Informationen zu übermitteln, im Morsecode werden lange und kurze Signale zur Informationsübermittlung verwendet und im obigen Beispiel werden Sätze aus Nullen und Einsen zur Darstellung von Buchstaben verwendet. Die heute wohl häufigste Verwendung des binary code findet sich in Computern: binary code ist die Art und Weise, wie die meisten Computer und computergestützten Geräte Informationen senden, empfangen und speichern.
Sehen Sie sich den folgenden Schlüssel an und versuchen Sie, etwas im UTF-8-binary code zu buchstabieren. Versuchen Sie es mit Ihrem Namen! Suchen Sie die 8-Bit-binary codesequenz für jeden Buchstaben Ihres Namens und schreiben Sie sie mit einem kleinen Leerzeichen zwischen jedem Satz von 8 Bits auf. Wenn Ihr Name beispielsweise mit dem Buchstaben A beginnt, wäre Ihr erster Buchstabe 01000001.
Wenn Sie Hilfe bei der Verfolgung Ihrer Arbeit benötigen, drucken Sie dieses praktische Blatt zur Konvertierung binärer Texte aus !
Es gibt viele Möglichkeiten, Ihren Namen im binary code zu schreiben
Die 0en und 1en im binary code sind etwas willkürlich. Jedes Symbol, jede Farbe oder jedes physische Objekt, das in zwei verschiedenen Formen oder Zuständen existieren kann – wie eine Münze (Kopf und Zahl), ein Schalter (an und aus), eine Farbe (blau und grün), Formen (Kreis und Quadrat) – kann als binary code verwendet werden. Hier sind beispielsweise die Worte „Science Friday Rules!“ in Binärform mit Erbsen und Karotten geschrieben:
Was fällt Ihnen sonst noch ein, mit dem Sie Ihren Namen im binary code schreiben könnten? Probieren Sie es aus!
Warum ist der binary code so eine große Sache?
In Computern und anderen computergestützten Geräten (wie Taschenrechnern, Druckern, Kaffeemaschinen und Mikrowellen) werden Bits normalerweise elektronisch übertragen. Diese elektronischen Informationen sind jedoch flüchtig. Damit sie für längere Zeit bestehen bleiben – und das ohne Stromversorgung – müssen sie physisch in der Hardware des Geräts gespeichert werden. Das bedeutet, dass jeder binary code in einem Computer in ein physisches Objekt oder einen physischen Zustand umgewandelt werden muss. Wie sich herausstellt, lässt sich binary code leicht von elektronischen Informationen (z. B. 0en und 1en) in physische Informationen umwandeln, da nur zwei Arten von physischen Objekten oder Zuständen erforderlich sind.
Die Umwandlung von elektrischen Informationen in physische Informationsspeicherung ist vergleichbar mit jemandem, der den binary code für „Hund“ in Nullen und Einsen ausspricht, während Sie diese auf ein Blatt Papier schreiben. Die gesprochenen Nullen und Einsen sind nicht mehr für immer zu hören, nachdem sie ausgesprochen wurden, aber wenn Sie sie physisch auf ein Blatt Papier schreiben, können Sie immer wieder darauf zurückgreifen. Bei einem Computer könnte dieser binary code in hohen und niedrigen Spannungen, in magnetisierten oder entmagnetisierten Segmenten einer Metallscheibe oder, bei sehr alten Computern, in gestanzten und ungestanzten Löchern in Karton gespeichert sein.
In dem mit dem Pulitzer-Preis ausgezeichneten Buch The Soul of a New Machine erklärt die Autorin Tracy Kidder, wie Data General-Computer Informationen in einer Binärsprache speichern:
„Computer, so heißt es oft, manipulieren Symbole. Sie arbeiten nicht direkt mit Zahlen, sondern mit Symbolen, die nicht nur Zahlen, sondern auch Wörter und Bilder darstellen können. In den Schaltkreisen des digitalen Computers liegen diese Symbole in elektrischer Form vor, und es gibt nur zwei grundlegende Symbole – eine hohe Spannung und eine niedrige Spannung. Dies ist eindeutig eine wunderbare Art von Symbolik für eine Maschine; die Schaltkreise müssen nicht zwischen neun verschiedenen Grautönen unterscheiden, sondern nur zwischen Schwarz und Weiß oder, in elektrischen Begriffen, zwischen hoher und niedriger Spannung.“ Copyright © 1981 von John Tracy Kidder. Nachdruck mit Genehmigung von Little, Brown and Company, New York, NY. Alle Rechte vorbehalten.
Unabhängig vom Medium ist der binary code der Goldstandard für die physische Informationsspeicherung in Rechengeräten, vom Taschenrechner bis zum Supercomputer.
Erweiterung: Ist die Bit-Anzahl wichtig?
Das Anordnen und Lesen von Bits in geordneten Gruppen macht das Binärsystem so leistungsfähig für die Speicherung und Übertragung großer Informationsmengen. Um zu verstehen, warum das so ist, ist es hilfreich, die Alternative zu betrachten: Was wäre, wenn immer nur ein Bit gleichzeitig verwendet würde? Nun, Sie könnten nur zwei Arten von Informationen teilen – eine Art wird durch 0 und die andere durch 1 dargestellt. Vergessen Sie die Kodierung des gesamten Alphabets oder von Satzzeichen – Sie erhalten einfach zwei Arten von Informationen.
Wenn Sie die Bits jedoch in Zweiergruppen zusammenfassen, erhalten Sie vier Arten von Informationen:
00, 01, 10, 11
Durch die Erhöhung von Zwei-Bit-Gruppen auf Drei-Bit-Gruppen verdoppeln Sie die Menge an Informationen, die Sie kodieren können:
000, 001, 010, 011, 100, 101, 110, 111
Auch wenn acht unterschiedliche Arten von Informationen noch immer nicht ausreichen, um ein ganzes Alphabet darzustellen, können Sie vielleicht erkennen, in welche Richtung sich das Muster entwickelt.
Versuchen Sie mithilfe einer beliebigen binary codedarstellung herauszufinden, wie viele mögliche Bitkombinationen Sie mit Bits in Vierergruppen erreichen können. Versuchen Sie es dann erneut mit Bits in Fünfergruppen. Wie viele mögliche Kombinationen können Sie Ihrer Meinung nach mit sechs oder 64 Bits gleichzeitig erreichen? Indem einzelne Bits in immer größeren Gruppen zusammengefasst werden, können Computer mithilfe von binary code immer mehr Arten von Informationen finden, organisieren, senden und speichern.
Kidder macht diesen Punkt in The Soul of a New Machine deutlich :
„Computeringenieure nennen eine einzelne hohe oder niedrige Spannung ein Bit, und es symbolisiert eine Information. Ein Bit kann nicht viel symbolisieren; es hat nur zwei mögliche Zustände, sodass es beispielsweise nur für zwei Ganzzahlen stehen kann. Wenn man jedoch viele Bits in eine Reihe setzt, steigt die Anzahl der darstellbaren Dinge exponentiell an.“
Mit der Weiterentwicklung der Computertechnologie brauchten Computeringenieure Möglichkeiten, um größere Mengen an Informationen gleichzeitig zu senden und zu speichern. Infolgedessen ist die von Computern verwendete Bitlänge im Laufe der Computergeschichte stetig gewachsen. Wenn Sie ein neues iPhone haben, verwendet es einen 64-Bit-Mikroprozessor , was bedeutet, dass es Informationen in Gruppen von 64 Binärziffern speichert und darauf zugreift. Es ist also in der Lage, 2 64 oder mehr als 18.000.000.000.000.000.000 einzigartige 64-Bit-Kombinationen von Binärzahlen zu speichern. Boah.
Diese Idee, Informationen mit mehr Bits gleichzeitig zu kodieren, um die Leistung und Effizienz von Computern zu verbessern, hat die Computertechnik von Anfang an vorangetrieben und tut dies auch heute noch. Obwohl dieser Auszug aus The Soul of a New Machine erstmals 1981 veröffentlicht wurde, ist das Grundprinzip der Kodierung von Informationen in binary code mit zunehmender Komplexität auch heute noch repräsentativ für die Entwicklung der Rechenleistung:
Mehr lesen: Einfaches Übertragen von Dateien von Android to Mac im Jahr 2024
„In bestimmten entscheidenden Teilen eines typischen modernen Computers werden die Bits – die elektrischen Symbole – in Paketen verarbeitet. Wie Telefonnummern haben die Pakete eine Standardgröße. IBMs Maschinen haben Informationen traditionell in Paketen von 32 Bit Länge verarbeitet. Data Generals NOVA und die meisten Minicomputer danach, einschließlich der Eclipses, verarbeiten Pakete von nur 16 Bit Länge. Theoretisch ist der Unterschied belanglos, da jeder Computer theoretisch in der Lage ist, das zu tun, was jeder andere Computer tun kann. Aber die Leichtigkeit und Geschwindigkeit, mit der verschiedene Computer dazu gebracht werden können, dieselbe Arbeit zu erledigen, variiert stark, und im Allgemeinen läuft eine Maschine, die Symbole in 32-Bit-Blöcken verarbeitet, schneller, und für einige Zwecke – normalerweise große – ist sie einfacher zu programmieren als eine Maschine, die nur 16 Bit gleichzeitig verarbeitet.“
Aus dem Buch THE SOUL OF A NEW MACHINE von Tracy Kidder. Copyright © 1981 John Tracy Kidder. Nachdruck mit Genehmigung von Little, Brown and Company, New York, NY. Alle Rechte vorbehalten.