Radikale Vereinfachung durch Codierung: 3x Goethe

Was ist Digitalisierung bzw. Digitaltechnik?

Es ist gar nicht so leicht,  im Web halbwegs allgemeinverständliche Antworten auf die Frage zu finden: Was ist Digitalisierung überhaupt? Die meisten Beiträge beschäftigen sich mit den wirtschaftlichen und gesellschaftlichen Folgen der Digitalisierung, aber erklären nicht, was digitale Technik eigentlich ist. Ein Grund mehr, dass ich versuche, dem Phänomen „Digitaltechnik“ mal etwas auf den Grund zu gehen. Der Hintergedanke ist simpel: Bevor ich mir weiter Gedanken darüber mache, welche Folgen die Digitalisierung für Leben und Arbeit hat, möchte ich als jemand, der nicht als Nerd geboren wurde erst einmal verstehen, was „Digitalisierung“ eigentlich aus technischer Sicht bedeutet.

Erste Annäherung and die Digitaltechnik: Schwarzweiss statt Grautöne

Die Begriffe „Digitalisierung“ und „Digitaltechnik“ kommen über das Englische“ digit“ (Zahl) vom Lateinischen „digitus“ (Finger, mit dem man zählt). Und tatsächlich ist die Digitaltechnik eine Technik, die versucht, komplexe Informationen in einfache Zeichen (technisch: Signale) zu übersetzen (technisch: zu kodieren) . Das Ergebnis der Codierung sind Daten. Diese Daten beschreiben die komplexe Realität zwar nur, indem sie sie in ein einfaches System übersetzen/kodieren. Im Gegensatz zur Realität haben Daten aber einen ganz großen Vorteil: Sie können einfach gespeichert und über Datenleitungen transferiert werden. Es gibt ganz unterschiedliche solcher Codierungssysteme, die Informationen in Daten umwandeln. Wichtig für uns ist die Unterscheidung in analoge und digitale Systeme. Der ziemlich unvergleichliche „Fenrsehprofessor“ Harald Lesch bringt den Unterschied in diesem Video recht gut auf den Punkt:  😉

Digitale Zeichensysteme kodieren Informationen also auf eine besonders simple Art: es wird stets zwischen ja (eins) und nein (null), unterschieden. In der elektronischen Datenverarbeitung (EDV) ist die kleinste Einheit, die nur einen einzigen solchen Zustand (entweder ja oder nein) beschreibt, das berühmte Bit. Acht solcher Bits zusammen ergeben ein Byte. Viele Zeichensysteme benötigen beispielsweise nur ein Byte um jeden beliebigen Buchstaben als kodiertes Zeichen zu beschreiben. Ich komme gleich noch darauf zurück. Analoge Codierungs-Systeme beschreiben hingegen fließende Übergänge zwischen Zuständen. Also zum Beispiel nicht einfach „schwarz/weiß“, sondern einen fließenden Übergang von tiefschwarz über Graustufen bis zum weiß:  „100% schwarz – 90% schwarz – 80% schwarz – 20% schwarz – 0% schwarz (=weiß)“…

Analoge und digitale Codierung von Information

Man kann nicht generell sagen, dass analoge Verfahrensweisen, die Welt in Zeichen zu übersetzen alt und die digitale Verfahen neu sind. Beispielsweise waren auch die von manchen indigenen Völkern Amerikas verwendeten Rauchzeichen digital. Denn auch hier gab konnte man nur zwei scharf voneinander abgegrenzte Zustände produzieren: Rauch – kein Rauch – Rauch – kein Rauch… Seit dem 20. Jahrhundert scheinen dennoch immer mehr analoge Techniken durch digitale ersetzt zu werden. Warum?

Analoge Systeme

Eines dieser heute sehr altbacken wirkenden analogen Systeme ist beispielsweise die Schallplatte. Das Grundprinzip, mit dem Daten auf Schallplatten gespeichert werden, hatte sich seit der Erfindung des Grammophons 1887 kaum verändert: Die Schall-Schwingungen eines Musikstücks, beispielsweise eines live spielenden Orchesters, wurden durch eine Membran aufgenommen. An dieser war eine Nadel befestigt, die dann diese Schwingungen in eine Wachsplatte ritzte. Von dieser konnten man dann Kopien aus verschiedenen Materialien, beispielsweise die berühmten Schellack-Platten fertigen. Auf dem folgenden stark vergrößerten Bild erkennt man recht gut den Verlauf der Rillen in einer Schallplatte: Sie sind wellenförmig. Mit anderen Worten: sie wechseln nicht sprunghaft von einem Zustand zum anderen („null und eins“), sondern bilden Veränderungen als fließenden Verlauf ab – sie sind also analog:

Rillen in einer Schallplatte mit wellenförmiger (analoger) Speicherung von Daten <small>By Serych at Czech Wikipedia [Public domain], via Wikimedia Commons</small>
Rillen in einer Schallplatte mit wellenförmiger (analoger) Speicherung von Daten By Serych at Czech Wikipedia [Public domain], via Wikimedia Commons
Ein anderes Beispiel für analoge Datenspeicherung ist die gute alte VHS-Videokassette. Hier wird das Bildsignal in eine Signalspur für die Helligkeit und eines für die Farbe getrennt gespeichert. Die technischen Details können Expert*innen der Videotechnik sicher besser erklären (gerne unten in den Kommentaren). Aber so wie ich den entsprechenden Wikipedia Artikel verstanden habe, wird das Helligkeits-Signal in fließenden Übergängen zwischen einem in Megahertz definierten Minimum für Schwarz und einem Maximum für Weiß codiert. Bei den Farben läuft es ähnlich. Wie beim Plattenspieler werden die Daten dann von einen (oder mehreren) über die physischen Strukturen (Rillen, Erhöhungen, Vertiefungen etc.) gleitenden Lesekopf abgelesen.

Was Schallplatte und VHS-Video gemein haben ist, dass ihre analogen Verfahren viel Speicherplatz verbrauchen. Eine handelsübliche E-180 Videokassette hatte beispielsweise eine Bandlänge von 259 Metern (!). Trotzdem konnte sie nur drei Stunden Videomaterial wiedergeben. Ob jemand die Länge der Rillen einer Schallplatte ausgemessen hat, weiß ich nicht. Aber eine durchschnittliche Schallplatte reicht gerade mal für knapp eine halbe Stunde Musik. Außerdem lassen sich bei beidem die Informationen relativ langsam ablesen. Beim VHS-Video erinnert man sich diesbezüglich noch mit Grausen an das ewige Vor- und Zurückspulen, vor allem dann, wnen gleichzeitig zum Spulen das Bild angezeigt werden sollte.

Digitale Systeme

Digitale Verfahren bilden auch allmähliche Änderungen sprunghaft (durch viele einzelne Zustände/Bytes) ab
Digitale Verfahren bilden auch allmähliche Änderungen sprunghaft (durch viele einzelne Zustände/Bytes) ab By wdwd [Public domain], via Wikimedia Commons
Bekannte digitale Systeme zur Speicherung von Musik und Video sind beispielsweise MPEG (für Musikdateien, bekannt ist vor allem die Abkürzung „mp3“), Dolby Digital  und HDTV (z.B. für  DVDs, BluRays und hochauflösendes Fernsehen). Die technischen Details können wir an dieser Stelle wohl beiseite lassen. Gemeinsam haben diese Techniken, dass  sie Verläufe nicht fließend, sondern sprunghaft (technisch: „diskret“) abbilden. So ist beispielsweise keiner der rund eine Million Pixel (bei einer Aufläsung von 1280 × 720) eines HDTV-Bildschirms zu einem beliebigen Zeitpunkt X  gerade dabei, gemächlich von einer Farbe in die andere überzugehen. Stattdessen ist es in jedem Bruchteil einer Millisekunde zum Beispiel entweder blau oder rot. Im nächsten Sekundenbruchteil kann das Pixel dann schon wieder sprunghaft eine andere Farbe angenommen haben. Das menschliche Auge merkt das nur nicht, denn jedes Pixel kann seine Farbe rund 25 Mal pro Sekunde ändern (technisch: Frequenz von 25 Hertz).

Ihre ganze Power entfalten digitale Kodierungssysteme im Zusammenspiel mit  elektronischer Informations- und Datenverarbeitung

Das Beispiel des Alphabets

Eigentlich ist dieses Ding sehr komplex. Unser Zeichensystem "Alphabet" reduziert es auf gerade einmal fünf Buchstaben: A p f e l.
Eigentlich ist dieses Ding sehr komplex. Unser Zeichensystem „Alphabet“ reduziert es auf gerade einmal fünf Buchstaben: A p f e l.

Dass digitale Codierung nicht erst seit der Erfindung des Computers existiert, zeigt auch die Erfindung der Schrift. Denn jedes Alphabet ist nichts anderes als ein digitaler Code. Das digitale/diskrete (also das auf eindeutige Zustände bzw. ja/nein bezogene) am Zeichensystem Alphabet  ist, dass jeder Buchstabe eben entweder ein bestimmter Buchstabe ist, oder nicht. Ein „e“ kann ein „e“ sein, oder kein „e“. Aber so etwas wie ein „halbes e“ oder „etwas im Übergang zwischen „e“ und „f“ existiert im Alphabet nicht.  Und gibt es doch einmal einen „Übergangslaut“, wie zum Beispiel bei „eu“ (wie im Wort „Leute“) wäre das in einem strikt digitalen Zeichensystem ein eigenes Zeichen. Diese einfachen Zeichen, z.B. „A“ „P“ „F“ „E“ „L“, speichern und übertragen die Information über ein viel komplexeres Ding in der Realität. Ein Ding, das ich ohne diese fünf Zeichen/Buchstaben viel umständlicher beschreiben müsste. Zum Beispiel so:

Das Ding, das ich meine ist eine süße, aber auch etwas saure, annähernd runde, glatte, mitunter aber auch etwas wellige, rötlich bis grüne, an einem Baum wachsende, aber oft bereits gepflückte, außen mit einer Schale und innen mit Kernen diverser Form, Zahl und Größe versehene Frucht, die vielen, aber nicht allen Menschen, oftmals auch diversen Tieren (zum Beispiel Pferd) mit meistens vier, manchmal aber auch sechs Beinen und Flugfähigkeit (Insekten) als Nahrungsquelle, im Falle des Menschen seltener auch zu Jonglierzwecken dient.

Wie gut, dass es Zeichensysteme und das Wort „Apfel“ gibt!

Vom digitalen Zeichensystem zum Binärcode / vom analogen zum digitalen Speichermedium

Auch wenn ich etwas per Hand schreibe verwende ich bereits ein digitales Zeichensystem:

Goethe Zitat, handschriftlich
Goethe per Hand geschrieben.

Mit krakeligen Handschriften haben nicht nur Leser*innen Probleme, sondern auch Computer. Das sieht man schon daran, dass ich meine Handschrift hier als Grafik einbinden musste, obwohl es sich ja eigentlich um Schriftzeichen, nicht um ein Bild handelt. Außerdem enthält diese Handschrift noch zu viel „überflüssige“ Information. Vor allem die Art und weise, wie ich einen Buchstaben abrunde oder eckig schreibe, ist in der EDV hochgradig irrelevant. Ein „e“ ist entweder ein „e“, oder eben nicht. Etwas mehr Standardisierung und Informationsreduktion brachte da schon die Schreibmaschine:

Goehte Zitat, auf alter Schreibmaschine geschrieben
Gleiches Goehte Zitat, auf alter Schreibmaschine geschrieben

Hier sind alle Buchstaben identisch. Ein „e“ sieht immer gleich aus – zumindest solange das Farbband von Omas Schreibmaschine noch nicht trocken ist! Das Problem ist jetzt nur noch der Transfer der Daten. Schreibmaschinenschrift lässt sich prima per Brief verschicken, aber schlecht per Datenkabel versenden. Dafür hat die EDV Zeichensätze erfunden. Diese kodieren Buchstaben und Sonderzeichen mit der Hilfe von Zahlen. Der aktuelle Standard-Zeichensatz heißt UTF-8  („Universal Character Set Transformation Format). UTF-8 ist wirklich „universal“, denn dieser Zeichencode kann alle auf der Welt gängigen Schriftzeichen und Sonderzeichen als Code beschreiben. Dabei besteht jedes Zeichen aus maximal 4 Byte (4 x 8 Bit), also maximal 32 Einsen und Nullen: 11110xxx 10xxxxxx 10xxxxxx 10xxxxxx. Theoretisch lassen sich mit diesen 32 Ziffern über eine Million Schriftzeichen kodieren. Da aber bisher noch nicht so viele Schriftzeichen erfunden wurden, bleibt ein Großteil der verfügbaren Bytes bisher undefiniert. UTF-8 ist also ein wahres Super-Alphabet, das mit einfachsten mitteln (Einsen und Nullen) grundsätzlich alle Schriftzeichen der Welt beschreiben kann. Das Goethe Zitat sieht im Binärcode von UTF-8 so aus:

Digitaltechnik: Goethe als Binärcode
Gleiches Goehte Zitat als Binärcode: Obwohl hier wirklich nur noch Null und Eins verwendet werden, bleibt das übermittelte Zitat dasselbe.

Warum sich digitale Systeme durchsetzen

Nicht wenige meinen, dass der Hauptgrund für den Siegeszug digitaler Signalsysteme darin liegt, dass Computer keinen Bock darauf haben, krakelige Handschriften zu entziffern. 😀 Aber im Ernst: Digitale Daten, wie beispielsweise obiger Binärcode, lassen sich wesentlich besser elektronisch öffnen, speichern, verarbeiten und übertragen. EDV kann schlecht mit eleganten Kurven umgehen. Dafür können elektronische Datenverarbeitungssysteme aber sehr gut und mit rasant hoher Schlagzahl vergleichweise stupide Rechen-Operationen ausführen . Man könnte sagen: EDV hat kein Gefühl, aber dafür jede Menge Takt. So verwundert es nicht, dass gerade der unangefochtene Champion der Vereinfachung, der Binärcode mit seinen Einsen und Nullen in der digitalen Welt so eine große Rolle spielt. Hinzu kommt, dass digital gespeicherte Daten im Gegensatz zu vielen analogen Speichersystemen auch verlustfrei kopierbar sind: Wenn man eine Seite aus einem Buch immer wieder kopiert (eine Kopie der Kopie macht), wird die Bildqualität langsam immer schlechter. Schreibt man die Seite immer wieder per Hand ab, schleichen sich Fehler ein.  Das in Code umgewandelte Goethe-Zitat kann ich aber auf dem Computer prinzipiell millionenfach speichern, versenden und wieder öffnen, ohne dass sich irgendetwas daran verändert. Ebenso wichtig ist, dass sich durch die Möglichkeiten der Datenkompression riesige Datenmengen auf kleinstem physischen Raum speichern lassen. Vergleicht nur mal die 30 Minuten Musik, die auf eine Schallplatte passen mit den vielen Stunden (Tagen? Wochen?) Musik, die sich auf einen USB-Stick kopieren lassen. Damit verbunden sind natürlich auch große Kostenvorteile. So verwundert es nicht, dass weltweit das Datenvolumen weit schneller wächst als die Wirtschaft. Unglaublich: Neunzig Prozent aller heute verfügbaren Daten wurden in den letzten zwei Jahren produziert!!

Fazit: Was bedeutet der Triumph der Digitaltechnik für die Welt der Daten und der Menschen?

Weder die Übertragung von komplexen Informationen in einfacher zu verarbeitende Daten noch die digitale Kodierungsart, die „keine Grautöne“ kennt, sind wirklich neu. Ihren Siegeszug scheint die Digitaltechnik vor allem der Hardwareseite zu verdanken: Die (elektronische) Informations- und Datenverarbeitung (EID) hat enorme Fortschritte gemacht. Sie kann digitale Signale wesentlich schneller und effizienter verarbeiten als die analogen. Dieser Siegeszug der Digitaltechnik+EID hat einige Folgen für die Welt der Daten, die ich grob so zusammenfassen würde:

  • Nie da gewesene Zunahme der Datenmengen
  • radikale Verbilligung des Datentransfers und der  Speicherung von Informationen
  • Übertragbarkeit von Information mit rasanter Geschwindikteit
  • dank weltweit gemeinsamer Standards der Digitaltechnologie (hier gezeigt am Beispiel von UTF-8, ein anderes Beispiel wären Programmiersprachen):
    • weitgehend von kulturellen Faktoren unabhängige Verarbeitung und Speicherung von Daten (?!)
    • dadurch möglicherweise eine Verminderung kommunikativer Missverständnisse (ein digitaler Code  ist weltweit überall gleich, eine Handschrift nicht)
    • Programmierer*in als historisch erstes wirklich globales Berufsbild?

Gerade die letzten, sicher thesenartigen und unvollständigen Unterpunkte zeigen, dass Megatrends in der Welt der Daten zwingend auch Folgen für unsere Gesellschaft und Arbeitswelt haben werden. Welche das sind, werden wir noch diskutieren müssen.

PS: In diesem Beitrag habe ich versucht zu zeigen, was die Digitalisierung aus technischer Sicht ausmacht und dabei halbwegs allgemeinverständlich zu bleiben. Ich hoffe, das ist mir als jemandem, der nicht als Nerd geboren wurde, das halbwegs gelungen ist. Eventuelle Korrekturen und Ergänzungen, aber wie immer natürlich auch sonstige Anmerkungen gerne in die Kommentare!

Dr. Klaus Neumann ist Historiker in Berlin und Autor des Blogs DigitalHammer.net. Er interessiert sich besonders für die Vergangenheit, Gegenwart und Zukunft der Arbeitswelt. Er hat unter anderem Bücher zur Arbeitslosigkeit in der Bundesrepublik Deutschland (2013) und zur „Freiheit am Arbeitsplatz“ (2015) veröffentlicht.

Hinterlasse einen Kommentar

Hinterlasse den ersten Kommentar!

Benachrichtige mich zu:
avatar
wpDiscuz

%d Bloggern gefällt das: