Fragen: | Was ist "Information"? | | Was sind "Nachrichten"? | | Wie wird Information weitergegeben? | | Wie wird Information dargestellt? |
Neben der Energie (und der Materie) ist Information einezweite Basisgröße von universeller Bedeutung. IhreEigenständigkeit wurde erst spät erkannt, da ihre Weitergabeimmer an energetische oder materielle Träger gebunden ist. AnInformationen gelangt man über Nachrichten. Die Definition vonInformation in der Informatik deckt sich nicht ganz mit demumgangssprachlichen Gebrauch. Information ist die Kenntnis über Irgendetwas. Nachrichten dienen zur Darstellung von Information. Anders formuliert: Die abstrakte Information wird durch die konkrete Nachricht mitgeteilt.
Nachrichten und Informationen sind nicht identisch,
insbesondere kann die gleiche Nachricht (mit gleicher
Information) auf verschiedene Empfänger unterschiedliche Wirkung
haben. Es gibt aber auch Nachrichten, die subjektiv keine
Information enthalten.
Beispiel: Bei welcher Nachricht ist die Information größer?
a) Am 1. Juli war die Temperatur größer als 25 Grad.
b) Am 1. Juli betrug die Temperatur 29 Grad.
Bei a) gibt es nur zwei Möglichkeiten (kleiner/größer 25 Grad),
bei b) sind theoretisch beliebig viele Möglichkeiten gegeben.
Also ist bei b) die Information größer. Daraus folgt, daß
Information mit der Zahl der Möglichkeiten zu tun hat.
Beispiel: Wie komme ich zu meiner Freundin?
Einfacher Weg: Sie wohnt in derselben Straße. Es gibt nur eine
Entscheidung (nach rechts oder nach links gehen).
Komplizierter Weg: Es gibt mehrere Abzweigungen; bei jeder
Gabelung muß entschieden werden, ob man rechts oder links geht.
Der Informationsgehalt einer Nachricht ist also feststellbar
und wird durch die Anzahl der (rechts-links) Entscheidungen
bestimmt und wird in "bit" gemessen. 1 bit entspricht
dabei einer Entscheidung:
Einfacher Weg: |
Information 1 bit |
Komplizierter Weg: |
2 Weggabelungen --> 4 Möglichkeiten, 2 bit
3 Weggabelungen --> 8 Möglichkeiten, 3 bit
4 Weggabelungen --> 16 Möglichkeiten, 4 bit
usw. |
1 bit ist die Datenmenge, die mit der Antwort auf eine
Ja-Nein-Frage übertragen wird.
Mit einem Binärzeichen wird nur dann 1 bit übertragen,
wenn die beiden Zeichen des Zeichenvorrats gleichwahrscheinlich sind.
In allen anderen Fällen wird weniger als 1 bit übertragen.
Das Shannonsche Informationsmaß H, oder kurz die Datenmenge,
ist definiert als:
| Dabei gilt:
N = Gesamtzahl der verwendeten Zeichen
pi = Wahrscheinlichkeit für das Auftreten des Zeichens i
ld = Logarithmus zur Basis 2 |
Sind alle Symbole gleichwahrscheinlich, vereinfacht sich die Formel zu: H = ld(N) bit
Anmerkung:
ld = logarithmus dualis: y = 2n --> n = ld(y)
Umrechnung: ld z = lg(z)/lg(2) = ln(z)/ln(2) (Basis beliebig)
Beträgt die Zeichenzahl N = 2n, so werden n bit übertragen.
Man könnte dies als n aufeinanderfolgende Antworten auf jeweils eine Ja-Nein-Frage auffassen.
Jedes Astende (Blatt) entspricht dann einem Zeichen, also ergeben sich 23 = 8 Zeichen,
die hiermit übertragen werden können.
Darstellung von Information
Nach der abstrakten Information nun zu konkreten Darstellung der
Information, der Nachricht. Dazu einige Definitionen:
Nachricht:
Zusammenstellung von Symbolen (Zeichen) zur
Informationsübermittlung.
Symbol:
Element eines Symbol- oder Zeichenvorrates. Dieser Vorrat ist
eine festgelegte endliche Menge von verschiedenen Symbolen (=
Elemente der Menge). Der Unterschied zwischen Symbol und Zeichen
ist recht subtil. Ein Symbol ist ein Zeichen mit bestimmter
Bedeutung.
Alphabet:
Ein geordneter Vorrat von Symbolen.
Wort:
Folge von "zusammengehörigen" Zeichen, die in einem
bestimmten Zusammenhang als Einheit betrachtet werden.
Beispiel:
Alphabet: A,B,C,D,E,F,...,X,Y,Z
Wort: DONALD
Nachricht: DONALD SUCHT DAISY
Nachrichten können durch Signale physikalisch dargestellt
werden, z. B. Schallwellen, elektromagnetische Wellen, Ströme,
Spannungen, Licht, etc. Dabei wird zwischen digitalen und
analogen Signalen unterschieden.
Analoge (wertkontinuierliche) Signale:
- Kontinuierliche Zuordnung einer physikalischen Größe
zum Informationsgehalt einer Nachricht, z. B.
Temperatur <--> Höhe der Quecksilbersäule, Zeiger
eine Meßinstruments
- meist sehr anschaulich
- es sind beliebige Zwischenwerte darstellbar
- benachbarte Werte sind oft schwer zu unterscheiden
Digitale (wertdiskrete) Signale:
Hier gibt es nur eine endliche Zahl von möglichen Zuständen
einer physikalischen Größe (im einfachsten Fall zwei), z. B.
Ziffernanzeige eine Meßinstruments, Folge von Ziffern. Da die
meisten physikalischen Größen analog sind, wird oft eine
Quantelung vorgenommen, z. B. eine Spannung zwischen 6,5 V und
7,5 V auf 7 V gequantelt.
Daher unterscheidet man zwischen Analogtechnik und
Digitaltechnik. In den normalerweise verwendeten Digitalrechnern
wird eine Digitaltechnik mit nur zwei möglichen Werten
eingesetzt. Diese beiden Signale (meist durch "0" und
"1" dargestellt) müssen in irgend einer Form aus dem
Signal erkennbar sein. Je nach verwendeter phsikalischer Größe
ergeben sich oft mehrere eindeutige Möglichkeiten für die
"0" oder "1" .
Informatik
Vereinfacht ausgedrückt kann man sagen: Die Informatik
ist die Lehre von der Information.
Es stecken aber zahlreiche Gesichts- und Ansatzpunkte dahinter.
Eine Information oder ein Datum ist etwas das uns eine Mitteilung macht.
Diese können wir aufnehmen oder auch (als unwichtig) ignorieren.
Oft sind die Datenmengen so immens, dass wir sie nur aufnehmen können,
wenn sie entsprechend aufgearbeitet, z. B. reduziert sind. Daten sollen
bei Bedarf abrufbar gespeichert sein und an beliebige Stellen
transportiert werden können. Wir bedienen uns für diese Aufgaben
oft der Hilfe von Maschinen und Computern. Diese müssen in der Lage
sein, unsere Wünsche der Datenaufbereitung zu erfüllen. Das bedeutet
aber, dass wir die Fähigkeit haben müssen, Ihnen unsere Wünsche
(Anweisungen) auch mitzuteilen. Es muss eine Art Sprache zwischen
Mensch und Maschine bestehen, die beide verstehen. Solche Anweisungen
können nicht nur zur Verarbeitung von Daten dienen, sondern auch für
zahlreiche Tätigkeiten auch im Sinne von Automaten und Robotern.
In diesen Bereichen Forschung zu betreiben und neue (bessere)
Möglichkeiten zu finden ist die Aufgabe der Informatik.
Sie hat daher einerseits mit Theorien zu tun wie das Verwalten von
Daten und Entwickeln von Datenstrukturen, der Entwicklung von Sprachen
und Abläufen (Algorithmen) für den Betrieb von virtuellen, simulierten
und realen Maschinen und sich überhaupt mit der Lösung und Lösbarkeit
gestellter Probleme zu befassen. Dies geht hin bis zu abstrakten
Theorien. Andererseits hat die Informatik auch mit der Entwicklung
praktischer Geräte, Maschinen, Prozessoren usw. zu tun und
Kommunikationsmöglichkeiten (Schnittstellen) zu entwickeln.
Hier grenzt sie an den Bereich der Elektrotechnik (Datentechnik), die letztendlich
die gewünschten Schaltungsvarianten entwickeln und bereitstellen muss.
Auch bestehen hier Verbindungen zum Maschinenbauer, der die Modelle
von maschinellen Automaten und Robotern entwickelt, während der
Informatiker die Steuerungsaufgaben (Programmierung) übernimmt.
Zu Beginn wollen wir uns vor allem mit einem praktischen Aspekt der Informatik
auseinandersetzen. Sie lernen kennen, wie man Abläufe darstellen und werden
auch eine Programmiersprache also ein Kommunikationsmittel kennenlernen.
Hierzu gehört auch das Erfassen und Darstellen von Daten und zugehöriger
Datenstrukturen und programmtechnischer Ablaufstrukturen.
|