Macbox enterprice kopie
Vom Raumschiff Enterprise zur
!
! ! Keksschachtel
Wie ich die Entwicklung der Informationstechnik in der Zeit von 1940 bis 2010 erlebte
"Hältst Du die Liebe für den stärksten Affekt?" fragte er.
"Weißt Du einen stärkeren?"
"Ja, das Interesse."
Thomas Mann in "Dr. Faustus"
Ein Gespräch zwischen Dr. Zeitblohm und Adrian Leverkühn:
1. Anstelle eines Vorwortes
Im Jahre 1940, ich war 12 Jahre alt, lag ich mit Kopfhörern im Bett und lauschte der Sendung des Reichssenders Leipzig, die ich mit meinem Detektor empfing. Heute, 70 Jahre später, liege ich im Bett, habe die Ohrhörer mit dem iPhone verbunden und empfange den Fernsehsender Arte mittels EyeTV über Wireless LAN und die oben genannte „Keksschachtel", wie ich liebevoll meinen Mac mini nenne.
Zwischen diesen beiden Ereignissen liegt eine rasante technisch wissenschaftliche Entwicklung, die ich versucht habe zu begreifen und in meinem Umfeld und damit in der Praxis anzuwenden. Versuche den jeweiligen Wissensstand auf meinem Tätigkeitsgebiet anzuwenden wurde mir oft als technische Spinnerei ausgelegt. Mitarbeiter und Vorgesetzte, die mich kannten, akzeptierten aber allmählich die Realität, die hinter meinen Vorstellungen steckte.
Den Namen „Raumschiff Enterprise" im Titel, benutze ich zur Charakterisierung des
Begriffs „Schöpferische Fantasie", die von Albert Einstein über das schlichte Wissen
gestellt wurde:
„
Imagination is more important than knowledge. For knowledge is limited to all we
now know and understand, while imagination embraces the entire world and all
there ever will be to know and understand."
Denn, so sagt Einstein, Kenntnisse sind begrenzt auf das was wir wissen, während Fantasie die ganze Welt umfasst und al es, was wir jemals wissen und verstehen können.
Der Philosoph und Computerexperte Alan N. Shapiro hält Star Trek für einen großen Textder westlichen Kultur. In den nachstehenden Ausführungen möchte ich Elemente der Kultserie „Raumschiff Enterprise" wie das Beamen (entmaterialisieren und wieder zusammensetzen (materialisieren)) und den Warpantrieb als im Moment unmöglich erscheinende physikalische Gesetze nicht als die in meiner Umwelt zu verwirklichenden Ziele ansprechen.
Hingegen erscheinen mir aber Gedanken der Vernetzung von Computern und der künstlichen Intelligenz real. Das im Raumschiff übliche Bildfernsprechen (Anruf auf den Schirm!) hat mich z.B. dazu veranlasst, auf meinem Computer Skype zu implementieren und regelmäßig mit Freunden und Familienmitgliedern mittels Bildtelefon zu kommunizieren. ScFi-Filme bei denen auf den Bildschirmen lediglich Lissajou-Figuren zu sehen sind, schalte ich sofort aus.
In einem Rechner (Multitasking System) laufen viele Prozesse im Hintergrund ab während man im Vordergrund z.B. Dateien erzeugt oder durchsieht. Im Leben und in der Gesellschaft werden im Hintergrund Entwicklungen durchgeführt, Erfindungen gemacht oder Schlachten geschlagen, während der Betrachter einfach seiner Arbeit nachgeht. Im folgenden Text will ich demnach in den mit „Hintergrund" bezeichneten Abschnitten Ereignisse beschreiben, von denen ich unter Umständen erst Jahre später erfahren habe, die aber für die technisch wissenschaftliche Entwicklung von größter Bedeutung waren.
2.Hintergrund um 1940
2.1 Das PCM-Prinzip
Seit der Erfindung des Telefons durch Philipp Reis und Graham Bell bestand das Problem der Übertragung über große Entfernungen darin, dass das Nutzsignal, wie in Bild1 dargestellt, stets von Störungen überlagert wurde.
Bild 1: Überlagerung einer Sprachschwingung durch Störung (rot)
Mit der notwendigen Verstärkung des Signals wurde also gleichzeitig das Rauschen mit verstärkt. Es gab keine Möglichkeit das zu verhindern. Bis zum Jahre 1938, als der französische Wissenschafter Reves das PCM-Prinzip erfand. (Erstaunlicherweise kann man in Wikipedia nichts über Reves lesen)
Bild 2: PCM-Prinzip
Das Prinzip ist so genial wie einfach. Die Sprachschwingungen werden mit Impulsen abgetastet. Die Länge der Impulse wird gemessen und als 8 Bit lange Binärzahl nacheinander als Bit-Strom zur Gegenstelle übertragen. Jedoch:Die Maße der zur Verfügung stehenden Röhren, Übertrager, Spulen. Widerstände und Kondensatoren lagen 1938 in der Größenordnung von Zentimetern. Die Brettschaltung eines 24 Kanal PCM-Geräts, das aus Studiengründen Ende der 40iger Jahre in Ost-Berlin aufgebaut worden war, besaß die Fläche eines Wohnzimmers und erzeugte die Wärme eines Ofens.
Die Realisierung des PCM-Prinzips war damit der Zeit nach der Erfindung des Transistors und der integrierten Schaltkreise vorbehalten.
2.2 Der Digitalrechner
Ab 1939 tobte der 2. Weltkrieg. Es war kein Raum für Nachrichten aus Wissenschaft und Technik, noch dazu wenn sie ggf. militärisch von Interesse sein konnte. Konrad Zuse (1910-1995) war Statiker bei den Henschel Flugzeugwerken und musste immer viele
lange Formeln berechnen. Er sagte von
sich scherzhaft: „Da ich zu faul zum
Rechnen war, überlegte ich, wie man
eine Maschine bauen kann, die einem
Menschen lange Rechenoperationen
abnimmt.
Der Z 1 war ein mechanisches
Rechenwerk. K. Zuse hatte ihn
1936-1938 im Wohnzimmer seiner
Eltern aufgebaut (Bild 4). Sein Vater half
ihm beim Aussägen der Metallteile mit
der Laubsäge. Ein Mangel des Z1 war,
dass sich die mechanischen
Schaltglieder im Betrieb verhakten.
Um den Rechner Z1 zu bauen, gab
Zuse 1936 seine Stelle bei den
Henschel Flugzeugwerken auf und
arbeitete nur noch zu Hause.
Der Z1 enthält schon die wichtigsten
Elemente eines Computers, war jedoch
wegen mechanischer Probleme
unzuverlässig.
Bild 3: Konrad Zuse (nach Wikipedia) !
Der Z1 wurde im Zweiten Weltkrieg
zerstört. Man baute ihn in den 1960er
Jahren nach. Er kann im Technikmuseum in Berlin besichtigt werden
Dem mit der Rechentechnik nicht vertrauten Leser muss nun zunächst die Frage beantwortet werden, wie eine Maschine rechnen kann:- Es müssen Zahlen gewählt werden, die maschinengerecht darstellbar sind, bestehend aus „ja – nein" (0, 1) Schritten.
- Es muss eine Eingabevorrichtung existieren, mit der man der Maschine etwas mitteilen kann.
- Für die Zahlen müssen Speicherplätze existieren, damit sich die Maschine etwas merken
Bild 4: Der Z1 im Wohnzimmer der Familie Zuse (nach Wikipedia)
- Für die Grundrechenarten müssen feste Bausteine vorhanden sein. (plus, minus, mal, geteilt durch)- Für die zu lösende Aufgabe muss eine genaue Vorschrift ( ein Programm) existieren (eingegeben werden).
- Das Rechenergebnis muss die Maschine ausgeben können.
Das Zahlensystem, das für diesen Zweck geeignet erscheint, ist das von Gottfried Wilhelm Leibnitz (1646 - 1716) entwickelte binäre Zahlensystem.
Das binäre Zahlensystem kann über Potenzen mit der Basis 2 im Vergleich mit dem Dezimalsystem (Potenzen mit der Basis 10) erklärt werden. Es genügt aber auch die phänomenologische Darstellung durch Werte von 0 und 1 wie in Bild 5 gezeigt.
Bild 5: Beispiele für Binärzahlen
Den dezimalen Wert einer Binärzahl zu erkennen, erfordert einige Übung. Man erlernt das am Besten durch Trainieren mit Hilfe eines kleinen Glühlampenfeldes (Bild 6), das durch Schalter bedient wird.
Bild 6: Beispiel für ein Glühlampenfeld zur Anzeige von Binärzahlen
In Zeile 1 brennen die Lampen die für 20 = 1, 22 = 4, 26 = 64 stehen, angezeigt ist 69.!
In Zeile 2 brennen die Lampen die für 23 = 8, 25 = 32 stehen, angezeigt ist 40.!
Das Rechnen mit Binärzahlen erfolgt mit Hilfe besonderer Regeln. Im Bild 7 ist zunächst eine Addition dargestellt, bei der wir intuitiv die Technik der Rechnung mit Dezimalzahlen verwenden.
Bild 7: Addition zweier Binärzahlen
An Bild 7 erkennt man, dass es bei der Verknüpfung von Binärzahlen eigene Regeln gibt.
Z.B. wird bei der „Addition" zweier Binärzahlen eine Operation verwendet, die man im
Gegensatz zum Begriff Addition (bei Dezimalzahlen) als exklusives Oder oder auch als
Antivalenz bezeichnet. Es gilt:
Die Operation mit der der Übertrag gebildet wird, ist das logische Und.
Eine weitere Verknüpfung ist das logische Oder. Hierbei ist das Ergebnis 1 (wahr), wenn
wenigstens einer der beiden Eingangswerte 1 (wahr) ist.
Schließlich gibt es noch die Negation. Der Ausgangswert ist dabei das Gegenteil des Eingangswertes. Die Negation einer Zahl kann mit einem Querstrich über derselben dargestellt werden.
Wie Zuse die Elementaroperationen „Nicht" mechanisch ausgeführt hat, soll an Bild 8a und b dargestellt werden.
Bild 8: a) Eingang = 0, Takt liegt nicht an, b) Eingang = 0, Takt: Ausgang =1
In seinem Z3 hat Zuse die logischen Schaltungen mit Relais aufgebaut. Wie das erfolgt, soll später erklärt werden. Der Z3 war der erste funktionsfähige, programmgesteuerte Rechner der Welt. Am 12.5.1941 wurde er zum ersten Mal erfolgreich öffentlich vorgeführt. Der Rechner wog 1000 kg und verbrauchte 4 KW Strom.
Den Nachbau des Z3 kann man im Deutschen Museum in München besichtigen (Bild 9)
Bild 9: Nachbau des Z3 im Deutschen Museum in München.
Ab 1942 entwickelt Zuse die Z4, eine Synthese aus Z1 und Z3. In dieser Zeit fielen Bomben auf Berlin, Z1 und Z3 versanken unter Schutt und Trümmern, in einem Keller arbeitete Zuse mit etwa 20 Leuten verbissen an der Z4 weiter.In den letzten Tagen vor dem Fall Berlins gelang es Zuse, die Maschine auf einen Eisenbahnwagen zu verladen und sich mit seiner Frau und Mitarbeitern nach Hopferau bei Füssen zu flüchten. Von 1945 bis 49 hielt sich Zuse wirtschaftlich mit Bildermalen über Wasser und entwickelte nebenbei die Programmiersprache Plankalkül. Im Jahre 1949 konnte Zuse endlich den Z4 für fünf Jahre an das neugegründete Institut für Angewandte Mathematik der Eidgenössischen Technischen Hochschule ETH in Zürich vermieten.
Mit dem Mietgeld von 30 000 Franken baute Zuse eine KG auf, die in den Fünfzigerjahren in Bad Hersfeld zu einem Unternehmen mit tausend Beschäftigten wuchs. 1964 wurde die Firma von Brown Boveri & Cie. übernommen, später von Siemens.
Der interessierte Leser möge weitere Details bei Google im Internet nachlesen.
3. Vordergrund ab 1940
Ich selbst gehe seit 1939 auf die Oberschule, baue in der Freizeit Radios mit
Elektronenröhren und werde mit der Klasse 1944 als Luftwaffenhelfer eingezogen.
Ende 1944 melde ich mich zu einem Techniker-Lehrgang, der im Westerwald bei Daaden an
der Sieg stattfindet. Da sich die Westfront dem Rhein nähert, wird der Lehrgang in die
Luftnachrichtenkaserne München Freimann verlegt. Mit noch zwei Kameraden setze ich
mich Anfang April nach Hause (Gera, Thüringen) ab, um mich kurz vor Eintreffen der
Amerikaner zu einem Panzerjagdkommando des Volkssturms zu melden.
Der Krieg endet am 8.Mai. Unsere Einheit wird aufgelöst.
Wieder zu Hause, setzte ich nicht meine Schulausbildung fort, sondern trete eine Lehre als
Elektroinstallateur bei der Firma Petzold und Hänsel in Gera an. Da ich Radios bauen kann,
setzt mich der Meister zunächst in der Rundfunkwerkstatt ein, wo ich auch mithelfen muss
Kinoanlagen zu betreuen und zu reparieren.
Bei meinem Studium von Fachliteratur auf dem Gebiet der Hochfrequenztechnik bemerke
ich einen Mangel an mathematischen Kenntnissen. Ich gehe regelmäßig zu einem
Schulfreund und arbeite nach, was dieser im Mathematikunterricht gelernt hat. Meine
hauptsächliche Belehrung besteht jedoch in der handwerklichen Arbeit, im Aneignen von
Fertigkeiten, die ich später noch manchmal gut einsetzten kann.
Oberstudienrat Kordmann, ein alter Lehrer, der nicht Mitglied der NSDAP war, ist nun
Direktor der Oberschule. Er gestattet mir nach Abschluss der Gesellenprüfung im Frühjahr
1948 wieder in die 11. Klasse der Schule zu gehen und bei Versetzung im Sommer in die
Abiturklasse einzusteigen. Das Schuljahr 1949 beende ich mit dem Abitur.
Meine Bewerbung an der Technischen Hochschule Dresden wird trotz guter Abiturnoten
abgewiesen. Zu viele Heimkehrer bewerben sich um Fortsetzung ihres Studiums.
Als Alternative komme ich einer Werbung der Volkspolizei nach und werde im Juli 1949
nach Prenzlau eingezogen. Beim Sortieren der Ankömmlinge in solche, die der VP-
Bereitschaft zugeteilt werden und solche, die zum Fliegerhorst gehen, greife ich in mein
Schicksal ein. Ich teile mich, als ehemaliger Luftwaffenhelfer die Luftwaffenbauten liebend
der Mannschaft zu, die zum Fliegerhorst (und damit zur VP-Schule) gehen.
In der VP-Schule nehme ich nur wenige Tage an der Grundausbildung teil. Es wird jemand
gesucht, der in der Lage ist eine Kinoanlage einzubauen. Natürlich ist so etwas interessanter
als im Gelände herumzukriechen, daher melde ich mich. Damit habe ich wieder eine
Weiche gestellt, da ich jetzt als Kulturleiter (Klubleiter) gezählt werde.
Neben dem Einbau der Kinoanlage überwache ich die Installation einer elektroakustischen
Anlage, organisiere Ausstellungen und schreibe Theaterstücke.
Nach Ende des einjährigen Lehrgangs werde ich zum Polizeimeister befördert und als
Klubleiter in die VP-Bereitschaft meiner Heimatstadt Gera versetzt.
Dort führe ich aushilfsweise Elektrotechnikunterricht in der Nachrichtenabteilung (S2) durch.
Als Polizeimeister, der an einer Schule ausgebildet wurde, werde ich zum Unterkommisar
befördert. Ein Vertreter des Chefs Nachrichten (der Hauptverwaltung Ausbildung des MdI)
wird auf mich aufmerksam und veranlasst meine Versetzung in die Verwaltung Nachrichten
nach Berlin.
Jetzt bin ich endlich da, wo ich immer hin wollte, bei den Nachrichtentruppen. Im Jahre
1952 nehme ich ein Fernstudium am Institut für Hochfrequenztechnik und Elektronenröhren
der TH Dresden auf.
Die nächste Weichenstellung ergibt sich aus dem Umstand, dass ich im Fragebogen die
Existenz meines Schwagers nicht angegeben habe, der in Westberlin an der TU studiert.
Ich werde 1953 als Fachlehrer Nachrichten an die Panzerschule in Erfurt und kurz darauf als
Fachlehrer Elektrotechnik an die Nachrichten-(Funker-)Schule in Pirna versetzt.
Von Pirna aus kann ich regelmäßig zum Studium (zur Konsultation) nach Dresden fahren.
Das Elektrotechnikpraktikum an der TH animiert mich auch an der Offiziersschule
umfangreiche Praktika für Elektrotechnik und Instandsetzung einzuführen.
Als die Nachrichtenschule (Funk) Pirna 1955 mit der Nachrichtenschule (Draht) Halle in Döbeln zur Nachrichtenschule der NVA vereinigt wird, werde ich als Lehrstuhlleiter für
Instandsetzung von Nachrichtengeräten übernommen.
4. Hintergrund ab 1945
Am 23. Dezember 1947 wird bei einer internen Demonstration bei den Bell Laboratories erstmals ein Spitzentransistor präsentiert. Die an der Erfindung des Transistors (1948) beteiligten William B. Shockley, John Bardeen und Walter Brattain erhielten dafür 1956 den Nobelpreis für Physik. Die Bauelemente für Fernmeldegerät und Rechentechnik wurden dadurch wesentlich kleiner (Bild 10)
Bild 10: Beispiele für Transistoren
Mit diesem neuen Bauelement ausgerüstet kommt 1955 „TRADIC" (Transistor Digital
Computer) der erste voll transistorisierte Computer auf den Markt. Er bestand aus ca.
10.000 Germanium Dioden und ca. 700-800 Transistoren. Seine Leistungsaufnahme
betrug nur ca. 100 Watt.
Eine technische Revolution ist die Erfindung des integrierten Schaltkreises durch Jack Kilby. Das Stück Halbleiter, auf dem er zwei Transistoren und Bauelemente mit Golddrähten verbindet, hat die Größe einer Büroklammer. Kilby demonstriert seine Erfindung am 12. September 1958 im Labor bei Texas Instruments.
Bild 11: der erste integrierte Schaltkreis
Der erste integrierte Schaltkreis ohne Verdrahtung wird von Robert Noyce im Juli 1959 zum Patent angemeldet. Damit beginnt das Zeitalter der hochintegrierten Schaltkreise, zuerst mit zwei, drei, zehn, dann 100, dann 1000, heute Millionen bis zu Milliarden von Bauelementen auf einem CHIP.
Nicht nur in der Technologie werden Fortschritte erzielt. Der amerikanische Wissenschaftler Norbert Wiener veröffentlicht 1948 Das Buch „Cybernetics or Control and Communication in the Animal and the Machine" Die Deutsche Ausgabe lautet „Kybernetik. Regelung und Nachrichtenübertragung im Lebewesen und in der Maschine". Im Internet findet man die Definition von Paulik 2005, (S. 519):„Kybernetik ist die Wissenschaft, die sich mit den Gesetzmäßigkeiten der Steuerung, Regelung und Rückkopplung der Informationsübertragung und Verarbeitung in Maschinen, Organismen und Gemeinschaften beschäftigt sowie die Theorie und Technik der Informationsverarbeitungssysteme untersucht" Nach anfänglicher Ablehnung dieses Fachgebietes im Sozialistischen Lager wird dieser Wissenschaftszweig in der DDR zunehmend als theoretische Grundlage für eine Produktivitätssteigerung in der Wissenschaft, in der Lehre und in der Produktion gesehen.
5. Vordergrund ab 1955
Als Stellvertreter des Schulleiters für technische Ausbildung gelingt es mir durch die breite
Einführung von Praktika und durch ein hohes Niveau des technischen Unterrichts an der
Nachrichtenschule der NVA in Döbeln die Anerkennung der renommierten Ingenieurschulen
in Leipzig und Mittweida zu erringen.
Mit dem von mir entwickelten Lehrplan ist es möglich, an der Nachrichtenschule der NVA zu
staatlich anerkannter Ausbildung von Technikern und später Ingenieuren überzugehen.
Im Jahr 1960 beende ich meine Ausbildung zum Diplom Ingenieur mit einer Arbeit über ein
neuartiges Höchstfrequenzsiebentor. In der den theoretischen Grundlagen zugrunde
liegenden Literatur finde ich einen Hinweis, dass eine Reihe von Ergebnissen mit einem
Computer berechnet worden war. Ein Hinweis, der die Anwendung dieser damaligen
Riesenmaschinen in meine gedankliche Nähe rückte.
5.1 Logische Schaltkreise und Modellrechner
Auf der Weimartagung der Kammer der Technik 1961 hielt Dr. Fey einen Vortrag über den
Hamming-Code. Das Prinzip dieser Codierung besteht darin, einer zu übertragenden
Meldung Redundanz hinzuzufügen. Sollen z.B. Telegramme der Länge 4 Bit übertragen
werden, so besteht die Redundanz aus drei zusätzlichen Bit, die der Nachricht nach einem
bestimmten Schema hinzugefügt werden. Wird nun bei der Übertragung eines der 7 Bits
gestört, d.h. eine 1 in 0 oder eine 0 in 1 verwandelt, so lässt sich ein Korrektor berechnen,
der angibt, an welcher Stelle der Fehler aufgetreten ist.
Der Vortrag elektrisierte mich. In meiner Dienststelle fand ich ein Lager mit alten Klein- und
Telegraphenrelais. Diese eignen sich sehr gut für den Aufbau logischer Schaltungen (siehe
Bild 12). Mit diesen Relais baute ich logische Schaltungen auf, die ich zu einem Hamming
Codierer zusammenbaute.
Bild 12: Prinzipschaltbild einer Und-Schaltung im Zustand 1 and 1 = 1
In unserer Nachrichtenwerkstatt diente ein ausgezeichneter Mechaniker. Dieser half mir das
Konzept eines Kybernetikbaukastens zu verwirklichen. Der Baukasten bestand aus
einer großen Pertinaxplatte mit Fassungen und Buchsen. Darauf konnte man ein Sortiment
von UND-, ODER-, NICHT- Gattern sowie ANTIVALENZ-Schaltungen stecken und zu
komplexeren Bausteinen, z.B. Volladdern zusammenschalten.
Der Baukasten wurde im Unterricht der Offiziersschüler benutzt, um logische Schaltungen in
der Rechen- und Signalisierungstechnik zu erklären. Siehe Bild 13.
Auch eine Rechenmaschine wurde mit Relais
aufgebaut. Mit der Maschine konnte der größte
gemeinsame Teiler zweier Zahlen bestimmt werden
(Bild 14). Die logischen Schaltungen und der
Arbeitsspeicher wurden dabei durch die
Telegraphenrelais rechts und links der Metallplatte
gebildet. Links unten ist das Glühlampenfeld für die
Ausgabe zu sehen. Über den Lochstreifensender
(im Vordergrund) wurde das Programm eingegeben.
Der Automat hatte zwar kein Zusesches Format,
repräsentierte aber die Komponenten einer
Anfang 1958 wurde an unserer Schule ein junger
Physiklehrer eingestellt. Er hieß Klaus Karl, war ein
guter Pädagoge, fachlich versiert und
wissenschaftlichen Visionen aufgeschlossen. Zur
Qualifikation auf elektrotechnischem Gebiet führte
er an der Ingenieurschule Mittweida ein
Fernstudium durch.
Bild 13: Kybernetikbaukasten, Aufbau einer Antivalenz
Als Ingenieurarbeit entwarf und baute er
1962 das Modell eines elektronischen
Digitalrechners auf Transistorbasis.
Es handelte sich um eine programmgesteuerte Einadress-Serienmaschine mit Flip-Flop-
Speicher für Zahlen und Befehle. Mit dem Gerät konnten sechsziffrige Binärzahlen addiert,
subtrahiert und dividiert werden.
Das war der Beginn unserer Arbeit an
der Schule mit der
Digitalrechentechnik.
Die in der DDR 1955 fertiggestellte
OPREMA bestand aus etwa 17.000
Relais, wurde zur Berechnung von
Linsen eingesetzt und stand für uns an
der Schule in sehr weiter Ferne.
Auch der 1960 auf der Frühjahrsmesse
vorgestellte ZRA1 war eine Maschine
für Rechenzentren von Forschungs-
Bild 14: Modellrechenautomat auf Relaisbasis
Bild 15: Modell eines Elektronischen Digitalrechners auf Transistorbasis
Seit Erscheinen des Buches „Kybernetik, Regelung und Nachrichtenübertragung im
Lebewesen und in der Maschine" von Norbert Wiener im Jahre 1948 war es auf vielen
Fachgebieten in der DDR üblich nach Analogien zur und Anwendungen für die Kybernetik
zu suchen. Oberst Dr. Raulien vom Institut für Mechanisierung und Automatisierung der
Truppenführung schrieb das Buch „Kybernetik im Militärwesen", und wir an der
Nachrichtenschule entzündeten unsere Fantasie daran die Prinzipien der Kybernetik im
Unterricht einzusetzen.
In der Zeitschrift „Mathematik und Physik in der Schule" 10 (1963) Hefte 2 und 3 erschien
ein Artikel von L. N. Landa mit dem Titel „Kybernetik und Unterrichtstheorie".
Nach Landa besteht ein Mangel des Unterrichts gegenwärtig darin, dass er als ein Prozess mit
schlecht funktionierender Rückkopplung verläuft.
Eine Möglichkeit eine solche Maschine zu gestalten, zeigt die von mir aufgebaute Apparatur
Bild 16 : Audiovisuelle Unterrichtsmaschine
Auf ein Tonband wurde ein Kurzvortrag mit eingestreuten Fragen aufgenommen. Bestandteil
des Vortrags sind Lichtbilder. Der Lernende drückte bei jeder Frage eine Antworttaste. Das
Gerät zeigte an, ob die Antwort richtig oder falsch war. Die Antwort musste aus zehn
möglichen ausgewählt werden. Bei falscher Antwort nahm das Gerät die Richtigstellung vor.
Eine solche Anlage ist zum Selbststudium ohne Weiteres geeignet.
Der Aufwand ist aber beträchtlich. Sollen mehrere Schüler eine solche Anlage gleichzeitig
benutzen, muss die Klasse in kleine Kabinen unterteilt werden, in denen die Schüler mit
Kopfhörern sitzen. Zu solchen Überlegungen kam es aber nicht mehr, da die
Nachrichtenschule 1963 mit den Schulen anderer Waffengattungen zur Offiziersschule der
Landstreitkräfte in Löbau Zittau zusammengelegt wurde.
5.3 Die Fehlermatrix
Die Arbeiten von Landa hatten für den Unterricht an der Nachrichtenschule noch eine
weitere Konsequenz. Landa wandte den Begriff des „Erkennungsalgorithmus" u. a. auf das
Erkennen einfacher Satztypen an, indem er empfahl, die Suche nach deren entscheidenden
Merkmalen (Subjekt, Prädikat usw.) schrittweise nach einem algorithmischen Schema zu
vollziehen. Warum sollte ein solches Vorgehen nicht auch beim Erkennen spezieller Typen
elektronischer Bauelemente (z. B. Elektronenröhren) oder sogar von Fehlertypen an einem
Nachrichtengerät funktionieren? Bei der Suche nach entsprechenden Fehlererkennungs-
oder Fehlersuchalgorithmen hatte mein Kollege Klaus Karl die Idee, die häufigsten Fehler
nacheinander künstlich „einzubauen" und das jeweils daraus folgende Verhalten des Geräts
messtechnisch zu erfassen. Dabei wird eine Tabelle entsprechend Bild 17 angelegt.
Im Kopf der Tabelle werden die Bestandteile eines Gerätes, Baugruppen oder Bauelemente
eingesetzt. Danach sind Messungen (oder auch Prüfungen) festzulegen, die mit M1 bis Mn
bezeichnet werden.
Der Buchstabe im Kreuzungspunkt von Spalte und Zeile gibt an, ob ein Fehler Fn das
Ergebnis der Messung Mj beeinflusst (J) oder nicht beeinflusst (N). Der Wert w(Fi) gibt an wie
groß die Wahrscheinlichkeit ist, dass bei defektem Gerät gerade dieser Fehler auftritt.
Bild 17: Zusammenhang zwischen Fehler und Messwert
Es leuchtet ein, dass zur Unterscheidung der Fehler sich alle Spalten des Schemas
voneinander unterscheiden müssen.
Es erscheint ebenfalls logisch, dass die Unbestimmtheit dafür, welcher Fehler aufgetreten ist,
ein Maximum besitzt, wenn alle Fehler mit der gleichen Wahrscheinlichkeit auftreten.
Bei ungleicher Wahrscheinlichkeit ist zweckmäßig diejenigen Messungen als erste
auszuführen, die die Fehler mit der größten Wahrscheinlichkeit aufdecken.
Interessenten an diesem Thema seien an den Artikel;
J. Göller und K. Karl: Die Optimierung der Fehlersuche an elektronischen Einrichtungen mit
Hilfe der Informationstheorie. Nachrichtentechnik 15 (1965) H.12 S.455-461, verwiesen.
Bei der Verlegung der Nachrichtenschule der NVA 1963 nach Zittau verließ Klaus Karl
unsere Lehreinrichtung und wechselte zum Deutschen Pädagogischen Zentralinstitut in
Berlin, wo er 1969 zu Fragen des Programmierten Unterrichts promovierte.
Dr. Karl arbeitete seit 1973 am Forschungs- und Rechenzentrum der Akademie der
Pädagogischen Wissenschaften der DDR in Dresden, u. a. an der Erforschung quantitativer
Zusammenhänge im Leistungsverhalten von Schülern im Mathematikunterricht.
Das sind die Mühen der Ebene bei der Verfolgung von Visionen wie sie die Kybernetik für
den Unterricht hervorbrachte.
6. Hintergrund ab 1960
In der Rechentechnik gab es drei verschiedene Entwicklungsrichtungen.
Der an der TU Dresden (1963) entwickelte D4a war mit 200 Transistoren bestückt, dieRechengeschwindigkeit lag bei 2000 Grundoperationen/Sekunde.
Zur internen Datenablage kam ein Trommelspeicher zum Einsatz, der eine Kapazität von4000 Zeichen (33 Bit Wortlänge) hatte. Die Dateneingabe erfolgte über die Bedientastenoder Lochband, die Ausgabe über einen Streifendrucker.
Der Cellatron C8206 (Bild 18) war eine Schreibtischbauform des D4a (ab 1967).
Bild 18: Cellatron C8205
Im Gegensatz dazu standen die schwergewichtigen Großrechner. In der DDR stand ab
1967 der sowjetische Rechner
BESM-6 (1967) zur Verfügung. Er verarbeitete 1 Million Befehle in der Sekunde bei einer Taktfrequenz von 9 MHz. Er bestand aus 60,000 Transistoren und 170,000 Dioden. Die Programme wurden in Lochkarten gestanzt und über spezielle Leser eingegeben. Ergebnisse wurden ausgedruckt.
Die BESM-6 war der Prototyp der Maschinen wie auch die amerikanischen IBM-Maschinen für Stapelverarbeitung (Batch-Jobs).
Bild 19: Mainframe BESM-6 !
Die Verarbeitung von Batch-Jobs
war lange Zeit eine Domäne
von Mainframes. Ein BESM-6 stand im Institut für Hochenergiephysik der Akademie der Wissenschaften in Zeuthen (sozusagen vor unserer Haustür)
6.3 Multiuser-Systeme
Ein Betriebssystem ist die Verwendung (den Betrieb) eines ermöglicht. Es verwaltet Speicher, Ein- und Ausgabegeräte und
steuert die Ausführung von Die ersten Rechner besaßen kein
Betriebssystem. Z.B. wurde die OPREMA
über Stecktafeln programmiert. Mit der
Einführung der Modellreihe System 360 von
IBM führte IBM 1964 das Betriebssystem
OS/360 ein. Es war das erste
Betriebssystem, das
modellreihenübergreifend eingesetzt wurde.
Bei der Firma Digital Equipment Corporation
(DEC) wurden zu Beginn der 60iger Jahre
Kleinrechner gebaut, die sie
Programmierbare Datenprozessoren
nannten. (PDP-1 bis PDP-16).
Auf einem PDP-7 (Bild 18) entwickelten Ken
Thompson (im Bild 19 li.) und Dennis Ritchie
(im Bild 19 re.) um 1968 das Betriebssystem
Bild 20 : Der Rechner PDP7 der Fa.DEC UNIX. UNIX ist ein Multiuser System.
Es gestattet, dass gleichzeitig mehrere Nutzer auf den Rechner zugreifen. Das geschieht durch Timesharing. Den Benutzern werden nacheinander Zeitintervalle zur Arbeit zugeteilt. Dieser Betrieb wird auch Multitasking genannt.
Das Multiusersystem UNIX wurde Anfang der 70iger Jahre auf Rechner vom Typ PDP-11 portiert und 1975 an die Universitäten verschenkt. Dieser Schachzug war sehr gut durchdacht. An den Universitäten entwickelten Lehrkräfte und Studenten viele Programme, die UNIX immer attraktiver machten.
UNIX ist in der höherenProgrammiersprache C geschrieben.
Damit kann auf jedem Computer, aufdem ein C-Compiler läuft,
UNIX implementiert werden.
Bild 21: Ken Thompson (li.) und Dennis Ritchie r.) !
Besonders die Universität von Berkely förderte die Weiterentwicklung von UNIX.
6.4 Paketdatenübertragung
Telefonieren kann man schon seit 100 Jahren. Am Anfang hat man zu Beginn eines Telefongesprächs das Fräulein vom Amt angerufen und gebeten, mit einem Partner verbunden zu werden. Später wurde zu Beginn des Telefonats die Nummer des Partners gewählt. Die Verbindung erfolgte dann automatisch durch eine Fernsprechvermittlung. Mit einer Fernschreibmaschine kann man seit 80 Jahren Schriftstücke elektrisch übertragen. Das Fernschreiben erfolgt ebenfalls über Wählverbindungen. Mit dem Aufkommen der Rechentechnik entstand der Wunsch Rechner über größere Entfernungen miteinander zu koppeln. Das war natürlich prinzipiell über Fernschreibleitungen möglich, aber die Fernschreibgeschwindigkeit war viel zu niedrig, gemessen an der Arbeitsgeschwindigkeit der Elektronenrechner. Da entwickelten (unabhängig von einander) Paul Baran 1960 in den USA und Donald Watts Davies 1965 in England ein Verfahren, das sie Paketdatenübertragung nannten. Da auf einer Lochkarte, die zur Programm- und Dateneingabe in den Rechner dient, 80 Zeichen pro Zeile geschrieben wurden (Löcher für 1 und „Kein-Loch" für 0 ), bestanden die Datenpakete am Anfang aus Blöcken von 80 Zeichen 0 oder 1. Die Übertragungsgeschwindigkeit war zunächst auf 48000 Bit in der Sekunde begrenzt. Der Datenblock besaß einen Kopf, der den Namen des Absenders und die Adresse des Empfängers enthielt.
Bild 22: Datenpaket mit Adresse, Absender und 80 Zeichen Information.
Damit war es möglich, über die gleiche Leitung Datenpakete von verschiedenen Quellen an unterschiedliche Rechner zu senden. In einer Paketvermittlung wird von jedem
ankommenden Paket die Adresse gelesen, wonach das Datenpaket in eine Leitung geschickt wird, die schließlich zum Zielrechner führt.
6.5 Die Vernetzung von Computern stand nun auf der Tagesordnung.
Im Verteidigungsministerium der USA gab es eine Abteilung die hieß ARPA (Advanced Research Projekts Agency) Agentur für wissenschaftlich bedeutsame Forschungsprojekte. Unter anderem gab die ARPA den Universitäten Geld für den Ankauf von (in den 60er Jahren sehr teuren) Rechenanlagen, wenn sie für die militärische Forschung arbeiteten. Viele Universitäten bewarben sich um einen Computer, aber soviel Geld, alle Universitäten auszustatten, hatte die ARPA nicht.
Ein Mitarbeiter der ARPA hieß Bob Taylor. Der ärgerte sich zusätzlich darüber, dass in seinem Büro Verbindungen zu drei Großrechnern (an drei Universitäten) bestanden, wobei jede Verbindung mit einem anderen Gerät (Computerterminal) abgeschlossen war. Er hatte die Idee ein landesweites einheitliches Computernetzwerk zu schaffen. Er fand die Unterstützung von J.C.R. Licklider, einem Wissenschaftler des MIT (Massachusetts
Institute of Technology),
der zusammen mit Taylor 1967 das erste Papier zum Thema Internet verfasste. Das ARPAnet, das sie gemeinsam mit einer kleinen Gruppe von Wissenschaftlern und Ingenieuren entwickelten, wurde später zur Grundlage für das heutige Internet. Im Jahre 1969 vergab die ARPA den
Auftrag für den Bau der
Bild 23: Kernzelle des ARPANET !
Datenvermittlung (des
IMP = Interface Message
Prozessor) an die Firma Bolt Beranek and Newman. Der IMP war der wichtigste Bestandteil des zukünftigen Netzwerkes. Obwohl selbst große Firmen wie AT&T und IBM abgelehnt hatten, sie hielten das Projekt für nicht realisierbar, nahm "Bolt Beranek und Newman" (BBN) an. Ein halbes Dutzend Ingenieure, die sich selbst als die "IMP-Guys" bezeichneten, arbeiteten nun rund um die Uhr und schafften es tatsächlich, den IMP (auf der Grundlage eines Minicomputers 516 von Honeywell) in der vorgegebenen Zeit zu bauen. Neun Monate später konnte der erste IMP an der University of California Los Angeles (UCLA),, installiert werden. Ein landesweites Netzwerk, genannt ARPAnet, wurde ab jetzt ständig weiterentwickelt.
7. Vordergrund ab 1964
Mit der Fusion der Offiziersschulen der Waffengattungen der Landstreitkräfte in Zittau wurde
zwar ein Rationalisierungseffekt erzielt, aber mein schöpferischer Spielraum für
pädagogische und wissenschaftliche Arbeit wurde enger. Als Stellvertreter des
Fachrichtungsleiters Nachrichten musste ich Genehmigungen einholen, wo ich in Döbeln,
als Stellvertreter des Leiters für die technische Ausbildung freie Hand hatte.
Der Versuch an der TH-Dresden auf dem ZRA1 praktische Beispiele für die Fehlermatrix zu
programmieren verlief unbefriedigend, da der ZRA1 nur für Stapelbetrieb vorgesehen war
und bei Änderung der technischen Parameter neue Lochkarten gestanzt werden mussten.
Die Berufung zum Leiter der Erprobungsstelle für Nachrichtengerät (Nachrichten
Erprobungsstelle, NES) der NVA in Niederlehme, im Jahr 1965, durch den Chef Nachrichten
Generalmajor Reymann nahm ich daher gerne an.
In das zweite Jahr meiner Tätigkeit als Leiter der NES (1967) fiel der 10. Jahrestag des
Bestehens dieser Einrichtung. Ich schlug dem Chef Nachrichten vor, aus Anlass dieses
Jubiläums einen wissenschaftlichen Tag durchzuführen, bei dem Vorträge über
Perspektivthemen gehalten und eine Ausstellung technischer Geräte gezeigt werden sollte,
die durch die NES betreut wurden.
In meinen Vortrag, der natürlich vom Chef Nachrichten zu bestätigen war, baute ich alles ein,
was ich der Führung an Neuem mitteilen wollte. Dem Chef Nachrichten Generalmajor
Reymann war es gelungen, den Chef des Hauptstabes Generaloberst Keßler zu dieser
Veranstaltung einzuladen und mitzubringen.
Der Chef des Hauptstabes zeigte sich sehr interessiert und verfolgte sowohl meine
Ausführungen als auch die Ausstellung sehr genau.
7.1 Uns steht der erste Kleinrechner zur Verfügung
Nach der Veranstaltung lud GM Reymann den hohen Gast zu einem kleinen Imbiss und
einem Gespräch in mein Dienstzimmer ein. Auf dem Weg dorthin ging der Generaloberst in
meiner Begleitung und stellte viele Fragen, aus denen ich bemerkte, dass er die gesamte
Veranstaltung sehr aufmerksam verfolgt hatte. So erkundigte er sich sehr genau, wozu ich
den Kleinrechner Cellatron C8206 (Bild 18), um den ich in meinem Vortrag gebeten hatte,
einsetzen wolle. Meine Antwort, das Gerät für technische Analysen verwenden zu wollen
schien ihn zu überzeugen, und so wurde das Gerät ein halbes Jahr später geliefert.
Eine der ersten Anwendungen des Kleinrechners bestand in der automatisierten Auswertung
der Nachrichtenlage, die im Gerätesatz P 249 einer sowjetischen Nachrichtenzentrale
generiert wurde. Der genannte Gerätesatz enthielt ein Gerät, das die Zustandsdaten aller
Übertragungsgeräte auf einer Fernschreibmaschine (Streifenschreiber) aufzeichnete. Dieses
Protokoll diente als eine Art Logbuch, an dem man nachträglich die Funktion oder
Nichtfunktion der einzelnen Verbindungen nachweisen konnte. Wir ließen diese Protokoll
auf einen Lochstreifensender ausgeben und speisten es in den C8206 ein, der daraufhin eine
übersichtliche Liste der Kanäle und ihres Zustandes über der Zeit enthielt.
Es sollte noch ein paar Jahre dauern, bis dieser Prozess mit Hilfe eines Mikrorechners online
durchgeführt werden konnte.
7.2 Verbindungen zum Institut für Nachrichtentechnik
Die Lage der NES in Niederlehme bei Königs Wusterhausen machte es möglich, bequem
Verbindungen mit Instituten und Industrie, sowie Hochschulen in Berlin anzuknüpfen und zu
pflegen. Einer meiner ersten Besuche galt dem Institut für Nachrichtentechnik, dessen neuer
Direktor Dr.-Ing. Peter Fey war, den ich noch von der TH Dresden kannte und dessen Vortrag
über den Hamming-Code mich auf Probleme der Fehlerkorrektur und die logischen
Schaltkreise gebracht hatte.
Dr. Fey war ein Wissenschaftler von Weitblick und „großem Integral" (wie man profundes
Breitenwissen nennt) und in diesem Sinne aufmerksamer Leser internationaler Fachliteratur,
die in der Bibliothek des INT gut sortiert vorhanden war. Er hatte natürlich verfolgt, dass
PCM-Geräte mit 24 Kanälen um 1965 in den USA in Ortsnetzen eingesetzt wurden. Es gab
da natürlich einen Stilbruch, da beim Übergang vom digitalen Kanal zur analogen
Vermittlung immer Analog- Digitalumsetzer eingesetzt werden mussten. Erste Stimmen aus
den USA plädierten für den Aufbau digitaler Vermittlungen, mit denen man ein IDN
(Integriertes Digitales Nachrichtensystem) aufbauen müsse.
Dr. Fey war von der Idee fasziniert und reichte das Thema IDN als Staatsplanthema ein.
Aufgrund fehlender Wirtschaftskraft der DDR wurde das Thema wieder fallengelassen.
Ein PCM-Gerät für 32 Kanäle wurde jedoch entwickelt.
Der Autor hatte die Gelegenheit, an der Vorstellung eines im Institut für Nachrichtentechnik
entwickelten PCM 32 vor Repräsentanten der Deutschen Post (Ost) teilzunehmen. Die
Vertreter der Fernmeldehoheit sahen angesichts der im praktischen Einsatz gut
funktionierenden Trägerfrequenzgeräte keinen Bedarf an digitaler Technik.
Diese Ansicht änderte sich allerdings, als sich herausstellte, dass mit PCM-Technik der
dringende Bedarf an Stromwegen gedeckt werden konnte. Denn die im Ortskabelnetz noch
aus Kaisers Zeiten vorhandenen 4-Draht-Kupferleitungen waren alle zwei Kilometer mit
einem Spulenkasten ausgerüstet, der sich gut für die Unterbringung eines Repeaters eignete,
der die verflachten PCM-Impulse wieder auffrischte. Damit konnten beim Einsatz von PCM
auf diesen Kanälen 30 Verbindungswege geschaltet werden.
Das im INT entwickelte PCM-Gerät wurde in der NES erfolgreich beim Einsatz auf
schwerem Feldkabel erprobt.
Aus der Bibliothek des INT konnte ich mir ebenfalls westliche Fachliteratur ausleihen. Im
MfNV bekam ich diese Zeitschriften nur in der VS-Stelle und durfte sie nicht mit nach Hause
Die ersten Aufgaben zur Erprobung von Datenübertragungsgeräten über Drahtnachrichten
und Funkkanälen ließen neue Fragen entstehen, für die es im Rahmen der bisherigen
Aufgaben keine Antworten gab. Dieses neue Aufgabengebiet war dem Umstand geschuldet,
dass die militärische Führung ihre Befehle und Meldungen nicht mehr allein telefonisch über
Funk und Draht oder durch Fernschreiben übermittelte, sondern über Modem in Form von
Es gelang mir, neben den Unterabteilungen Funk- und Draht-Nachrichtentechnik, die sich
vor allem mit der Erprobung von Technik aus DDR-Produktion in Bezug auf ihre
Verwendbarkeit in der NVA beschäftigt, eine selbständige Arbeitsgruppe Datenübertragung
im Stellenplan zu installieren.
Ein Mitarbeiter dieser Arbeitsgruppe war
Oberleutnant Claus Wilhelm, Fernstudent an der
TH Dresden, ein Offizier der über schöpferische
Phantasie und Durchsetzungsvermögen verfügte.
Zur Besetzung von Zivilplanstellen hatten wir
Absolventen der TH Dresden geworben. Einer
davon ein ruhiger, kreativer Diplom-Ingenieur war
Eberhard Johlig, den ich auch in der AG DFÜ
Oltn. Wilhelm wollte sich nicht mit den
herkömmlichen Methoden der Erprobung
begnügen, d.h. Anschließen der Geräte und
versuchen die Ergebnisse zu deuten. Er schlug vor,
eine Messeinrichtung zu bauen, die
Fehlerstrukturen auf den von uns genutzten
Nachrichtenkanälen misst. Die Idee zum Bau eines
Messplatzes entstand, den wir SUSI (Gerät zur
Struktur Untersuchung Statistischer Impulsfolgen)
nannten. Nach Bewilligung der erforderlichen
Mittel schickte Oltn. Wilhelm den Dipl.-Ing. Johlig
zum Büromaschinenwerk Karl Marx Stadt und es
entstand der erste Messplatz dieser Art in
Deutschland. Die SUSI wurde Anfang 1968 in
Betrieb genommen (Bild 22). Der Sinn dieser
Messeinrichtung bestand darin, die Fehler nicht nur
zu zählen, sondern ihre genaue zeitliche Lage bei
der Übertragung einer
Bild 24: Messplatz SUSI
Bild 25: Längengewichtsverteilung der Fehler auf einem UKW-Kanal bei Übertragung
von Blöcken der Länge n=1, Gesamtzahl der Fehler 8386
Nachricht zu registrieren. Damit konnte nicht nur die Menge der Fehler in der Zeiteinheit
registriert werden, sondern auch die Fehlermuster.
Aus Bild 25 ist zu erkennen, dass 5856 übertragene Datenblöcke einen Fehler aufwiesen. In
970 Blöcken traten Doppelfehler auf, in 186 Blöcken traten zwei Fehler in einem Abstand
von einem ungestörten Bit auf usw.
Eine ausführliche Beschreibung der Messergebnisse und deren Anwendung ist in dem Buch
„Daten-Übertragung, Militärverlag der DDR, 1976. Herausgegeben von Claus Wilhelm"
Die gemessenen Daten waren eine Fundgrube. Ihre Auswertung sowohl auf unserem C8206,
auf der Minsk 22 im Institut für die Automatisierung der Truppenführung (IAT) in Dresden
sowie ab Anfang der 70er Jahre auf der BESM-6 des Instituts für Hochenergiephysik in
Zeuthen. Sie gestattete neue Einsichten in die Physik der Nachrichtenkanäle.
Eine weitere Verstärkung erhielt die Arbeitsgruppe Datenübertragung durch einen
als Offizier eingestellten Absolventen der TH. Dresden, Ltn. Dipl.Ing. Peter Uhlmann.
Hauptmann Wilhelm und Oltn Uhlmann verbrachten manche Nacht auf der Luftmatratze
hinter der Minsk 22 und überwachten die Berechnung von Übertragungsprozeduren und
Die Messergebnisse gestatten es sowohl optimale Prozeduren zur Datenübertragung
auszuarbeiten, als auch geeignete Codierverfahren zur Fehlersicherung zu bestimmen.
Auch zivilen Institutionen konnten wir helfen. Ein Mitarbeiter des Instituts für Post und
Fernmeldewesen Dipl. Trömel hatte die Fehlerstruktur bei Datenübertragung über Kanäle des
Selbstwählfernverkehrs auf Lochstreifen gespeichert. Über unsere Auswerte-Methoden
konnten wir eine mittlere Fehlerrate von 10-3 ermitteln.
Mit diesen Arbeiten rückt die NES in die vordere Reihe der Institute der DDR, die sich mit
Datenfernübertragung beschäftigen.
8. Hintergrund ab 1970
8.1 Der Mikroprozessor
Die Firma Intel war 1968 von Gordon E. Moore, Andy Grove und Robert Noyce (vergl. Pkt. 4) gegründet worden. Moore hatte 1965 das sog. Moorsche Gesetz formuliert, das aussagt, dass sich die Komplexität integrierter Schaltkreise mit minimalen Komponenten-Kosten etwa alle zwei Jahre verdoppelt.
Die damals kleine Firma Intel erhielt von dem japanischen Unternehmen Busicom 1969 den Auftrag für eine programmierbare Rechenmaschine einen Chipsatz von zwölf Halbleiterbausteinen zu entwickeln. Mit dem Auftrag wurde Tedd Hoff betraut. Hoff hatte die Idee den Auftrag mit einer Mehrzweckarchitektur zu erfüllen. Er hatte mit einem DEC-Computer gearbeitet und war begeistert, wie dieser Computer mit einem sehr einfachen Befehlssatz komplexe Probleme bewältigt. Folglich wollte er so etwas wie einen Computer auf einem Halbleiterchip nachempfinden.
Zu Hoffs Entwurfsteam gehörten damals Stan Mazor und Frederico Faggin, die letztlich im Konzept einen Satz aus vier Chips vorlegten: Einen ROM-Chip (den Intel 4001), ein RAM
für die Speicherung der jeweils errechneten Daten (den Intel 4002), ein Schieberegister für Eingang und Ausgang (den 4003) und letztlich die Prozessor Einheit, die CPU (den 4004). Diese 4004 CPU war der erste in Serie gebaute Mikroprozessor. Er hatte eine Taktfrequenz von bis zu 740 kHz.
Realisiert hat das Design dann in nur neun Monaten Frederico Faggin.
Nach einigen ökonomischen Querelen mit dem Auftraggeber Busicom, verkaufte Intel den Chipsatz billiger, behielt aber dafür die Rechte an der Erfindung des Mikroprozessors.
Der 4004 wurde 1972 durch den 8008 abgelöst, den ersten 8-Bit-Mikroprozessor der Welt. Dieser Prozessor war der Vorläufer für den äußerst erfolgreichen Intel 8080 (1974) und weiterer 8-Bit-Prozessoren von Intel. Der Motorola 6800 stand ab August 1974 im selben Jahr wie der 8080 zur Verfügung.
Faggin verließ nach vier Jahren das Unternehmen Intel und war Mitbegründer vo wo 1976 mit dem Z80 einer der wichtigsten 8-Bit-Mikroprozessoren entstand.
Der Krieg in Vietnam trat in die letzte Phase ein. Die Amerikaner, die ab 1965 in die Kämpfe zwischen Nord- und Süd- Vietnam eintraten, bauten zur Gewährleistung der militärischen Führung ein leistungsfähiges Fernmeldesystem auf. Da ein stationäres Nachrichtennetz nur in sehr eingeschränktem Maße zur Verfügung stand entfalteten amerikanische Firmen ein Netz aus Troposphären-Nachrichten-Verbindungen.
Die Truppen verfügten über die modernsten Nachrichten-Geräte, die hierbei im Einsatz erprobt wurden. Die geleisteten Anstrengungen wurden ausführlich in der der Fachpresse, u.a. in der Zeitschrift Elektronics beschrieben. So z.B. wurde über die in der Hauptnachrichtenzentrale in Saigon eingerichtete Rechnergestützte Fernschreibzentrale(Autodyn) berichtet.
Bis zum März 1975 wurden die Amerikanischen Truppen wieder abgezogen.
Die meisten Waffen, unter anderem die gesamte Fernmeldetechnik wurde der Südvietnamesischen Armee übergeben. Der Krieg endete mit der Einnahme von Saigon am 30. April 1975. Die Technik war Kriegsbeute der Vietnamesischen Volksarmee. Während der Kampfhandlungen wurden Rangereinheiten der Nordvietnamesischen Truppen eingesetzt, die Technische Zentralen sowie Brücken und andere strategisch wichtigen Objekte vor der Zerstörung zu sichern hatten.
8.3 Das Arpanet
8.3.1 Fortsetzung des Aufbaus
Im Verlaufe der 70er Jahre wurde das ARPANET immer weiter über das Territorium der USA gezogen. Es wurden successive die Werkzeuge und Methoden gefunden, die gegenwärtig bei Betrieb und Führung des Internets angewendet werden. Der Daten-Durchsatz der Verbindungsleitungen betrug 50 Kilobit. Für die damalige Zeit war das viel, für heutige Verhältnisse wenig, denn im ISDN werden 64 Kilobit auf einer Teilnehmer-anschlussleitung übertragen. Die Einbeziehung von Bolt und Beranek in das Netz mit dem IMP Nummer 5 gestattete die Fernwartung und Diagnose im gesamten Netz. Es entstand das erste Network Control Center (NCC).
Bis jetzt war das Netz nur ein (Groß-)Rechnerverbund. Nun entstand der Wunsch sich auch mit einem Terminal an das Netz anzuschließen und so sich auf einem fernen Rechner einzuloggen. Die nächsten IMPs erhielten eine Erweiterung. Neben den 4 Host-Schnittstellen erhielten sie 63 Schnittstellen zur Bedienung von Terminals. Ein solcher Terminal-IMP wurde TIP genannt.
Ab Mitte 1971 gab es eine Network Working Group, die Protokolle entwickelte mit Hilfe deren Rechner und Terminals unterschiedlichster Hersteller miteinander kommunizieren konnten. Das erste Protokoll war das Telnet Protokoll. Damit war es möglich sich mit einem fernen Rechner zu verbinden.
Im Jahre 1972 wurde das File Transfer Protokoll FTP vorgestellt, mit dem man Dateien (Files) von einem Rechner zum anderen übertragen konnte. Die Protokolle wurden den Nutzern in sog. RFCʻs (Requests For Comment ) vorgestellt. Das war eine Einladung seine Gedanken zum Protokoll mitzuteilen. FTP war in der RFC 354 spezifiziert, Telnet in der RFC 318. Beide Protokolle wurden ständig weiterentwickelt und werden heute noch benutzt. Im Jahre 1972 wurde die ARPA in DARPA (Defense Advanced Research Projects Agency)umbenannt. Der Name ARPANET änderte sich dadurch nicht.
Ein Programm, das man als meistbenutztes Programm des Internets bezeichnen kann, ist E-Mail, die elektronische Post. Ray Tomlinson schrieb 1972 das Email-Programm mit dem @ als Trennzeichen zwischen Name und Adresse. Leider sind 90 % der E-Mails heute unerwünscht, also Spam, ähnlich der Werbungen die unsere Briefkästen überfluten.
Im Herbst 1972 wurden die bis dato installierten 29 Knoten bei einer großen Präsentation, erstmals als ARPANET bezeichnet. Das bis 1974 genutzte Protokoll, das die Kommunikation der Rechner mit den IMPʻs regelt, hieß Network Control Protocol (NCP). Das NCP setzte voraus, dass die Verbindungen des Netzes 100 % zuverlässig waren. Da dies nicht der Fall war, entwickelten Cerf und Kahn ein Konzept, bei dem die Nachrichten in Datagramme eingeschlossen und nur am Ende der Verbindung ausgepackt werden. Die Datagramme waren mit einem Protokollkopf versehen, dem Transmission Control Protocol (TCP) Kopf, mit dem die Unversehrtheit der Nachricht festgestellt werden konnte. Damit wurde das Problem der Netzwerk-Zuverlässigkeit gelöst. Die Sicherung der Zuverlässigkeit wurde vom Netz auf die Hosts verlagert.
Im Oktober 1977 gelang es, die drei Netzwerke Packet Radio Netzwerk, ARPANET und SATNET zu koppeln.
8.3.2 Das IP-Protokoll
Anfang 1978 fand am Information Sciences Institute (ISI) eine Beratung zum Thema TCP statt. Im Rahmen dieser Veranstaltung schlugen Cerf, Postel und Cohen vor, vom TCP den Teil des Übertragungs-Steuerungsprotokolls für das Routing abzutrennen und dafür ein eigenes Protokoll, das Internet-Protokoll IP zu entwickeln. Am Anfang der zuübertragenden Nachricht stand nun nicht mehr der TCP, sondern der IP Kopf.
Im unteren Teil von Bild 24 ist ein Paket mit einem IP-Header aufgezeichnet. Die Struktur dieses Header ist im oberen Teil des Bildes dargestellt. Da das IP-Protokoll in der gesamten Netzwerktechnik eine Schlüsselrolle spielt, soll der Inhalt der einzelnen Felder des Kopfes kurz erklärt werden:
Bild 26: Aufbau des IP-Kopfes und eines IP Rahmens
- Die Versionsnummer ist allgemein 4 (IPV4). Die Version 6 ist in der Einführung
- Die Länge des Kopfes wird in 32 Bit Worten angegeben. Sie beträgt (ohne das
Optionenfeld) normalerweise 5.
- Servicetypen sind Priorität, Wartezeit, Durchsatz und Zuverlässigkeit. Da im Internet
allgemein nicht Wege verschiedener Qualität zur Verfügung stehen, wird von diesen
Klassen dort allgemein kein Gebrauch gemacht.
- Die Paketlänge stellt die Gesamtlänge des Paketes einschließlich Protokollkopf dar. Die
maximal mögliche Länge eines IP-Paketes beträgt 216 = 65535 Bytes.
- Die Identifikation ist eine Zahl, die pro Paket vom Absender vergeben wird und auch zur
Identifizierung der Fragmente beim Aufteilen eines Paketes in kürzere Teilstücke dient.
- DF heißt Donʼt Fragment und stellt das Verbot der Teilung des Paketes in Fragmente dar
Vergleiche auch Bild 25.
- MF heißt More Fragments und zeigt an, dass dem Paket weitere Teilpakete folgen. Der
Fragmentabstand enthält die Lage des Teilpaketes relativ zum Kopf (gezählt in Einheiten zu 8 Byte)
- Die Lebenszeit gibt an, wie viele Router (Netzknoten) das Paket durchlaufen darf
(Häufig 64). Beim Durchlauf durch einen Router wird die Lebenszeit (TTL = Time To Live) um 1 verringert. Wenn ein Router das letzte Bit Lebenszeit löscht, schickt er dem Absender eine Information, dass das Paket aus dem Verkehr gezogen wurde. Dadurch wird verhindert, dass Pakete durch das Netz vagabundieren (herumirren).
- Im Feld Transportprotokoll wird angegeben, welchem Protokoll der Paketinhalt
übergeben werden muss. Z.B. steht die Nummer 6 für TCP (Transport Control Protocol) und die Nummer 17 steht für UDP (User Datagram Protocol).
- Die Kopfprüfsumme sichert nur die Felder im Protokollkopf. Der zu transportierende
Paketinhalt wird beim Empfänger durch das Transportprotokoll geprüft.
- Sender- und Empfängeradresse sind 32 Bit lange Internetadressen (siehe Bild 26).
- Optionen sind Angaben für spezielle Zwecke, wie z.B. Netzwerkmanagement usw.
- Füllzeichen dienen der Ergänzung dieser Zeile auf 32 Bit.
Bild 27: Fragmentierung von IP-Paketen
Bild 28: Einteilung der Internetadressen
IP-Adressen und Domainnamen (auf letztere wird in diesem Zusammenhang nicht eingegangen ) werden durch sog. Network Information Center (NIC) vergeben. Die Firma Network Solutions betreibt als oberste Instanz für das Internet das InterNIC. Von diesem werden die Aufgaben delegiert. Für die Top-Level-Domain *.de (Deutschland) an das DE-NIC.
Außer den Klassen A,B,C gibt es noch das reservierte!
Klasse-D-Netz von 224.0.0.0 bis 239.255.255.255 und das reservierte
Klasse-E-Netz von 240.0.0.0 bis 254.255.255.255.
Die Adressen 127.x.x.x sind für den Loopback reserviert. Z.B. ist 127.0.0.1 die Adresse des Localhosts. Für den „Hausgebrauch" wurden laut RFC 1918 folgende private Adressbereiche definiert:
1 privates Klasse-A-Netz (10.0.0.0 bis 10.255.255.255),
16 private Klasse-B-Netze (172.16.0.0 bis 172.31.255.255
256 private Klasse-C-Netze (192.168.0.0 bis 192.168.255.255).
Da IP-Pakete über sehr unterschiedliche Netzwerktypen transportiert werden müssen, muss IP in der Lage sein, die Paketgröße der Datagramme an die Eigenschaften der verschiedenen Übertragungsabschnitte anzupassen. Pakete nach CCITT-X25 dürfen z.B. nicht länger als 128 Byte sein. Für Ethernetpakete ist dagegen eine Länge des Datenpaketes von 1526 Byte zulässig. Daher muss das IP-Protokoll in der Lage sein, in jedem Netzknoten die Paketgröße an das jeweils zu benutzende Trägermedium anzupassen. Das bedeutet, dass die Möglichkeit besteht, im Netzknoten Pakete sowohl zu fragmentieren als auch wieder zusammenzusetzen (defragmentieren ).
8.3.3 Das Transport Control Protocol
Die Zustellung der Pakete im Internetprotokoll erfolgt „best effort". Dass Pakete nicht ankommen, muss von dem die Daten sichernden Protokoll bemerkt werden. Die Daten werden durch das Transmission Control Protocol TCP gesichert.
29: Der TCP Protokollkopf
Der TCP-Kopf ist in Bild 29 dargestellt. Die wichtigste Einträge im TCP-Protokollkopf sind:
- Die 16 Bit lange Prüfsumme erstreckt sich über den Protokollkopf und die zu transportierenden Daten.
- Beim Verbindungsaufbau tauschen die Partner jeweils eine 32 Bit lange Sequenz- Nummer (Sender an Empfänger) und eine Quittungsnummer (Empfänger an Sender) aus. Bei der Übertragung übergibt der Sender die um die Zahl der gesendeten Bytes
erhöhte Sequenznummer an den Empfänger, der Empfänger quittiert mit der um die Zahl der empfangenen Bytes erhöhten Quittungsnummer.
- Ein wichtiges Element in der Adressierung auf der Transportebene sind die Portnummern. Von den 216 = 65536 möglichen Portnummern sind einige hundert für die bekannten Dienste fest vergeben. Z.B. besitzt der Internetzugang die tcp-Portnummer 80. Einem Filetransferprotokoll (ftp) Server ist die tcp-Portnummer 21 für den Austausch von Steuerungsinformationen und die tcp-Portnummer 20 für den Datenaustausch zugeordnet. Einen Telnet-Server erreicht man über die tcp-Portnummer 23. Man unterscheidet tcp- Portnummern und User Datagram Protokoll (udp) Portnummern.
Wenn eine tcp/ip Verbindung aufgebaut werden soll, dann muss sowohl die IP-Nummer des Empfängers (Netz und Host-ID) bekannt sein, als auch der Dienst, repräsentiert durch seinen Port an dem die Pakete abzuliefern sind. Damit der Gerufene bzw. Belieferte antworten kann, wählt er aus der Menge der unbenutzten Portnummer (allgemein Werte über 2000) eine aus und gibt sie als Empfänger Port an.
Die Kombination aus kompletter IP Nummer und Portnummer nennt man auch einen Kommunikationsendpunkt oder Socket.
- Der Datenabstand DA gibt die Länge des TCP-Protokollkopf in 32-Bit-Worten an.
- Die Fenstergröße dient der Steuerung des Datenflusses, sie enthält die Anzahl von Bytes, die der Empfänger im Moment puffern kann.
- Es werden die folgenden Flags verwendet: U=Urgent (Dringend), zeigt an, dass der Zeiger im Urgent- Feld gültig ist. A=ACK zeigt an, dass die Quittungsnummer gültig ist. P=Push heißt, die Daten sollen sofort übergeben werden. R=RST heißt Rücksetzen der Verbindung oder ungültiges Element. S=SYN stellt den Wunsch nach Verbindungsaufbau dar. F=FIN stellt den Wunsch nach Verbindungsabbau dar. Die beiden letztgenannten Flags müssen von der Gegenstelle quittiert werden.
- Der Urgentzeiger weist auf das letzte Byte der zu übertragenden Nachricht. Die darauf folgende Information sind dringende Systemnachrichten.
8.4 ALOHAnet
Bei Wikipedia liest man folgendes:Wie das ARPANET wurde das ALOHAnet mit Mitteln der DARPA finanziert. Aber während das ARPANET gemietete Telefonleitungen verwendete, nutzte das ALOHAnet Packet Radio. Beim ARPANET konnte ein Knoten mit mehreren anderen Knoten über Leitungen kommunizieren, während beim ALOHAnet alle dieselbe Funkfrequenz nutzten, womit es notwendig wurde, Kollisionen auf diesem Kommunikationsmedium zu erkennen und zu behandeln.
Beim ALOHAnet wurden zwei Funkkanäle verwendet: ein Broadcast-Kanal (413.475 MHz) und ein Random-Access-Kanal (407.350 MHz). Auf letzterem sendeten die einzelnen Stationen ihre Datenpakete zum Zentralrechner. Dieser bestätigte den Empfang jedes Pakets auf dem Broadcast-Kanal. Versuchten zwei Stationen zugleich zu senden, kam keine der beiden Nachrichten richtig an. Der Zentralrechner sendete keine Bestätigung, und die Sender versuchten es unabhängig voneinander nach einer zufällig gewählten Zeitspanne erneut. Die Chancen, dass beide Sender beim nächsten Übertragungsversuch wieder eine Kollision erzeugten, wurden so minimiert.
8.5 Ethernet
Im Jahre 1972 las Robert Metcalf Aufzeichnungen von Professor Abramson über das ALOHAnet und entdeckte darin Ungenauigkeiten im Prozessablauf. Er fuhr nach Hawaii und schlug vor, die Teilnehmer nicht blind ihre Pakete auf dem Radom-Access-Kanal abzusetzen, sondern vorher in den Kanal hineinzuhorchen, ob er frei ist. Mit dieser Verbesserung arbeitete das ALOHAnet effektiver.
Metcalf erhielt danach von der Firma XEROX, dem Palo Alto Research Center (PARC), den Auftrag für den neu entwickelten Personalcomputer ALTO eine Vernetzungs-Möglichkeit mit anderen Computern zu entwickeln. Da er aus Kostengründen keine Vermittlung oder Ähnliches verwenden wollte, entschied er sich für eine ALOHA-ähnliche Konstruktion. Anstelle des Funknetzes verwendete er ein Koaxialkabel. Die Rechner sind dabei alle direkt mit einem Kabel fest verdrahtet. Ein Rechner, der ein Datenpaket verschicken will, horcht in den Kanal hinein (Carrier Sense) ob er frei ist. Wenn ja sendet er sein Datenpaket. Sollte ein anderer Teilnehmer das Gleiche tun, gibt es eine Kollision, die der Sender registriert (Collision Detection). Der Sender wartet nun ein paar Tausendstel Sekunden (zufällige Verzögerung) und wiederholt den Vorgang. Metcalf taufte das System 1973 Ethernet. Im ETHERNET wird eine zu übertragende Nachricht in Abschnitte (Pakete) zerlegt, die beim Transport über das Ethernet bis 1500 Byte lang sein dürfen.! Die Pakete werden in einen Rahmen eingefügt, der Ziel und Absender eines Paketes und Informationen zu dessen Sicherung enthält. Der Aufbau eines Paketes ist in Bild 30 dargestellt:
Bild 30: Aufbau eines ETHERNET_802.3, bzw. ETHERNET_II Rahmens
Die Präambel besteht aus 7 mal 10101010-Bit Kombinationen zur Synchronisation desEmpfängers und einer Bitkombination 10101011 zur Signalisation des Rahmenanfangs.
Ziel- und Quell- Adresse sind 6 Byte lange Hexadezimalzahlen, wobei die Quelladressen auf einem Chip der Ethernetkarte eingebrannt und weltweit einmalig sind. Die ersten drei Byte dieser Adresse nennen den Hersteller, die restlichen drei Byte die laufende Nummer der Karte.
Aufgrund ihrer Einmaligkeit wurde die 6-stellige Hexadezimalzahl bei Novell ursprünglich als Adresse der Arbeitsstation bzw. des Servers benutzt, in dem die dazugehörige Ethernetkarte steckt.
Beim alten Netware stand in dem 2 Byte langen Feld nach der Quelladresse die Länge des Datenfeldes. Ein Rahmen dieses Aufbaus ist vom Typ ETHERNET_802.3. Über die Art der Daten bzw. über das verwendete Protokoll wird dabei nichts ausgesagt.
Im von XEROX vorgeschlagenen Rahmenaufbau folgt der Quelladresse ein 2 Byte langesTypfeld. Im Typfeld wird das Protokoll spezifiziert, mit dem die Daten transportiert werden.
In diesem Fall haben wir es mit einem Rahmen vom Typ ETHERNET_II zu tun.
Eine Unterscheidung beider Rahmen ist leicht, da die maximale Länge des Datenfeldesvon 1500 Byte einer Länge von OxO5DC hexadezimal entspricht. Die Liste der Protokoll -
Typen wird von der Firma XEROX verwaltet und beginnt dagegen bei 0x0600. Aus der Liste der über 200 Protokolle seien hier nur drei genannt (Bild 29). Das Internetprotokoll wurde oben bereits erklärt. Das von Novell erfundene Protokoll IPX wird nur noch in alten Anlagen verwendet.
Bild 31: Ausgewählte Protokolltypen
Das ARP soll im nächsten Abschnitt kurz beschrieben werden, da es Grundlage für die Verbindung des Internets mit den lokalen Computernetzwerken bildet.
8.6 Das Adress Resolution Protocol
Nachdem im Internet (Fernnetz) die IP-Adressen eingeführt worden waren, bestand die Notwendigkeit auch in lokalen Netzen mit dem Internetprotokoll zu operieren. Dazu musste eine Methode gefunden werden, die den Rechnern zugeordnete IP-Adresse mit der 6 Byte langen Hardwareadresse in Beziehung zu setzen.
Das zugrunde liegende Protokoll heißt Adress Resolution Protocol ARP. Es funktioniert folgendermaßen:
1. Jeder Rechner verfügt über eine temporäre Tabelle in der die im (Lokalen) Netz bekannten Rechner mit ihrer Physikalischen und ihrer Internet Adresse aufgeführt sind. Z.B.
!
Soll ein Datenpaket an die Internet-Adresse 192.168.178.23 gesendet werden, muss die dem Rechner zugeordnete Hardware-Adresse in das in Bild 28 dargestellte Paket eingesetzt und über das Ethernet verschickt werden. Nach einer Zeit (bis 20 Minuten) wird die Tabelle gelöscht und muss bei Bedarf neu aufgebaut werden. Das geschieht wie folgt:2. Es wird ein ARP-Broadcast-Paket mit der Internet-Adresse des gesuchten Rechners
und der Absender-Hardware-Adresse gebildet und ins Netz gesendet.
3. Alle Rechner im Netz erhalten das ARP-Paket und vergleichen die darin enthaltenen
Internet-Adresse mit ihrer eigenen. Der gesuchte Rechner trägt seine Hardware-Adresse in ein Antwortpaket ein und sendet es zurück.
4. Die oben genannte Tabelle kann nun wieder aufgebaut werden.
8.7 Der erste Personalcomputer war ein Apple
Im Jahre 1975 war Steve Wozniak 26 Jahre alt und bei Hewlett Packard angestellt. Er wollte einen billigen Rechner für Computerinteressenten bauen. Die Chiphersteller Intel
und Motorola verkauften ihre
Prozessoren für über 300 $. Die kleine Firma MOS Industries verkaufte den zum Motorola 6800 Hardwarekompatiblen 6802 für 25 $. Wozniak rüstete daher seinen PC mit diesem Schaltkreis aus.
Wozniaks Computer sollte einfach zu benutzen sein, daher entschied er sich für
eine richtige Tastatur statt
Bild 32: a) Steve Wozniak!
der bis dahin üblichen Schalter. Außerdem sollte der Rechner direkt an ein Fernsehgerät anschließbar sein um die Kommunikation für den Nutzer zu vereinfachen (andere Geräte benutzen zu dieser Zeit noch Fernschreiber für die Ein- und Ausgabe).
Steven Wozniak und Steven Jobs waren schon in der High School befreundet. Beide interessierten sich für Elektronik und galten als Außenseiter. Nach ihrem Abschluss arbeitete Jobs bei Atari. Im Jahre 1975 löteten sich Steven Wozniak und Steven Jobs in Jobs' Garage einen eigenen Computer zusammen, den Apple I. Insgesamt benötigten sie dafür nur ca. 60 Arbeitsstunden. Der verwendete Prozessor 6502, war leistungsfähiger als der Intel 8080. Steven Jobs und Steve Wozniak gründeten am 1. April 1976 die Firma Apple. Jobs war zu diesem Zeitpunkt 21, Wozniak 26 Jahre alt.
8.8 Die Gründung von Microsoft
Bill Gates programmierte bereits auf der Highschool auf ihm zur Verfügung stehenden
Rechnern. Er adaptierte unter anderem BASIC - eine leicht erlernbare Sprache - für die auf- kommenden Mikro-Prozessoren. Als 1975 der Altair 8800 erschien, sahen er und sein Freund Paul Allen die Chance, die schon begonnene Arbeit zu Geld zu machen. Innerhalb von 30 Tagen adaptierten sie BASIC für den Altair 8800. Die Microsoft Corporation wurde 1975 von Bill Gatesund Paul Allen gegründet.
Bild 33: Steve Jobs (links) und Bill Gates (rechts) waren befreundet.
Der Name „Microsoft" steht für Mikrocomputer-Software. Am 6. Januar 1976 wurde „Microsoft" eine eingetragene Handelsmarke. Die Firma veröffentlichte Adaptionen von FORTRAN und COBOL-80. Es gab einen BASIC Compiler, Disketten- BASIC für verschiedene MikroprozessorenMicrosoft entwickelte eine Z80 Karte für den Apple. Zusammen mit dem Betriebssystem CP/M konnte damit ein Apple auch Microsoft Programmiersprachen verarbeiten,
9. Vordergrund ab 70
9.1 Der Lehrstuhl Informationstechnik der TH Karl-Marx-Stadt.
Der Direktor des Instituts für Nachrichtentechnik Dr.-sc.-techn. Peter Fey nahm Ende der
sechziger Jahre eine Berufung als Professor und Leiter der Sektion Informationstechnik an der
TH Karl-Marx-Stadt an. Er scharte dort alsbald eine Gruppe ambitionierter und kreativer
Assistenten und Studenten um sich.
Professor Fey war auch im Ausland renommiert und wurde regelmäßig zu Tagungen und
Studienaufenthalten eingeladen. Vom Besuch des Zürich-Seminars brachte er 1976
Dokumentationen des i8008 und einen Satz Schaltkreise mit.
Die vom ihm verbreitete Vision, dass in Zukunft Nachrichtengeräte mit einem Prozessor
ausgestattet werden können, faszinierte mich.
Ich delegierte einen Mitarbeiter meiner Dienststelle an den Lehrstuhl von Prof. Fey, der dort
an einem Cross Compiler das Programmieren des i8008 erlernen sollte.
Zur Förderung der Softwareentwicklung wurden einige Software-Entwicklungssysteme ZDS-2
von ZILOG in ausgewählten Einrichtungen der DDR eingeführt. In den meisten
Einrichtungen verschwanden diese Systeme hinter verschlossenen Türen und waren nur
einem kleinen Kreis von Ingenieuren zugänglich.
Im Gegensatz dazu war in der Sektion Informationstechnik der Technischen Hochschule Karl-
Marx-Stadt das ZDS-2 öffentlich im Praktikum aufgebaut und stand rund um die Uhr den
Studenten zum Praktikum zur Verfügung.
Das ZDS-2 war mit dem Betriebssystem RIO ausgerüstet. Wer RIO und UNIX kennt, kommt
zu der Schlussfolgerung, dass die RIO-Entwickler UNIX-Kenner waren. Dafür sprechen das
Filesystem, der Kommandointerpreter, die Anwendung logischer Geräte, die Modularität von
Gerätetreibern und Kommandos usw. Der RIO-Editor edit zeigt starke Verwandtschaft zum
UNIX-Editor ed und das Textformatierungsprogramm Uform zeigt Ähnlichkeiten zu nroff.
Am 1. September 1970 wurde ich vom Rektor der TH Karl-Marx-Stadt in die
außerplanmäßige Aspirantur aufgenommen. Das Thema lautete: „Die Codierung von
Nachrichten zum Zwecke der Fehlererkennung bei der Übertragung über reale
Nachrichtenkanäle".
9.2 Erste Lagedarstellung mit Hilfe von Mikrorechnern
Unser Programmierer für den i8008 Diplom Ingenieur Troppenz erhielt nach seiner
Ausbildung in Karl Marx Stadt die Gelegenheit, am K2-Muster des K1510 im Labor von
ROBOTRON in Dresden, ein einfaches Lagedarstellungsprogramm zu implementieren.
Im 4. Quartal 1978 fand in der Nähe von Niederlehme eine Nachrichtenübung statt. Es war
eine komplette Nachrichtenzentrale entfaltet einschließlich des P249 mit dem Lageanalyse
Moduls ARWU (vergl. Abschnitt 7.1).
Wir hatten eine vierdrähtige Fernschreibleitung bestellt. Diese verlief vom Übungsgelände
nach Dresden zu ROBOTRON, wo die Leitung vom Schaltkasten auf dem Hof durch das
Fenster des Labors im 1. Stock geführt war. Die Senderichtung spielte die Lagedaten des
ARWU in das K2-Muster des K1510. Die Empfangsrichtung übertrug das von Dipl.-Ing.
Troppenz programmierte Schema der Lagedarstellung in Echtzeit nach Niederlehme zurück
auf einen Empfangsfernschreiber F1200 (Nadeldrucker), der beim Chef Nachrichten (CN) der
Übung auf dem Tisch stand. Sehr zum Ärger des Leiters der Nachrichtenzentrale (LN) war der
CN stets eher von der aktuellen Lage informiert als der LN. Wir lösten das Problem, indem
der LN ebenfalls einen F1200 erhielt. Der Empfangsfernschreiber war übrigens nur deshalb
notwendig, weil uns zu dieser Zeit nur Bildschirme mit einer Auflösung von 8x16
Buchstaben zur Verfügung standen.
9.3 Es geht weiter mit der Mikrorechner Ausrüstung
Die Führung der DDR erkannte die große Bedeutung der Mikroelektronik für die
Rationalisierung in der Volkswirtschaft. In einer Ausstellung aus Anlass des 6.Plenums des ZK
der SED zur Mikroelektronik wurde Regierungsmitgliedern nahegebracht welche
Möglichkeiten die Anwendung der Mikrorechentechnik der Volkswirtschaft bietet. Bei einer
nachträglichen Besichtigung der Ausstellung sah ich z.B., dass mehrere Zeitungsseiten
ausgebreitet waren um zu demonstrieren wie viel Information auf einen 64 KByte
Ich erfuhr, dass der Landwirtschaftsminister ihm bereits zugeteilte Valuta zum Import von
Zwiebeln zurückgegeben hat, um Reinstlacke und Chemikalien zur Herstellung von
Mikrochips zu importieren. Trotz nicht zu übersehender wirtschaftlicher Probleme der DDR
wurde der Einführung der Mikroelektronik viel Kraft gewidmet.
Als erster Mikroprozessor wurde in der DDR im Jahre 1979 der U 808 (Vorbildtyp i8008)
Der U880 (Vorbildtyp Z80) wurde 1980 in die Produktion überführt.
Ab 1978 wurde das Mikrorechnersystem K1510 vom Kombinat Robotron gefertigt.
Bild 34: a) Rechner K4201
b) PBT 4000 (Basis U808)
Meine Dienststelle bekam den ersten K1510 in Gestalt eines PBT 4000 im Jahre 1979
zusammen mit einem K 4201 (auch R4201), der eine umfangreichere Peripherie ansteuern
konnte. Vorteil des R4201 war, dass er außer als Prozessrechner auch als universeller
Rechner für wissenschaftlich-technische Berechnungen einsetzbar war.
Da Ausrüstungen für Rechentechnik einem strengen Embargo unterlagen, hatten für uns
technische Komponenten den gleichen Stellenwert wie Lebensmittel in der Kriegs- und
Floppy-Disk (8 Zoll) Laufwerke wurden im Sozialistischen Wirtschaftsgebiet in Ungarn
hergestellt. Im Ministerium für Nationale Verteidigung war die Verwaltung für
Automatisierung und Mechanisierung der Truppenführung (MAT) Bedarfsträger für
Rechentechnik. Mit den Mitarbeitern dieser Verwaltung pflegte ich eine gute, kamerad-
schaftliche Zusammenarbeit. Auf eine Bitte nach Lieferung eines Floppy-Disk Laufwerkes
erhielt ich ein Schreiben, das es mir gestattete beim Büromaschinenwerk Sömmerda,
ein solches Laufwerk abzuholen.
Aus Anlass eines Internationalen Wissenschaftlichen Kolloquiums im Jahre 1978 an der TH
Ilmenau machte ich mit Prof. Fey und Dr. Wilhelm einen Abstecher nach Sömmerda um das
mir zugeteilte Floppy-Disk Laufwerk abzuholen. Nach Erledigung der Formalitäten in der
Verwaltung des Werkes, fuhr ein Mitarbeiter mit dem Fahrrad uns im weitläufigen
Werksgelände voran zu einem Schuppen, in dem neben Malerbedarf auch Goldstaub in
Gestalt besagter Laufwerke lagerte.
Am Abend auf unserem Hotelzimmer besichtigten wir das Wunderding und versuchten die
aus der Literatur bekannten Komponenten praktisch zuzuordnen.
Bereits am nächsten Abend übergab Prof. Fey das Gerät an (damals noch) Dipl. Ing.
Burckhard mit dem Auftrag, zum Gerät eine Ansteuerung zu bauen.
Es war das gleiche Gerät für das Dipl.-Ing. Päßler zwei Jahre später die Ansteuerung des
ZDOS entwickelte. Das oben erwähnte ZDS 2 arbeitete mit hartsektorierten Disketten, d.h.
zur Unterscheidung der Sektoren der Floppy-Scheibe waren Löcher angebracht. Dieser
Umstand hinderte sowohl die Techniker von Robotron als des KEAW daran, das ZDS2
Matthias Päßler schrieb einen Treiber, zu dem ich ihm ein Polynom für die Fehler-Entdeckung
berechnete, sodass die Ansteuerung von softsektorierten Disketten der Robotron Computer
durch das ZDOS möglich war. Ich erinnere mich, dass mich der Entwickler Päßler nach einer
im Labor des Lehrstuhls Informationstechnik in Karl Marx Stadt durchgearbeiteten Nacht früh
um 7 Uhr in meinem Arbeitszimmer anrief und mitteilte: „.das ZDOS läuft softsektoriert."
9.4 Neue Dienststelle neue Aufgaben
Dem Chef Nachrichten im Ministerium für nationale Verteidigung unterstand außer der NES
auch noch die Aufbauleitung, eine Dienststelle, die den Aufbau eines integrierten
Fernmeldenetzes der Regierung und der bewaffneten Organe der DDR (Stabsnetz) führte.
Dieses Stabsnetz wurde auch Sondernetz 1 „S1" genannt. Da bei der Planung und
Realisierung des „S1" in zunehmendem Maße technisch wissenschaftlich Aspekte eine Rolle
spielten, entschloss sich der CN Generalmajor Reymann die NES und die Aufbauleitung zur
Zentralstelle für Nachrichtennetze zusammenzulegen. Außer dem vorhandenen
Personalbestand wurden der Einrichtung noch einige Stellen hinzugefügt. Mit der Führung
der ZFN wurde ich beauftragt.
Mein Stellvertreter für Planung und Investition war Oberst Meinung, ein ausgefuchster
Ökonom, Stellvertreter Wissenschaft und Technik wurde Oberst Dost.
Nicht als Stellvertreter aber mir direkt unterstellt war Major Dr.-Ing. Wilhelm als Leiter der
Unterabteilung Netzplanung, dem ich auch die Rechenstelle unterstellte.
Dr. Wilhelm hatte 1973 bei Prof. Wiegmann an der TH Dresden zum Thema Kanalmodelle
promoviert. Er war beim Aufbau des „S1" für den technisch theoretischen Teil verantwortlich.
Dem Stellvertreter Planung Investition unterstanden die Unterabteilung 1 (Planung und
Bilanzierung), Unterabteilung 2 (Investitionsvorbereitung) und die Unterabteilung 3
Dem Stellvertreter WT unterstanden die Unterabteilung 5 (verantwortlich für die Einführung
neue Technik aus der Sowjetunion) und die Unterabteilung 6 (Funk und
Drahtnachrichtentechnik aus DDR-Produktion).
Während ich auf die Zuführung von Offizieren in meine Dienststelle praktisch keinen
Einfluss hatte, gelang es mir bei der Einstellung von jungen Hochschulabsolventen einige
ausgezeichnete ideenreiche Mitarbeiter zu gewinnen, über die noch zu berichten sein wird.
Zur Gewährleistung der Führung des Sondernetzes 1 wurde die Zentralstelle für Schaltung
und Betrieb ZfSB geschaffen. Ihr unterstanden die Schalt- und Betriebszentralen, die an den
Standorten der Haupt- und Knotenämter entfaltet wurden. Die Vermittlungen waren vom Typ
ATZ 65. Die Fernsprechkanäle wurden mit Koordinatenschaltern durchgeschaltet.
Diese Technologie war „State of the Art", obwohl sich im westlichen Ausland bereits
elektronische Fernzentralen in Entwicklung befanden.
Wir versuchten den Rückstand teilweise dadurch wett zu machen, dass wir die Mess- und
Kontrolltechnik computergestützt planten. Das Personal für diese anspruchsvollen Aufgaben
warben wir an Hochschulen und Universitäten. Vom Lehrstuhl Professor Feys waren das die
Diplom Ingenieure Päßler und Richter. Eine der ersten Aufgaben für diese beiden jungen
Wissenschaftler bestand in der Entwicklung eines Farbdisplays auf der Grundlage eines
handelsüblichen Farbfernsehempfängers.
Im Mai 1975 erhielt ich vom CN die Aufgabe, mich darauf vorzubereiten, mit einer
Militärdelegation der NVA als Nachrichtenspezialist im Juli nach Vietnam zu fliegen.
Dass gerade die DDR von der im Vietnamkrieg siegreichen Volksrepublik zu einem Besuch
eingeladen wurde, hatte Gründe. Die Großen Verbündeten Vietnams, die Sowjetunion und
die VR China waren zerstritten, sodass man weder beide gemeinsam noch einen allein zu
einem Freundschaftsbesuch einladen konnte.
Die kleine DDR hingegen hatte viel ideelle und materielle Solidarität geübt und war auch bei
den beiden Großen gut angesehen.
Zur Vorbereitung des Besuchs ließ ich mir die relevanten amerikanischen Fachzeitschriften
kommen, insbesondere die ELEKTRONICS, in der umfangreiche Berichte über die
Anstrengungen amerikanischer Firmen zur Ausstattung des (Süd-) Vietnamesischen
Nachrichtensysteme verzeichnet waren.
Da die Berichte nicht mit Details sparten, konnte ich mir über die Technik, die wir ggf. zu
sehen bekamen, vorab ein sehr gutes Bild verschaffen. Die vietnamesischen Genossen waren
immer überrascht, wenn ich beim Besuch einer Nachrichtenzentrale meistens wusste,
welche Technik ich dort vorzufinden hoffte.
In diesem Bericht möchte ich von den zahlreichen Eindrücken und Erlebnissen nur zwei
Eine für mich sehr beeindruckende Nachrichtenzentrale war die auf dem Affenberg in
Da Nang. Sie war mit Troposphären Richtfunk Stationen ausgerüstet, die das Rückgrad der
Nachrichtenkanäle nach Süden und Westen bildeten. Da kein öffentliches Stromnetz
existierte, wurde die Stromversorgung durch Aggregate sichergestellt, deren Benzinverbrauch
durch Tankschiffe befriedigt wurde, die regelmäßig im Hafen anlegten.
Die Vietnamesen, die nicht soviel Treibstoff besaßen, konnten also die Aggregate nicht Tag
und Nacht durchlaufen lassen und waren dadurch nicht in der Lage, eine stabile
Nachrichtenverbindung zustande zu bringen.
Eine zweite Technik interessierte mich mehr. Das war die Rechnergestützte Fernschreib-
Zentrale in Saigon. Als wir den ersten Abend in Saigon von der Führung des Militärbezirks
zum Abendessen eingeladen waren, hatte ich mit den leitenden Nachrichten Offizieren sehr
freundschaftliche Gespräche. Nur einem Thema wichen sie aus. Sobald ich auf die Autodyn
Zentrale zu sprechen kam, verstanden sie plötzlich kein Wort mehr und versuchten das
Thema zu wechseln. Offenbar betrachteten sie dieses High-Tech System als selbst noch zu
untersuchende Komponente oder als ein Pfand auf das schon die größeren Verbündeten
Interesse angemeldet hatten.
10 Hintergrund ab 1980
10.1 Vom ARPANET zum Internet
In den Vereinigten Staaten war es nicht allen Informatikfakultäten gestattet sich an das ARPANET anzuschließen. Die Wissenschaftler, die nicht im Auftrage der DARPA arbeiteten mussten sich eine andere Lösung ausdenken. Im Jahre 1979 entstand ein neues Netzwerk, das Computer Science Research Network oder CSNET. Die Verbindungen des CSNET waren langsamer als die des ARPANET, aber kostengünstiger. Es war auch zunächst noch kein Gateway zum ARPANET geplant. Im Sommer 1980 war jedoch das Netz auf eine drei Stufen Architektur erweitert. Im CSNET gab es Teilnehmer, die vollen Zugang zum ARPANET hatten, Teilnehmer die sich nur im CSNET bewegen und solche, die nur den E-Mail-Dienst „PhoneNet" nutzen konnten.
Im Jahre 1986 waren fast alle amerikanischen Informatikfakultäten sowie eine große Zahl privater Computerforschungseinrichtungen an das CSNET angeschlossen.
Mitte der 80er Jahre entstanden weitere Netzwerke. Eines davon war ein kooperatives Netz von IBM-Systemen. Ein anderes hieß UUCP (Unix to Unix Copy). Über dieses Netz waren Rechner verbunden, die mit dem Betriebssystem UNIX arbeiteten. Das Netz der NASA hatte den Namen Space Physics Analysis Network „SPAN". Unter Verwendung von TCP/IP konnten alle Netze miteinander kommunizieren. Es entstand allmählich ein Internet. Auch in Europa und Kanada entstanden Netzwerke, die über Gateways mit dem US-Amerikanischen Internet verbunden wurden.
Ein Netzwerk, das nicht hauptsächlich die Interessen der Informatiker bediente, sondern allen Wissenschaftlern zur Kommunikation diente, war das National Science Foundation Network, das NFSNET. An dieses Netz wurden 1985 fünf Supercomputerzentren angeschlossen, denen das Netz als Backbone diente. Das NFSNET bot den Supercomputern Kanäle mit einer Übertragungsgeschwindigkeit von 1,5 Mbps, die später auf 45 Mbps erhöht wurde.
Die Umstellung des ARPANET auf TCP/IP fand am 1.Januar 1983 statt. Es gab jedoch eine Gefahr, die „International Organisation for Standardization (OSI)". Diese hatte vom grünen Tisch aus ihr eigenes Referenz- oder Schichtenmodell für die Verbindung offener Systeme entwickelt. Die OSI erwartete, dass sich ihr Standard genauso durchsetzt wie zum Beispiel der Standard für Kreditkarten.
Da TCP/IP weltweit auf real existierenden Netzwerken lief, traute sich letztlich keine bürokratische Instanz den Wechsel von TCP/IP auf OSI anzuweisen.
Der ARPNET Netzwerkexperte Cerf sagte nach dem Übergang des ARPANET auf TCP/IP, „dass es jetzt in Welten vordringen kann, die noch nie zuvor ein Netzwerk gesehen haben." (Bitte beachten Sie die Ähnlichkeit der Wortwahl zum Vorspann für die Kultserie „Raumschiff Enterprise".)
Die Beliebtheit des Betriebssystems UNIX war ein Stützpfeiler des Protokolls TCP/IP. Eines der Entwicklungszentren von UNIX war die Universität Berkeley, wo eine eigene UNIX-Version, das Berkeley-Unix entwickelt wurde. In Berkeley wurde TCP/IP als Netzwerkkern in UNIX eingearbeitet. Schließlich wurden alle Computer der Firma SUN (Stanford University Network) mit Berkeley-UNIX und TCP/IP ausgeliefert. Da SUN die
Maschinen mit kostenloser Netzwerk-Software verkaufte, war das ein großer Antrieb für die Vernetzung mit TCP/IP. Eine wichtige Rolle bei der Entwicklung des Internets spielten die lokalen Netzwerke. In allen Universitäten wurden die Workstations zu Lokalen Netzen zusammengekoppelt. War dann ein Computer der Universität mit dem CSNET oder dem NFSNET verbunden, so konnten die Arbeitsstationen am Lokalen Netz über diesen Rechner ins Internet gehen.
Der Übertragungsmechanismus für den E-Mail Dienst war bis zum Anfang der 80er Jahre mit der FTP-Spezifikation verbunden. Da das recht umständlich war, wurde für die elektronische Post ein eigenes Protokoll, das „simple mail transfer protocol" SMTP eingeführt. Darüber hinaus wurde noch das „Domain Name System" DNS durchgesetzt, mit Hilfe dessen den ip-Adressen merkbare Namen zugeordnet werden konnten, So hört z.B.der Rechner mit der ip-Adresse 141.20.21.25 auf den Namen amsel.informatik.hu-berlin.de. Die Zuordnung und die Auflösung dieses Namen-ip-Nummern Verbundes übernehmen so- genannte „Domain Name Server". Bei den Millionen von Adressen im Internet wurde die Verwaltung auf verschiedene Network Information Center (NIC) aufgeteilt. Die Adressen eines jeden Landes haben eine besondere Endung, die so genannte Toplevel Domain. Für Deutschland ist das *.de, für Frankreich *.fr, für Schweden *.se usw. Für Deutschland werden die Domainnamen im DE-NIC verwaltet.
Die USA unterscheiden die Topleveldomains: edu, com, gov, mil, net, org und int.
Ende der 80er Jahre wurde das ARPANET außer Betrieb genommen. Die darin enthaltenen Rechner wurden an andere leistungsfähigere Netze angeschlossen. Computer, die zum militärischen Kommunikationsnetz gehörten, waren schon 1983 aus dem ARPANET herausgelöst und zum MILNET zusammengefasst worden.
10.2 Das World Wide WEB
1988 hatte Tim Berners-Lee, beschäftigt am Genfer Forschungszentrum für Teilchenphysik CERN, die Idee durch ein besonderes Programm Forschungsergebnisse mit seinen
Kollegen zu verknüpfen (zu verweben, ein Web zu
bilden). Er benutzte dazu in seinen Texten sog. Hyperlinks . Einen Hyperlink klickt man an und wird darauf hin zu einem anderen Artikel (auf dem gleichen Computer) geführt, der Ergänzungen zum ursprünglichen Artikel enthält.
Das Programm nannte er „Enquire" (Anfrage). Ende 1988 entschloss sich Berners-Lee aus der Weiterentwicklung von "Enquire" ein computer-übergreifendes System zu entwickeln .
Ben Segal, ein Kollege von Berners-Lee, der sich mit den Grundlagen des Internet auskannte, überzeugte den Hypertext-Entwickler von den einzigartigen Möglichkeiten des Netzes der Netze, nämlich Hyperlinks auch zu beliebigen Rechnern des weltweiten Rechnernetzes zu programmieren. So entstand aus dem Internet und dem Web 1990 das
World Wide Web, zunächst ohne Bilder und Grafik. Zum
Bild 35: Tim Berners-Lee Lesen der Web-Inhalte benötigt man ein spezielles
Programm, „Browser" genannt. Der erste Browser war der von Tim Berners-Lee entwickelte „WWW". Der erste grafische Browser hieß MOSAIK.
10.3 Rechentechnik, insbesondere Personalcomputer
In der Computerwelt gab es in den 80er Jahren (von den Supercomputern abgesehen) 3 große Kategorien:
1. Die Mainframes, repräsentiert durch die Computer der Firma „International !
Business Machines" IBM.
2. Die Workstations, repräsentiert durch Geräte der „Digital Equipment Corporation" DEC.
3. Die Personalcomputer repräsentiert durch die PCs von Apple, IBM, Microsoft.
10.3.1 Mainframes
Die Mainframes wurden dominiert durch die Typen IBM System 360, entwickelt in den
60er Jahren, und dem Nachfolgesystem IBM 370 (später gefolgt vom System 390). Die
Anlagen waren je nach Verwendungszweck erweiterungsfähig und mit unterschiedlicher
Anzahl von Schränken für Magnetplatten, Magnetbändern, Druckern, Lochkartenlesern,
Bedien- und Serviceprozessoren etc. ausgestattet.
Ihr Einsatzgebiet waren Rechenzentren von Wissenschaftlichen Instituten, Banken,
Staatliche Einrichtungen (Statistik) usw.
10.3.2 Workstations
Der Begriff Workstations assoziiert zwangsläufig den Begriff PDP (Programmed Data
Processor) der Firma DEC, die den Ausdruck Computer nicht verwenden wollte. Das
Flaggschiff der PDP-Reihe war PDP-11. An der Universität von Berkeley wurde 1974 das
erste einsatzfähige UNIX-System implementiert.
Workstations waren zumeist in wissenschaftlichen Instituten zu finden, wo sie als
Multiusersystem arbeiteten.
Als 1977 IBM mit der Modellreihe „Series-1" einen 32 Bit Minicomputer auf den Markt
brachte, reagiert DEC mit der VAX-Modellreihe, die ebenfalls eine 32 Bit Architektur
aufwies. Der Name VAX ist Abkürzung von „Virtual Address eXtension". Das
Betriebssystem war VMS (Virtual Memory System). Das Betriebssystem galt als schwer
hackbar, weshalb es auch für militärische Zwecke eingesetzt wurde. Einer der
leistungsfähigsten Rechner der 80er Jahre war die VAX 11/780. Mitte der 80er Jahre
erschien die aus Hochintegrierten Bauelemente (VLSI) aufgebaute MicroVax, die in
unterschiedlichen Baustufen mit unterschiedlichen Betriebssystem ausgeliefert wurde.
10.3.3 Personalcomputer
Im Unterschied zu Mainframes und Workstations waren die in den 70er Jahren
aufkommenden Personalcomputer zur Bedienung durch eine Person z.B. zur
Durchführung von Büroarbeiten oder zum Spielen vorgesehen. Es soll im Vorgriff auf die
heute zur Verfügung stehende Technik bemerkt werden, dass Personalcomputer heute
über die Leistung von Workstations und kleinen Mainframes der 80er Jahre verfügen.
Neben dem oben erwähnten Apple I, der mit dem Begriff Home-Computer charakterisiert
werden kann, war der erste Computer, der als Personalcomputer zu bezeichnen ist, der
Xerox Alto von der Firma Xerox PARC aus dem Jahre 1973. Er hatte eine grafische
Benutzeroberfläche (engl. Graphical User Interface, kurz GUI), einen vertikalen Bildschirm,
eine 3-Tasten-Maus, eine schreibmaschinenähnliche Tastatur und ein
Bild 36: a) Xerox Alto!
zusätzliches kleines 5-Tasten-Eingabegerät für besondere Befehle. Der Xerox Alto war ein Prototyp und wurde nur in der Forschung eingesetzt.(Bild 34 a)
Der erste PC für den „Hausgebrauch" war der Apple II. Er wurde im April 1977 der
Öffentlichkeit vorgestellt. Er verfügte über acht freie Steckplätze, mit denen er durch
Einsetzen der entsprechenden Erweiterungskarte für unterschiedliche Anwendungen (z. B.
Textverarbeitung, Spiele, Steuerungstechnik) genutzt werden konnte. Ein Computer, der
durch Steckplätze individuell an die Wünsche des Konsumenten angepasst werden kann,
gilt heute als PC, es ist ein offenes System. Außerdem konnten mit diesem Computer
bereits Farben dargestellt und Töne wiedergegeben werden.
Die Firma IBM sah ihr Kerngeschäft in der Herstellung von Mainframes. Ende der 70er
Jahre erkannte man, dass mit dem Apple II eine Konkurrenz auf einem nicht erwarteten
Geschäftsfeld entstanden war.
Es kam im August 1979 zu einer Krisensitzung der Abteilungen. Einzig Bill Loewe, Leiter
der Abteilung in Bocca Raton, meinte man könnte einen PC in einem Jahr bauen. Er
bekam die Chance in 14 Tagen sein Konzept vorzustellen und überzeugte damit den
Vorstandsvorsitzenden. Dieser schickte den Manager Philip Estridge in die »Wüste«
Bocca Raton, um dort mit dem Team um Loewe den PC zu entwickeln.
Obwohl die Entwicklung des Computers in kürzester Zeit und unter Verwendung der
billigsten verfügbaren Komponenten erfolgte, wurde er ein voller Erfolg. Einer der größten
Vorteile des IBM-PC bestand darin, dass er ebenso wie das Vorbild Apple II durch
Steckkarten, die in den Computer nachträglich eingebaut werden konnten, erweiterbar
war. Darüber hinaus entstanden durch den simplen Aufbau des PCs aus für jedermann
leicht erhältlichen Standardchips schon ab 1983 in Fernost diverse Nachbauten, die für
eine weite Verbreitung dieser Hardwarearchitektur sorgten. Der IBM-PC entwickelte sich
zu einem inoffiziellen Industriestandard weil er ohne Lizenzierung von IBM nachgebaut
werden konnte.
Als Prozessor verwendete man den 16-Bit-Prozessor 8088 von Intel mit einem externen 8-
Bit-Datenbus. Die CPU lief mit einer Taktfrequenz von 4,77 MHz. Mit der gleichen Taktrate
lief auch der 8 Bit breite Systembus. Der später mit dem IBM/PC/AT eingeführte 16-Bit-
Bus wurde unter der Bezeichnung ISA-Bus standardisiert.
Der PC wurde zunächst mit maximal 64 KByte Arbeitsspeicher ausgeliefert. Der
Hauptspeicher selbst konnte auf der Hauptplatine – je nach Version der selbigen – auf bis
zu 64 oder 256 KB erweitert werden, durch Einsteckkarten von Fremdherstellern später
gar auf bis zu 640 KB. Der Prozessor selbst war zwar in der Lage, 1024 KB zu
adressieren, im Systemdesign waren jedoch 384 KB des Adressbereichs für das BIOS und
den Grafikspeicher vorgesehen.
Der PC wurde zunächst mit zwei 5,25 Zoll-Diskettenlaufwerken ausgestattet.
Für ihren Personalcomputer benötigte IBM natürlich ein Betriebssystem und den damals
noch obligatorischen BASIC Interpreter. Es schien, dass Microsoft offensichtlich beides
besaß, denn MS vertrieb ja die Karte für den Applecomputer mit Betriebssystem CP/M und
BASIC.
Ende 1980 kauften die Vertreter von IBM bei Microsoft den BASIC Interpreter. Der
Entwickler und damit Eigentümer von CPM war jedoch Gary Kildall, Chef der Firma Digital
Research aus Monterey.
Die Legende berichtet nun, dass die IBM Vertreter Killdall nicht antrafen, zu Gates
zurückkehrten und von MS das Betriebssystem PC-DOS kauften, das Bill Gates noch gar
nicht besaß, sondern zwei Tage später erst von der Firma SCP kaufen musste. Das von
SCP gekaufte Betriebssystem war ein CPM-86 Klone und trug den Namen Q-DOS.
Das Betriebssystem des IBM-PC wurde MS-DOS genannt. Mit dem Erfolg dieses PC kam
auch der von Microsoft. Binnen eines Jahres schloss die Firma Verträge mit 50 Herstellern
von Klones, die jeder ein Betriebssystem und einen BASIC Interpreter brauchten. Bis 1983
wurde erreicht, dass DOS stabiler wurde und auch Festplatten-Unterstützung gestattete.
Der Intel 80286 war ein Mikroprozessor mit 16 Bit Wortbreite, der am 1. Februar 1982 als
Nachfolger des 8086 auf den Markt kam. Die Firma IBM brachte 1984 den Nachfolger des
IBM PC XT in Gestalt des mit 80286 ausgerüsteten IBM PC AT heraus.
Der APPLE Macintosh war der erste Mikrocomputer mit grafischer Benutzeroberfläche,
der in größeren Stückzahlen produziert wurde. Er wurde im Januar 1984 vorgestellt. Er
benutzte eine Computermaus als Zeigegerät. Die Maus war bei Xerox erfunden worden.
Während die Xerox-Chefs an der Ostküste die Entwicklung der Maus im PARC ignorierten,
machte Jobs die Maus zu einem elementaren Baustein der APPLE-Computer und
lizenzierte als erster die Erfindung.
Lange Zeit galten Mac-Computer mit ihrem Betriebssystem MAC-OS gegenüber den
weiter verbreiteten PCs mit dem Betriebssystem Microsoft Windows puncto
Bedienoberfläche und Benutzerfreundlichkeit als überlegen.
Im November 1987 erschien MS-Windows 2.1 auf dem IBM-PC. Mit Windows 2.11 gab es
Verbesserungen bei Speicherzugriffen und Druckerzugriffen.
Windows 2 war bereits direkt auf die Eigenschaften des Prozessors zugeschnitten und
wurde entsprechend in den Varianten Windows/286 und Windows/386 vertrieben.
Die mit dem Z80 Prozessor erfolgreiche Firma Zilog brachte Ende 1979 die CPU Z8000
auf den Markt. Die logische und physikalische Implementation führte Masatoshi Shima
aus. Der Technologische Vorteil des Z8000 bestand darin, dass er über 17.500
Transistoren verfügte, eine sehr geringe Zahl gegenüber dem Intel 286 mit 134.000
Transistoren.
Das wurde dadurch erkauft, dass der Befehlssatz des Z8000 zu dem des Z80 nicht
kompatibel war, was ihm einen starken Akzeptanzverlust bescherte. Der Z8000 wurde in
UNIX-Workstations eingesetzt. Das Amerikanische Militär verwendete ihn im Steuer- und
Zielsystem des Tomahawk Marschflugkörpers.
10.4 Das ISDN
Wie bereits im Abschnitt 7.2 erklärt gab es in der Fernmeldetechnik einen Stilbruch. Die PCM-Technik gestattete es Sprache über beliebige Entfernungen störungsfrei zu übertragen, Vor und nach Vermittlungen, die nach wie vor mit Hilfe von Wählern und Schaltern analog durchschalteten, musste digital in analog oder analog in digital gewandelt werden.
Die Zeit war reif für die digitale Fernmeldevermittlung, sowohl in Orts- als auch in Fernnetzen.
Bereits mit dem IDN (Integrierten Digitalen Netz) wäre es erforderlich gewesen, alle Dienste, die man bisher als Drahtnachrichten befördert hat, über den digitalen Kanal zu transportieren. Im Wesentlichen waren das:
Fernsprechen mit einem speziellen digitalen Telefon,
Fernsprechen mit einem herkömmlichen analogen Telefon,
Fernsprechen für Sonderdienste (z.B. Rundfunk) 7 kHz
FAX Gruppe 3, (analog Fax)
FAX Gruppe 4, (aufwendiges digital Fax)
DATEN 64 kbit/sec nach den Standards X21, X25
Bildschirmtext (wird heute durch das Internet ersetzt)
Fernwirken (Fernsteuern)
Mix Mode (kombiniertes Telefonieren mit Fax)
Gleichzeitig wollte man mit der neuen Technologie, gekennzeichnet durch das „S" im
Begriff ISDN, auch Dienstmerkmale realisieren, die bisher nur in Sonderschaltungen zum
Beispiel bei Nebenstellenanlagen (in Büros) verwirklicht waren. Dazu gehören:
!
!
Konferenzschaltung: mit 3 oder bis zu 10 Teilnehmern gleichzeitig sprechen
das heißt Verbundensein mit zwei Teilnehmern, wobei durch
Knopfdruck die Verbindung mit dem Einen oder dem Anderen
Partner hergestellt wird
dem gewünschten Partner, wenn er spricht, ein Signal geben,
dass ein weiterer Anruf vorliegt.! !
Zeigen, Verbergen: der eigenen Rufnummer beim Anruf ! !
einen Anrufer, der den gewünschten Apparat erreicht, auf eine
andere Telefonnummer umleiten. !
die Vermittlung bitten ein Gespräch zu halten, damit man den
Telefonapparat aus der Steckdose ziehen kann, um ihn nach spätestens drei Minuten an einem anderen Ort wieder mit !
dem Netz zu verbinden.
Gebührenanzeige:! während oder am Ende des Gesprächs auf dem eigenen
Telefonapparat.
Im Jahre 1972 wurde der Begriff ISDN erstmalig in einer japanischen Publikationerwähnt.
1979 entschied die Deutsche Bundespost, alle Ortsvermittlungsstellen zu digitalisieren. Bei Feldversuchen in Berlin (unter dem Namen DIGON = „DIGitales OrtsNetz") hatte sich gezeigt, dass bei der zur Verfügung stehenden Bandbreite auf den Teilnehmerleitungen dem Nutzer zwei unabhängige Kanäle zur Verfügung gestellt werden konnten.
Die Deutsche Bundespost entschied sich 1982 für die ISDN-Technik und konkretisierte die Digitalierungspläne.
Die zuständige Organisation, das „Comité Consultatif International Téléphonique et Télégraphique" (CCITT, heute Internationale Fernmeldeunion (ITU)), erarbeitete dazu technische Spezifikationen (Recommendations) für ein digitales Telefonnetz, die unter dem Namen ISDN 1980 erstmals veröffentlicht und 1984 verabschiedet wurden.
Ein ISDN Pilotprojekt wurde 1984 begonnen.
Während die Digitalisierung der Sprache durch die PCM-Technik weltweit eindeutig war, gab es zwischen den Ländern in Europa in Hinsicht auf den Signalkanal über den z.B. die Dienstmerkmale gesteuert wurden, abweichende Vorstellungen. Im Pilotprojekt und beim Beginn des Serienbetriebs 1989 wurde im Deutschen ISDN das Protokoll 1TR6 verwendet.
Das Ergebnis war, dass grenzüberschreitender Verkehr zu Nachbarländern nicht möglich war.
Um dem abzuhelfen, mussten einheitliche Normen und gemeinsame Märkte geschaffen werden. 1988 wurde dazu von der EG-Kommission das Europäische Institut für Telekommunikationsnormen (ETSI) gegründet, das Standards für ein gemeinsames digitales Telefonnetz erarbeiten sollte. Am 6. April 1989 wurde unter ihrer Leitung von 26 Netzbetreibern aus 20 europäischen Ländern der DSS1-Standard (auch Euro-ISDN genannt) ins Leben gerufen, der die nationalen ISDN-Systeme vereinheitlichen sollte und einige technische Verbesserungen brachte. Der herbeigeführte Beschluss wurde auch MoU (Memorandum of Understanding) genannt. Nachdem in Deutschland der ISDN-Betrieb nach dem Protokoll 1TR6 begonnen hatte, erfolgte ab Dezember 1993 die Einführung von Euro-ISDN (DSS-1) auf der Basis des Memorandum of Understanding on the Implementation of a European ISDN.
Um 1985 war ein militärisches Walkie Talkie so groß wie ein Kommissbrot und auch so schwer. Wie aus der nachstehender Tafel 1 hervorgeht, gab es aber 1985 auch Überlegungen wie unter Verwendung der vorhandenen hochintegrierten Schaltkreise ein digitales Mobilfunkgerät aussehen könnte. Noch Anfang der 90er Jahre waren C-Netz Mobilfunkgerät in Größe eines kleinen Koffers in Betrieb. Zur gleichen Zeit gingen die ersten GSM Netze in Betrieb.
Das A-Netz, erstes deutsches Mobilfunknetz, wird eröffnet
Die USA führen das erste Zellulare System AMPS in Chicago ein (analog)
In Schweden startet das Nordic Mobile Telefone System, (analog)
Beginn der Entwicklung eines paneuropäischen Standards für digitalen
zellularen Mobilfunk durch die Groupe Special Mobile der CEPT
Das C-Netzt ( analog ) wird in in Deutschland eingeführt
Erste Systemausschreibung für digitalen Mobilfunkstandard durch GSM
Memorandum of Understanding (MoU) GSM zwischen 12 Ländern
Die ersten GSM Netze in Betrieb (Auf Ausstellung Telecom 91.)
( GSM! steht jetzt für Global System for Mobile Communication )
!Es ist für technische Entwicklungen typisch, dass nicht allein wissenschaftliche Aspekte über eine Entwicklung bestimmen, sondern zeitweilig auch Firmeninteressen und auch Ansichten leitender Beamter. So kam es auch, dass parallel zur intensiven Entwicklung am C-Netz durch die Firma Siemens z.B. bei SEL seit 1979 ein System mit digitaler Technik entwickelt wurde. Interessanter weise unterstützte der damalige Bundespostminister Schwarz-Schilling die digitale Idee.
In Zusammenarbeit mit Frankreich wurde 1984 die Ausschreibung für den analogen Standard S900 von den Postverwaltungen beider Länder abgebrochen und ein Digitalstandard ausgelobt. Die darauf folgende Entwicklung bestätigt diese Entscheidung. Deutschland gehörte in Europa zu den Vorreitern des Digitalen Mobilfunks.
Ein gutes Beispiel dafür ist die in Deutschland geborene Idee eine SIM-Karte einzuführen. Diese Karte, auf der die teilnehmerbezogenen Daten des Mobilfunkgerätes eingetragen sind, dokumentiert das Teilnehmerverhältnis im Mobilfunk.
Im Zusammenhang mit dem Begriff Kybernetik war auch der Begriff Künstliche Intelligenz entstanden der sich mit der Automatisierung intelligenten Verhaltens befasst. In der Kultserie Raumschiff Enterprise repräsentierte der Android Mr. Data eine Maschine mit einer dem Menschen überlegenen Intelligenz. Da heute trotz aller Fortschritte auf Hard- und Softwaretechnologischem Gebiet künstliche Intelligenz in der gewünschten Komplexität nicht realisierbar ist, versucht man sich der Unterstützung von Maschinen u.a. durch die Forschung im Bereich der Expertensysteme zu nähern.
Als Expertensystem wird eine Klasse von Software-Systemen bezeichnet, die auf der Basis von Expertenwissen zur Lösung oder Bewertung bestimmter Problemstellungen dient. Beispiele sind Systeme zur Unterstützung medizinischer oder auch technischer Diagnosen. Die ersten Arbeiten an entsprechender Software erfolgten in den 1960er Jahren. Seit den 1980er Jahren werden Expertensysteme auch kommerziell eingesetzt.
In einem Expertensystem oder Wissensbasierten System ist die Wissensbasis der Bereich des Systems, der das Fachwissen in einer beliebigen Repräsentationsform enthält. Ergänzt wird die Wissensbasis durch einen Schlussfolgerungsmechanismus, also eine Hard- oder Software, mit der auf der Wissensbasis operiert werden kann.
Eine Programmiersprache, die sich für einen Schlussfolgerungsmechanismus eignet, ist
die Programmiersprache Prolog, die Anfang der 1970er Jahre maßgeblich von dem
französischen Informatiker Alain Colmerauer entwickelt wurde und ein deklaratives
Programmieren ermöglicht. Sie ist die wichtigste logische Programmiersprache.
Prolog-Programme bestehen aus einer Datenbasis, deren Einträge sich Fakten und
Regeln nennen (vergl. die Ausführungen zur Fehlermatrix im Abschnitt 5.3). Der Benutzer
formuliert Anfragen an diese Datenbasis. Der Prolog-Interpreter benutzt die Fakten und
Regeln um systematisch eine Antwort zu finden. Ein positives Resultat bedeutet, dass die
Anfrage logisch ableitbar ist. Ein negatives Resultat bedeutet nur, dass aufgrund der
Datenbasis keine Ableitung gefunden werden kann. Der erste Compiler wurde von David
H. D. Warren in Edinburgh entwickelt. Aus Edinburgh stammt auch das von Professor
Spivey entwickelte Spivey-Prolog.
Die Programmiersprache LISP (List Prozessing) ist nach die zweitälteste
Programmiersprache, die noch verbreitet ist. LISP gilt zusammen mit Prolog als eine der
Programmiersprachen der künstlichen Intelligenz.
Die Grunddatenstrukturen von LISP sind Einzelwerte (Skalarwerte), die Atome genannt
werden, und Listen. Die Listen können beliebig verschachtelt werden (Listen von Listen).
Es lassen sich Tabellen zur schnellen Suche von Werten (Hashtabellen) und Bäumen
konstruieren, was ebenfalls wieder Hilfsmittel zur Fehlersuche in technischen Geräten sein
können.
11. Vordergrund ab 1980
11.1 Lagedarstellung im Manöver Waffenbrüderschaft
Das von den Diplomanden Päßler und Richter auf der Grundlage eines Farbfernsehers
aufgebaute Farbdisplay fand während des Manövers Waffenbrüderschaft breite Beachtung.
Auf der Grundlage von Lageinformationen über den Zustand der Nachrichtenverbindungen,
die wir aus verschiedenen Quellen schöpften, wurde die Nachrichtenlage farbig in Echtzeit
dargestellt. Neben dem CN, der damit laufend über den Zustand seines Systems informiert
war, gab es zwei Nutznießer dieses Dienstes. Da war zunächst der sowjetische
Verbindungsoffizier, der die Lage mit Farbstift für die von ihm abzugebenden
Auskunftsberichte abzeichnete. Als zweites bedienten sich die Offiziere des Stabes, die am
Abend ihre Familien anrufen wollten. Sie betrachteten den Zustand der drei Leitungen, die
zum öffentlichen Netz der Deutschen Post geschaltet waren. Waren diese Leitungen in der
Lagedarstellung rot, so lohnte es nicht den Hörer abzunehmen, weil ein Besetztsignal
erwartet werden konnte.
11.2 Beginn der Bürokommunikation
An der TU-Dresden wurden 1980 1K-Bildschirme aufgebaut. Damit konnte man bereits eine
vernünftige Textverarbeitung organisieren.
In meinem Stellvertreterbereich Planung Investitionen mussten für jede zu errichtende
Vermittlungsstelle eine Investitionsvorentscheidung ausgearbeitet werden. Die
Unterabteilung Investitionsvorbereitung erhielt daher als erste einen K1510 (Bild 34b), mit
dem diese Dokumente möglichst rationell ausgearbeitet und vervielfältigt werden konnten.
Der Vorteil dieser Rationalisierung bestand darin, dass die Sachbearbeiter (Ingenieure), da sie
die Dokumente sowieso
entwerfen mussten, die IVEs
gleich in den Computer
tippten, so dass diese leicht
korrigierbar danach
ausgedruckt werden konnten.
Der Nachteil dieser Methode
bestand darin, dass die
Rationalisierung „auf die
Spitze getrieben" wurde,
indem irrtümlich die IVE eines
Amtes mit der eines anderen
vertauscht wurde.
Mein Stellvertreter Planung
Investitionen machte meinen
Rationalisierungseifer für diese
Als Konsequenz führte ich mit
den Offizieren der
Dienststellenleitung vor jeder
wöchentlichen Besprechung
Bild 37: Bürocomputer A5120 eine Stunde Computerunterricht
durch. Im Ergebnis dieser
Ausbildung war mein Stellvertreter PI bald ein knallharter Vertreter der Rationalisierung durch
Wie in Abschnitt 11.3 näher erklärt wird, planten wir für die ATZ 65 ein elektronisches
Prüfgerätesystem (PGS). Steuerrechner aller Geräte sollte der Bürocomputer A5120 (Bild
37) sein. Das Betriebssystem des A5120 war das SIOS, eine hauseigene Schöpfung von
ROBOTRON. Leiter des Themas war Major Uhlmann. Major Uhlmann hütete den PGS-
Musterrechner wie seinen Augapfel und wehrte sich mit Händen und Füßen gegen Anträge,
den A5120 mit einem anderen Betriebssystem zu fahren. Immerhin setzte er sich sofort hin
und programmierte ein Textverarbeitungssystem, das er PATEX nannte. Damit konnte der
PGS-Rechner auch im Büro eingesetzt werden.
In der Folgezeit wurden aber auch A5120 Rechner ausgeliefert, die nicht PGS-gebunden
Das Betriebssystem war der CP/M-Klon SCP. Darauf lief Word-Star, eines der ersten
WYSIWYG Systeme (What you see is what you get). Die Verwendung von Bürocomputern
gestattete es, das Schreibbüro aufzulösen und die beiden Arbeitskräfte in die Sekretariate des
Stellvertreters WT und des Leiters der 4. Unterabteilung zu versetzen.
Die wissenschaftlichen Mitarbeiter schrieben ihre Konzepte nicht mehr mit dem Stift auf
Papier, sondern in den Computer und gaben ihre Elaborate auf Diskette ab.
Bemerkenswerterweise gab es zu Beginn der Einführung der Computer Vorbehalte durch
Mitarbeiterinnen, die perfekt Schreibmaschine schreiben konnten. Meine Sekretärin und die
Hauptsachbearbeiterin Zivilkader standen zunächst auf dem Standpunkt: „Wir schreiben
auch ohne PC schnell und fehlerfrei!"
Es stellte sich aber heraus, dass bei der Überarbeitung größerer Dokumente, bei denen
bereits geschriebenes in Varianten noch einmal geschrieben werden musste, der Computer
sehr bequem war, da er sich gemerkt hatte was schon richtig vorhanden war.
Meine beiden Mitarbeiterinnen anerkannten diesen Vorteil und schlossen Frieden mit dem
Der Lehrstuhl für Informationstechnik der TH Karl Marx Stadt erwies sich erneut als
Denkschmiede. Dipl. Ing. Anatoly Antonow, ein äußerst kreativer Gaststudent aus Bulgarien,
hatte seine Doktor Dissertation abgegeben. Im Rahmen seines Themas hatte er auf die
Programmiersprache PLZ (das Zilog PLM) einen Echtzeitkern aufgesetzt. Damit wurde PLZ zu
PLZ RTC. Diese CHILL für 8 Bit Prozessoren spielte von nun an sowohl in unserer
Entwicklungstätigkeit für Steuerungssysteme in Nachrichtengeräten, bei der Entwicklung
kleiner Digitaler Vermittlungen und in Führungssystemen eine große Rolle (siehe später).
Leider wurde der Studienaufenthalt des hervorragenden Wissenschaftlers Dr. Antonow durch
die Bulgarische Botschaft nicht verlängert.
Von der Implementation des ZDOS auf softsektorierte Disketten durch Dipl. Ing. Matthias
Päßler war schon die Rede. Das ROBOTRON Büromaschinenwerk Karl Marx Stadt
übernahm diese Entwicklung und implementierte das Zilog Entwicklungssystem auf dem BC
5120. Dieser PC wurde unser Sofwareentwicklungsplatz, der nun auch die
Entwicklungsumgebung für PLZ RTC enthielt.
In einer NSW Literaturstelle hatte ich die genaue Beschreibung des Data Encryption Standard (DES) gefunden. Der DES-Algorithmus wurde als offizieller Standard für die Verschlüsselung
von klassifizierten Dokumenten der US-Regierung seit 1976 eingesetzt. Die Schlüssellänge
des DES von nur 56 Bits gilt heute für nicht ausreichend sicher. Der DES kann aber zur
Mehrfachverschlüsselung eingesetzt werden.
Da ich mich mit Prof. Fey schon öfter über den DES unterhalten hatte, übergab ich ihm die
Dokumente zur Auswertung. Professor Hübner war damals Beststudent bei Prof. Fey und
erhielt das Thema Implementierung des DES auf dem K5120 als Aufgabe für den großen
Über die Möglichkeit mit Methoden der NSA zu verschlüsseln waren nicht alle glücklich.
Da ich hier die Möglichkeit sah, Betriebsdaten des S1 wirksam zu verschlüsseln, bat ich den
Chef des Zentralen Chiffrierorgans des MFS Generalmajor Birke dies tun zu dürfen. General
Birke stimmte dem zunächst zu, als aber die ersten verschlüsselten Daten über das Netz
gingen, wurde ich zurückgepfiffen. Ich musste die Literatur zum Thema abgeben. Die
Verschlüsselungsprogramme blieben auf unseren Rechnern bestehen, durften aber zum
Informationsaustausch auf militärischen Nachrichtenverbindungen nicht eingesetzt werden.
11.4 Die Nachrichtengeräte werden intelligent.
Wie oben erwähnt, sollte das Vermittlungssystem ATZ 65 durch ein elektronisches
Prüfgerätesystem (PGS) aufgewertet werden. Zentrales Element war der Universelle Steuer-
und Analyserechner USAR. Er konnte mit einem Probeverbindungsgerät (PVG), einer
Betriebskontrolleinrichtung (BKE), einer Betriebsdaten-Empfangseinrichtung (BDEE), einem
Wählkennzeichenanalysator (WKZA) und einer Verkehrsmesseinrichtung (VME)
Da das Thema USAR von der Industrie geführt wurde, mussten wir das Betriebssystem SIOS
akzeptieren, da wir andernfalls bei Sonderwünschen für alle auftretenden Probleme der
Entwicklung verantwortlich gewesen wären.
In den Bezirksstädten der DDR wurden zum Betrieb der Haupt- und Knotenvermittlungs-
anlagen Schalt- und Betriebszentralen (SBZ) eingerichtet. Das Personal derselben musste mit
der elektronischen Mess- und Führungstechnik umgehen können. Wir bemühten uns
qualifizierte zivilbeschäftigte Hochschulabsolventen zu gewinnen. Von den beiden
Entwicklern des o.g. Farbdisplays zur Lagedarstellung wurde Dipl.-Ing. Päßler für die SBZ
Karl-Marx-Stadt und Dipl.-Ing. Richter für die SBZ. Halle gewonnen.
Oberst Kleinwächter als Vorgesetzter aller Zentralen und Leiter der Zentralstelle für Schaltung
und Betrieb (ZfSB) ging ideenreich und engagiert mit dieser Aufgabe um.
Er hatte für unsere oft sehr avantgardistischen Ideen ein offenes Ohr und schränkte unseren
Spielraum bei der technischen Ausstattung seines Führungsorgans und der Unterstellten nicht
Die Fernmeldeindustrie der DDR war nicht unerheblich von den Bedürfnissen der
Sowjetunion abhängig. Es wurde z.B. viel Kraft in die Mitarbeit am System ENSAD gesteckt,
das noch keine Elektronische Vermittlungstechnik, sondern Schaltertechnik vorsah. Dadurch
wurden nicht unerhebliche Kräfte der Industrie gebunden.
Der technische Spielraum der ZFN war dank der langen Leine, an der wir durch den Chef
Nachrichten Generalmajor Dr.-Ing. Paduch geführt wurden, relativ groß, jedoch konnten wir
in staatliche Vorgaben nur indirekt eingreifen. Wir waren in der Lage Beispiele zu schaffen,
die, wenn sie überzeugten, ggf. Weisungen auslösen konnten.
Zum Beispiel war die Zeit reif für die Schaffung elektronischer Nebenstellenanlagen. Das
sollten (noch) keine ISDN-Zentralen sein, aber Nebenstellen auf Schalterbasis ersetzen.
Das elektronische Vermitteln auf digitaler Basis war relativ einfach. Es bestand im
Umsortieren von Zeitlagen.
Bild 38: Prinzip einer PCM-Vermittlung.
In Bild 38 ist dargestellt wie organisiert wird, dass die Teilnehmer 1 und 3 miteinander
sprechen können. Da die Anlagen im analogen Umfeld arbeiten mussten, waren Codier
Decodier Schaltungen (Codecs) notwendig, um die analogen Teilnehmer ins Digitale zu
verwandeln und umgekehrt. Ehe Codecs aus eigener Produktion zur Verfügung standen,
mussten sie aus dem NSW importiert werden.
Die Machbarkeit kleiner Nebenstellen wurden durch die Hochschulen vorexerziert. Am
Lehrstuhl Informationstechnik der TH Karl Marx Stadt baute Dipl. Ing. Geranski eine solche
Anlage im Rahmen seiner Dissertation auf.
Am Institut für Nachrichtentechnik war Dr.-Ing. Lochmann der Nachfolger von Prof. Fey. Mit
Dr. Lochmann pflegten wir eine gute Zusammenarbeit, da er avantgardistischen Ideen stets
aufgeschlossen gegenüberstand.
So organisierte er in Vorbereitung und zur Unterstützung des Staatsplanthemas NZ400D
(kleine Elektronische Nebenstelle, auch ENA genannt) einen Vorlauf an der Hochschule
Mittweida, an der Dr.-Ing. Winkler (später Prof. Winkler) auf dem Gebiet der digitalen
Vermittlungstechnik forschte. Das Staatsplanthema wurde schließlich von einer kreativen
Gruppe junger Leute unter der Leitung von Dipl.Ing. Winter sehr ideenreich im
Fernmeldewerk Neustadt Glewe bearbeitet.
An der ZfN übergab ich die Aufgabe eine kleine digitale Fernvermittlung zu entwickeln an
die Arbeitsgruppe Vermittlungstechnik unter der Leitung von Dipl.-Ing.Ullrich. Diese Zentrale
(ENA-T) sollte in der Perspektive die Koordinatenschalteranlagen in den
Zwischenvermittlungen ablösen. Wir nannten die Durchführung von Entwicklungsarbeiten an
Themen gegenüber denen es in der Wirtschaft noch Vorbehalte gab „Vorturnen" einer
Aufgabe. Das K2-Muster, der von der Gruppe Ullrich entwickelte ENA-T, funktionierte
ausgezeichnet. Die als Zwischenamt Königs Wusterhausen fungierende Anlage war in einem
gegenüber ATZ65 sehr kleinen Häuschen auf dem Gelände des MTI untergebracht.
Die Funktechnik für den militärischen Feldeinsatz der NVA wurde aus Gründen des
Zusammenwirkens im Warschauer Vertrag grundsätzlich aus der Sowjetunion importiert.
Die Untersuchung der Kompatibilität der Technik mit der Ausrüstung aus DDR Produktion
sowie die Bearbeitung der Dokumentation wurde in der UA „Einführung neue Technik"
unter der Leitung von OSL Dipl.-Ing. Kappler vorgenommen.
Stationäre militärische Einrichtungen wurden mit Funktechnik aus DDR-Produktion
Stationäre Funktechnik wurde in der 6.Unterabteilung, Leiter OSL Dipl.-Ing.Funke,
Arbeitsgruppe Funk Leiter OSL Dipl.Ing.(Später Dr.-Ing.) Irmscher bearbeitet.
Seit dem Vorhandensein von
Mikrorechentechnik aus DDR Produktion
wurden in der ZFN alle existierenden und in
Entwicklung befindlichen Nachrichtengeräte auf
Steuerbarkeit durch Mikrorechner untersucht. Als
erstes Gerät, das eine für diese Zwecke
manipulierbare Schnittstelle besaß, fiel uns der
EKD 300 vom VEB Funkwerk Köpenick auf. Als
Anwendung sahen wir den Einsatz des Rechner
gesteuerten Empfängers EKD 300 für den
Bild 39: EKD 300
Funkdispatcher. Dem Funkdispatcher obliegt
unter anderem die Zuteilung von Arbeits-
Frequenzen, die er vorher auf Belegung zu untersuchen hat. Zur Erleichterung dieser Arbeit
ist der Einsatz eines Mikrorechners bestens geeignet. Die Kombination EKD 300 mit einem
Rechner nannten wir GFD 200. „Chefentwickler" für Rechnergesteuerte Funktechnik war in
der ZFN Dipl.-Ing. (später Dr.-Ing.) Dietrich.
Das nächste große Thema war die Geräte EKD500 und den Kurzwellensender KSG1300 zu
einer rechnergestützten Funkleitzentrale RFLZ zusammenzufassen.
Die Funklinie, die beiderseits über rechnergesteuerte Sender und Empfänger verfügten
konnte nach einem Zeitraster umgestimmt werde, was einem sehr langsamen
Frequenzsprungverfahren entsprach. Das Thema RFLZ wurde Mitte der 80er Jahre vom
Funkwerk Köpenick in die Entwicklung übernommen und auch auf der Leipziger
Frühjahrsmesse ausgestellt.
11.5 Die UNIX-Story
Wie aus den bisherigen Ausführungen hervorgeht, hatten wir bisher technologische
Neuheiten stets möglichst frühzeitig zur Lösung unserer Aufgaben eingesetzt. Mit der 16 Bit
Rechentechnik und dem Betriebssystem UNIX ergab sich eine Situation, in der wir aktiv in
das Geschehen, auch in hoheitliche Beschlüsse, eingreifen mussten um einer höchst
produktiven Technik den Weg zu bereiten. Warum das so war, soll daher in den nächsten
Abschnitten etwas ausführlicher beschrieben werden.
11.5.1 Mikroprozessoren mit 16 Bit Wortbreite
Im westlichen Wirtschaftsgebiet war mit dem Erscheinen des Mikroprozessors i8086 im Jahre
1978 die 16-Bit-Ära angebrochen. Im Osten gab es zwischen Sowjetischen und DDR -
Wirtschaftskreisen eine leichte Verstimmung, weil die SU der "Intellinie" folgend, den i8080
nachgebaut hatte und die DDR, weil von der SU nicht einbezogen, sich auf den
leistungsfähigeren Z80 orientiert hatte. Folgerichtig plante die SU den Nachbau des i8086
mit seinen ca. 28.000 Transistorfunktionen und die DDR, der zur Verfügung stehenden
Technologie folgend, den Nachbau des Z8000 (mit, aufgrund der Random-Logik , nur
16.OOO Transistorfunktionen) und der dazugehörigen Schaltkreisfamilie.
Für den Nachbau des Z8000 sprach darüber hinaus, dass mit dem RIO auf K1520 das Zilog
Entwicklungssystem zur Verfügung stand, das auch einen Crosscompiler für den Z8000
Gegen einige Stimmen von ROBOTRON wurde im Ministerium für Elektrotechnik Elektronik
(MEE) das Konzept für das Modulare Mikrorechner-System verabschiedet, das auf der U8000
Dieser Entschluss wurde von den Softwarespezialisten der ZfN begrüßt, da hiermit
Kontinuität in der Entwicklung, insbesondere Portabilität der in PLZ geschriebenen
Programme, gewährleistet schien.
Im Herbst 1982 wurde im MWT vom Stellvertreter des Ministers, Professor Montag, die
Verteidigung des Entwicklungsbeginns des U8000 abgenommen. Es waren alle potentiellen
Nutzer des Schaltkreises anwesend, unter anderem die Vertreter der
Werkzeugmaschinenbranche und des Kombinat Elektroapparate Werke KEAW. Mit letzterem
hatte die ZfN im Auftrag des CN inzwischen einen Wirtschaftsvertrag zur Entwicklung eines
speziellen Steuerrechners abgeschlossen, der den U8000 als Prozessor und UNIX als
Betriebssystem haben sollte.
Der Mandatsträger für Rechentechnik im MfNV, das AT-Organ, stimmte dem Projekt nur zu,
wenn es als reiner spezieller Steuerrechner deklariert wird. Damit hießen alle von Chef
Nachrichten in Entwicklung gegebenen Rechner "SSR", was für "Spezieller Steuer Rechner"
steht, gefolgt von einer Versionsnummer.
Das gemeinsam mit der Entwicklergruppe im Zentrum Forschung und Technologie des
Kombinat Elektro Apparate Werke KEAW unter der Leitung von Dr. Classen ausgearbeitete
Projekt sah als erstes einen SSR8 (8-Bit-Rechner mit 16-Bit-Erweiterung) vor und daraufhin
die Gerätefamilie SSR16.
Betriebssystem sollte in allen Fällen UNIX sein. Die oben genannte Verteidigung bedeutete
natürlich nicht, dass nun die Entwicklungsarbeit in aller Ruhe und Konzentration vonstatten
gehen konnte. Wie angedeutet hatte die Wahl des Z 8000 als Zieltyp für den zu
entwickelnden Mikroprozessor einflussreiche Gegner, vor allem bei ROBOTRON. Die
angespannte Weltwirtschaftslage, die vor allem durch die Hochzinspolitik der Reagan-
Administration geprägt war, brachte der DDR im Jahre 1982 Schwierigkeiten in der NSW
Export-Import-Bilanz. Das darauf folgende Kommando der strengsten Sparsamkeit bei
Importen wurde von den Zilog-Gegnern geschickt ausgenutzt der Führung zu suggerieren,
dass die Eigenentwicklung der U 8000 Schaltkreisfamilie unnötige Überbrückungsimporte
zur Folge hätte, während der Import der Schaltkreise auf Intel-Basis aus der SU "nur"
Verrechnungsrubel koste.
Das MEE entschied daraufhin "Entwicklung U 8000 einstellen".
Wir waren uns mit den Entwicklern vom KEAW klar, dass damit unser UNIX-Projekt stark
gefährdet war, da der 8086 in wesentlichen Leistungsmerkmalen wie addressierbarer
Speicherplatz, Möglichkeiten der Speicherverwaltung, Schutz des Systemspeichers vor
Nutzerzugriff usw. die Leistungsmerkmale des Z 8000 nicht erreichte. Dazu kam, dass
ROBOTRON nicht die Absicht hatte, ein UNIX System auf dem 8086-Rechner zu
installieren, sondern mit dem firmeneigenen Weitblick nicht etwa DOS, sondern CPM/86
implementieren wollte. Für uns zählte weiter das Argument der vorhandenen Cross-Software,
die Portabilität und die Verfügung über weitere Zilog-Software. Ein Besuch meinerseits bei
Staatssekretär Nendel im MEE mit dem Vorschlag zwei Mikroprozessortypen als
Entwicklungsgrundlage zuzulassen, wurde mit dem ROBOTRON-Argument abgewiesen, bei
unserer geringen Entwicklungskapazität seien zwei Linien nicht verkraftbar.
Erfahrungsgemäß ist Widerstand gegen Führungsentscheidungen in der zentralgeleiteten
Wirtschaft aussichtslos, es sei denn, es gelingt, den Apparat gegen den Apparat zu
Die dazu erforderliche Information auf dem "Dienstweg" einzubringen, war sinnlos, weil
heiße Eisen die Spitze meistens nicht erreichten, ja sogar auf dem Schreibtisch des
Kontrahenten landen konnten.
Ich schrieb daher einen Brief an einen guten Bekannten in der Sicherheitsabteilung des
Zentralkommitees der SED (Die Sicherheitsabteilung war die Verantwortliche Abteilung für
die bewaffneten Organe), in dem ich möglichst allgemein verständlich den Sachverhalt und
die auftretenden Widersprüche beschrieb.
Die Sicherheitsabteilung gab den Brief zuständigkeitshalber an die Abteilung Forschung und
Technik weiter, deren Abteilungsleiter Hermann Pöschel mich zu einer Anhörung bestellte.
Nachdem ich dort die Zusammenhänge zwischen Prozessorentwicklung und
technologischen Möglichkeiten sowie den ökonomischen Konsequenzen nochmals
ausführlich erläutert hatte, wurde das MWT beauftragt, den von mir vorgetragenen
Sachverhalt im Detail zu prüfen.
Um die Machtkonstellation richtig einschätzen zu können, muss man wissen, dass sowohl
Pöschel als Verantwortlicher für die Forschung, als auch der Zilog-Gegner Tautenhahn, dem
als Verantwortlichen für den Maschinenbau das MEE unterstand, Direktunterstellte des
mächtigen Wirtschaftssekretärs Mittag waren.
Es muss der Wahrheit entsprechend eingeräumt werden, dass sich in den Führungsetagen
kaum jemand für UNIX interessierte, wohl aber für den wirtschaftlichen Aspekt des
Prozessorstreites. Dieser bestand darin, dass Mikroprozessoren auf dem Weltmarkt aus
Embargogründen offiziell nicht an Ostblockstaaten verkauft wurden. Die SU hingegen wollte
ihren i8086 kompatiblen Prozessor ab 1985 in Serie produzieren, aber nur begrenzte
Stückzahlen zum zehnfachen Weltmarktpreis liefern.
Mit der Überweisung des Problems "in die Ausschüsse" war die "Hinrichtung" des U8000
In einer Art Verteidigung vor Mitgliedern des Forschungsrates und weiteren Vertretern der
Industrie hatte ich im April 83 nochmals alle Argumente vorzutragen, die für die Fortführung
der Entwicklung des U8000 sprachen und die Lauffähigkeit der Z8000 Cross-Software durch
Mitarbeiter meiner Dienststelle praktisch vorzuführen.
In dieser Veranstaltung verwies Dr.Classen auf die damals neue UNIX-Implementation (ZEUS)
auf dem Zilog-Entwicklungssystem ZLAB.
Diese Veranstaltung führte zur Bildung einer Arbeitsgruppe des Forschungsrates aus
Industrie-, Hochschul- und Akademievertretern, die das Für und Wider nochmals
Nach zahlreichen Zusammenkünften dieser AG, an denen von der NVA nur ich und mein
Stellvertreter Oberst Dr. Wilhelm teilnahmen, wurde schließlich im Juli desselben Jahres im
Beisein der Minister MWT und MEE ein Kompromisspapier unterzeichnet, das neben der
nach wie vor von ROBOTRON vertretenen "INTEL-Linie" die "ZILOG-Linie" offiziell zuließ.
Mit diesem Akt war die Hardwarebasis für eine UNIX-Implementation auf Mikrorechner
gesichert. Für ROBOTRON war im Mikrorechnerbau ein Kontrahent entstanden. Diese
Konkurrenz, die wie in der NVA auch in der Wirtschaft zu Eifersuchtsszenen führte, wurde
bezeichnenderweise dadurch geschlichtet, dass nach einer Anweisung des MEE das KEAW
nur Entwicklungssysteme und Steuerrechner herstellen durfte, während ROBOTRON die
Entwicklung für Arbeitsplatzrechner zustand.
Ein wichtiger Nebeneffekt dieses offiziellen Linienstreites war, dass 1983 das MWT eine
offizielle Arbeitsgruppe UNIX ins Leben rief, in der der UNIX-Gedanke staatlich gefördert
wurde. In dieser AG waren die Softwareexperten des Leitzentrums für Anwendungs-
Forschung (LfA), die bereits ein Jahr bei der Implementation von UNIX auf "IBM/360-370
kompatiblen" Rechnern Erfahrungen hatten, eine gute Unterstützung.
Die NVA war in der Gruppe durch Oberst Dr. Wilhelm und durch den späteren Direktor des
IAT. Oberst Dr. Beyer, dem seine Chefs einen Beobachterstatus zugebilligt hatten, sowie
durch mich, vertreten.
Kurz vor der Fertigstellung des Z8000 aus DDR-Produktion gab es noch eine Panne. Wir
wurden vom Halbleiterwerk in Erfurt angerufen, dass in der Maske des U8000 ein Fehler
entdeckt worden sei, der Chefentwickler, der den Fehler beseitigen kann, aber z.Zt. zum
Reservistendienst einberufen sei. Oberst Dr. Wilhelm ermittelte daraufhin den Truppenteil des
Reservisten, rief den Stabschef der Einheit an und erklärte ihm die prekäre Situation.
Die Kollegen des Entwicklers staunten nicht schlecht, als dieser am nächsten Tag in Uniform
durch das Werktor in Erfurt schritt und sich an den Automaten setzte um den entdeckten
Fehler zu beseitigen.
Die Entwickler des KEAW hatten als ersten Schritt auf dem Wege zu einem Unixrechner die
Entwicklung zweier Leiterkarten im K1520 OEM-Format vorgesehen (SSR8 Konzept). Die
eine Platine trug den Prozessor und die Kopplung mit dem Bus des als EA-System
fungierenden Bürocomputers BC 5120, die andere war mit 4 mal 64 KByte RAM bestückt.
Den Auftrag für die Entwicklung eines auf dieser Hardware lauffähigen UNIX erhielt das
Zentralinstitut für Kybernetik der ADW (ZKI).
Im ZKI hatte eine Arbeitsgruppe unter Leitung von Dipl.-Math. 0.Fröhlich gerade UNIX V7
auf einer PDP11 kompatiblen CM4-20 aus unvollständigen UNIX V6 -Quellen
Diese Implementation diente zum einen der Gruppe Fröhlich als Cross-Entwicklungssystem
für das Z8000 UNIX, zum anderen war es für Angehörige meiner Dienststelle (und natürlich
für mich selbst) Trainingssystem für den Umgang mit UNIX.
Nicht nur das Handling an der CM4-2O schärfte mein Verständnis für die Unix-Welt,
sondern auch der Umgang mit den vorzüglichen Spezialisten der Arbeitsgruppe. Neben dem
UNIX-Guru Fröhlich gehörten ihr an: Frau Dr.Bündig, die den C-Compiler für U8000 unter
UNIX V7 schrieb, Herr Dipl.-Math. Ulbrich, der den Assembler zu schreiben hatte und last
not least Herr Dr.Lange, der die Anpassung des UNIX-Systemkerns an den mit allen Aus-
und Eingabemedien in Verbindung stehenden BC5120 besorgte.
Der Verkauf des BC5120 mit dem Betriebssystem UDOS, das von den Softwareentwicklern
vor allem von Automatisierungs- und Fernmeldetechnik eingesetzt wurde, hatte dem
Hersteller des BC , dem Büromaschinenwerk Karl-Marx-Stadt, ökonomisch Gewinn gebracht.
Die Werkleitung war dem Vorschlag der NVA (in Gestalt der ZfN) somit sofort zugetan, den
U8000-Erweiterungsmodul zu produzieren und zusammen mit dem BC5120 als BC5120.16
und UNIX als Betriebssystem zu verkaufen.
Die Kombinatsleitung sah diesen "Stilbruch" ungern, musste den Armeeauftrag aber
Oberst Dr. Wilhelm hatte 1984, in dem Jahr, in dem die Hauptarbeiten am Betriebssystem im
ZKI geleistet wurden, alle Hände voll zu tun, um einmal die ökonomischen Interessen von
KEAW, ZKI und ROBOTRON "unter einen Hut" zu bringen, und zum anderen den
termingerechten Ablauf der Hardwarearbeiten im Büromaschinenwerk zu sichern.
Ende 1984 lag dann ein produktionsreifer 16 Bit Erweiterungskartensatz vor. Das UNIX-
kompatible Betriebssystem konnte zum gleichen Zeitpunkt erstmals gestartet werden.
ROBOTRON hatte die Technische Hochschule Ilmenau beauftragt eine UNIX-
Implementation auf dem K1630 vorzunehmen. Dieses UNIX V.7 kompatible BS wurde
„MUTOS" genannt (Multi User Timesharing Operating System). Das vom ZKI implementierte
BS erhielt daraufhin den Namen „MUTOS 8000". Das Jahr 1985 stand voll im Zeichen erster
Unixanwendungen in der NVA.
Von der ZfN wurde organisiert, dass vor allem die UNIX-Anhänger an Schulen und auf den
Gefechtsständen so schnell wie möglich einen erweiterten BC bekamen.
Das Handling auf dem BC5120.16 unter UNIX war umständlich, da normalerweise nur drei
8" Laufwerke mit je 360 KByte Diskettenkapazität zur Verfügung standen. Man musste stets
die root-Diskette laufen haben, dazu die usr-Diskette und als dritte war dann der Editor oder
der C-Compiler zu mounten. Das war aufwendig, schärfte aber das Systemverständnis.
Trotz dieser Härten versuchten wir Mitte 1985 in der ZfN das gesamte Mutos-8000 auf dem
erweiterten BC zu generieren. Bis dato waren alle Versionen Cross auf der SM4-20 erzeugt
worden. Bei dieser Arbeit wurden noch eine Reihe von Fehlern im Assembler und im
Compiler, aber auch in den Quellen entdeckt. Nach etwa einem Monat Trial and Error gelang
die Generierung, und wir hatten viel gelernt.
Zur Schulung der zahlreichen UNIX-Erstanwender, sowohl in der NVA als auch in zivilen
Einrichtungen der DDR, gründeten wir eine MUTOS-8000 Anwendergemeinschaft, die
monatlich Erfahrungen mit dem neuen Betriebssystem austauschte.
Ebenfalls zu Schulungszwecken gewannen wir Herrn Fröhlich und die Mitglieder seiner
Arbeitsgruppe, eine detaillierte Beschreibung von UNIX V.7 (anhand der Quellen) auf der
Grundlage der, an einer Australischen Universität angefertigten Beschreibung von UNIX V.6,
anzufertigen. Leider wurde das Material nie gedruckt. Eine Zeile im Original dieser
Beschreibung hat uns sehr gefallen, sie ist nahezu symptomatisch für das was sich damals
abspielte. Die Zeile lautete "It is not expected you understand this".
Für UNIX auf Mikrorechnern zeichnete sich 1985 eine Verbesserung ab. Aus eigener Produktion standen 14
Zoll Winchesterplatten mit einer Kapazität von 30 MByte zur Verfügung. Die Platten waren mit Ansteuerung
und Netzteil in einem nachtschrankartigen Gehäuse untergebracht und machten sehr starken Lärm.
Für den BC5120.16 wurde fieberhaft eine Ansteuerung entwickelt.
Das KEAW hingegen hatte aus Baugruppen der Automatisierungsindustrie und einer
improvisierten MMU-Karte eine Prototype-Hardware aufgebaut und darauf eine ZEUS-
Adaption (V.7 kompatibel) implementiert. Das Betriebssystem wurde WEGA genannt.
Da diese Leistung im Rahmen der Schaffung des von uns bestellten SSR16 erbracht wurde,
erhielten wir im Herbst 1985 ein solches Muster und konnten nun in der ZfN ein echtes
Multiuser-System in Betrieb nehmen. Als Terminals benutzten wir normale Bürocomputer
unter UDOS (RIO) oder SCP (CPM) mit eiligst geschaffener Remote-Software.
Während der Chef Nachrichten, dem wir das neue System vorführten, sofort die
Möglichkeiten, die sich hierdurch für Führungssysteme ergaben, erkannte und für die
Fortführung der Arbeiten grünes Licht gab, nahm die Abteilung AT im MfNV wie üblich von
all dem nichts zur Kenntnis.
Die Erfolge, die das Büromaschinenwerk mit dem Verkauf der UDOS und der MUTOS
Rechner hatte, bewog die Werkleitung, weiter auf Rechner mit U8000 Schalt Kreisbasis zu
setzten. Es wurde ein Arbeitsplatzcomputer konzipiert, der in der ersten Ausbaustufe ein
DOS-ähnliches Betriebssystem haben sollte und später eine UNIX-Adaption. Die Gruppe
Fröhlich hielt es für möglich, ein UNIX zu generieren bei dem, solange keine geeignete
Festplatte existiert, die Hauptelemente des Betriebssystems von Diskette in einen großen
RAM geladen werden, wodurch eine schnelle Arbeit gewährleistet wird. Wir unterstützten
diesen Gedanken, weil wir von der Perspektive von UNIX überzeugt waren. Das MEE war
aber offenbar ganz anderer Ansicht. Vertreter der Akademie hatten den Staatssekretär auf den
Siegeszug von MS-DOS aufmerksam gemacht und den Umstand kritisiert, dass ROBOTRON einerseits mit dem richtigen Prozessor (i8086) den falschen Rechner baut (der AC 7100 war
für ein CPM-Derivat ausgelegt) und dazu noch ein UNIX-Experiment mit einem Exoten
vorhatte. Staatssekretär Nendel spielte wieder einmal die Zentralmacht aus und untersagte
das Entwicklungsvorhaben des Büromaschinenwerkes. Die Vorstellung des A7800 (so hieß
der U8000 Rechner für UNIX) auf der Leipziger Frühjahrsmesse wurde wenige Stunden vor
Eröffnung der Messe untersagt.
Es gab 1986 doch noch einen Erfolg für den UNIX-Flügel, als auftragsgemäß die ersten Muster des P8000
(NVA-Bezeichnung SSR16) fertig wurden. Das Betriebssystem WEGA war weiterentwickelt und nun UNIX
System III kompatibel.
Damit waren aber MUTOS-8000 und WEGA V.7 nicht vergessen. Im ZKI wurde uucp implementiert und die
oben erwähnte Winchesterplatte angeschlossen.
In der ZfN beschafften wir 5 1/4 " Winchesterlaufwerke und programmierten den BC5120.16 als Rechner
für ein Führungssystem. Der Vorteil des MUTOS-8000 war nach wie vor unsere genaue
Bild 40: P 8000 (SSR 16)
Quellenkenntnis, sodass sich z.B. Lochstreifeneingaben oder Fernschreibmaschinenanschluss leicht
implementieren ließen.
Unter Mutos 8000 ließen wir durch Herrn Dr. Horn von der Humboldt Universität Pascal-Prolog
implementieren und unter WEGA V.7 durch die Herren Mohr und Dr. Kriegel vom ZKI Common-LISP.
Auf der Leipziger Frühjahrsmesse 1987 wurde der P8000 der Öf entlichkeit vorgestel t. Beachtung fand dabei
nicht nur das handliche Multiusersystem allein, sondern auch eine von uns initiierte Echtzeiterweiterung. Es
handelte sich um ein Beistellgerät, das mit U8000 OEM-Karten aus der Baureihe der Automatisierungstechnik
bestückt wurde. Als Betriebssystem lief allgemein das dem ZRTS nachempfundene IRTS (segmentiert oder
nichtsegmentiert). Das Gerät wurde terminalgleich an den UNIX-Rechner angeschlossen und übernahm
Prozessdaten (z.B. aus Fernmeldeanlagen) in Realzeit. Die zwischengespeicherten Daten wurden Blockweise
an den P8000 übergeben und dort verarbeitet.
Mit dieser Lösung wurde, mit der zur Verfügung stehenden Hardware im Vorgriff das bewältigt, was später
UNIX Maschinen mit Echtzeit-Kern leisteten.
Die anhand des MUTOS-8000-Systems auf UNIX vorbereiteten Anwender in der NVA bemühten sich mit
unserer Hilfe schnellstmöglich zu einem oder mehreren P8000 zu gelangen. Das wurde dadurch erleichtert,
dass das Gerät nicht bilanzpflichtig war, sondern frei verkauft werden konnte. Die finanziellen Mittel wurden
aus geplanten Forschungsgeldern, mehr oder weniger illegal, bestritten.
Aufgrund ihres fortgeschrit enen Standes in der Softwarebearbeitung erhielt die ZfN vom Technischen Komitee
der Teilnehmerstaaten des Warschauer Vertrages die Aufgabe ein Konzept für ein Fernmelde-Führungssystem
auszuarbeiten. Es versteht sich von selbst, dass das System auf dem Betriebssystem UNIX basieren würde.
Eine Studie, wie so ein System aussehen könnte, wurde von den Mitarbeitern der 5. Unterabteilung
Oberstltn. Dr. Donau und Dipl. Ing Drescher bearbeitet. Da wir mit dem U 8000 keine Hardware besaßen,
die das im MIT entwickelte X-Windows verarbeiten konnte, verwendete Dipl.Ing. Drescher für die Fenster der
Bedienoberfläche das Paket curses.
Der Direktor des Instituts für Informatik der Humboldt Universität Professor Polze war ein engagierter UNIX-
Anhänger. Wie er sagte, war es sein Traum, ein Labor mit UNIX-Rechnern einzurichten, in dem er seine
Studenten in diesem fortschrittlichen Betriebssystem ausbilden konnte. Oberst Dr. Wilhelm gelang es, die
notwendigen P8000 Geräte für dieses Vorhaben zu beschaffen. Zur Einweihung des UNIX-Labors des
Instituts für Informatik der Humboldt Universität trank Professor Polze ein Glas Sekt mit uns.
Die ZfN konnte sich Ende 1987 mit Unterstützung des CN ein IBM-XT beschaffen. Dieser PC' diente der
Einsatzvorbereitung der ESER-PC's.
Die UNIX-Fellows schauten nicht ohne Neid auf den bunten Bildschirm des DOS-Gerätes.
Es gab allerdings im DOS-Lager der DDR eine deutliche Schwachstelle, das war die Kommunikation im
Rechnerverbund und der Zugriff auf gemeinsame Ressourcen. Hier hatte Robotron nur das schmalbrüstige
ROLANET-1 zu bieten, was außer dem Postaustausch über einen Server (ohne Leistungsfähige
Sicherheitstechniken) nichts konnte. Bob Metcalfs Idee des Ethernets war bei uns noch nicht angekommen.
Nachdem in der AG Datenkommunikation der ZfN, unter der Leitung von Oberstltn Dr. Uhlmann, durch
Dipl.Ing. Müller die Hartware für Lichtleiteranschlüsse entwickelt worden war, wurden in eigener Werkstatt
Lichtleiteranschlüsse für P800O, seine Terminals, BC's und PC's als Kleinserie hergestellt. Danach konnten
wir die gesamte Dienststelle mit Lichtleitern verkabeln. Damit waren sowohl Terminals mit dem P8000 als
auch die Rechner untereinander über dieses Medium verbunden.
Der Versuch, zwischen den Rechnern über das UNIX-Kommando remote zu kommunizieren, bewährte
sich nicht. Da aus Sparsamkeitsgründen (ein P8000 gestattet nur acht Anschlüsse) nur eine (Doppel-)
Leitung zwischen zwei Rechnern bestand, war diese im Bedarfsfall stets besetzt. Der Ausweg bestand darin,
den Remote-Zugriff vollständig zu sperren und als Hauptkommunikationsart den Maildienst über uucp zu
installieren. Für spezielle Abfragen wurde noch uux zugelassen. Es erwies sich, dass dieser Dienst die
Mehrzahl der Kommunikationswünsche befriedigte. Für das Leitungs- Informations- und Kommunikations-
System (LIKS) wurde für Wenignutzer als erstes in der cshell im Fast Prototyping eine Nutzeroberfläche
geschaffen. Diese wurde bald durch eine in C geschriebene Version ersetzt.
Die Herren Illmann und Süß vom ZKI erschlossen bald darauf das Curses-Paket für den P8OOO, sodass die
Nutzerschale nunmehr in Fenstertechnik angeboten werden konnte.
Aus dem LIKS heraus konnte auch auf Datenbankinformationen zugegrif en werden. Als Datenbank wurde
„ing-db" verwendet. Ein ingres-Derivat, das von Herrn Wentzlaff aus dem ZKI für alle Rechnertypen aus
DDR-Produktion geschaffen worden war. Für ing-db hatte Herr Wentzlaff auch einen Compiler geschrieben
(AMX),der einen schnellen Zugriff auf die Datenbestände sicherte.
Im MfNV gab es für die Mitglieder des Kollegiums rechnergestützt Führungsinformationen. Diese
Informationen mussten aber, ähnlich Videotext, abgerufen werden. Es fehlte die für UNIX typische
Dialogkomponente.
Zur Rationalisierung der Führung des CN wurde beim Diensthabenden Nachrichten (DN) ein P8000
installiert, mit der Zielstellung, ihn mit weiteren Rechnern der Verwaltung Nachrichten zu vernetzen. Vorerst
war neben dem Diensthabenden Nachrichten (DN) nur der CN und seine Stel vertreter angeschlossen.
Softwaregrundlage für diesen Rechner war das in der ZfN erprobte LIKS. Da der DN ein 24-Stundendienst
war, hat e der CN ständig Zugrif zu Informationen über die Nachrichtenlage, den Einsatz von Nachrichten-
Kräften und -Mitteln, aktuelle Beschaltungsinformationen usw. Damit entfielen eine Reihe von Rapporten.
Weisungen konnten abwesenden Unterstel ten per Mail übergeben werden. Gleichermaßen war die
Entgegennahme von Meldungen durch Mail möglich. Der Flaschenhals des Systems war die Umsetzung
der von "unten" gemeldeten Informationen in den Rechner der Führungsstelle. Zur ständigen Verminderung
der Handeingaben wurde zunächst Fernschreibtreiber als Devices in den P8000-Kern eingebunden. Damit
konnten formatisierte Meldungen sofort eingelesen werden.
Zu erwähnen bleibt, dass im Jahre 1988 die Fachgebiete Nachrichten und Automatisierung der
Truppenführung unter Führung des "Stel vertreters des Chefs des Hauptstabes - Chef Nachrichten" fusioniert
wurden. Dieses Amt übernahm der bisherige CN Generalleutnant Dr. Paduch. Am Festhalten des AT -
Bereiches am Erfordernis der Mainframe-Dominanz (Durch ESER-Rechner ), des Einsatzes von Minis auf VAX-
Basis mit VMS sowie PC's nur mit DOS änderte sich nichts. Neu war nur, dass von uns in offiziellen
Konzeptionen UNIX als Betriebssystem für speziel e Anwendungen eingebracht werden konnte und dazu
natürlich die erforderliche Hard- und Anwendersoftware.
Den Arbeitsplatz des CN, dessen Dienstzimmer nun am anderen Ende des MfNV-Gelände lag, schlossen wir
über ein langes Lichtleiterkabel an das LIKS an.
Auch die alte Idee, Methoden der Künstlichen Intelligenz zur Fehlersuche an Nachrichtengeräten
einzusetzen lebte wieder auf.
Die Eigenschaften des P8000 ermutigten uns KI-Aufgaben unter UNIX zu lösen. Nach den Erfahrungen mit
Pascalprolog gelang es Major Demian und Hauptmann Meischner von der Sektion Militärisches Transport-
und Nachrichtenwesen C-Prolog (ein Prolog für 32 bit Rechner) auf dem P8000 zu implementieren. An C-
Prolog wurden die Datenbanken WEGA-Data und ing-db angeschlossen.
Der Bereich Künstliche Intelligenz des ZKI, unter der Leitung von Herrn Dr.-sc. Koch, hatte sich die
Aufgabe gestel t, neben der Implementation eines Common-Lisp-System unter VMS auf VAX auch eine
kleine Version für P8000 abzuleiten. Grund war die große Verbreitung des P8000 (ca. 5000 Stück), vor
allem an Hochschulen, wodurch eine adäquaten Verbreitung von Common Lisp möglich war. Wir stellten
das Versuchsfeld für diese Implementation.
Es zeigte sich, dass der Bedarf an Hauptspeicher dieses Systems sehr groß war. Sobald die
Speicherbenutzung in die Größenordnung des halben Hauptspeichers kam, (nahm die Swapzeit drastisch
zu. Ausweg war die Aufrüstung des Hauptspeichers auf 3-4 Megabyte, bei der sich ein befriedigendes
Mit der genannten Lispversion entwarfen wir zwei Prototypen von Expertensystemen für die
Instandsetzung von Nachrichtengeräten. Eine davon erhielt sogar eine graphische Nutzeroberfläche.
Die nichtvorhandene Grafikfähigkeit der P8000 Terminals wurmte uns sehr. Da der kleine Graphikeditor
des P8000 ein Tektronix Terminal voraussetzte, was wir natürlich nicht besaßen, beschaffte ich einen
Tektronix-Emulator für den IBM-PC und die dazu erforderliche EGA-Karte samt Farbbildschirm. Wie zu
erwarten war, konnte die ROBOTRON-Hardware für diesen Fall nicht eingesetzt werden. Herr Wilk vom
ZKI, der bei uns seinen Dienst als Wehrpflichtiger leistete, schrieb den Editor so um, dass er die
Leistungsmerkmale des „Tektronix 4106" Terminals voll ausschöpfte. Da das Terminal "intelligent" war,
konnten der Bildaufbau, die Segmentierung, das Zooming usw. sogar aus dem P8000 ausgelagert und
unter UNIX eine recht zügige Bildbearbeitung erreicht werden.
11.6 Rechnergesteuerte Umsetzer
Eine unserer Initiativen reichte bis in die Deutsch-deutsche Gegenwart.
Während im Stabsnetz (S1, 9.4) Koordinatenschalter in den Vermittlungen eingesetzt wurden, waren die
Ortsvermittlungsstellen der Deutschen Post mit Hebdrehwählern bestückt.
Inzwischen war die Entwicklung der elektronischen Nebenstellenanlagen NZ400 für das Stabsnetz
abgeschlossen und sie wurden produziert. Die elektronische Transitzentrale ENA-T war bereits als Muster in
das Stabsnetz eingebunden (9.11)
Zum Übergang in das Ortsnetz waren elektronische VStw-Umsetzer entwickelt worden, auf der Grundlage
von Vorleistungen von Dipl.-Ing Grünewald, Angehöriger der 4. Unterabteilung.
Es muss nun berichtet werde, dass nachdem 1989 die Mauer fiel, ich im Jahre 1990 wegen Erreichen der
Altersgrenze aus der NVA entlassen wurde. Mein Nachfolger Oberst Dr. sc. techn. Claus Wilhelm, der die
ZfN noch bis Ende 1990 führte, erzählte mir folgendes:
„Die Vereinigung von NVA und Bundeswehr erforderte ein gemeinsames Fernmeldenetz.
Das Bundeswehrnetz hatte Vermittlungen mit Motordrehwählern, und das Stabsnetz S1 (NVA) war mit
Koordinatenschalter bestückt. Mit viel Mühe und Nachdruck wurde gegen den Widerstand der anbietenden
Fernmeldeindustrie der alten Bundesländer verdeutlicht, dass dieses Stabsnetz, z.B. für den
Bundesgrenzschutz, und die Bundeswehr, übergangsweise nutzbar war.
Zunächst wurde durch die Schaltung dreier Übergangspunkte von Ost nach West handvermittelt das
Bundeswehrnetz mit dem Stabsnetz (S1) verbunden.
Für die Durchwahl war ein Kennzeichenumsetzer zwischen beiden Netzen erforderlich.
Dazu schätzte die bundesdeutsche Fernmeldeindustrie Kosten von über eine Million D-Mark bei einer
Entwicklungsdauer von zwei Jahren.
Das Problem wurde von Dipl.-Ing Grünewald innerhalb eines viertel Jahres gelöst. Er entwickelte mittel Ein-
Chip-Prozessor den Umsetzer SK4448. Die Entwicklung und Produktion kostete ca. 400 Tausend DM.
Die Anpassung der Kennzeichen und Toleranzen erfolgte durch Dipl.-Ing Grünewald direkt in der
Fermeldezentrale der Bundeswehr in Bonn.
Inzwischen hatten die Netzplaner der ZFN die Übergangspunkte dieser Querbündel zwischen
Bundeswehrnetz und Stabsnetz (S1) geplant und die Schaltaufträge vorbereitet. Im Frühjahr 1991 waren
damit die beiden Netze in Durchwahl verkoppelt.
Einige Netzplaner der dann abgewickelten ZFN wurden 1991 als Zivilbeschäftigte der Bundeswehr
übernommen und waren dort langjährig tätig."
12. Hintergrund ab 1990
Im Rahmen des Projektes „Athena" wurde in den 80er Jahren im MIT auf dem Gebiet hardwareunabhängiger Grafik geforscht, Der Grundgedanke war, im Campus des MIT mit 1500 Mann an der gleichen grafischem Oberfläche unabhängig von Rechnertyp und Betriebsystem zu arbeiten.
Unter Einbeziehung der Erfahrungen mit dem System „W" entstand das System „X". Die erste Version wurde im Juni 1984 freigegeben, im September 1987 folgte die Version X11.
Das Prinzip besteht darin, dass auf dem Rechner am Arbeitsplatz ein X-Server läuft, der über ein Basis-
Windows-System verfügt sowie über das X-Netzwerkprotokoll. Der Rechner am Arbeitsplatz verfügt
natürlich auch über die Treiber von Maus und Tastatur.
Ein X-Client, d.h. das Anwenderprogramm, das ggf. auf einem Großrechner läuft, kommuniziert über
das Netzwerk mit dem X-Server.
Der X-Client benutzt die Dienste des X-Servers, um eine grafische Darstellung zu erreichen und
empfängt von ihm die diversen Ereignisse wie Tastenanschläge, Mausbewegungen, Klicks usw.
Umgangssprachlich beschrieben, „sagt" der X-Client zum Server: „Stell mal die und die Figur in der und der Art dar, wo bei an dieser und jener Stelle eine Zahlenangabe zu zeigen ist."Durch Mausklick und Tastatureingabe bestätigt der Nutzer die Angaben.
Es dürfte einleuchten, dass ein derartiges System sowie Kommunikation auf beliebiger Hardware zu realisieren ist. Leser, die über einen Apple-Computer mit dem Betriebssystem MAC OS X verfügen, können ein xterm aufrufen und auf der Kommandozeile einige Befehle des X-Windows-System eingeben. Manche Befehle wie „xbiff" der Briefkasten der meldet wenn Post eingegangen ist, sind durch spezifische Apple-Anwendungen (z.B. die Briefmarke für das Mailprogramm) ersetzt. Die Clienten xcalc, xclock, xeyes, xload und ico funktionieren aber noch. Selbstverständlich arbeiten LINUX-Nutzer auch unter X-Windows mit verschiedenen Windowmanagern wie z.B. GNOME oder KDE.
Das X-Windows-System war natürlich viel leistungsfähiger als MS-Windows der 80er bzw. 90er Jahre, sodass es ein Fortschritt war, dass die Firma Santa Cruz Operation (SCO) Ende 1989 das Betriebssystem SCO® Open Desktop®, das erste 32-bit graphische Nutzer Interface für UNIX Systeme herausbrachte, das auf Computern lief, die mit Intel Prozessoren ausgestattet waren.
12.2 SCO UNIX
In der Wiki SCO_OpenServer ist im Internet folgendes zu lesen:Nachdem Santa Cruz Operation bereits mit Xenix für i286 und i386 große Marktanteile im PC-Unix-Sektor erlangte, wurde im Jahr 1989 die erste Version von SCO UNIX vorgestellt. Dies war das erste Unix-Derivat, welches aufgrund der Lizenzierung durch AT&T den Namen UNIX in der Produktbezeichnung führen durfte.
Es ist eine 32-Bit-Implementierung für Intel i386, basierend auf dem AT&T UNIX System V (bis Version 5.0.7 basierend auf SVR 3.2; seit Version 6.0 basierend auf SVR 5). Obwohl bald andere Hersteller Produkte nach dem neueren SVR4 anboten und AT&T mit Novell das Betriebssystem UnixWare forcierte, setzte sich SCO UNIX wegen seiner Robustheit und der guten Unterstützung durch Hardwarehersteller am Markt durch.
Bis 1995 wurde SCO UNIX einzeln als Runtime-System und in den Produkten OpenServer und OpenDesktop mit integrierten Netzwerkprodukten geliefert. Nach der Übernahme von Novells Betriebssystem UnixWare im Jahr 1995 wurde das Betriebssystem SCO UNIX zu SCO OpenServer umbenannt. Die danach geplante Verschmelzung mit UnixWare fand 2005 im aktuellen Release 6 statt, das auf dem Unix SVR5-Systemkern aufbaut. Damit sind nun Gerätetreiber und Anwendungen von UnixWare auch unter OpenServer 6 nutzbar.
12.3 Netware
Im Bild 30 ist ein Ethernetrahmen dargestellt, in dem wir beim Internetprotokoll im 2 Byte langen Typ/Längen Feld den Typ (08) zu stehen hatten. Dieser Rahmentyp heißt ETHERNET_802.3. Es gibt darüber hinaus noch die Rahmentypen ETHERNET_802.2 und ETHERNET_SNAP, auf die aber an dieser Stelle nicht eingegangen werden soll. Im Abschnitt 8.6 war bereits darauf eingegangen worden, dass die Netzwerkkarten für das Ethernet weltweit eindeutige 6 Byte lange Quell- und Zieladressen besitzen, denen im ARP die jeweiligen IP-Adressen zugeordnet werden müssen.
Die 1983 gegründete Fa. Novell Inc.ging davon aus, dass es möglich sein muss allein mit
den 6 Byte langen Quell und Zieladressen ein Netzwerk aufzubauen. Das Netzwerk-
Betriebsystem von Novell wurde Netware genannt, das Protokoll heißt IPX (Internetwork
Packet Exchange). Im Typfeld des Ethernetrahmens steht dafür 8137.
Anstelle des IP/TCP Kopfes wird bei Netware das Datenfeld vom IPX-Header angeführt. Der Aufbau des IPX-Headers ist in Bild 41 dargestellt.
Prüfsumme (2 Byte-immer FF)
Paketlänge (2 Byte)
Paket Type (1 Byte)
Zielnetzwerk (4 Byte)
Zielknoten (6 Byte)
Zielsocket (2 Byte)
Quellnetzwerk (4 Byte)
Quellknoten ( 6 Byte)
Quellsocket (2 Byte)
Bild 41: Kopf des IPX-Protokolls!
Es bedeuten:Transportsteuerung: Der IPX-Treiber setzt das Feld vor dem Senden eines Paketes auf 0. Jeder Router erhöht das Feld, bei 16 wird das Paket entfernt.
Packet Type: Spezifiziert die Datensicherung entweder mit SPX (5) oder NCP (17),Beide Protokolle spielen die gleiche Rolle wie das TCP.
Netzwerknummer: Die externe Netzwerknummer ist die des Netzwerks. Die interne Netzwerknummer ist nur für den Netware-Server.
Knoten Nummer: Jeder Computer muss im Netz eine eindeutige Adresse haben. In der Regel wird die Adresse der Netzwerkkarte als "node number" verwendet.
Socket Nummer: Nummer des Kommunikationsendpunktes. Legt fest, wo das Paket abzuliefern ist. Beispiele sind: 0x451 Kommunikationsendpunkt für das Core Protocol. Übergabepunkt für Daten !
kommend und gehend in der Software des Servers bzw. der Arbeitsstation.
0x452 Kommunikationsendpunkt für das Service Advertising Protocol. Telegramme mit !
diesem Protocol erfragen Dienste oder geben welche bekannt. „Wer ist mein
nächster Server?"
0x453 Kommunikationsendpunkt für das Routing Information Protokoll.
0x4000 bis 0x6000 Freie Socketnummern, die von der sendenden Seite gewählt werden ! können.
Aus diesen Ausführungen erkennt man, dass NetWare ein Betriebssystem war, das zum Bereitstellen von Dateisystemen und Druckern diente. Es war Anfang/Mitte der 80er Jahre die einzige brauchbare Möglichkeit, um x86 basierte PCs zu vernetzen. Mit Erscheinen von Windows NT starb es aus.
12.4 LINUX
Wie in Abschnitt 12.2 am Beispiel SCO UNIX beschrieben, muss ein UNIX-System durch AT&T lizenziert werden. In der Anfangszeit durften Universitäten UNIX kostenlos für Lehrzwecke verwenden. In den 80er Jahren wurde diese Freizügigkeit aus wirtschaftlichen Gründen aufgegeben.
Namhafte Wissenschaftler ließen sich jedoch durch dieses ökonomische Diktat nicht aufhalten. Da war
z.B. Andrew S. Tanenbaum, der an der Freien Universität Amsterdam Minix als freies
unixartiges Betriebssystem als Lehrsystem entwickelt.
Ein weiterer Verfechter freier Software war Richard Stallman. Dieser gründete 1983 das
GNU-Projekt („GNU is not Unix") um ein komplett freies Betriebssystem nach dem Vorbild
von Unix zu entwickeln.
In diesem Umfeld arbeitete der finnischen Informatik-Student Linus Torvalds. Ihm diente
Minix 1991 als Entwicklungsumgebung für seinen Linux-Kernel.
Torvalds wol te eigentlich nur die Fähigkeiten der neuen INTEL 80386-Prozessorlinie (Multitasking,
Paging) ausprobieren, entwickelte aber dann einen voll funktionsfähigen Kernel mit virtuellem Speicher
und Speicherschutzmechanismen. Die Kommandos und der C-Compiler wurden durch GNU-
Versionen ersetzt.
Dieser Ansatz war ein Impuls für die Softwareentwickler auf der ganzen Welt nachdem ab 1992 der Linux-Kernel die Lizenzierung unter der GPLDas modular aufgebaute Betriebssystem wurde von da an von Unternehmen als auch von Non-Profit-Organisationen und Einzelpersonen weiterentwickelt.
Microsoft Windows 3.0 wurde am 22. Mai 1990 veröffentlicht. Es ließ sich in drei Modi
betreiben.
Real Mode: Der „Real Mode" ist eine Art Kompatibilitätsmodus, der es erlaubt, Windows 3.0 auf einem
8086er auszuführen.
Standard Mode: die Betriebsart für damals (1990-91) durchschnittliche Hardware: ein Intel 80286-
Prozessor mit ca. 1 MB Arbeitsspeicher.
Extended Mode: Im „Erweiterten Modus für 80386-Prozessoren" ist auf einem PC mit 80386-Prozessor
und ausreichend Arbeitsspeicher.
Microsoft Windows 3.1 wurde am 1. März 1992 veröffentlicht und war erstmals als Update für ein
früheres Windows erhältlich. Trotz der Namensähnlichkeit waren viele Programme für Windows 3.0 zu
Windows 3.1x inkompatibel (und umgekehrt). Somit war Windows 3.1 das erste Windows mit einer
durchgehenden Aufwärtskompatibilität.
Windows for Workgroups 3.11 wurde im November 1993 veröffentlicht. Es war eine erweiterte
Fassung von Windows for Workgroups 3.1 mit verbesserter 32-Bit-Netzwerksoftware und TCP/IP-
Protokoll, das die Kommunikation mehrerer Rechner in einem lokalen Netzwerk erlaubte. Auch der
Internetzugriff über ein Standardmodem mit dem AT-Befehlssatz von Hayes und den Bitraten von 4,8 /
9,6 / 19,2 kBit/s war möglich. Man konnte auch über das ISDN ins Internet gehen. Browser für WfW 3.11
waren der Internet Explorer 5.0 Deutsch und Netscape Navigator 4.08. Für die Installation wurde ein
386SX/DX-Prozessor vorausgesetzt.
Windows 95 (") erschien am 15. , der nach dem Systemstart die Systemzugriffe
mittels so genannter VxDs (Virtual Device Driver, virtuelle Gerätetreiber) steuert.
Windows 98 ( Codename „Memphis"), erschien am 30. Juni 1998 als Weiterentwicklung von Windows
95. Windows 98 enthielt hauptsächlich Internet-Erweiterungen wie den integrierten Internet Explorer 4.0
sowie Multimedia-Erweiterungen. Mitte 1999 erschien Windows 98 Second Edition (englisch für zweite
Ausgabe) die als überarbeitete Version unter Anderem das Service Pack 1, den Internet Explorer 5
sowie einige Verbesserungen im Bereich Multimedia und USB mitbrachte.
Windows NT 4.0 (Codename „Cairo"), ist am 29. August 1996 erschienen. In der Chefetage von
Microsoft hatte man eine Idee. Man warb einen der renommiertesten Entwickler von Betriebssystemen,
den Entwickler des legendären VAX Betriebssystems VMS David N. Cutler und einige seiner
Mitarbeiter von DEC ab.
Cutler erreichte es, dem neuen Betriebssystem eine hohe Zuverlässigkeit zu vermitteln, eine
Eigenschaft, die unter Betriebssystemen wie VMS oder unixähnlichen Systemen längst üblich war.
Auch wichtig war Portabilität – Windows NT sollte auf allen modernen Computerarchitekturen lauffähig
sein.
Entscheidend war, dass Windows NT grundsätzlich alle Eigenschaften eines TCP/IP Systems und
seine Kommandos übernahm.
12.6 Apple
Der 1984 vorgestellte Macintosh war der erste kommerziell erfolgreiche Computer mit
einer grafischen Benutzeroberfläche. Diese Entwicklung wurde durch die Technik
inspiriert, die im Xerox Forschungszentrum entwickelt wurde, aber nicht kommerziell
verwendet worden war. Der Erfolg des Macintosh brachte Apple dazu, den Apple II für die
Macintosh-Produktlinie aufzugeben, die bis heute verfolgt wird.
Die erste Power Macintosh-Reihe wurde im März 1994 eingeführt und stellte für die
Anwender einen nahtlosen Übergang auf eine völlig neue Art von Prozessor dar: Die
konventionellen Prozessoren der Motorola-68k-Baureihe wurden abgelöst durch den
RISC-Prozessor PowerPC 60, wobei Power für Performance optimization with enhanced
RISC (Leistungsoptimierung durch erweitertes RISC) und PC für Performance Chip
(Hochleistungs-Chip) steht.
Nach einem internen Machtkampf hatte Steve Jobs 1985 APPLE verlassen und die Firma NeXT Computer gegründet
Gegen Ende 1996 kaufte das Unternehmen APPLE die NeXT-Firma von Jobs auf und
entwickelte das Betriebssystem "One Step" zu einem neuen Macintosh-Betriebssystem.
Durch die schrittweise Aktualisierung wurde NeXTStep schließlich unter dem Namen Mac
OS X zum neuen Betriebssystem der Macintosh-Rechner.
Mac OS 9 war die letzte Version des alten Betriebssystems Mac OS für Macintosh-
Rechner von Apple. Es wurden jedoch nur Macs mit PowerPC-Prozessoren unterstützt.
Sie wurde am 23. Oktober 1999 herausgegeben. Die wichtigsten Neuerungen von Mac
OS 9 waren Mehrbenutzerunterstützung und die Schlüsselbund-Funktion, mit der ein
zentraler Aufbewahrungsort für Passwörter eingeführt wurde.
Im Jahre 1998 wurde der iMac G3, der Erste der Generation der iMAC Rechner ausgeliefert. Primäre Merkmale der ersten iMac-Generation waren eine in den Monitor
integrierte Haupteinheit und
halbdurchscheinendes (semitransluzentes)
Gehäuse in blaugrün.Das „i" im iMac hat folgende
Bedeutungen: internet, individual, instruieren,
informieren und inspirieren. Es wurde in den
folgenden Jahren zum Markenzeichen vieler
APPLE-Produkte – allen voran de
.
Bild 42: Apple iMac G3
12.7 ISDN
Im Abschnitt 10.3 war bereits über die Einführung des ISDN in der Bundesrepublik gesprochen worden. Das Fernmeldetechnische Zentralamt der Bundespost hatte das Protokoll FTZ 1 TR 6 (kurz 1 TR 6), das Signalisierungsprotokoll des nationalen ISDNs entwickelt. Obwohl das Protokoll 1TR6 in Teilen bereits mit den von der ITU herausgegebenen Vorschriften übereinstimmte, war eine Kommunikation über die Landesgrenzen hinweg nicht möglich. Der Grund war Inkompatibilität mit den Protokollen der Nachbarländer. Zum besseren Verständnis der Zusammenhänge soll kurz die Aufgabe des D-Kanalprotokolls im ISDN dargestellt werden.
Bild 43: Verbindung zwischen ISDN-Anschluss in der Wohnung und der Ortsvermittlung
In der Wohnung eines ISDN-Teilnehmers befindet sich ein Netzabschluss, der die zweidrähtige Amtsleitung in eine vierdrähtige Leitung, den sog. ISDN-Bus in der Wohnung umwandelt. Die Amtsleitung befördert sowohl den Strom der Impulse vom Teilnehmer zum Amt, als auch den Strom der Impulse vom Amt zum Teilnehmer. Die Entkopplung erfolgt durch eine in der Fernmeldetechnik bekannte Gabelschaltung. Der in der Gabel auftretende Rückfluss wird durch die in Bild 44 dargestellte Gabelschaltung mit Echokompensation unterdrückt.
Bild 44 : Gabelschaltung mit Echokompensation
Damit auf dem Kanal kein Gleichstromanteil entsteht, wird die Impulsfolge aus Strom und Kein-Strom Impulsen (Alternate Mark Inversion) AMI-Codiert.
Bild 45: oben: Normale Impulsfolge, unten die gleiche Impulsfolge AMI-Codiert, aus Plus wird Null (0,0 ),aus !
Null wird alternierend +1 (+0,75 V) -1 (-0,75 V)
Bild 46: Bitfolge auf dem SO-Bus von der Vermittlung zumTeilnehmer
Der über die Zweidrahtleitung fließende AMI-codierte Bitstrom von 192.000 bit/s ist in Rahmen zu je 48 Bit aufgeteilt, In Bild 46 ist ein solcher Rahmen dargestellt, der von der Vermittlung zum Endgerät transportiert wird. Für unsere Betrachtung ist wichtig, dass zwischen den (schwarzen) Impulsen, die die Sprachinformation transportieren, jeweils 4 rote Impulse eingefügt sind, die den Signalkanal bilden. Diese Impulse werden herausgefiltert und als Signalkanal (D-Kanal) weiterverarbeitet. Die Struktur des D-Kanals ist in allen nationalen Protokollen gleich, wobei jedoch die einzelnen Oktette in der Schicht 2 von Protokoll zu Protokoll unterschiedlich sein können.
Bild 47: Das Herausfiltern der Impulse für den Signalkanal
Das erste Oktett im Rahmen der Schicht 3 ist der Protokolldiskriminator PD. Er gibt an, nach welchem Protokoll die Nachrichten der D3-Schicht kodiert sind.
Das nationale ISDN (1TR6) wurde durch die PD 40 und 41 gekennzeichnet.
Das Euro-ISDN ist durch den PD 08 repräsentiert.
Mit der Unterzeichnung eines MoU (Memorandum of Understanding, Absichtserklärung) durch 26 aus 20 europäischen Ländern im Jahre 1989 einigte man sich auf die Einführung eines gemeinsamen europäischen ISDN-Standards im Jahre 1993.
Das Protokoll 1TR6 wurde daraufhin untersucht, welche Vorschriften des Euro-ISDN mit vertretbarem Aufwand eingearbeitet werden konnten und welche nicht. Das Ergebnis wurde in der DTAG-Richtlinie 1TR67 festgelegt. Das resultierende Protokoll heißt DSS-1 und steht für Digital Subscriber Signalling System No.1. Es ist die nationale Variante des Euro-ISDN (E-DSS-1), das durch die ITU-T-Empfehlung Q.931 reglementiert wird.
Das Euro-ISDN bietet u.a. einen transparenten mit 64, einen Audio-Übermittlungsdienst mit 3,1 kHz und 7 kH, die Übermittlung der des Anrufers zum gerufenen Teilnehmer, die Unterdrückung der Übermittlung der Rufnummer, die zu Nebenstellen in Mehrfachrufnummern sowie das Umstecken am passiven des Mehrgeräteanschlusses.
Der Deutschen Telekom wurde gestattet (für eine Übergangszeit), den Basisanschluss bilingual zusammen mit dem nationalen 1TR6-Protokoll für den D-Kanal anzubieten. Zu diesem Zweck stellte die Deutsche Telekom Interworking Units in allen ISDN-Vermittlungsstellen bereit, in denen die Protokollumsetzung erfolgte.
Euro-ISDN ermöglicht eine grenzüberschreitende Kommunikation mit hoher Datensicherheit und einer für öffentliche Netze relativ hohen Übertragungs-Geschwindigkeit. Das ISDN-Telefon TEKTRA der Deutschen Telekom war in der Lage nach dem Anstecken an den ISDN-Bus zu überprüfen, welches Protokoll am Anschluss vorliegt. Es schaltet sich danach automatisch auf das jeweilige Protokoll ein.
Die beiden Protokolle sowie der bilinguale Anschluss wurden noch bis zum Jahr 2000 angeboten
12.8 Die Produzenten von ISDN-Hardware
Von den Produzenten, die in den 90er Jahren ISDN Hardware produzierten sollen hier nur die beiden in Berlin ansässigen AVM und Teles genannt werden, da sie dem Autoren aus unmittelbarer Zusammenarbeit bekannt sind.
12.8.1 TELES
Die Teles AG wurde im Jahr 1983 als TELES Telematic Services GmbH,
Informationstechnologien vom Vorstandsvorsitzenden und Mehrheitsaktionär Prof. Dr.
Sigram Schindler als Hightech Unternehmen gegründet. In Zusammenarbeit mit der TU
Berlin wurde die Forschung zur Telekommunikationsstandardisierung vorangetrieben, aus
der ab Anfang der 90er Jahre eigene Produkte für den Telekommunikationsmarkt
entstanden sind.
Bild 48: Hexstrings die für Diagnosezwecke in der TELES.i.PBX gespeichert wurden
Professor Schindler hatte sich zu Beginn des Wirkens seiner Firma das Ziel gestellt, bezahlbares ISDN-Zubehör zu entwickeln und zu verkaufen.
Ein herausragendes Produkt war die TELES-iPBX. Eine Leiterkarte mit dem
Vermittlungschip und 4 programmierbaren ISDN-Ports, die in einen (auch älteren) PC
eingesteckt, diesen zu einer vollwertigen ISDN-Vermittlung macht.
Diese Vermittlung spielte eine große Rolle für die ISDN-Ausbildung. Die Entwickler dieser
Karte hatten zu ihrer eigenen Sicherheit einen Debug-Modus eingebaut. In dieser
Betriebsart protokollierte der Computer die D-Kanalinformationen aller vier Ports und
schrieb sie in eine Textdatei. Wenn man die Signale zu deuten wusste, war es möglich,
das
Zusammenspiel zwischen Vermittlung und Endgerät zu erklären (Bild 48)
Zum Teles-Sortiment gehörten sodann S0-Karten, mit denen man Computer mit dem ISDN
verbinden konnte. Diese Karten wurden für den ISA und den PCI-Bus entwickelt.
Eine Auswahl von TELES-Karten ist nachstehend aufgeführt:
!
!
TELES.S0/16.3 PnP
TELES.S0/16.3c PnP
Die TELES-Box spielte eine besondere Rolle. Die TELES-Box gestattete ein
automatisches Call-by-Call. Dieser Dienst bezeichnet die Möglichkeit, Telefongespräche
über einen anderen Anbieter als denjenigen des Telefonanschlusses (z.B. die Telekom) zu
führen. Formal spricht man auch von der fallweisen Betreiberauswahl.
Im Fall eines Telefongesprächs wählt der Anrufer vor der eigentlichen Rufnummer die
Verbindungsnetzbetreiberkennzahl. Diese Sonderrufnummer wird umgangssprachlich
auch Sparvorwahl oder Call-by-Call-Nummer genannt. Diese Nummern sind in
Deutschland nach dem Muster 010xy bzw. 0100xy gebildet. Die TELES-BOX konnte nun
so programmiert werden, dass derjenige, der ein Telefongespräch führen möchte, sich die
Sparvorwahl nicht merken muss, sondern dass sein Gespräch von der TELES.S0-Box
automatisch mit der Call-by-Call-Nummer ergänzt wird.
Die Softwareansteuerung der S0-Karten erfolgt über einen CAPI-Treiber.
CAPI steht für „Common ISDN Application Programming Interface". Mit Hilfe der CAPI-
Schnittstelle kann Computer-Software für die Nutzung von ISDN bereitgestellt werden
ohne dass Kenntnisse der verwendeten, herstellerspezifischen ISDN-Karte notwendig
sind. Vom ETSI wurde die CAPI 2.0 als Standard ETS 300 325 (Profil B) übernommen.
Es ist noch festzustellen, dass die Firma TELES auch einen ISDN-S2M-Router entwickelt
hat. Die S2M-Schnittstelle dient u.A. dem Anschluss von ISDN-Telefonanlagen. Auf ihr
werden 30 so genannte B-Kanäle mit je 64 KBit Bandbreite übertragen. D.h. eine S2M-
Schnittstelle entspricht von ihrer Kapazität 15 einfachen ISDN-Anschlüssen.
Ein S2M-Router ist in der Lage einem Endgerät mehrere B-Kanäle zuzuordnen, so dass
sich die Übertragungsbandbreite zwischen zwei Endstellen vergrößern lässt.
Mit dem Erwerb der Strato AG im Jahr 1998 änderte TELES seine Geschäftsfelder und
gab das ISDN-Geschäft weitestgehend auf.
12.8.2 AVM
Das Unternehmen wurde von den vier Studenten Johannes Nill, Peter Faxel, Ulrich Müller-
Albring und Jörg Detlef Gebert 1986 gegründet und hat seinen Sitz in Berlin.
Die erste ISDN-Karte wurde 1989 unter dem Namen AVM A1-Card auf den Markt
gebracht.
Sie ist die Vorläuferkarte der Fritz-Card und wurde nur als ISA-Karte gebaut und
vertrieben.
Mit der Einführung der Marke Fritz! (selbst schreibt das Unternehmen immer FRITZ!) und
der Fritz!Card, einer ISDN-Karte für PCs, kam 1995 der Durchbruch.
Der Marktanteil bei ISDN-Karten in Deutschland wuchs von 1995 an kontinuierlich.
Für den professionellen Bedarf gab es die Karte AVM B1. Sie ist im Gegensatz zu odemit eigenem zessor, weshalb sie als aktive
Karte bezeichnet wird.
Die AVM B1 kommt hauptsächlich in zum Einsatz. Die aktive RISC-Technologie
der Karte sorgt i für einen optimalen Speicherschutz, geringen
Speicherverbrauch und garantierte in eine Umgebung bei
minimaler Belastung des Rechnersystems.
Seine Anerkennung verdankte AVM hauptsächlich seiner hohen Produktqualität der Hard-
und Software. Somit konnte sich AVM mit seinen Produkten wie die Fritz!Card (ISA, ISA-
PnP, PCI) gegen Wettbewerber wie trotz geringfügig höherer Produktpreise
durchsetzen,
Im Abschnitt 10.4 wurde bereits auf die Internationale Entwicklung des Mobilfunks
eingegangen. Der Digitale Mobilfunkbetrieb wurde erstmalig auf der Ausstellung ITU
Telecom 91 in Genf vorgeführt.
Die Bezeichnung GSM steht für Global System for Mobile Communication.
In Deutschland nahm die Telekom-Tochter DeTeMobil das erste digitale D-Netz im Juli
1992 in Betrieb.
12.9.1 Der Netzaufbau
Die Komponenten eins GSM-Netzes sind in Bild 49 dargestellt.
Bild 49: Komponenten und Schnittstellen in einem Mobilfunknetz (Public Land Mobile Network PLMN)
In diesem Bild sind vier Komponenten eines Public Land Mobile Networks PLMN eingezeichnet. Auf die eingezeichneten Schnittstellen soll an dieser Stelle nicht eingegangen werden.
1. Das Mobiltelefon mit seinen Komponenten - hochleistungsfähige Digitalfilter, die kürzeste Umschaltzeiten zulassen, - Schaltkreise für schnelle Signalverarbeitung und hochkonstante Oszillatoren, - Spezialschaltkreise zur Verschlüsselung der Informationen, - Batterien, die hohe Standby Zeiten und Sendeleistungen bis 8 Watt zulassen, - ein Display mit hoher Auflösung.
!2. Das Base Station Subsystem oder auch die funktechnische Komponente des Systems
besteht
a) aus der Base Transceiving Station BTS
- Das ist eine Funk-Sende-Empfangsanlage, die die Luftschnittstelle (Air-Interface) zwischen Mobile und
Netz realisiert.
- Sie übernimmt auch die Fehlerschutzkodierung des Funkkanals.
b) aus dem Base Station Controller BSC
der die Steuerung aller Geräte des BSS übernimmt. In ihm ist die gesamte Intelligenz des BSS
konzentriert
c) aus der Transcoder/Rate Adapter Unit TRAU.
diese Einheit ist für die Komprimierung der Daten auf der Luftschnittstelle verantwortlich. Sie reduziert
z.B.die Bitrate eines ISDN Kanals von 64 kbit/sec auf Bitrate der Luftschnittstelle von 16 kbit /sec beim
Full RateTransportkanal.
3. Das Network Switching Subsystem, der vermittlungstechnische Teil mit den
Datenbanken, bestehend aus
a) dem Mobile Switching Center MSC
eine ISDN-Vermittlung wie sie im stationären Fernmeldenetz verwendet wird, die jedoch an den
Einsatz im Mobilfunknetz angepasst wurde.
b) dem Gateway-Mobile Switching Center GMSC
das die Verbindung zum ISDN und anderen Stationären Netzen herstellt
4. Das stationäre Fernnetz, das weltweit das Rückgrad des Mobilfunknetzes darstellt,
das auch mit dem ISDN und anderen nichtdigitalen Fernmeldesystem verbunden ist.
12.9.2 Die Frequenzen
Ein Kanal im GSM besteht aus einer Frequenz und einem Zeitschlitz. Betrachten wir
zunächst den Frequenzplan für GSM 900 auf Bild 50
Man erkennt die beiden Frequenzbänder für Uplink (890,2-915 MHz) und Downlink (935,2-960 MHz), die einen Abstand von 20 MHz voneinander besitzen. Den Frequenzen sind Kanalnummern (sog. ARFCN = Absolute Radio Frequency Number) von 1 bis 124 zugeordnet, die bei der Anforderung oder in Meldungen anstelle der expliziten Frequenz verwendet werden.
Ist die ARFCN = n bekannt, so berechnet sich die absolute Frequenz
für den Downlink: ! F(DL) = (935,2 + 0,2*(n-1) MHz,für den Uplink:!
F(UL) = (890,2 + 0,2*(n-1) MHz.
Bild 50:Frequenzplan GSM 900
Wegen der begrenzten Reichweite der Sender auf den o.g. Frequenzen können bei geographisch angemessenem Abstand der Sender, alle Frequenzen wiederverwendet werden.
12.9.3 Das Zellularprinzip
Das Territorium wird in Bereiche eingeteilt, d.h. in so genannte Zellen (Durchmesser 300 m
bis 35 km), wobei benachbarte Zellen über von einander verschiedene Frequenzbündel
verfügen. Zellen mit gleichen Frequenzen sind durch mindestens eine Zelle in eben
diesem verschiedenen Frequenzbündel getrennt. (Bild 51).
Bild 51: Das Zellularprinzip
12.9.4 Die Zeitteilung auf den Frequenzen des Mobilfunknetzes
Die Übertragung auf dem Funkkanal erfolgt über die Aneinanderreihung von
Impulsbündeln, die Bursts genannt werden. Das Extrahieren von Impulsen aus einem
Datenstrom und Bildung eines neuen Kanals dürfte aus dem ISDN bekannt sein, wo aus
den jeweils 4 D-Bits aus einem Impulsrahmen der D-Kanal gebildet wird.
Bild 52: Zeitteilung
Auf die Struktur des so entstehende physikalischen Kanals soll im Abschnitt Vordergrund der 90er Jahre näher eingegangen werden.
12.10. DSL
Mit dem guten alten Analogtelefon wurde die NF-Leitung maximal bis 3,4 kHz ausgenutzt. Die Einführung von ISDN brachte eine Erweiterung des übertragenen Frequenzbereiches bis 120 kHz.
Bild 53: DSL-Schaltung auf Orts- und Fernseite
Revolutionierend war die Entdeckung, dass man bei geeigneter Modulation auch noch höhere Frequenzbereiche auf der Zweidrahtleitung ausnutzen kann. (Bild 54)
In Bild 53 ist das DSL-Prinzip dargestellt. Man spricht genauer von ADSL (Asymetric Digital Subscriber Line). Die Asymmetrie besteht darin, dass in der Senderichtung des Computers, d.h. im Upstream, eine deutlich kleinere Übertragungsgeschwindigkeit zur Verfügung gestellt wird als in der Empfangsrichtung, Downstream.
Vor der Zweidrahtleitung sitzt eine elektrische Weiche, ein „Splitter", in der das Frequenzband wie folgt aufgeteilt wird: Bis 120 kHz für ISDN, von 120 bis 138 kHz ein Schutzbereich, von 138 bis 276 kHz.für den Uplink und von 276 bis 1104 kHz für den Downlink.
Bild 54: Frequenzspektrum einer DSL-Verbindung
Die ersten Anschlüsse konnten ab 1. Juli 1999 in Berlin, Bonn, Köln, Düsseldorf, Frankfurt am Main, Hamburg, München und Stuttgart geschaltet werden und wurden nur als ADSL-Bündelprodukte mit T-ISDN und einer fixen Datenrate von 768 kbit/s im Downstream und 128 kbit/s im Upstream angeboten; ab Mitte 2000 auch für Analoganschlüsse - allerdings zunächst ohne Preisvorteil gegenüber dem Produktbündel mit T-ISDN.
Eine Suchmaschine ist ein Computerprogramm, das automatisch das World Wide Web
durchsucht und Webseiten analysiert.
Da es sehr viele Webseiten auf der Welt
gibt, muss diese Maschine sehr groß
sein, um all die Informationen zu
erfassen. Die beiden Informatik-
Studenten Larry Page und Sergey Brin
(Bild 55) begegneten sich 1995 an der
Stanford University. Ihre erste Idee
bestand darin, eine sehr große
Suchmaschine durch sehr viele
(tausende) kleine leistungs-starke
Bild 55: Larry Page links, Sergey Michailowitsch Brin
(Linux-gesteuerte) PCs zu ersetzen, die in Gruppen (Clustern) zusammenarbeiten. Die
Computergruppen sind dabei über alle Länder der Erde verstreut untergebracht. Sie
nannten diese Maschine Google.
„Googol" ist der mathematische Fachbegriff für eine 1 gefolgt von 100 Nullen. Der Begriff
wurde von Milton Sirotta, einem Neffen des amerikanischen Mathematikers Edward
Kasner, erfunden und in dem Buch "Mathematics and the Imagination" von Kasner und
James Newman verbreitet. Googles Wortspiel mit dem Begriff spiegelt das Ziel des
Unternehmens wider, die gewaltige Menge an Informationen zu organisieren, die im Web
verfügbar ist.
Die zweite Idee bestand in der besonderen Art, wie man die Wertigkeit einer Webseite
bestimmt (die Methode wird geheim gehalten). Dazu gehörte auch, dass diejenigen
Firmen, die an Google eine bestimmte Summe Geld bezahlen, bei den Ergebnissen einer
Suche an erster Stelle oder in einer Spalte "Anzeigen" erscheinen.
Wie oft in der Geschichte von Wissenschaft und Technik, äußerten im Jahre 1998 die
großen Internetfirmen jedoch kein Interesse an der entwickelten Suchtechnologie.
Wie üblich gründeten daraufhin die Studenten Page und Brin am 7. September 1998 In
einer Garage eine Firma, die Google Inc.
Mit einem Startkapital von umgerechnet 810.000 Euro (aufgebracht von den Familien,
Freunden) gingen sie mit der ersten Testversion des Programms an den Start. Fünf
Monate später bezog Google mit acht Angestellten ein Büro in Palo Alto.
Etwa 500.000 Suchanfragen wurden nun täglich verzeichnet. Nachdem seit September
1999 die Firmen AOL und Netscape mit Google zusammenarbeiten, versechsfachten sich
die Suchanfragen. Am 21. September 1999 wurde offiziell die Testphase Googles beendet.
13. Vordergrund ab 1990
Im Frühjahr 1990 fuhr ich das erste Mal zur Hannover-Messe. Die geballte Zurschaustellung
des Weltwissens auf dem Gebiet der Informationstechnik war beeindruckend. Unser Kampf
um den Anschluss an das Weltniveau bei ungleichen Ressourcen kam mir angesichts des hier
gezeigten mächtigen Potentials nachträglich tollkühn vor.
An einem Messestand mit UNIX-Produkten wurde ich gefragt, woher ich denn als
Ostdeutscher das Betriebssystem UNIX kannte. Als ich antwortete, dass bei uns UNIX auf
dem einheimisch produzierten P8000 läuft, erntete ich Erstaunen.
Wenige Zeit später bat mich der amtierende Chef des Instituts für Mechanisierung und
Automatisierung der Truppenführung (IMAT) der NVA Oberst Dr.-Ing. Beyer ihn bei der
Beschaffung der SCO-UNIX-Software zu unterstützen. Das IMAT hatte sich mit Geldern des
MfMV einen i386 PC beschafft, installierte SCO-UNIX und lud in die dort enthaltene ingres-
Datenbank die auf den ESER-Rechnern des Instituts generierten militärischen Datenbanken.
Die Evaluierungskommission der Bundeswehr war erstaunt, dass hier etwas lief, was in den
vergleichbaren Organen der Bundeswehr noch nicht auf der Tagesordnung stand.
13.1 Der erste eigene UNIX-Rechner
Mit der Währungsreform am 1. Juli 1990 standen auch mir im bescheidenen Umfang D-Mark
zur Verfügung.
Am 1.10.1990 kaufte ich bei der Firma aXent einen UNIX-PC 386/25, ausgerüstet mit dem
Betriebssystem SCO-UNIX, für 6.978 DM.
Mit 25 MHz Taktfrequenz, 4 MByte Memory und einer SCSI Harddisk von 170 MB steht er
heute bei mir im Museum.
Nun konnte ich alles das, was ich bisher über UNIX und das Betriebssystem
X-Windows nur gelesen hatte, zu Hause ausprobieren.
Die Maschine war zwar für heutige Verhältnisse lächerlich langsam und swappte sich in
einigen Programmzyklen „zu Tode" (swappen ist Auslagerung von Programmdateien), aber
das Ganze war eine neue Welt.
Da viele DDR-Betriebe und Institutionen nach der Wende aufgelöst wurden, bildeten sich im
Gegenzug Weiterbildungseinrichtungen, die einen Teil der freigesetzten Arbeiter und
Ingenieure für neue Tätigkeiten qualifizieren sollten.
Ein Freund meines Sohnes machte mich aufmerksam, dass eine aus dem Institut für
Nachrichtentechnik hervorgegangene derartige Einrichtung Lektoren auf dem UNIX-Gebiet
suchte. Ich stellte mich beim Geschäftsführer Herrn Dipl.-Ing. Scrobotz vor und wurde als
Dozent angenommen. Damit begann mein zweites Leben als Freiberufler.
13.2 Die .course GmbH
Die technische Ausrüstung unserer Firma bestand zum Einen in einer Klasse mit vernetzten
P8000, in der wir über 12 Terminalarbeitsplätze verfügten.
In einer zweiten Klasse standen 16 PCs, auf denen die Software für X-Terminals lief und die
über ein Ethernet mit zwei UNIX-Servern unter SCO-UNIX verbunden waren.
Die Firma stellte sich die Aufgabe, die Schüler neben UNIX noch in ISDN zu unterrichten.
Zunächst musste unsere Einrichtung noch juristisch fixiert werden. Dazu gründeten wir am
01.07.1991 die .course GmbH bei der ich Mitbegründer und Gesellschafter war.
Es gelang mir als UNIX-Dozenten einen ehemaligen Mitarbeiter der ZfN, Dipl.-Ing. Deistler,
zu gewinnen. Den Unterricht in der höheren Programmiersprache C übernahm Dr.-Ing. J.P.
Bell von der Humboldt Universität als Gastdozent.
Der Unterricht in ISDN wurde durch den Gastdozenten Dipl.-Ing. Ullrich bestritten, den
ehemaligen Leiter der Arbeitsgruppe, die in der ZfN die kleine Fernzentrale entwickelt hatte.
Für eigene ISDN-Technik fehlte es unserer GmbH jedoch an Geld.
Herrn Scrobotz gelang es, mit dem Chef der TELES-GmbH Professor Schindler (Vergl.
Abschnitt 12.8.1) Verbindung aufzunehmen. Bei einem von unserer Firma veranstalteten
Workshop übernahm Professor Schindler das Hauptreferat und unterbreitete seine visionären
Vorstellungen über die Entwicklungen im ISDN.
Die am Anfang der jungen Firma übergebenen Fördermittel waren bald erschöpft. Die vom
Arbeitsamt bezahlten Beiträge für die Schulungsteilnehmer reichten nicht aus, das ständig
wachsende Defizit auszufüllen, und so ging die .course GmbH am 16.11. 1993 in Konkurs.
Das war meine erste Begegnung mit der Marktwirtschaft, die mich an Erfahrung reicher und
an Geld ärmer machte.
13.3 ISDN-Ausbildung im a&d-Schulungszentrum
Der VEB Stern-Radio Berlin, DDR-Alleinhersteller tragbarer Rundfunkgeräte, wurde 1990 als
Teil des gleichnamigen Kombinats 1990 abgewickelt.
Auch aus diesem Betrieb gründeten Mitarbeiter Weiterbildungsfirmen. Einer der Akteure, die
die Adlatus-GmbH ins Leben riefen, war Dipl.-Ing. Krüger.
Durch den Konkurs der .course GmbH arbeitslos geworden, ließ ich mich durch Adlatus als
Gastdozent anwerben und übernahm den Unterricht in ISDN und UNIX.
Wie in Abschnitt 12.8.1 erwähnt, vertrieb die Firma TELES die TELES iPBX, die im
Debugmodus die Kommunikation der Teilnehmer auf den Signal(D)-Kanälen der Teilnehmer
aufschrieb. Unter Verwendung der Recommentation ITU-T (INTERNATIONAL
TELECOMMUNICATION UNION) Q.931 entschlüsselte ich die Hex-Strings, die in der
Kommunikation zwischen den ISDN-Teilnehmern auftraten zunächst „zu Fuß" und gewann
so grundsätzliche Einsichten in die Funktion des ISDN.
Bild 56: Ausschnitt aus der Textdatei der TELES-iPBX im Debugmodus
Diese in Bild 56 gezeigten Trace-Zeilen der iPBX haben die in Bild 57 dargestellte
-----[ 4 ]---[ R ]---[ 13:13:28 ]-------------------------------------- r[3]: 00 81 00 00 41 01 09 05 9e 01 02 01 01 6c 02 80 30
00 SAPI=0 C/R=0 E/A=0 81 TEI=64
00 I-B N=0 00: N(R)=0 P=0 41 1TR6, PD=4101 CRL=1 09: CRV=9 sent from the side that originates the call reference 05 SETUP 01 ---> SIN, service indicator 02 length=2 01 Fernsprechen 01 ISDN telephony 3,1 kHz6c ---> OAD origination address 02 length=2 80 Type of address: unknown, numbering plan unknown 30 0
-----[ 5 ]---[ S ]---[ 13:13:28 ]-------------------------------------- s[3]: 00 81 01 02
00 SAPI=0 C/R=0 E/A=0 81 TEI=64
01 RR 02: N(R)=1 P/F=0.
-----[ 6 ]---[ S ]---[ 13:13:28 ]-------------------------------------- s[3]: 02 81 00 02 41 01 89 0d 18 01 89
02 SAPI=0 C/R=1 E/A=0 81 TEI=64
00 I-B N=0 02: N(R)=1 P=0 41 1TR6, PD=4101 CRL=1 89: CRV=9 sent to the side that originates the call reference0d SETUP ACKnowledge 18 ---> CHI, channel identification01 length=1 89 only B1-channel is acceptable
Bild 57: Übersetzung der in Bild 56 dargestellten Rohtracezeilen
Mir wurde klar, dass das Verständnis der Kommunikation auf dem D-Kanal gleichbedeutend
mit dem Verständnis der Wirkungsweise des ISDN ist.
Es gab da aber ein Problem. Sowohl die ITU als auch das ETSI (European Telecommunication
Standard Institute) pflegen ihre Standards sehr detailliert zu gliedern.
Sobald man beginnt einen Standard durchzuarbeiten, trifft man auf einen Verweis auf einen
zweiten, dritten Standard und so weiter.
Es gab aber einen Glücksfall. Zu Beginn der ISDN-Einführung standen alle ISDN-
Recommendations der ITU auf dem Gopherserver des Instituts in Genf gratis zur Verfügung.
Aus der Gopher-Wikipedia erfährt man:
Gopher ähnelt dem frühen World Wide Web (WWW) und wurde 1991 an der Universität von Minnesota, unter der Leitung von Mark P. McCahill, entwickelt. Die Standardportnummer ist 70.
Die Überlegung, die zu Gopher führte, war die umständliche Handhabung des Protokolls FTP, bei dem man sich einloggen und über Konsolenbefehle in Verzeichnisse wechseln musste, um die gewünschte Datei zu finden und herunterladen zu können. Zudem wollte man ein einfach zu administrierendes Informationssystem schaffen, das wenig Ressourcen benötigt.
Der ISDN-Papst der Hochschule Mittweida war Professor Dr. sc. techn. Winkler, den ich
noch aus unserem gemeinsamen Kampf für eine kleine digitale Nebenstelle kannte. Prof.
Winkler gab mir nicht nur zahlreiche nützliche Hinweise für die Handhabe des ISDN,
sondern holte mir auch die erforderlichen Vorschriften vom Gopherserver der ITU.
Selbst hatte ich zwar eine Modemverbindung zur Humboldt Universität über die ich E-Mails
senden und empfangen konnte, aber mit der ich damals noch nicht in der Lage war auf das
Internet zuzugreifen. Daher bat ich Prof. Winkler regelmäßig die neu in mein Blickfeld
tretenden ITU-Vorschriften herunterzuladen . Irgendwann versiegte die Quelle Anfang der
90er Jahre, da die ITU diesen kostenlosen Dienst einstellte. Ich musste versuchen, die ISDN-
Recommendationen des ETSI aus anderen Quellen zu erhalten.
Für die Lehre war die „Aus den Kopf"-Übersetzung der D-Kanal-Strings nicht gut geeignet.
Daher bat ich meinen Enkel Sebastian Göller, der damals Abiturient war, einen Übersetzer
zu schreiben, der eine Rohtracedatei offline nach der in Bild 57 dargestellten Art übersetzt.
Das in PASCAL geschriebene Programm nannten wir TELESTrace.
Die Adlatus-GmbH hatte inzwischen einen neuen Chef, den Diplom-Forstingenieur Volker
Westphal. Dipl.-Forstingenieur Westphal besaß (neben seiner Vorliebe für die Jagd) ein
ausgeprägtes Verständnis für Technische Prozesse, war ein guter Organisator und hatte gute
Fähigkeiten Menschen zu führen.
Als eine andere Firma einen Prozess um den Namen Adlatus führen wollte, änderte die
Leitung den Namen der GmbH in analoges & digitales Schulungszentrum.
Das a&d Schulungszentrum wurde 1994 öffentlich vorgestellt. Der Geschäftsführer verstand
es, in Zusammenarbeit mit dem Arbeitsamt zahlreiche anspruchsvolle Lehrgänge sowohl für
Facharbeiter als auch für Ingenieure zu organisieren. Da die bei uns ausgebildeten
Lehrgangsteilnehmer gut wieder in den Arbeitsprozess eingegliedert werden konnten, wurde
a&d gut vom Arbeitsamt unterstützt.
Erstaunlicherweise vertraten einige Führungskräfte der TELEKOM in Berlin die Ansicht, dass
die technischen Mitarbeiter der TELEKOM den ISDN-D-Kanal nicht in aller Tiefe verstehen,
sondern nur das ISDN-Prüftelefon PrTel 93i handhaben können müssen. Es zeigte sich aber,
dass Ingenieure und Techniker der TELEKOM gegenüber D-Kanal Schulungen sehr
aufgeschlossen waren.
Da die TELES.i.PBX aus einem alten PC und einer mit den PCM-Komponenten bestückten
Leiterkarte zusammengebaut werden konnte, war diese Tracetool preisgünstig zu beschaffen
und für Unterricht über den ISDN-D-Kanal gut verwendbar.
Einen bestehenden ISDN-Bus monitoren, d.h. in den Kanal hineinschauen konnte man damit
aber nicht, weil die Hardware aus dem ISDN-Bus nur den Rückkanal entnehmen konnte.
Einer der ersten kommerziellen D-Kanal-Analysatoren für diesen Zweck war der IBT10 von
Wandel und Goldermann, der dem Autor Ende der 90er als erstes zur Verfügung stand. In
Bild 58 ist der Ausschnitt aus einem Trace dieses Gerätes dargestellt.
Wie man sieht ist das keine detaillierte D-Kanal-Information, sonder wieder nur eine
Information nach dem Motto: Mehr brauchen unsere Techniker nicht zu wissen.
Bild 58: Ausschnitt aus einem 1999 mit einem IBT10 aufgenommenen Trace
Die ETS-gerechte Übersetzung des in Bild 58 dargestellten IBT10-Traces erfolgte mit dem von
Sebastian modifizierten TELESTrace . Aus wirtschaftlichen Gründen wurden für Lehrzwecke
jedoch keine kommerziellen D-Kanal Analysatoren mehr betrachtet.
Im Jahr 1999 bestand eine leistungsfähige, zum Monitoren des ISDN-Busses geeignete
Hardware aus dem TelesTraceBoard, das mit einem Notebook und dem von Sebastian Göller
geschriebenen Übersetzer ALZView als D-Kanal-Analysator in großen Stückzahlen nach
Korea verkauft wurde.
Bild 59: Ausschnitt aus einem Rohtrace, gefangen mit TelesTraceBoard und CAPI 3.34
Die Koreanische Telekom hatte verlangt, dass der aufgezeichnete Trace streng ETSI-Konform
übersetzt wird.
Bild 60: ETS-gerechte Übersetzung der ersten 16 Oktette der Zeile 5 in Bild 59
Eine Übersetzung der ersten 16 Oktette der Zeile 5 des in Bild 59 dargestellten Rohtrace mit
ALZView ist in Bild 60 dargestellt. Man erkennt, das die bitgenaue Übersetzung des Traces
mehr Einsichten in die Kodierung des D-Kanals bietet als die in Bild 57 dargestellte
Leider wurde die Treiber-Software der CAPI 3.34 von der Firma TELES nicht weiterentwickelt.
Auch die Produktion der Hardware (der TELES PCMCIA 2.0) wurde eingestellt.
Darauf wurde die TELES.iLCR-2S0-Box als Tracetool eingesetzt. Leider stand auch diese
Hardware nicht lange zur Verfügung.
Das Problem beim Tracen des D-Kanals mit einer S0-Karte besteht im Aufzeichnen der
Sende- und der Empfangsrichtung. Zur Erklärung muss auf die Rolle des in Bild 46
eingezeichneten Echobits eingegangen werden.
Vor dem Senden muss jedes Endgerät prüfen, ob der D-Kanal frei ist. Das geschieht durch
„Hineinhorchen" in den Bus. Jedes Endgerät muss, bevor es den Kanal als frei betrachten
darf, eine bestimmte Anzahl von logischen „1" lesen. Ein Fernsprechgerät darf z.B. nach
Erkennung von 8 aufeinanderfolgenden logischen „1" auf den D-Kanal zugreifen. Beim
Senden vergleichen die Endgeräte ständig das gesendete D-Bit mit dem dazugehörenden
Beginnen zwei Endgeräte gleichzeitig mit dem Senden, so erkennt dasjenige Gerät, das eine
logische „1" während das andere eine logische „0" sendet, dass es nicht allein den Bus
belegt. Es muss folglich sofort die Sendung stoppen und wieder auf das Freikriterium (z.B. 8x
logisch „1") warten.
Das Abgreifen der Bitfolge des Echobits gestattet somit den Bitstrom des D-Kanals in der
Empfangsrichtung aufzuzeichnen. Man kann nun eine „Eisenbarth-Methode" anwenden und
eine zweite ISDN-Karte anschließen, bei der man die Sende- und Empfangsrichtung auf den
S0-Bus vertauscht. Diese Karte dient dann nur dazu die Senderichtung auf dem D-Kanal zu
monitoren. Die Methode wurde von Alexander Kool erstmals vorgeschlagen.
Die oben angeführte TELES PCMCIA 2.0 besitzt (wie TELES 16.03) einen sog. Cologne Chip
mit integriertem S/T und Up in einem Basic Rate ISDN tranceiver, kann also beide
Richtungen des D-Kanals aufzeichnen.
Nach dem Rückzug der Firma Teles aus dem ISDN-Geschäft wurde eine AROWANA- ISDN-
Karte mit HFC-CHIP unter LINUX zum Traces verwendet. Die AROWANA -Karten werden
auch nicht mehr produziert.
In den 90er Jahren bestand in der Berufsausbildung der Fernmeldetechniker in Deutschland
ein großer Bedarf an Lehrmaterial. Der Leiter des EPV Elektronik-Praktiker-Verlages Helmut
Exner schlug mir vor, ein Lehrbüchlein über ISDN zu schreiben. Diesem Angebot folgend
schrieb ich in der ISDN-Praxis-Reihe den Titel „Der ISDN-D-Kanal im Dialog". Das
Büchlein wurde vom Narosa Verlag in Neu Delhi ins Englische übersetzt und auf Initiative
vom Leiter der Firma Onsoft Herrn Gökbullut ins Türkische.
Herr Krüger hatte die Idee den von Sebastian Göller entwickelten Übersetzer für die Trace
der TELS-iPBX in einem Lehrgerätesatz zu vermarkten. Der Gerätesatz wurde EPWE-
Trace genannt und bestand aus einem PC mit eingebauter Teles IPBX-Karte.
Bild 61: Lehrgerätesatz EPWE-Trace
Herr Dipl.-Ing Haase hatte dafür eine benutzerfreundliche Bedienoberfläche programmiert.
Der Gerätesatz hatte einen Nachteil. Da die Teles-IPBX nicht mit Dienstmerkmalen wie
Rufumleitung, Rückruf bei besetzt, Dreierkonferenz, Konferenzverbindung u.s.w. umgehen
konnte, waren diese auch nicht lehr- und trainierbar.
13.4 ISDN-Anwendung in der Bauakademie
Die Gesellschaft für Informatik der DDR GIDDR war wie die Gesellschaft für Informatik der
Bundesrepublik eine Einrichtung, die Informatik in Forschung, Lehre und Anwendung sowie
die Weiterbildung auf diesem Gebiet fördert.
Im Vorstand der GIDDR spielte ich die Rolle eines Vertreters der NVA und saß in diesem
Gremium gemeinsam mit Professor Elsner, den Direktor der Bauakademie in der DDR. Da
wir zu vielen Tagesordnungspunkten oft sehr ähnliche Standpunkte vertraten, hatten wir, wie
man zu sagen pflegt, einen gemeinsamen Draht.
Nach der Wende gelang es Professor Elsner die Bauakademie im großen Stil zur BEW der
„Bauakademie, EDV-Kompetenz- und Weiterbildungszentrum GmbH" zu wandeln.
Anfang der 90er Jahre bei einem Besuch in der Bauakademie zeigten mir Professor Elsner
und sein Stellvertreter Dr.-Ing. Runge die Lehrbasis der Firma, von der mich vor allem zwei
Lehrklassen mit HP-Workstations unter dem Betriebssystem HP-UX begeisterten. Der Grund
für diese Hightech. Konzentration bestand darin, dass speedikon die zu dieser Zeit
leistungsfähigste Facility Management Software im Bauwesen nur unter Unix mit graphischer
Oberfläche, also X-Windows betrieben werden konnte.
Mit speedikon war es z.B. möglich die Außenansichten von Häusern zu zeichnen und dem
System die Aufgabe zu stellen diese zu einem vollständigen Gebäude zusammenzusetzen.
Die Bauakademie hatte vom Berliner Senat die Aufgabe erhalten das historische
Stadtzentrum von Berlin im Computer zu rekonstruieren. Zu diesem Zweck hatte die
Bauakademie Arbeitsräume in der Friedrichstraße gemietet, in denen mehrere Arbeitsplätze
mit speedikon Arbeitsstationen aufgestellt waren, an denen nach alten Stadtansichten Häuser
konstruiert wurden.
Das Problem war, dass die Arbeitsplätze im Zentrum und im Stammsitz der BEW in
Weißensee offline miteinander arbeiteten. Die Firma, die Dr.-Ing. Runge unter Vertrag hatte
eine Rechnerkopplung der beiden Arbeitszentren über das Fernmeldenetz herzustellen,
meldete Insolvenz an.
Da mich die Aufgabe zwei X-Windows-Netze über das ISDN zu koppeln, interessierte, bot
ich mich an, den Auftrag zu übernehmen.
Die Kopplung der beiden Rechner Netze über ISDN funktionierte. Der Datendurchsatz des
ISDN-Kanals war aber gemessen an den großen anfallenden Datenmengen zu gering, sodass
der Bildaufbau auf der fernen Arbeitsstation zu schleppend erfolgte.
In Auswertung der Erfahrungen mit der Netzkopplung über einen ISDN-Basisanschluss
schmiedete Dr. Runge eine neue Kooperation. Er versicherte sich der Mitarbeit der Telekom
und der Technischen Fachhochschule Berlin beim Aufbau einer ISDN-S2m-Verbindung
zwischen zwei Unix-Rechnernetzen. Die Telekom hatte zwei S2m-router der Fa. Siemens
geordert, die ich zunächst mit Herrn Emmerich, einen BEW-Mitarbeiter, der schon bei
Netzkopplung über einen ISDN-Kanal dabei war, untersuchte.
Entgegen den Vorstellungen von Dr. Runge, der das gesamte Konzept unter der Ägide der
Telekom sehen wollte, begann ich als erstes die Eigenschaften der Router zu untersuchen.
Nach dem Motto „Messen ist Wissen" erhöhte ich an der ISDN-Verbindung die Anzahl der
zugeschalteten Kanäle und prüfte den Datendurchsatz. Zu meinem großen Erstaunen stellte
ich fest, dass der Datendurchsatz in Abhängigkeit von der Anzahl der verwendeten Kanäle
nicht ständig stieg, sondern ab etwa 10 Kanälen wieder abnahm.
Nun hatte ich bei der Firma TELES bereits einen S2m-Router in Funktion gesehen. Dort stieg
der Datendurchsatz zwar nicht linear aber zumindest stetig mit wachsender Kanalzahl.
Dr. Runge forderte von der Telekom auf dem Dienstweg eine Erklärung des Ergebnisses,
worauf ein Mitarbeiter von Siemens erschien und theoretisch nachweisen wollte, dass das
Ergebnis theoretisch erklärbar sei.
Aufgrund einer Beschwerde von Dr. Runge bei der Führung der Telekom in Bonn, ordnete
diese eine Erprobung mehrerer Typen von Routern im Labor derTelekom in der
Oranienburger Strasse an.
Leiter der Erprobung war Dipl.-Ing. Ziebart. Neben Siemens und Bintec-Routern war auch
ein Vertreter der Firma Bayes aus Kalifornien mit einem S2m-router anwesend.
Wie erwartet zeigte der Siemens-Router seine Anomalität, der Bintec-Router brach
unerwartet zusammen, aber der Bayes-Router überzeugte durch einen fast linearen
Zusammenhang zwischen Zahl der S0-Kanäle und Datendurchsatz.
Auf die Frage seines Vorgesetzten, warum er für die Aufgabe den Siemens Router ausgewählt
habe, antwortete Herr Ziebart, dass er vorausgesetzt habe, dass Siemens eine Weltfirma sei.
13.5 ISDN-Anwendungen in der Rohde & Schwarz SIT GmbH
Zum Verständnis der folgenden Geschichte muss ich beim geschätzten Leser etwas
13.5.1 Vorgeschichte 1
Dem Ministerium für Staatssicherheit unterstand ein Institut, das sich mit der Geheimhaltung
auf Fernmeldeverbindungen beschäftigte. Dieses Zentral Chiffrierorgan (ZCO) beschäftigte
eine Reihe ausgezeichneter Mathematiker und Ingenieure.
Mit dem Zusammenbruch der DDR wurde auch dieses Organ aufgelöst.
Die Geschäftsleitung der Firma Rhode und Schwarz (München) fing einen Teil der Fachleute
des ZCO auf und gründete mit ihnen in Berlin die Rohde & Schwarz SIT GmbH.
13.5.2 Vorgeschichte 2
Man erzählt sich: Zu den technischen Diensteinheiten des MfS gehörte eine Gruppe von
Ingenieuren, die sich mit der Technologie des ISDN beschäftigte und dabei insbesondere mit
Möglichkeiten, in fremde ISDN-Netze einzudringen. Angriffspunkt war die Vermittlung
Siemens HICOM 300. Man muss wissen, dass sich Software-Entwickler häufig in die von
ihnen entwickelten Programme „Türen" einbauen, damit sie beim Auftreten von Fehlern in
der sehr umfangreichen Software von Ferne auf die Maschine zugreifen und debuggen
können. (vergl. auch den amerikanischen Film „WarGames")
Die Aufklärung des MFS hatte nun offenbar diese Eigenschaft der HICOM 300 aufgespürt.
Nach der Wende setzte sich die genannt ISDN Gruppe nach Moskau ab.
Nach einiger Zeit kam der Leiter der Gruppe aus Russland zurück und bot der
Bundesrepublik seine Dienste an.
Nach Aufforderung führte er die Möglichkeit des Eindringens in eine ihm nicht vorher
bekannte Anlage vor.
Die beteiligten Bundesdeutschen Beamten waren beeindruckt und dachten über die
Abschöpfung dieses Know-how nach, bis auf einen, der gegen den Vorführer Strafanzeige
erstattete.
Der Vorführer erfuhr von der Anzeige und setzte sich in die USA ab, wo er willkommen
geheißen wurde.
Seit dieser Vorführung bestanden bei den Sicherheitsexperten Zweifel an der Sicherheit im
ISDN. Ich bin mir sicher, dass die Firma Siemens die Tür in der Software der HICOM 300
sofort verschlossen hat.
13.5.3 Vorgeschichte 3
Nach der Verabschiedung des Berlin/Bonn-Gesetzes am 26. April 1994 war klar, dass
sich zwischen Berlin und Bonn eine rege Telefon- und Fax- Kommunikation über das ISDN
entwickeln würde.
Das Bundesamt für Sicherheit in der Informationstechnik BSI erteilte daher der R&S SIT
GmbH den Auftrag, einen ISDN-Filter zu entwickeln, mit dem man vor einer ISDN-
Vermittlung beliebige Signale absperren kann.
Bei der SIT wurde eine Arbeitsgruppe unter der Leitung von Herrn Diplom-Mathematiker
Hornauer gebildet, die diesen Filter entwickeln sollte. Bei der Suche nach Literatur fiel Herrn
Hornauer mein Büchlein „Der ISDN-D-Kanal im Dialog" in die Hände.
Nach einer Besprechung mit der Geschäftsleitung der SIT erklärte ich mich bereit, eine
Studie, über die Bedrohung von Nebenstellenanlagen im ISDN zu verfassen und bei der
Entwicklung des Filters konsultativ mitzuarbeiten.
13.5.4 Die Hauptgeschichte
Laut Vertrag legte ich eine umfangreiche Studie über die Bedrohung von
Nebenstellenanlagen im ISDN vor. Darin wurde.
- Die Rolle des Netzes bei der Manipulierung von D-Kanal-Strings
- Die Rolle von Stimulusprotokollen im ISDN
- Die Manipulation von D-Kanal-Informationen am T oder am coincidenten S/T
beschrieben. Zu allen Punkten wurden ausführliche Tracebeispiele mitgeliefert.
Da der Filter im Prinzip einen großen Traceübersetzer mit mehreren Ausgängen und
unterschiedlichen Reaktionen pro Ausgang darstellt, wurden die Quellen des von Sebastian
Göller geschriebenen Traceübersetzungsprogramms an SIT verkauft.
In der Studie konnten 4 Sicherheitslücken abgeleitet werden, die sich allerdings bei
geeigneter Sorgfalt bei der Einrichtung und Programmierung von Anlagen schließen lassen.
Das Eindringen in TK-Anlagen setzt demnach immer einen Innentäter voraus. Genau wie bei
der Bedrohung von Rechenanlagen muss auch in die „Rechenanlage Vermittlung" ein
Trojaner eingeschleust werden.
Zur Stimulierung des Trojaners stehen solche Informationen im D-Kanal zur Verfügung, die
vom Netz unverändert an die Gegenseite durchgereicht werden.
Ein solches Element das vom Netz an die Gegenstelle durchgereicht wird ist in der SETUP
Meldung das Informationselement „High Layer Compatibility" Es dient dazu, dem
Kommunikationspartner mitzuteilen, welche Leistungsmerkmale das angesprochene Endgerät
besitzen muss, damit die Kommunikation zustande kommt.
Wird auf der Gegenseite z.B. ein ISDN-Telefon erwartet, so muss die Oktettfolge
HLC Informationselement
übertragen werden.
Soll ein Faxgerät angesprochen werden, so ist die Zeichenfolge
HLC Informationselement
Das Informationselement HLC gestattet nach der CCITT Recommendation aber auch als
zweites Oktett (nach 7D) das Oktett F1 „Eigendefinition" zu übermitteln.
In der Vermittlung oder am S0-Bus muss jetzt durch den Trojaner eine Softwareschleife
aktiviert werden, die als „Eigendefinition" eine feindliche Handlung ausführt.
Zur Demonstration hatte ich auf meinem Laptop ein Beispiel programmiert, in dem ein
Anrufer im IE HLC die Kennung F1 und danach AA sendet, was der Trojaner als „Aktiviere
Rufumleitung zu einer anderen Rufnummer" deutet. Das darauf gesendete Fax wurde an die
falsche Rufnummer gesendet. Das darauf gesendete IE mit der Kennung F1 BB veranlasste
den Trojaner, die selektive Rufumleitung zurückzunehmen.
Bei Vorträgen über den ISDN-Filter im Rhode & Schwarz Schulungszentrum München wurde
dieses Szenario stets vorgeführt und gezeigt, dass bei Einsatz des Filters die Information des
Trojaners abgeblockt werden konnte.
Mitarbeiter von SIT verlangten immer wieder von mir, dass ich Beispiele bringe, bei denen
tatsächlich trojanerverseuchte Vermittlungen vom Filter geschützt werden. Da ich diese
Beispiele nicht bringen konnte und den aus Anlass einer Schulung von Teilnehmern
vorgebrachten Kritiken an der Filterphilosophie nicht energisch genug entgegentrat, beendete
die SIT die Zusammenarbeit mit mir.
13.6 Was sonst noch passierte
Wie im Abschnitt 13.3 beschrieben gab es in der ISDN-Ausbildung das Problem, dass das
Hineinschauen in den D-Kanal an eine spezielle Hardware gebunden war. Wer es sich
leisten konnte, war in der Lage sich einen ISDN-Tester der Marke IBT10, Pegasus oder
Ähnliches zu beschaffen. Lösungen mit speziellen ISDN-Karten wie die TELES/S0 16.3 oder
dieTELES/PCMCIA waren wie oben beschrieben nicht lange auf dem Markt.
Da wurde in der Firma Shamrock Software GmbH die Idee geboren, in die CAPI der ISDN-
Karten von AVM vor allem der Fritz!Karte hineinzugreifen und das Geschehen auf dem D-
Kanal zu monitoren.
Damit konnte man sich zwar nicht auf einen beliebigen ISDN-Bus setzen, aber es war
möglich, den D-Kanal-Verkehr aller Fritz!Clienten aufzuzeichnen. Es war freundlich diese
Software als Freeware mit Namen CapiDog zum Download von der Shamrock Webseite
62: Erscheinungsbild des Clienten CapiDog der Fa. Shamrock
Beim Klicken auf das Vergrößerungsglas wurde ein Trace aufgezeichnet wie in Bild 63
Bild 63: D-Kanal-Trace mit CapiDog aufgezeichnet.
Für Zwecke der Fehlersuche war die Darstellung in Bild 63 oft ausreichend, für die Lehre
waren die mit dem Übersetzer ISDNView von Sebastian Göller gewonnenen Darstellungen
der Trace (BILD 64) besser geeignet.
Für Schulungszwecke arbeitete ich PowerPoint Präsentationen z.B. für die ISDN-Schulung
aus. Mit freundlicher Genehmigung der Shamrock GmbH verwendete ich dort CapiDog in
Übungen, bei denen live D-Kanal Trace vorgeführt werden konnten.
Bild 64: CapiDog-Trace übersetzt mit ISDNView von Sebastian Göller.
Bild 65: Erste Folien einer Powerpoint Präsentation, die vom EPV-Verlag vertrieben wird
Aus der Zusammenarbeit mit der Firma onsoft technologies ging hingegen das Trace
Werkzeug W@tchUSB hervor.
Bild 66: Die streichholzschachtelgroße Hardware des W@tchUSB
Die preisgünstige, handliche und universell einsatzbare Analysehardware besteht im Gerät
W@tchUSB der Firma innoventif (Bild 66). Darstellung der gefangenen Rohtrace und
Übersetzung derselben erfolgt über das Programm wTrace der Firma Onsoft mit
Bild 67: WTrace-Fenster des Programms W@tchUSB
OnsoftView, programmiert von Dipl.-Ing. Goekbullut oder mit dem bereits erwähnten
ISDNView von Sebastian Göller.
Ein Tracen am S2m-Anschluss ist mit dem W@tchUSB-E1 möglich. Das Tool wird wie der
W@tchUSB mit einem USB-Kabel mit dem PC verbunden. Das Programm Wtrace übernimmt
die Aufzeichnung der Hexadezimal- Rahmen (Bild 67). ISDNView gestattet alternativ zu
OnsoftView die Trace des jeweiligen Kanals zu übersetzen.Klicken des Diskettensymbols
führt zur Speicherung der in wTrace aufgeführten Rahmen in der Datei Trace.alz. Klicken von
Dekodieren öffnet OnsoftView oder ISDNView mit der übersetzten Datei Trace.alz. Klicken
des „Zauberstabes" löscht den Inhalt des wTracefensters.
14. Hintergrund ab 2000
14.1 ISDN
Es gibt in Deutschland zahlreiche Anbieter für ISDN-Geräte und Komponenten. Da der Autor wegen der territorialen Nähe zu Berlin vor allem mit TELES- und AVM- Produkten gearbeitet hat, soll der Focus auch im neuen Jahrtausend auf diese Produkte begrenzt bleiben.
14.1.1 tevitel
Da die Firma TELES aus dem ISDN Kerngeschäft ausgestiegen war, bildeten freigesetzte
Mitarbeiter von TELES neue Firmen. Die bekannteste und innovativste dürfte die tevitel
telecommunications AG Berlin sein. Tevitel hatte nicht nur Mitarbeiter von TELES
integriert, sondern auch know how, Software und Hardware übernommen.
Ein Spitzenprodukt von tevitel ist die TEVITEL.IPBX. Bei dieser Vermittlung hatte nur der
Name eine Ähnlichkeit mit der TELES-iPBX. Die tevitel Anlage beherrschte alle im ISDN
üblichen Protokolle und war äußerst flexibel sowohl in Bezug auf Teilnehmer als auch auf
Anschlusszahl sowie Dienste.
14.1.2 AVM
Die Firma AVM erweiterte ihre Marktpräsenz sicher auch wegen des Wegfalls des
Konkurrenten TELES, vor allem aber aufgrund ihrer innovativen Produkte. Die
FRITZ!Card (PCI), NetWAYS/ISDN und der ISDN-Controller B1 (PCI v4.0 ) waren schon
aus den 90er Jahren bekannt. Infolge der Zunahme von USB-Ports an den Computern spielte die FRITZ!Card (USB) eine immer größere Rolle, wenn man Z.B. mit einem Laptop ins ISDN gehen wollte. FRITZ!Produkte, mit denen man ein WirelessLan aufbauen oder benutzen kann, sind marktführend. Dazu gehören FRITZ!Fon, der FRITZ!WLAN USB Stick, ein FRITZ!WLAN Repeater
und last not least die FRITZ!Box
(Bild 68).
Bild 68: FRITZ!Box Fon WLAN 7390
14.2.1 GSM
Im Jahre 2000 existierten 357 GSM-Netze mit 311 Millionen Teilnehmern in 133 Ländern.
Man sah immer mehr Menschen, die auf der Straße und auch in geschlossenen Räumen
telefonieren. Jugendliche und Kinder kommunizieren insbesondere mittels SMS.
In fernmeldetechnisch wenig erschlossenen Ländern (Afrika) ist GSM ein Mittel, um überhaupt eine Fernmeldetechnische Infrastruktur aufzubauen. Es muss jedoch berücksichtigt werden, dass ein Mobile nur verwendet werden kann, wenn es weniger als 35 KM von der BTS entfernt ist. Das liegt an der endlichen Ausbreitungsgeschwindigkeit der Funkwellen.
Über GSM können natürlich auch Daten übertragen werden. Die erreichbare Geschwindigkeit von 9,6 KBit /sec ist gemessen an den heute üblichen Übertragungs-raten langsam.
14.2.2 GPRS
Zur Erhöhung der Übertragungsraten im Mobilfunk wurde das GSM Netz zum General
Packet Radio System GPRS erweitert (Bild 69).
Bild 69: Blockschaltbild des mit GPRS Komponenten erweiterten GSM-Netzes.
Die in Bild 69 eingezeichneten neuen Komponenten im GSM Netz sind,- eine Packet Control Unit (PCU) - ein Serving GPRS Support Node (SGSN) - ein Gateway GPRS Support Node (GGSN)
Wie im Bild 69 gezeigt ist, bleiben die BSS-Komponenten BTS, BSC und TRAU (Bild 49)unverändert. Jedoch wird dem Base Station Controller BSC eine Packet Control Unit (PCU) zugeordnet, die die Paketdaten in PCU-Rahmen konvertiert.
Die PCU-Rahmen gleichen im Format den TRAU- Rahmen (320 Bit/20ms). Der Serving GPRS Support Node (SGSN) übernimmt die Vermittlung der Datenpakete und die Funktion des Visitor Location Register VLR. Der Gateway GPRS Support Node (GGSN) ist der Router, der das Internet (oder das Paket Daten Netz) mit dem PLMN verbindet und die IP-Nummer zur Verfügung stellt.
Aus der GSM-Theorie geht hervor, dass immer 4 Bursts benötigt werden um einen Signalisations- oder Meldungsrahmen zu übertragen. Bei der Sprachübertragung oder der Signalisation nimmt man in Kauf, dass die Bursts einmal nicht unmittelbar hintereinander eintreffen.
Im GPRS wird zur Erhöhung der „Bearbeitungsgeschwindigkeit" der „Radioblock" eingeführt. Das heißt, es werden grundsätzlich 4 Bursts hintereinander einem Block zugeordnet.
Bild 70: Der Zeitschlitz 1 ist mit Radioblöcken belegt.r Mehrfachrahmen belegt.
In Bild 70 bilden die ockerfarbenen Zeitschlitze einen Radioblock. Der gelbe Zeitschlitz ist der Beginn eines weiteren Radioblocks. Die grünen Zeitschlitze sind Telefongesprächen zugeordnet.
Bild 71: Multislotklassen (Auszug)
Mit der Einführung von Radioblocks hat sich natürlich der Datendurchsatz gegenüber GSM noch nicht geändert. Eine Erhöhung der Datenrate lässt sich jedoch durch die Zuteilung mehrerer Zeitschlitze erreichen. Bild 71 zeigt einen Auszug aus Table B.1 der Vorschrift GSM 05.02. Der Auszug wurde auf Klasse 1 bis 10 beschränkt, da GPRS-Mobiles Klasse 10 zur Zeit State of the Art sind. Besitzt ein GPRS Mobile die Klasse 10, so können z.B. im Downlink vier Zeitschlitze zugeordnet werden und im Uplink einer. Damit steigt die Übertragungsrate auf etwa 36 kBit/sec.
Eine weitere Steigerung des Datendurchsatzes kann durch Verringerung der Datensicherheit erreicht werden. Man unterscheidet 4 Kodierschemata (Coding Sheme CS 1.4). Die normale Sicherheit wird beim CS 1 durch Vorwärtsfehlerkorrektur erreicht.
Die Sicherheitsmechanismen sollen an dieser Stelle nicht weiter erklärt werden. Mit CS 2 erreicht man (durch Ersatz der Fehlerkorrektur durch Fehlererkennung) einen Datendurchsatz von 12 kBit/s pro Zeitschlitz. Im CS 3 wird durch weitere Verringerung der Sicherheit eine Nettodatenrate von 14,4 kBit/s pro Zeitschlitz und im CS4 bei Wegfall der Sicherheit 20 kBit/sec erreicht.
Das Netzt ändert das Kodierschema in Abhängigkeit von der Störung auf dem Kanal, so dass man mit GPRS einen Datendurchsatz erzielt, der maximal den erreicht der auf einem ISDN-Kanal möglichen ist.
14.2.3 Enhanced Data rates for Global Evolution (EDGE)
Im GSM und GPRS werden in einem Zeitschlitz (im Normalburst) 156,25 Bit übertragen.
Das im GSM verwendete Übertragungsverfahren heißt Gaussian Minimum Shift Keying
GMSK. Es handelt sich um eine einfache Phasenumtastung, bei der sich 2 Symbole (A
und B) um 180 ° Phasenlage unterscheiden. Die physikalischen Details dieses Verfahrens
(Behandlung der Symbole) sollen hier nicht behandelt werden.
Die Idee von EDGE beruht darauf, das Modulationsverfahren zu ändern. Es wird nicht
zwischen 2 Phasen unterschieden, sondern zwischen 8 Phasen. Benachbarte Symbole,
A,B,C,D,E,F,G,H unterscheiden sich in der Phase um 45 °. Während beim GMSK die zwei
Zustände nur mit 0 oder 1 belegt werden können, sind den 8 Zuständen bei EDGE jeweils
3 Bit (000, . , 111) zu zuordnen.
Bild 72: Die Verdreifachung der Anzahl der Bits im EDGE-Burst gegenüber dem Burst im GSM
Dadurch ergibt sich eine Verdreifachung der mit einem Burst übertragbaren Bits. Aus Bild 72 ist zu erkennen, dass von den drei möglichen Stealingflags je zwei den Datenbits zugeschlagen werden, deren Anzahl sich dadurch auf 3x57+2= 173 erhöht. Im EDGE werden damit die in Bild 73 dargestellten 9 Modulation and Coding Shemes (MCS-1 bis MCS-9) definiert.
Bild 73: Die erzielbaren Datenraten mit den verschiedenen Modulation und Coding Schemes
Da moderne Mobiles eine Multislot-Klasse 10 besitzen, können maximal 4 Zeitschlitze downlink vom Netz zugeteilt werden. Man kommt damit in der downlink Datenrate in die Größenordnung von 200 kB/s. Man beachte, dass eine „atmende" UMTS Zel e häufig auch keine größere Datenrate zulässt.
14.2.4 Universal Mobile Telecommunications System (UMTS)
Die im UMTS verwendete Modulationsart ist Code Division Multiple Access CDMA,
genauer, in Abgrenzung vom Frequency-Hopping CDMA direct-sequence CDMA (DS-
CDMA) mit 3.840.000 c/s.
Bild 74: Das Prinzip der Modulation im UMTS
Das Prinzip der UMTS-Modulation ist in Bild 74 dargestellt. Dabei wird ein Signal (z.B. digitalisierte Sprache) mit einem hochfrequenten Träger (Spreizcode) über eine „Exklusive Oder" Schaltung moduliert. Für den Spreizcode wird zur Unterscheidung vom Begriff Bit, der für das Signal reserviert ist, der Begriff Chip eingeführt.
Am Ausgang der exklusiven Oderschaltung erscheint das gespreizte Signal, dessen Leistung über der Frequenz eine Kurve wie in Bild 74 unten rechts darstellt. Für den Transport mehrerer Signale über einen Kanal muss jedes Signal mit einem Spreizcode moduliert werden, der zu jedem anderen orthogonal ist.
Den Apparat dazu liefert die Mathematik. Alle Codes, die in einer Hadamard Matrix entwickelt werden, sind zueinander orthogonal . Die Codes lassen sich auch in einen Codebaum (Walshtree) entwickeln. (Bild 75)
Bild 75: Der Baum der orthogonalen , variablen Spreizfunktionen (OVSF)
Die Chiprate im UMTS beträgt wie oben gesagt 3,84 Mcps (Megachips pro Sekunde). Die Symbolrate ist die Frequenz des zu übertragenden Signals. Das Verhältnis von Chiprate zu Symbolrate heißt Spreizfaktor (Spreizfaktor = Chiprate/Symbolrate).
Jedem Teilnehmer muss nun ein Zweig im Bild 75 oder ein Teil von einem Zweig als Code zugeteilt werden. Dabei sind Abhängigkeiten zu beachten, auf die hier nicht eingegangen werden soll.
In Bild 76 ist dargestellt, wie viel von einem Zweig für die Übertragung der unterschiedlichen Signaltypen aufgewendet werden muss. In Bild 76 stellen die ersten beiden Spalten den Zusammenhang zwischen Spreizfaktor und der theoretisch möglichen Übertragungsrate dar. Die dritte Spalte zeigt die mit dem entsprechenden Spreizfaktor praktisch realisierte Übertragungsrate. So begrenzt bei 12,2 kBit/s Sprache (SF128) das Rauschen die Teilnehmerzahl pro Zelle auf etwa 100 (anstelle der theoretisch möglichen 128).
Würde die Last beim Spreizfaktor 4 auf 3 Kanäle verteilt, so könnte eine Übertragungsrate von 2 Mbit/sec erreicht werden. Demgegenüber wird jedoch im UMTS-Netz für
Datenübertragung höchstens der SF8 zugeteilt, womit eine praktische Datenrate von
384 kbit/s erzielt wird.
Bild 76: Die Erzeugung von Kanälen im Kodebaum
Das gespreizte Signal hat nicht bei Verwendung aller Zweige des OVSF Baumes das in
Bild 74 unten rechts dargestellte Leistungsspektrum. Daher wird in einer zweiten Stufe der
Kodierung mit einer Zufallsfolge der gleichen Frequenz (3,84 MHz) die Signalenergie
vollständig über die Funkbandbreite verteilt (Bild 77). Die PN Folge hat eine
Wiederholungsrate von 10 ms. Funkzellen wie sie aus dem GSM bekannt sind, haben im
UMTS zwar die gleiche Frequenz, eine jede besitzt aber einen der 512 möglichen
primären Scrambling Codes.
Bild 77: Modulation des gespreizten Signals mit einem Scrambling Code
Wie aus Abbildung 78 hervorgeht, existieren die Netze der Generationen 2 (GSM), 2,5 (GPRS) und 3 (UMTS) parallel. Zur Sicherung der internationalen Mobilfunk- Verbindungen müssen Mobilfunkgeräte der 3. Generation zu GSM und GPRS kompatibel sein. Damit ist für den Besitzer eines UMTS-fähigen Mobiles die durchgängige Funkverbindung auf den Territorien gewährleistet.
Bild 78: Verbund von UMTS und GSM-Netz
Das Universal Terrestrial Radio Access Network UTRAN oder auch das Radio Network Subsystem RNS haben prinzipiell den gleichen Aufbau wie das Base Station Subsystem BSS im GSM. Es besteht aus dem Node-B (vergleichbar mit der Base Transceiver Station BTS im GSM) und dem Radio Network Controller RNC (vergleichbar mit dem Base Station Controller BSC im GSM).
14.2.5 Unlicensed Mobile Access
Bereits in den 80er Jahren wurde an den Hochschulen daran geforscht, Sprache unter
Verwendung des TCP/IP Protokolls über Datenkanäle, das Ethernet und das Internet zu
übertragen. Im Jahre 1995 wurde Voice over IP (VoIP) erstmalig von der Israelischen
Firma VocalTec öffentlich vorgeführt. In den letzen 18 Jahren entstanden mit den
Standards H.323 und SIP vor allem Alternativen zum ISDN durch die IP-Telefonie.
Mittlerweile ist es möglich, kostenlose Internet-Telefonanschlüsse zu benutzen wie sie z.B.
von „sipgate" zur Verfügung gestellt werden, um mit Partnern über das Internet zu
kommunizieren. Sipgate gestattet auch, über ein geringes Entgelt, auf Festnetz und
Mobilfunkanschlüsse zuzugreifen.
Die Endgeräte für die Videotelephonie sind Clienten die auf der Windowsoberfläche
residieren, oder Hardphones. Es ist auch möglich, mit dazu eingerichteten Mobiltelefonen
z.B. einem Nokia E65 oder dem iPhone über WLAN und Sipgate einen Mobilfunkpartner
anzurufen. Im letztgenannten Fall verbinden Registrar und Proxy von sipgate das E65 wie
ein Festnetztelefon mit dem Mobilfunknetz.
Es wäre wünschenswert, das Mobiltelefon über das WLAN direkt mit dem Mobile Core
Network zu verbinden. Diesem Problem widmete sich die UMA Alliance. Die UMA Alliance
entwickelte die Technologie UMA (Unlicensed Mobile Access) mit dem Ziel, unlizenzierte
Teile des Frequenzspektrums (das Internet) für den Mobilfunk nutzbar zu machen und ein
nahtloses Roaming von WLAN zu den klassischen GSM- und UMTS-Mobilfunknetzen zu
ermöglichen.
Bild 79: Die Rolle des GANC (UNC) bei der Kopplung einer TCP/IP Verbindung mit dem MCN
Am 8.April 2005 genehmigte die Leitung des 3rd Generation Partnership Projektes (3GPP) die Aufnahme der Spezifikation für „Generic Access to A/Gb Interfaces" in das 3GPP Release 6 (3GPP TS 43.318). Bei der Übergabe an 3GPP wurden gegenüber den Spezifikationen des UMA Protokolles und der UMA Architektur nur triviale Änderungen in der Terminologie vorgenommen.
Was vorher als UMA bezeichnet wurde, heißt unter 3GPP nun Generic Access Network oder GAN. Der UMA Network Controller (UNC) wird nunmehr als Generic Access Network Controller oder GANC bezeichnet.
Wie aus Bild 79 hervorgeht spielt der GANC offenbar die Rolle des BSC im GERAN .Während der Base Station Controller über das A-bis Interface mit den BTS verbunden ist, existieren drei Varianten der Anbindung des GANC an die Nutzerumgebung.
Variante 1 besteht in der Verwendung eines Mobiles, das außer dem GSM- Betriebssystem noch eine WiFi Komponente enthält. Während das Interface, mit demdas Mobile über die Luftschnittstelle kommuniziert, als Um-Interface bezeichnet wird, heißt das Letztere, das es gestattet über einen WLAN-Hotspot und das Internet mit dem GANC und damit mit dem Mobile Core Network Verbindung aufzunehmen, Up-Interface.
Variante 2 sieht die Einrichtung einer Mini-BTS vor. Mit einer derartigen Femto-Cells genannten Einrichtung stellen Unternehmen eigene UMTS-Zugangspunkte als Internet-Access-Points bereit, über die Daten mit normalen Mobiles gesendet und empfangen werden können.
Variante 3 wird durch einen PC gebildet, auf dem ein UMA/GAN-taugliches Softmobile installiert ist, mit dem über das Internet und das Mobilfunknetz kommuniziert werden kann.
In allen drei Fällen stellt der GANC eine Brücke zwischen WiFi und Cellular-Network dar.
Die Französische Telekom hat GAN in ihrem Netz verwirklicht. Es wäre wünschenswert den beschriebenen Dienst auch in Deutschland in Anspruch nehmen zu können.
14.3 Voice over IP
Wie im Abschnitt 14.2.5 beschrieben wurde Voice over IP (VoIP) 1995 erstmalig öffentlich
vorgeführt. Seit dem entstanden mit den Standards H.323 und SIP vor allem Alternativen
zum ISDN durch die IP-Telefonie.
Ähnlich wie im Mobilfunk (GSM), wo das ISDN als Vorbild für die Signalisation genommen
wurde, war auch bei der ersten Standardisierung von VoIP im Standard H.323 der D-Kanal
noch Vorbild.
H.323 war ursprünglich vorgesehen für Videokonferenzen über Lokale Netze. Spätere
Revisionen sahen vor, den Standard für Telefonnetze über LANs einzusetzen.
H.323 ist in Microsofts NetMeeting Konferenzsoftware implementiert. Es ist gleichermaßen
Grundlage von IP-PBX Systemen von Avaya und Nortel, leider mit herstellerspezifischen
Eigenheiten. Diese Inkompatibilitäten sind Hinderungsgrund für die breite Anwendung des
Standards.
H.323 Signalisierung ist schnell, und die Pakete sind kompakter als bei SIP, dem Session
Initiation Protokoll .
Das Session Initiation Protocol (SIP) ist ein Signalisierungsprotokoll, vor allem für den
Auf- und Abbau von Multimedia Kommunikations-Prozeduren wie z.B. Sprach- und Video-
Anrufe über das Internet. Weitere Anwendungen sind Video Konferenzen, Multimedia
Streaming und Onlinespiele.
Bild 80: Beispiel einer experimentellen SIP-Verbindung unter Verwendung von Sipgate
Im November 2000 wurde SIP von der ETSI als eines der 3GPP Signalisierungsprototolle angenommen. Es gilt als Element der IP Multimedia Subsysteme (IMS) Architektur für IP-basierte Multimedia-Dienste in zellularen Systemen.
Das Protokoll kann eingesetzt werden, wenn Verbindungen zu einem oder gleichzeitig zu mehreren Partnern hergestellt, modifiziert und wieder abgebaut werden sollen. Die Verbindungen können aus einem oder mehreren medialen Strömen bestehen.
In Bild 80 ist dargestellt wie man in einem Heimnetzwerk experimentell eine Telefonverbindung zwischen einem SIP-Clienten und einem ISDN-Clienten über Sipgate herstellen kann.
Die Entwicklung von Mikroprozessoren war und ist durch ständig höhere Taktfrequenz und
steigende Anzahl der eingebauten Transistoren gekennzeichnet. Besaß der INTEL 4004
bei einer Taktfrequenz von 740 kHz 2300 Transistoren, so besaß 30 Jahre später der
Pentium 4 die Taktfrequenz 1,5 GHz und bestand aus 142.000.000 Transistoren.
Ab 2006 gibt es den INTEL Core 2 Duo, bestehend aus zwei Prozessorkernen mit
291.000.000 Transistoren und einem Prozessortakt von 1,06 GHz bis 3,33 GHz.
Es zeugt von wenig visionärer Kraft, wenn Bill Gates im Jahre 1981 sagte, dass es sehr unwahrscheinlich sein wird, dass jemals ein Mensch oder User mehr als 640KB (Kilobyte) Hauptspeicher benötigen würde. Im Jahre 2010 besitzt der kleinste MACmini 2 GB Hauptspeicher.
Im Jahr 2000 gab es USB-Speichersticks mit einer Kapazität von 8 MByte, im Jahre 2010 kann man USB-Speichersticks mit einer Kapazität von 8 GByte kaufen.
Kurz nach Einführung des IBM-PC im Jahre 1981 kamen die ersten Klone dieses
Computers auf den Markt.
Das war Hardware, auf der die Microsoft Betriebssysteme liefen. Heute bekannte
Computermarken sind DELL und ASUS, die mit modernster Hardware und Peripherie die
Möglichkeiten des jeweiligen Betriebssystems ausschöpfen.
14.4.1 Microsoft Betriebssysteme
Ende 2001 erschien Windows XP (intern: NT 5.1) in den Varianten XP Home (für
Privatanwender) und XP Professional (für Geschäftsanwender). XP Home unterschied
sich von Windows XP Professional unter anderem durch eingeschränkte Netzwerkdienste.
Im Jahre 2008 wurden neue PCs und Laptops nur noch mit Windows Vista verkauft. Auf
Wunsch konnte man jedoch auch einen neuen PC noch mit XP erwerben.
Der Nachfolger von Windows Vista heißt Windows 7, er trägt intern aber die
Versionsnummer 6.1. Ein Vorzug des 2010 erschienenen Windows 7 ist, dass es gestattet
einen XP-Mode zu installieren. Dadurch können Programme, die nur unter XP laufen,
weiter genutzt werden.
14.4.2 Apple Soft- und Hardware
Im Jahr 2000 wurde der Power Mac G4 Cube eingeführt. Das ungewöhnliche Würfel-
Design (Bild 81) kam als Desktop-Rechner komplett ohne Lüfter aus. Durch den hohen
Preis und die schlechten Erweiterungsmöglichkeiten wurde der Computer aber schlecht
Im selben Jahr veröffentlichte Apple die erste Beta-Version von Mac OS X. Es war das erste Mal, dass Apple ein solches PreReleaseProdukt der Öffentlichkeit zugänglich machte. Dieser Schritt ermöglichte Apple auf öffentliche Kritik zu reagieren und beispielsweise die Entfernung des „Apple-Menüs" in der finalen Version von Mac OS X wieder rückgängig zu machen.
2003 wurde das Betriebssystem Mac OS X 10.3 Panther
eingeführt. Mit dem 17-Zoll-PowerBook G4 bot Apple als
erster Hersteller ein Notebook mit einem so großen
Bildschirm an.
Bild 81: Power Mac G4 Cube
2006 Apple stellte auf der Macworld Expo im Januar die
ersten Macs mit Intel-Prozessoren vor. Die ersten verfügbaren Intel-Macs waren der iMac und das MacBook Pro. Den Übergang auf die neue Prozessor-Plattform von Intel schloss Apple in allen Produktlinien bis zum Ende des Jahres ab.
Neu war auch Apple Boot Camp (Beta), das es erlaubt, auf der Apple-Hardware Windows laufen zu lassen.
Im Jahr 2007 bringt Apple das iPhone 2G auf den Markt,
das mit einer Variante von Mac OS X läuft. Mit dem
iPhone landet Apple einen Volltreffer. lMac OS X 10.5
Leopard wird ausgeliefert.
Bild 82: iMac mit Intel-CPU !
Das 2008 herausgebrachte MacBook Air ist das
leichteste und dünnste Mac-Notebook, das Apple jemals
produziert hat (Bild 83)
Das iPhone 3G unterstützt UMTS und ist mit einem GPS-Empfänger ausgestattet. Mit 32 GB Hauptspeicher stellt es einen Taschencomputer mit sehr vielen nützlichen (und auch unnützen) Applikationen dar.
Apple bringt eine neue Generation der MacBooks auf den Markt, deren Gehäuse aus einem Aluminium-Block gefräst wurde.
Bild 83: MacBook Air
Der MAC mini mit dem Intel Core 2 Duo kam 2009 auf
den Markt. Er besitzt das Betriebssystem Mac OS X
10.6.3. das ein reines X-Windows repräsentiert. Er wird in
drei Ausführungen vertrieben
- 2 GB RAM - 2.26 GHz - 160 GB HDD
- 4 GB RAM - 2.53 GHz - 320 GB HDD
- 4 GB RAM - 2.53 GHz - 1 TB HDD
Bild 84: MAC mini (Intel core)
Im Jahr 2010 kam, last not least, das Apple iPad auf den Markt. Es gibt 6 Ausführungen, unterteilt nach Hauptspeicher 16, 32, 64 GB ausgestattet mit Wi-Fi oder Wi-Fi + 3G.
Das iPad ist ein Tablett-PC das intuitiv durch Finger- Druck und Bewegung zu bedienen ist. Eingerichtet zur Kommunikation mit dem Internet ist es nicht für Telefonieren und Kommunikation durch SMS vorgesehen, wohl aber für IP-Telefonie (z.B.Skype). Er kann als Terminal verwendet werden. Zu den nachrüstbaren Applikationen gehören auch Pages, Keynote und Numbers, die Komponenten des „Office-Paketes" von Apple.
Bild 85: Tablett Computer iPad
Die Mobiltelefone des Jahres 2000 und die 10 Jahre später
verkauften unterscheiden sich von Größe und Gewicht kaum. Sowohl das in Bild 86 dargestellte Motorola Talkabout 180 als auch das iPhone wogen (wiegen) ca. 135 Gramm.
Die ersten Mobiles waren reine GSM-Geräte in Europa für ein Frequenzband von 900/1800 MHz und in Übersee von 850/1900 MHz.
Später gab es Triband-Geräte für 900/1800/1900 MHz. Diese konnte man in Europa und in den USA benutzen.
Die Stromversorgung der ersten Geräte bestand aus Nickel-Metallhydrid-Akkumulatoren (NiMH) Akkus. Das iPhone wird durch eine Lithium-Ionen-Batterie gespeist. Die Stand By Zeit der frühen Geräte war kaum größer als die des iPhones. Die Sprechzeit des iPhones bei einer 3G Verbindung wird mit 5 Stunden angegeben, die des Siemens C25 (GSM) auch.
Die Mobiltelefone wurden innerhalb von 10 Jahren zu Smartphones.
Die Geräte wurden zunächst mit Kameras ausgerüstet. Die Auflösung betrug zunächst 640x480 Pixel. Die Kamera des iPhones 3G S hat eine Auflösung von 3 Megapixel.
Der Bildschirm der frühen Geräte musste nur die Telefonnummer
aufnehmen und einige Zusatzinformationen.
Bild 86: Motorola Talkabout 180:
Das Display des iPhones hat eine Diagonale von 8,89 cm.
Während mit den ersten Geräten nur über GSM kommuniziert werden konnte, ist es mit moderne Geräten möglich über
Verbindung aufnehmen. Wie aus der Bedienungsoberfläche des Bild 87: iPhone 3G !
iPhones in Bild 87 hervorgeht, kann man außer telefonieren, Mail
verschicken und empfangen, mit dem Browser Safari ins Internet
gehen, Bilder ansehen und fotografieren sowie alle Funktionen eines iPod verwenden. Podcasts werden mit hoher Bild- und Tonqualität wiedergegeben.
Mit den maximal 32 GB Speicher erinnert das iPhone an einen Laptop Anfang 2000.
Mit dem angekündigten iPhone 4 wird das Mobiltelefon immer mehr zum Taschencomputer.
Das Internet als Netz von Computern ist ständig im Wachsen begriffen.
Bild 88: Anzahl der Hosts im Netz
Das Internet System Consortium veröffentlicht entsprechend Bild 88 das Wachsen der Leistungen anbietenden Rechner (Hosts) im Internet über der Zeitachse. Im Jahr 07/2009waren es 681 064 561 Millionen Computer (Hosts). Die Zahl der Internetnutzer weltweit wird in einem Artikel von Dawn Kawamoto Stefan am 26.01.09, mit über einer Milliarde angegeben.
Neben der Deutschen Telekom boten immer mehr Anbieter schnelle Internetverbindungen über DSL an (z.B. 1&1, oder Vodafone .). Auch die Verbindungen des Netzes selbst, die Rückgrad-Verbindungen (Backbone Verbindungen) wurden ständig verstärkt.
Das Internet gewann an Popularität und wurde wirtschaftlich interessant. Es wurden Unternehmen gegründet, die nur im Internet agierten. Der Name dieser Firmen entsprach häufig dem Namen ihrer Homepage-URL.
URL steht für „Uniform Resource Locator", zu deutsch „einheitlicher Die URL vieler Firmen (der Domäne commercial) endete mit „ .com", daher der Name Dotcom z.B. in Verbindung mit dem Begriff Dotcom-Boom.
Durch den Börsencrash im Jahr 2000 wurde der Dotcom-Boom gebremst. Firmen wie Amazon, eBay oder Google konnten jedoch ihre Stellung ausbauen.
Das Netz ist nunmehr so bunt wie die reale Welt. Man prüfe das, indem man einen Begriff in das Suchfeld Google eines beliebigen Browsers eingibt. Als Antwort erhält man Auskünfte über Firmen mit gleichem Namen, über Werbungen zum Thema und über Wissen zum Begriff und so weiter.
Bedauerlicher Weise sind Webseiten seriöser Firmen wie z.B. t-online ein Sammelsurium unterschiedlichster Themen, bei denen auch Sex nicht fehlen darf, natürlich heiße Bilder gegen Bezahlung. Es ist belastend sich durch solche Seiten durchzusuchen.
Von den Suchmaschinen Yahoo, Bing, Ask und Google ist Letztere nicht nur die bekannteste, sondern auch die effektivste. Gegen Bezahlung kann man erwirken, dass Google auf eine Webseite besonders aufmerksam macht.
Auskünfte, die im Internet gesucht werden, betreffen unter anderem:- Bahn und Flugverbindungen- Hotelunterkünfte- Informationen über Reiseziele- Kino- und Veranstaltungsprogramme- Wetterinformationen- Geografische Informationen (Google Maps)
Die für die meisten Internetnutzer nützlichste Informationsquelle ist die Wikipedia.
Die Wikipedia ist eine 2001 gegründete freie Online-Enzyklopädie in zahlreichen Sprachen. Der Name Wikipedia ist ein Kofferwort, das sich zusammensetzt aus „Wiki" (der mit dem hawaiischen Wort für „schnell" bezeichneten Technik zur kollektiven Erstellung von Internetseiten) und „Encyclopedia", dem englischen Wort für Enzyklopädie.
Die deutschsprachige Wikipedia enthält knapp über eine Million, und die englische Wikipedia über drei Millionen Artikel. Betrachten wir, was die Wikipedia über sich selbst sagt:Im März 2000 startete der Internet-Unternehmer Jimmy Wales mit dem damaligen Doktoranden der Philosophie Larry Sanger über die Firma Bomis ein erstes Projekt einer
englischsprachigen Internet-Enzyklopädie, die Nupedia. Der
Redaktionsprozess der Nupedia lehnte sich stark an die bisherigen Enzyklopädien an: Sanger amtierte als Chefredakteur, Autoren mussten sich bewerben und ihre Texte anschließend ein langwieriges Peer-Review-Verfahren durchlaufen.
Ende 2000/Anfang 2001 wurden Sanger und Wales auf das Wiki-System aufmerksam, mit dessen Hilfe Benutzer einer Website diese nicht nur lesen, sondern auch direkt im Browser verändern können. Am 15. Januar 2001 war das Wiki der Nupedia unter der eigenständigen Adresse wikipedia.com abrufbar, was seither als die Geburtsstunde der Wikipedia gilt.
Bild 89: Der Wikipedia Erfinder Jimmy Wales.
Ursprünglich war die Wikipedia von Sanger auf Nupedia als Spaß-Projekt neben der Nupedia angekündigt worden. Dank ihrer Offenheit jedoch entwickelte sich die Wikipedia – selbst zur Überraschung von Sanger und Wales – so rasant, dass durch sie die Nupedia in den Hintergrund rückte und im September 2003 ganz verdrängt wurde.
15. Vordergrund ab 2000
15.1 ISDN
Obwohl die Bedeutung des ISDN in den letzten Jahren abnahm da die Internetanbieter wie
z.B. Vodafone und 1und1 neben schnellen Internetzugängen auch Telefonverbindungen
anbieten, gab es doch noch einige interessante Aufgaben für mich.
Der Inhaber des EPV-Verlages Herr Helmut Exner war über seine Verbindungen zur
Frankfurter Buchmesse mit dem Eigentümer des Narosa Verlages in Neu Delhi bekannt.
Aus dieser Verbindung entsprang die Idee mein Büchlein „Der ISDN-D-Kanal im Dialog" ins
Englische zu übersetzen. Ich bat darum, vor der Drucklegung des „ISDN D-Channel in
Dialogue" das Manuskript Korrektur lesen zu dürfen. Das war notwendig, da der Übersetzer
den umgangssprachlichen Teil brillant ins Englische brachte, aber spezielle technische
Formulierungen nicht so treffsicher umsetzte.
Herr Exner schlug mir vor, auf der Buchmesse in Neu Delhi im Februar 2000 auf einem
Seminar über die Berufsausbildung in Deutschland das Buch vorzustellen.
Dieses Angebot nahm ich gern an, nicht nur, weil mich natürlich die Bekanntschaft mit dem
fernen Indien reizte, sonder auch, weil ich Indische Fachkollegen kennenlernen wollte.
Die „Conference On Vocational Training in Germany" (Berufsausbildung in Deutschland) war
mäßig besetzt. Einer der Teilnehmer, der sich mit Major Capor vorstellte, ein
Hochschullehrer, bat mich vor seinen Studenten einen Vortrag zu halten. Da unsere
Rückreise für den nächsten Tag vorgesehen war, musste ich das Angebot leider ablehnen.
Eine Mail an Major Capor, in der ich Vorschläge für eine Zusammenarbeit machte, wurde
leider nicht beantwortet.
Dafür bekam ich ein halbes Jahr später eine Mail von einer Iranischen Studentin, die neben
einigen Fragen zum ISDN mein Büchlein als das Beste, was sie über ISDN gefunden hatte,
Die Firma WUEKRO, Entwickler, (Hersteller und weltweites Vertriebsunternehmen für
didaktische Lehrsysteme, Ausstattungen für Forschung, Entwicklung und Ausbildung)
hatte Arabische Hochschullehrer zu Gast und bat das a&d Schulungszentrum um einen
Vortrag über ISDN.
Mit dem Vortrag wurde ich betraut. Nachdem ich sehr zur Freude der Herren einen
Kurzvortrag im PowerPoint Format gehalten und die Folien den Herren bereitwillig
übergeben hatte, erntete ich große Freude und die Ankündigung weiterer Kontakte. Weder
von WUEKRO noch von den Gästen habe ich jemals wieder gehört.
Bei der TELES A-G hatte ich das Vergnügen, die gesamte ISDN-Mannschaft drei Tage zum
Thema D-Kanal zu schulen. Wie bereits gesagt gab die Firma TELES bald das ISDN-Geschäft
auf, aber die freundlichen Beziehungen zu vielen Mitarbeitern blieben bestehen.
Von TELES bekam ich auch das Angebot, zwei Mal die Mitarbeiter der Firma Teracom in Zell
am See zum Thema ISDN in 3 Tage Wochenendlehrgängen zu schulen. Meine Zuhörer
waren sehr aufgeschlossen, und es gab auch im Nachhinein zahlreiche Kontakte.
Die spätere Insolvenz der Firma ist sicher nicht auf meine Aktivitäten zurückzuführen.
Ebenfalls von TELES vermittelt war meine Wochenendschulung bei der MCN MILLENNIUM
COMMUNICATION NETWORK AG, WIEN,
Wie gewohnt hatte ich eine aufmerksame und dankbare Zuhörerschaft. Als es darum ging
meine Rechnung zu bezahlen, war die Firma vorübergehend insolvent.
15.1.3 Die tevitel iPBX
Auf der Grundlage von Sebastians Übersetzungsprogramm entstand wie berichtet das ISDN
Lernsystem EPWE-Trace.
Ebenfalls hatte ich bereits auf den Hauptmangel des Systems hingewiesen, dass die TELES
iPBX keine Dienstmerkmale verarbeiten kann, die ASN.1 (in der Abstrakten Syntax Notation
1) kodiert sind.
Dieser Umstand wurde mittlerweile von vielen Ausbildungsstätten kritisiert. Es gab hier eine
Die iPBX der Firma tevitel besitzt ebenfalls einen Tracemode, registriert jedoch nicht nur die
D-Kanal-Strings, sondern noch andere Systeminformationen (Bild 90)
Bild 90: Auszug aus einem Logfile der tevitel iPBX
Das war für Lehrzwecke ungeeignet.
Mein freier wissenschaftlicher Mitarbeiter, der Physikstudent Sebastian Göller, hatte
glücklicherweise aufgrund der Erfahrungen mit ALZView für die Koreanische Telekom eine
interessante Idee verwirklicht.
Er trennte den Apparat, der aus dem Rohtrace aufgrund von Vorschriften die Übersetzung
macht, von den Vorschriften.
Die Vorschriften in Gestalt von ETSI konformen Scripten musste ich aufschreiben. Den
Interpreter der Vorschriften, der angewandt auf den Rohtrace, den übersetzten Trace ausgibt,
Die Regeln wie die Scripte aufgebaut sein müssen beschrieb er in einer Anleitung, die
entsprechend den Anforderungen ständig ergänzt wurde.
Ein Script für die Meldung SETUP ist in Bild 91 dargestellt. Darin besteht fast jede Zeile aus
einem Verweis auf einen anderen Script. Die dritte Zeile verweist z. B. auf den Script
BearerCapability, dessen Anfang das Bild 92 zeigt.
Bild 91: Script für die Meldung SETUP im ISDNView
Bild 92: Script für das Informationselement Bearer capability
In Bild 93 ist schließlich das Fenster des Übersetzers ISDN-View selbst dargestellt. Hier mit
einem Ausschnitt der Übersetzung eines des mit der tevitel IPBX aufgezeichneten Traces.
Bild 93: Traceübersetzungs-Werkzeug ISDNView für die tevitel iPBX
Herr Dipl. Ing Krüger, der Initiator des EPW-Traces (Grundlage Teles iPBX), konnte daraufhin
einen modernisierten Lehrgerätesatz im 19" Rahmen (Bild 94) aufbauen, der vom EPV -
Verlag an verschiedene Lehreinrichtungen verkauft wurde. !
Bild 94: tevitel iPBX als ISDN Lehrgerät
15.2.1 GSM und GPRS
Beim ersten Durchsehen der GSM ETSI Recommendationen fiel mir die Verwandtschaft
zwischen ISDN und GSM auf (Bild 95). Später las ich, dass dieser Zusammenhang von den
GSM Pionieren M. Mouly und M.B. Pautet mit der Bezeichnung „ISDN as Godfather"
bezeichnet wurde. Ich beschloss diese Verwandtschaft näher zu untersuchen. Zur Aufklärung
des Sachverhaltes wollte ich natürlich zunächst die Verhältnisse auf dem Signalkanal
untersuchen, brauchte daher einen Trace.
Bild 95: Auszug aus der Gegenüberstellung von Meldungen und CC-Messages in GSM und UMTS
Ein Mitarbeiter der SIT, die damals noch in den Räumen des abgewickelten Funkwerks
Köpenick untergebracht war, informierte mich, dass in einem Rhode & Schwartz Betriebsteil,
eine Etage tiefer, gerade ein GPRS-Messplatz erprobt wird.
Nachdem ich die Genehmigung erhalten hatte das Gerät zu
besichtigen und den Bearbeiter zu befragen, schaute ich mir die
Anlage an. Das Gerät, zur Prüfung von GPRS-Mobiles vorgesehen,
gestattete tatsächlich in den Dm-Kanal hineinzusehen, was aber
relativ umständlich und natürlich immer mit Belegung des
Messplatzes verbunden war.
Da fiel mir eines Abends ein dem Platz gegenüber sitzender Kollege
auf, der mit einem einfachen Mobilfunkgerät hantierte. Zu meinem
Erstaunen war das ein Messgerät, das gestattete den GSM-Dm-Kanal
zu tracen. Das war eine Erleuchtung für mich. Es stellte sich heraus,
dass der Produzent sein Produkt an die französische Firma SAGEM
verkauft hatte, die nun derartige Geräte international verkaufte.
Am 11.5.2001 erwarb ich ein SAGEM OT 76 m für 7111.- DM.
Damit besaß ich das Werkzeug die GSM-Dm-Kanäle zu untersuchen
wie ich es mit den D-Kanälen beim ISDN getan hatte.
Mit dem in Abschnitt 15.1.3 beschriebenen, von Sebastian für GSM
modifizierten Interpreter konnte ich die Trace des OT 76m ETSI-
Gerecht übersetzen Wir nannten den Übersetzer GSMView.
Bild 96: SAGEM OT 76 m
Für Lehrzwecke schrieb ich das Büchlein „Die GSM-Dm-Kanäle im Dialog", das 2003 im
Aus Anlass eines Lehrgangs vor englischsprachligen Hörern entstand
die Schrift „Signalling in Mobile Radio Communication" , die auch
beim EPV-Verlag zu erhalten ist.
Zum Thema Mobilfunk wurden vom a&d Schulungszentrum
Weiterbildungslehrgänge organisiert. Für derartige
Experimentalvorträge arbeitete ich PowerPoint Vorträge aus. Vom
EPV-Verlag wurden diese Vorträge mit Tracemobile als Lehrgeräte-
Einer der Hochschullehrer, der sich dafür interessierte, war Professor
Klötzner vom Bereich Informatik der Westsächsischen Hochschule
Bild 97: GSM Lehrmaterial in Englisch
Bild 98: Titelfolie des Experimentalvortrags über GSM
Zur Demonstration der Möglichkeiten mit dem Tracemobile OT 260 den Dm-Kanal zu
untersuchen, fuhr ich nach Zwickau und hielt eine Vorlesung vor der Informatikklasse der
Hochschule. Das Tracemobile war inzwischen von Sagem weiterentwickelt worden, nach
dem Typ OT 160 gab es jetzt den Typ OT 260. Die Hochschule Zwickau kaufte den
Lehrgerätesatz mit dem Trace-Mobile OT 260.
Leider lernte ich auch andere Praktiken kennen. Der Professor einer Schweizer Hochschule
veröffentlichte im Netz einen Mobilfunkvortrag vor allem aus physikalischer Sicht. In einer
Mail schrieb ich, dass mir der Vortrag gefällt, man aber das Thema auch über die
Signalisation erklären könne. Der Professor zeigte sich interessiert. Das Material, das ich ihm
schickte kam offenbar nicht an. Der Mailkontakt brach ab.
Daraufhin beschloss ich, mich mit meinen Veröffentlichungen direkt an die Studenten zu
wenden. Zu den von mir bearbeiteten Themen veröffentlichte ich jeweils einen Vortrag im
pdf-Format (als Lehrbrief) auf meiner Webseite.
Aus der WWW-Statistik, die mir von der Rechnerbetriebsgruppe der Sektion Informatik der
HU monatlich zur Verfügung gestellt wird, erkenne ich pro Thema mehrere hundert bis
tausend Zugriffe.
Das a&d Schulungszentrum beteiligte sich an einer Ausschreibung. Es ging um
Datenübertragung über Funk. Die Firma kauft ein GPRS -Tracemobile SAGEM OT 96 m.
Sebastian Göller baute die erforderlichen Steuerelemente in seinen Interpreter ein.
Wir konnten mit GPRSView nun die Signalisation bei der Paketdatenübertragung über Funk
15.2.2 UMTS
Die nun folgende große Herausforderung war die Übersetzung der Signalkanäle im UMTS.
Es war lange Zeit nicht möglich einen Trace des UMTS-Signalkanals zu erhalten.
Von Kommunikationspartnern, die ich zum Thema über das Netz kennengelernt hatte, bekam
ich schließlich Stücke aus Rohtracen von Motorola und Tektronix. Während die Trace bis
zum OT 260 das Excelformat hatten, wurden die UMTS Trace als Hex-Strings im Textformat
ausgegeben. Der Trace mobile product Manager der Firma Sagem Wireless Monsieur Olivier
Buyse sendete mir schließlich einige Trace von einem SAGEM Tracemobile, das leider nicht
produziert wurde.
15.2.2.1 Einige spezielle Bemerkungen zum Übersetzer für UMTS-Traces (für Spezialisten)
Beim Aufbau einer Verbindung zum Node B (Bild 78) fordert das Mobile eine Verbindung an.
Die lt. Recommendation ETSI TS 125 331 v090300p kodierte Vorschrift dazu ist in Bild 99
Bild 99: Die ASN1 codierte Meldung RRC-CONNECTION REQUEST (Ausschnitt)
Die zum Node B gesendete Meldung heißt RRC CONNECTION REQUEST.
Der Algorithmus wird wie in Bild 100 gezeigt in einen Script verwandelt, der mit dem
Interpreter UMTSView übersetzt werden kann. Wie der Script formuliert werden muss, hängt
von den zur Verfügung stehenden Kommandos des Interpreters ab
Bild 100: Script der Meldung RRC CONNECTION REQUEST
In Bild 101 ist als Beispiel für die Rolle der Scriptkommandos die Bedeutung des Schalters
(Switch) oben in Bild 100 beschrieben.
Bild 101: Auszug aus der Kodierungsanleitung für Scripte
Im Bild 102 ist schließlich die Übersetzung eines Traces nach den oben angedeuteten Regeln
dargestellt.In der Kopfzeile stehen 20 Oktette die mit UMTSView übersetzt die darunter
stehende Bedeutung haben:
Bild 102: Meldung RRC CONNECTION REQUEST in einem Anruf vom iPhone zu einem NOKIA Trace-Mobile
15.2.2.2 Automatisches Übersetzen von UMTS Traces
Aus dem Umstand dass es Meldungen gibt, die 80 Oktette lang sind, kann man ermessen,
dass das von Hand schreiben von Scripten sehr mühsam ist und einem hohen Fehlerrisiko
Aus diesem Grunde gibt es Übersetzer, die die ASN.1 kodierten Meldungen in den Hex-
Strings automatisch übersetzen. Ein derartiges Werkzeug ist der Snacc, ein High Performance
ASN.1 to C/C++/IDL Compiler.
Es gibt da nur ein Problem.
Wenn man den UMTS Trace mit dem Snacc übersetzt, erhält man neben den entschlüsselten
Begriffen der UMTS Meldung längere, nicht übersetzte HEX Strings, die stehen bleiben, weil
sie in einer anderen Sprache geschrieben sind.
Im UMTS werden nämlich eine ganze Reihe von Meldungen nicht in ASN.1 formuliert,
sondern so wie es in GSM oder GPRS üblich ist. Es sind dies die Meldungen aus dem
NON ACCESS STRATUM, d.h.der Schicht die nicht mit dem Zugriff auf den UMTS-Kanal
Man könnte salopp formulieren, die ETSI macht sich nicht die Mühe einen physikalischen
Sachverhalt zweimal zu formalisieren. Das war ja schon im GSM so, wenn es galt, die ISDN-
Meldungen auf dem Funkkanal zu übertragen. Bild 103 zeigt den Dialog zwischen Endgerät
UE und Node B beim Gesprächsaufbau. Der Dialog soll uns hier nicht weiter interessieren.
Es sei nur soviel gesagt, dass im DCCH - Dedicated Control Channel die in ASN.1 codierten
Meldungen INITIAL DIRECT TRANSFER, UPLINK DIRECT TRANSFER und UPLINK DIRECT
TRANSFER übertragen werden.
In diesen UMTS Meldungen sind aber die aus dem GSM bekannten Meldungen CM SERVICE
REQUEST, AUTHENTICATION REQUEST, AUTHENTICATION RESPONSE und SETUP als
nicht ASN.1 kodierte Meldungen eingefügt.
Bild 103: Einige Meldungen, die im UMTS beim Gesprächsaufbau übertragen werden
Im Bild 103 sind die braun und grün gefärbten Meldungen solche, die in den darunter oder
darüber stehenden rot gefärbten Meldungen DCCH über den Kanal transportiert werden.
Allein die Meldungen SECURITY MODE COMMAND/COMPLETE sind reine UMTS
15.2.3 Das Trace Tool der Firma Qosmotec
Die Firma Qosmotec war mit dem Aufbau eines Trace Tools unter Verwendung Nokia 6680
befasst. Die rein UMTS codierten Elemente wurden bereits mit einem Compiler dekodiert,
jedoch fehlte die Möglichkeit GSM, GPRS und EDGE kodierte Strings zu übersetzen.
Nachdem Sebastian Göller unseren vorhandenen Übersetzer, der für alle Mobilfunk Traces
gilt, mit einem Eingangsfilter für das NOKIA 6680 ausgestattet hatte, schrieb ich die
erforderlichen Scripte. Mit NOKIAView war es nun möglich den Output des Nokia 6680 ETSI
gerecht zu übersetzen.
Eine Ausnahme bildeten die über 80 Oktett langen Meldungen wie z.B. RRC CONNECTION
SETUP, aber dafür hatte die Qosmotec den Compiler.
Sebastian Göller schrieb noch einige Hilfswerkzeuge, die den Programmierern von
Qosmotec behilflich waren, unser Tool in das Ihrige einzupassen.
Qosmotec kaufte uns NOKIAView ab. Eine weitere Zusammenarbeit kam nicht zustande.
15.2.4 Praktikum an der HU
In alter Verbundenheit zu den Kollegen der Rechnerbetriebsgruppe der Sektion Informatik der
Humboldt Universität Dr. Bell und Dipl.-Ing. Gandre, besuchte ich von Zeit zu Zeit das
Während ich in meiner „UNIX-Zeit" des öfteren Doktor Bell konsultierte, war danach, als ich
mit den SAGEM Werkzeugen und unseren Trace-Tools arbeitete, die alle unter MS Windows
liefen, Wolfgang Gandre mir ein freundlicher, stets hilfsbereiter Gesprächspartner.
Nachdem ich mich anhand der mir von Olivier Buyse zur Verfügung gestellten UMTS-Trace
in das Thema eingearbeitet und für Lehrzwecke eine Powerpoint Präsentation ausgearbeitet
hatte, weilte ich wieder einmal am Institut und führte einige neue Arbeitsergebnisse vor.
Nachdem ich meinen Vortrag begonnen hatte, sagte Dr. Bell plötzlich „das sollten wir
unserem neuen Chef Prof. Dr. Jens-Peter Redlich zeigen. Er rief an und wenige Zeit später
hielt ich im Arbeitszimmer von Prof. Redlich einen UMTS-Vortrag. Offenbar gefielen Prof.
Redlich meine Ausführungen, denn er schlug mir vor zum Thema ein Praktikum und einige
Vorlesungen zu halten. Selbstverständlich willigte ich ein, und während meine Bewerbung
diese Angelegenheit betreffend an der HU lief, bereitete ich Vorlesung und Praktikum vor.
Bild 104: Erstes Bild meiner Vorlesung an der HU
Als Laborraum wurde ein größeres Zimmer im 4. Stock eingerichtet, in dem Wolfgang
Gandre geeignete Möbel und Computerarbeitsplätze aufstellte und auch einen ISDN-
Anschluss schalten lies, der nicht als Teilnehmer auf die Zentrale auflief.
Nachstehend sind die Praktikumsversuche kurz beschrieben:
Übung 1: ISDN: 4 Arbeitsplätze
Aufgaben:
Durchführen aller Übungen die auf der CD ISDNprof enthalten sind.
Lehrziel: Vertrautmachen mit den Protokollen für ISDN-Dienste und Dienstmerkmale als Grundlage des
CC-Managements in GSM und UMTS
Übung 2: GSM/1 2 Arbeitsplätze (ohne Trace Mobile)
Aufgaben:
Durchführen aller Übungen, die auf der CD des Heftes "Die GSM-Dm-Kanäle." enthalten
sind.
Lehrziel:
Vertrautmachen mit den Protokollen für GSM-Dienste und Dienstmerkmale. Feststellen der
Gemeinsamkeiten der Protokollstruktur zwischen ISDN und GSM.
Übung 3: GSM/2 2 Arbeitsplätze (mit Trace Mobile)
Aufgaben:
Durchführen aller Übungen, die auf der CD des Heftes "Die GSM-Dm-Kanäle." enthalten
sind.
Lehrziel: Vertrautmachen mit den Protokollen für GSM-Dienste und Dienstmerkmale. Benutzen der Forcing-Funktion zum Test der Reaktion der Operatoren auf die verschiedenen Fähigkeiten der Mobiles ihre Nachrichten zu verschlüsseln.
Übung 4 GPRS: 4 Arbeitsplätze
Aufgaben:
Mit dem Tracemobile OT96MGPRS wird an einem Arbeitsplatz eine Verbindung zum Internet
aufgebaut: Es wird eine kleine Datei übertragen und der Trace der Signalkanäle aufgezeichnet. Der Rohtrace wird an alle anderen Arbeitsplätze übergeben und dort mit Hilfe der Tools OTDrivePC und GPRSView analysiert.
Lehrziel: Das Prinzip des temporary blockflow, die Zuweisung mehrerer Zeitschlitze und die Funktion der Context Zuweisung soll verstanden werden.
Übung 5 UMTS/1: 4 Arbeitsplätze
Aufgaben:
Analyse der Meldungen, die in einem MOC auftreten anhand eines Rohtraces, der mit einem
Trace-Mobile OT390 der Fa. SAGEM aufgezeichnet wurde. Verwenden der Tools OTDRIVEPCDual und UMTSView.
Lehrziel:
Verstehen der Rolle des Netzes bei der Zuweisung von Betriebsparametern an das Mobiles,
Verstehen der Rolle des RadioBearers
Übung 6 UMTS/2: 4 Arbeitsplätze
Aufgaben:
Analyse der Meldungen, die beim Softhandover vom UMTS nach GSM auftreten anhand eines
Rohtraces, der mit einem Trace-Mobile OT390 der Fa. SAGEM aufgezeichnet wurde.
Verwenden der Tools OTDRIVEPCDual und UMTSView.
Lehrziel: Verstehen der Rolle des Netzes bei der Zuweisung von Betriebsparametern an das Mobiles beim Softhandover
Zur Vorbereitung der Studenten auf das Praktikum hielt ich vier Vorlesungen zur
Einstimmung der Studenten in das Thema Signalisation, beginnend vom Thema ISDN bis zum
Auf meine Bitte hielt Professor Redlich eine zusätzliche Vorlesung zum Thema ASN.1.
15.3 Das Global Access Network GAN
Wie im Zusammenhang mit Bild 78 besprochen sind Generic Access Network (GAN) und
UMA Begriffe für einen Dienst, bei dem ein Mobile in der Nähe eines WLAN-Hotspots
automatisch eine Telefonverbindung über VoIP über WLAN aufbaut. Wenn die Feldstärke des
WLAN-Routers nicht mehr ausreicht, führt das Mobile ein Handover ins Mobilfunknetz
durch. Kommt das Mobile umgekehrt während eines aktiven Gesprächs in einer
Mobilfunkzelle in die Nähe eines WLAN-Hotspots mit ausreichender Feldstärke, so generiert
das Gerät ein Handover ins WLAN.
Der France Telecom Operator Orange hat dieses Prinzip in Frankreich realisiert.
Die Firma SAGEM hat dazu ein Trace-Mobile vom Typ OT 5xx entwickelt, das es gestattet,
die Signalisation eines UMA-GAN fähigen Mobiles aufzuzeichnen
M. Olivier Buyse (14.2.5) hatte mir dazu einige Trace geschickt, die ich, nachdem Sebastian
Göller den EDGE Übersetzer in GANView modifiziert hatte, übersetzen konnte
Bild 105: Handover von einer Verbindung über WLAN zu einer Funkverbindung
Interessierten Lesern, die sich für den Aufbau von Mobilfunk-Tracen interessieren, sei das
Studium des Lehrbriefs „IP-GPRS und EDGE" auf der Webseite des Autors
Diese Technologie faszinierte mich so, dass ich das Netz durchstöberte um zu finden, ob
nicht auch in Deutschland bei irgend einem Operator die Möglichkeit besteht das Prinzip
Tatsächlich war im Netz zu finden (Bild 106), welche Operatoren den Universal Mobile
Access UMA praktizieren. Die Freude über diese moderne Technologie wird sofort gedämpft,
wenn man sieht, welche Operatoren sich der neuen Technologie bedienen.
T-Mobile ist in der Liste enthalten, aber nur in den USA. Nachfolgend kann aber beschrieben
werden, dass auch im Deutschen Mobilfunknetz einige Versuche existieren die IP-Telephonie
für den Mobilfunk nutzbar zu machen. Letztendlich geht es Providern nur darum, was die
neue Technologie für Gewinne verspricht
Bild 106: Anbieter des Universal Mobile Access in verschiedene Ländern
Bei der Suche nach Anwendungen in Deutschland stieß ich auf
Vodafone.
Das IP-Softphone des Operators Vodafone gestattet es
Gespräche, die man normalerweise mit dem Mobile führt, vom
Computer aus zu starten. Um dieses Feature installieren zu
können, muss man den Dienst „Vodafone Zuhause" beauftragt
Die Rolle des BSC bei der Mobile-Verbindung spielt beim IP-
Access der UMA Network Controller (UNC).
Der UNC befindet sich geographisch an der Stelle der
Komponenten des Core Mobile Networks und hat die IP-
Nummer 139.7.147.78. Das folgt aus dem WireShark-Trace
einer Verbindung von Vodafone IP Fone Pro.
Der Beweis wurde im PowerPoint Vortrag des Autors zum
Thema „Voice over IP" geführt.
Bild 107: Das Vodafone Softfon
UMA Komponente des Vodafone IP Fon pro
Im Gegensatz zu einer normalen SIP Verbindung wird hier alles über einen sicheren
Transportlayer abgewickelt. Transport Layer Security (TLS) ist ein hybrides Verschlüsselungs-
Protokoll zur Datenübertragung im Internet.
Aus Anlass einer telefonischen Anfrage bei einem Vodafonetechniker wurde mir bestätigt,
dass Vodafone das UMA-Protokoll anwendet.
Bei der weiteren Suche nach einem deutschen Anwender des UMA-GAN Protokolls stieß ich
auf die Firma etelon, die den Dienst wifon propagierte. Da wifon Ähnlichkeit mit UMA
versprach, hatte ich mich zu einem Abonnement dieses Dienstes entschlossen und als
Zubehör eine FRITZ!Box Fon WLAN 7170 und ein Nokia E65 erhalten. Es war zunächst
möglich, das Nokia E65 für Sipgate zu programmieren und Gespräche über Sipgate zu
Anfang 2008 wurde von etelon ein Modul geliefert, (powered by M5T), der ebenfalls die
Kommunikation mit VoIP über die Fritzbox ermöglicht, zusätzlich jedoch, wenn die
Umgebung der Box verlassen wird (die WiFi-Feldstärke zu klein ist), auf die
Mobilfunkverbindung umschalten soll. Ein solches Handover funktionierte bei mir nur ein
Ein Gespräch mit dem Entwickler ergab, dass der Modul nicht entsprechend UMA-
Recommendation programmiert war und auch nicht vorgesehen ist, dass das Gespräch über
Mobilfunk rückwärts in der Nähe von der FritzBox auf VoIP umschaltet.
Diese Erfahrung kostete mich zwei Jahre lang die Mindestgebühr beim Mobiltelefonanbieter
Debitel sowie Gebühren zur VoIP Nutzung der Firma etelon.
Das Experiment hatte jedoch eine Reihe nicht zu unterschätzender Nebeneffekte.
1. Wegen meines Zwangsabonnements bei debitel kündigte ich meinen T-Mobile-Vertrag.
2. Bei der Auswahl eines Geburtstagsgeschenkes entschied ich mich für einen iPod Touch.
3. Für meinen laufenden Vodafone-Vertrag wählte ich ein Blackberry Storm.
4. Den iPod Touch hatte ich über iTunes mit Musik und Filmen von YouTube sowie eigenen
Aufnahmen gefüllt. Das Gerät wurde mir aber leider nach einem halben Jahr auf der Post
5. Nun erwarb ich ein iPhone 3G 16GB und konnte den in iTunes gesicherten Inhalt meines
iPod Touch ohne Probleme auf das iPhone zurück laden.
6. Das Zwangsabonnement konnte ich inzwischen durch Kündigung nach Ende der Laufzeit
beenden. Die aus dem Abonnement stammende FRITZ!Box Fon WLAN 7170 versorgt
meine Computer und das iPhone mit drahtlosem Internetzugang. Mit dem E65 telefoniert
mein Enkel, mit dem Blackberry telefoniert mein Sohn. Das iPhone hat mein Interesse an
APPLE-Produkten erweckt.
15.4 Voice über IP
Die Beschäftigung mit UMA/GAN hatte mein Interesse an Voice über IP geweckt. Wie in
Abschnitt 14.3 Voice over IP berichtet, war wie im Mobilfunk (GSM), wo das ISDN als
Vorbild für die Signalisation genommen wurde, auch bei der ersten Standardisierung von
VoIP im Standard H.323 der ISDN-D-Kanal noch Vorbild.
In den MS Betriebssystemen Me, 2000 und XP ist ein leistungsfähiges H.323 Terminal mit
Namen Netmeeting enthalten. Es interessierte mich, in wieweit man mit den Komponenten
von VoIP im H.323 experimentieren kann.
Bild 109: Die Komponenten eines H.323 Netzes
Das ist wie Bild 109 zeigt möglich. Ein H.323 Gateway steht als LINUX Executable zur
Bi110: Eine VoIP Verbindung nach H.323 mit Softclienten
Verfügung. Ab der SuSE-Linux Version 10 werden aber die AVM Karten nicht mehr
unterstützt. Damit konnte ich den Versuchsaufbau mit ISDN-Telefon nicht aufbauen, sondern
musste die in Bild 110 dargestellten Softclienten verwenden.
Noch interessanter war das Experimentieren mit der SIP-Architektur, die im Abschnitt 14.3
bereits vorgestellt wurde. SIP besitzt folgende nutzerfreundlichen Eigenschaften:
- Unabhängigkeit vom Transportprotokoll, SIP kann mit UDP, TCP,
SCTP, etc. benutzt werden.
- Es ist text-basiert, d.h. die Kommandos sind umgangssprachlich formuliert, SIP Meldungen
sind also lesbar und können so analysiert werden.
Wichtige Komponenten eines SIP-Netzwerkes sind in Bild 111 dargestellt.
Bild 111: Komponenten eines SIP-Netzwerkes
Der User Agent baut SIP Verbindungen auf und ab. Um für andere Teilnehmer erreichbar zu
sein, meldet sich der User Agent beim Programmstart am Registrar an.
Um eine Verbindung zu einem anderen Teilnehmer aufzubauen, sendet der User Agent eine
INVITE Meldung zu dem für seine Domäne verantwortlichen Proxy.
Der Proxy ruft den gewünschten Agenten. Dem Absender teilt der Proxy den Fortschritt des
Verbindungsaufbaus mit der Meldung TRYING mit. Sobald der User Agent, an den der Anruf
gerichtet ist, den eingehenden Anruf signalisiert, sendet er die Meldung RINGING an den
Proxy zurück, die dieser zum Anrufer weiterleitet. Dessen Telefon signalisiert jetzt einen
Sobald das Gespräch vom Empfänger angenommen wird, sendet dessen User Agent die
Meldung OK zum Proxy, die ebenfalls zum Absender weitergeleitet wird.
Schließlich schließt der User Agenten des Anrufers den Verbindungsaufbau mit einer ACK
Meldung ab, die direkt zum User Agent des Angerufenen gesendet wird, und nun wird die
Sprachverbindung zwischen den beiden User Agenten aktiviert.
Der Abbau der Verbindung erfolgt dadurch, dass einer der beiden User Agenten eine BYE
Meldung zu seinem Gesprächspartner sendet, die dieser mit einem OK quittiert.
Die gesamte Prozedur kann mit dem Traceprogramm Wireshark aufgezeichnet und im Detail
verfolgt werden.
Wie in Bild 111 gezeigt benötigt man für die Kommunikation zwischen SIP-User Agenten
einen Registrar und einen Proxy-Server. Erfreulicherweise hat die Firma digium eine Software
mit Namen Asterisk entwickelt, die es gestattet aus einem LINUX-Rechner eine
leistungsfähige PBX zu generieren. Sollen Telephonie-Interface-Karten zum Anschluss der
Asterisk-PBX an das herkömmliche Telefonnetz eingesetzt werden, muss der Rechner einen
PCI-Bus besitzen.
Der Autor hat das HowTo von www.datenkreise.at/articles/1001/index.php herunter geladen
und eine Asterisk-PBX auf einem Laptop installiert. Die Programmierung der Asterisk aus den
Quellen gestattet auch die Implementierung von H.323. Die genannte Webseite enthält auch
die Anleitung zur Installation eines SIP Softphones.
Eine wesentlich einfachere Methode zur Herstellung einer SIP-PBX besteht darin, die Asterisk
basierte Telefonanlage IPTAM zu verwenden, auf die man unter www.iptam.com/ zugreifen
kann .Diese kostenlose PBX für 5 Teilnehmer ist für Lehrzwecke gut geeignet.
Bild 112: Versuchsanordnung SIP- Architektur
Meine praktischen Erfahrungen habe auf einer Lehr-CD zusammengefasst. Sie im EPV-Verlag
zum Selbststudium und als PowerPoint-Vortrag für Lehrer zu beziehen.
Bild 113: Lehr-CD über VoIP
15.5 Meine Computer
Über den nach der Wende gekauften Rechner hatte ich schon berichtet. Er wurde in den
Folgejahren mit Speichern und auch mit neuen Motherboards und leistungsfähigeren
Prozessoren mehrfach aufgerüstet.
Auf dem Rechner lief bis Mitte der 90er Jahre SCO UNIX und MS-Windows. Schließlich
musste ein kleinerer Desktop-Rechner, mit einen PCI-Bus-System zwei Festplatten ISDN und
SoundKarte in Dienst gestellt werden.
Im Jahre 1998 erschien die Firma ASUS mit einem Laptop auf dem Markt. Die Ausstattung
war noch bescheiden. Festplatte und Floppy-Laufwerk konnten alternativ eingesetzt werden,
und die Akku-Einheit war austauschbar.
Als ich 2003 einen neuen ASUS Laptop anschaffte, staunte ich nicht schlecht, dass kein
Com-Port mehr zur Verfügung stand, den ich für den Anschluss der Tracemobiles von SAGEM
brauchte. Dafür gab es einen USB-Anschluss und einen USB-Stick, mit dem ich natürlich im
Moment nichts anzufangen wusste. (Kapazität 64 KByte!)
Auch ein Floppy Laufwerk stand nicht zur Verfügung. Das musste ich als USB Einheit
zusätzlich kaufen. Das Gerät benutze ich allerdings heute noch, genau wie einen USB Doc,
der 4 zusätzliche USB(1.1) -Anschlüsse, 2 COM-Ports, einen Tastatur- und einen Maus-Port
enthält. Betriebssystem war Windows 98.
Als Hauptrechner kaufte ich schließlich 2006 einen Dell Dimension mit zwei Festplatten mit
je 160 MB und 2 CD-Romlaufwerken, von denen das eine ein Brenner ist, und dem
Betriebssystem Windows XP.
Eine nicht so gute Wahl war das Betriebssystem Vista auf dem ASUS C90S Serie, gekauft im
Jahre 2007. Vista konnte einiges nicht, was noch auf XP ging. Das neue Office liess vertraute
Einstellungen missen usw.
Nach einem tödlichen Virus auf dem DELL musste ich Windows 7 als Betriebssystem
installieren. Dieses Betriebssystem machte bisher einen guten Eindruck, zumal es einen XP-
Mode besitzt als Trostpflaster für unter WIN 7 nicht mehr laufenden Programmen.
Nun kommt wieder mein hintergründiges Bewusstsein, die technische Fantasie ins Spiel.
Als mir Sebastian zu Weihnachen das Buch von Schätzing Limit schenkte, gefielen mir
weniger die Diskussionen zwischen den abgehobenen Milliardären, dafür umso mehr die
Softwarewerkzeuge die Owen Jericho und Yoyo benutzen.
Mir fiel auf, dass mein iPhone vom Konzept her ein Taschencomputer ist, mit einem Speicher
von immerhin 32 GByte, der Festplatte meines ASUS von 1998.
Als Steve Jobs noch das iPad ankündigte, war mir klar, dass neben den Arbeitspferden von
Microsoft hier Rechner von einer neuen Dimension entstehen. Damit ich mich auf die neue
Linie vorbereiten kann, kaufte ich einen MAC mini mit 2 GB Hauptspeicher und 160 GB
Festplatte und einem 2.26 GHz Intel Core Duo Prozessor. Das Betriebssystem ist Mac OS X
Zu meiner Freude habe ich nun wieder X-Windows auf dem Rechner. Die mir vertrauten
Befehle existieren noch!
Jetzt darf ich mich mit drei Betriebssystem herumärgern. Aber ich habe es ja so gewollt. Im
Übrigen gefällt mir der Sprachausgabemodus von iPad und MAC gar nicht. Die
Maschinenstimme ist monoton, die Satzzeichen werden durch senken und Heben der
Stimme nicht dargestellt, u.s.w.
15.6 Wie soll es weitergehen
Von den zu erwartenden zukünftigen Entwicklungen interessiert mich natürlich die
Leistungsfähigkeit und die Kommunikation auf den Signalkanälen bei der Mobilfunk-
Generation Long Term Evolution LTE.
Vielleicht gelingt es auch einem der Großen (Apple, Google, Microsoft oder einem Anderen
aus dem riesigen kreativen Potential der Menschheit) die Verbale Kommunikation mit dem
Computer praktikabel zu machen.
Sicherlich könnte ein Gerät wie das iPhone mit über 100 GB Speicher ausgerüstet werden.
Mit intelligenter Sprach-Ein- und Ausgabe wäre es dann möglich, den Computer in der
Tasche zu behalten und mit ihm über das Headset zu kommunizieren.
Es freut mich, dass der ideenreiche Entwickler meiner Werkzeuge Dipl.-Physiker Sebastian
Göller jetzt als Doktorand beim Alfred Wegener Institut angestellt ist, wo er seine
wissenschaftliche Kreativität mit der Sehnsucht zu Meer und Natur verbinden kann.
Ohne seine Arbeit wären meine Untersuchungen auf dem ISDN und dem Mobilfunkgebiet in
der hier beschriebenen Form nicht möglich gewesen.
Die Quellen zur vorstehenden Aufzeichnung sind das Gedächtnis des Autors,
Veröffentlichungen des Autors und Veröffentlichungen im Internet u.a. der Wikipedia.
Von den Veröffentlichungen im Internet wurde jeweils eine pro Thema angeführt.
Das wird versucht nachstehend zu dokumentieren.
2.Hintergrund um 1940
2.1 Das PCM-Prinzip
2.2 Der Digitalrechner
3.Vordergrund ab 1940
4.Hintergrund ab 1945
5.Vordergrund ab 1955
- Joachim Göller:Das Hybrid-Kreuz, theoretische Grundlagen und Anwendungen eines
neuartigen Höchstfrequenzsiebentors. Hochfrequenztechnik und Elektroakustik, Bd. 71,
1962, H.6, S.205 .211.
- Karl, Klaus: Kybernetische Lehrmodelle an der Nachrichtenschule der Nationalen
Volksarmee. In: "Physik in der Schule" , Heft 2/1963, S. 73-76.
- J. Göller und K. Karl: Die Optimierung der Fehlersuche an elektronischen Einrichtungen mit
Hilfe der Informationstheorie. Nachrichtentechnik 15 (1965) H.12 S.455-461,
- J.Göller: Bericht über den Aufbau einer Unterrichtsmaschine. Berufsausbildung H. 9, 1963,
- J.Göller: Logik im Koffer, Jugend und Technik H.2, 1964, S.169 . 171.
6. Hintergrund ab 1960
6.1 Kleinrechner.
6.3 Multiuser-Systeme
6.5 Die Vernetzung von Computern stand nun auf der Tagesordnung.
- Katie Hafner, Matthew Lyon: ARPA Kadabra, Die Geschichte des Internet, dpunkt-verlag für
digitale Technologie, Heidelberg. ISBN 3-920993-90-X
7. Vordergrund ab 1964
8. Hintergrund ab 1970
8.1 Der Mikroprozessor
8.3.1 Fortsetzung des Aufbaus
- Katie Hafner, Matthew Lyon: ARPA Kadabra, Die Geschichte des Internet, dpunkt-verlag für
digitale Technologie, Heidelberg. ISBN 3-920993-90-X
8.3.2 Das IP-Protokoll
8.3.3 Das Transport Control Protocol
8.6 Das Adress Resolution Protocol
8.7 Der erste Personalcomputer war ein Apple
8.8 Die Gründung von Microsoft
9. Vordergrund ab 70
9.1 Der Lehrstuhl Informationstechnik der TH Karl-Marx-Stadt.
9.2 Erste Lagedarstellung mit Hilfe von Mikrorechnern
9.3 Es geht weiter mit der Mikrorechner Ausrüstung
9.4 Neue Dienststelle neue Aufgaben
10. Hintergrund ab 1980
10.1 Vom ARPANET zum Internet
Katie Hafner, Matthew Lyon: ARPA Kadabra, Die Geschichte des Internet, dpunkt-verlag für
digitale Technologie, Heidelberg. ISBN 3-920993-90-X
10.2 Das World Wide WEB
10.3 Rechentechnik, insbesondere Personalcomputer
10.3.1 Mainframes
Allgemeine Beschreibung
10.3.2 Workstations
10.3.3 Personalcomputer
10.5 Expertensysteme
11.Vordergrund ab 1980
11.1 Lagedarstellung im Manöver Waffenbrüderschaft
11.2 Beginn der Bürokommunikation
11.3 Denkschmiede
11.4 Die Nachrichtengeräte werden intelligent.
11.5 Die UNIX-Story
Joachim Göller: UNIX IN DER NATIONALEN VOLKSARMEE, TOP IX Nr.11 Juni 1991,
Verlagsgesellschaft Rudolf Müller. Postfach 410949. 5000 Köln 41
11.5.1 Mikroprozessoren mit 16 Bit Wortbreite
11.5.2 UNIX-Systeme
11.5.3 UNIX-Anwendungen
11.6 Rechnergesteuerte Umsetzer
12. Hintergrund ab 1990
Vogelsang, Göller: ISDN und Netzwerke, Novell Netware 3.12, EPV Elektronik-Praktiker-
Verlagsgesellschaft mbH, Duderstadt, ISBN 3-924544-57-3
12.8 Die Produzenten von ISDN-Hardware
13. Vordergrund ab 1990
13.1 Der erste eigene UNIX-Rechner
13.2 Die .course GmbH
13.3 ISDN-Ausbildung im a&d-Schulungszentrum
13.4 ISDN-Anwendung in der Bauakademie
13.5 ISDN-Anwendungen in der Rohde & Schwarz SIT GmbH
13.6 Was sonst noch passierte
14. Hintergrund ab 2000
14.2.3 Enhanced Data rates for Global Evolution (EDGE)
14.2.4 Universal Mobile Telecommunications System (UMTS)
14.2.5 Unlicensed Mobile Access
14.3 Voice over IP
14.4 Mikrorechentechnik6
14.4.1 Microsoft Betriebssysteme
14.4.2 Apple Soft- und Hardware
14.5 Mobiltelefone
15. Vordergrund ab 2000
15.1.2 Unterrichte
15.1.3 Die tevitel iPBX
15.2.1 GSM und GPRS
ETSI TS 125 331 V5.6.0 (2003-09)
15.2.3 Das Trace Tool der Firma Qosmotec
15.2.4 Praktikum an der HU
15.3 Das Global Access Network GAN
15.4 Voice über IP
15.5 Meine Computer
Source: http://www.joachim.goeller.name/isdn/MACBOX%20ENTERPRICE.pdf
J Clin Pathol 2001;54:553–555 Salicylic acid in the serum of subjects not takingaspirin. Comparison of salicylic acidconcentrations in the serum of vegetarians,non-vegetarians, and patients taking low doseaspirin C J Blacklock, J R Lawrence, D Wiles, E A Malcolm, I H Gibson, C J Kelly, J R Paterson Keywords: salicylic acid; salicylates; diet; low dose
Ears and HealthA Community Report from Onemda VicHealth Koori Health Unit Karen Adams Published by: Onemda VicHealth Koori Health Unit Centre for Health and Society, School of Population Health, The University of Melbourne © Onemda VicHealth Koori Health Unit, 2006 ISBN 0 7340 3640 X First printed in July 2006 This work is joint copyright. It may be reproduced in whole or in part for study or training purposes, or by Aboriginal and Torres Strait Islander community organisations subject to an acknowledgment of the source and no commercial use or sale. Reproduction for other purposes or by other organisations requires the written permission of the copyright holder(s).