Macbox enterprice kopie

Vom Raumschiff Enterprise zur
!

! ! Keksschachtel
Wie ich die Entwicklung der Informationstechnik in der Zeit von 1940 bis 2010 erlebte "Hältst Du die Liebe für den stärksten Affekt?" fragte er.
"Weißt Du einen stärkeren?"
"Ja, das Interesse." 
Thomas Mann in "Dr. Faustus" Ein Gespräch zwischen Dr. Zeitblohm und Adrian Leverkühn:  1. Anstelle eines Vorwortes
Im Jahre 1940, ich war 12 Jahre alt, lag ich mit Kopfhörern im Bett und lauschte der Sendung des Reichssenders Leipzig, die ich mit meinem Detektor empfing. Heute, 70 Jahre später, liege ich im Bett, habe die Ohrhörer mit dem iPhone verbunden und empfange den Fernsehsender Arte mittels EyeTV über Wireless LAN und die oben genannte „Keksschachtel", wie ich liebevoll meinen Mac mini nenne.
Zwischen diesen beiden Ereignissen liegt eine rasante technisch wissenschaftliche Entwicklung, die ich versucht habe zu begreifen und in meinem Umfeld und damit in der Praxis anzuwenden. Versuche den jeweiligen Wissensstand auf meinem Tätigkeitsgebiet anzuwenden wurde mir oft als technische Spinnerei ausgelegt. Mitarbeiter und Vorgesetzte, die mich kannten, akzeptierten aber allmählich die Realität, die hinter meinen Vorstellungen steckte.
Den Namen „Raumschiff Enterprise" im Titel, benutze ich zur Charakterisierung des
Begriffs „Schöpferische Fantasie", die von Albert Einstein über das schlichte Wissen
gestellt wurde:
Imagination is more important than knowledge. For knowledge is limited to all we
now know and understand, while imagination embraces the entire world and all
there ever will be to know and understand."

Denn, so sagt Einstein, Kenntnisse sind begrenzt auf das was wir wissen, während Fantasie die ganze Welt umfasst und al es, was wir jemals wissen und verstehen können.
Der Philosoph und Computerexperte Alan N. Shapiro hält Star Trek für einen großen Textder westlichen Kultur. In den nachstehenden Ausführungen möchte ich Elemente der Kultserie „Raumschiff Enterprise" wie das Beamen (entmaterialisieren und wieder zusammensetzen (materialisieren)) und den Warpantrieb als im Moment unmöglich erscheinende physikalische Gesetze nicht als die in meiner Umwelt zu verwirklichenden Ziele ansprechen.
Hingegen erscheinen mir aber Gedanken der Vernetzung von Computern und der künstlichen Intelligenz real. Das im Raumschiff übliche Bildfernsprechen (Anruf auf den Schirm!) hat mich z.B. dazu veranlasst, auf meinem Computer Skype zu implementieren und regelmäßig mit Freunden und Familienmitgliedern mittels Bildtelefon zu kommunizieren. ScFi-Filme bei denen auf den Bildschirmen lediglich Lissajou-Figuren zu sehen sind, schalte ich sofort aus.
In einem Rechner (Multitasking System) laufen viele Prozesse im Hintergrund ab während man im Vordergrund z.B. Dateien erzeugt oder durchsieht. Im Leben und in der Gesellschaft werden im Hintergrund Entwicklungen durchgeführt, Erfindungen gemacht oder Schlachten geschlagen, während der Betrachter einfach seiner Arbeit nachgeht. Im folgenden Text will ich demnach in den mit „Hintergrund" bezeichneten Abschnitten Ereignisse beschreiben, von denen ich unter Umständen erst Jahre später erfahren habe, die aber für die technisch wissenschaftliche Entwicklung von größter Bedeutung waren.
2.Hintergrund um 1940
2.1 Das PCM-Prinzip
Seit der Erfindung des Telefons durch Philipp Reis und Graham Bell bestand das Problem der Übertragung über große Entfernungen darin, dass das Nutzsignal, wie in Bild1 dargestellt, stets von Störungen überlagert wurde.
Bild 1: Überlagerung einer Sprachschwingung durch Störung (rot) Mit der notwendigen Verstärkung des Signals wurde also gleichzeitig das Rauschen mit verstärkt. Es gab keine Möglichkeit das zu verhindern. Bis zum Jahre 1938, als der französische Wissenschafter Reves das PCM-Prinzip erfand. (Erstaunlicherweise kann man in Wikipedia nichts über Reves lesen) Bild 2: PCM-Prinzip Das Prinzip ist so genial wie einfach. Die Sprachschwingungen werden mit Impulsen abgetastet. Die Länge der Impulse wird gemessen und als 8 Bit lange Binärzahl nacheinander als Bit-Strom zur Gegenstelle übertragen. Jedoch:Die Maße der zur Verfügung stehenden Röhren, Übertrager, Spulen. Widerstände und Kondensatoren lagen 1938 in der Größenordnung von Zentimetern. Die Brettschaltung eines 24 Kanal PCM-Geräts, das aus Studiengründen Ende der 40iger Jahre in Ost-Berlin aufgebaut worden war, besaß die Fläche eines Wohnzimmers und erzeugte die Wärme eines Ofens.
Die Realisierung des PCM-Prinzips war damit der Zeit nach der Erfindung des Transistors und der integrierten Schaltkreise vorbehalten.



2.2 Der Digitalrechner
Ab 1939 tobte der 2. Weltkrieg. Es war kein Raum für Nachrichten aus Wissenschaft und Technik, noch dazu wenn sie ggf. militärisch von Interesse sein konnte. Konrad Zuse (1910-1995) war Statiker bei den Henschel Flugzeugwerken und musste immer viele lange Formeln berechnen. Er sagte von sich scherzhaft: „Da ich zu faul zum
Rechnen war, überlegte ich, wie man
eine Maschine bauen kann, die einem
Menschen lange Rechenoperationen
abnimmt.
Der Z 1 war ein mechanisches
Rechenwerk. K. Zuse hatte ihn
1936-1938 im Wohnzimmer seiner
Eltern aufgebaut (Bild 4). Sein Vater half
ihm beim Aussägen der Metallteile mit
der Laubsäge. Ein Mangel des Z1 war,
dass sich die mechanischen
Schaltglieder im Betrieb verhakten.
Um den Rechner Z1 zu bauen, gab
Zuse 1936 seine Stelle bei den
Henschel Flugzeugwerken auf und
arbeitete nur noch zu Hause.
Der Z1 enthält schon die wichtigsten
Elemente eines Computers, war jedoch
wegen mechanischer Probleme
unzuverlässig.
Bild 3: Konrad Zuse (nach Wikipedia) ! Der Z1 wurde im Zweiten Weltkrieg zerstört. Man baute ihn in den 1960er Jahren nach. Er kann im Technikmuseum in Berlin besichtigt werden Dem mit der Rechentechnik nicht vertrauten Leser muss nun zunächst die Frage beantwortet werden, wie eine Maschine rechnen kann:- Es müssen Zahlen gewählt werden, die maschinengerecht darstellbar sind, bestehend aus „ja – nein" (0, 1) Schritten.
- Es muss eine Eingabevorrichtung existieren, mit der man der Maschine etwas mitteilen kann.
- Für die Zahlen müssen Speicherplätze existieren, damit sich die Maschine etwas merken Bild 4: Der Z1 im Wohnzimmer der Familie Zuse (nach Wikipedia) - Für die Grundrechenarten müssen feste Bausteine vorhanden sein. (plus, minus, mal, geteilt durch)- Für die zu lösende Aufgabe muss eine genaue Vorschrift ( ein Programm) existieren (eingegeben werden).
- Das Rechenergebnis muss die Maschine ausgeben können.
Das Zahlensystem, das für diesen Zweck geeignet erscheint, ist das von Gottfried Wilhelm Leibnitz (1646 - 1716) entwickelte binäre Zahlensystem.
Das binäre Zahlensystem kann über Potenzen mit der Basis 2 im Vergleich mit dem Dezimalsystem (Potenzen mit der Basis 10) erklärt werden. Es genügt aber auch die phänomenologische Darstellung durch Werte von 0 und 1 wie in Bild 5 gezeigt.
Bild 5: Beispiele für Binärzahlen Den dezimalen Wert einer Binärzahl zu erkennen, erfordert einige Übung. Man erlernt das am Besten durch Trainieren mit Hilfe eines kleinen Glühlampenfeldes (Bild 6), das durch Schalter bedient wird.
Bild 6: Beispiel für ein Glühlampenfeld zur Anzeige von Binärzahlen In Zeile 1 brennen die Lampen die für 20 = 1, 22 = 4, 26 = 64 stehen, angezeigt ist 69.! In Zeile 2 brennen die Lampen die für 23 = 8, 25 = 32 stehen, angezeigt ist 40.! Das Rechnen mit Binärzahlen erfolgt mit Hilfe besonderer Regeln. Im Bild 7 ist zunächst eine Addition dargestellt, bei der wir intuitiv die Technik der Rechnung mit Dezimalzahlen verwenden.
Bild 7: Addition zweier Binärzahlen An Bild 7 erkennt man, dass es bei der Verknüpfung von Binärzahlen eigene Regeln gibt.
Z.B. wird bei der „Addition" zweier Binärzahlen eine Operation verwendet, die man im
Gegensatz zum Begriff Addition (bei Dezimalzahlen) als exklusives Oder oder auch als
Antivalenz bezeichnet. Es gilt:
Die Operation mit der der Übertrag gebildet wird, ist das logische Und.
Eine weitere Verknüpfung ist das logische Oder. Hierbei ist das Ergebnis 1 (wahr), wenn
wenigstens einer der beiden Eingangswerte 1 (wahr) ist.
Schließlich gibt es noch die Negation. Der Ausgangswert ist dabei das Gegenteil des Eingangswertes. Die Negation einer Zahl kann mit einem Querstrich über derselben dargestellt werden. Wie Zuse die Elementaroperationen „Nicht" mechanisch ausgeführt hat, soll an Bild 8a und b dargestellt werden.




Bild 8: a) Eingang = 0, Takt liegt nicht an, b) Eingang = 0, Takt: Ausgang =1 In seinem Z3 hat Zuse die logischen Schaltungen mit Relais aufgebaut. Wie das erfolgt, soll später erklärt werden. Der Z3 war der erste funktionsfähige, programmgesteuerte Rechner der Welt. Am 12.5.1941 wurde er zum ersten Mal erfolgreich öffentlich vorgeführt. Der Rechner wog 1000 kg und verbrauchte 4 KW Strom.
Den Nachbau des Z3 kann man im Deutschen Museum in München besichtigen (Bild 9) Bild 9: Nachbau des Z3 im Deutschen Museum in München.
Ab 1942 entwickelt Zuse die Z4, eine Synthese aus Z1 und Z3. In dieser Zeit fielen Bomben auf Berlin, Z1 und Z3 versanken unter Schutt und Trümmern, in einem Keller arbeitete Zuse mit etwa 20 Leuten verbissen an der Z4 weiter.In den letzten Tagen vor dem Fall Berlins gelang es Zuse, die Maschine auf einen Eisenbahnwagen zu verladen und sich mit seiner Frau und Mitarbeitern nach Hopferau bei Füssen zu flüchten. Von 1945 bis 49 hielt sich Zuse wirtschaftlich mit Bildermalen über Wasser und entwickelte nebenbei die Programmiersprache Plankalkül. Im Jahre 1949 konnte Zuse endlich den Z4 für fünf Jahre an das neugegründete Institut für Angewandte Mathematik der Eidgenössischen Technischen Hochschule ETH in Zürich vermieten. Mit dem Mietgeld von 30 000 Franken baute Zuse eine KG auf, die in den Fünfzigerjahren in Bad Hersfeld zu einem Unternehmen mit tausend Beschäftigten wuchs. 1964 wurde die Firma von Brown Boveri & Cie. übernommen, später von Siemens.
Der interessierte Leser möge weitere Details bei Google im Internet nachlesen. 3. Vordergrund ab 1940
Ich selbst gehe seit 1939 auf die Oberschule, baue in der Freizeit Radios mit Elektronenröhren und werde mit der Klasse 1944 als Luftwaffenhelfer eingezogen.
Ende 1944 melde ich mich zu einem Techniker-Lehrgang, der im Westerwald bei Daaden an der Sieg stattfindet. Da sich die Westfront dem Rhein nähert, wird der Lehrgang in die Luftnachrichtenkaserne München Freimann verlegt. Mit noch zwei Kameraden setze ich mich Anfang April nach Hause (Gera, Thüringen) ab, um mich kurz vor Eintreffen der Amerikaner zu einem Panzerjagdkommando des Volkssturms zu melden.
Der Krieg endet am 8.Mai. Unsere Einheit wird aufgelöst. Wieder zu Hause, setzte ich nicht meine Schulausbildung fort, sondern trete eine Lehre als Elektroinstallateur bei der Firma Petzold und Hänsel in Gera an. Da ich Radios bauen kann, setzt mich der Meister zunächst in der Rundfunkwerkstatt ein, wo ich auch mithelfen muss Kinoanlagen zu betreuen und zu reparieren. Bei meinem Studium von Fachliteratur auf dem Gebiet der Hochfrequenztechnik bemerke ich einen Mangel an mathematischen Kenntnissen. Ich gehe regelmäßig zu einem Schulfreund und arbeite nach, was dieser im Mathematikunterricht gelernt hat. Meine hauptsächliche Belehrung besteht jedoch in der handwerklichen Arbeit, im Aneignen von Fertigkeiten, die ich später noch manchmal gut einsetzten kann.
Oberstudienrat Kordmann, ein alter Lehrer, der nicht Mitglied der NSDAP war, ist nun Direktor der Oberschule. Er gestattet mir nach Abschluss der Gesellenprüfung im Frühjahr 1948 wieder in die 11. Klasse der Schule zu gehen und bei Versetzung im Sommer in die Abiturklasse einzusteigen. Das Schuljahr 1949 beende ich mit dem Abitur.
Meine Bewerbung an der Technischen Hochschule Dresden wird trotz guter Abiturnoten abgewiesen. Zu viele Heimkehrer bewerben sich um Fortsetzung ihres Studiums.
Als Alternative komme ich einer Werbung der Volkspolizei nach und werde im Juli 1949 nach Prenzlau eingezogen. Beim Sortieren der Ankömmlinge in solche, die der VP- Bereitschaft zugeteilt werden und solche, die zum Fliegerhorst gehen, greife ich in mein Schicksal ein. Ich teile mich, als ehemaliger Luftwaffenhelfer die Luftwaffenbauten liebend der Mannschaft zu, die zum Fliegerhorst (und damit zur VP-Schule) gehen.
In der VP-Schule nehme ich nur wenige Tage an der Grundausbildung teil. Es wird jemand gesucht, der in der Lage ist eine Kinoanlage einzubauen. Natürlich ist so etwas interessanter als im Gelände herumzukriechen, daher melde ich mich. Damit habe ich wieder eine Weiche gestellt, da ich jetzt als Kulturleiter (Klubleiter) gezählt werde.
Neben dem Einbau der Kinoanlage überwache ich die Installation einer elektroakustischen Anlage, organisiere Ausstellungen und schreibe Theaterstücke.


Nach Ende des einjährigen Lehrgangs werde ich zum Polizeimeister befördert und als Klubleiter in die VP-Bereitschaft meiner Heimatstadt Gera versetzt. Dort führe ich aushilfsweise Elektrotechnikunterricht in der Nachrichtenabteilung (S2) durch. Als Polizeimeister, der an einer Schule ausgebildet wurde, werde ich zum Unterkommisar befördert. Ein Vertreter des Chefs Nachrichten (der Hauptverwaltung Ausbildung des MdI) wird auf mich aufmerksam und veranlasst meine Versetzung in die Verwaltung Nachrichten nach Berlin.
Jetzt bin ich endlich da, wo ich immer hin wollte, bei den Nachrichtentruppen. Im Jahre 1952 nehme ich ein Fernstudium am Institut für Hochfrequenztechnik und Elektronenröhren der TH Dresden auf.
Die nächste Weichenstellung ergibt sich aus dem Umstand, dass ich im Fragebogen die Existenz meines Schwagers nicht angegeben habe, der in Westberlin an der TU studiert.
Ich werde 1953 als Fachlehrer Nachrichten an die Panzerschule in Erfurt und kurz darauf als Fachlehrer Elektrotechnik an die Nachrichten-(Funker-)Schule in Pirna versetzt.
Von Pirna aus kann ich regelmäßig zum Studium (zur Konsultation) nach Dresden fahren.
Das Elektrotechnikpraktikum an der TH animiert mich auch an der Offiziersschule umfangreiche Praktika für Elektrotechnik und Instandsetzung einzuführen.
Als die Nachrichtenschule (Funk) Pirna 1955 mit der Nachrichtenschule (Draht) Halle in Döbeln zur Nachrichtenschule der NVA vereinigt wird, werde ich als Lehrstuhlleiter für Instandsetzung von Nachrichtengeräten übernommen.
4. Hintergrund ab 1945
Am 23. Dezember 1947 wird bei einer internen Demonstration bei den Bell Laboratories erstmals ein Spitzentransistor präsentiert. Die an der Erfindung des Transistors (1948) beteiligten William B. Shockley, John Bardeen und Walter Brattain erhielten dafür 1956 den Nobelpreis für Physik. Die Bauelemente für Fernmeldegerät und Rechentechnik wurden dadurch wesentlich kleiner (Bild 10) Bild 10: Beispiele für Transistoren


Mit diesem neuen Bauelement ausgerüstet kommt 1955 „TRADIC" (Transistor Digital
Computer) der erste voll transistorisierte Computer auf den Markt. Er bestand aus ca.
10.000 Germanium Dioden und ca. 700-800 Transistoren. Seine Leistungsaufnahme
betrug nur ca. 100 Watt.
Eine technische Revolution ist die Erfindung des integrierten Schaltkreises durch Jack Kilby. Das Stück Halbleiter, auf dem er zwei Transistoren und Bauelemente mit Golddrähten verbindet, hat die Größe einer Büroklammer. Kilby demonstriert seine Erfindung am 12. September 1958 im Labor bei Texas Instruments. Bild 11: der erste integrierte Schaltkreis Der erste integrierte Schaltkreis ohne Verdrahtung wird von Robert Noyce im Juli 1959 zum Patent angemeldet. Damit beginnt das Zeitalter der hochintegrierten Schaltkreise, zuerst mit zwei, drei, zehn, dann 100, dann 1000, heute Millionen bis zu Milliarden von Bauelementen auf einem CHIP. Nicht nur in der Technologie werden Fortschritte erzielt. Der amerikanische Wissenschaftler Norbert Wiener veröffentlicht 1948 Das Buch „Cybernetics or Control and Communication in the Animal and the Machine" Die Deutsche Ausgabe lautet „Kybernetik. Regelung und Nachrichtenübertragung im Lebewesen und in der Maschine". Im Internet findet man die Definition von Paulik 2005, (S. 519):„Kybernetik ist die Wissenschaft, die sich mit den Gesetzmäßigkeiten der Steuerung, Regelung und Rückkopplung der Informationsübertragung und Verarbeitung in Maschinen, Organismen und Gemeinschaften beschäftigt sowie die Theorie und Technik der Informationsverarbeitungssysteme untersucht" Nach anfänglicher Ablehnung dieses Fachgebietes im Sozialistischen Lager wird dieser Wissenschaftszweig in der DDR zunehmend als theoretische Grundlage für eine Produktivitätssteigerung in der Wissenschaft, in der Lehre und in der Produktion gesehen.
5. Vordergrund ab 1955
Als Stellvertreter des Schulleiters für technische Ausbildung gelingt es mir durch die breite Einführung von Praktika und durch ein hohes Niveau des technischen Unterrichts an der Nachrichtenschule der NVA in Döbeln die Anerkennung der renommierten Ingenieurschulen in Leipzig und Mittweida zu erringen.
Mit dem von mir entwickelten Lehrplan ist es möglich, an der Nachrichtenschule der NVA zu staatlich anerkannter Ausbildung von Technikern und später Ingenieuren überzugehen. Im Jahr 1960 beende ich meine Ausbildung zum Diplom Ingenieur mit einer Arbeit über ein neuartiges Höchstfrequenzsiebentor. In der den theoretischen Grundlagen zugrunde liegenden Literatur finde ich einen Hinweis, dass eine Reihe von Ergebnissen mit einem Computer berechnet worden war. Ein Hinweis, der die Anwendung dieser damaligen Riesenmaschinen in meine gedankliche Nähe rückte.
5.1 Logische Schaltkreise und Modellrechner
Auf der Weimartagung der Kammer der Technik 1961 hielt Dr. Fey einen Vortrag über den Hamming-Code. Das Prinzip dieser Codierung besteht darin, einer zu übertragenden Meldung Redundanz hinzuzufügen. Sollen z.B. Telegramme der Länge 4 Bit übertragen werden, so besteht die Redundanz aus drei zusätzlichen Bit, die der Nachricht nach einem bestimmten Schema hinzugefügt werden. Wird nun bei der Übertragung eines der 7 Bits gestört, d.h. eine 1 in 0 oder eine 0 in 1 verwandelt, so lässt sich ein Korrektor berechnen, der angibt, an welcher Stelle der Fehler aufgetreten ist.
Der Vortrag elektrisierte mich. In meiner Dienststelle fand ich ein Lager mit alten Klein- und Telegraphenrelais. Diese eignen sich sehr gut für den Aufbau logischer Schaltungen (siehe Bild 12). Mit diesen Relais baute ich logische Schaltungen auf, die ich zu einem Hamming Codierer zusammenbaute. Bild 12: Prinzipschaltbild einer Und-Schaltung im Zustand 1 and 1 = 1


In unserer Nachrichtenwerkstatt diente ein ausgezeichneter Mechaniker. Dieser half mir das Konzept eines Kybernetikbaukastens zu verwirklichen. Der Baukasten bestand aus einer großen Pertinaxplatte mit Fassungen und Buchsen. Darauf konnte man ein Sortiment von UND-, ODER-, NICHT- Gattern sowie ANTIVALENZ-Schaltungen stecken und zu komplexeren Bausteinen, z.B. Volladdern zusammenschalten. Der Baukasten wurde im Unterricht der Offiziersschüler benutzt, um logische Schaltungen in der Rechen- und Signalisierungstechnik zu erklären. Siehe Bild 13.
Auch eine Rechenmaschine wurde mit Relais aufgebaut. Mit der Maschine konnte der größte gemeinsame Teiler zweier Zahlen bestimmt werden (Bild 14). Die logischen Schaltungen und der Arbeitsspeicher wurden dabei durch die Telegraphenrelais rechts und links der Metallplatte gebildet. Links unten ist das Glühlampenfeld für die Ausgabe zu sehen. Über den Lochstreifensender (im Vordergrund) wurde das Programm eingegeben. Der Automat hatte zwar kein Zusesches Format, repräsentierte aber die Komponenten einer Anfang 1958 wurde an unserer Schule ein junger Physiklehrer eingestellt. Er hieß Klaus Karl, war ein guter Pädagoge, fachlich versiert und wissenschaftlichen Visionen aufgeschlossen. Zur Qualifikation auf elektrotechnischem Gebiet führte er an der Ingenieurschule Mittweida ein Fernstudium durch.
Bild 13: Kybernetikbaukasten, Aufbau einer Antivalenz Als Ingenieurarbeit entwarf und baute er 1962 das Modell eines elektronischen Digitalrechners auf Transistorbasis. Es handelte sich um eine programmgesteuerte Einadress-Serienmaschine mit Flip-Flop- Speicher für Zahlen und Befehle. Mit dem Gerät konnten sechsziffrige Binärzahlen addiert, subtrahiert und dividiert werden.
Das war der Beginn unserer Arbeit an der Schule mit der Digitalrechentechnik. Die in der DDR 1955 fertiggestellte OPREMA bestand aus etwa 17.000 Relais, wurde zur Berechnung von Linsen eingesetzt und stand für uns an der Schule in sehr weiter Ferne. Auch der 1960 auf der Frühjahrsmesse vorgestellte ZRA1 war eine Maschine für Rechenzentren von Forschungs- Bild 14: Modellrechenautomat auf Relaisbasis Bild 15: Modell eines Elektronischen Digitalrechners auf Transistorbasis Seit Erscheinen des Buches „Kybernetik, Regelung und Nachrichtenübertragung im Lebewesen und in der Maschine" von Norbert Wiener im Jahre 1948 war es auf vielen Fachgebieten in der DDR üblich nach Analogien zur und Anwendungen für die Kybernetik zu suchen. Oberst Dr. Raulien vom Institut für Mechanisierung und Automatisierung der Truppenführung schrieb das Buch „Kybernetik im Militärwesen", und wir an der Nachrichtenschule entzündeten unsere Fantasie daran die Prinzipien der Kybernetik im Unterricht einzusetzen. In der Zeitschrift „Mathematik und Physik in der Schule" 10 (1963) Hefte 2 und 3 erschien ein Artikel von L. N. Landa mit dem Titel „Kybernetik und Unterrichtstheorie".
Nach Landa besteht ein Mangel des Unterrichts gegenwärtig darin, dass er als ein Prozess mit schlecht funktionierender Rückkopplung verläuft. Eine Möglichkeit eine solche Maschine zu gestalten, zeigt die von mir aufgebaute Apparatur Bild 16 : Audiovisuelle Unterrichtsmaschine Auf ein Tonband wurde ein Kurzvortrag mit eingestreuten Fragen aufgenommen. Bestandteil des Vortrags sind Lichtbilder. Der Lernende drückte bei jeder Frage eine Antworttaste. Das Gerät zeigte an, ob die Antwort richtig oder falsch war. Die Antwort musste aus zehn möglichen ausgewählt werden. Bei falscher Antwort nahm das Gerät die Richtigstellung vor. Eine solche Anlage ist zum Selbststudium ohne Weiteres geeignet. Der Aufwand ist aber beträchtlich. Sollen mehrere Schüler eine solche Anlage gleichzeitig benutzen, muss die Klasse in kleine Kabinen unterteilt werden, in denen die Schüler mit Kopfhörern sitzen. Zu solchen Überlegungen kam es aber nicht mehr, da die Nachrichtenschule 1963 mit den Schulen anderer Waffengattungen zur Offiziersschule der Landstreitkräfte in Löbau Zittau zusammengelegt wurde.
5.3 Die Fehlermatrix
Die Arbeiten von Landa hatten für den Unterricht an der Nachrichtenschule noch eine weitere Konsequenz. Landa wandte den Begriff des „Erkennungsalgorithmus" u. a. auf das Erkennen einfacher Satztypen an, indem er empfahl, die Suche nach deren entscheidenden Merkmalen (Subjekt, Prädikat usw.) schrittweise nach einem algorithmischen Schema zu vollziehen. Warum sollte ein solches Vorgehen nicht auch beim Erkennen spezieller Typen elektronischer Bauelemente (z. B. Elektronenröhren) oder sogar von Fehlertypen an einem Nachrichtengerät funktionieren? Bei der Suche nach entsprechenden Fehlererkennungs- oder Fehlersuchalgorithmen hatte mein Kollege Klaus Karl die Idee, die häufigsten Fehler nacheinander künstlich „einzubauen" und das jeweils daraus folgende Verhalten des Geräts messtechnisch zu erfassen. Dabei wird eine Tabelle entsprechend Bild 17 angelegt.
Im Kopf der Tabelle werden die Bestandteile eines Gerätes, Baugruppen oder Bauelemente eingesetzt. Danach sind Messungen (oder auch Prüfungen) festzulegen, die mit M1 bis Mn bezeichnet werden. Der Buchstabe im Kreuzungspunkt von Spalte und Zeile gibt an, ob ein Fehler Fn das Ergebnis der Messung Mj beeinflusst (J) oder nicht beeinflusst (N). Der Wert w(Fi) gibt an wie groß die Wahrscheinlichkeit ist, dass bei defektem Gerät gerade dieser Fehler auftritt.
Bild 17: Zusammenhang zwischen Fehler und Messwert Es leuchtet ein, dass zur Unterscheidung der Fehler sich alle Spalten des Schemas voneinander unterscheiden müssen. Es erscheint ebenfalls logisch, dass die Unbestimmtheit dafür, welcher Fehler aufgetreten ist, ein Maximum besitzt, wenn alle Fehler mit der gleichen Wahrscheinlichkeit auftreten. Bei ungleicher Wahrscheinlichkeit ist zweckmäßig diejenigen Messungen als erste auszuführen, die die Fehler mit der größten Wahrscheinlichkeit aufdecken. Interessenten an diesem Thema seien an den Artikel; J. Göller und K. Karl: Die Optimierung der Fehlersuche an elektronischen Einrichtungen mit Hilfe der Informationstheorie. Nachrichtentechnik 15 (1965) H.12 S.455-461, verwiesen.
Bei der Verlegung der Nachrichtenschule der NVA 1963 nach Zittau verließ Klaus Karl unsere Lehreinrichtung und wechselte zum Deutschen Pädagogischen Zentralinstitut in Berlin, wo er 1969 zu Fragen des Programmierten Unterrichts promovierte.
Dr. Karl arbeitete seit 1973 am Forschungs- und Rechenzentrum der Akademie der Pädagogischen Wissenschaften der DDR in Dresden, u. a. an der Erforschung quantitativer Zusammenhänge im Leistungsverhalten von Schülern im Mathematikunterricht. Das sind die Mühen der Ebene bei der Verfolgung von Visionen wie sie die Kybernetik für den Unterricht hervorbrachte.
6. Hintergrund ab 1960
In der Rechentechnik gab es drei verschiedene Entwicklungsrichtungen.
Der an der TU Dresden (1963) entwickelte D4a war mit 200 Transistoren bestückt, dieRechengeschwindigkeit lag bei 2000 Grundoperationen/Sekunde.
Zur internen Datenablage kam ein Trommelspeicher zum Einsatz, der eine Kapazität von4000 Zeichen (33 Bit Wortlänge) hatte. Die Dateneingabe erfolgte über die Bedientastenoder Lochband, die Ausgabe über einen Streifendrucker.
Der Cellatron C8206 (Bild 18) war eine Schreibtischbauform des D4a (ab 1967).
Bild 18: Cellatron C8205 Im Gegensatz dazu standen die schwergewichtigen Großrechner. In der DDR stand ab 1967 der sowjetische Rechner BESM-6 (1967) zur Verfügung. Er verarbeitete 1 Million Befehle in der Sekunde bei einer Taktfrequenz von 9 MHz. Er bestand aus 60,000 Transistoren und 170,000 Dioden. Die Programme wurden in Lochkarten gestanzt und über spezielle Leser eingegeben. Ergebnisse wurden ausgedruckt.
Die BESM-6 war der Prototyp der Maschinen wie auch die amerikanischen IBM-Maschinen für Stapelverarbeitung (Batch-Jobs).
Bild 19: Mainframe BESM-6 ! Die Verarbeitung von Batch-Jobs war lange Zeit eine Domäne von Mainframes. Ein BESM-6 stand im Institut für Hochenergiephysik der Akademie der Wissenschaften in Zeuthen (sozusagen vor unserer Haustür) 6.3 Multiuser-Systeme
Ein Betriebssystem ist die Verwendung (den Betrieb) eines ermöglicht. Es verwaltet Speicher, Ein- und Ausgabegeräte und
steuert die Ausführung von Die ersten Rechner besaßen kein
Betriebssystem. Z.B. wurde die OPREMA
über Stecktafeln programmiert. Mit der
Einführung der Modellreihe System 360 von
IBM führte IBM 1964 das Betriebssystem
OS/360 ein. Es war das erste
Betriebssystem, das
modellreihenübergreifend eingesetzt wurde.
Bei der Firma Digital Equipment Corporation
(DEC) wurden zu Beginn der 60iger Jahre
Kleinrechner gebaut, die sie
Programmierbare Datenprozessoren
nannten. (PDP-1 bis PDP-16).
Auf einem PDP-7 (Bild 18) entwickelten Ken
Thompson (im Bild 19 li.) und Dennis Ritchie
(im Bild 19 re.) um 1968 das Betriebssystem Bild 20 : Der Rechner PDP7 der Fa.DEC UNIX. UNIX ist ein Multiuser System.
Es gestattet, dass gleichzeitig mehrere Nutzer auf den Rechner zugreifen. Das geschieht durch Timesharing. Den Benutzern werden nacheinander Zeitintervalle zur Arbeit zugeteilt. Dieser Betrieb wird auch Multitasking genannt. Das Multiusersystem UNIX wurde Anfang der 70iger Jahre auf Rechner vom Typ PDP-11 portiert und 1975 an die Universitäten verschenkt. Dieser Schachzug war sehr gut durchdacht. An den Universitäten entwickelten Lehrkräfte und Studenten viele Programme, die UNIX immer attraktiver machten.
UNIX ist in der höherenProgrammiersprache C geschrieben.
Damit kann auf jedem Computer, aufdem ein C-Compiler läuft, UNIX implementiert werden. Bild 21: Ken Thompson (li.) und Dennis Ritchie r.) ! Besonders die Universität von Berkely förderte die Weiterentwicklung von UNIX. 6.4 Paketdatenübertragung
Telefonieren kann man schon seit 100 Jahren. Am Anfang hat man zu Beginn eines Telefongesprächs das Fräulein vom Amt angerufen und gebeten, mit einem Partner verbunden zu werden. Später wurde zu Beginn des Telefonats die Nummer des Partners gewählt. Die Verbindung erfolgte dann automatisch durch eine Fernsprechvermittlung. Mit einer Fernschreibmaschine kann man seit 80 Jahren Schriftstücke elektrisch übertragen. Das Fernschreiben erfolgt ebenfalls über Wählverbindungen. Mit dem Aufkommen der Rechentechnik entstand der Wunsch Rechner über größere Entfernungen miteinander zu koppeln. Das war natürlich prinzipiell über Fernschreibleitungen möglich, aber die Fernschreibgeschwindigkeit war viel zu niedrig, gemessen an der Arbeitsgeschwindigkeit der Elektronenrechner. Da entwickelten (unabhängig von einander) Paul Baran 1960 in den USA und Donald Watts Davies 1965 in England ein Verfahren, das sie Paketdatenübertragung nannten. Da auf einer Lochkarte, die zur Programm- und Dateneingabe in den Rechner dient, 80 Zeichen pro Zeile geschrieben wurden (Löcher für 1 und „Kein-Loch" für 0 ), bestanden die Datenpakete am Anfang aus Blöcken von 80 Zeichen 0 oder 1. Die Übertragungsgeschwindigkeit war zunächst auf 48000 Bit in der Sekunde begrenzt. Der Datenblock besaß einen Kopf, der den Namen des Absenders und die Adresse des Empfängers enthielt.
Bild 22: Datenpaket mit Adresse, Absender und 80 Zeichen Information.
Damit war es möglich, über die gleiche Leitung Datenpakete von verschiedenen Quellen an unterschiedliche Rechner zu senden. In einer Paketvermittlung wird von jedem ankommenden Paket die Adresse gelesen, wonach das Datenpaket in eine Leitung geschickt wird, die schließlich zum Zielrechner führt.
6.5 Die Vernetzung von Computern stand nun auf der Tagesordnung.
Im Verteidigungsministerium der USA gab es eine Abteilung die hieß ARPA (Advanced Research Projekts Agency) Agentur für wissenschaftlich bedeutsame Forschungsprojekte. Unter anderem gab die ARPA den Universitäten Geld für den Ankauf von (in den 60er Jahren sehr teuren) Rechenanlagen, wenn sie für die militärische Forschung arbeiteten. Viele Universitäten bewarben sich um einen Computer, aber soviel Geld, alle Universitäten auszustatten, hatte die ARPA nicht.
Ein Mitarbeiter der ARPA hieß Bob Taylor. Der ärgerte sich zusätzlich darüber, dass in seinem Büro Verbindungen zu drei Großrechnern (an drei Universitäten) bestanden, wobei jede Verbindung mit einem anderen Gerät (Computerterminal) abgeschlossen war. Er hatte die Idee ein landesweites einheitliches Computernetzwerk zu schaffen. Er fand die Unterstützung von J.C.R. Licklider, einem Wissenschaftler des MIT (Massachusetts Institute of Technology), der zusammen mit Taylor 1967 das erste Papier zum Thema Internet verfasste. Das ARPAnet, das sie gemeinsam mit einer kleinen Gruppe von Wissenschaftlern und Ingenieuren entwickelten, wurde später zur Grundlage für das heutige Internet. Im Jahre 1969 vergab die ARPA den Auftrag für den Bau der Bild 23: Kernzelle des ARPANET ! Datenvermittlung (des IMP = Interface Message Prozessor) an die Firma Bolt Beranek and Newman. Der IMP war der wichtigste Bestandteil des zukünftigen Netzwerkes. Obwohl selbst große Firmen wie AT&T und IBM abgelehnt hatten, sie hielten das Projekt für nicht realisierbar, nahm "Bolt Beranek und Newman" (BBN) an. Ein halbes Dutzend Ingenieure, die sich selbst als die "IMP-Guys" bezeichneten, arbeiteten nun rund um die Uhr und schafften es tatsächlich, den IMP (auf der Grundlage eines Minicomputers 516 von Honeywell) in der vorgegebenen Zeit zu bauen. Neun Monate später konnte der erste IMP an der University of California Los Angeles (UCLA),, installiert werden. Ein landesweites Netzwerk, genannt ARPAnet, wurde ab jetzt ständig weiterentwickelt. 7. Vordergrund ab 1964
Mit der Fusion der Offiziersschulen der Waffengattungen der Landstreitkräfte in Zittau wurde zwar ein Rationalisierungseffekt erzielt, aber mein schöpferischer Spielraum für pädagogische und wissenschaftliche Arbeit wurde enger. Als Stellvertreter des Fachrichtungsleiters Nachrichten musste ich Genehmigungen einholen, wo ich in Döbeln, als Stellvertreter des Leiters für die technische Ausbildung freie Hand hatte.
Der Versuch an der TH-Dresden auf dem ZRA1 praktische Beispiele für die Fehlermatrix zu programmieren verlief unbefriedigend, da der ZRA1 nur für Stapelbetrieb vorgesehen war und bei Änderung der technischen Parameter neue Lochkarten gestanzt werden mussten.
Die Berufung zum Leiter der Erprobungsstelle für Nachrichtengerät (Nachrichten Erprobungsstelle, NES) der NVA in Niederlehme, im Jahr 1965, durch den Chef Nachrichten Generalmajor Reymann nahm ich daher gerne an.
In das zweite Jahr meiner Tätigkeit als Leiter der NES (1967) fiel der 10. Jahrestag des Bestehens dieser Einrichtung. Ich schlug dem Chef Nachrichten vor, aus Anlass dieses Jubiläums einen wissenschaftlichen Tag durchzuführen, bei dem Vorträge über Perspektivthemen gehalten und eine Ausstellung technischer Geräte gezeigt werden sollte, die durch die NES betreut wurden.
In meinen Vortrag, der natürlich vom Chef Nachrichten zu bestätigen war, baute ich alles ein, was ich der Führung an Neuem mitteilen wollte. Dem Chef Nachrichten Generalmajor Reymann war es gelungen, den Chef des Hauptstabes Generaloberst Keßler zu dieser Veranstaltung einzuladen und mitzubringen.
Der Chef des Hauptstabes zeigte sich sehr interessiert und verfolgte sowohl meine Ausführungen als auch die Ausstellung sehr genau. 7.1 Uns steht der erste Kleinrechner zur Verfügung
Nach der Veranstaltung lud GM Reymann den hohen Gast zu einem kleinen Imbiss und einem Gespräch in mein Dienstzimmer ein. Auf dem Weg dorthin ging der Generaloberst in meiner Begleitung und stellte viele Fragen, aus denen ich bemerkte, dass er die gesamte Veranstaltung sehr aufmerksam verfolgt hatte. So erkundigte er sich sehr genau, wozu ich den Kleinrechner Cellatron C8206 (Bild 18), um den ich in meinem Vortrag gebeten hatte, einsetzen wolle. Meine Antwort, das Gerät für technische Analysen verwenden zu wollen schien ihn zu überzeugen, und so wurde das Gerät ein halbes Jahr später geliefert.
Eine der ersten Anwendungen des Kleinrechners bestand in der automatisierten Auswertung der Nachrichtenlage, die im Gerätesatz P 249 einer sowjetischen Nachrichtenzentrale generiert wurde. Der genannte Gerätesatz enthielt ein Gerät, das die Zustandsdaten aller Übertragungsgeräte auf einer Fernschreibmaschine (Streifenschreiber) aufzeichnete. Dieses Protokoll diente als eine Art Logbuch, an dem man nachträglich die Funktion oder Nichtfunktion der einzelnen Verbindungen nachweisen konnte. Wir ließen diese Protokoll auf einen Lochstreifensender ausgeben und speisten es in den C8206 ein, der daraufhin eine übersichtliche Liste der Kanäle und ihres Zustandes über der Zeit enthielt. Es sollte noch ein paar Jahre dauern, bis dieser Prozess mit Hilfe eines Mikrorechners online durchgeführt werden konnte.
7.2 Verbindungen zum Institut für Nachrichtentechnik
Die Lage der NES in Niederlehme bei Königs Wusterhausen machte es möglich, bequem Verbindungen mit Instituten und Industrie, sowie Hochschulen in Berlin anzuknüpfen und zu pflegen. Einer meiner ersten Besuche galt dem Institut für Nachrichtentechnik, dessen neuer Direktor Dr.-Ing. Peter Fey war, den ich noch von der TH Dresden kannte und dessen Vortrag über den Hamming-Code mich auf Probleme der Fehlerkorrektur und die logischen Schaltkreise gebracht hatte. Dr. Fey war ein Wissenschaftler von Weitblick und „großem Integral" (wie man profundes Breitenwissen nennt) und in diesem Sinne aufmerksamer Leser internationaler Fachliteratur, die in der Bibliothek des INT gut sortiert vorhanden war. Er hatte natürlich verfolgt, dass PCM-Geräte mit 24 Kanälen um 1965 in den USA in Ortsnetzen eingesetzt wurden. Es gab da natürlich einen Stilbruch, da beim Übergang vom digitalen Kanal zur analogen Vermittlung immer Analog- Digitalumsetzer eingesetzt werden mussten. Erste Stimmen aus den USA plädierten für den Aufbau digitaler Vermittlungen, mit denen man ein IDN (Integriertes Digitales Nachrichtensystem) aufbauen müsse.
Dr. Fey war von der Idee fasziniert und reichte das Thema IDN als Staatsplanthema ein.
Aufgrund fehlender Wirtschaftskraft der DDR wurde das Thema wieder fallengelassen.
Ein PCM-Gerät für 32 Kanäle wurde jedoch entwickelt.
Der Autor hatte die Gelegenheit, an der Vorstellung eines im Institut für Nachrichtentechnik entwickelten PCM 32 vor Repräsentanten der Deutschen Post (Ost) teilzunehmen. Die Vertreter der Fernmeldehoheit sahen angesichts der im praktischen Einsatz gut funktionierenden Trägerfrequenzgeräte keinen Bedarf an digitaler Technik.
Diese Ansicht änderte sich allerdings, als sich herausstellte, dass mit PCM-Technik der dringende Bedarf an Stromwegen gedeckt werden konnte. Denn die im Ortskabelnetz noch aus Kaisers Zeiten vorhandenen 4-Draht-Kupferleitungen waren alle zwei Kilometer mit einem Spulenkasten ausgerüstet, der sich gut für die Unterbringung eines Repeaters eignete, der die verflachten PCM-Impulse wieder auffrischte. Damit konnten beim Einsatz von PCM auf diesen Kanälen 30 Verbindungswege geschaltet werden.
Das im INT entwickelte PCM-Gerät wurde in der NES erfolgreich beim Einsatz auf schwerem Feldkabel erprobt. Aus der Bibliothek des INT konnte ich mir ebenfalls westliche Fachliteratur ausleihen. Im MfNV bekam ich diese Zeitschriften nur in der VS-Stelle und durfte sie nicht mit nach Hause Die ersten Aufgaben zur Erprobung von Datenübertragungsgeräten über Drahtnachrichten und Funkkanälen ließen neue Fragen entstehen, für die es im Rahmen der bisherigen Aufgaben keine Antworten gab. Dieses neue Aufgabengebiet war dem Umstand geschuldet, dass die militärische Führung ihre Befehle und Meldungen nicht mehr allein telefonisch über Funk und Draht oder durch Fernschreiben übermittelte, sondern über Modem in Form von Es gelang mir, neben den Unterabteilungen Funk- und Draht-Nachrichtentechnik, die sich vor allem mit der Erprobung von Technik aus DDR-Produktion in Bezug auf ihre Verwendbarkeit in der NVA beschäftigt, eine selbständige Arbeitsgruppe Datenübertragung im Stellenplan zu installieren. Ein Mitarbeiter dieser Arbeitsgruppe war Oberleutnant Claus Wilhelm, Fernstudent an der TH Dresden, ein Offizier der über schöpferische Phantasie und Durchsetzungsvermögen verfügte.
Zur Besetzung von Zivilplanstellen hatten wir Absolventen der TH Dresden geworben. Einer davon ein ruhiger, kreativer Diplom-Ingenieur war Eberhard Johlig, den ich auch in der AG DFÜ Oltn. Wilhelm wollte sich nicht mit den herkömmlichen Methoden der Erprobung begnügen, d.h. Anschließen der Geräte und versuchen die Ergebnisse zu deuten. Er schlug vor, eine Messeinrichtung zu bauen, die Fehlerstrukturen auf den von uns genutzten Nachrichtenkanälen misst. Die Idee zum Bau eines Messplatzes entstand, den wir SUSI (Gerät zur Struktur Untersuchung Statistischer Impulsfolgen)
nannten. Nach Bewilligung der erforderlichen Mittel schickte Oltn. Wilhelm den Dipl.-Ing. Johlig zum Büromaschinenwerk Karl Marx Stadt und es entstand der erste Messplatz dieser Art in Deutschland. Die SUSI wurde Anfang 1968 in Betrieb genommen (Bild 22). Der Sinn dieser Messeinrichtung bestand darin, die Fehler nicht nur zu zählen, sondern ihre genaue zeitliche Lage bei der Übertragung einer Bild 24: Messplatz SUSI Bild 25: Längengewichtsverteilung der Fehler auf einem UKW-Kanal bei Übertragung von Blöcken der Länge n=1, Gesamtzahl der Fehler 8386 Nachricht zu registrieren. Damit konnte nicht nur die Menge der Fehler in der Zeiteinheit registriert werden, sondern auch die Fehlermuster. Aus Bild 25 ist zu erkennen, dass 5856 übertragene Datenblöcke einen Fehler aufwiesen. In 970 Blöcken traten Doppelfehler auf, in 186 Blöcken traten zwei Fehler in einem Abstand von einem ungestörten Bit auf usw.
Eine ausführliche Beschreibung der Messergebnisse und deren Anwendung ist in dem Buch „Daten-Übertragung, Militärverlag der DDR, 1976. Herausgegeben von Claus Wilhelm" Die gemessenen Daten waren eine Fundgrube. Ihre Auswertung sowohl auf unserem C8206, auf der Minsk 22 im Institut für die Automatisierung der Truppenführung (IAT) in Dresden sowie ab Anfang der 70er Jahre auf der BESM-6 des Instituts für Hochenergiephysik in Zeuthen. Sie gestattete neue Einsichten in die Physik der Nachrichtenkanäle. Eine weitere Verstärkung erhielt die Arbeitsgruppe Datenübertragung durch einen als Offizier eingestellten Absolventen der TH. Dresden, Ltn. Dipl.Ing. Peter Uhlmann.
Hauptmann Wilhelm und Oltn Uhlmann verbrachten manche Nacht auf der Luftmatratze hinter der Minsk 22 und überwachten die Berechnung von Übertragungsprozeduren und Die Messergebnisse gestatten es sowohl optimale Prozeduren zur Datenübertragung auszuarbeiten, als auch geeignete Codierverfahren zur Fehlersicherung zu bestimmen. Auch zivilen Institutionen konnten wir helfen. Ein Mitarbeiter des Instituts für Post und Fernmeldewesen Dipl. Trömel hatte die Fehlerstruktur bei Datenübertragung über Kanäle des Selbstwählfernverkehrs auf Lochstreifen gespeichert. Über unsere Auswerte-Methoden konnten wir eine mittlere Fehlerrate von 10-3 ermitteln.
Mit diesen Arbeiten rückt die NES in die vordere Reihe der Institute der DDR, die sich mit Datenfernübertragung beschäftigen. 8. Hintergrund ab 1970
8.1 Der Mikroprozessor
Die Firma Intel war 1968 von Gordon E. Moore, Andy Grove und Robert Noyce (vergl. Pkt. 4) gegründet worden. Moore hatte 1965 das sog. Moorsche Gesetz formuliert, das aussagt, dass sich die Komplexität integrierter Schaltkreise mit minimalen Komponenten-Kosten etwa alle zwei Jahre verdoppelt.
Die damals kleine Firma Intel erhielt von dem japanischen Unternehmen Busicom 1969 den Auftrag für eine programmierbare Rechenmaschine einen Chipsatz von zwölf Halbleiterbausteinen zu entwickeln. Mit dem Auftrag wurde Tedd Hoff betraut. Hoff hatte die Idee den Auftrag mit einer Mehrzweckarchitektur zu erfüllen. Er hatte mit einem DEC-Computer gearbeitet und war begeistert, wie dieser Computer mit einem sehr einfachen Befehlssatz komplexe Probleme bewältigt. Folglich wollte er so etwas wie einen Computer auf einem Halbleiterchip nachempfinden.
Zu Hoffs Entwurfsteam gehörten damals Stan Mazor und Frederico Faggin, die letztlich im Konzept einen Satz aus vier Chips vorlegten: Einen ROM-Chip (den Intel 4001), ein RAM für die Speicherung der jeweils errechneten Daten (den Intel 4002), ein Schieberegister für Eingang und Ausgang (den 4003) und letztlich die Prozessor Einheit, die CPU (den 4004). Diese 4004 CPU war der erste in Serie gebaute Mikroprozessor. Er hatte eine Taktfrequenz von bis zu 740 kHz.
Realisiert hat das Design dann in nur neun Monaten Frederico Faggin.
Nach einigen ökonomischen Querelen mit dem Auftraggeber Busicom, verkaufte Intel den Chipsatz billiger, behielt aber dafür die Rechte an der Erfindung des Mikroprozessors.
Der 4004 wurde 1972 durch den 8008 abgelöst, den ersten 8-Bit-Mikroprozessor der Welt. Dieser Prozessor war der Vorläufer für den äußerst erfolgreichen Intel 8080 (1974) und weiterer 8-Bit-Prozessoren von Intel. Der Motorola 6800 stand ab August 1974 im selben Jahr wie der 8080 zur Verfügung. Faggin verließ nach vier Jahren das Unternehmen Intel und war Mitbegründer vo wo 1976 mit dem Z80 einer der wichtigsten 8-Bit-Mikroprozessoren entstand. Der Krieg in Vietnam trat in die letzte Phase ein. Die Amerikaner, die ab 1965 in die Kämpfe zwischen Nord- und Süd- Vietnam eintraten, bauten zur Gewährleistung der militärischen Führung ein leistungsfähiges Fernmeldesystem auf. Da ein stationäres Nachrichtennetz nur in sehr eingeschränktem Maße zur Verfügung stand entfalteten amerikanische Firmen ein Netz aus Troposphären-Nachrichten-Verbindungen.
Die Truppen verfügten über die modernsten Nachrichten-Geräte, die hierbei im Einsatz erprobt wurden. Die geleisteten Anstrengungen wurden ausführlich in der der Fachpresse, u.a. in der Zeitschrift Elektronics beschrieben. So z.B. wurde über die in der Hauptnachrichtenzentrale in Saigon eingerichtete Rechnergestützte Fernschreibzentrale(Autodyn) berichtet.
Bis zum März 1975 wurden die Amerikanischen Truppen wieder abgezogen.
Die meisten Waffen, unter anderem die gesamte Fernmeldetechnik wurde der Südvietnamesischen Armee übergeben. Der Krieg endete mit der Einnahme von Saigon am 30. April 1975. Die Technik war Kriegsbeute der Vietnamesischen Volksarmee. Während der Kampfhandlungen wurden Rangereinheiten der Nordvietnamesischen Truppen eingesetzt, die Technische Zentralen sowie Brücken und andere strategisch wichtigen Objekte vor der Zerstörung zu sichern hatten.
8.3 Das Arpanet
8.3.1 Fortsetzung des Aufbaus
Im Verlaufe der 70er Jahre wurde das ARPANET immer weiter über das Territorium der USA gezogen. Es wurden successive die Werkzeuge und Methoden gefunden, die gegenwärtig bei Betrieb und Führung des Internets angewendet werden. Der Daten-Durchsatz der Verbindungsleitungen betrug 50 Kilobit. Für die damalige Zeit war das viel, für heutige Verhältnisse wenig, denn im ISDN werden 64 Kilobit auf einer Teilnehmer-anschlussleitung übertragen. Die Einbeziehung von Bolt und Beranek in das Netz mit dem IMP Nummer 5 gestattete die Fernwartung und Diagnose im gesamten Netz. Es entstand das erste Network Control Center (NCC).
Bis jetzt war das Netz nur ein (Groß-)Rechnerverbund. Nun entstand der Wunsch sich auch mit einem Terminal an das Netz anzuschließen und so sich auf einem fernen Rechner einzuloggen. Die nächsten IMPs erhielten eine Erweiterung. Neben den 4 Host-Schnittstellen erhielten sie 63 Schnittstellen zur Bedienung von Terminals. Ein solcher Terminal-IMP wurde TIP genannt.
Ab Mitte 1971 gab es eine Network Working Group, die Protokolle entwickelte mit Hilfe deren Rechner und Terminals unterschiedlichster Hersteller miteinander kommunizieren konnten. Das erste Protokoll war das Telnet Protokoll. Damit war es möglich sich mit einem fernen Rechner zu verbinden.
Im Jahre 1972 wurde das File Transfer Protokoll FTP vorgestellt, mit dem man Dateien (Files) von einem Rechner zum anderen übertragen konnte. Die Protokolle wurden den Nutzern in sog. RFCʻs (Requests For Comment ) vorgestellt. Das war eine Einladung seine Gedanken zum Protokoll mitzuteilen. FTP war in der RFC 354 spezifiziert, Telnet in der RFC 318. Beide Protokolle wurden ständig weiterentwickelt und werden heute noch benutzt. Im Jahre 1972 wurde die ARPA in DARPA (Defense Advanced Research Projects Agency)umbenannt. Der Name ARPANET änderte sich dadurch nicht.
Ein Programm, das man als meistbenutztes Programm des Internets bezeichnen kann, ist E-Mail, die elektronische Post. Ray Tomlinson schrieb 1972 das Email-Programm mit dem @ als Trennzeichen zwischen Name und Adresse. Leider sind 90 % der E-Mails heute unerwünscht, also Spam, ähnlich der Werbungen die unsere Briefkästen überfluten.
Im Herbst 1972 wurden die bis dato installierten 29 Knoten bei einer großen Präsentation, erstmals als ARPANET bezeichnet. Das bis 1974 genutzte Protokoll, das die Kommunikation der Rechner mit den IMPʻs regelt, hieß Network Control Protocol (NCP). Das NCP setzte voraus, dass die Verbindungen des Netzes 100 % zuverlässig waren. Da dies nicht der Fall war, entwickelten Cerf und Kahn ein Konzept, bei dem die Nachrichten in Datagramme eingeschlossen und nur am Ende der Verbindung ausgepackt werden. Die Datagramme waren mit einem Protokollkopf versehen, dem Transmission Control Protocol (TCP) Kopf, mit dem die Unversehrtheit der Nachricht festgestellt werden konnte. Damit wurde das Problem der Netzwerk-Zuverlässigkeit gelöst. Die Sicherung der Zuverlässigkeit wurde vom Netz auf die Hosts verlagert.
Im Oktober 1977 gelang es, die drei Netzwerke Packet Radio Netzwerk, ARPANET und SATNET zu koppeln. 8.3.2 Das IP-Protokoll
Anfang 1978 fand am Information Sciences Institute (ISI) eine Beratung zum Thema TCP statt. Im Rahmen dieser Veranstaltung schlugen Cerf, Postel und Cohen vor, vom TCP den Teil des Übertragungs-Steuerungsprotokolls für das Routing abzutrennen und dafür ein eigenes Protokoll, das Internet-Protokoll IP zu entwickeln. Am Anfang der zuübertragenden Nachricht stand nun nicht mehr der TCP, sondern der IP Kopf.
Im unteren Teil von Bild 24 ist ein Paket mit einem IP-Header aufgezeichnet. Die Struktur dieses Header ist im oberen Teil des Bildes dargestellt. Da das IP-Protokoll in der gesamten Netzwerktechnik eine Schlüsselrolle spielt, soll der Inhalt der einzelnen Felder des Kopfes kurz erklärt werden: Bild 26: Aufbau des IP-Kopfes und eines IP Rahmens - Die Versionsnummer ist allgemein 4 (IPV4). Die Version 6 ist in der Einführung
- Die Länge des Kopfes wird in 32 Bit Worten angegeben. Sie beträgt (ohne das
Optionenfeld) normalerweise 5.
- Servicetypen sind Priorität, Wartezeit, Durchsatz und Zuverlässigkeit. Da im Internet
allgemein nicht Wege verschiedener Qualität zur Verfügung stehen, wird von diesen Klassen dort allgemein kein Gebrauch gemacht.
- Die Paketlänge stellt die Gesamtlänge des Paketes einschließlich Protokollkopf dar. Die
maximal mögliche Länge eines IP-Paketes beträgt 216 = 65535 Bytes.
- Die Identifikation ist eine Zahl, die pro Paket vom Absender vergeben wird und auch zur
Identifizierung der Fragmente beim Aufteilen eines Paketes in kürzere Teilstücke dient.
- DF heißt Donʼt Fragment und stellt das Verbot der Teilung des Paketes in Fragmente dar
Vergleiche auch Bild 25.
- MF heißt More Fragments und zeigt an, dass dem Paket weitere Teilpakete folgen. Der
Fragmentabstand enthält die Lage des Teilpaketes relativ zum Kopf (gezählt in Einheiten zu 8 Byte) - Die Lebenszeit gibt an, wie viele Router (Netzknoten) das Paket durchlaufen darf
(Häufig 64). Beim Durchlauf durch einen Router wird die Lebenszeit (TTL = Time To Live) um 1 verringert. Wenn ein Router das letzte Bit Lebenszeit löscht, schickt er dem Absender eine Information, dass das Paket aus dem Verkehr gezogen wurde. Dadurch wird verhindert, dass Pakete durch das Netz vagabundieren (herumirren).
- Im Feld Transportprotokoll wird angegeben, welchem Protokoll der Paketinhalt
übergeben werden muss. Z.B. steht die Nummer 6 für TCP (Transport Control Protocol) und die Nummer 17 steht für UDP (User Datagram Protocol).
- Die Kopfprüfsumme sichert nur die Felder im Protokollkopf. Der zu transportierende
Paketinhalt wird beim Empfänger durch das Transportprotokoll geprüft.
- Sender- und Empfängeradresse sind 32 Bit lange Internetadressen (siehe Bild 26).
- Optionen sind Angaben für spezielle Zwecke, wie z.B. Netzwerkmanagement usw.
- Füllzeichen dienen der Ergänzung dieser Zeile auf 32 Bit.
Bild 27: Fragmentierung von IP-Paketen Bild 28: Einteilung der Internetadressen IP-Adressen und Domainnamen (auf letztere wird in diesem Zusammenhang nicht eingegangen ) werden durch sog. Network Information Center (NIC) vergeben. Die Firma Network Solutions betreibt als oberste Instanz für das Internet das InterNIC. Von diesem werden die Aufgaben delegiert. Für die Top-Level-Domain *.de (Deutschland) an das DE-NIC.
Außer den Klassen A,B,C gibt es noch das reservierte! Klasse-D-Netz von 224.0.0.0 bis 239.255.255.255 und das reservierte Klasse-E-Netz von 240.0.0.0 bis 254.255.255.255.
Die Adressen 127.x.x.x sind für den Loopback reserviert. Z.B. ist 127.0.0.1 die Adresse des Localhosts. Für den „Hausgebrauch" wurden laut RFC 1918 folgende private Adressbereiche definiert: 1 privates Klasse-A-Netz (10.0.0.0 bis 10.255.255.255), 16 private Klasse-B-Netze (172.16.0.0 bis 172.31.255.255 256 private Klasse-C-Netze (192.168.0.0 bis 192.168.255.255).
Da IP-Pakete über sehr unterschiedliche Netzwerktypen transportiert werden müssen, muss IP in der Lage sein, die Paketgröße der Datagramme an die Eigenschaften der verschiedenen Übertragungsabschnitte anzupassen. Pakete nach CCITT-X25 dürfen z.B. nicht länger als 128 Byte sein. Für Ethernetpakete ist dagegen eine Länge des Datenpaketes von 1526 Byte zulässig. Daher muss das IP-Protokoll in der Lage sein, in jedem Netzknoten die Paketgröße an das jeweils zu benutzende Trägermedium anzupassen. Das bedeutet, dass die Möglichkeit besteht, im Netzknoten Pakete sowohl zu fragmentieren als auch wieder zusammenzusetzen (defragmentieren ).
8.3.3 Das Transport Control Protocol
Die Zustellung der Pakete im Internetprotokoll erfolgt „best effort". Dass Pakete nicht ankommen, muss von dem die Daten sichernden Protokoll bemerkt werden. Die Daten werden durch das Transmission Control Protocol TCP gesichert. 29: Der TCP Protokollkopf Der TCP-Kopf ist in Bild 29 dargestellt. Die wichtigste Einträge im TCP-Protokollkopf sind: - Die 16 Bit lange Prüfsumme erstreckt sich über den Protokollkopf und die zu transportierenden Daten.
- Beim Verbindungsaufbau tauschen die Partner jeweils eine 32 Bit lange Sequenz- Nummer (Sender an Empfänger) und eine Quittungsnummer (Empfänger an Sender) aus. Bei der Übertragung übergibt der Sender die um die Zahl der gesendeten Bytes erhöhte Sequenznummer an den Empfänger, der Empfänger quittiert mit der um die Zahl der empfangenen Bytes erhöhten Quittungsnummer.
- Ein wichtiges Element in der Adressierung auf der Transportebene sind die Portnummern. Von den 216 = 65536 möglichen Portnummern sind einige hundert für die bekannten Dienste fest vergeben. Z.B. besitzt der Internetzugang die tcp-Portnummer 80. Einem Filetransferprotokoll (ftp) Server ist die tcp-Portnummer 21 für den Austausch von Steuerungsinformationen und die tcp-Portnummer 20 für den Datenaustausch zugeordnet. Einen Telnet-Server erreicht man über die tcp-Portnummer 23. Man unterscheidet tcp- Portnummern und User Datagram Protokoll (udp) Portnummern.
Wenn eine tcp/ip Verbindung aufgebaut werden soll, dann muss sowohl die IP-Nummer des Empfängers (Netz und Host-ID) bekannt sein, als auch der Dienst, repräsentiert durch seinen Port an dem die Pakete abzuliefern sind. Damit der Gerufene bzw. Belieferte antworten kann, wählt er aus der Menge der unbenutzten Portnummer (allgemein Werte über 2000) eine aus und gibt sie als Empfänger Port an.
Die Kombination aus kompletter IP Nummer und Portnummer nennt man auch einen Kommunikationsendpunkt oder Socket.
- Der Datenabstand DA gibt die Länge des TCP-Protokollkopf in 32-Bit-Worten an.
- Die Fenstergröße dient der Steuerung des Datenflusses, sie enthält die Anzahl von Bytes, die der Empfänger im Moment puffern kann.
- Es werden die folgenden Flags verwendet: U=Urgent (Dringend), zeigt an, dass der Zeiger im Urgent- Feld gültig ist. A=ACK zeigt an, dass die Quittungsnummer gültig ist. P=Push heißt, die Daten sollen sofort übergeben werden. R=RST heißt Rücksetzen der Verbindung oder ungültiges Element. S=SYN stellt den Wunsch nach Verbindungsaufbau dar. F=FIN stellt den Wunsch nach Verbindungsabbau dar. Die beiden letztgenannten Flags müssen von der Gegenstelle quittiert werden.
- Der Urgentzeiger weist auf das letzte Byte der zu übertragenden Nachricht. Die darauf folgende Information sind dringende Systemnachrichten.
8.4 ALOHAnet
Bei Wikipedia liest man folgendes:Wie das ARPANET wurde das ALOHAnet mit Mitteln der DARPA finanziert. Aber während das ARPANET gemietete Telefonleitungen verwendete, nutzte das ALOHAnet Packet Radio. Beim ARPANET konnte ein Knoten mit mehreren anderen Knoten über Leitungen kommunizieren, während beim ALOHAnet alle dieselbe Funkfrequenz nutzten, womit es notwendig wurde, Kollisionen auf diesem Kommunikationsmedium zu erkennen und zu behandeln.
Beim ALOHAnet wurden zwei Funkkanäle verwendet: ein Broadcast-Kanal (413.475 MHz) und ein Random-Access-Kanal (407.350 MHz). Auf letzterem sendeten die einzelnen Stationen ihre Datenpakete zum Zentralrechner. Dieser bestätigte den Empfang jedes Pakets auf dem Broadcast-Kanal. Versuchten zwei Stationen zugleich zu senden, kam keine der beiden Nachrichten richtig an. Der Zentralrechner sendete keine Bestätigung, und die Sender versuchten es unabhängig voneinander nach einer zufällig gewählten Zeitspanne erneut. Die Chancen, dass beide Sender beim nächsten Übertragungsversuch wieder eine Kollision erzeugten, wurden so minimiert.
8.5 Ethernet
Im Jahre 1972 las Robert Metcalf Aufzeichnungen von Professor Abramson über das ALOHAnet und entdeckte darin Ungenauigkeiten im Prozessablauf. Er fuhr nach Hawaii und schlug vor, die Teilnehmer nicht blind ihre Pakete auf dem Radom-Access-Kanal abzusetzen, sondern vorher in den Kanal hineinzuhorchen, ob er frei ist. Mit dieser Verbesserung arbeitete das ALOHAnet effektiver.
Metcalf erhielt danach von der Firma XEROX, dem Palo Alto Research Center (PARC), den Auftrag für den neu entwickelten Personalcomputer ALTO eine Vernetzungs-Möglichkeit mit anderen Computern zu entwickeln. Da er aus Kostengründen keine Vermittlung oder Ähnliches verwenden wollte, entschied er sich für eine ALOHA-ähnliche Konstruktion. Anstelle des Funknetzes verwendete er ein Koaxialkabel. Die Rechner sind dabei alle direkt mit einem Kabel fest verdrahtet. Ein Rechner, der ein Datenpaket verschicken will, horcht in den Kanal hinein (Carrier Sense) ob er frei ist. Wenn ja sendet er sein Datenpaket. Sollte ein anderer Teilnehmer das Gleiche tun, gibt es eine Kollision, die der Sender registriert (Collision Detection). Der Sender wartet nun ein paar Tausendstel Sekunden (zufällige Verzögerung) und wiederholt den Vorgang. Metcalf taufte das System 1973 Ethernet. Im ETHERNET wird eine zu übertragende Nachricht in Abschnitte (Pakete) zerlegt, die beim Transport über das Ethernet bis 1500 Byte lang sein dürfen.! Die Pakete werden in einen Rahmen eingefügt, der Ziel und Absender eines Paketes und Informationen zu dessen Sicherung enthält. Der Aufbau eines Paketes ist in Bild 30 dargestellt: Bild 30: Aufbau eines ETHERNET_802.3, bzw. ETHERNET_II Rahmens Die Präambel besteht aus 7 mal 10101010-Bit Kombinationen zur Synchronisation desEmpfängers und einer Bitkombination 10101011 zur Signalisation des Rahmenanfangs.
Ziel- und Quell- Adresse sind 6 Byte lange Hexadezimalzahlen, wobei die Quelladressen auf einem Chip der Ethernetkarte eingebrannt und weltweit einmalig sind. Die ersten drei Byte dieser Adresse nennen den Hersteller, die restlichen drei Byte die laufende Nummer der Karte.
Aufgrund ihrer Einmaligkeit wurde die 6-stellige Hexadezimalzahl bei Novell ursprünglich als Adresse der Arbeitsstation bzw. des Servers benutzt, in dem die dazugehörige Ethernetkarte steckt.
Beim alten Netware stand in dem 2 Byte langen Feld nach der Quelladresse die Länge des Datenfeldes. Ein Rahmen dieses Aufbaus ist vom Typ ETHERNET_802.3. Über die Art der Daten bzw. über das verwendete Protokoll wird dabei nichts ausgesagt.
Im von XEROX vorgeschlagenen Rahmenaufbau folgt der Quelladresse ein 2 Byte langesTypfeld. Im Typfeld wird das Protokoll spezifiziert, mit dem die Daten transportiert werden.
In diesem Fall haben wir es mit einem Rahmen vom Typ ETHERNET_II zu tun.
Eine Unterscheidung beider Rahmen ist leicht, da die maximale Länge des Datenfeldesvon 1500 Byte einer Länge von OxO5DC hexadezimal entspricht. Die Liste der Protokoll - Typen wird von der Firma XEROX verwaltet und beginnt dagegen bei 0x0600. Aus der Liste der über 200 Protokolle seien hier nur drei genannt (Bild 29). Das Internetprotokoll wurde oben bereits erklärt. Das von Novell erfundene Protokoll IPX wird nur noch in alten Anlagen verwendet. Bild 31: Ausgewählte Protokolltypen Das ARP soll im nächsten Abschnitt kurz beschrieben werden, da es Grundlage für die Verbindung des Internets mit den lokalen Computernetzwerken bildet.
8.6 Das Adress Resolution Protocol
Nachdem im Internet (Fernnetz) die IP-Adressen eingeführt worden waren, bestand die Notwendigkeit auch in lokalen Netzen mit dem Internetprotokoll zu operieren. Dazu musste eine Methode gefunden werden, die den Rechnern zugeordnete IP-Adresse mit der 6 Byte langen Hardwareadresse in Beziehung zu setzen.
Das zugrunde liegende Protokoll heißt Adress Resolution Protocol ARP. Es funktioniert folgendermaßen: 1. Jeder Rechner verfügt über eine temporäre Tabelle in der die im (Lokalen) Netz bekannten Rechner mit ihrer Physikalischen und ihrer Internet Adresse aufgeführt sind. Z.B.
! Soll ein Datenpaket an die Internet-Adresse 192.168.178.23 gesendet werden, muss die dem Rechner zugeordnete Hardware-Adresse in das in Bild 28 dargestellte Paket eingesetzt und über das Ethernet verschickt werden. Nach einer Zeit (bis 20 Minuten) wird die Tabelle gelöscht und muss bei Bedarf neu aufgebaut werden. Das geschieht wie folgt:2. Es wird ein ARP-Broadcast-Paket mit der Internet-Adresse des gesuchten Rechners und der Absender-Hardware-Adresse gebildet und ins Netz gesendet.
3. Alle Rechner im Netz erhalten das ARP-Paket und vergleichen die darin enthaltenen Internet-Adresse mit ihrer eigenen. Der gesuchte Rechner trägt seine Hardware-Adresse in ein Antwortpaket ein und sendet es zurück.
4. Die oben genannte Tabelle kann nun wieder aufgebaut werden. 8.7 Der erste Personalcomputer war ein Apple
Im Jahre 1975 war Steve Wozniak 26 Jahre alt und bei Hewlett Packard angestellt. Er wollte einen billigen Rechner für Computerinteressenten bauen. Die Chiphersteller Intel und Motorola verkauften ihre Prozessoren für über 300 $. Die kleine Firma MOS Industries verkaufte den zum Motorola 6800 Hardwarekompatiblen 6802 für 25 $. Wozniak rüstete daher seinen PC mit diesem Schaltkreis aus.
Wozniaks Computer sollte einfach zu benutzen sein, daher entschied er sich für eine richtige Tastatur statt Bild 32: a) Steve Wozniak! der bis dahin üblichen Schalter. Außerdem sollte der Rechner direkt an ein Fernsehgerät anschließbar sein um die Kommunikation für den Nutzer zu vereinfachen (andere Geräte benutzen zu dieser Zeit noch Fernschreiber für die Ein- und Ausgabe).
Steven Wozniak und Steven Jobs waren schon in der High School befreundet. Beide interessierten sich für Elektronik und galten als Außenseiter. Nach ihrem Abschluss arbeitete Jobs bei Atari. Im Jahre 1975 löteten sich Steven Wozniak und Steven Jobs in Jobs' Garage einen eigenen Computer zusammen, den Apple I. Insgesamt benötigten sie dafür nur ca. 60 Arbeitsstunden. Der verwendete Prozessor 6502, war leistungsfähiger als der Intel 8080. Steven Jobs und Steve Wozniak gründeten am 1. April 1976 die Firma Apple. Jobs war zu diesem Zeitpunkt 21, Wozniak 26 Jahre alt.
8.8 Die Gründung von Microsoft
Bill Gates programmierte bereits auf der Highschool auf ihm zur Verfügung stehenden Rechnern. Er adaptierte unter anderem BASIC - eine leicht erlernbare Sprache - für die auf- kommenden Mikro-Prozessoren. Als 1975 der Altair 8800 erschien, sahen er und sein Freund Paul Allen die Chance, die schon begonnene Arbeit zu Geld zu machen. Innerhalb von 30 Tagen adaptierten sie BASIC für den Altair 8800. Die Microsoft Corporation wurde 1975 von Bill Gatesund Paul Allen gegründet.
Bild 33: Steve Jobs (links) und Bill Gates (rechts) waren befreundet.
Der Name „Microsoft" steht für Mikrocomputer-Software. Am 6. Januar 1976 wurde „Microsoft" eine eingetragene Handelsmarke. Die Firma veröffentlichte Adaptionen von FORTRAN und COBOL-80. Es gab einen BASIC Compiler, Disketten- BASIC für verschiedene MikroprozessorenMicrosoft entwickelte eine Z80 Karte für den Apple. Zusammen mit dem Betriebssystem CP/M konnte damit ein Apple auch Microsoft Programmiersprachen verarbeiten, 9. Vordergrund ab 70
9.1 Der Lehrstuhl Informationstechnik der TH Karl-Marx-Stadt.
Der Direktor des Instituts für Nachrichtentechnik Dr.-sc.-techn. Peter Fey nahm Ende der sechziger Jahre eine Berufung als Professor und Leiter der Sektion Informationstechnik an der TH Karl-Marx-Stadt an. Er scharte dort alsbald eine Gruppe ambitionierter und kreativer Assistenten und Studenten um sich. Professor Fey war auch im Ausland renommiert und wurde regelmäßig zu Tagungen und Studienaufenthalten eingeladen. Vom Besuch des Zürich-Seminars brachte er 1976 Dokumentationen des i8008 und einen Satz Schaltkreise mit.
Die vom ihm verbreitete Vision, dass in Zukunft Nachrichtengeräte mit einem Prozessor ausgestattet werden können, faszinierte mich. Ich delegierte einen Mitarbeiter meiner Dienststelle an den Lehrstuhl von Prof. Fey, der dort an einem Cross Compiler das Programmieren des i8008 erlernen sollte. Zur Förderung der Softwareentwicklung wurden einige Software-Entwicklungssysteme ZDS-2 von ZILOG in ausgewählten Einrichtungen der DDR eingeführt. In den meisten Einrichtungen verschwanden diese Systeme hinter verschlossenen Türen und waren nur einem kleinen Kreis von Ingenieuren zugänglich. Im Gegensatz dazu war in der Sektion Informationstechnik der Technischen Hochschule Karl- Marx-Stadt das ZDS-2 öffentlich im Praktikum aufgebaut und stand rund um die Uhr den Studenten zum Praktikum zur Verfügung.
Das ZDS-2 war mit dem Betriebssystem RIO ausgerüstet. Wer RIO und UNIX kennt, kommt zu der Schlussfolgerung, dass die RIO-Entwickler UNIX-Kenner waren. Dafür sprechen das Filesystem, der Kommandointerpreter, die Anwendung logischer Geräte, die Modularität von Gerätetreibern und Kommandos usw. Der RIO-Editor edit zeigt starke Verwandtschaft zum UNIX-Editor ed und das Textformatierungsprogramm Uform zeigt Ähnlichkeiten zu nroff.
Am 1. September 1970 wurde ich vom Rektor der TH Karl-Marx-Stadt in die außerplanmäßige Aspirantur aufgenommen. Das Thema lautete: „Die Codierung von Nachrichten zum Zwecke der Fehlererkennung bei der Übertragung über reale Nachrichtenkanäle". 9.2 Erste Lagedarstellung mit Hilfe von Mikrorechnern
Unser Programmierer für den i8008 Diplom Ingenieur Troppenz erhielt nach seiner Ausbildung in Karl Marx Stadt die Gelegenheit, am K2-Muster des K1510 im Labor von ROBOTRON in Dresden, ein einfaches Lagedarstellungsprogramm zu implementieren.
Im 4. Quartal 1978 fand in der Nähe von Niederlehme eine Nachrichtenübung statt. Es war eine komplette Nachrichtenzentrale entfaltet einschließlich des P249 mit dem Lageanalyse Moduls ARWU (vergl. Abschnitt 7.1). Wir hatten eine vierdrähtige Fernschreibleitung bestellt. Diese verlief vom Übungsgelände nach Dresden zu ROBOTRON, wo die Leitung vom Schaltkasten auf dem Hof durch das Fenster des Labors im 1. Stock geführt war. Die Senderichtung spielte die Lagedaten des ARWU in das K2-Muster des K1510. Die Empfangsrichtung übertrug das von Dipl.-Ing. Troppenz programmierte Schema der Lagedarstellung in Echtzeit nach Niederlehme zurück auf einen Empfangsfernschreiber F1200 (Nadeldrucker), der beim Chef Nachrichten (CN) der Übung auf dem Tisch stand. Sehr zum Ärger des Leiters der Nachrichtenzentrale (LN) war der CN stets eher von der aktuellen Lage informiert als der LN. Wir lösten das Problem, indem der LN ebenfalls einen F1200 erhielt. Der Empfangsfernschreiber war übrigens nur deshalb notwendig, weil uns zu dieser Zeit nur Bildschirme mit einer Auflösung von 8x16 Buchstaben zur Verfügung standen. 9.3 Es geht weiter mit der Mikrorechner Ausrüstung
Die Führung der DDR erkannte die große Bedeutung der Mikroelektronik für die Rationalisierung in der Volkswirtschaft. In einer Ausstellung aus Anlass des 6.Plenums des ZK der SED zur Mikroelektronik wurde Regierungsmitgliedern nahegebracht welche Möglichkeiten die Anwendung der Mikrorechentechnik der Volkswirtschaft bietet. Bei einer nachträglichen Besichtigung der Ausstellung sah ich z.B., dass mehrere Zeitungsseiten ausgebreitet waren um zu demonstrieren wie viel Information auf einen 64 KByte Ich erfuhr, dass der Landwirtschaftsminister ihm bereits zugeteilte Valuta zum Import von Zwiebeln zurückgegeben hat, um Reinstlacke und Chemikalien zur Herstellung von Mikrochips zu importieren. Trotz nicht zu übersehender wirtschaftlicher Probleme der DDR wurde der Einführung der Mikroelektronik viel Kraft gewidmet. Als erster Mikroprozessor wurde in der DDR im Jahre 1979 der U 808 (Vorbildtyp i8008) Der U880 (Vorbildtyp Z80) wurde 1980 in die Produktion überführt.
Ab 1978 wurde das Mikrorechnersystem K1510 vom Kombinat Robotron gefertigt.
Bild 34: a) Rechner K4201 b) PBT 4000 (Basis U808) Meine Dienststelle bekam den ersten K1510 in Gestalt eines PBT 4000 im Jahre 1979 zusammen mit einem K 4201 (auch R4201), der eine umfangreichere Peripherie ansteuern konnte. Vorteil des R4201 war, dass er außer als Prozessrechner auch als universeller Rechner für wissenschaftlich-technische Berechnungen einsetzbar war. Da Ausrüstungen für Rechentechnik einem strengen Embargo unterlagen, hatten für uns technische Komponenten den gleichen Stellenwert wie Lebensmittel in der Kriegs- und Floppy-Disk (8 Zoll) Laufwerke wurden im Sozialistischen Wirtschaftsgebiet in Ungarn hergestellt. Im Ministerium für Nationale Verteidigung war die Verwaltung für Automatisierung und Mechanisierung der Truppenführung (MAT) Bedarfsträger für Rechentechnik. Mit den Mitarbeitern dieser Verwaltung pflegte ich eine gute, kamerad- schaftliche Zusammenarbeit. Auf eine Bitte nach Lieferung eines Floppy-Disk Laufwerkes erhielt ich ein Schreiben, das es mir gestattete beim Büromaschinenwerk Sömmerda, ein solches Laufwerk abzuholen.
Aus Anlass eines Internationalen Wissenschaftlichen Kolloquiums im Jahre 1978 an der TH Ilmenau machte ich mit Prof. Fey und Dr. Wilhelm einen Abstecher nach Sömmerda um das mir zugeteilte Floppy-Disk Laufwerk abzuholen. Nach Erledigung der Formalitäten in der Verwaltung des Werkes, fuhr ein Mitarbeiter mit dem Fahrrad uns im weitläufigen Werksgelände voran zu einem Schuppen, in dem neben Malerbedarf auch Goldstaub in Gestalt besagter Laufwerke lagerte.
Am Abend auf unserem Hotelzimmer besichtigten wir das Wunderding und versuchten die aus der Literatur bekannten Komponenten praktisch zuzuordnen.
Bereits am nächsten Abend übergab Prof. Fey das Gerät an (damals noch) Dipl. Ing. Burckhard mit dem Auftrag, zum Gerät eine Ansteuerung zu bauen.
Es war das gleiche Gerät für das Dipl.-Ing. Päßler zwei Jahre später die Ansteuerung des ZDOS entwickelte. Das oben erwähnte ZDS 2 arbeitete mit hartsektorierten Disketten, d.h. zur Unterscheidung der Sektoren der Floppy-Scheibe waren Löcher angebracht. Dieser Umstand hinderte sowohl die Techniker von Robotron als des KEAW daran, das ZDS2 Matthias Päßler schrieb einen Treiber, zu dem ich ihm ein Polynom für die Fehler-Entdeckung berechnete, sodass die Ansteuerung von softsektorierten Disketten der Robotron Computer durch das ZDOS möglich war. Ich erinnere mich, dass mich der Entwickler Päßler nach einer im Labor des Lehrstuhls Informationstechnik in Karl Marx Stadt durchgearbeiteten Nacht früh um 7 Uhr in meinem Arbeitszimmer anrief und mitteilte: „.das ZDOS läuft softsektoriert." 9.4 Neue Dienststelle neue Aufgaben
Dem Chef Nachrichten im Ministerium für nationale Verteidigung unterstand außer der NES auch noch die Aufbauleitung, eine Dienststelle, die den Aufbau eines integrierten Fernmeldenetzes der Regierung und der bewaffneten Organe der DDR (Stabsnetz) führte. Dieses Stabsnetz wurde auch Sondernetz 1 „S1" genannt. Da bei der Planung und Realisierung des „S1" in zunehmendem Maße technisch wissenschaftlich Aspekte eine Rolle spielten, entschloss sich der CN Generalmajor Reymann die NES und die Aufbauleitung zur Zentralstelle für Nachrichtennetze zusammenzulegen. Außer dem vorhandenen Personalbestand wurden der Einrichtung noch einige Stellen hinzugefügt. Mit der Führung der ZFN wurde ich beauftragt. Mein Stellvertreter für Planung und Investition war Oberst Meinung, ein ausgefuchster Ökonom, Stellvertreter Wissenschaft und Technik wurde Oberst Dost.
Nicht als Stellvertreter aber mir direkt unterstellt war Major Dr.-Ing. Wilhelm als Leiter der Unterabteilung Netzplanung, dem ich auch die Rechenstelle unterstellte. Dr. Wilhelm hatte 1973 bei Prof. Wiegmann an der TH Dresden zum Thema Kanalmodelle promoviert. Er war beim Aufbau des „S1" für den technisch theoretischen Teil verantwortlich. Dem Stellvertreter Planung Investition unterstanden die Unterabteilung 1 (Planung und Bilanzierung), Unterabteilung 2 (Investitionsvorbereitung) und die Unterabteilung 3 Dem Stellvertreter WT unterstanden die Unterabteilung 5 (verantwortlich für die Einführung neue Technik aus der Sowjetunion) und die Unterabteilung 6 (Funk und Drahtnachrichtentechnik aus DDR-Produktion).
Während ich auf die Zuführung von Offizieren in meine Dienststelle praktisch keinen Einfluss hatte, gelang es mir bei der Einstellung von jungen Hochschulabsolventen einige ausgezeichnete ideenreiche Mitarbeiter zu gewinnen, über die noch zu berichten sein wird.
Zur Gewährleistung der Führung des Sondernetzes 1 wurde die Zentralstelle für Schaltung und Betrieb ZfSB geschaffen. Ihr unterstanden die Schalt- und Betriebszentralen, die an den Standorten der Haupt- und Knotenämter entfaltet wurden. Die Vermittlungen waren vom Typ ATZ 65. Die Fernsprechkanäle wurden mit Koordinatenschaltern durchgeschaltet. Diese Technologie war „State of the Art", obwohl sich im westlichen Ausland bereits elektronische Fernzentralen in Entwicklung befanden. Wir versuchten den Rückstand teilweise dadurch wett zu machen, dass wir die Mess- und Kontrolltechnik computergestützt planten. Das Personal für diese anspruchsvollen Aufgaben warben wir an Hochschulen und Universitäten. Vom Lehrstuhl Professor Feys waren das die Diplom Ingenieure Päßler und Richter. Eine der ersten Aufgaben für diese beiden jungen Wissenschaftler bestand in der Entwicklung eines Farbdisplays auf der Grundlage eines handelsüblichen Farbfernsehempfängers. Im Mai 1975 erhielt ich vom CN die Aufgabe, mich darauf vorzubereiten, mit einer Militärdelegation der NVA als Nachrichtenspezialist im Juli nach Vietnam zu fliegen. Dass gerade die DDR von der im Vietnamkrieg siegreichen Volksrepublik zu einem Besuch eingeladen wurde, hatte Gründe. Die Großen Verbündeten Vietnams, die Sowjetunion und die VR China waren zerstritten, sodass man weder beide gemeinsam noch einen allein zu einem Freundschaftsbesuch einladen konnte. Die kleine DDR hingegen hatte viel ideelle und materielle Solidarität geübt und war auch bei den beiden Großen gut angesehen. Zur Vorbereitung des Besuchs ließ ich mir die relevanten amerikanischen Fachzeitschriften kommen, insbesondere die ELEKTRONICS, in der umfangreiche Berichte über die Anstrengungen amerikanischer Firmen zur Ausstattung des (Süd-) Vietnamesischen Nachrichtensysteme verzeichnet waren. Da die Berichte nicht mit Details sparten, konnte ich mir über die Technik, die wir ggf. zu sehen bekamen, vorab ein sehr gutes Bild verschaffen. Die vietnamesischen Genossen waren immer überrascht, wenn ich beim Besuch einer Nachrichtenzentrale meistens wusste, welche Technik ich dort vorzufinden hoffte. In diesem Bericht möchte ich von den zahlreichen Eindrücken und Erlebnissen nur zwei Eine für mich sehr beeindruckende Nachrichtenzentrale war die auf dem Affenberg in Da Nang. Sie war mit Troposphären Richtfunk Stationen ausgerüstet, die das Rückgrad der Nachrichtenkanäle nach Süden und Westen bildeten. Da kein öffentliches Stromnetz existierte, wurde die Stromversorgung durch Aggregate sichergestellt, deren Benzinverbrauch durch Tankschiffe befriedigt wurde, die regelmäßig im Hafen anlegten. Die Vietnamesen, die nicht soviel Treibstoff besaßen, konnten also die Aggregate nicht Tag und Nacht durchlaufen lassen und waren dadurch nicht in der Lage, eine stabile Nachrichtenverbindung zustande zu bringen.
Eine zweite Technik interessierte mich mehr. Das war die Rechnergestützte Fernschreib- Zentrale in Saigon. Als wir den ersten Abend in Saigon von der Führung des Militärbezirks zum Abendessen eingeladen waren, hatte ich mit den leitenden Nachrichten Offizieren sehr freundschaftliche Gespräche. Nur einem Thema wichen sie aus. Sobald ich auf die Autodyn Zentrale zu sprechen kam, verstanden sie plötzlich kein Wort mehr und versuchten das Thema zu wechseln. Offenbar betrachteten sie dieses High-Tech System als selbst noch zu untersuchende Komponente oder als ein Pfand auf das schon die größeren Verbündeten Interesse angemeldet hatten. 10 Hintergrund ab 1980
10.1 Vom ARPANET zum Internet
In den Vereinigten Staaten war es nicht allen Informatikfakultäten gestattet sich an das ARPANET anzuschließen. Die Wissenschaftler, die nicht im Auftrage der DARPA arbeiteten mussten sich eine andere Lösung ausdenken. Im Jahre 1979 entstand ein neues Netzwerk, das Computer Science Research Network oder CSNET. Die Verbindungen des CSNET waren langsamer als die des ARPANET, aber kostengünstiger. Es war auch zunächst noch kein Gateway zum ARPANET geplant. Im Sommer 1980 war jedoch das Netz auf eine drei Stufen Architektur erweitert. Im CSNET gab es Teilnehmer, die vollen Zugang zum ARPANET hatten, Teilnehmer die sich nur im CSNET bewegen und solche, die nur den E-Mail-Dienst „PhoneNet" nutzen konnten.
Im Jahre 1986 waren fast alle amerikanischen Informatikfakultäten sowie eine große Zahl privater Computerforschungseinrichtungen an das CSNET angeschlossen.
Mitte der 80er Jahre entstanden weitere Netzwerke. Eines davon war ein kooperatives Netz von IBM-Systemen. Ein anderes hieß UUCP (Unix to Unix Copy). Über dieses Netz waren Rechner verbunden, die mit dem Betriebssystem UNIX arbeiteten. Das Netz der NASA hatte den Namen Space Physics Analysis Network „SPAN". Unter Verwendung von TCP/IP konnten alle Netze miteinander kommunizieren. Es entstand allmählich ein Internet. Auch in Europa und Kanada entstanden Netzwerke, die über Gateways mit dem US-Amerikanischen Internet verbunden wurden.
Ein Netzwerk, das nicht hauptsächlich die Interessen der Informatiker bediente, sondern allen Wissenschaftlern zur Kommunikation diente, war das National Science Foundation Network, das NFSNET. An dieses Netz wurden 1985 fünf Supercomputerzentren angeschlossen, denen das Netz als Backbone diente. Das NFSNET bot den Supercomputern Kanäle mit einer Übertragungsgeschwindigkeit von 1,5 Mbps, die später auf 45 Mbps erhöht wurde.
Die Umstellung des ARPANET auf TCP/IP fand am 1.Januar 1983 statt. Es gab jedoch eine Gefahr, die „International Organisation for Standardization (OSI)". Diese hatte vom grünen Tisch aus ihr eigenes Referenz- oder Schichtenmodell für die Verbindung offener Systeme entwickelt. Die OSI erwartete, dass sich ihr Standard genauso durchsetzt wie zum Beispiel der Standard für Kreditkarten.
Da TCP/IP weltweit auf real existierenden Netzwerken lief, traute sich letztlich keine bürokratische Instanz den Wechsel von TCP/IP auf OSI anzuweisen.
Der ARPNET Netzwerkexperte Cerf sagte nach dem Übergang des ARPANET auf TCP/IP, „dass es jetzt in Welten vordringen kann, die noch nie zuvor ein Netzwerk gesehen haben." (Bitte beachten Sie die Ähnlichkeit der Wortwahl zum Vorspann für die Kultserie „Raumschiff Enterprise".) Die Beliebtheit des Betriebssystems UNIX war ein Stützpfeiler des Protokolls TCP/IP. Eines der Entwicklungszentren von UNIX war die Universität Berkeley, wo eine eigene UNIX-Version, das Berkeley-Unix entwickelt wurde. In Berkeley wurde TCP/IP als Netzwerkkern in UNIX eingearbeitet. Schließlich wurden alle Computer der Firma SUN (Stanford University Network) mit Berkeley-UNIX und TCP/IP ausgeliefert. Da SUN die Maschinen mit kostenloser Netzwerk-Software verkaufte, war das ein großer Antrieb für die Vernetzung mit TCP/IP. Eine wichtige Rolle bei der Entwicklung des Internets spielten die lokalen Netzwerke. In allen Universitäten wurden die Workstations zu Lokalen Netzen zusammengekoppelt. War dann ein Computer der Universität mit dem CSNET oder dem NFSNET verbunden, so konnten die Arbeitsstationen am Lokalen Netz über diesen Rechner ins Internet gehen.
Der Übertragungsmechanismus für den E-Mail Dienst war bis zum Anfang der 80er Jahre mit der FTP-Spezifikation verbunden. Da das recht umständlich war, wurde für die elektronische Post ein eigenes Protokoll, das „simple mail transfer protocol" SMTP eingeführt. Darüber hinaus wurde noch das „Domain Name System" DNS durchgesetzt, mit Hilfe dessen den ip-Adressen merkbare Namen zugeordnet werden konnten, So hört z.B.der Rechner mit der ip-Adresse 141.20.21.25 auf den Namen amsel.informatik.hu-berlin.de. Die Zuordnung und die Auflösung dieses Namen-ip-Nummern Verbundes übernehmen so- genannte „Domain Name Server". Bei den Millionen von Adressen im Internet wurde die Verwaltung auf verschiedene Network Information Center (NIC) aufgeteilt. Die Adressen eines jeden Landes haben eine besondere Endung, die so genannte Toplevel Domain. Für Deutschland ist das *.de, für Frankreich *.fr, für Schweden *.se usw. Für Deutschland werden die Domainnamen im DE-NIC verwaltet.
Die USA unterscheiden die Topleveldomains: edu, com, gov, mil, net, org und int. Ende der 80er Jahre wurde das ARPANET außer Betrieb genommen. Die darin enthaltenen Rechner wurden an andere leistungsfähigere Netze angeschlossen. Computer, die zum militärischen Kommunikationsnetz gehörten, waren schon 1983 aus dem ARPANET herausgelöst und zum MILNET zusammengefasst worden.
10.2 Das World Wide WEB
1988 hatte Tim Berners-Lee, beschäftigt am Genfer Forschungszentrum für Teilchenphysik CERN, die Idee durch ein besonderes Programm Forschungsergebnisse mit seinen Kollegen zu verknüpfen (zu verweben, ein Web zu bilden). Er benutzte dazu in seinen Texten sog. Hyperlinks . Einen Hyperlink klickt man an und wird darauf hin zu einem anderen Artikel (auf dem gleichen Computer) geführt, der Ergänzungen zum ursprünglichen Artikel enthält.
Das Programm nannte er „Enquire" (Anfrage). Ende 1988 entschloss sich Berners-Lee aus der Weiterentwicklung von "Enquire" ein computer-übergreifendes System zu entwickeln .
Ben Segal, ein Kollege von Berners-Lee, der sich mit den Grundlagen des Internet auskannte, überzeugte den Hypertext-Entwickler von den einzigartigen Möglichkeiten des Netzes der Netze, nämlich Hyperlinks auch zu beliebigen Rechnern des weltweiten Rechnernetzes zu programmieren. So entstand aus dem Internet und dem Web 1990 das World Wide Web, zunächst ohne Bilder und Grafik. Zum Bild 35: Tim Berners-Lee Lesen der Web-Inhalte benötigt man ein spezielles Programm, „Browser" genannt. Der erste Browser war der von Tim Berners-Lee entwickelte „WWW". Der erste grafische Browser hieß MOSAIK.
10.3 Rechentechnik, insbesondere Personalcomputer
In der Computerwelt gab es in den 80er Jahren (von den Supercomputern abgesehen) 3 große Kategorien: 1. Die Mainframes, repräsentiert durch die Computer der Firma „International ! Business Machines" IBM.
2. Die Workstations, repräsentiert durch Geräte der „Digital Equipment Corporation" DEC.
3. Die Personalcomputer repräsentiert durch die PCs von Apple, IBM, Microsoft.
10.3.1 Mainframes
Die Mainframes wurden dominiert durch die Typen IBM System 360, entwickelt in den
60er Jahren, und dem Nachfolgesystem IBM 370 (später gefolgt vom System 390). Die
Anlagen waren je nach Verwendungszweck erweiterungsfähig und mit unterschiedlicher
Anzahl von Schränken für Magnetplatten, Magnetbändern, Druckern, Lochkartenlesern,
Bedien- und Serviceprozessoren etc. ausgestattet.
Ihr Einsatzgebiet waren Rechenzentren von Wissenschaftlichen Instituten, Banken,
Staatliche Einrichtungen (Statistik) usw.
10.3.2 Workstations
Der Begriff Workstations assoziiert zwangsläufig den Begriff PDP (Programmed Data
Processor) der Firma DEC, die den Ausdruck Computer nicht verwenden wollte. Das
Flaggschiff der PDP-Reihe war PDP-11. An der Universität von Berkeley wurde 1974 das
erste einsatzfähige UNIX-System implementiert.
Workstations waren zumeist in wissenschaftlichen Instituten zu finden, wo sie als
Multiusersystem arbeiteten.
Als 1977 IBM mit der Modellreihe „Series-1" einen 32 Bit Minicomputer auf den Markt
brachte, reagiert DEC mit der VAX-Modellreihe, die ebenfalls eine 32 Bit Architektur
aufwies. Der Name VAX ist Abkürzung von „Virtual Address eXtension". Das
Betriebssystem war VMS (Virtual Memory System). Das Betriebssystem galt als schwer
hackbar, weshalb es auch für militärische Zwecke eingesetzt wurde. Einer der
leistungsfähigsten Rechner der 80er Jahre war die VAX 11/780. Mitte der 80er Jahre
erschien die aus Hochintegrierten Bauelemente (VLSI) aufgebaute MicroVax, die in
unterschiedlichen Baustufen mit unterschiedlichen Betriebssystem ausgeliefert wurde.
10.3.3 Personalcomputer
Im Unterschied zu Mainframes und Workstations waren die in den 70er Jahren
aufkommenden Personalcomputer zur Bedienung durch eine Person z.B. zur
Durchführung von Büroarbeiten oder zum Spielen vorgesehen. Es soll im Vorgriff auf die
heute zur Verfügung stehende Technik bemerkt werden, dass Personalcomputer heute
über die Leistung von Workstations und kleinen Mainframes der 80er Jahre verfügen.
Neben dem oben erwähnten Apple I, der mit dem Begriff Home-Computer charakterisiert
werden kann, war der erste Computer, der als Personalcomputer zu bezeichnen ist, der
Xerox Alto von der Firma Xerox PARC aus dem Jahre 1973. Er hatte eine grafische
Benutzeroberfläche (engl. Graphical User Interface, kurz GUI), einen vertikalen Bildschirm,
eine 3-Tasten-Maus, eine schreibmaschinenähnliche Tastatur und ein
Bild 36: a) Xerox Alto! zusätzliches kleines 5-Tasten-Eingabegerät für besondere Befehle. Der Xerox Alto war ein Prototyp und wurde nur in der Forschung eingesetzt.(Bild 34 a) Der erste PC für den „Hausgebrauch" war der Apple II. Er wurde im April 1977 der
Öffentlichkeit vorgestellt. Er verfügte über acht freie Steckplätze, mit denen er durch
Einsetzen der entsprechenden Erweiterungskarte für unterschiedliche Anwendungen (z. B.
Textverarbeitung, Spiele, Steuerungstechnik) genutzt werden konnte. Ein Computer, der
durch Steckplätze individuell an die Wünsche des Konsumenten angepasst werden kann,
gilt heute als PC, es ist ein offenes System. Außerdem konnten mit diesem Computer
bereits Farben dargestellt und Töne wiedergegeben werden.
Die Firma IBM sah ihr Kerngeschäft in der Herstellung von Mainframes. Ende der 70er
Jahre erkannte man, dass mit dem Apple II eine Konkurrenz auf einem nicht erwarteten
Geschäftsfeld entstanden war.
Es kam im August 1979 zu einer Krisensitzung der Abteilungen. Einzig Bill Loewe, Leiter
der Abteilung in Bocca Raton, meinte man könnte einen PC in einem Jahr bauen. Er
bekam die Chance in 14 Tagen sein Konzept vorzustellen und überzeugte damit den
Vorstandsvorsitzenden. Dieser schickte den Manager Philip Estridge in die »Wüste«
Bocca Raton, um dort mit dem Team um Loewe den PC zu entwickeln.
Obwohl die Entwicklung des Computers in kürzester Zeit und unter Verwendung der
billigsten verfügbaren Komponenten erfolgte, wurde er ein voller Erfolg. Einer der größten
Vorteile des IBM-PC bestand darin, dass er ebenso wie das Vorbild Apple II durch
Steckkarten, die in den Computer nachträglich eingebaut werden konnten, erweiterbar
war. Darüber hinaus entstanden durch den simplen Aufbau des PCs aus für jedermann
leicht erhältlichen Standardchips schon ab 1983 in Fernost diverse Nachbauten, die für
eine weite Verbreitung dieser Hardwarearchitektur sorgten. Der IBM-PC entwickelte sich
zu einem inoffiziellen Industriestandard weil er ohne Lizenzierung von IBM nachgebaut
werden konnte.
Als Prozessor verwendete man den 16-Bit-Prozessor 8088 von Intel mit einem externen 8-
Bit-Datenbus. Die CPU lief mit einer Taktfrequenz von 4,77 MHz. Mit der gleichen Taktrate
lief auch der 8 Bit breite Systembus. Der später mit dem IBM/PC/AT eingeführte 16-Bit-
Bus wurde unter der Bezeichnung ISA-Bus standardisiert.
Der PC wurde zunächst mit maximal 64 KByte Arbeitsspeicher ausgeliefert. Der
Hauptspeicher selbst konnte auf der Hauptplatine – je nach Version der selbigen – auf bis
zu 64 oder 256 KB erweitert werden, durch Einsteckkarten von Fremdherstellern später
gar auf bis zu 640 KB. Der Prozessor selbst war zwar in der Lage, 1024 KB zu
adressieren, im Systemdesign waren jedoch 384 KB des Adressbereichs für das BIOS und
den Grafikspeicher vorgesehen.
Der PC wurde zunächst mit zwei 5,25 Zoll-Diskettenlaufwerken ausgestattet.
Für ihren Personalcomputer benötigte IBM natürlich ein Betriebssystem und den damals
noch obligatorischen BASIC Interpreter. Es schien, dass Microsoft offensichtlich beides
besaß, denn MS vertrieb ja die Karte für den Applecomputer mit Betriebssystem CP/M und
BASIC.
Ende 1980 kauften die Vertreter von IBM bei Microsoft den BASIC Interpreter. Der
Entwickler und damit Eigentümer von CPM war jedoch Gary Kildall, Chef der Firma Digital
Research aus Monterey.
Die Legende berichtet nun, dass die IBM Vertreter Killdall nicht antrafen, zu Gates
zurückkehrten und von MS das Betriebssystem PC-DOS kauften, das Bill Gates noch gar
nicht besaß, sondern zwei Tage später erst von der Firma SCP kaufen musste. Das von
SCP gekaufte Betriebssystem war ein CPM-86 Klone und trug den Namen Q-DOS.
Das Betriebssystem des IBM-PC wurde MS-DOS genannt. Mit dem Erfolg dieses PC kam
auch der von Microsoft. Binnen eines Jahres schloss die Firma Verträge mit 50 Herstellern
von Klones, die jeder ein Betriebssystem und einen BASIC Interpreter brauchten. Bis 1983
wurde erreicht, dass DOS stabiler wurde und auch Festplatten-Unterstützung gestattete.
Der Intel 80286 war ein Mikroprozessor mit 16 Bit Wortbreite, der am 1. Februar 1982 als
Nachfolger des 8086 auf den Markt kam. Die Firma IBM brachte 1984 den Nachfolger des
IBM PC XT in Gestalt des mit 80286 ausgerüsteten IBM PC AT heraus.
Der APPLE Macintosh war der erste Mikrocomputer mit grafischer Benutzeroberfläche,
der in größeren Stückzahlen produziert wurde. Er wurde im Januar 1984 vorgestellt. Er
benutzte eine Computermaus als Zeigegerät. Die Maus war bei Xerox erfunden worden.
Während die Xerox-Chefs an der Ostküste die Entwicklung der Maus im PARC ignorierten,
machte Jobs die Maus zu einem elementaren Baustein der APPLE-Computer und
lizenzierte als erster die Erfindung.
Lange Zeit galten Mac-Computer mit ihrem Betriebssystem MAC-OS gegenüber den
weiter verbreiteten PCs mit dem Betriebssystem Microsoft Windows puncto
Bedienoberfläche und Benutzerfreundlichkeit als überlegen.
Im November 1987 erschien MS-Windows 2.1 auf dem IBM-PC. Mit Windows 2.11 gab es
Verbesserungen bei Speicherzugriffen und Druckerzugriffen.
Windows 2 war bereits direkt auf die Eigenschaften des Prozessors zugeschnitten und
wurde entsprechend in den Varianten Windows/286 und Windows/386 vertrieben.
Die mit dem Z80 Prozessor erfolgreiche Firma Zilog brachte Ende 1979 die CPU Z8000
auf den Markt. Die logische und physikalische Implementation führte Masatoshi Shima
aus. Der Technologische Vorteil des Z8000 bestand darin, dass er über 17.500
Transistoren verfügte, eine sehr geringe Zahl gegenüber dem Intel 286 mit 134.000
Transistoren.
Das wurde dadurch erkauft, dass der Befehlssatz des Z8000 zu dem des Z80 nicht
kompatibel war, was ihm einen starken Akzeptanzverlust bescherte. Der Z8000 wurde in
UNIX-Workstations eingesetzt. Das Amerikanische Militär verwendete ihn im Steuer- und
Zielsystem des Tomahawk Marschflugkörpers.
10.4 Das ISDN
Wie bereits im Abschnitt 7.2 erklärt gab es in der Fernmeldetechnik einen Stilbruch. Die PCM-Technik gestattete es Sprache über beliebige Entfernungen störungsfrei zu übertragen, Vor und nach Vermittlungen, die nach wie vor mit Hilfe von Wählern und Schaltern analog durchschalteten, musste digital in analog oder analog in digital gewandelt werden.
Die Zeit war reif für die digitale Fernmeldevermittlung, sowohl in Orts- als auch in Fernnetzen.
Bereits mit dem IDN (Integrierten Digitalen Netz) wäre es erforderlich gewesen, alle Dienste, die man bisher als Drahtnachrichten befördert hat, über den digitalen Kanal zu transportieren. Im Wesentlichen waren das: Fernsprechen mit einem speziellen digitalen Telefon, Fernsprechen mit einem herkömmlichen analogen Telefon, Fernsprechen für Sonderdienste (z.B. Rundfunk) 7 kHz FAX Gruppe 3, (analog Fax) FAX Gruppe 4, (aufwendiges digital Fax) DATEN 64 kbit/sec nach den Standards X21, X25 Bildschirmtext (wird heute durch das Internet ersetzt) Fernwirken (Fernsteuern) Mix Mode (kombiniertes Telefonieren mit Fax) Gleichzeitig wollte man mit der neuen Technologie, gekennzeichnet durch das „S" im
Begriff ISDN, auch Dienstmerkmale realisieren, die bisher nur in Sonderschaltungen zum
Beispiel bei Nebenstellenanlagen (in Büros) verwirklicht waren. Dazu gehören:
!
!
Konferenzschaltung: mit 3 oder bis zu 10 Teilnehmern gleichzeitig sprechen das heißt Verbundensein mit zwei Teilnehmern, wobei durch Knopfdruck die Verbindung mit dem Einen oder dem Anderen Partner hergestellt wird dem gewünschten Partner, wenn er spricht, ein Signal geben, dass ein weiterer Anruf vorliegt.! ! Zeigen, Verbergen: der eigenen Rufnummer beim Anruf ! ! einen Anrufer, der den gewünschten Apparat erreicht, auf eine andere Telefonnummer umleiten. ! die Vermittlung bitten ein Gespräch zu halten, damit man den Telefonapparat aus der Steckdose ziehen kann, um ihn nach spätestens drei Minuten an einem anderen Ort wieder mit ! dem Netz zu verbinden.
Gebührenanzeige:! während oder am Ende des Gesprächs auf dem eigenen Telefonapparat. Im Jahre 1972 wurde der Begriff ISDN erstmalig in einer japanischen Publikationerwähnt.
1979 entschied die Deutsche Bundespost, alle Ortsvermittlungsstellen zu digitalisieren. Bei Feldversuchen in Berlin (unter dem Namen DIGON = „DIGitales OrtsNetz") hatte sich gezeigt, dass bei der zur Verfügung stehenden Bandbreite auf den Teilnehmerleitungen dem Nutzer zwei unabhängige Kanäle zur Verfügung gestellt werden konnten. Die Deutsche Bundespost entschied sich 1982 für die ISDN-Technik und konkretisierte die Digitalierungspläne.
Die zuständige Organisation, das „Comité Consultatif International Téléphonique et Télégraphique" (CCITT, heute Internationale Fernmeldeunion (ITU)), erarbeitete dazu technische Spezifikationen (Recommendations) für ein digitales Telefonnetz, die unter dem Namen ISDN 1980 erstmals veröffentlicht und 1984 verabschiedet wurden.
Ein ISDN Pilotprojekt wurde 1984 begonnen.
Während die Digitalisierung der Sprache durch die PCM-Technik weltweit eindeutig war, gab es zwischen den Ländern in Europa in Hinsicht auf den Signalkanal über den z.B. die Dienstmerkmale gesteuert wurden, abweichende Vorstellungen. Im Pilotprojekt und beim Beginn des Serienbetriebs 1989 wurde im Deutschen ISDN das Protokoll 1TR6 verwendet.
Das Ergebnis war, dass grenzüberschreitender Verkehr zu Nachbarländern nicht möglich war.
Um dem abzuhelfen, mussten einheitliche Normen und gemeinsame Märkte geschaffen werden. 1988 wurde dazu von der EG-Kommission das Europäische Institut für Telekommunikationsnormen (ETSI) gegründet, das Standards für ein gemeinsames digitales Telefonnetz erarbeiten sollte. Am 6. April 1989 wurde unter ihrer Leitung von 26 Netzbetreibern aus 20 europäischen Ländern der DSS1-Standard (auch Euro-ISDN genannt) ins Leben gerufen, der die nationalen ISDN-Systeme vereinheitlichen sollte und einige technische Verbesserungen brachte. Der herbeigeführte Beschluss wurde auch MoU (Memorandum of Understanding) genannt. Nachdem in Deutschland der ISDN-Betrieb nach dem Protokoll 1TR6 begonnen hatte, erfolgte ab Dezember 1993 die Einführung von Euro-ISDN (DSS-1) auf der Basis des Memorandum of Understanding on the Implementation of a European ISDN.
Um 1985 war ein militärisches Walkie Talkie so groß wie ein Kommissbrot und auch so schwer. Wie aus der nachstehender Tafel 1 hervorgeht, gab es aber 1985 auch Überlegungen wie unter Verwendung der vorhandenen hochintegrierten Schaltkreise ein digitales Mobilfunkgerät aussehen könnte. Noch Anfang der 90er Jahre waren C-Netz Mobilfunkgerät in Größe eines kleinen Koffers in Betrieb. Zur gleichen Zeit gingen die ersten GSM Netze in Betrieb.
Das A-Netz, erstes deutsches Mobilfunknetz, wird eröffnet Die USA führen das erste Zellulare System AMPS in Chicago ein (analog) In Schweden startet das Nordic Mobile Telefone System, (analog) Beginn der Entwicklung eines paneuropäischen Standards für digitalen zellularen Mobilfunk durch die Groupe Special Mobile der CEPT Das C-Netzt ( analog ) wird in in Deutschland eingeführt Erste Systemausschreibung für digitalen Mobilfunkstandard durch GSM Memorandum of Understanding (MoU) GSM zwischen 12 Ländern Die ersten GSM Netze in Betrieb (Auf Ausstellung Telecom 91.) ( GSM! steht jetzt für Global System for Mobile Communication ) !Es ist für technische Entwicklungen typisch, dass nicht allein wissenschaftliche Aspekte über eine Entwicklung bestimmen, sondern zeitweilig auch Firmeninteressen und auch Ansichten leitender Beamter. So kam es auch, dass parallel zur intensiven Entwicklung am C-Netz durch die Firma Siemens z.B. bei SEL seit 1979 ein System mit digitaler Technik entwickelt wurde. Interessanter weise unterstützte der damalige Bundespostminister Schwarz-Schilling die digitale Idee.
In Zusammenarbeit mit Frankreich wurde 1984 die Ausschreibung für den analogen Standard S900 von den Postverwaltungen beider Länder abgebrochen und ein Digitalstandard ausgelobt. Die darauf folgende Entwicklung bestätigt diese Entscheidung. Deutschland gehörte in Europa zu den Vorreitern des Digitalen Mobilfunks.
Ein gutes Beispiel dafür ist die in Deutschland geborene Idee eine SIM-Karte einzuführen. Diese Karte, auf der die teilnehmerbezogenen Daten des Mobilfunkgerätes eingetragen sind, dokumentiert das Teilnehmerverhältnis im Mobilfunk. Im Zusammenhang mit dem Begriff Kybernetik war auch der Begriff Künstliche Intelligenz entstanden der sich mit der Automatisierung intelligenten Verhaltens befasst. In der Kultserie Raumschiff Enterprise repräsentierte der Android Mr. Data eine Maschine mit einer dem Menschen überlegenen Intelligenz. Da heute trotz aller Fortschritte auf Hard- und Softwaretechnologischem Gebiet künstliche Intelligenz in der gewünschten Komplexität nicht realisierbar ist, versucht man sich der Unterstützung von Maschinen u.a. durch die Forschung im Bereich der Expertensysteme zu nähern.
Als Expertensystem wird eine Klasse von Software-Systemen bezeichnet, die auf der Basis von Expertenwissen zur Lösung oder Bewertung bestimmter Problemstellungen dient. Beispiele sind Systeme zur Unterstützung medizinischer oder auch technischer Diagnosen. Die ersten Arbeiten an entsprechender Software erfolgten in den 1960er Jahren. Seit den 1980er Jahren werden Expertensysteme auch kommerziell eingesetzt.
In einem Expertensystem oder Wissensbasierten System ist die Wissensbasis der Bereich des Systems, der das Fachwissen in einer beliebigen Repräsentationsform enthält. Ergänzt wird die Wissensbasis durch einen Schlussfolgerungsmechanismus, also eine Hard- oder Software, mit der auf der Wissensbasis operiert werden kann.
Eine Programmiersprache, die sich für einen Schlussfolgerungsmechanismus eignet, ist
die Programmiersprache Prolog, die Anfang der 1970er Jahre maßgeblich von dem
französischen Informatiker Alain Colmerauer entwickelt wurde und ein deklaratives
Programmieren ermöglicht. Sie ist die wichtigste logische Programmiersprache.
Prolog-Programme bestehen aus einer Datenbasis, deren Einträge sich Fakten und
Regeln nennen (vergl. die Ausführungen zur Fehlermatrix im Abschnitt 5.3). Der Benutzer
formuliert Anfragen an diese Datenbasis. Der Prolog-Interpreter benutzt die Fakten und
Regeln um systematisch eine Antwort zu finden. Ein positives Resultat bedeutet, dass die
Anfrage logisch ableitbar ist. Ein negatives Resultat bedeutet nur, dass aufgrund der
Datenbasis keine Ableitung gefunden werden kann. Der erste Compiler wurde von David
H. D. Warren in Edinburgh entwickelt. Aus Edinburgh stammt auch das von Professor
Spivey entwickelte Spivey-Prolog.
Die Programmiersprache LISP (List Prozessing) ist nach die zweitälteste
Programmiersprache, die noch verbreitet ist. LISP gilt zusammen mit Prolog als eine der
Programmiersprachen der künstlichen Intelligenz.
Die Grunddatenstrukturen von LISP sind Einzelwerte (Skalarwerte), die Atome genannt
werden, und Listen. Die Listen können beliebig verschachtelt werden (Listen von Listen).
Es lassen sich Tabellen zur schnellen Suche von Werten (Hashtabellen) und Bäumen
konstruieren, was ebenfalls wieder Hilfsmittel zur Fehlersuche in technischen Geräten sein
können.
11. Vordergrund ab 1980
11.1 Lagedarstellung im Manöver Waffenbrüderschaft
Das von den Diplomanden Päßler und Richter auf der Grundlage eines Farbfernsehers aufgebaute Farbdisplay fand während des Manövers Waffenbrüderschaft breite Beachtung. Auf der Grundlage von Lageinformationen über den Zustand der Nachrichtenverbindungen, die wir aus verschiedenen Quellen schöpften, wurde die Nachrichtenlage farbig in Echtzeit dargestellt. Neben dem CN, der damit laufend über den Zustand seines Systems informiert war, gab es zwei Nutznießer dieses Dienstes. Da war zunächst der sowjetische Verbindungsoffizier, der die Lage mit Farbstift für die von ihm abzugebenden Auskunftsberichte abzeichnete. Als zweites bedienten sich die Offiziere des Stabes, die am Abend ihre Familien anrufen wollten. Sie betrachteten den Zustand der drei Leitungen, die zum öffentlichen Netz der Deutschen Post geschaltet waren. Waren diese Leitungen in der Lagedarstellung rot, so lohnte es nicht den Hörer abzunehmen, weil ein Besetztsignal erwartet werden konnte. 11.2 Beginn der Bürokommunikation
An der TU-Dresden wurden 1980 1K-Bildschirme aufgebaut. Damit konnte man bereits eine vernünftige Textverarbeitung organisieren. In meinem Stellvertreterbereich Planung Investitionen mussten für jede zu errichtende Vermittlungsstelle eine Investitionsvorentscheidung ausgearbeitet werden. Die Unterabteilung Investitionsvorbereitung erhielt daher als erste einen K1510 (Bild 34b), mit dem diese Dokumente möglichst rationell ausgearbeitet und vervielfältigt werden konnten. Der Vorteil dieser Rationalisierung bestand darin, dass die Sachbearbeiter (Ingenieure), da sie die Dokumente sowieso entwerfen mussten, die IVEs gleich in den Computer tippten, so dass diese leicht korrigierbar danach ausgedruckt werden konnten. Der Nachteil dieser Methode bestand darin, dass die Rationalisierung „auf die Spitze getrieben" wurde, indem irrtümlich die IVE eines Amtes mit der eines anderen vertauscht wurde. Mein Stellvertreter Planung Investitionen machte meinen Rationalisierungseifer für diese Als Konsequenz führte ich mit den Offizieren der Dienststellenleitung vor jeder wöchentlichen Besprechung Bild 37: Bürocomputer A5120 eine Stunde Computerunterricht durch. Im Ergebnis dieser Ausbildung war mein Stellvertreter PI bald ein knallharter Vertreter der Rationalisierung durch Wie in Abschnitt 11.3 näher erklärt wird, planten wir für die ATZ 65 ein elektronisches Prüfgerätesystem (PGS). Steuerrechner aller Geräte sollte der Bürocomputer A5120 (Bild 37) sein. Das Betriebssystem des A5120 war das SIOS, eine hauseigene Schöpfung von ROBOTRON. Leiter des Themas war Major Uhlmann. Major Uhlmann hütete den PGS- Musterrechner wie seinen Augapfel und wehrte sich mit Händen und Füßen gegen Anträge, den A5120 mit einem anderen Betriebssystem zu fahren. Immerhin setzte er sich sofort hin und programmierte ein Textverarbeitungssystem, das er PATEX nannte. Damit konnte der PGS-Rechner auch im Büro eingesetzt werden. In der Folgezeit wurden aber auch A5120 Rechner ausgeliefert, die nicht PGS-gebunden Das Betriebssystem war der CP/M-Klon SCP. Darauf lief Word-Star, eines der ersten WYSIWYG Systeme (What you see is what you get). Die Verwendung von Bürocomputern gestattete es, das Schreibbüro aufzulösen und die beiden Arbeitskräfte in die Sekretariate des Stellvertreters WT und des Leiters der 4. Unterabteilung zu versetzen.
Die wissenschaftlichen Mitarbeiter schrieben ihre Konzepte nicht mehr mit dem Stift auf Papier, sondern in den Computer und gaben ihre Elaborate auf Diskette ab.
Bemerkenswerterweise gab es zu Beginn der Einführung der Computer Vorbehalte durch Mitarbeiterinnen, die perfekt Schreibmaschine schreiben konnten. Meine Sekretärin und die Hauptsachbearbeiterin Zivilkader standen zunächst auf dem Standpunkt: „Wir schreiben auch ohne PC schnell und fehlerfrei!" Es stellte sich aber heraus, dass bei der Überarbeitung größerer Dokumente, bei denen bereits geschriebenes in Varianten noch einmal geschrieben werden musste, der Computer sehr bequem war, da er sich gemerkt hatte was schon richtig vorhanden war. Meine beiden Mitarbeiterinnen anerkannten diesen Vorteil und schlossen Frieden mit dem Der Lehrstuhl für Informationstechnik der TH Karl Marx Stadt erwies sich erneut als Denkschmiede. Dipl. Ing. Anatoly Antonow, ein äußerst kreativer Gaststudent aus Bulgarien, hatte seine Doktor Dissertation abgegeben. Im Rahmen seines Themas hatte er auf die Programmiersprache PLZ (das Zilog PLM) einen Echtzeitkern aufgesetzt. Damit wurde PLZ zu PLZ RTC. Diese CHILL für 8 Bit Prozessoren spielte von nun an sowohl in unserer Entwicklungstätigkeit für Steuerungssysteme in Nachrichtengeräten, bei der Entwicklung kleiner Digitaler Vermittlungen und in Führungssystemen eine große Rolle (siehe später). Leider wurde der Studienaufenthalt des hervorragenden Wissenschaftlers Dr. Antonow durch die Bulgarische Botschaft nicht verlängert. Von der Implementation des ZDOS auf softsektorierte Disketten durch Dipl. Ing. Matthias Päßler war schon die Rede. Das ROBOTRON Büromaschinenwerk Karl Marx Stadt übernahm diese Entwicklung und implementierte das Zilog Entwicklungssystem auf dem BC 5120. Dieser PC wurde unser Sofwareentwicklungsplatz, der nun auch die Entwicklungsumgebung für PLZ RTC enthielt.
In einer NSW Literaturstelle hatte ich die genaue Beschreibung des Data Encryption Standard (DES) gefunden. Der DES-Algorithmus wurde als offizieller Standard für die Verschlüsselung von klassifizierten Dokumenten der US-Regierung seit 1976 eingesetzt. Die Schlüssellänge des DES von nur 56 Bits gilt heute für nicht ausreichend sicher. Der DES kann aber zur Mehrfachverschlüsselung eingesetzt werden. Da ich mich mit Prof. Fey schon öfter über den DES unterhalten hatte, übergab ich ihm die Dokumente zur Auswertung. Professor Hübner war damals Beststudent bei Prof. Fey und erhielt das Thema Implementierung des DES auf dem K5120 als Aufgabe für den großen Über die Möglichkeit mit Methoden der NSA zu verschlüsseln waren nicht alle glücklich. Da ich hier die Möglichkeit sah, Betriebsdaten des S1 wirksam zu verschlüsseln, bat ich den Chef des Zentralen Chiffrierorgans des MFS Generalmajor Birke dies tun zu dürfen. General Birke stimmte dem zunächst zu, als aber die ersten verschlüsselten Daten über das Netz gingen, wurde ich zurückgepfiffen. Ich musste die Literatur zum Thema abgeben. Die Verschlüsselungsprogramme blieben auf unseren Rechnern bestehen, durften aber zum Informationsaustausch auf militärischen Nachrichtenverbindungen nicht eingesetzt werden.
11.4 Die Nachrichtengeräte werden intelligent.
Wie oben erwähnt, sollte das Vermittlungssystem ATZ 65 durch ein elektronisches Prüfgerätesystem (PGS) aufgewertet werden. Zentrales Element war der Universelle Steuer-
und Analyserechner USAR. Er konnte mit einem Probeverbindungsgerät (PVG), einer Betriebskontrolleinrichtung (BKE), einer Betriebsdaten-Empfangseinrichtung (BDEE), einem Wählkennzeichenanalysator (WKZA) und einer Verkehrsmesseinrichtung (VME) Da das Thema USAR von der Industrie geführt wurde, mussten wir das Betriebssystem SIOS akzeptieren, da wir andernfalls bei Sonderwünschen für alle auftretenden Probleme der Entwicklung verantwortlich gewesen wären. In den Bezirksstädten der DDR wurden zum Betrieb der Haupt- und Knotenvermittlungs- anlagen Schalt- und Betriebszentralen (SBZ) eingerichtet. Das Personal derselben musste mit der elektronischen Mess- und Führungstechnik umgehen können. Wir bemühten uns qualifizierte zivilbeschäftigte Hochschulabsolventen zu gewinnen. Von den beiden Entwicklern des o.g. Farbdisplays zur Lagedarstellung wurde Dipl.-Ing. Päßler für die SBZ Karl-Marx-Stadt und Dipl.-Ing. Richter für die SBZ. Halle gewonnen. Oberst Kleinwächter als Vorgesetzter aller Zentralen und Leiter der Zentralstelle für Schaltung und Betrieb (ZfSB) ging ideenreich und engagiert mit dieser Aufgabe um. Er hatte für unsere oft sehr avantgardistischen Ideen ein offenes Ohr und schränkte unseren Spielraum bei der technischen Ausstattung seines Führungsorgans und der Unterstellten nicht Die Fernmeldeindustrie der DDR war nicht unerheblich von den Bedürfnissen der Sowjetunion abhängig. Es wurde z.B. viel Kraft in die Mitarbeit am System ENSAD gesteckt, das noch keine Elektronische Vermittlungstechnik, sondern Schaltertechnik vorsah. Dadurch wurden nicht unerhebliche Kräfte der Industrie gebunden.
Der technische Spielraum der ZFN war dank der langen Leine, an der wir durch den Chef Nachrichten Generalmajor Dr.-Ing. Paduch geführt wurden, relativ groß, jedoch konnten wir in staatliche Vorgaben nur indirekt eingreifen. Wir waren in der Lage Beispiele zu schaffen, die, wenn sie überzeugten, ggf. Weisungen auslösen konnten.
Zum Beispiel war die Zeit reif für die Schaffung elektronischer Nebenstellenanlagen. Das sollten (noch) keine ISDN-Zentralen sein, aber Nebenstellen auf Schalterbasis ersetzen. Das elektronische Vermitteln auf digitaler Basis war relativ einfach. Es bestand im Umsortieren von Zeitlagen. Bild 38: Prinzip einer PCM-Vermittlung.
In Bild 38 ist dargestellt wie organisiert wird, dass die Teilnehmer 1 und 3 miteinander sprechen können. Da die Anlagen im analogen Umfeld arbeiten mussten, waren Codier Decodier Schaltungen (Codecs) notwendig, um die analogen Teilnehmer ins Digitale zu verwandeln und umgekehrt. Ehe Codecs aus eigener Produktion zur Verfügung standen, mussten sie aus dem NSW importiert werden. Die Machbarkeit kleiner Nebenstellen wurden durch die Hochschulen vorexerziert. Am Lehrstuhl Informationstechnik der TH Karl Marx Stadt baute Dipl. Ing. Geranski eine solche Anlage im Rahmen seiner Dissertation auf. Am Institut für Nachrichtentechnik war Dr.-Ing. Lochmann der Nachfolger von Prof. Fey. Mit Dr. Lochmann pflegten wir eine gute Zusammenarbeit, da er avantgardistischen Ideen stets aufgeschlossen gegenüberstand. So organisierte er in Vorbereitung und zur Unterstützung des Staatsplanthemas NZ400D (kleine Elektronische Nebenstelle, auch ENA genannt) einen Vorlauf an der Hochschule
Mittweida, an der Dr.-Ing. Winkler (später Prof. Winkler) auf dem Gebiet der digitalen Vermittlungstechnik forschte. Das Staatsplanthema wurde schließlich von einer kreativen Gruppe junger Leute unter der Leitung von Dipl.Ing. Winter sehr ideenreich im Fernmeldewerk Neustadt Glewe bearbeitet. An der ZfN übergab ich die Aufgabe eine kleine digitale Fernvermittlung zu entwickeln an die Arbeitsgruppe Vermittlungstechnik unter der Leitung von Dipl.-Ing.Ullrich. Diese Zentrale (ENA-T) sollte in der Perspektive die Koordinatenschalteranlagen in den Zwischenvermittlungen ablösen. Wir nannten die Durchführung von Entwicklungsarbeiten an Themen gegenüber denen es in der Wirtschaft noch Vorbehalte gab „Vorturnen" einer Aufgabe. Das K2-Muster, der von der Gruppe Ullrich entwickelte ENA-T, funktionierte ausgezeichnet. Die als Zwischenamt Königs Wusterhausen fungierende Anlage war in einem gegenüber ATZ65 sehr kleinen Häuschen auf dem Gelände des MTI untergebracht. Die Funktechnik für den militärischen Feldeinsatz der NVA wurde aus Gründen des Zusammenwirkens im Warschauer Vertrag grundsätzlich aus der Sowjetunion importiert.
Die Untersuchung der Kompatibilität der Technik mit der Ausrüstung aus DDR Produktion sowie die Bearbeitung der Dokumentation wurde in der UA „Einführung neue Technik" unter der Leitung von OSL Dipl.-Ing. Kappler vorgenommen.
Stationäre militärische Einrichtungen wurden mit Funktechnik aus DDR-Produktion Stationäre Funktechnik wurde in der 6.Unterabteilung, Leiter OSL Dipl.-Ing.Funke, Arbeitsgruppe Funk Leiter OSL Dipl.Ing.(Später Dr.-Ing.) Irmscher bearbeitet. Seit dem Vorhandensein von Mikrorechentechnik aus DDR Produktion wurden in der ZFN alle existierenden und in Entwicklung befindlichen Nachrichtengeräte auf Steuerbarkeit durch Mikrorechner untersucht. Als erstes Gerät, das eine für diese Zwecke manipulierbare Schnittstelle besaß, fiel uns der EKD 300 vom VEB Funkwerk Köpenick auf. Als Anwendung sahen wir den Einsatz des Rechner gesteuerten Empfängers EKD 300 für den Bild 39: EKD 300 Funkdispatcher. Dem Funkdispatcher obliegt unter anderem die Zuteilung von Arbeits- Frequenzen, die er vorher auf Belegung zu untersuchen hat. Zur Erleichterung dieser Arbeit ist der Einsatz eines Mikrorechners bestens geeignet. Die Kombination EKD 300 mit einem Rechner nannten wir GFD 200. „Chefentwickler" für Rechnergesteuerte Funktechnik war in
der ZFN Dipl.-Ing. (später Dr.-Ing.) Dietrich. Das nächste große Thema war die Geräte EKD500 und den Kurzwellensender KSG1300 zu einer rechnergestützten Funkleitzentrale RFLZ zusammenzufassen.
Die Funklinie, die beiderseits über rechnergesteuerte Sender und Empfänger verfügten konnte nach einem Zeitraster umgestimmt werde, was einem sehr langsamen Frequenzsprungverfahren entsprach. Das Thema RFLZ wurde Mitte der 80er Jahre vom Funkwerk Köpenick in die Entwicklung übernommen und auch auf der Leipziger Frühjahrsmesse ausgestellt. 11.5 Die UNIX-Story
Wie aus den bisherigen Ausführungen hervorgeht, hatten wir bisher technologische Neuheiten stets möglichst frühzeitig zur Lösung unserer Aufgaben eingesetzt. Mit der 16 Bit Rechentechnik und dem Betriebssystem UNIX ergab sich eine Situation, in der wir aktiv in das Geschehen, auch in hoheitliche Beschlüsse, eingreifen mussten um einer höchst produktiven Technik den Weg zu bereiten. Warum das so war, soll daher in den nächsten Abschnitten etwas ausführlicher beschrieben werden.
11.5.1 Mikroprozessoren mit 16 Bit Wortbreite
Im westlichen Wirtschaftsgebiet war mit dem Erscheinen des Mikroprozessors i8086 im Jahre 1978 die 16-Bit-Ära angebrochen. Im Osten gab es zwischen Sowjetischen und DDR - Wirtschaftskreisen eine leichte Verstimmung, weil die SU der "Intellinie" folgend, den i8080 nachgebaut hatte und die DDR, weil von der SU nicht einbezogen, sich auf den leistungsfähigeren Z80 orientiert hatte. Folgerichtig plante die SU den Nachbau des i8086 mit seinen ca. 28.000 Transistorfunktionen und die DDR, der zur Verfügung stehenden Technologie folgend, den Nachbau des Z8000 (mit, aufgrund der Random-Logik , nur 16.OOO Transistorfunktionen) und der dazugehörigen Schaltkreisfamilie. Für den Nachbau des Z8000 sprach darüber hinaus, dass mit dem RIO auf K1520 das Zilog Entwicklungssystem zur Verfügung stand, das auch einen Crosscompiler für den Z8000 Gegen einige Stimmen von ROBOTRON wurde im Ministerium für Elektrotechnik Elektronik (MEE) das Konzept für das Modulare Mikrorechner-System verabschiedet, das auf der U8000 Dieser Entschluss wurde von den Softwarespezialisten der ZfN begrüßt, da hiermit Kontinuität in der Entwicklung, insbesondere Portabilität der in PLZ geschriebenen Programme, gewährleistet schien.
Im Herbst 1982 wurde im MWT vom Stellvertreter des Ministers, Professor Montag, die Verteidigung des Entwicklungsbeginns des U8000 abgenommen. Es waren alle potentiellen Nutzer des Schaltkreises anwesend, unter anderem die Vertreter der Werkzeugmaschinenbranche und des Kombinat Elektroapparate Werke KEAW. Mit letzterem hatte die ZfN im Auftrag des CN inzwischen einen Wirtschaftsvertrag zur Entwicklung eines speziellen Steuerrechners abgeschlossen, der den U8000 als Prozessor und UNIX als
Betriebssystem haben sollte.
Der Mandatsträger für Rechentechnik im MfNV, das AT-Organ, stimmte dem Projekt nur zu, wenn es als reiner spezieller Steuerrechner deklariert wird. Damit hießen alle von Chef Nachrichten in Entwicklung gegebenen Rechner "SSR", was für "Spezieller Steuer Rechner"
steht, gefolgt von einer Versionsnummer. Das gemeinsam mit der Entwicklergruppe im Zentrum Forschung und Technologie des Kombinat Elektro Apparate Werke KEAW unter der Leitung von Dr. Classen ausgearbeitete Projekt sah als erstes einen SSR8 (8-Bit-Rechner mit 16-Bit-Erweiterung) vor und daraufhin
die Gerätefamilie SSR16.
Betriebssystem sollte in allen Fällen UNIX sein. Die oben genannte Verteidigung bedeutete natürlich nicht, dass nun die Entwicklungsarbeit in aller Ruhe und Konzentration vonstatten gehen konnte. Wie angedeutet hatte die Wahl des Z 8000 als Zieltyp für den zu entwickelnden Mikroprozessor einflussreiche Gegner, vor allem bei ROBOTRON. Die angespannte Weltwirtschaftslage, die vor allem durch die Hochzinspolitik der Reagan- Administration geprägt war, brachte der DDR im Jahre 1982 Schwierigkeiten in der NSW Export-Import-Bilanz. Das darauf folgende Kommando der strengsten Sparsamkeit bei Importen wurde von den Zilog-Gegnern geschickt ausgenutzt der Führung zu suggerieren, dass die Eigenentwicklung der U 8000 Schaltkreisfamilie unnötige Überbrückungsimporte zur Folge hätte, während der Import der Schaltkreise auf Intel-Basis aus der SU "nur" Verrechnungsrubel koste. Das MEE entschied daraufhin "Entwicklung U 8000 einstellen".
Wir waren uns mit den Entwicklern vom KEAW klar, dass damit unser UNIX-Projekt stark gefährdet war, da der 8086 in wesentlichen Leistungsmerkmalen wie addressierbarer Speicherplatz, Möglichkeiten der Speicherverwaltung, Schutz des Systemspeichers vor Nutzerzugriff usw. die Leistungsmerkmale des Z 8000 nicht erreichte. Dazu kam, dass ROBOTRON nicht die Absicht hatte, ein UNIX System auf dem 8086-Rechner zu installieren, sondern mit dem firmeneigenen Weitblick nicht etwa DOS, sondern CPM/86 implementieren wollte. Für uns zählte weiter das Argument der vorhandenen Cross-Software, die Portabilität und die Verfügung über weitere Zilog-Software. Ein Besuch meinerseits bei Staatssekretär Nendel im MEE mit dem Vorschlag zwei Mikroprozessortypen als Entwicklungsgrundlage zuzulassen, wurde mit dem ROBOTRON-Argument abgewiesen, bei unserer geringen Entwicklungskapazität seien zwei Linien nicht verkraftbar. Erfahrungsgemäß ist Widerstand gegen Führungsentscheidungen in der zentralgeleiteten Wirtschaft aussichtslos, es sei denn, es gelingt, den Apparat gegen den Apparat zu Die dazu erforderliche Information auf dem "Dienstweg" einzubringen, war sinnlos, weil heiße Eisen die Spitze meistens nicht erreichten, ja sogar auf dem Schreibtisch des Kontrahenten landen konnten.
Ich schrieb daher einen Brief an einen guten Bekannten in der Sicherheitsabteilung des Zentralkommitees der SED (Die Sicherheitsabteilung war die Verantwortliche Abteilung für die bewaffneten Organe), in dem ich möglichst allgemein verständlich den Sachverhalt und die auftretenden Widersprüche beschrieb.
Die Sicherheitsabteilung gab den Brief zuständigkeitshalber an die Abteilung Forschung und Technik weiter, deren Abteilungsleiter Hermann Pöschel mich zu einer Anhörung bestellte. Nachdem ich dort die Zusammenhänge zwischen Prozessorentwicklung und technologischen Möglichkeiten sowie den ökonomischen Konsequenzen nochmals ausführlich erläutert hatte, wurde das MWT beauftragt, den von mir vorgetragenen Sachverhalt im Detail zu prüfen.
Um die Machtkonstellation richtig einschätzen zu können, muss man wissen, dass sowohl Pöschel als Verantwortlicher für die Forschung, als auch der Zilog-Gegner Tautenhahn, dem als Verantwortlichen für den Maschinenbau das MEE unterstand, Direktunterstellte des mächtigen Wirtschaftssekretärs Mittag waren.
Es muss der Wahrheit entsprechend eingeräumt werden, dass sich in den Führungsetagen kaum jemand für UNIX interessierte, wohl aber für den wirtschaftlichen Aspekt des Prozessorstreites. Dieser bestand darin, dass Mikroprozessoren auf dem Weltmarkt aus Embargogründen offiziell nicht an Ostblockstaaten verkauft wurden. Die SU hingegen wollte ihren i8086 kompatiblen Prozessor ab 1985 in Serie produzieren, aber nur begrenzte Stückzahlen zum zehnfachen Weltmarktpreis liefern.
Mit der Überweisung des Problems "in die Ausschüsse" war die "Hinrichtung" des U8000 In einer Art Verteidigung vor Mitgliedern des Forschungsrates und weiteren Vertretern der Industrie hatte ich im April 83 nochmals alle Argumente vorzutragen, die für die Fortführung der Entwicklung des U8000 sprachen und die Lauffähigkeit der Z8000 Cross-Software durch Mitarbeiter meiner Dienststelle praktisch vorzuführen.
In dieser Veranstaltung verwies Dr.Classen auf die damals neue UNIX-Implementation (ZEUS) auf dem Zilog-Entwicklungssystem ZLAB.
Diese Veranstaltung führte zur Bildung einer Arbeitsgruppe des Forschungsrates aus Industrie-, Hochschul- und Akademievertretern, die das Für und Wider nochmals Nach zahlreichen Zusammenkünften dieser AG, an denen von der NVA nur ich und mein Stellvertreter Oberst Dr. Wilhelm teilnahmen, wurde schließlich im Juli desselben Jahres im Beisein der Minister MWT und MEE ein Kompromisspapier unterzeichnet, das neben der nach wie vor von ROBOTRON vertretenen "INTEL-Linie" die "ZILOG-Linie" offiziell zuließ.
Mit diesem Akt war die Hardwarebasis für eine UNIX-Implementation auf Mikrorechner gesichert. Für ROBOTRON war im Mikrorechnerbau ein Kontrahent entstanden. Diese Konkurrenz, die wie in der NVA auch in der Wirtschaft zu Eifersuchtsszenen führte, wurde bezeichnenderweise dadurch geschlichtet, dass nach einer Anweisung des MEE das KEAW nur Entwicklungssysteme und Steuerrechner herstellen durfte, während ROBOTRON die Entwicklung für Arbeitsplatzrechner zustand.
Ein wichtiger Nebeneffekt dieses offiziellen Linienstreites war, dass 1983 das MWT eine offizielle Arbeitsgruppe UNIX ins Leben rief, in der der UNIX-Gedanke staatlich gefördert wurde. In dieser AG waren die Softwareexperten des Leitzentrums für Anwendungs- Forschung (LfA), die bereits ein Jahr bei der Implementation von UNIX auf "IBM/360-370 kompatiblen" Rechnern Erfahrungen hatten, eine gute Unterstützung.
Die NVA war in der Gruppe durch Oberst Dr. Wilhelm und durch den späteren Direktor des IAT. Oberst Dr. Beyer, dem seine Chefs einen Beobachterstatus zugebilligt hatten, sowie durch mich, vertreten.
Kurz vor der Fertigstellung des Z8000 aus DDR-Produktion gab es noch eine Panne. Wir wurden vom Halbleiterwerk in Erfurt angerufen, dass in der Maske des U8000 ein Fehler entdeckt worden sei, der Chefentwickler, der den Fehler beseitigen kann, aber z.Zt. zum Reservistendienst einberufen sei. Oberst Dr. Wilhelm ermittelte daraufhin den Truppenteil des Reservisten, rief den Stabschef der Einheit an und erklärte ihm die prekäre Situation. Die Kollegen des Entwicklers staunten nicht schlecht, als dieser am nächsten Tag in Uniform durch das Werktor in Erfurt schritt und sich an den Automaten setzte um den entdeckten Fehler zu beseitigen.
Die Entwickler des KEAW hatten als ersten Schritt auf dem Wege zu einem Unixrechner die Entwicklung zweier Leiterkarten im K1520 OEM-Format vorgesehen (SSR8 Konzept). Die eine Platine trug den Prozessor und die Kopplung mit dem Bus des als EA-System fungierenden Bürocomputers BC 5120, die andere war mit 4 mal 64 KByte RAM bestückt.
Den Auftrag für die Entwicklung eines auf dieser Hardware lauffähigen UNIX erhielt das Zentralinstitut für Kybernetik der ADW (ZKI).
Im ZKI hatte eine Arbeitsgruppe unter Leitung von Dipl.-Math. 0.Fröhlich gerade UNIX V7 auf einer PDP11 kompatiblen CM4-20 aus unvollständigen UNIX V6 -Quellen Diese Implementation diente zum einen der Gruppe Fröhlich als Cross-Entwicklungssystem für das Z8000 UNIX, zum anderen war es für Angehörige meiner Dienststelle (und natürlich für mich selbst) Trainingssystem für den Umgang mit UNIX.
Nicht nur das Handling an der CM4-2O schärfte mein Verständnis für die Unix-Welt, sondern auch der Umgang mit den vorzüglichen Spezialisten der Arbeitsgruppe. Neben dem UNIX-Guru Fröhlich gehörten ihr an: Frau Dr.Bündig, die den C-Compiler für U8000 unter UNIX V7 schrieb, Herr Dipl.-Math. Ulbrich, der den Assembler zu schreiben hatte und last not least Herr Dr.Lange, der die Anpassung des UNIX-Systemkerns an den mit allen Aus- und Eingabemedien in Verbindung stehenden BC5120 besorgte.
Der Verkauf des BC5120 mit dem Betriebssystem UDOS, das von den Softwareentwicklern vor allem von Automatisierungs- und Fernmeldetechnik eingesetzt wurde, hatte dem Hersteller des BC , dem Büromaschinenwerk Karl-Marx-Stadt, ökonomisch Gewinn gebracht.
Die Werkleitung war dem Vorschlag der NVA (in Gestalt der ZfN) somit sofort zugetan, den U8000-Erweiterungsmodul zu produzieren und zusammen mit dem BC5120 als BC5120.16 und UNIX als Betriebssystem zu verkaufen. Die Kombinatsleitung sah diesen "Stilbruch" ungern, musste den Armeeauftrag aber Oberst Dr. Wilhelm hatte 1984, in dem Jahr, in dem die Hauptarbeiten am Betriebssystem im ZKI geleistet wurden, alle Hände voll zu tun, um einmal die ökonomischen Interessen von KEAW, ZKI und ROBOTRON "unter einen Hut" zu bringen, und zum anderen den termingerechten Ablauf der Hardwarearbeiten im Büromaschinenwerk zu sichern.
Ende 1984 lag dann ein produktionsreifer 16 Bit Erweiterungskartensatz vor. Das UNIX- kompatible Betriebssystem konnte zum gleichen Zeitpunkt erstmals gestartet werden.
ROBOTRON hatte die Technische Hochschule Ilmenau beauftragt eine UNIX- Implementation auf dem K1630 vorzunehmen. Dieses UNIX V.7 kompatible BS wurde „MUTOS" genannt (Multi User Timesharing Operating System). Das vom ZKI implementierte BS erhielt daraufhin den Namen „MUTOS 8000". Das Jahr 1985 stand voll im Zeichen erster Unixanwendungen in der NVA. Von der ZfN wurde organisiert, dass vor allem die UNIX-Anhänger an Schulen und auf den Gefechtsständen so schnell wie möglich einen erweiterten BC bekamen.
Das Handling auf dem BC5120.16 unter UNIX war umständlich, da normalerweise nur drei 8" Laufwerke mit je 360 KByte Diskettenkapazität zur Verfügung standen. Man musste stets die root-Diskette laufen haben, dazu die usr-Diskette und als dritte war dann der Editor oder der C-Compiler zu mounten. Das war aufwendig, schärfte aber das Systemverständnis. Trotz dieser Härten versuchten wir Mitte 1985 in der ZfN das gesamte Mutos-8000 auf dem erweiterten BC zu generieren. Bis dato waren alle Versionen Cross auf der SM4-20 erzeugt worden. Bei dieser Arbeit wurden noch eine Reihe von Fehlern im Assembler und im Compiler, aber auch in den Quellen entdeckt. Nach etwa einem Monat Trial and Error gelang die Generierung, und wir hatten viel gelernt.
Zur Schulung der zahlreichen UNIX-Erstanwender, sowohl in der NVA als auch in zivilen Einrichtungen der DDR, gründeten wir eine MUTOS-8000 Anwendergemeinschaft, die monatlich Erfahrungen mit dem neuen Betriebssystem austauschte. Ebenfalls zu Schulungszwecken gewannen wir Herrn Fröhlich und die Mitglieder seiner Arbeitsgruppe, eine detaillierte Beschreibung von UNIX V.7 (anhand der Quellen) auf der Grundlage der, an einer Australischen Universität angefertigten Beschreibung von UNIX V.6, anzufertigen. Leider wurde das Material nie gedruckt. Eine Zeile im Original dieser Beschreibung hat uns sehr gefallen, sie ist nahezu symptomatisch für das was sich damals abspielte. Die Zeile lautete "It is not expected you understand this".
Für UNIX auf Mikrorechnern zeichnete sich 1985 eine Verbesserung ab. Aus eigener Produktion standen 14 Zoll Winchesterplatten mit einer Kapazität von 30 MByte zur Verfügung. Die Platten waren mit Ansteuerung und Netzteil in einem nachtschrankartigen Gehäuse untergebracht und machten sehr starken Lärm. Für den BC5120.16 wurde fieberhaft eine Ansteuerung entwickelt. Das KEAW hingegen hatte aus Baugruppen der Automatisierungsindustrie und einer improvisierten MMU-Karte eine Prototype-Hardware aufgebaut und darauf eine ZEUS- Adaption (V.7 kompatibel) implementiert. Das Betriebssystem wurde WEGA genannt. Da diese Leistung im Rahmen der Schaffung des von uns bestellten SSR16 erbracht wurde, erhielten wir im Herbst 1985 ein solches Muster und konnten nun in der ZfN ein echtes Multiuser-System in Betrieb nehmen. Als Terminals benutzten wir normale Bürocomputer unter UDOS (RIO) oder SCP (CPM) mit eiligst geschaffener Remote-Software.
Während der Chef Nachrichten, dem wir das neue System vorführten, sofort die Möglichkeiten, die sich hierdurch für Führungssysteme ergaben, erkannte und für die Fortführung der Arbeiten grünes Licht gab, nahm die Abteilung AT im MfNV wie üblich von all dem nichts zur Kenntnis.
Die Erfolge, die das Büromaschinenwerk mit dem Verkauf der UDOS und der MUTOS Rechner hatte, bewog die Werkleitung, weiter auf Rechner mit U8000 Schalt Kreisbasis zu setzten. Es wurde ein Arbeitsplatzcomputer konzipiert, der in der ersten Ausbaustufe ein DOS-ähnliches Betriebssystem haben sollte und später eine UNIX-Adaption. Die Gruppe Fröhlich hielt es für möglich, ein UNIX zu generieren bei dem, solange keine geeignete Festplatte existiert, die Hauptelemente des Betriebssystems von Diskette in einen großen RAM geladen werden, wodurch eine schnelle Arbeit gewährleistet wird. Wir unterstützten diesen Gedanken, weil wir von der Perspektive von UNIX überzeugt waren. Das MEE war aber offenbar ganz anderer Ansicht. Vertreter der Akademie hatten den Staatssekretär auf den Siegeszug von MS-DOS aufmerksam gemacht und den Umstand kritisiert, dass ROBOTRON einerseits mit dem richtigen Prozessor (i8086) den falschen Rechner baut (der AC 7100 war für ein CPM-Derivat ausgelegt) und dazu noch ein UNIX-Experiment mit einem Exoten vorhatte. Staatssekretär Nendel spielte wieder einmal die Zentralmacht aus und untersagte das Entwicklungsvorhaben des Büromaschinenwerkes. Die Vorstellung des A7800 (so hieß der U8000 Rechner für UNIX) auf der Leipziger Frühjahrsmesse wurde wenige Stunden vor Eröffnung der Messe untersagt.
Es gab 1986 doch noch einen Erfolg für den UNIX-Flügel, als auftragsgemäß die ersten Muster des P8000 (NVA-Bezeichnung SSR16) fertig wurden. Das Betriebssystem WEGA war weiterentwickelt und nun UNIX System III kompatibel.
Damit waren aber MUTOS-8000 und WEGA V.7 nicht vergessen. Im ZKI wurde uucp implementiert und die oben erwähnte Winchesterplatte angeschlossen. In der ZfN beschafften wir 5 1/4 " Winchesterlaufwerke und programmierten den BC5120.16 als Rechner für ein Führungssystem. Der Vorteil des MUTOS-8000 war nach wie vor unsere genaue Bild 40: P 8000 (SSR 16) Quellenkenntnis, sodass sich z.B. Lochstreifeneingaben oder Fernschreibmaschinenanschluss leicht implementieren ließen. Unter Mutos 8000 ließen wir durch Herrn Dr. Horn von der Humboldt Universität Pascal-Prolog implementieren und unter WEGA V.7 durch die Herren Mohr und Dr. Kriegel vom ZKI Common-LISP. Auf der Leipziger Frühjahrsmesse 1987 wurde der P8000 der Öf entlichkeit vorgestel t. Beachtung fand dabei nicht nur das handliche Multiusersystem allein, sondern auch eine von uns initiierte Echtzeiterweiterung. Es handelte sich um ein Beistellgerät, das mit U8000 OEM-Karten aus der Baureihe der Automatisierungstechnik bestückt wurde. Als Betriebssystem lief allgemein das dem ZRTS nachempfundene IRTS (segmentiert oder nichtsegmentiert). Das Gerät wurde terminalgleich an den UNIX-Rechner angeschlossen und übernahm Prozessdaten (z.B. aus Fernmeldeanlagen) in Realzeit. Die zwischengespeicherten Daten wurden Blockweise an den P8000 übergeben und dort verarbeitet.
Mit dieser Lösung wurde, mit der zur Verfügung stehenden Hardware im Vorgriff das bewältigt, was später UNIX Maschinen mit Echtzeit-Kern leisteten.
Die anhand des MUTOS-8000-Systems auf UNIX vorbereiteten Anwender in der NVA bemühten sich mit unserer Hilfe schnellstmöglich zu einem oder mehreren P8000 zu gelangen. Das wurde dadurch erleichtert, dass das Gerät nicht bilanzpflichtig war, sondern frei verkauft werden konnte. Die finanziellen Mittel wurden aus geplanten Forschungsgeldern, mehr oder weniger illegal, bestritten. Aufgrund ihres fortgeschrit enen Standes in der Softwarebearbeitung erhielt die ZfN vom Technischen Komitee der Teilnehmerstaaten des Warschauer Vertrages die Aufgabe ein Konzept für ein Fernmelde-Führungssystem auszuarbeiten. Es versteht sich von selbst, dass das System auf dem Betriebssystem UNIX basieren würde. Eine Studie, wie so ein System aussehen könnte, wurde von den Mitarbeitern der 5. Unterabteilung Oberstltn. Dr. Donau und Dipl. Ing Drescher bearbeitet. Da wir mit dem U 8000 keine Hardware besaßen, die das im MIT entwickelte X-Windows verarbeiten konnte, verwendete Dipl.Ing. Drescher für die Fenster der Bedienoberfläche das Paket curses. Der Direktor des Instituts für Informatik der Humboldt Universität Professor Polze war ein engagierter UNIX- Anhänger. Wie er sagte, war es sein Traum, ein Labor mit UNIX-Rechnern einzurichten, in dem er seine Studenten in diesem fortschrittlichen Betriebssystem ausbilden konnte. Oberst Dr. Wilhelm gelang es, die notwendigen P8000 Geräte für dieses Vorhaben zu beschaffen. Zur Einweihung des UNIX-Labors des Instituts für Informatik der Humboldt Universität trank Professor Polze ein Glas Sekt mit uns.
Die ZfN konnte sich Ende 1987 mit Unterstützung des CN ein IBM-XT beschaffen. Dieser PC' diente der
Einsatzvorbereitung der ESER-PC's. Die UNIX-Fellows schauten nicht ohne Neid auf den bunten Bildschirm des DOS-Gerätes.
Es gab allerdings im DOS-Lager der DDR eine deutliche Schwachstelle, das war die Kommunikation im Rechnerverbund und der Zugriff auf gemeinsame Ressourcen. Hier hatte Robotron nur das schmalbrüstige ROLANET-1 zu bieten, was außer dem Postaustausch über einen Server (ohne Leistungsfähige Sicherheitstechniken) nichts konnte. Bob Metcalfs Idee des Ethernets war bei uns noch nicht angekommen.
Nachdem in der AG Datenkommunikation der ZfN, unter der Leitung von Oberstltn Dr. Uhlmann, durch Dipl.Ing. Müller die Hartware für Lichtleiteranschlüsse entwickelt worden war, wurden in eigener Werkstatt Lichtleiteranschlüsse für P800O, seine Terminals, BC's und PC's als Kleinserie hergestellt. Danach konnten wir die gesamte Dienststelle mit Lichtleitern verkabeln. Damit waren sowohl Terminals mit dem P8000 als auch die Rechner untereinander über dieses Medium verbunden. Der Versuch, zwischen den Rechnern über das UNIX-Kommando remote zu kommunizieren, bewährte sich nicht. Da aus Sparsamkeitsgründen (ein P8000 gestattet nur acht Anschlüsse) nur eine (Doppel-) Leitung zwischen zwei Rechnern bestand, war diese im Bedarfsfall stets besetzt. Der Ausweg bestand darin, den Remote-Zugriff vollständig zu sperren und als Hauptkommunikationsart den Maildienst über uucp zu installieren. Für spezielle Abfragen wurde noch uux zugelassen. Es erwies sich, dass dieser Dienst die Mehrzahl der Kommunikationswünsche befriedigte. Für das Leitungs- Informations- und Kommunikations- System (LIKS) wurde für Wenignutzer als erstes in der cshell im Fast Prototyping eine Nutzeroberfläche geschaffen. Diese wurde bald durch eine in C geschriebene Version ersetzt. Die Herren Illmann und Süß vom ZKI erschlossen bald darauf das Curses-Paket für den P8OOO, sodass die Nutzerschale nunmehr in Fenstertechnik angeboten werden konnte.
Aus dem LIKS heraus konnte auch auf Datenbankinformationen zugegrif en werden. Als Datenbank wurde „ing-db" verwendet. Ein ingres-Derivat, das von Herrn Wentzlaff aus dem ZKI für alle Rechnertypen aus DDR-Produktion geschaffen worden war. Für ing-db hatte Herr Wentzlaff auch einen Compiler geschrieben (AMX),der einen schnellen Zugriff auf die Datenbestände sicherte.
Im MfNV gab es für die Mitglieder des Kollegiums rechnergestützt Führungsinformationen. Diese Informationen mussten aber, ähnlich Videotext, abgerufen werden. Es fehlte die für UNIX typische Dialogkomponente. Zur Rationalisierung der Führung des CN wurde beim Diensthabenden Nachrichten (DN) ein P8000 installiert, mit der Zielstellung, ihn mit weiteren Rechnern der Verwaltung Nachrichten zu vernetzen. Vorerst war neben dem Diensthabenden Nachrichten (DN) nur der CN und seine Stel vertreter angeschlossen. Softwaregrundlage für diesen Rechner war das in der ZfN erprobte LIKS. Da der DN ein 24-Stundendienst war, hat e der CN ständig Zugrif zu Informationen über die Nachrichtenlage, den Einsatz von Nachrichten- Kräften und -Mitteln, aktuelle Beschaltungsinformationen usw. Damit entfielen eine Reihe von Rapporten. Weisungen konnten abwesenden Unterstel ten per Mail übergeben werden. Gleichermaßen war die Entgegennahme von Meldungen durch Mail möglich. Der Flaschenhals des Systems war die Umsetzung der von "unten" gemeldeten Informationen in den Rechner der Führungsstelle. Zur ständigen Verminderung der Handeingaben wurde zunächst Fernschreibtreiber als Devices in den P8000-Kern eingebunden. Damit konnten formatisierte Meldungen sofort eingelesen werden. Zu erwähnen bleibt, dass im Jahre 1988 die Fachgebiete Nachrichten und Automatisierung der Truppenführung unter Führung des "Stel vertreters des Chefs des Hauptstabes - Chef Nachrichten" fusioniert wurden. Dieses Amt übernahm der bisherige CN Generalleutnant Dr. Paduch. Am Festhalten des AT - Bereiches am Erfordernis der Mainframe-Dominanz (Durch ESER-Rechner ), des Einsatzes von Minis auf VAX- Basis mit VMS sowie PC's nur mit DOS änderte sich nichts. Neu war nur, dass von uns in offiziellen Konzeptionen UNIX als Betriebssystem für speziel e Anwendungen eingebracht werden konnte und dazu natürlich die erforderliche Hard- und Anwendersoftware. Den Arbeitsplatz des CN, dessen Dienstzimmer nun am anderen Ende des MfNV-Gelände lag, schlossen wir über ein langes Lichtleiterkabel an das LIKS an.
Auch die alte Idee, Methoden der Künstlichen Intelligenz zur Fehlersuche an Nachrichtengeräten
einzusetzen lebte wieder auf. Die Eigenschaften des P8000 ermutigten uns KI-Aufgaben unter UNIX zu lösen. Nach den Erfahrungen mit Pascalprolog gelang es Major Demian und Hauptmann Meischner von der Sektion Militärisches Transport- und Nachrichtenwesen C-Prolog (ein Prolog für 32 bit Rechner) auf dem P8000 zu implementieren. An C- Prolog wurden die Datenbanken WEGA-Data und ing-db angeschlossen.
Der Bereich Künstliche Intelligenz des ZKI, unter der Leitung von Herrn Dr.-sc. Koch, hatte sich die Aufgabe gestel t, neben der Implementation eines Common-Lisp-System unter VMS auf VAX auch eine kleine Version für P8000 abzuleiten. Grund war die große Verbreitung des P8000 (ca. 5000 Stück), vor allem an Hochschulen, wodurch eine adäquaten Verbreitung von Common Lisp möglich war. Wir stellten das Versuchsfeld für diese Implementation. Es zeigte sich, dass der Bedarf an Hauptspeicher dieses Systems sehr groß war. Sobald die Speicherbenutzung in die Größenordnung des halben Hauptspeichers kam, (nahm die Swapzeit drastisch zu. Ausweg war die Aufrüstung des Hauptspeichers auf 3-4 Megabyte, bei der sich ein befriedigendes Mit der genannten Lispversion entwarfen wir zwei Prototypen von Expertensystemen für die Instandsetzung von Nachrichtengeräten. Eine davon erhielt sogar eine graphische Nutzeroberfläche.
Die nichtvorhandene Grafikfähigkeit der P8000 Terminals wurmte uns sehr. Da der kleine Graphikeditor des P8000 ein Tektronix Terminal voraussetzte, was wir natürlich nicht besaßen, beschaffte ich einen Tektronix-Emulator für den IBM-PC und die dazu erforderliche EGA-Karte samt Farbbildschirm. Wie zu erwarten war, konnte die ROBOTRON-Hardware für diesen Fall nicht eingesetzt werden. Herr Wilk vom ZKI, der bei uns seinen Dienst als Wehrpflichtiger leistete, schrieb den Editor so um, dass er die Leistungsmerkmale des „Tektronix 4106" Terminals voll ausschöpfte. Da das Terminal "intelligent" war, konnten der Bildaufbau, die Segmentierung, das Zooming usw. sogar aus dem P8000 ausgelagert und unter UNIX eine recht zügige Bildbearbeitung erreicht werden.
11.6 Rechnergesteuerte Umsetzer
Eine unserer Initiativen reichte bis in die Deutsch-deutsche Gegenwart. Während im Stabsnetz (S1, 9.4) Koordinatenschalter in den Vermittlungen eingesetzt wurden, waren die Ortsvermittlungsstellen der Deutschen Post mit Hebdrehwählern bestückt. Inzwischen war die Entwicklung der elektronischen Nebenstellenanlagen NZ400 für das Stabsnetz abgeschlossen und sie wurden produziert. Die elektronische Transitzentrale ENA-T war bereits als Muster in das Stabsnetz eingebunden (9.11) Zum Übergang in das Ortsnetz waren elektronische VStw-Umsetzer entwickelt worden, auf der Grundlage von Vorleistungen von Dipl.-Ing Grünewald, Angehöriger der 4. Unterabteilung.
Es muss nun berichtet werde, dass nachdem 1989 die Mauer fiel, ich im Jahre 1990 wegen Erreichen der Altersgrenze aus der NVA entlassen wurde. Mein Nachfolger Oberst Dr. sc. techn. Claus Wilhelm, der die ZfN noch bis Ende 1990 führte, erzählte mir folgendes: „Die Vereinigung von NVA und Bundeswehr erforderte ein gemeinsames Fernmeldenetz. Das Bundeswehrnetz hatte Vermittlungen mit Motordrehwählern, und das Stabsnetz S1 (NVA) war mit Koordinatenschalter bestückt. Mit viel Mühe und Nachdruck wurde gegen den Widerstand der anbietenden Fernmeldeindustrie der alten Bundesländer verdeutlicht, dass dieses Stabsnetz, z.B. für den Bundesgrenzschutz, und die Bundeswehr, übergangsweise nutzbar war. Zunächst wurde durch die Schaltung dreier Übergangspunkte von Ost nach West handvermittelt das Bundeswehrnetz mit dem Stabsnetz (S1) verbunden. Für die Durchwahl war ein Kennzeichenumsetzer zwischen beiden Netzen erforderlich.
Dazu schätzte die bundesdeutsche Fernmeldeindustrie Kosten von über eine Million D-Mark bei einer Entwicklungsdauer von zwei Jahren.
Das Problem wurde von Dipl.-Ing Grünewald innerhalb eines viertel Jahres gelöst. Er entwickelte mittel Ein- Chip-Prozessor den Umsetzer SK4448. Die Entwicklung und Produktion kostete ca. 400 Tausend DM.
Die Anpassung der Kennzeichen und Toleranzen erfolgte durch Dipl.-Ing Grünewald direkt in der Fermeldezentrale der Bundeswehr in Bonn.
Inzwischen hatten die Netzplaner der ZFN die Übergangspunkte dieser Querbündel zwischen Bundeswehrnetz und Stabsnetz (S1) geplant und die Schaltaufträge vorbereitet. Im Frühjahr 1991 waren damit die beiden Netze in Durchwahl verkoppelt.
Einige Netzplaner der dann abgewickelten ZFN wurden 1991 als Zivilbeschäftigte der Bundeswehr übernommen und waren dort langjährig tätig." 12. Hintergrund ab 1990
Im Rahmen des Projektes „Athena" wurde in den 80er Jahren im MIT auf dem Gebiet hardwareunabhängiger Grafik geforscht, Der Grundgedanke war, im Campus des MIT mit 1500 Mann an der gleichen grafischem Oberfläche unabhängig von Rechnertyp und Betriebsystem zu arbeiten.
Unter Einbeziehung der Erfahrungen mit dem System „W" entstand das System „X". Die erste Version wurde im Juni 1984 freigegeben, im September 1987 folgte die Version X11.
Das Prinzip besteht darin, dass auf dem Rechner am Arbeitsplatz ein X-Server läuft, der über ein Basis-
Windows-System verfügt sowie über das X-Netzwerkprotokoll. Der Rechner am Arbeitsplatz verfügt
natürlich auch über die Treiber von Maus und Tastatur.
Ein X-Client, d.h. das Anwenderprogramm, das ggf. auf einem Großrechner läuft, kommuniziert über
das Netzwerk mit dem X-Server.
Der X-Client benutzt die Dienste des X-Servers, um eine grafische Darstellung zu erreichen und
empfängt von ihm die diversen Ereignisse wie Tastenanschläge, Mausbewegungen, Klicks usw.
Umgangssprachlich beschrieben, „sagt" der X-Client zum Server: „Stell mal die und die Figur in der und der Art dar, wo bei an dieser und jener Stelle eine Zahlenangabe zu zeigen ist."Durch Mausklick und Tastatureingabe bestätigt der Nutzer die Angaben.
Es dürfte einleuchten, dass ein derartiges System sowie Kommunikation auf beliebiger Hardware zu realisieren ist. Leser, die über einen Apple-Computer mit dem Betriebssystem MAC OS X verfügen, können ein xterm aufrufen und auf der Kommandozeile einige Befehle des X-Windows-System eingeben. Manche Befehle wie „xbiff" der Briefkasten der meldet wenn Post eingegangen ist, sind durch spezifische Apple-Anwendungen (z.B. die Briefmarke für das Mailprogramm) ersetzt. Die Clienten xcalc, xclock, xeyes, xload und ico funktionieren aber noch. Selbstverständlich arbeiten LINUX-Nutzer auch unter X-Windows mit verschiedenen Windowmanagern wie z.B. GNOME oder KDE.
Das X-Windows-System war natürlich viel leistungsfähiger als MS-Windows der 80er bzw. 90er Jahre, sodass es ein Fortschritt war, dass die Firma Santa Cruz Operation (SCO) Ende 1989 das Betriebssystem SCO® Open Desktop®, das erste 32-bit graphische Nutzer Interface für UNIX Systeme herausbrachte, das auf Computern lief, die mit Intel Prozessoren ausgestattet waren.
12.2 SCO UNIX
In der Wiki SCO_OpenServer ist im Internet folgendes zu lesen:Nachdem Santa Cruz Operation bereits mit Xenix für i286 und i386 große Marktanteile im PC-Unix-Sektor erlangte, wurde im Jahr 1989 die erste Version von SCO UNIX vorgestellt. Dies war das erste Unix-Derivat, welches aufgrund der Lizenzierung durch AT&T den Namen UNIX in der Produktbezeichnung führen durfte.
Es ist eine 32-Bit-Implementierung für Intel i386, basierend auf dem AT&T UNIX System V (bis Version 5.0.7 basierend auf SVR 3.2; seit Version 6.0 basierend auf SVR 5). Obwohl bald andere Hersteller Produkte nach dem neueren SVR4 anboten und AT&T mit Novell das Betriebssystem UnixWare forcierte, setzte sich SCO UNIX wegen seiner Robustheit und der guten Unterstützung durch Hardwarehersteller am Markt durch.
Bis 1995 wurde SCO UNIX einzeln als Runtime-System und in den Produkten OpenServer und OpenDesktop mit integrierten Netzwerkprodukten geliefert. Nach der Übernahme von Novells Betriebssystem UnixWare im Jahr 1995 wurde das Betriebssystem SCO UNIX zu SCO OpenServer umbenannt. Die danach geplante Verschmelzung mit UnixWare fand 2005 im aktuellen Release 6 statt, das auf dem Unix SVR5-Systemkern aufbaut. Damit sind nun Gerätetreiber und Anwendungen von UnixWare auch unter OpenServer 6 nutzbar. 12.3 Netware
Im Bild 30 ist ein Ethernetrahmen dargestellt, in dem wir beim Internetprotokoll im 2 Byte langen Typ/Längen Feld den Typ (08) zu stehen hatten. Dieser Rahmentyp heißt ETHERNET_802.3. Es gibt darüber hinaus noch die Rahmentypen ETHERNET_802.2 und ETHERNET_SNAP, auf die aber an dieser Stelle nicht eingegangen werden soll. Im Abschnitt 8.6 war bereits darauf eingegangen worden, dass die Netzwerkkarten für das Ethernet weltweit eindeutige 6 Byte lange Quell- und Zieladressen besitzen, denen im ARP die jeweiligen IP-Adressen zugeordnet werden müssen.
Die 1983 gegründete Fa. Novell Inc.ging davon aus, dass es möglich sein muss allein mit
den 6 Byte langen Quell und Zieladressen ein Netzwerk aufzubauen. Das Netzwerk-
Betriebsystem von Novell wurde Netware genannt, das Protokoll heißt IPX (Internetwork
Packet Exchange). Im Typfeld des Ethernetrahmens steht dafür 8137.
Anstelle des IP/TCP Kopfes wird bei Netware das Datenfeld vom IPX-Header angeführt. Der Aufbau des IPX-Headers ist in Bild 41 dargestellt.
Prüfsumme (2 Byte-immer FF) Paketlänge (2 Byte) Paket Type (1 Byte) Zielnetzwerk (4 Byte) Zielknoten (6 Byte) Zielsocket (2 Byte) Quellnetzwerk (4 Byte) Quellknoten ( 6 Byte) Quellsocket (2 Byte) Bild 41: Kopf des IPX-Protokolls! Es bedeuten:Transportsteuerung: Der IPX-Treiber setzt das Feld vor dem Senden eines Paketes auf 0. Jeder Router erhöht das Feld, bei 16 wird das Paket entfernt.
Packet Type: Spezifiziert die Datensicherung entweder mit SPX (5) oder NCP (17),Beide Protokolle spielen die gleiche Rolle wie das TCP. Netzwerknummer: Die externe Netzwerknummer ist die des Netzwerks. Die interne Netzwerknummer ist nur für den Netware-Server.
Knoten Nummer: Jeder Computer muss im Netz eine eindeutige Adresse haben. In der Regel wird die Adresse der Netzwerkkarte als "node number" verwendet.
Socket Nummer: Nummer des Kommunikationsendpunktes. Legt fest, wo das Paket abzuliefern ist. Beispiele sind: 0x451 Kommunikationsendpunkt für das Core Protocol. Übergabepunkt für Daten ! kommend und gehend in der Software des Servers bzw. der Arbeitsstation.
0x452 Kommunikationsendpunkt für das Service Advertising Protocol. Telegramme mit ! diesem Protocol erfragen Dienste oder geben welche bekannt. „Wer ist mein nächster Server?" 0x453 Kommunikationsendpunkt für das Routing Information Protokoll.
0x4000 bis 0x6000 Freie Socketnummern, die von der sendenden Seite gewählt werden ! können.
Aus diesen Ausführungen erkennt man, dass NetWare ein Betriebssystem war, das zum Bereitstellen von Dateisystemen und Druckern diente. Es war Anfang/Mitte der 80er Jahre die einzige brauchbare Möglichkeit, um x86 basierte PCs zu vernetzen. Mit Erscheinen von Windows NT starb es aus.
12.4 LINUX
Wie in Abschnitt 12.2 am Beispiel SCO UNIX beschrieben, muss ein UNIX-System durch AT&T lizenziert werden. In der Anfangszeit durften Universitäten UNIX kostenlos für Lehrzwecke verwenden. In den 80er Jahren wurde diese Freizügigkeit aus wirtschaftlichen Gründen aufgegeben.
Namhafte Wissenschaftler ließen sich jedoch durch dieses ökonomische Diktat nicht aufhalten. Da war
z.B. Andrew S. Tanenbaum, der an der Freien Universität Amsterdam Minix als freies
unixartiges Betriebssystem als Lehrsystem entwickelt.
Ein weiterer Verfechter freier Software war Richard Stallman. Dieser gründete 1983 das
GNU-Projekt („GNU is not Unix") um ein komplett freies Betriebssystem nach dem Vorbild
von Unix zu entwickeln.
In diesem Umfeld arbeitete der finnischen Informatik-Student Linus Torvalds. Ihm diente
Minix 1991 als Entwicklungsumgebung für seinen Linux-Kernel.
Torvalds wol te eigentlich nur die Fähigkeiten der neuen INTEL 80386-Prozessorlinie (Multitasking,
Paging) ausprobieren, entwickelte aber dann einen voll funktionsfähigen Kernel mit virtuellem Speicher
und Speicherschutzmechanismen. Die Kommandos und der C-Compiler wurden durch GNU-
Versionen ersetzt.
Dieser Ansatz war ein Impuls für die Softwareentwickler auf der ganzen Welt nachdem ab 1992 der Linux-Kernel die Lizenzierung unter der GPLDas modular aufgebaute Betriebssystem wurde von da an von Unternehmen als auch von Non-Profit-Organisationen und Einzelpersonen weiterentwickelt. Microsoft Windows 3.0 wurde am 22. Mai 1990 veröffentlicht. Es ließ sich in drei Modi
betreiben.
Real Mode: Der „Real Mode" ist eine Art Kompatibilitätsmodus, der es erlaubt, Windows 3.0 auf einem
8086er auszuführen.
Standard Mode: die Betriebsart für damals (1990-91) durchschnittliche Hardware: ein Intel 80286-
Prozessor mit ca. 1 MB Arbeitsspeicher.
Extended Mode: Im „Erweiterten Modus für 80386-Prozessoren" ist auf einem PC mit 80386-Prozessor
und ausreichend Arbeitsspeicher.
Microsoft Windows 3.1 wurde am 1. März 1992 veröffentlicht und war erstmals als Update für ein
früheres Windows erhältlich. Trotz der Namensähnlichkeit waren viele Programme für Windows 3.0 zu
Windows 3.1x inkompatibel (und umgekehrt). Somit war Windows 3.1 das erste Windows mit einer
durchgehenden Aufwärtskompatibilität.
Windows for Workgroups 3.11 wurde im November 1993 veröffentlicht. Es war eine erweiterte
Fassung von Windows for Workgroups 3.1 mit verbesserter 32-Bit-Netzwerksoftware und TCP/IP-
Protokoll, das die Kommunikation mehrerer Rechner in einem lokalen Netzwerk erlaubte. Auch der
Internetzugriff über ein Standardmodem mit dem AT-Befehlssatz von Hayes und den Bitraten von 4,8 /
9,6 / 19,2 kBit/s war möglich. Man konnte auch über das ISDN ins Internet gehen. Browser für WfW 3.11
waren der Internet Explorer 5.0 Deutsch und Netscape Navigator 4.08. Für die Installation wurde ein
386SX/DX-Prozessor vorausgesetzt.
Windows 95 (") erschien am 15. , der nach dem Systemstart die Systemzugriffe
mittels so genannter VxDs (Virtual Device Driver, virtuelle Gerätetreiber) steuert.
Windows 98 ( Codename „Memphis"), erschien am 30. Juni 1998 als Weiterentwicklung von Windows
95. Windows 98 enthielt hauptsächlich Internet-Erweiterungen wie den integrierten Internet Explorer 4.0
sowie Multimedia-Erweiterungen. Mitte 1999 erschien Windows 98 Second Edition (englisch für zweite
Ausgabe) die als überarbeitete Version unter Anderem das Service Pack 1, den Internet Explorer 5
sowie einige Verbesserungen im Bereich Multimedia und USB mitbrachte.
Windows NT 4.0 (Codename „Cairo"), ist am 29. August 1996 erschienen. In der Chefetage von
Microsoft hatte man eine Idee. Man warb einen der renommiertesten Entwickler von Betriebssystemen,
den Entwickler des legendären VAX Betriebssystems VMS David N. Cutler und einige seiner
Mitarbeiter von DEC ab.
Cutler erreichte es, dem neuen Betriebssystem eine hohe Zuverlässigkeit zu vermitteln, eine
Eigenschaft, die unter Betriebssystemen wie VMS oder unixähnlichen Systemen längst üblich war.
Auch wichtig war Portabilität – Windows NT sollte auf allen modernen Computerarchitekturen lauffähig
sein.
Entscheidend war, dass Windows NT grundsätzlich alle Eigenschaften eines TCP/IP Systems und
seine Kommandos übernahm.
12.6 Apple
Der 1984 vorgestellte Macintosh war der erste kommerziell erfolgreiche Computer mit
einer grafischen Benutzeroberfläche. Diese Entwicklung wurde durch die Technik
inspiriert, die im Xerox Forschungszentrum entwickelt wurde, aber nicht kommerziell
verwendet worden war. Der Erfolg des Macintosh brachte Apple dazu, den Apple II für die
Macintosh-Produktlinie aufzugeben, die bis heute verfolgt wird.
Die erste Power Macintosh-Reihe wurde im März 1994 eingeführt und stellte für die
Anwender einen nahtlosen Übergang auf eine völlig neue Art von Prozessor dar: Die
konventionellen Prozessoren der Motorola-68k-Baureihe wurden abgelöst durch den
RISC-Prozessor PowerPC 60, wobei Power für Performance optimization with enhanced
RISC (Leistungsoptimierung durch erweitertes RISC) und PC für Performance Chip
(Hochleistungs-Chip) steht.
Nach einem internen Machtkampf hatte Steve Jobs 1985 APPLE verlassen und die Firma NeXT Computer gegründet Gegen Ende 1996 kaufte das Unternehmen APPLE die NeXT-Firma von Jobs auf und
entwickelte das Betriebssystem "One Step" zu einem neuen Macintosh-Betriebssystem.
Durch die schrittweise Aktualisierung wurde NeXTStep schließlich unter dem Namen Mac
OS X
zum neuen Betriebssystem der Macintosh-Rechner.
Mac OS 9 war die letzte Version des alten Betriebssystems Mac OS für Macintosh-
Rechner von Apple. Es wurden jedoch nur Macs mit PowerPC-Prozessoren unterstützt.
Sie wurde am 23. Oktober 1999 herausgegeben. Die wichtigsten Neuerungen von Mac
OS 9 waren Mehrbenutzerunterstützung und die Schlüsselbund-Funktion, mit der ein
zentraler Aufbewahrungsort für Passwörter eingeführt wurde.
Im Jahre 1998 wurde der iMac G3, der Erste der Generation der iMAC Rechner ausgeliefert. Primäre Merkmale der ersten iMac-Generation waren eine in den Monitor integrierte Haupteinheit und halbdurchscheinendes (semitransluzentes)
Gehäuse in blaugrün.Das „i" im iMac hat folgende
Bedeutungen: internet, individual, instruieren,
informieren und inspirieren. Es wurde in den
folgenden Jahren zum Markenzeichen vieler
APPLE-Produkte – allen voran de
.
Bild 42: Apple iMac G3 12.7 ISDN
Im Abschnitt 10.3 war bereits über die Einführung des ISDN in der Bundesrepublik gesprochen worden. Das Fernmeldetechnische Zentralamt der Bundespost hatte das Protokoll FTZ 1 TR 6 (kurz 1 TR 6), das Signalisierungsprotokoll des nationalen ISDNs entwickelt. Obwohl das Protokoll 1TR6 in Teilen bereits mit den von der ITU herausgegebenen Vorschriften übereinstimmte, war eine Kommunikation über die Landesgrenzen hinweg nicht möglich. Der Grund war Inkompatibilität mit den Protokollen der Nachbarländer. Zum besseren Verständnis der Zusammenhänge soll kurz die Aufgabe des D-Kanalprotokolls im ISDN dargestellt werden. Bild 43: Verbindung zwischen ISDN-Anschluss in der Wohnung und der Ortsvermittlung In der Wohnung eines ISDN-Teilnehmers befindet sich ein Netzabschluss, der die zweidrähtige Amtsleitung in eine vierdrähtige Leitung, den sog. ISDN-Bus in der Wohnung umwandelt. Die Amtsleitung befördert sowohl den Strom der Impulse vom Teilnehmer zum Amt, als auch den Strom der Impulse vom Amt zum Teilnehmer. Die Entkopplung erfolgt durch eine in der Fernmeldetechnik bekannte Gabelschaltung. Der in der Gabel auftretende Rückfluss wird durch die in Bild 44 dargestellte Gabelschaltung mit Echokompensation unterdrückt.
Bild 44 : Gabelschaltung mit Echokompensation Damit auf dem Kanal kein Gleichstromanteil entsteht, wird die Impulsfolge aus Strom und Kein-Strom Impulsen (Alternate Mark Inversion) AMI-Codiert. Bild 45: oben: Normale Impulsfolge, unten die gleiche Impulsfolge AMI-Codiert, aus Plus wird Null (0,0 ),aus ! Null wird alternierend +1 (+0,75 V) -1 (-0,75 V) Bild 46: Bitfolge auf dem SO-Bus von der Vermittlung zumTeilnehmer Der über die Zweidrahtleitung fließende AMI-codierte Bitstrom von 192.000 bit/s ist in Rahmen zu je 48 Bit aufgeteilt, In Bild 46 ist ein solcher Rahmen dargestellt, der von der Vermittlung zum Endgerät transportiert wird. Für unsere Betrachtung ist wichtig, dass zwischen den (schwarzen) Impulsen, die die Sprachinformation transportieren, jeweils 4 rote Impulse eingefügt sind, die den Signalkanal bilden. Diese Impulse werden herausgefiltert und als Signalkanal (D-Kanal) weiterverarbeitet. Die Struktur des D-Kanals ist in allen nationalen Protokollen gleich, wobei jedoch die einzelnen Oktette in der Schicht 2 von Protokoll zu Protokoll unterschiedlich sein können.
Bild 47: Das Herausfiltern der Impulse für den Signalkanal Das erste Oktett im Rahmen der Schicht 3 ist der Protokolldiskriminator PD. Er gibt an, nach welchem Protokoll die Nachrichten der D3-Schicht kodiert sind.
Das nationale ISDN (1TR6) wurde durch die PD 40 und 41 gekennzeichnet.
Das Euro-ISDN ist durch den PD 08 repräsentiert.
Mit der Unterzeichnung eines MoU (Memorandum of Understanding, Absichtserklärung) durch 26 aus 20 europäischen Ländern im Jahre 1989 einigte man sich auf die Einführung eines gemeinsamen europäischen ISDN-Standards im Jahre 1993.
Das Protokoll 1TR6 wurde daraufhin untersucht, welche Vorschriften des Euro-ISDN mit vertretbarem Aufwand eingearbeitet werden konnten und welche nicht. Das Ergebnis wurde in der DTAG-Richtlinie 1TR67 festgelegt. Das resultierende Protokoll heißt DSS-1 und steht für Digital Subscriber Signalling System No.1. Es ist die nationale Variante des Euro-ISDN (E-DSS-1), das durch die ITU-T-Empfehlung Q.931 reglementiert wird. Das Euro-ISDN bietet u.a. einen transparenten mit 64, einen Audio-Übermittlungsdienst mit 3,1 kHz und 7 kH, die Übermittlung der des Anrufers zum gerufenen Teilnehmer, die Unterdrückung der Übermittlung der Rufnummer, die zu Nebenstellen in Mehrfachrufnummern sowie das Umstecken am passiven des Mehrgeräteanschlusses.
Der Deutschen Telekom wurde gestattet (für eine Übergangszeit), den Basisanschluss bilingual zusammen mit dem nationalen 1TR6-Protokoll für den D-Kanal anzubieten. Zu diesem Zweck stellte die Deutsche Telekom Interworking Units in allen ISDN-Vermittlungsstellen bereit, in denen die Protokollumsetzung erfolgte.
Euro-ISDN ermöglicht eine grenzüberschreitende Kommunikation mit hoher Datensicherheit und einer für öffentliche Netze relativ hohen Übertragungs-Geschwindigkeit. Das ISDN-Telefon TEKTRA der Deutschen Telekom war in der Lage nach dem Anstecken an den ISDN-Bus zu überprüfen, welches Protokoll am Anschluss vorliegt. Es schaltet sich danach automatisch auf das jeweilige Protokoll ein.
Die beiden Protokolle sowie der bilinguale Anschluss wurden noch bis zum Jahr 2000 angeboten 12.8 Die Produzenten von ISDN-Hardware
Von den Produzenten, die in den 90er Jahren ISDN Hardware produzierten sollen hier nur die beiden in Berlin ansässigen AVM und Teles genannt werden, da sie dem Autoren aus unmittelbarer Zusammenarbeit bekannt sind.
12.8.1 TELES
Die Teles AG wurde im Jahr 1983 als TELES Telematic Services GmbH,
Informationstechnologien vom Vorstandsvorsitzenden und Mehrheitsaktionär Prof. Dr.
Sigram Schindler als Hightech Unternehmen gegründet. In Zusammenarbeit mit der TU
Berlin wurde die Forschung zur Telekommunikationsstandardisierung vorangetrieben, aus
der ab Anfang der 90er Jahre eigene Produkte für den Telekommunikationsmarkt
entstanden sind.
Bild 48: Hexstrings die für Diagnosezwecke in der TELES.i.PBX gespeichert wurden Professor Schindler hatte sich zu Beginn des Wirkens seiner Firma das Ziel gestellt, bezahlbares ISDN-Zubehör zu entwickeln und zu verkaufen. Ein herausragendes Produkt war die TELES-iPBX. Eine Leiterkarte mit dem
Vermittlungschip und 4 programmierbaren ISDN-Ports, die in einen (auch älteren) PC
eingesteckt, diesen zu einer vollwertigen ISDN-Vermittlung macht.
Diese Vermittlung spielte eine große Rolle für die ISDN-Ausbildung. Die Entwickler dieser
Karte hatten zu ihrer eigenen Sicherheit einen Debug-Modus eingebaut. In dieser
Betriebsart protokollierte der Computer die D-Kanalinformationen aller vier Ports und
schrieb sie in eine Textdatei. Wenn man die Signale zu deuten wusste, war es möglich,
das
Zusammenspiel zwischen Vermittlung und Endgerät zu erklären (Bild 48)
Zum Teles-Sortiment gehörten sodann S0-Karten, mit denen man Computer mit dem ISDN
verbinden konnte. Diese Karten wurden für den ISA und den PCI-Bus entwickelt.
Eine Auswahl von TELES-Karten ist nachstehend aufgeführt:
!
!
TELES.S0/16.3 PnP TELES.S0/16.3c PnP Die TELES-Box spielte eine besondere Rolle. Die TELES-Box gestattete ein
automatisches Call-by-Call. Dieser Dienst bezeichnet die Möglichkeit, Telefongespräche
über einen anderen Anbieter als denjenigen des Telefonanschlusses (z.B. die Telekom) zu
führen. Formal spricht man auch von der fallweisen Betreiberauswahl.
Im Fall eines Telefongesprächs wählt der Anrufer vor der eigentlichen Rufnummer die
Verbindungsnetzbetreiberkennzahl. Diese Sonderrufnummer wird umgangssprachlich
auch Sparvorwahl oder Call-by-Call-Nummer genannt. Diese Nummern sind in
Deutschland nach dem Muster 010xy bzw. 0100xy gebildet. Die TELES-BOX konnte nun
so programmiert werden, dass derjenige, der ein Telefongespräch führen möchte, sich die
Sparvorwahl nicht merken muss, sondern dass sein Gespräch von der TELES.S0-Box
automatisch mit der Call-by-Call-Nummer ergänzt wird.
Die Softwareansteuerung der S0-Karten erfolgt über einen CAPI-Treiber.
CAPI steht für „Common ISDN Application Programming Interface". Mit Hilfe der CAPI-
Schnittstelle kann Computer-Software für die Nutzung von ISDN bereitgestellt werden
ohne dass Kenntnisse der verwendeten, herstellerspezifischen ISDN-Karte notwendig
sind. Vom ETSI wurde die CAPI 2.0 als Standard ETS 300 325 (Profil B) übernommen.
Es ist noch festzustellen, dass die Firma TELES auch einen ISDN-S2M-Router entwickelt
hat. Die S2M-Schnittstelle dient u.A. dem Anschluss von ISDN-Telefonanlagen. Auf ihr
werden 30 so genannte B-Kanäle mit je 64 KBit Bandbreite übertragen. D.h. eine S2M-
Schnittstelle entspricht von ihrer Kapazität 15 einfachen ISDN-Anschlüssen.
Ein S2M-Router ist in der Lage einem Endgerät mehrere B-Kanäle zuzuordnen, so dass
sich die Übertragungsbandbreite zwischen zwei Endstellen vergrößern lässt.
Mit dem Erwerb der Strato AG im Jahr 1998 änderte TELES seine Geschäftsfelder und
gab das ISDN-Geschäft weitestgehend auf.
12.8.2 AVM
Das Unternehmen wurde von den vier Studenten Johannes Nill, Peter Faxel, Ulrich Müller-
Albring und Jörg Detlef Gebert 1986 gegründet und hat seinen Sitz in Berlin.
Die erste ISDN-Karte wurde 1989 unter dem Namen AVM A1-Card auf den Markt
gebracht.
Sie ist die Vorläuferkarte der Fritz-Card und wurde nur als ISA-Karte gebaut und
vertrieben.
Mit der Einführung der Marke Fritz! (selbst schreibt das Unternehmen immer FRITZ!) und
der Fritz!Card, einer ISDN-Karte für PCs, kam 1995 der Durchbruch.
Der Marktanteil bei ISDN-Karten in Deutschland wuchs von 1995 an kontinuierlich.
Für den professionellen Bedarf gab es die Karte AVM B1. Sie ist im Gegensatz zu odemit eigenem zessor, weshalb sie als aktive
Karte bezeichnet wird.
Die AVM B1 kommt hauptsächlich in zum Einsatz. Die aktive RISC-Technologie
der Karte sorgt i für einen optimalen Speicherschutz, geringen
Speicherverbrauch und garantierte in eine Umgebung bei
minimaler Belastung des Rechnersystems.
Seine Anerkennung verdankte AVM hauptsächlich seiner hohen Produktqualität der Hard-
und Software. Somit konnte sich AVM mit seinen Produkten wie die Fritz!Card (ISA, ISA-
PnP, PCI) gegen Wettbewerber wie trotz geringfügig höherer Produktpreise
durchsetzen,
Im Abschnitt 10.4 wurde bereits auf die Internationale Entwicklung des Mobilfunks
eingegangen. Der Digitale Mobilfunkbetrieb wurde erstmalig auf der Ausstellung ITU
Telecom 91 in Genf vorgeführt.
Die Bezeichnung GSM steht für Global System for Mobile Communication.
In Deutschland nahm die Telekom-Tochter DeTeMobil das erste digitale D-Netz im Juli
1992 in Betrieb.
12.9.1 Der Netzaufbau
Die Komponenten eins GSM-Netzes sind in Bild 49 dargestellt.
Bild 49: Komponenten und Schnittstellen in einem Mobilfunknetz (Public Land Mobile Network PLMN) In diesem Bild sind vier Komponenten eines Public Land Mobile Networks PLMN eingezeichnet. Auf die eingezeichneten Schnittstellen soll an dieser Stelle nicht eingegangen werden. 1. Das Mobiltelefon mit seinen Komponenten - hochleistungsfähige Digitalfilter, die kürzeste Umschaltzeiten zulassen, - Schaltkreise für schnelle Signalverarbeitung und hochkonstante Oszillatoren, - Spezialschaltkreise zur Verschlüsselung der Informationen, - Batterien, die hohe Standby Zeiten und Sendeleistungen bis 8 Watt zulassen, - ein Display mit hoher Auflösung.
!2. Das Base Station Subsystem oder auch die funktechnische Komponente des Systems besteht
a) aus der Base Transceiving Station BTS
- Das ist eine Funk-Sende-Empfangsanlage, die die Luftschnittstelle (Air-Interface) zwischen Mobile und
Netz realisiert.
- Sie übernimmt auch die Fehlerschutzkodierung des Funkkanals.
b) aus dem Base Station Controller BSC
der die Steuerung aller Geräte des BSS übernimmt. In ihm ist die gesamte Intelligenz des BSS
konzentriert
c) aus der Transcoder/Rate Adapter Unit TRAU.
diese Einheit ist für die Komprimierung der Daten auf der Luftschnittstelle verantwortlich. Sie reduziert
z.B.die Bitrate eines ISDN Kanals von 64 kbit/sec auf Bitrate der Luftschnittstelle von 16 kbit /sec beim
Full RateTransportkanal.
3. Das Network Switching Subsystem, der vermittlungstechnische Teil mit den Datenbanken, bestehend aus
a) dem Mobile Switching Center MSC
eine ISDN-Vermittlung wie sie im stationären Fernmeldenetz verwendet wird, die jedoch an den
Einsatz im Mobilfunknetz angepasst wurde.
b) dem Gateway-Mobile Switching Center GMSC
das die Verbindung zum ISDN und anderen Stationären Netzen herstellt 4. Das stationäre Fernnetz, das weltweit das Rückgrad des Mobilfunknetzes darstellt, das auch mit dem ISDN und anderen nichtdigitalen Fernmeldesystem verbunden ist.
12.9.2 Die Frequenzen
Ein Kanal im GSM besteht aus einer Frequenz und einem Zeitschlitz. Betrachten wir
zunächst den Frequenzplan für GSM 900 auf Bild 50
Man erkennt die beiden Frequenzbänder für Uplink (890,2-915 MHz) und Downlink (935,2-960 MHz), die einen Abstand von 20 MHz voneinander besitzen. Den Frequenzen sind Kanalnummern (sog. ARFCN = Absolute Radio Frequency Number) von 1 bis 124 zugeordnet, die bei der Anforderung oder in Meldungen anstelle der expliziten Frequenz verwendet werden.
Ist die ARFCN = n bekannt, so berechnet sich die absolute Frequenz für den Downlink: ! F(DL) = (935,2 + 0,2*(n-1) MHz,für den Uplink:! F(UL) = (890,2 + 0,2*(n-1) MHz.
Bild 50:Frequenzplan GSM 900 Wegen der begrenzten Reichweite der Sender auf den o.g. Frequenzen können bei geographisch angemessenem Abstand der Sender, alle Frequenzen wiederverwendet werden.
12.9.3 Das Zellularprinzip
Das Territorium wird in Bereiche eingeteilt, d.h. in so genannte Zellen (Durchmesser 300 m
bis 35 km), wobei benachbarte Zellen über von einander verschiedene Frequenzbündel
verfügen. Zellen mit gleichen Frequenzen sind durch mindestens eine Zelle in eben
diesem verschiedenen Frequenzbündel getrennt. (Bild 51).
Bild 51: Das Zellularprinzip 12.9.4 Die Zeitteilung auf den Frequenzen des Mobilfunknetzes
Die Übertragung auf dem Funkkanal erfolgt über die Aneinanderreihung von
Impulsbündeln, die Bursts genannt werden. Das Extrahieren von Impulsen aus einem
Datenstrom und Bildung eines neuen Kanals dürfte aus dem ISDN bekannt sein, wo aus
den jeweils 4 D-Bits aus einem Impulsrahmen der D-Kanal gebildet wird.
Bild 52: Zeitteilung Auf die Struktur des so entstehende physikalischen Kanals soll im Abschnitt Vordergrund der 90er Jahre näher eingegangen werden.
12.10. DSL
Mit dem guten alten Analogtelefon wurde die NF-Leitung maximal bis 3,4 kHz ausgenutzt. Die Einführung von ISDN brachte eine Erweiterung des übertragenen Frequenzbereiches bis 120 kHz. Bild 53: DSL-Schaltung auf Orts- und Fernseite Revolutionierend war die Entdeckung, dass man bei geeigneter Modulation auch noch höhere Frequenzbereiche auf der Zweidrahtleitung ausnutzen kann. (Bild 54) In Bild 53 ist das DSL-Prinzip dargestellt. Man spricht genauer von ADSL (Asymetric Digital Subscriber Line). Die Asymmetrie besteht darin, dass in der Senderichtung des Computers, d.h. im Upstream, eine deutlich kleinere Übertragungsgeschwindigkeit zur Verfügung gestellt wird als in der Empfangsrichtung, Downstream.
Vor der Zweidrahtleitung sitzt eine elektrische Weiche, ein „Splitter", in der das Frequenzband wie folgt aufgeteilt wird: Bis 120 kHz für ISDN, von 120 bis 138 kHz ein Schutzbereich, von 138 bis 276 kHz.für den Uplink und von 276 bis 1104 kHz für den Downlink.
Bild 54: Frequenzspektrum einer DSL-Verbindung Die ersten Anschlüsse konnten ab 1. Juli 1999 in Berlin, Bonn, Köln, Düsseldorf, Frankfurt am Main, Hamburg, München und Stuttgart geschaltet werden und wurden nur als ADSL-Bündelprodukte mit T-ISDN und einer fixen Datenrate von 768 kbit/s im Downstream und 128 kbit/s im Upstream angeboten; ab Mitte 2000 auch für Analoganschlüsse - allerdings zunächst ohne Preisvorteil gegenüber dem Produktbündel mit T-ISDN.
Eine Suchmaschine ist ein Computerprogramm, das automatisch das World Wide Web durchsucht und Webseiten analysiert. Da es sehr viele Webseiten auf der Welt
gibt, muss diese Maschine sehr groß
sein, um all die Informationen zu
erfassen. Die beiden Informatik-
Studenten Larry Page und Sergey Brin
(Bild 55) begegneten sich 1995 an der
Stanford University. Ihre erste Idee
bestand darin, eine sehr große
Suchmaschine durch sehr viele
(tausende) kleine leistungs-starke
Bild 55: Larry Page links, Sergey Michailowitsch Brin (Linux-gesteuerte) PCs zu ersetzen, die in Gruppen (Clustern) zusammenarbeiten. Die
Computergruppen sind dabei über alle Länder der Erde verstreut untergebracht. Sie
nannten diese Maschine Google.
„Googol" ist der mathematische Fachbegriff für eine 1 gefolgt von 100 Nullen. Der Begriff
wurde von Milton Sirotta, einem Neffen des amerikanischen Mathematikers Edward
Kasner, erfunden und in dem Buch "Mathematics and the Imagination" von Kasner und
James Newman verbreitet. Googles Wortspiel mit dem Begriff spiegelt das Ziel des
Unternehmens wider, die gewaltige Menge an Informationen zu organisieren, die im Web
verfügbar ist.
Die zweite Idee bestand in der besonderen Art, wie man die Wertigkeit einer Webseite
bestimmt (die Methode wird geheim gehalten). Dazu gehörte auch, dass diejenigen
Firmen, die an Google eine bestimmte Summe Geld bezahlen, bei den Ergebnissen einer
Suche an erster Stelle oder in einer Spalte "Anzeigen" erscheinen.
Wie oft in der Geschichte von Wissenschaft und Technik, äußerten im Jahre 1998 die
großen Internetfirmen jedoch kein Interesse an der entwickelten Suchtechnologie.
Wie üblich gründeten daraufhin die Studenten Page und Brin am 7. September 1998 In
einer Garage eine Firma, die Google Inc.
Mit einem Startkapital von umgerechnet 810.000 Euro (aufgebracht von den Familien,
Freunden) gingen sie mit der ersten Testversion des Programms an den Start. Fünf
Monate später bezog Google mit acht Angestellten ein Büro in Palo Alto.
Etwa 500.000 Suchanfragen wurden nun täglich verzeichnet. Nachdem seit September
1999 die Firmen AOL und Netscape mit Google zusammenarbeiten, versechsfachten sich
die Suchanfragen. Am 21. September 1999 wurde offiziell die Testphase Googles beendet.
13. Vordergrund ab 1990
Im Frühjahr 1990 fuhr ich das erste Mal zur Hannover-Messe. Die geballte Zurschaustellung des Weltwissens auf dem Gebiet der Informationstechnik war beeindruckend. Unser Kampf um den Anschluss an das Weltniveau bei ungleichen Ressourcen kam mir angesichts des hier gezeigten mächtigen Potentials nachträglich tollkühn vor.
An einem Messestand mit UNIX-Produkten wurde ich gefragt, woher ich denn als Ostdeutscher das Betriebssystem UNIX kannte. Als ich antwortete, dass bei uns UNIX auf dem einheimisch produzierten P8000 läuft, erntete ich Erstaunen.
Wenige Zeit später bat mich der amtierende Chef des Instituts für Mechanisierung und Automatisierung der Truppenführung (IMAT) der NVA Oberst Dr.-Ing. Beyer ihn bei der Beschaffung der SCO-UNIX-Software zu unterstützen. Das IMAT hatte sich mit Geldern des MfMV einen i386 PC beschafft, installierte SCO-UNIX und lud in die dort enthaltene ingres- Datenbank die auf den ESER-Rechnern des Instituts generierten militärischen Datenbanken.
Die Evaluierungskommission der Bundeswehr war erstaunt, dass hier etwas lief, was in den vergleichbaren Organen der Bundeswehr noch nicht auf der Tagesordnung stand.
13.1 Der erste eigene UNIX-Rechner
Mit der Währungsreform am 1. Juli 1990 standen auch mir im bescheidenen Umfang D-Mark zur Verfügung.
Am 1.10.1990 kaufte ich bei der Firma aXent einen UNIX-PC 386/25, ausgerüstet mit dem Betriebssystem SCO-UNIX, für 6.978 DM.
Mit 25 MHz Taktfrequenz, 4 MByte Memory und einer SCSI Harddisk von 170 MB steht er heute bei mir im Museum. Nun konnte ich alles das, was ich bisher über UNIX und das Betriebssystem X-Windows nur gelesen hatte, zu Hause ausprobieren. Die Maschine war zwar für heutige Verhältnisse lächerlich langsam und swappte sich in einigen Programmzyklen „zu Tode" (swappen ist Auslagerung von Programmdateien), aber das Ganze war eine neue Welt. Da viele DDR-Betriebe und Institutionen nach der Wende aufgelöst wurden, bildeten sich im Gegenzug Weiterbildungseinrichtungen, die einen Teil der freigesetzten Arbeiter und Ingenieure für neue Tätigkeiten qualifizieren sollten.
Ein Freund meines Sohnes machte mich aufmerksam, dass eine aus dem Institut für Nachrichtentechnik hervorgegangene derartige Einrichtung Lektoren auf dem UNIX-Gebiet suchte. Ich stellte mich beim Geschäftsführer Herrn Dipl.-Ing. Scrobotz vor und wurde als Dozent angenommen. Damit begann mein zweites Leben als Freiberufler.
13.2 Die .course GmbH
Die technische Ausrüstung unserer Firma bestand zum Einen in einer Klasse mit vernetzten P8000, in der wir über 12 Terminalarbeitsplätze verfügten.
In einer zweiten Klasse standen 16 PCs, auf denen die Software für X-Terminals lief und die über ein Ethernet mit zwei UNIX-Servern unter SCO-UNIX verbunden waren.
Die Firma stellte sich die Aufgabe, die Schüler neben UNIX noch in ISDN zu unterrichten. Zunächst musste unsere Einrichtung noch juristisch fixiert werden. Dazu gründeten wir am 01.07.1991 die .course GmbH bei der ich Mitbegründer und Gesellschafter war.
Es gelang mir als UNIX-Dozenten einen ehemaligen Mitarbeiter der ZfN, Dipl.-Ing. Deistler, zu gewinnen. Den Unterricht in der höheren Programmiersprache C übernahm Dr.-Ing. J.P. Bell von der Humboldt Universität als Gastdozent.
Der Unterricht in ISDN wurde durch den Gastdozenten Dipl.-Ing. Ullrich bestritten, den ehemaligen Leiter der Arbeitsgruppe, die in der ZfN die kleine Fernzentrale entwickelt hatte. Für eigene ISDN-Technik fehlte es unserer GmbH jedoch an Geld.
Herrn Scrobotz gelang es, mit dem Chef der TELES-GmbH Professor Schindler (Vergl. Abschnitt 12.8.1) Verbindung aufzunehmen. Bei einem von unserer Firma veranstalteten Workshop übernahm Professor Schindler das Hauptreferat und unterbreitete seine visionären Vorstellungen über die Entwicklungen im ISDN.
Die am Anfang der jungen Firma übergebenen Fördermittel waren bald erschöpft. Die vom Arbeitsamt bezahlten Beiträge für die Schulungsteilnehmer reichten nicht aus, das ständig wachsende Defizit auszufüllen, und so ging die .course GmbH am 16.11. 1993 in Konkurs. Das war meine erste Begegnung mit der Marktwirtschaft, die mich an Erfahrung reicher und an Geld ärmer machte.
13.3 ISDN-Ausbildung im a&d-Schulungszentrum
Der VEB Stern-Radio Berlin, DDR-Alleinhersteller tragbarer Rundfunkgeräte, wurde 1990 als Teil des gleichnamigen Kombinats 1990 abgewickelt.
Auch aus diesem Betrieb gründeten Mitarbeiter Weiterbildungsfirmen. Einer der Akteure, die die Adlatus-GmbH ins Leben riefen, war Dipl.-Ing. Krüger.
Durch den Konkurs der .course GmbH arbeitslos geworden, ließ ich mich durch Adlatus als Gastdozent anwerben und übernahm den Unterricht in ISDN und UNIX.
Wie in Abschnitt 12.8.1 erwähnt, vertrieb die Firma TELES die TELES iPBX, die im
Debugmodus die Kommunikation der Teilnehmer auf den Signal(D)-Kanälen der Teilnehmer
aufschrieb. Unter Verwendung der Recommentation ITU-T (INTERNATIONAL TELECOMMUNICATION UNION) Q.931 entschlüsselte ich die Hex-Strings, die in der Kommunikation zwischen den ISDN-Teilnehmern auftraten zunächst „zu Fuß" und gewann so grundsätzliche Einsichten in die Funktion des ISDN. Bild 56: Ausschnitt aus der Textdatei der TELES-iPBX im Debugmodus Diese in Bild 56 gezeigten Trace-Zeilen der iPBX haben die in Bild 57 dargestellte -----[ 4 ]---[ R ]---[ 13:13:28 ]-------------------------------------- r[3]: 00 81 00 00 41 01 09 05 9e 01 02 01 01 6c 02 80 30 00 SAPI=0 C/R=0 E/A=0 81 TEI=64 00 I-B N=0 00: N(R)=0 P=0 41 1TR6, PD=4101 CRL=1 09: CRV=9 sent from the side that originates the call reference 05 SETUP 01 ---> SIN, service indicator 02 length=2 01 Fernsprechen 01 ISDN telephony 3,1 kHz6c ---> OAD origination address 02 length=2 80 Type of address: unknown, numbering plan unknown 30 0 -----[ 5 ]---[ S ]---[ 13:13:28 ]-------------------------------------- s[3]: 00 81 01 02 00 SAPI=0 C/R=0 E/A=0 81 TEI=64 01 RR 02: N(R)=1 P/F=0.
-----[ 6 ]---[ S ]---[ 13:13:28 ]-------------------------------------- s[3]: 02 81 00 02 41 01 89 0d 18 01 89 02 SAPI=0 C/R=1 E/A=0 81 TEI=64 00 I-B N=0 02: N(R)=1 P=0 41 1TR6, PD=4101 CRL=1 89: CRV=9 sent to the side that originates the call reference0d SETUP ACKnowledge 18 ---> CHI, channel identification01 length=1 89 only B1-channel is acceptable Bild 57: Übersetzung der in Bild 56 dargestellten Rohtracezeilen Mir wurde klar, dass das Verständnis der Kommunikation auf dem D-Kanal gleichbedeutend mit dem Verständnis der Wirkungsweise des ISDN ist. Es gab da aber ein Problem. Sowohl die ITU als auch das ETSI (European Telecommunication Standard Institute) pflegen ihre Standards sehr detailliert zu gliedern.
Sobald man beginnt einen Standard durchzuarbeiten, trifft man auf einen Verweis auf einen zweiten, dritten Standard und so weiter.
Es gab aber einen Glücksfall. Zu Beginn der ISDN-Einführung standen alle ISDN- Recommendations der ITU auf dem Gopherserver des Instituts in Genf gratis zur Verfügung. Aus der Gopher-Wikipedia erfährt man: Gopher ähnelt dem frühen World Wide Web (WWW) und wurde 1991 an der Universität von Minnesota, unter der Leitung von Mark P. McCahill, entwickelt. Die Standardportnummer ist 70.
Die Überlegung, die zu Gopher führte, war die umständliche Handhabung des Protokolls FTP, bei dem man sich einloggen und über Konsolenbefehle in Verzeichnisse wechseln musste, um die gewünschte Datei zu finden und herunterladen zu können. Zudem wollte man ein einfach zu administrierendes Informationssystem schaffen, das wenig Ressourcen benötigt.
Der ISDN-Papst der Hochschule Mittweida war Professor Dr. sc. techn. Winkler, den ich noch aus unserem gemeinsamen Kampf für eine kleine digitale Nebenstelle kannte. Prof. Winkler gab mir nicht nur zahlreiche nützliche Hinweise für die Handhabe des ISDN, sondern holte mir auch die erforderlichen Vorschriften vom Gopherserver der ITU. Selbst hatte ich zwar eine Modemverbindung zur Humboldt Universität über die ich E-Mails senden und empfangen konnte, aber mit der ich damals noch nicht in der Lage war auf das Internet zuzugreifen. Daher bat ich Prof. Winkler regelmäßig die neu in mein Blickfeld tretenden ITU-Vorschriften herunterzuladen . Irgendwann versiegte die Quelle Anfang der 90er Jahre, da die ITU diesen kostenlosen Dienst einstellte. Ich musste versuchen, die ISDN- Recommendationen des ETSI aus anderen Quellen zu erhalten.
Für die Lehre war die „Aus den Kopf"-Übersetzung der D-Kanal-Strings nicht gut geeignet. Daher bat ich meinen Enkel Sebastian Göller, der damals Abiturient war, einen Übersetzer zu schreiben, der eine Rohtracedatei offline nach der in Bild 57 dargestellten Art übersetzt. Das in PASCAL geschriebene Programm nannten wir TELESTrace.
Die Adlatus-GmbH hatte inzwischen einen neuen Chef, den Diplom-Forstingenieur Volker Westphal. Dipl.-Forstingenieur Westphal besaß (neben seiner Vorliebe für die Jagd) ein ausgeprägtes Verständnis für Technische Prozesse, war ein guter Organisator und hatte gute Fähigkeiten Menschen zu führen. Als eine andere Firma einen Prozess um den Namen Adlatus führen wollte, änderte die Leitung den Namen der GmbH in analoges & digitales Schulungszentrum. Das a&d Schulungszentrum wurde 1994 öffentlich vorgestellt. Der Geschäftsführer verstand es, in Zusammenarbeit mit dem Arbeitsamt zahlreiche anspruchsvolle Lehrgänge sowohl für Facharbeiter als auch für Ingenieure zu organisieren. Da die bei uns ausgebildeten Lehrgangsteilnehmer gut wieder in den Arbeitsprozess eingegliedert werden konnten, wurde a&d gut vom Arbeitsamt unterstützt. Erstaunlicherweise vertraten einige Führungskräfte der TELEKOM in Berlin die Ansicht, dass die technischen Mitarbeiter der TELEKOM den ISDN-D-Kanal nicht in aller Tiefe verstehen, sondern nur das ISDN-Prüftelefon PrTel 93i handhaben können müssen. Es zeigte sich aber, dass Ingenieure und Techniker der TELEKOM gegenüber D-Kanal Schulungen sehr aufgeschlossen waren. Da die TELES.i.PBX aus einem alten PC und einer mit den PCM-Komponenten bestückten Leiterkarte zusammengebaut werden konnte, war diese Tracetool preisgünstig zu beschaffen und für Unterricht über den ISDN-D-Kanal gut verwendbar. Einen bestehenden ISDN-Bus monitoren, d.h. in den Kanal hineinschauen konnte man damit aber nicht, weil die Hardware aus dem ISDN-Bus nur den Rückkanal entnehmen konnte.
Einer der ersten kommerziellen D-Kanal-Analysatoren für diesen Zweck war der IBT10 von
Wandel und Goldermann, der dem Autor Ende der 90er als erstes zur Verfügung stand. In Bild 58 ist der Ausschnitt aus einem Trace dieses Gerätes dargestellt.
Wie man sieht ist das keine detaillierte D-Kanal-Information, sonder wieder nur eine Information nach dem Motto: Mehr brauchen unsere Techniker nicht zu wissen.
Bild 58: Ausschnitt aus einem 1999 mit einem IBT10 aufgenommenen Trace Die ETS-gerechte Übersetzung des in Bild 58 dargestellten IBT10-Traces erfolgte mit dem von Sebastian modifizierten TELESTrace . Aus wirtschaftlichen Gründen wurden für Lehrzwecke jedoch keine kommerziellen D-Kanal Analysatoren mehr betrachtet.
Im Jahr 1999 bestand eine leistungsfähige, zum Monitoren des ISDN-Busses geeignete Hardware aus dem TelesTraceBoard, das mit einem Notebook und dem von Sebastian Göller geschriebenen Übersetzer ALZView als D-Kanal-Analysator in großen Stückzahlen nach
Korea verkauft wurde.
Bild 59: Ausschnitt aus einem Rohtrace, gefangen mit TelesTraceBoard und CAPI 3.34 Die Koreanische Telekom hatte verlangt, dass der aufgezeichnete Trace streng ETSI-Konform übersetzt wird. Bild 60: ETS-gerechte Übersetzung der ersten 16 Oktette der Zeile 5 in Bild 59 Eine Übersetzung der ersten 16 Oktette der Zeile 5 des in Bild 59 dargestellten Rohtrace mit ALZView ist in Bild 60 dargestellt. Man erkennt, das die bitgenaue Übersetzung des Traces mehr Einsichten in die Kodierung des D-Kanals bietet als die in Bild 57 dargestellte Leider wurde die Treiber-Software der CAPI 3.34 von der Firma TELES nicht weiterentwickelt. Auch die Produktion der Hardware (der TELES PCMCIA 2.0) wurde eingestellt.
Darauf wurde die TELES.iLCR-2S0-Box als Tracetool eingesetzt. Leider stand auch diese
Hardware nicht lange zur Verfügung.
Das Problem beim Tracen des D-Kanals mit einer S0-Karte besteht im Aufzeichnen der Sende- und der Empfangsrichtung. Zur Erklärung muss auf die Rolle des in Bild 46 eingezeichneten Echobits eingegangen werden.
Vor dem Senden muss jedes Endgerät prüfen, ob der D-Kanal frei ist. Das geschieht durch „Hineinhorchen" in den Bus. Jedes Endgerät muss, bevor es den Kanal als frei betrachten darf, eine bestimmte Anzahl von logischen „1" lesen. Ein Fernsprechgerät darf z.B. nach Erkennung von 8 aufeinanderfolgenden logischen „1" auf den D-Kanal zugreifen. Beim Senden vergleichen die Endgeräte ständig das gesendete D-Bit mit dem dazugehörenden Beginnen zwei Endgeräte gleichzeitig mit dem Senden, so erkennt dasjenige Gerät, das eine logische „1" während das andere eine logische „0" sendet, dass es nicht allein den Bus belegt. Es muss folglich sofort die Sendung stoppen und wieder auf das Freikriterium (z.B. 8x logisch „1") warten. Das Abgreifen der Bitfolge des Echobits gestattet somit den Bitstrom des D-Kanals in der Empfangsrichtung aufzuzeichnen. Man kann nun eine „Eisenbarth-Methode" anwenden und eine zweite ISDN-Karte anschließen, bei der man die Sende- und Empfangsrichtung auf den S0-Bus vertauscht. Diese Karte dient dann nur dazu die Senderichtung auf dem D-Kanal zu monitoren. Die Methode wurde von Alexander Kool erstmals vorgeschlagen. Die oben angeführte TELES PCMCIA 2.0 besitzt (wie TELES 16.03) einen sog. Cologne Chip
mit integriertem S/T und Up in einem Basic Rate ISDN tranceiver, kann also beide Richtungen des D-Kanals aufzeichnen.
Nach dem Rückzug der Firma Teles aus dem ISDN-Geschäft wurde eine AROWANA- ISDN-
Karte mit HFC-CHIP unter LINUX zum Traces verwendet. Die AROWANA -Karten werden
auch nicht mehr produziert.
In den 90er Jahren bestand in der Berufsausbildung der Fernmeldetechniker in Deutschland ein großer Bedarf an Lehrmaterial. Der Leiter des EPV Elektronik-Praktiker-Verlages Helmut Exner schlug mir vor, ein Lehrbüchlein über ISDN zu schreiben. Diesem Angebot folgend schrieb ich in der ISDN-Praxis-Reihe den Titel „Der ISDN-D-Kanal im Dialog". Das
Büchlein wurde vom Narosa Verlag in Neu Delhi ins Englische übersetzt und auf Initiative vom Leiter der Firma Onsoft Herrn Gökbullut ins Türkische.
Herr Krüger hatte die Idee den von Sebastian Göller entwickelten Übersetzer für die Trace der TELS-iPBX in einem Lehrgerätesatz zu vermarkten. Der Gerätesatz wurde EPWE-
Trace genannt und bestand aus einem PC mit eingebauter Teles IPBX-Karte.
Bild 61: Lehrgerätesatz EPWE-Trace Herr Dipl.-Ing Haase hatte dafür eine benutzerfreundliche Bedienoberfläche programmiert.
Der Gerätesatz hatte einen Nachteil. Da die Teles-IPBX nicht mit Dienstmerkmalen wie Rufumleitung, Rückruf bei besetzt, Dreierkonferenz, Konferenzverbindung u.s.w. umgehen konnte, waren diese auch nicht lehr- und trainierbar. 13.4 ISDN-Anwendung in der Bauakademie
Die Gesellschaft für Informatik der DDR GIDDR war wie die Gesellschaft für Informatik der Bundesrepublik eine Einrichtung, die Informatik in Forschung, Lehre und Anwendung sowie die Weiterbildung auf diesem Gebiet fördert. Im Vorstand der GIDDR spielte ich die Rolle eines Vertreters der NVA und saß in diesem Gremium gemeinsam mit Professor Elsner, den Direktor der Bauakademie in der DDR. Da wir zu vielen Tagesordnungspunkten oft sehr ähnliche Standpunkte vertraten, hatten wir, wie man zu sagen pflegt, einen gemeinsamen Draht. Nach der Wende gelang es Professor Elsner die Bauakademie im großen Stil zur BEW der
„Bauakademie, EDV-Kompetenz- und Weiterbildungszentrum GmbH" zu wandeln. Anfang der 90er Jahre bei einem Besuch in der Bauakademie zeigten mir Professor Elsner und sein Stellvertreter Dr.-Ing. Runge die Lehrbasis der Firma, von der mich vor allem zwei Lehrklassen mit HP-Workstations unter dem Betriebssystem HP-UX begeisterten. Der Grund für diese Hightech. Konzentration bestand darin, dass speedikon die zu dieser Zeit
leistungsfähigste Facility Management Software im Bauwesen nur unter Unix mit graphischer Oberfläche, also X-Windows betrieben werden konnte.
Mit speedikon war es z.B. möglich die Außenansichten von Häusern zu zeichnen und dem System die Aufgabe zu stellen diese zu einem vollständigen Gebäude zusammenzusetzen. Die Bauakademie hatte vom Berliner Senat die Aufgabe erhalten das historische Stadtzentrum von Berlin im Computer zu rekonstruieren. Zu diesem Zweck hatte die Bauakademie Arbeitsräume in der Friedrichstraße gemietet, in denen mehrere Arbeitsplätze mit speedikon Arbeitsstationen aufgestellt waren, an denen nach alten Stadtansichten Häuser konstruiert wurden.
Das Problem war, dass die Arbeitsplätze im Zentrum und im Stammsitz der BEW in Weißensee offline miteinander arbeiteten. Die Firma, die Dr.-Ing. Runge unter Vertrag hatte eine Rechnerkopplung der beiden Arbeitszentren über das Fernmeldenetz herzustellen, meldete Insolvenz an.
Da mich die Aufgabe zwei X-Windows-Netze über das ISDN zu koppeln, interessierte, bot ich mich an, den Auftrag zu übernehmen. Die Kopplung der beiden Rechner Netze über ISDN funktionierte. Der Datendurchsatz des ISDN-Kanals war aber gemessen an den großen anfallenden Datenmengen zu gering, sodass der Bildaufbau auf der fernen Arbeitsstation zu schleppend erfolgte.
In Auswertung der Erfahrungen mit der Netzkopplung über einen ISDN-Basisanschluss schmiedete Dr. Runge eine neue Kooperation. Er versicherte sich der Mitarbeit der Telekom und der Technischen Fachhochschule Berlin beim Aufbau einer ISDN-S2m-Verbindung zwischen zwei Unix-Rechnernetzen. Die Telekom hatte zwei S2m-router der Fa. Siemens geordert, die ich zunächst mit Herrn Emmerich, einen BEW-Mitarbeiter, der schon bei Netzkopplung über einen ISDN-Kanal dabei war, untersuchte.
Entgegen den Vorstellungen von Dr. Runge, der das gesamte Konzept unter der Ägide der Telekom sehen wollte, begann ich als erstes die Eigenschaften der Router zu untersuchen. Nach dem Motto „Messen ist Wissen" erhöhte ich an der ISDN-Verbindung die Anzahl der zugeschalteten Kanäle und prüfte den Datendurchsatz. Zu meinem großen Erstaunen stellte ich fest, dass der Datendurchsatz in Abhängigkeit von der Anzahl der verwendeten Kanäle nicht ständig stieg, sondern ab etwa 10 Kanälen wieder abnahm.
Nun hatte ich bei der Firma TELES bereits einen S2m-Router in Funktion gesehen. Dort stieg der Datendurchsatz zwar nicht linear aber zumindest stetig mit wachsender Kanalzahl.
Dr. Runge forderte von der Telekom auf dem Dienstweg eine Erklärung des Ergebnisses, worauf ein Mitarbeiter von Siemens erschien und theoretisch nachweisen wollte, dass das Ergebnis theoretisch erklärbar sei. Aufgrund einer Beschwerde von Dr. Runge bei der Führung der Telekom in Bonn, ordnete diese eine Erprobung mehrerer Typen von Routern im Labor derTelekom in der Oranienburger Strasse an. Leiter der Erprobung war Dipl.-Ing. Ziebart. Neben Siemens und Bintec-Routern war auch ein Vertreter der Firma Bayes aus Kalifornien mit einem S2m-router anwesend.
Wie erwartet zeigte der Siemens-Router seine Anomalität, der Bintec-Router brach unerwartet zusammen, aber der Bayes-Router überzeugte durch einen fast linearen Zusammenhang zwischen Zahl der S0-Kanäle und Datendurchsatz.
Auf die Frage seines Vorgesetzten, warum er für die Aufgabe den Siemens Router ausgewählt habe, antwortete Herr Ziebart, dass er vorausgesetzt habe, dass Siemens eine Weltfirma sei.
13.5 ISDN-Anwendungen in der Rohde & Schwarz SIT GmbH
Zum Verständnis der folgenden Geschichte muss ich beim geschätzten Leser etwas 13.5.1 Vorgeschichte 1
Dem Ministerium für Staatssicherheit unterstand ein Institut, das sich mit der Geheimhaltung auf Fernmeldeverbindungen beschäftigte. Dieses Zentral Chiffrierorgan (ZCO) beschäftigte eine Reihe ausgezeichneter Mathematiker und Ingenieure.
Mit dem Zusammenbruch der DDR wurde auch dieses Organ aufgelöst. Die Geschäftsleitung der Firma Rhode und Schwarz (München) fing einen Teil der Fachleute des ZCO auf und gründete mit ihnen in Berlin die Rohde & Schwarz SIT GmbH.
13.5.2 Vorgeschichte 2
Man erzählt sich: Zu den technischen Diensteinheiten des MfS gehörte eine Gruppe von Ingenieuren, die sich mit der Technologie des ISDN beschäftigte und dabei insbesondere mit Möglichkeiten, in fremde ISDN-Netze einzudringen. Angriffspunkt war die Vermittlung Siemens HICOM 300. Man muss wissen, dass sich Software-Entwickler häufig in die von ihnen entwickelten Programme „Türen" einbauen, damit sie beim Auftreten von Fehlern in der sehr umfangreichen Software von Ferne auf die Maschine zugreifen und debuggen können. (vergl. auch den amerikanischen Film „WarGames") Die Aufklärung des MFS hatte nun offenbar diese Eigenschaft der HICOM 300 aufgespürt. Nach der Wende setzte sich die genannt ISDN Gruppe nach Moskau ab. Nach einiger Zeit kam der Leiter der Gruppe aus Russland zurück und bot der Bundesrepublik seine Dienste an. Nach Aufforderung führte er die Möglichkeit des Eindringens in eine ihm nicht vorher bekannte Anlage vor. Die beteiligten Bundesdeutschen Beamten waren beeindruckt und dachten über die Abschöpfung dieses Know-how nach, bis auf einen, der gegen den Vorführer Strafanzeige erstattete. Der Vorführer erfuhr von der Anzeige und setzte sich in die USA ab, wo er willkommen geheißen wurde. Seit dieser Vorführung bestanden bei den Sicherheitsexperten Zweifel an der Sicherheit im ISDN. Ich bin mir sicher, dass die Firma Siemens die Tür in der Software der HICOM 300 sofort verschlossen hat. 13.5.3 Vorgeschichte 3
Nach der Verabschiedung des Berlin/Bonn-Gesetzes am 26. April 1994 war klar, dass sich zwischen Berlin und Bonn eine rege Telefon- und Fax- Kommunikation über das ISDN entwickeln würde.
Das Bundesamt für Sicherheit in der Informationstechnik BSI erteilte daher der R&S SIT GmbH den Auftrag, einen ISDN-Filter zu entwickeln, mit dem man vor einer ISDN- Vermittlung beliebige Signale absperren kann.
Bei der SIT wurde eine Arbeitsgruppe unter der Leitung von Herrn Diplom-Mathematiker Hornauer gebildet, die diesen Filter entwickeln sollte. Bei der Suche nach Literatur fiel Herrn Hornauer mein Büchlein „Der ISDN-D-Kanal im Dialog" in die Hände. Nach einer Besprechung mit der Geschäftsleitung der SIT erklärte ich mich bereit, eine Studie, über die Bedrohung von Nebenstellenanlagen im ISDN zu verfassen und bei der Entwicklung des Filters konsultativ mitzuarbeiten.
13.5.4 Die Hauptgeschichte
Laut Vertrag legte ich eine umfangreiche Studie über die Bedrohung von Nebenstellenanlagen im ISDN vor. Darin wurde.
- Die Rolle des Netzes bei der Manipulierung von D-Kanal-Strings - Die Rolle von Stimulusprotokollen im ISDN - Die Manipulation von D-Kanal-Informationen am T oder am coincidenten S/T beschrieben. Zu allen Punkten wurden ausführliche Tracebeispiele mitgeliefert.
Da der Filter im Prinzip einen großen Traceübersetzer mit mehreren Ausgängen und unterschiedlichen Reaktionen pro Ausgang darstellt, wurden die Quellen des von Sebastian Göller geschriebenen Traceübersetzungsprogramms an SIT verkauft.
In der Studie konnten 4 Sicherheitslücken abgeleitet werden, die sich allerdings bei geeigneter Sorgfalt bei der Einrichtung und Programmierung von Anlagen schließen lassen. Das Eindringen in TK-Anlagen setzt demnach immer einen Innentäter voraus. Genau wie bei der Bedrohung von Rechenanlagen muss auch in die „Rechenanlage Vermittlung" ein Trojaner eingeschleust werden. Zur Stimulierung des Trojaners stehen solche Informationen im D-Kanal zur Verfügung, die vom Netz unverändert an die Gegenseite durchgereicht werden.
Ein solches Element das vom Netz an die Gegenstelle durchgereicht wird ist in der SETUP Meldung das Informationselement „High Layer Compatibility" Es dient dazu, dem Kommunikationspartner mitzuteilen, welche Leistungsmerkmale das angesprochene Endgerät besitzen muss, damit die Kommunikation zustande kommt. Wird auf der Gegenseite z.B. ein ISDN-Telefon erwartet, so muss die Oktettfolge HLC Informationselement übertragen werden.
Soll ein Faxgerät angesprochen werden, so ist die Zeichenfolge HLC Informationselement Das Informationselement HLC gestattet nach der CCITT Recommendation aber auch als zweites Oktett (nach 7D) das Oktett F1 „Eigendefinition" zu übermitteln.
In der Vermittlung oder am S0-Bus muss jetzt durch den Trojaner eine Softwareschleife aktiviert werden, die als „Eigendefinition" eine feindliche Handlung ausführt.
Zur Demonstration hatte ich auf meinem Laptop ein Beispiel programmiert, in dem ein Anrufer im IE HLC die Kennung F1 und danach AA sendet, was der Trojaner als „Aktiviere Rufumleitung zu einer anderen Rufnummer" deutet. Das darauf gesendete Fax wurde an die falsche Rufnummer gesendet. Das darauf gesendete IE mit der Kennung F1 BB veranlasste den Trojaner, die selektive Rufumleitung zurückzunehmen. Bei Vorträgen über den ISDN-Filter im Rhode & Schwarz Schulungszentrum München wurde dieses Szenario stets vorgeführt und gezeigt, dass bei Einsatz des Filters die Information des Trojaners abgeblockt werden konnte.
Mitarbeiter von SIT verlangten immer wieder von mir, dass ich Beispiele bringe, bei denen tatsächlich trojanerverseuchte Vermittlungen vom Filter geschützt werden. Da ich diese Beispiele nicht bringen konnte und den aus Anlass einer Schulung von Teilnehmern vorgebrachten Kritiken an der Filterphilosophie nicht energisch genug entgegentrat, beendete die SIT die Zusammenarbeit mit mir.
13.6 Was sonst noch passierte
Wie im Abschnitt 13.3 beschrieben gab es in der ISDN-Ausbildung das Problem, dass das Hineinschauen in den D-Kanal an eine spezielle Hardware gebunden war. Wer es sich leisten konnte, war in der Lage sich einen ISDN-Tester der Marke IBT10, Pegasus oder Ähnliches zu beschaffen. Lösungen mit speziellen ISDN-Karten wie die TELES/S0 16.3 oder dieTELES/PCMCIA waren wie oben beschrieben nicht lange auf dem Markt.
Da wurde in der Firma Shamrock Software GmbH die Idee geboren, in die CAPI der ISDN-
Karten von AVM vor allem der Fritz!Karte hineinzugreifen und das Geschehen auf dem D- Kanal zu monitoren.
Damit konnte man sich zwar nicht auf einen beliebigen ISDN-Bus setzen, aber es war möglich, den D-Kanal-Verkehr aller Fritz!Clienten aufzuzeichnen. Es war freundlich diese Software als Freeware mit Namen CapiDog zum Download von der Shamrock Webseite
62: Erscheinungsbild des Clienten CapiDog der Fa. Shamrock Beim Klicken auf das Vergrößerungsglas wurde ein Trace aufgezeichnet wie in Bild 63 Bild 63: D-Kanal-Trace mit CapiDog aufgezeichnet.
Für Zwecke der Fehlersuche war die Darstellung in Bild 63 oft ausreichend, für die Lehre waren die mit dem Übersetzer ISDNView von Sebastian Göller gewonnenen Darstellungen der Trace (BILD 64) besser geeignet. Für Schulungszwecke arbeitete ich PowerPoint Präsentationen z.B. für die ISDN-Schulung aus. Mit freundlicher Genehmigung der Shamrock GmbH verwendete ich dort CapiDog in Übungen, bei denen live D-Kanal Trace vorgeführt werden konnten. Bild 64: CapiDog-Trace übersetzt mit ISDNView von Sebastian Göller.
Bild 65: Erste Folien einer Powerpoint Präsentation, die vom EPV-Verlag vertrieben wird Aus der Zusammenarbeit mit der Firma onsoft technologies ging hingegen das Trace
Werkzeug W@tchUSB hervor.
Bild 66: Die streichholzschachtelgroße Hardware des W@tchUSB Die preisgünstige, handliche und universell einsatzbare Analysehardware besteht im Gerät W@tchUSB der Firma innoventif (Bild 66). Darstellung der gefangenen Rohtrace und
Übersetzung derselben erfolgt über das Programm wTrace der Firma Onsoft mit Bild 67: WTrace-Fenster des Programms W@tchUSB OnsoftView, programmiert von Dipl.-Ing. Goekbullut oder mit dem bereits erwähnten ISDNView von Sebastian Göller.
Ein Tracen am S2m-Anschluss ist mit dem W@tchUSB-E1 möglich. Das Tool wird wie der W@tchUSB mit einem USB-Kabel mit dem PC verbunden. Das Programm Wtrace übernimmt die Aufzeichnung der Hexadezimal- Rahmen (Bild 67). ISDNView gestattet alternativ zu OnsoftView die Trace des jeweiligen Kanals zu übersetzen.Klicken des Diskettensymbols führt zur Speicherung der in wTrace aufgeführten Rahmen in der Datei Trace.alz. Klicken von Dekodieren öffnet OnsoftView oder ISDNView mit der übersetzten Datei Trace.alz. Klicken des „Zauberstabes" löscht den Inhalt des wTracefensters.
14. Hintergrund ab 2000
14.1 ISDN
Es gibt in Deutschland zahlreiche Anbieter für ISDN-Geräte und Komponenten. Da der Autor wegen der territorialen Nähe zu Berlin vor allem mit TELES- und AVM- Produkten gearbeitet hat, soll der Focus auch im neuen Jahrtausend auf diese Produkte begrenzt bleiben.
14.1.1 tevitel
Da die Firma TELES aus dem ISDN Kerngeschäft ausgestiegen war, bildeten freigesetzte
Mitarbeiter von TELES neue Firmen. Die bekannteste und innovativste dürfte die tevitel
telecommunications AG Berlin
sein. Tevitel hatte nicht nur Mitarbeiter von TELES
integriert, sondern auch know how, Software und Hardware übernommen.
Ein Spitzenprodukt von tevitel ist die TEVITEL.IPBX. Bei dieser Vermittlung hatte nur der
Name eine Ähnlichkeit mit der TELES-iPBX. Die tevitel Anlage beherrschte alle im ISDN
üblichen Protokolle und war äußerst flexibel sowohl in Bezug auf Teilnehmer als auch auf
Anschlusszahl sowie Dienste.
14.1.2 AVM
Die Firma AVM erweiterte ihre Marktpräsenz sicher auch wegen des Wegfalls des
Konkurrenten TELES, vor allem aber aufgrund ihrer innovativen Produkte. Die
FRITZ!Card (PCI), NetWAYS/ISDN und der ISDN-Controller B1 (PCI v4.0 ) waren schon
aus den 90er Jahren bekannt. Infolge der Zunahme von USB-Ports an den Computern spielte die FRITZ!Card (USB) eine immer größere Rolle, wenn man Z.B. mit einem Laptop ins ISDN gehen wollte. FRITZ!Produkte, mit denen man ein WirelessLan aufbauen oder benutzen kann, sind marktführend. Dazu gehören FRITZ!Fon, der FRITZ!WLAN USB Stick, ein FRITZ!WLAN Repeater und last not least die FRITZ!Box (Bild 68).
Bild 68: FRITZ!Box Fon WLAN 7390 14.2.1 GSM
Im Jahre 2000 existierten 357 GSM-Netze mit 311 Millionen Teilnehmern in 133 Ländern.
Man sah immer mehr Menschen, die auf der Straße und auch in geschlossenen Räumen
telefonieren. Jugendliche und Kinder kommunizieren insbesondere mittels SMS.
In fernmeldetechnisch wenig erschlossenen Ländern (Afrika) ist GSM ein Mittel, um überhaupt eine Fernmeldetechnische Infrastruktur aufzubauen. Es muss jedoch berücksichtigt werden, dass ein Mobile nur verwendet werden kann, wenn es weniger als 35 KM von der BTS entfernt ist. Das liegt an der endlichen Ausbreitungsgeschwindigkeit der Funkwellen. Über GSM können natürlich auch Daten übertragen werden. Die erreichbare Geschwindigkeit von 9,6 KBit /sec ist gemessen an den heute üblichen Übertragungs-raten langsam. 14.2.2 GPRS
Zur Erhöhung der Übertragungsraten im Mobilfunk wurde das GSM Netz zum General
Packet Radio System GPRS erweitert (Bild 69).
Bild 69: Blockschaltbild des mit GPRS Komponenten erweiterten GSM-Netzes.
Die in Bild 69 eingezeichneten neuen Komponenten im GSM Netz sind,- eine Packet Control Unit (PCU) - ein Serving GPRS Support Node (SGSN) - ein Gateway GPRS Support Node (GGSN) Wie im Bild 69 gezeigt ist, bleiben die BSS-Komponenten BTS, BSC und TRAU (Bild 49)unverändert. Jedoch wird dem Base Station Controller BSC eine Packet Control Unit (PCU) zugeordnet, die die Paketdaten in PCU-Rahmen konvertiert. Die PCU-Rahmen gleichen im Format den TRAU- Rahmen (320 Bit/20ms). Der Serving GPRS Support Node (SGSN) übernimmt die Vermittlung der Datenpakete und die Funktion des Visitor Location Register VLR. Der Gateway GPRS Support Node (GGSN) ist der Router, der das Internet (oder das Paket Daten Netz) mit dem PLMN verbindet und die IP-Nummer zur Verfügung stellt.
Aus der GSM-Theorie geht hervor, dass immer 4 Bursts benötigt werden um einen Signalisations- oder Meldungsrahmen zu übertragen. Bei der Sprachübertragung oder der Signalisation nimmt man in Kauf, dass die Bursts einmal nicht unmittelbar hintereinander eintreffen.
Im GPRS wird zur Erhöhung der „Bearbeitungsgeschwindigkeit" der „Radioblock" eingeführt. Das heißt, es werden grundsätzlich 4 Bursts hintereinander einem Block zugeordnet. Bild 70: Der Zeitschlitz 1 ist mit Radioblöcken belegt.r Mehrfachrahmen belegt.
In Bild 70 bilden die ockerfarbenen Zeitschlitze einen Radioblock. Der gelbe Zeitschlitz ist der Beginn eines weiteren Radioblocks. Die grünen Zeitschlitze sind Telefongesprächen zugeordnet.
Bild 71: Multislotklassen (Auszug) Mit der Einführung von Radioblocks hat sich natürlich der Datendurchsatz gegenüber GSM noch nicht geändert. Eine Erhöhung der Datenrate lässt sich jedoch durch die Zuteilung mehrerer Zeitschlitze erreichen. Bild 71 zeigt einen Auszug aus Table B.1 der Vorschrift GSM 05.02. Der Auszug wurde auf Klasse 1 bis 10 beschränkt, da GPRS-Mobiles Klasse 10 zur Zeit State of the Art sind. Besitzt ein GPRS Mobile die Klasse 10, so können z.B. im Downlink vier Zeitschlitze zugeordnet werden und im Uplink einer. Damit steigt die Übertragungsrate auf etwa 36 kBit/sec.
Eine weitere Steigerung des Datendurchsatzes kann durch Verringerung der Datensicherheit erreicht werden. Man unterscheidet 4 Kodierschemata (Coding Sheme CS 1.4). Die normale Sicherheit wird beim CS 1 durch Vorwärtsfehlerkorrektur erreicht.
Die Sicherheitsmechanismen sollen an dieser Stelle nicht weiter erklärt werden. Mit CS 2 erreicht man (durch Ersatz der Fehlerkorrektur durch Fehlererkennung) einen Datendurchsatz von 12 kBit/s pro Zeitschlitz. Im CS 3 wird durch weitere Verringerung der Sicherheit eine Nettodatenrate von 14,4 kBit/s pro Zeitschlitz und im CS4 bei Wegfall der Sicherheit 20 kBit/sec erreicht. Das Netzt ändert das Kodierschema in Abhängigkeit von der Störung auf dem Kanal, so dass man mit GPRS einen Datendurchsatz erzielt, der maximal den erreicht der auf einem ISDN-Kanal möglichen ist.
14.2.3 Enhanced Data rates for Global Evolution (EDGE)
Im GSM und GPRS werden in einem Zeitschlitz (im Normalburst) 156,25 Bit übertragen.
Das im GSM verwendete Übertragungsverfahren heißt Gaussian Minimum Shift Keying
GMSK. Es handelt sich um eine einfache Phasenumtastung, bei der sich 2 Symbole (A
und B) um 180 ° Phasenlage unterscheiden. Die physikalischen Details dieses Verfahrens
(Behandlung der Symbole) sollen hier nicht behandelt werden.
Die Idee von EDGE beruht darauf, das Modulationsverfahren zu ändern. Es wird nicht
zwischen 2 Phasen unterschieden, sondern zwischen 8 Phasen. Benachbarte Symbole,
A,B,C,D,E,F,G,H unterscheiden sich in der Phase um 45 °. Während beim GMSK die zwei
Zustände nur mit 0 oder 1 belegt werden können, sind den 8 Zuständen bei EDGE jeweils
3 Bit (000, . , 111) zu zuordnen.
Bild 72: Die Verdreifachung der Anzahl der Bits im EDGE-Burst gegenüber dem Burst im GSM Dadurch ergibt sich eine Verdreifachung der mit einem Burst übertragbaren Bits. Aus Bild 72 ist zu erkennen, dass von den drei möglichen Stealingflags je zwei den Datenbits zugeschlagen werden, deren Anzahl sich dadurch auf 3x57+2= 173 erhöht. Im EDGE werden damit die in Bild 73 dargestellten 9 Modulation and Coding Shemes (MCS-1 bis MCS-9) definiert.
Bild 73: Die erzielbaren Datenraten mit den verschiedenen Modulation und Coding Schemes Da moderne Mobiles eine Multislot-Klasse 10 besitzen, können maximal 4 Zeitschlitze downlink vom Netz zugeteilt werden. Man kommt damit in der downlink Datenrate in die Größenordnung von 200 kB/s. Man beachte, dass eine „atmende" UMTS Zel e häufig auch keine größere Datenrate zulässt.
14.2.4 Universal Mobile Telecommunications System (UMTS)
Die im UMTS verwendete Modulationsart ist Code Division Multiple Access CDMA,
genauer, in Abgrenzung vom Frequency-Hopping CDMA direct-sequence CDMA (DS-
CDMA) mit 3.840.000 c/s.
Bild 74: Das Prinzip der Modulation im UMTS Das Prinzip der UMTS-Modulation ist in Bild 74 dargestellt. Dabei wird ein Signal (z.B. digitalisierte Sprache) mit einem hochfrequenten Träger (Spreizcode) über eine „Exklusive Oder" Schaltung moduliert. Für den Spreizcode wird zur Unterscheidung vom Begriff Bit, der für das Signal reserviert ist, der Begriff Chip eingeführt.
Am Ausgang der exklusiven Oderschaltung erscheint das gespreizte Signal, dessen Leistung über der Frequenz eine Kurve wie in Bild 74 unten rechts darstellt. Für den Transport mehrerer Signale über einen Kanal muss jedes Signal mit einem Spreizcode moduliert werden, der zu jedem anderen orthogonal ist.
Den Apparat dazu liefert die Mathematik. Alle Codes, die in einer Hadamard Matrix entwickelt werden, sind zueinander orthogonal . Die Codes lassen sich auch in einen Codebaum (Walshtree) entwickeln. (Bild 75) Bild 75: Der Baum der orthogonalen , variablen Spreizfunktionen (OVSF) Die Chiprate im UMTS beträgt wie oben gesagt 3,84 Mcps (Megachips pro Sekunde). Die Symbolrate ist die Frequenz des zu übertragenden Signals. Das Verhältnis von Chiprate zu Symbolrate heißt Spreizfaktor (Spreizfaktor = Chiprate/Symbolrate).
Jedem Teilnehmer muss nun ein Zweig im Bild 75 oder ein Teil von einem Zweig als Code zugeteilt werden. Dabei sind Abhängigkeiten zu beachten, auf die hier nicht eingegangen werden soll.
In Bild 76 ist dargestellt, wie viel von einem Zweig für die Übertragung der unterschiedlichen Signaltypen aufgewendet werden muss. In Bild 76 stellen die ersten beiden Spalten den Zusammenhang zwischen Spreizfaktor und der theoretisch möglichen Übertragungsrate dar. Die dritte Spalte zeigt die mit dem entsprechenden Spreizfaktor praktisch realisierte Übertragungsrate. So begrenzt bei 12,2 kBit/s Sprache (SF128) das Rauschen die Teilnehmerzahl pro Zelle auf etwa 100 (anstelle der theoretisch möglichen 128).
Würde die Last beim Spreizfaktor 4 auf 3 Kanäle verteilt, so könnte eine Übertragungsrate von 2 Mbit/sec erreicht werden. Demgegenüber wird jedoch im UMTS-Netz für Datenübertragung höchstens der SF8 zugeteilt, womit eine praktische Datenrate von
384 kbit/s erzielt wird.

Bild 76: Die Erzeugung von Kanälen im Kodebaum Das gespreizte Signal hat nicht bei Verwendung aller Zweige des OVSF Baumes das in
Bild 74 unten rechts dargestellte Leistungsspektrum. Daher wird in einer zweiten Stufe der
Kodierung mit einer Zufallsfolge der gleichen Frequenz (3,84 MHz) die Signalenergie
vollständig über die Funkbandbreite verteilt (Bild 77). Die PN Folge hat eine
Wiederholungsrate von 10 ms. Funkzellen wie sie aus dem GSM bekannt sind, haben im
UMTS zwar die gleiche Frequenz, eine jede besitzt aber einen der 512 möglichen
primären Scrambling Codes.
Bild 77: Modulation des gespreizten Signals mit einem Scrambling Code Wie aus Abbildung 78 hervorgeht, existieren die Netze der Generationen 2 (GSM), 2,5 (GPRS) und 3 (UMTS) parallel. Zur Sicherung der internationalen Mobilfunk- Verbindungen müssen Mobilfunkgeräte der 3. Generation zu GSM und GPRS kompatibel sein. Damit ist für den Besitzer eines UMTS-fähigen Mobiles die durchgängige Funkverbindung auf den Territorien gewährleistet.
Bild 78: Verbund von UMTS und GSM-Netz Das Universal Terrestrial Radio Access Network UTRAN oder auch das Radio Network Subsystem RNS haben prinzipiell den gleichen Aufbau wie das Base Station Subsystem BSS im GSM. Es besteht aus dem Node-B (vergleichbar mit der Base Transceiver Station BTS im GSM) und dem Radio Network Controller RNC (vergleichbar mit dem Base Station Controller BSC im GSM).
14.2.5 Unlicensed Mobile Access
Bereits in den 80er Jahren wurde an den Hochschulen daran geforscht, Sprache unter
Verwendung des TCP/IP Protokolls über Datenkanäle, das Ethernet und das Internet zu
übertragen. Im Jahre 1995 wurde Voice over IP (VoIP) erstmalig von der Israelischen
Firma VocalTec öffentlich vorgeführt. In den letzen 18 Jahren entstanden mit den
Standards H.323 und SIP vor allem Alternativen zum ISDN durch die IP-Telefonie.
Mittlerweile ist es möglich, kostenlose Internet-Telefonanschlüsse zu benutzen wie sie z.B.
von „sipgate" zur Verfügung gestellt werden, um mit Partnern über das Internet zu
kommunizieren. Sipgate gestattet auch, über ein geringes Entgelt, auf Festnetz und
Mobilfunkanschlüsse zuzugreifen.
Die Endgeräte für die Videotelephonie sind Clienten die auf der Windowsoberfläche
residieren, oder Hardphones. Es ist auch möglich, mit dazu eingerichteten Mobiltelefonen
z.B. einem Nokia E65 oder dem iPhone über WLAN und Sipgate einen Mobilfunkpartner
anzurufen. Im letztgenannten Fall verbinden Registrar und Proxy von sipgate das E65 wie
ein Festnetztelefon mit dem Mobilfunknetz.
Es wäre wünschenswert, das Mobiltelefon über das WLAN direkt mit dem Mobile Core
Network zu verbinden. Diesem Problem widmete sich die UMA Alliance. Die UMA Alliance
entwickelte die Technologie UMA (Unlicensed Mobile Access) mit dem Ziel, unlizenzierte
Teile des Frequenzspektrums (das Internet) für den Mobilfunk nutzbar zu machen und ein
nahtloses Roaming von WLAN zu den klassischen GSM- und UMTS-Mobilfunknetzen zu
ermöglichen.
Bild 79: Die Rolle des GANC (UNC) bei der Kopplung einer TCP/IP Verbindung mit dem MCN Am 8.April 2005 genehmigte die Leitung des 3rd Generation Partnership Projektes (3GPP) die Aufnahme der Spezifikation für „Generic Access to A/Gb Interfaces" in das 3GPP Release 6 (3GPP TS 43.318). Bei der Übergabe an 3GPP wurden gegenüber den Spezifikationen des UMA Protokolles und der UMA Architektur nur triviale Änderungen in der Terminologie vorgenommen.
Was vorher als UMA bezeichnet wurde, heißt unter 3GPP nun Generic Access Network oder GAN. Der UMA Network Controller (UNC) wird nunmehr als Generic Access Network Controller oder GANC bezeichnet.
Wie aus Bild 79 hervorgeht spielt der GANC offenbar die Rolle des BSC im GERAN .Während der Base Station Controller über das A-bis Interface mit den BTS verbunden ist, existieren drei Varianten der Anbindung des GANC an die Nutzerumgebung.
Variante 1 besteht in der Verwendung eines Mobiles, das außer dem GSM- Betriebssystem noch eine WiFi Komponente enthält. Während das Interface, mit demdas Mobile über die Luftschnittstelle kommuniziert, als Um-Interface bezeichnet wird, heißt das Letztere, das es gestattet über einen WLAN-Hotspot und das Internet mit dem GANC und damit mit dem Mobile Core Network Verbindung aufzunehmen, Up-Interface.
Variante 2 sieht die Einrichtung einer Mini-BTS vor. Mit einer derartigen Femto-Cells genannten Einrichtung stellen Unternehmen eigene UMTS-Zugangspunkte als Internet-Access-Points bereit, über die Daten mit normalen Mobiles gesendet und empfangen werden können.
Variante 3 wird durch einen PC gebildet, auf dem ein UMA/GAN-taugliches Softmobile installiert ist, mit dem über das Internet und das Mobilfunknetz kommuniziert werden kann.
In allen drei Fällen stellt der GANC eine Brücke zwischen WiFi und Cellular-Network dar. Die Französische Telekom hat GAN in ihrem Netz verwirklicht. Es wäre wünschenswert den beschriebenen Dienst auch in Deutschland in Anspruch nehmen zu können.
14.3 Voice over IP
Wie im Abschnitt 14.2.5 beschrieben wurde Voice over IP (VoIP) 1995 erstmalig öffentlich
vorgeführt. Seit dem entstanden mit den Standards H.323 und SIP vor allem Alternativen
zum ISDN durch die IP-Telefonie.
Ähnlich wie im Mobilfunk (GSM), wo das ISDN als Vorbild für die Signalisation genommen
wurde, war auch bei der ersten Standardisierung von VoIP im Standard H.323 der D-Kanal
noch Vorbild.
H.323 war ursprünglich vorgesehen für Videokonferenzen über Lokale Netze. Spätere
Revisionen sahen vor, den Standard für Telefonnetze über LANs einzusetzen.
H.323 ist in Microsofts NetMeeting Konferenzsoftware implementiert. Es ist gleichermaßen
Grundlage von IP-PBX Systemen von Avaya und Nortel, leider mit herstellerspezifischen
Eigenheiten. Diese Inkompatibilitäten sind Hinderungsgrund für die breite Anwendung des
Standards.
H.323 Signalisierung ist schnell, und die Pakete sind kompakter als bei SIP, dem Session
Initiation Protokoll .
Das Session Initiation Protocol (SIP) ist ein Signalisierungsprotokoll, vor allem für den
Auf- und Abbau von Multimedia Kommunikations-Prozeduren wie z.B. Sprach- und Video-
Anrufe über das Internet. Weitere Anwendungen sind Video Konferenzen, Multimedia
Streaming und Onlinespiele.
Bild 80: Beispiel einer experimentellen SIP-Verbindung unter Verwendung von Sipgate Im November 2000 wurde SIP von der ETSI als eines der 3GPP Signalisierungsprototolle angenommen. Es gilt als Element der IP Multimedia Subsysteme (IMS) Architektur für IP-basierte Multimedia-Dienste in zellularen Systemen.
Das Protokoll kann eingesetzt werden, wenn Verbindungen zu einem oder gleichzeitig zu mehreren Partnern hergestellt, modifiziert und wieder abgebaut werden sollen. Die Verbindungen können aus einem oder mehreren medialen Strömen bestehen. In Bild 80 ist dargestellt wie man in einem Heimnetzwerk experimentell eine Telefonverbindung zwischen einem SIP-Clienten und einem ISDN-Clienten über Sipgate herstellen kann. Die Entwicklung von Mikroprozessoren war und ist durch ständig höhere Taktfrequenz und
steigende Anzahl der eingebauten Transistoren gekennzeichnet. Besaß der INTEL 4004
bei einer Taktfrequenz von 740 kHz 2300 Transistoren, so besaß 30 Jahre später der
Pentium 4 die Taktfrequenz 1,5 GHz und bestand aus 142.000.000 Transistoren.
Ab 2006 gibt es den INTEL Core 2 Duo, bestehend aus zwei Prozessorkernen mit
291.000.000 Transistoren und einem Prozessortakt von 1,06 GHz bis 3,33 GHz.
Es zeugt von wenig visionärer Kraft, wenn Bill Gates im Jahre 1981 sagte, dass es sehr unwahrscheinlich sein wird, dass jemals ein Mensch oder User mehr als 640KB (Kilobyte) Hauptspeicher benötigen würde. Im Jahre 2010 besitzt der kleinste MACmini 2 GB Hauptspeicher.
Im Jahr 2000 gab es USB-Speichersticks mit einer Kapazität von 8 MByte, im Jahre 2010 kann man USB-Speichersticks mit einer Kapazität von 8 GByte kaufen.
Kurz nach Einführung des IBM-PC im Jahre 1981 kamen die ersten Klone dieses
Computers auf den Markt.
Das war Hardware, auf der die Microsoft Betriebssysteme liefen. Heute bekannte
Computermarken sind DELL und ASUS, die mit modernster Hardware und Peripherie die
Möglichkeiten des jeweiligen Betriebssystems ausschöpfen.
14.4.1 Microsoft Betriebssysteme
Ende 2001 erschien Windows XP (intern: NT 5.1) in den Varianten XP Home (für
Privatanwender) und XP Professional (für Geschäftsanwender). XP Home unterschied
sich von Windows XP Professional unter anderem durch eingeschränkte Netzwerkdienste.
Im Jahre 2008 wurden neue PCs und Laptops nur noch mit Windows Vista verkauft. Auf
Wunsch konnte man jedoch auch einen neuen PC noch mit XP erwerben.
Der Nachfolger von Windows Vista heißt Windows 7, er trägt intern aber die
Versionsnummer 6.1. Ein Vorzug des 2010 erschienenen Windows 7 ist, dass es gestattet
einen XP-Mode zu installieren. Dadurch können Programme, die nur unter XP laufen,
weiter genutzt werden.
14.4.2 Apple Soft- und Hardware
Im Jahr 2000 wurde der Power Mac G4 Cube eingeführt. Das ungewöhnliche Würfel-
Design (Bild 81) kam als Desktop-Rechner komplett ohne Lüfter aus. Durch den hohen
Preis und die schlechten Erweiterungsmöglichkeiten wurde der Computer aber schlecht
Im selben Jahr veröffentlichte Apple die erste Beta-Version von Mac OS X. Es war das erste Mal, dass Apple ein solches PreReleaseProdukt der Öffentlichkeit zugänglich machte. Dieser Schritt ermöglichte Apple auf öffentliche Kritik zu reagieren und beispielsweise die Entfernung des „Apple-Menüs" in der finalen Version von Mac OS X wieder rückgängig zu machen.
2003 wurde das Betriebssystem Mac OS X 10.3 Panther
eingeführt. Mit dem 17-Zoll-PowerBook G4 bot Apple als
erster Hersteller ein Notebook mit einem so großen
Bildschirm an.
Bild 81: Power Mac G4 Cube 2006 Apple stellte auf der Macworld Expo im Januar die
ersten Macs mit Intel-Prozessoren vor. Die ersten verfügbaren Intel-Macs waren der iMac und das MacBook Pro. Den Übergang auf die neue Prozessor-Plattform von Intel schloss Apple in allen Produktlinien bis zum Ende des Jahres ab.
Neu war auch Apple Boot Camp (Beta), das es erlaubt, auf der Apple-Hardware Windows laufen zu lassen.
Im Jahr 2007 bringt Apple das iPhone 2G auf den Markt,
das mit einer Variante von Mac OS X läuft. Mit dem
iPhone landet Apple einen Volltreffer. lMac OS X 10.5
Leopard wird ausgeliefert.
Bild 82: iMac mit Intel-CPU ! Das 2008 herausgebrachte MacBook Air ist das
leichteste und dünnste Mac-Notebook, das Apple jemals
produziert hat (Bild 83)
Das iPhone 3G unterstützt UMTS und ist mit einem GPS-Empfänger ausgestattet. Mit 32 GB Hauptspeicher stellt es einen Taschencomputer mit sehr vielen nützlichen (und auch unnützen) Applikationen dar.
Apple bringt eine neue Generation der MacBooks auf den Markt, deren Gehäuse aus einem Aluminium-Block gefräst wurde.
Bild 83: MacBook Air Der MAC mini mit dem Intel Core 2 Duo kam 2009 auf
den Markt. Er besitzt das Betriebssystem Mac OS X
10.6.3. das ein reines X-Windows repräsentiert. Er wird in
drei Ausführungen vertrieben
- 2 GB RAM - 2.26 GHz - 160 GB HDD
- 4 GB RAM - 2.53 GHz - 320 GB HDD
- 4 GB RAM - 2.53 GHz - 1 TB HDD
Bild 84: MAC mini (Intel core) Im Jahr 2010 kam, last not least, das Apple iPad auf den Markt. Es gibt 6 Ausführungen, unterteilt nach Hauptspeicher 16, 32, 64 GB ausgestattet mit Wi-Fi oder Wi-Fi + 3G.
Das iPad ist ein Tablett-PC das intuitiv durch Finger- Druck und Bewegung zu bedienen ist. Eingerichtet zur Kommunikation mit dem Internet ist es nicht für Telefonieren und Kommunikation durch SMS vorgesehen, wohl aber für IP-Telefonie (z.B.Skype). Er kann als Terminal verwendet werden. Zu den nachrüstbaren Applikationen gehören auch Pages, Keynote und Numbers, die Komponenten des „Office-Paketes" von Apple.
Bild 85: Tablett Computer iPad Die Mobiltelefone des Jahres 2000 und die 10 Jahre später verkauften unterscheiden sich von Größe und Gewicht kaum. Sowohl das in Bild 86 dargestellte Motorola Talkabout 180 als auch das iPhone wogen (wiegen) ca. 135 Gramm.
Die ersten Mobiles waren reine GSM-Geräte in Europa für ein Frequenzband von 900/1800 MHz und in Übersee von 850/1900 MHz.
Später gab es Triband-Geräte für 900/1800/1900 MHz. Diese konnte man in Europa und in den USA benutzen.
Die Stromversorgung der ersten Geräte bestand aus Nickel-Metallhydrid-Akkumulatoren (NiMH) Akkus. Das iPhone wird durch eine Lithium-Ionen-Batterie gespeist. Die Stand By Zeit der frühen Geräte war kaum größer als die des iPhones. Die Sprechzeit des iPhones bei einer 3G Verbindung wird mit 5 Stunden angegeben, die des Siemens C25 (GSM) auch.
Die Mobiltelefone wurden innerhalb von 10 Jahren zu Smartphones.
Die Geräte wurden zunächst mit Kameras ausgerüstet. Die Auflösung betrug zunächst 640x480 Pixel. Die Kamera des iPhones 3G S hat eine Auflösung von 3 Megapixel.
Der Bildschirm der frühen Geräte musste nur die Telefonnummer aufnehmen und einige Zusatzinformationen.
Bild 86: Motorola Talkabout 180: Das Display des iPhones hat eine Diagonale von 8,89 cm.
Während mit den ersten Geräten nur über GSM kommuniziert werden konnte, ist es mit moderne Geräten möglich über Verbindung aufnehmen. Wie aus der Bedienungsoberfläche des Bild 87: iPhone 3G ! iPhones in Bild 87 hervorgeht, kann man außer telefonieren, Mail verschicken und empfangen, mit dem Browser Safari ins Internet gehen, Bilder ansehen und fotografieren sowie alle Funktionen eines iPod verwenden. Podcasts werden mit hoher Bild- und Tonqualität wiedergegeben.
Mit den maximal 32 GB Speicher erinnert das iPhone an einen Laptop Anfang 2000.
Mit dem angekündigten iPhone 4 wird das Mobiltelefon immer mehr zum Taschencomputer.
Das Internet als Netz von Computern ist ständig im Wachsen begriffen.
Bild 88: Anzahl der Hosts im Netz Das Internet System Consortium veröffentlicht entsprechend Bild 88 das Wachsen der Leistungen anbietenden Rechner (Hosts) im Internet über der Zeitachse. Im Jahr 07/2009waren es 681 064 561 Millionen Computer (Hosts). Die Zahl der Internetnutzer weltweit wird in einem Artikel von Dawn Kawamoto Stefan am 26.01.09, mit über einer Milliarde angegeben.
Neben der Deutschen Telekom boten immer mehr Anbieter schnelle Internetverbindungen über DSL an (z.B. 1&1, oder Vodafone .). Auch die Verbindungen des Netzes selbst, die Rückgrad-Verbindungen (Backbone Verbindungen) wurden ständig verstärkt.
Das Internet gewann an Popularität und wurde wirtschaftlich interessant. Es wurden Unternehmen gegründet, die nur im Internet agierten. Der Name dieser Firmen entsprach häufig dem Namen ihrer Homepage-URL.
URL steht für „Uniform Resource Locator", zu deutsch „einheitlicher Die URL vieler Firmen (der Domäne commercial) endete mit „ .com", daher der Name Dotcom z.B. in Verbindung mit dem Begriff Dotcom-Boom.
Durch den Börsencrash im Jahr 2000 wurde der Dotcom-Boom gebremst. Firmen wie Amazon, eBay oder Google konnten jedoch ihre Stellung ausbauen. Das Netz ist nunmehr so bunt wie die reale Welt. Man prüfe das, indem man einen Begriff in das Suchfeld Google eines beliebigen Browsers eingibt. Als Antwort erhält man Auskünfte über Firmen mit gleichem Namen, über Werbungen zum Thema und über Wissen zum Begriff und so weiter.
Bedauerlicher Weise sind Webseiten seriöser Firmen wie z.B. t-online ein Sammelsurium unterschiedlichster Themen, bei denen auch Sex nicht fehlen darf, natürlich heiße Bilder gegen Bezahlung. Es ist belastend sich durch solche Seiten durchzusuchen.
Von den Suchmaschinen Yahoo, Bing, Ask und Google ist Letztere nicht nur die bekannteste, sondern auch die effektivste. Gegen Bezahlung kann man erwirken, dass Google auf eine Webseite besonders aufmerksam macht.
Auskünfte, die im Internet gesucht werden, betreffen unter anderem:- Bahn und Flugverbindungen- Hotelunterkünfte- Informationen über Reiseziele- Kino- und Veranstaltungsprogramme- Wetterinformationen- Geografische Informationen (Google Maps) Die für die meisten Internetnutzer nützlichste Informationsquelle ist die Wikipedia.
Die Wikipedia ist eine 2001 gegründete freie Online-Enzyklopädie in zahlreichen Sprachen. Der Name Wikipedia ist ein Kofferwort, das sich zusammensetzt aus „Wiki" (der mit dem hawaiischen Wort für „schnell" bezeichneten Technik zur kollektiven Erstellung von Internetseiten) und „Encyclopedia", dem englischen Wort für Enzyklopädie.
Die deutschsprachige Wikipedia enthält knapp über eine Million, und die englische Wikipedia über drei Millionen Artikel. Betrachten wir, was die Wikipedia über sich selbst sagt:Im März 2000 startete der Internet-Unternehmer Jimmy Wales mit dem damaligen Doktoranden der Philosophie Larry Sanger über die Firma Bomis ein erstes Projekt einer englischsprachigen Internet-Enzyklopädie, die Nupedia. Der Redaktionsprozess der Nupedia lehnte sich stark an die bisherigen Enzyklopädien an: Sanger amtierte als Chefredakteur, Autoren mussten sich bewerben und ihre Texte anschließend ein langwieriges Peer-Review-Verfahren durchlaufen.
Ende 2000/Anfang 2001 wurden Sanger und Wales auf das Wiki-System aufmerksam, mit dessen Hilfe Benutzer einer Website diese nicht nur lesen, sondern auch direkt im Browser verändern können. Am 15. Januar 2001 war das Wiki der Nupedia unter der eigenständigen Adresse wikipedia.com abrufbar, was seither als die Geburtsstunde der Wikipedia gilt.
Bild 89: Der Wikipedia Erfinder Jimmy Wales.
Ursprünglich war die Wikipedia von Sanger auf Nupedia als Spaß-Projekt neben der Nupedia angekündigt worden. Dank ihrer Offenheit jedoch entwickelte sich die Wikipedia – selbst zur Überraschung von Sanger und Wales – so rasant, dass durch sie die Nupedia in den Hintergrund rückte und im September 2003 ganz verdrängt wurde. 15. Vordergrund ab 2000
15.1 ISDN
Obwohl die Bedeutung des ISDN in den letzten Jahren abnahm da die Internetanbieter wie z.B. Vodafone und 1und1 neben schnellen Internetzugängen auch Telefonverbindungen anbieten, gab es doch noch einige interessante Aufgaben für mich.
Der Inhaber des EPV-Verlages Herr Helmut Exner war über seine Verbindungen zur Frankfurter Buchmesse mit dem Eigentümer des Narosa Verlages in Neu Delhi bekannt.
Aus dieser Verbindung entsprang die Idee mein Büchlein „Der ISDN-D-Kanal im Dialog" ins Englische zu übersetzen. Ich bat darum, vor der Drucklegung des „ISDN D-Channel in Dialogue" das Manuskript Korrektur lesen zu dürfen. Das war notwendig, da der Übersetzer den umgangssprachlichen Teil brillant ins Englische brachte, aber spezielle technische Formulierungen nicht so treffsicher umsetzte.
Herr Exner schlug mir vor, auf der Buchmesse in Neu Delhi im Februar 2000 auf einem Seminar über die Berufsausbildung in Deutschland das Buch vorzustellen. Dieses Angebot nahm ich gern an, nicht nur, weil mich natürlich die Bekanntschaft mit dem fernen Indien reizte, sonder auch, weil ich Indische Fachkollegen kennenlernen wollte.
Die „Conference On Vocational Training in Germany" (Berufsausbildung in Deutschland) war mäßig besetzt. Einer der Teilnehmer, der sich mit Major Capor vorstellte, ein Hochschullehrer, bat mich vor seinen Studenten einen Vortrag zu halten. Da unsere Rückreise für den nächsten Tag vorgesehen war, musste ich das Angebot leider ablehnen.
Eine Mail an Major Capor, in der ich Vorschläge für eine Zusammenarbeit machte, wurde leider nicht beantwortet.
Dafür bekam ich ein halbes Jahr später eine Mail von einer Iranischen Studentin, die neben einigen Fragen zum ISDN mein Büchlein als das Beste, was sie über ISDN gefunden hatte, Die Firma WUEKRO, Entwickler, (Hersteller und weltweites Vertriebsunternehmen für didaktische Lehrsysteme, Ausstattungen für Forschung, Entwicklung und Ausbildung) hatte Arabische Hochschullehrer zu Gast und bat das a&d Schulungszentrum um einen Vortrag über ISDN.
Mit dem Vortrag wurde ich betraut. Nachdem ich sehr zur Freude der Herren einen Kurzvortrag im PowerPoint Format gehalten und die Folien den Herren bereitwillig übergeben hatte, erntete ich große Freude und die Ankündigung weiterer Kontakte. Weder von WUEKRO noch von den Gästen habe ich jemals wieder gehört.
Bei der TELES A-G hatte ich das Vergnügen, die gesamte ISDN-Mannschaft drei Tage zum Thema D-Kanal zu schulen. Wie bereits gesagt gab die Firma TELES bald das ISDN-Geschäft auf, aber die freundlichen Beziehungen zu vielen Mitarbeitern blieben bestehen.
Von TELES bekam ich auch das Angebot, zwei Mal die Mitarbeiter der Firma Teracom in Zell am See zum Thema ISDN in 3 Tage Wochenendlehrgängen zu schulen. Meine Zuhörer waren sehr aufgeschlossen, und es gab auch im Nachhinein zahlreiche Kontakte.
Die spätere Insolvenz der Firma ist sicher nicht auf meine Aktivitäten zurückzuführen.
Ebenfalls von TELES vermittelt war meine Wochenendschulung bei der MCN MILLENNIUM COMMUNICATION NETWORK AG, WIEN, Wie gewohnt hatte ich eine aufmerksame und dankbare Zuhörerschaft. Als es darum ging meine Rechnung zu bezahlen, war die Firma vorübergehend insolvent.
15.1.3 Die tevitel iPBX
Auf der Grundlage von Sebastians Übersetzungsprogramm entstand wie berichtet das ISDN
Lernsystem EPWE-Trace. Ebenfalls hatte ich bereits auf den Hauptmangel des Systems hingewiesen, dass die TELES iPBX keine Dienstmerkmale verarbeiten kann, die ASN.1 (in der Abstrakten Syntax Notation 1) kodiert sind.
Dieser Umstand wurde mittlerweile von vielen Ausbildungsstätten kritisiert. Es gab hier eine Die iPBX der Firma tevitel besitzt ebenfalls einen Tracemode, registriert jedoch nicht nur die D-Kanal-Strings, sondern noch andere Systeminformationen (Bild 90) Bild 90: Auszug aus einem Logfile der tevitel iPBX Das war für Lehrzwecke ungeeignet.
Mein freier wissenschaftlicher Mitarbeiter, der Physikstudent Sebastian Göller, hatte glücklicherweise aufgrund der Erfahrungen mit ALZView für die Koreanische Telekom eine interessante Idee verwirklicht.
Er trennte den Apparat, der aus dem Rohtrace aufgrund von Vorschriften die Übersetzung macht, von den Vorschriften.
Die Vorschriften in Gestalt von ETSI konformen Scripten musste ich aufschreiben. Den Interpreter der Vorschriften, der angewandt auf den Rohtrace, den übersetzten Trace ausgibt, Die Regeln wie die Scripte aufgebaut sein müssen beschrieb er in einer Anleitung, die entsprechend den Anforderungen ständig ergänzt wurde. Ein Script für die Meldung SETUP ist in Bild 91 dargestellt. Darin besteht fast jede Zeile aus einem Verweis auf einen anderen Script. Die dritte Zeile verweist z. B. auf den Script BearerCapability, dessen Anfang das Bild 92 zeigt.
Bild 91: Script für die Meldung SETUP im ISDNView Bild 92: Script für das Informationselement Bearer capability In Bild 93 ist schließlich das Fenster des Übersetzers ISDN-View selbst dargestellt. Hier mit einem Ausschnitt der Übersetzung eines des mit der tevitel IPBX aufgezeichneten Traces.
Bild 93: Traceübersetzungs-Werkzeug ISDNView für die tevitel iPBX Herr Dipl. Ing Krüger, der Initiator des EPW-Traces (Grundlage Teles iPBX), konnte daraufhin einen modernisierten Lehrgerätesatz im 19" Rahmen (Bild 94) aufbauen, der vom EPV - Verlag an verschiedene Lehreinrichtungen verkauft wurde. !
Bild 94: tevitel iPBX als ISDN Lehrgerät 15.2.1 GSM und GPRS
Beim ersten Durchsehen der GSM ETSI Recommendationen fiel mir die Verwandtschaft
zwischen ISDN und GSM auf (Bild 95). Später las ich, dass dieser Zusammenhang von den GSM Pionieren M. Mouly und M.B. Pautet mit der Bezeichnung „ISDN as Godfather" bezeichnet wurde. Ich beschloss diese Verwandtschaft näher zu untersuchen. Zur Aufklärung des Sachverhaltes wollte ich natürlich zunächst die Verhältnisse auf dem Signalkanal untersuchen, brauchte daher einen Trace.
Bild 95: Auszug aus der Gegenüberstellung von Meldungen und CC-Messages in GSM und UMTS Ein Mitarbeiter der SIT, die damals noch in den Räumen des abgewickelten Funkwerks Köpenick untergebracht war, informierte mich, dass in einem Rhode & Schwartz Betriebsteil, eine Etage tiefer, gerade ein GPRS-Messplatz erprobt wird.
Nachdem ich die Genehmigung erhalten hatte das Gerät zu besichtigen und den Bearbeiter zu befragen, schaute ich mir die Anlage an. Das Gerät, zur Prüfung von GPRS-Mobiles vorgesehen, gestattete tatsächlich in den Dm-Kanal hineinzusehen, was aber relativ umständlich und natürlich immer mit Belegung des Messplatzes verbunden war.
Da fiel mir eines Abends ein dem Platz gegenüber sitzender Kollege auf, der mit einem einfachen Mobilfunkgerät hantierte. Zu meinem Erstaunen war das ein Messgerät, das gestattete den GSM-Dm-Kanal zu tracen. Das war eine Erleuchtung für mich. Es stellte sich heraus, dass der Produzent sein Produkt an die französische Firma SAGEM verkauft hatte, die nun derartige Geräte international verkaufte. Am 11.5.2001 erwarb ich ein SAGEM OT 76 m für 7111.- DM.
Damit besaß ich das Werkzeug die GSM-Dm-Kanäle zu untersuchen wie ich es mit den D-Kanälen beim ISDN getan hatte.
Mit dem in Abschnitt 15.1.3 beschriebenen, von Sebastian für GSM modifizierten Interpreter konnte ich die Trace des OT 76m ETSI- Gerecht übersetzen Wir nannten den Übersetzer GSMView.
Bild 96: SAGEM OT 76 m Für Lehrzwecke schrieb ich das Büchlein „Die GSM-Dm-Kanäle im Dialog", das 2003 im Aus Anlass eines Lehrgangs vor englischsprachligen Hörern entstand die Schrift „Signalling in Mobile Radio Communication" , die auch beim EPV-Verlag zu erhalten ist. Zum Thema Mobilfunk wurden vom a&d Schulungszentrum Weiterbildungslehrgänge organisiert. Für derartige Experimentalvorträge arbeitete ich PowerPoint Vorträge aus. Vom EPV-Verlag wurden diese Vorträge mit Tracemobile als Lehrgeräte- Einer der Hochschullehrer, der sich dafür interessierte, war Professor Klötzner vom Bereich Informatik der Westsächsischen Hochschule Bild 97: GSM Lehrmaterial in Englisch Bild 98: Titelfolie des Experimentalvortrags über GSM Zur Demonstration der Möglichkeiten mit dem Tracemobile OT 260 den Dm-Kanal zu untersuchen, fuhr ich nach Zwickau und hielt eine Vorlesung vor der Informatikklasse der Hochschule. Das Tracemobile war inzwischen von Sagem weiterentwickelt worden, nach dem Typ OT 160 gab es jetzt den Typ OT 260. Die Hochschule Zwickau kaufte den Lehrgerätesatz mit dem Trace-Mobile OT 260.
Leider lernte ich auch andere Praktiken kennen. Der Professor einer Schweizer Hochschule veröffentlichte im Netz einen Mobilfunkvortrag vor allem aus physikalischer Sicht. In einer Mail schrieb ich, dass mir der Vortrag gefällt, man aber das Thema auch über die Signalisation erklären könne. Der Professor zeigte sich interessiert. Das Material, das ich ihm schickte kam offenbar nicht an. Der Mailkontakt brach ab.
Daraufhin beschloss ich, mich mit meinen Veröffentlichungen direkt an die Studenten zu wenden. Zu den von mir bearbeiteten Themen veröffentlichte ich jeweils einen Vortrag im pdf-Format (als Lehrbrief) auf meiner Webseite. Aus der WWW-Statistik, die mir von der Rechnerbetriebsgruppe der Sektion Informatik der HU monatlich zur Verfügung gestellt wird, erkenne ich pro Thema mehrere hundert bis tausend Zugriffe.
Das a&d Schulungszentrum beteiligte sich an einer Ausschreibung. Es ging um Datenübertragung über Funk. Die Firma kauft ein GPRS -Tracemobile SAGEM OT 96 m.
Sebastian Göller baute die erforderlichen Steuerelemente in seinen Interpreter ein. Wir konnten mit GPRSView nun die Signalisation bei der Paketdatenübertragung über Funk 15.2.2 UMTS
Die nun folgende große Herausforderung war die Übersetzung der Signalkanäle im UMTS.
Es war lange Zeit nicht möglich einen Trace des UMTS-Signalkanals zu erhalten. Von Kommunikationspartnern, die ich zum Thema über das Netz kennengelernt hatte, bekam ich schließlich Stücke aus Rohtracen von Motorola und Tektronix. Während die Trace bis zum OT 260 das Excelformat hatten, wurden die UMTS Trace als Hex-Strings im Textformat ausgegeben. Der Trace mobile product Manager der Firma Sagem Wireless Monsieur Olivier Buyse sendete mir schließlich einige Trace von einem SAGEM Tracemobile, das leider nicht produziert wurde. 15.2.2.1 Einige spezielle Bemerkungen zum Übersetzer für UMTS-Traces (für Spezialisten)
Beim Aufbau einer Verbindung zum Node B (Bild 78) fordert das Mobile eine Verbindung an.
Die lt. Recommendation ETSI TS 125 331 v090300p kodierte Vorschrift dazu ist in Bild 99 Bild 99: Die ASN1 codierte Meldung RRC-CONNECTION REQUEST (Ausschnitt) Die zum Node B gesendete Meldung heißt RRC CONNECTION REQUEST.
Der Algorithmus wird wie in Bild 100 gezeigt in einen Script verwandelt, der mit dem Interpreter UMTSView übersetzt werden kann. Wie der Script formuliert werden muss, hängt von den zur Verfügung stehenden Kommandos des Interpreters ab Bild 100: Script der Meldung RRC CONNECTION REQUEST In Bild 101 ist als Beispiel für die Rolle der Scriptkommandos die Bedeutung des Schalters (Switch) oben in Bild 100 beschrieben.
Bild 101: Auszug aus der Kodierungsanleitung für Scripte Im Bild 102 ist schließlich die Übersetzung eines Traces nach den oben angedeuteten Regeln dargestellt.In der Kopfzeile stehen 20 Oktette die mit UMTSView übersetzt die darunter stehende Bedeutung haben: Bild 102: Meldung RRC CONNECTION REQUEST in einem Anruf vom iPhone zu einem NOKIA Trace-Mobile 15.2.2.2 Automatisches Übersetzen von UMTS Traces
Aus dem Umstand dass es Meldungen gibt, die 80 Oktette lang sind, kann man ermessen, dass das von Hand schreiben von Scripten sehr mühsam ist und einem hohen Fehlerrisiko Aus diesem Grunde gibt es Übersetzer, die die ASN.1 kodierten Meldungen in den Hex- Strings automatisch übersetzen. Ein derartiges Werkzeug ist der Snacc, ein High Performance
ASN.1 to C/C++/IDL Compiler. Es gibt da nur ein Problem. Wenn man den UMTS Trace mit dem Snacc übersetzt, erhält man neben den entschlüsselten Begriffen der UMTS Meldung längere, nicht übersetzte HEX Strings, die stehen bleiben, weil sie in einer anderen Sprache geschrieben sind.
Im UMTS werden nämlich eine ganze Reihe von Meldungen nicht in ASN.1 formuliert, sondern so wie es in GSM oder GPRS üblich ist. Es sind dies die Meldungen aus dem NON ACCESS STRATUM, d.h.der Schicht die nicht mit dem Zugriff auf den UMTS-Kanal Man könnte salopp formulieren, die ETSI macht sich nicht die Mühe einen physikalischen Sachverhalt zweimal zu formalisieren. Das war ja schon im GSM so, wenn es galt, die ISDN- Meldungen auf dem Funkkanal zu übertragen. Bild 103 zeigt den Dialog zwischen Endgerät UE und Node B beim Gesprächsaufbau. Der Dialog soll uns hier nicht weiter interessieren. Es sei nur soviel gesagt, dass im DCCH - Dedicated Control Channel die in ASN.1 codierten Meldungen INITIAL DIRECT TRANSFER, UPLINK DIRECT TRANSFER und UPLINK DIRECT TRANSFER übertragen werden. In diesen UMTS Meldungen sind aber die aus dem GSM bekannten Meldungen CM SERVICE REQUEST, AUTHENTICATION REQUEST, AUTHENTICATION RESPONSE und SETUP als nicht ASN.1 kodierte Meldungen eingefügt. Bild 103: Einige Meldungen, die im UMTS beim Gesprächsaufbau übertragen werden Im Bild 103 sind die braun und grün gefärbten Meldungen solche, die in den darunter oder darüber stehenden rot gefärbten Meldungen DCCH über den Kanal transportiert werden.
Allein die Meldungen SECURITY MODE COMMAND/COMPLETE sind reine UMTS 15.2.3 Das Trace Tool der Firma Qosmotec
Die Firma Qosmotec war mit dem Aufbau eines Trace Tools unter Verwendung Nokia 6680 befasst. Die rein UMTS codierten Elemente wurden bereits mit einem Compiler dekodiert, jedoch fehlte die Möglichkeit GSM, GPRS und EDGE kodierte Strings zu übersetzen.
Nachdem Sebastian Göller unseren vorhandenen Übersetzer, der für alle Mobilfunk Traces gilt, mit einem Eingangsfilter für das NOKIA 6680 ausgestattet hatte, schrieb ich die erforderlichen Scripte. Mit NOKIAView war es nun möglich den Output des Nokia 6680 ETSI gerecht zu übersetzen. Eine Ausnahme bildeten die über 80 Oktett langen Meldungen wie z.B. RRC CONNECTION SETUP, aber dafür hatte die Qosmotec den Compiler.
Sebastian Göller schrieb noch einige Hilfswerkzeuge, die den Programmierern von Qosmotec behilflich waren, unser Tool in das Ihrige einzupassen. Qosmotec kaufte uns NOKIAView ab. Eine weitere Zusammenarbeit kam nicht zustande.
15.2.4 Praktikum an der HU
In alter Verbundenheit zu den Kollegen der Rechnerbetriebsgruppe der Sektion Informatik der Humboldt Universität Dr. Bell und Dipl.-Ing. Gandre, besuchte ich von Zeit zu Zeit das Während ich in meiner „UNIX-Zeit" des öfteren Doktor Bell konsultierte, war danach, als ich mit den SAGEM Werkzeugen und unseren Trace-Tools arbeitete, die alle unter MS Windows liefen, Wolfgang Gandre mir ein freundlicher, stets hilfsbereiter Gesprächspartner.
Nachdem ich mich anhand der mir von Olivier Buyse zur Verfügung gestellten UMTS-Trace in das Thema eingearbeitet und für Lehrzwecke eine Powerpoint Präsentation ausgearbeitet hatte, weilte ich wieder einmal am Institut und führte einige neue Arbeitsergebnisse vor. Nachdem ich meinen Vortrag begonnen hatte, sagte Dr. Bell plötzlich „das sollten wir unserem neuen Chef Prof. Dr. Jens-Peter Redlich zeigen. Er rief an und wenige Zeit später hielt ich im Arbeitszimmer von Prof. Redlich einen UMTS-Vortrag. Offenbar gefielen Prof. Redlich meine Ausführungen, denn er schlug mir vor zum Thema ein Praktikum und einige Vorlesungen zu halten. Selbstverständlich willigte ich ein, und während meine Bewerbung diese Angelegenheit betreffend an der HU lief, bereitete ich Vorlesung und Praktikum vor.
Bild 104: Erstes Bild meiner Vorlesung an der HU Als Laborraum wurde ein größeres Zimmer im 4. Stock eingerichtet, in dem Wolfgang Gandre geeignete Möbel und Computerarbeitsplätze aufstellte und auch einen ISDN- Anschluss schalten lies, der nicht als Teilnehmer auf die Zentrale auflief. Nachstehend sind die Praktikumsversuche kurz beschrieben: Übung 1: ISDN:  4 Arbeitsplätze 
Aufgaben:  
  Durchführen aller Übungen die auf der CD ISDNprof enthalten sind.
Lehrziel:        Vertrautmachen mit den Protokollen für ISDN-Dienste und Dienstmerkmale als Grundlage des CC-Managements in GSM und UMTS Übung 2: GSM/1  2 Arbeitsplätze (ohne Trace Mobile)
Aufgaben:   
Durchführen aller Übungen, die auf der CD des Heftes "Die GSM-Dm-Kanäle." enthalten sind.
Lehrziel:      Vertrautmachen mit den Protokollen für GSM-Dienste und Dienstmerkmale. Feststellen der  Gemeinsamkeiten der Protokollstruktur zwischen ISDN und GSM.
Übung 3: GSM/2  2 Arbeitsplätze (mit Trace Mobile)
Aufgaben:   
Durchführen aller Übungen, die auf der CD des Heftes "Die GSM-Dm-Kanäle." enthalten sind.
Lehrziel:        Vertrautmachen mit den Protokollen für GSM-Dienste und Dienstmerkmale. Benutzen der Forcing-Funktion zum Test der Reaktion der Operatoren auf die verschiedenen Fähigkeiten der Mobiles ihre Nachrichten zu verschlüsseln.
Übung 4  GPRS:  4 Arbeitsplätze
Aufgaben:   
Mit dem Tracemobile OT96MGPRS  wird an einem Arbeitsplatz eine Verbindung zum Internet                          aufgebaut: Es wird eine kleine Datei übertragen und der Trace der Signalkanäle aufgezeichnet. Der Rohtrace wird an alle anderen Arbeitsplätze übergeben und dort mit Hilfe der Tools OTDrivePC und GPRSView analysiert.
Lehrziel:    Das Prinzip des temporary blockflow, die Zuweisung mehrerer Zeitschlitze und die Funktion der Context Zuweisung  soll verstanden werden.
Übung 5  UMTS/1:  4 Arbeitsplätze
Aufgaben:   
Analyse der Meldungen, die in einem MOC auftreten anhand eines Rohtraces, der mit einem Trace-Mobile OT390 der Fa. SAGEM aufgezeichnet wurde. Verwenden der Tools OTDRIVEPCDual und UMTSView.
Lehrziel:    Verstehen der Rolle des Netzes bei der Zuweisung von Betriebsparametern an das Mobiles, Verstehen der  Rolle des RadioBearers Übung 6  UMTS/2:  4 Arbeitsplätze
Aufgaben:   
Analyse der Meldungen, die beim Softhandover vom UMTS nach GSM auftreten anhand eines Rohtraces, der mit einem Trace-Mobile OT390 der Fa. SAGEM aufgezeichnet wurde.
Verwenden der Tools  OTDRIVEPCDual und UMTSView.
Lehrziel:    Verstehen der Rolle des Netzes bei der Zuweisung von Betriebsparametern an das Mobiles beim  Softhandover    Zur Vorbereitung der Studenten auf das Praktikum hielt ich vier Vorlesungen zur Einstimmung der Studenten in das Thema Signalisation, beginnend vom Thema ISDN bis zum Auf meine Bitte hielt Professor Redlich eine zusätzliche Vorlesung zum Thema ASN.1.
15.3 Das Global Access Network GAN
Wie im Zusammenhang mit Bild 78 besprochen sind Generic Access Network (GAN) und UMA Begriffe für einen Dienst, bei dem ein Mobile in der Nähe eines WLAN-Hotspots automatisch eine Telefonverbindung über VoIP über WLAN aufbaut. Wenn die Feldstärke des WLAN-Routers nicht mehr ausreicht, führt das Mobile ein Handover ins Mobilfunknetz durch. Kommt das Mobile umgekehrt während eines aktiven Gesprächs in einer Mobilfunkzelle in die Nähe eines WLAN-Hotspots mit ausreichender Feldstärke, so generiert das Gerät ein Handover ins WLAN.
Der France Telecom Operator Orange hat dieses Prinzip in Frankreich realisiert.
Die Firma SAGEM hat dazu ein Trace-Mobile vom Typ OT 5xx entwickelt, das es gestattet, die Signalisation eines UMA-GAN fähigen Mobiles aufzuzeichnen M. Olivier Buyse (14.2.5) hatte mir dazu einige Trace geschickt, die ich, nachdem Sebastian Göller den EDGE Übersetzer in GANView modifiziert hatte, übersetzen konnte Bild 105: Handover von einer Verbindung über WLAN zu einer Funkverbindung Interessierten Lesern, die sich für den Aufbau von Mobilfunk-Tracen interessieren, sei das Studium des Lehrbriefs „IP-GPRS und EDGE" auf der Webseite des Autors Diese Technologie faszinierte mich so, dass ich das Netz durchstöberte um zu finden, ob nicht auch in Deutschland bei irgend einem Operator die Möglichkeit besteht das Prinzip Tatsächlich war im Netz zu finden (Bild 106), welche Operatoren den Universal Mobile Access UMA praktizieren. Die Freude über diese moderne Technologie wird sofort gedämpft, wenn man sieht, welche Operatoren sich der neuen Technologie bedienen.
T-Mobile ist in der Liste enthalten, aber nur in den USA. Nachfolgend kann aber beschrieben werden, dass auch im Deutschen Mobilfunknetz einige Versuche existieren die IP-Telephonie für den Mobilfunk nutzbar zu machen. Letztendlich geht es Providern nur darum, was die neue Technologie für Gewinne verspricht Bild 106: Anbieter des Universal Mobile Access in verschiedene Ländern Bei der Suche nach Anwendungen in Deutschland stieß ich auf Vodafone.
Das IP-Softphone des Operators Vodafone gestattet es Gespräche, die man normalerweise mit dem Mobile führt, vom Computer aus zu starten. Um dieses Feature installieren zu können, muss man den Dienst „Vodafone Zuhause" beauftragt Die Rolle des BSC bei der Mobile-Verbindung spielt beim IP- Access der UMA Network Controller (UNC).
Der UNC befindet sich geographisch an der Stelle der Komponenten des Core Mobile Networks und hat die IP- Nummer 139.7.147.78. Das folgt aus dem WireShark-Trace einer Verbindung von Vodafone IP Fone Pro. Der Beweis wurde im PowerPoint Vortrag des Autors zum Thema „Voice over IP" geführt. Bild 107: Das Vodafone Softfon UMA Komponente des Vodafone IP Fon pro Im Gegensatz zu einer normalen SIP Verbindung wird hier alles über einen sicheren Transportlayer abgewickelt. Transport Layer Security (TLS) ist ein hybrides Verschlüsselungs- Protokoll zur Datenübertragung im Internet. Aus Anlass einer telefonischen Anfrage bei einem Vodafonetechniker wurde mir bestätigt, dass Vodafone das UMA-Protokoll anwendet.
Bei der weiteren Suche nach einem deutschen Anwender des UMA-GAN Protokolls stieß ich auf die Firma etelon, die den Dienst wifon propagierte. Da wifon Ähnlichkeit mit UMA
versprach, hatte ich mich zu einem Abonnement dieses Dienstes entschlossen und als Zubehör eine FRITZ!Box Fon WLAN 7170 und ein Nokia E65 erhalten. Es war zunächst möglich, das Nokia E65 für Sipgate zu programmieren und Gespräche über Sipgate zu Anfang 2008 wurde von etelon ein Modul geliefert, (powered by M5T), der ebenfalls die Kommunikation mit VoIP über die Fritzbox ermöglicht, zusätzlich jedoch, wenn die Umgebung der Box verlassen wird (die WiFi-Feldstärke zu klein ist), auf die Mobilfunkverbindung umschalten soll. Ein solches Handover funktionierte bei mir nur ein Ein Gespräch mit dem Entwickler ergab, dass der Modul nicht entsprechend UMA- Recommendation programmiert war und auch nicht vorgesehen ist, dass das Gespräch über Mobilfunk rückwärts in der Nähe von der FritzBox auf VoIP umschaltet.
Diese Erfahrung kostete mich zwei Jahre lang die Mindestgebühr beim Mobiltelefonanbieter Debitel sowie Gebühren zur VoIP Nutzung der Firma etelon. Das Experiment hatte jedoch eine Reihe nicht zu unterschätzender Nebeneffekte.
1. Wegen meines Zwangsabonnements bei debitel kündigte ich meinen T-Mobile-Vertrag.
2. Bei der Auswahl eines Geburtstagsgeschenkes entschied ich mich für einen iPod Touch.
3. Für meinen laufenden Vodafone-Vertrag wählte ich ein Blackberry Storm.
4. Den iPod Touch hatte ich über iTunes mit Musik und Filmen von YouTube sowie eigenen Aufnahmen gefüllt. Das Gerät wurde mir aber leider nach einem halben Jahr auf der Post 5. Nun erwarb ich ein iPhone 3G 16GB und konnte den in iTunes gesicherten Inhalt meines iPod Touch ohne Probleme auf das iPhone zurück laden.
6. Das Zwangsabonnement konnte ich inzwischen durch Kündigung nach Ende der Laufzeit beenden. Die aus dem Abonnement stammende FRITZ!Box Fon WLAN 7170 versorgt meine Computer und das iPhone mit drahtlosem Internetzugang. Mit dem E65 telefoniert mein Enkel, mit dem Blackberry telefoniert mein Sohn. Das iPhone hat mein Interesse an APPLE-Produkten erweckt.
15.4 Voice über IP

Die Beschäftigung mit UMA/GAN hatte mein Interesse an Voice über IP geweckt. Wie in Abschnitt 14.3 Voice over IP berichtet, war wie im Mobilfunk (GSM), wo das ISDN als Vorbild für die Signalisation genommen wurde, auch bei der ersten Standardisierung von VoIP im Standard H.323 der ISDN-D-Kanal noch Vorbild. In den MS Betriebssystemen Me, 2000 und XP ist ein leistungsfähiges H.323 Terminal mit Namen Netmeeting enthalten. Es interessierte mich, in wieweit man mit den Komponenten von VoIP im H.323 experimentieren kann. Bild 109: Die Komponenten eines H.323 Netzes Das ist wie Bild 109 zeigt möglich. Ein H.323 Gateway steht als LINUX Executable zur Bi110: Eine VoIP Verbindung nach H.323 mit Softclienten Verfügung. Ab der SuSE-Linux Version 10 werden aber die AVM Karten nicht mehr unterstützt. Damit konnte ich den Versuchsaufbau mit ISDN-Telefon nicht aufbauen, sondern musste die in Bild 110 dargestellten Softclienten verwenden.
Noch interessanter war das Experimentieren mit der SIP-Architektur, die im Abschnitt 14.3 bereits vorgestellt wurde. SIP besitzt folgende nutzerfreundlichen Eigenschaften: - Unabhängigkeit vom Transportprotokoll, SIP kann mit UDP, TCP, SCTP, etc. benutzt werden. - Es ist text-basiert, d.h. die Kommandos sind umgangssprachlich formuliert, SIP Meldungen sind also lesbar und können so analysiert werden.
Wichtige Komponenten eines SIP-Netzwerkes sind in Bild 111 dargestellt.
Bild 111: Komponenten eines SIP-Netzwerkes Der User Agent baut SIP Verbindungen auf und ab. Um für andere Teilnehmer erreichbar zu
sein, meldet sich der User Agent beim Programmstart am Registrar an.
Um eine Verbindung zu einem anderen Teilnehmer aufzubauen, sendet der User Agent eine INVITE Meldung zu dem für seine Domäne verantwortlichen Proxy.
Der Proxy ruft den gewünschten Agenten. Dem Absender teilt der Proxy den Fortschritt des Verbindungsaufbaus mit der Meldung TRYING mit. Sobald der User Agent, an den der Anruf
gerichtet ist, den eingehenden Anruf signalisiert, sendet er die Meldung RINGING an den
Proxy zurück, die dieser zum Anrufer weiterleitet. Dessen Telefon signalisiert jetzt einen Sobald das Gespräch vom Empfänger angenommen wird, sendet dessen User Agent die Meldung OK zum Proxy, die ebenfalls zum Absender weitergeleitet wird.
Schließlich schließt der User Agenten des Anrufers den Verbindungsaufbau mit einer ACK
Meldung ab, die direkt zum User Agent des Angerufenen gesendet wird, und nun wird die Sprachverbindung zwischen den beiden User Agenten aktiviert.
Der Abbau der Verbindung erfolgt dadurch, dass einer der beiden User Agenten eine BYE
Meldung zu seinem Gesprächspartner sendet, die dieser mit einem OK quittiert.
Die gesamte Prozedur kann mit dem Traceprogramm Wireshark aufgezeichnet und im Detail verfolgt werden. Wie in Bild 111 gezeigt benötigt man für die Kommunikation zwischen SIP-User Agenten einen Registrar und einen Proxy-Server. Erfreulicherweise hat die Firma digium eine Software
mit Namen Asterisk entwickelt, die es gestattet aus einem LINUX-Rechner eine
leistungsfähige PBX zu generieren. Sollen Telephonie-Interface-Karten zum Anschluss der Asterisk-PBX an das herkömmliche Telefonnetz eingesetzt werden, muss der Rechner einen PCI-Bus besitzen.
Der Autor hat das HowTo von www.datenkreise.at/articles/1001/index.php herunter geladen und eine Asterisk-PBX auf einem Laptop installiert. Die Programmierung der Asterisk aus den Quellen gestattet auch die Implementierung von H.323. Die genannte Webseite enthält auch die Anleitung zur Installation eines SIP Softphones.
Eine wesentlich einfachere Methode zur Herstellung einer SIP-PBX besteht darin, die Asterisk basierte Telefonanlage IPTAM zu verwenden, auf die man unter www.iptam.com/ zugreifen kann .Diese kostenlose PBX für 5 Teilnehmer ist für Lehrzwecke gut geeignet.
Bild 112: Versuchsanordnung SIP- Architektur Meine praktischen Erfahrungen habe auf einer Lehr-CD zusammengefasst. Sie im EPV-Verlag zum Selbststudium und als PowerPoint-Vortrag für Lehrer zu beziehen.
Bild 113: Lehr-CD über VoIP 15.5 Meine Computer
Über den nach der Wende gekauften Rechner hatte ich schon berichtet. Er wurde in den Folgejahren mit Speichern und auch mit neuen Motherboards und leistungsfähigeren Prozessoren mehrfach aufgerüstet.
Auf dem Rechner lief bis Mitte der 90er Jahre SCO UNIX und MS-Windows. Schließlich musste ein kleinerer Desktop-Rechner, mit einen PCI-Bus-System zwei Festplatten ISDN und SoundKarte in Dienst gestellt werden.
Im Jahre 1998 erschien die Firma ASUS mit einem Laptop auf dem Markt. Die Ausstattung
war noch bescheiden. Festplatte und Floppy-Laufwerk konnten alternativ eingesetzt werden, und die Akku-Einheit war austauschbar.
Als ich 2003 einen neuen ASUS Laptop anschaffte, staunte ich nicht schlecht, dass kein
Com-Port mehr zur Verfügung stand, den ich für den Anschluss der Tracemobiles von SAGEM brauchte. Dafür gab es einen USB-Anschluss und einen USB-Stick, mit dem ich natürlich im Moment nichts anzufangen wusste. (Kapazität 64 KByte!) Auch ein Floppy Laufwerk stand nicht zur Verfügung. Das musste ich als USB Einheit zusätzlich kaufen. Das Gerät benutze ich allerdings heute noch, genau wie einen USB Doc, der 4 zusätzliche USB(1.1) -Anschlüsse, 2 COM-Ports, einen Tastatur- und einen Maus-Port enthält. Betriebssystem war Windows 98.
Als Hauptrechner kaufte ich schließlich 2006 einen Dell Dimension mit zwei Festplatten mit
je 160 MB und 2 CD-Romlaufwerken, von denen das eine ein Brenner ist, und dem Betriebssystem Windows XP.
Eine nicht so gute Wahl war das Betriebssystem Vista auf dem ASUS C90S Serie, gekauft im Jahre 2007. Vista konnte einiges nicht, was noch auf XP ging. Das neue Office liess vertraute
Einstellungen missen usw. Nach einem tödlichen Virus auf dem DELL musste ich Windows 7 als Betriebssystem installieren. Dieses Betriebssystem machte bisher einen guten Eindruck, zumal es einen XP- Mode besitzt als Trostpflaster für unter WIN 7 nicht mehr laufenden Programmen.
Nun kommt wieder mein hintergründiges Bewusstsein, die technische Fantasie ins Spiel.
Als mir Sebastian zu Weihnachen das Buch von Schätzing Limit schenkte, gefielen mir
weniger die Diskussionen zwischen den abgehobenen Milliardären, dafür umso mehr die Softwarewerkzeuge die Owen Jericho und Yoyo benutzen. Mir fiel auf, dass mein iPhone vom Konzept her ein Taschencomputer ist, mit einem Speicher von immerhin 32 GByte, der Festplatte meines ASUS von 1998. Als Steve Jobs noch das iPad ankündigte, war mir klar, dass neben den Arbeitspferden von Microsoft hier Rechner von einer neuen Dimension entstehen. Damit ich mich auf die neue Linie vorbereiten kann, kaufte ich einen MAC mini mit 2 GB Hauptspeicher und 160 GB Festplatte und einem 2.26 GHz Intel Core Duo Prozessor. Das Betriebssystem ist Mac OS X Zu meiner Freude habe ich nun wieder X-Windows auf dem Rechner. Die mir vertrauten Befehle existieren noch! Jetzt darf ich mich mit drei Betriebssystem herumärgern. Aber ich habe es ja so gewollt. Im Übrigen gefällt mir der Sprachausgabemodus von iPad und MAC gar nicht. Die Maschinenstimme ist monoton, die Satzzeichen werden durch senken und Heben der Stimme nicht dargestellt, u.s.w.
15.6 Wie soll es weitergehen
Von den zu erwartenden zukünftigen Entwicklungen interessiert mich natürlich die Leistungsfähigkeit und die Kommunikation auf den Signalkanälen bei der Mobilfunk- Generation Long Term Evolution LTE.
Vielleicht gelingt es auch einem der Großen (Apple, Google, Microsoft oder einem Anderen aus dem riesigen kreativen Potential der Menschheit) die Verbale Kommunikation mit dem Computer praktikabel  zu machen. Sicherlich könnte ein Gerät wie das iPhone mit über 100 GB Speicher ausgerüstet werden. Mit intelligenter Sprach-Ein- und Ausgabe wäre es dann möglich, den Computer in der Tasche zu behalten und mit ihm über das Headset zu kommunizieren.
Es freut mich, dass der ideenreiche Entwickler meiner Werkzeuge Dipl.-Physiker Sebastian Göller jetzt als Doktorand beim Alfred Wegener Institut angestellt ist, wo er seine wissenschaftliche Kreativität mit der Sehnsucht zu Meer und Natur verbinden kann. Ohne seine Arbeit wären meine Untersuchungen auf dem ISDN und dem Mobilfunkgebiet in der hier beschriebenen Form nicht möglich gewesen.
Die Quellen zur vorstehenden Aufzeichnung sind das Gedächtnis des Autors, Veröffentlichungen des Autors und Veröffentlichungen im Internet u.a. der Wikipedia.
Von den Veröffentlichungen im Internet wurde jeweils eine pro Thema angeführt.
Das wird versucht nachstehend zu dokumentieren.
2.Hintergrund um 1940
2.1 Das PCM-Prinzip 2.2 Der Digitalrechner 3.Vordergrund ab 1940
4.Hintergrund ab 1945
5.Vordergrund ab 1955
- Joachim Göller:Das Hybrid-Kreuz, theoretische Grundlagen und Anwendungen eines neuartigen Höchstfrequenzsiebentors. Hochfrequenztechnik und Elektroakustik, Bd. 71, 1962, H.6, S.205 .211.
- Karl, Klaus: Kybernetische Lehrmodelle an der Nachrichtenschule der Nationalen Volksarmee. In: "Physik in der Schule" , Heft 2/1963, S. 73-76. - J. Göller und K. Karl: Die Optimierung der Fehlersuche an elektronischen Einrichtungen mit Hilfe der Informationstheorie. Nachrichtentechnik 15 (1965) H.12 S.455-461, - J.Göller: Bericht über den Aufbau einer Unterrichtsmaschine. Berufsausbildung H. 9, 1963, - J.Göller: Logik im Koffer, Jugend und Technik H.2, 1964, S.169 . 171.
6. Hintergrund ab 1960
6.1 Kleinrechner.
6.3 Multiuser-Systeme 6.5 Die Vernetzung von Computern stand nun auf der Tagesordnung.
- Katie Hafner, Matthew Lyon: ARPA Kadabra, Die Geschichte des Internet, dpunkt-verlag für digitale Technologie, Heidelberg. ISBN 3-920993-90-X 7. Vordergrund ab 1964
8. Hintergrund ab 1970
8.1 Der Mikroprozessor 8.3.1 Fortsetzung des Aufbaus - Katie Hafner, Matthew Lyon: ARPA Kadabra, Die Geschichte des Internet, dpunkt-verlag für digitale Technologie, Heidelberg. ISBN 3-920993-90-X 8.3.2 Das IP-Protokoll 8.3.3 Das Transport Control Protocol 8.6 Das Adress Resolution Protocol 8.7 Der erste Personalcomputer war ein Apple 8.8 Die Gründung von Microsoft 9. Vordergrund ab 70
9.1 Der Lehrstuhl Informationstechnik der TH Karl-Marx-Stadt.
9.2 Erste Lagedarstellung mit Hilfe von Mikrorechnern 9.3 Es geht weiter mit der Mikrorechner Ausrüstung 9.4 Neue Dienststelle neue Aufgaben 10. Hintergrund ab 1980
10.1 Vom ARPANET zum Internet Katie Hafner, Matthew Lyon: ARPA Kadabra, Die Geschichte des Internet, dpunkt-verlag für digitale Technologie, Heidelberg. ISBN 3-920993-90-X 10.2 Das World Wide WEB 10.3 Rechentechnik, insbesondere Personalcomputer 10.3.1 Mainframes Allgemeine Beschreibung 10.3.2 Workstations 10.3.3 Personalcomputer 10.5 Expertensysteme 11.Vordergrund ab 1980
11.1 Lagedarstellung im Manöver Waffenbrüderschaft 11.2 Beginn der Bürokommunikation 11.3 Denkschmiede 11.4 Die Nachrichtengeräte werden intelligent.
11.5 Die UNIX-Story Joachim Göller: UNIX IN DER NATIONALEN VOLKSARMEE, TOP IX Nr.11 Juni 1991, Verlagsgesellschaft Rudolf Müller. Postfach 410949. 5000 Köln 41 11.5.1 Mikroprozessoren mit 16 Bit Wortbreite 11.5.2 UNIX-Systeme 11.5.3 UNIX-Anwendungen 11.6 Rechnergesteuerte Umsetzer 12. Hintergrund ab 1990
Vogelsang, Göller: ISDN und Netzwerke, Novell Netware 3.12, EPV Elektronik-Praktiker- Verlagsgesellschaft mbH, Duderstadt, ISBN 3-924544-57-3 12.8 Die Produzenten von ISDN-Hardware 13. Vordergrund ab 1990
13.1 Der erste eigene UNIX-Rechner 13.2 Die .course GmbH 13.3 ISDN-Ausbildung im a&d-Schulungszentrum 13.4 ISDN-Anwendung in der Bauakademie 13.5 ISDN-Anwendungen in der Rohde & Schwarz SIT GmbH 13.6 Was sonst noch passierte 14. Hintergrund ab 2000
14.2.3 Enhanced Data rates for Global Evolution (EDGE) 14.2.4 Universal Mobile Telecommunications System (UMTS) 14.2.5 Unlicensed Mobile Access 14.3 Voice over IP 14.4 Mikrorechentechnik6 14.4.1 Microsoft Betriebssysteme 14.4.2 Apple Soft- und Hardware 14.5 Mobiltelefone 15. Vordergrund ab 2000
15.1.2 Unterrichte 15.1.3 Die tevitel iPBX 15.2.1 GSM und GPRS ETSI TS 125 331 V5.6.0 (2003-09) 15.2.3 Das Trace Tool der Firma Qosmotec 15.2.4 Praktikum an der HU 15.3 Das Global Access Network GAN 15.4 Voice über IP 15.5 Meine Computer

Source: http://www.joachim.goeller.name/isdn/MACBOX%20ENTERPRICE.pdf

naturaleater.com

J Clin Pathol 2001;54:553–555 Salicylic acid in the serum of subjects not takingaspirin. Comparison of salicylic acidconcentrations in the serum of vegetarians,non-vegetarians, and patients taking low doseaspirin C J Blacklock, J R Lawrence, D Wiles, E A Malcolm, I H Gibson, C J Kelly, J R Paterson Keywords: salicylic acid; salicylates; diet; low dose

Untitled

Ears and HealthA Community Report from Onemda VicHealth Koori Health Unit Karen Adams Published by: Onemda VicHealth Koori Health Unit Centre for Health and Society, School of Population Health, The University of Melbourne © Onemda VicHealth Koori Health Unit, 2006 ISBN 0 7340 3640 X First printed in July 2006 This work is joint copyright. It may be reproduced in whole or in part for study or training purposes, or by Aboriginal and Torres Strait Islander community organisations subject to an acknowledgment of the source and no commercial use or sale. Reproduction for other purposes or by other organisations requires the written permission of the copyright holder(s).