Ein Weg, das Internet zu begreifen, besteht darin, dessen Entwicklung historisch zu rekonstruieren.
Nach einer verbreiteten Heterarchie-Legende über die Schlacht um Midway hatte die US-Flotte ihre zentrale Kommandostelle, das Schlachtschiff der Admiralität gleich am Anfang verloren, weil sie logischerweise erstes Ziel der japanischen Armee war. Bei Midway erwies sich für die US-Flotte als Glück, dass sich keinem zentralen Plan mehr folgen konnte, sie gewann die Schlacht. Aber für die Armeeführung blieb die Vorstellung die Kommunikation nochmals zu verlieren ein Albtraum. Sie erkannte in der Sicherung der Kommunikation ein strategisches Problem ersten Ranges. Sie beauftragte private, aber vom Militär finanzierten Forschungsinstitutionen, in welche sich das Manhattenprojekt nach dem Krieg aufgeteilt hatte, nach Lösungen zu suchen.
Die " RAND Corporation" befasste sich mit einem kriegerischen Supergau, bei welchem sich das Debakel von Midway auf noch höherer Stufe wiederholen würde, wenn die gesamte Kommuniktion des Staates beispielsweise wegen eines atomaren Angriffes zusammenbrechen würde. Es ist leicht zu sehen, dass die Vorstellung dramatisch gewählt wurde, weil ein solcher Angriff ja nicht vor allem ein Kommunikationsproblem schaffen würde. Von RAND stammt auch MAD (Atomkrieg als Abschreckung). Die verwendete Fiktion aber, die der erbrachten Lösung entsprach, bestand darin, dass nur viele einzelne Kommandostellen ausgelöscht würden.
Die Lösung bestand in einem Netzwerk, das ausgelöschte Knoten umgehen und so kompensieren konnte. Das Problem aber war, wie dieses Netzwerk gesteuert werden konnte, wenn man auf eine zentralle Steuerung verzichten wollte. Die RAND hatte zu dieser Zeit schon viel Erfahrung mit Comuternetzwerken, die von einem Zentralrechner gesteuert wurden.
ArpaWie aber sollte dieses Netzwerk selbst gesteuert werden? Jede zentrale Behörde oder jede zentrale technische Einheit würde naturgemäss das Risiko des Ausfalls in sich tragen, egal wie gut sie geschützt wäre. Sie wäre selbst wahrscheinlich ein bevorzugtes Ziel gegnerischer Angriffe geworden. Unter höchster militärischer Geheimhaltung begann die "RAND Corporation" - vermutlich im Jahre 1962 - damit, dieses Problem zu untersuchen. Die von Paul Baran (ein damaliger Mitarbeiter der RAND Corporation) erarbeiteten Lösungsvorschläge wurden erstmalig 1964 veröffentlicht. Das wichtigste daran waren zwei Punkte:
1. Das Netzwerk sollte keine zentrale Steuerung und damit auch keine zentrale Autorität erhalten.
2. Das Netzwerk sollte von Beginn an so ausgebildet werden, daß schon die kleinsten Komponenten komplett funktionsfähig und autark wären.
Probleme |
|||||
1984 begann die National Science Foundation, einen Nachfolger für das vollkommen überlastete ARPA-Net aufzubauen. Das NSF-Net hatte grössere und schnellere Knotenrechner, mehr und schnellere Datenleitungen und wurde permanent aus- und umgebaut. So hatte man bereits 1986 ein (in den USA) flächendeckendes Netz aufgebaut, in dem die Netzknoten mit 56kbit/sec miteinander kommunizierten. Dieses Netz wurde bekannt als "das Internet-Backbone". Im Jahre 1990 wurde dann endgültig das Ende des ARPA-Net verkündet (Wobei das NSF-Net natürlich weitergeführt wurde). Andere Organisationen schlossen sich dem NSF-Net an, oder bauten eigene Netze auf, so z.B. die NASA, die amerikanische Gesundheitsbehörde, usw.... |
|||||
Die Masse der Netze und Knoten wurde schnell unüberschaubar und man versuchte, die Netze nach ihrer geographischen Zugehörigkeit mit Namen zu unterteilen, so steht z.B. das Kürzel "de" für Deutschland. Zusätzlich gründete man sechs Basisbereiche, die sog. "generic Domains": gov, mil, edu, com, org und net (solche Abkürzungen sind von Anfang an fester Bestandteil des TCP/IP Protokolls gewesen). gov, mil und edu standen für die drei Pioniere des ARPA-Net: Government (Regierung), Military (Militär) und Education (Bildung/Universitäten). com markierte den Bereich der Commercials, also der Wirtschaft, die explosionsartig und mit brutaler Gewalt das Netz expandierte. Die org-Domain blieb anderen Organisationen vorbehalten, die nicht auf Profitbasis arbeiteten. Mit net schliesslich wurden alle Computer bezeichnet, die als "Gateways", also als Zugang zu anderen Netzen fungierten. Um die Verwendung weiter unterteilender Domain-Namen zu ermöglichen, wurden weltweit diverse sog. "DNS-Server" aufgebaut, die die Zuordnung von Namen zu Netz-(IP-)nummern ermöglichten. Eine eingehendere Betrachtung dieser Mechanismen findet sich u.a. hier. |
und was interressiert? |
|||||
Obwohl immer von "dem Internet" gesprochen wird, ist es auch in der möglichen Nutzungsweise in keinem Fall ein so homogenes Ganzes, wie dieser Begriff glauben machen möchte. Die Dienste, die über das Internet genutzt werden können, sind ähnlich unterschiedlich, wie die geographische Struktur des Netztes. Hier einige Beispiele: |
|||||
E-Mail: Die elektronische Post im Internet. Jeder hat im Internet eine eindeutige Mail-Adresse. Darüber kann er für ihn auf einem Netzknoten hinterlegte Post abholen, bzw. dort oder bei jedem anderen Netzknoten Post für andere abliefern. So ist es möglich, weltweit persönliche Nachrichten zu übermitteln, wobei die Zustellgeschwindigkeit nur von der Abfragehäufigkeit des Empfängers bestimmt wird. Dadurch ist sie in vielen Belangen der traditionellen Briefpost weit überlegen. Eine exaktere Beschreibung finden Sie hier. |
|||||
Mailing-Listen: Bedienen sich der E-Mail-Technik. Internetnutzer mit gleichen Interessen lassen sich in entsprechende Mailinglisten eintragen. E-Mails zu diesem Thema werden dann nur noch an eine Adresse gesendet, ein Rechner übernimmt dann die Verteilung der Nachricht an alle in der Liste eingetragenen Empfänger. |
|||||
News: Auch bezeichnet als "Usenet". Auch hier wird eine Nachricht in Form einer E-Mail an eine zentrale Stelle gesandt, hier die "News-Group". Im Unterschied zu Mailinglisten, wo Interessenten eingetragen sind und dann zwangsläufig jede Nachricht der Liste übermittelt bekommen, kann hier jeder den Inhalt der News-Gruppe vor Übermittlung sichten und nur ihm wirklich interessant erscheinende Nachrichten abrufen. So ist es in einer News-Group ausreichend, einfach nicht die Gruppe aufzusuchen (z.B. bei Urlaub, etc.) und der eigene Rechner wird nicht mit ungelesenen Nachrichten belastet. Bei Mailing-Listen ist hier eine Nachricht an den entsprechenden Server nötig. Für die Zeit, in der man nicht Mitglied einer Mailingliste ist, bekommt man entsprechend auch keine Nachrichten, während News-Groups auch später noch eingesehen werden können. |
|||||
World Wide Web: Ein passiver Dienst auf grafischer Basis zur Informationsabfrage. Der besondere Reiz des Web liegt in seiner abstrakten Seitenbeschreibungssprache HTML, die es ermöglicht, mit einfachen Befehlen Text, Grafik und sog. "Hyperlinks" auf einer Bildschirmseite zu integrieren. Mit Hyperlinks wird es dem Betrachter ermöglicht, per Knopfdruck zu einem anderen Rechner zu wechseln, der eventuell weitergehende Information zu dem interessierenden Thema bietet. Die Fortbewegung durch das gesamte Internet mittels dieser Hyperlinks wird als "surfen" bezeichnet. |
|||||
File Transfer: Spezieller Dienst, dessen Protokoll geschwindigkeitsoptimiert arbeitet, um auch die Übertragung grosser Dateien im Internet in annehmbarer Zeit zu ermöglichen. |
|||||
Telnet: Einer der Dienste, für die das Konzept des Internet ursprünglich entwickelt wurde, ermöglicht das Fernbedienen von fremden Rechnern. |
|||||
Java: Eine rechnerunabhängige Programmiersprache, die ursprünglich zur Steuerung von Haushaltsgeräten von SUN Microsystems entwickelt wurde. Dient jetzt als offener Standard zur Erweiterung der HTML (Hyper Text Markup Language) im WWW, die es ermöglichen soll, daß Grafiken animiert werden können (Filme und Sequenzen) und eine Kommunikation zwischen dem Seitenanbieter und dem Nutzer stattfinden kann. Als Konkurrenz dazu wurde von Microsoft das Konzept ActiveX aus der Taufe gehoben, welches aber erhebliche Sicherheitslücken aufweist. |
|||||
Darüberhinaus gibt es eine Fülle an weiteren denkbaren und teilweise auch praktizierten Anwendungen für die Internettechnik, die hier nicht angesprochen wurden. Nach meiner (naturgemäss vollkommen subjektiven) Meinung sind aber die wichtigsten erwähnt worden. |
Die Zukunft |
|||||
Nachdem die Pionierzeit in Deutschland (und Europa) vor allem durch Newcomer und relativ kleine Firmen bestimmt wurde, haben jetzt die grossen Kommunikationsunternehmen das Internet entdeckt. Das Problem der kleineren Betriebe waren die hohen Leitungskosten zur Anbindung an andere Internet-Netzknoten. Da das "Kernnetz" sich zu dem Zeitpunkt hauptsächlich in den USA befand, musste jeder Provider, der einen qualitativ hochwertigen Anschluss an das Internet suchte, eine schnelle Datenleitung über den grossen Teich legen lassen. So geschah es zu der Zeit häufig, daß Nachrichten "zur anderen Strassenseite" zweimal die Strecke Deutschland - Amerika zurücklegen mußten, da erst dort entsprechende Querverbindungen existierten. Die kleinen Provider konnten (oder wollten) die teuren Querleitungen in Europa nicht bezahlen. |
|||||
Zur Zeit bauen alle grossen Unternehmen mit Ambitionen im Internet ihre Infrastuktur mit gigantischem finanziellen Einsatz aus und bilden strategische Allianzen mit etablierten Unternehmen. Ob überhaupt jemand gegen die Konkurrenz eine Vormachtstellung erlangen kann und wer es sein würde, kann nicht vorhergesagt werden, da die Leitungskosten immer weiter absinken und letztendlich wohl nur die richtige Strategie und das finanzielle Polster zum Überwinden von Durststrecken entscheiden werden. Den User freut es so oder so, da nun die dringend benötigten europäischen "Backbones" aufgebaut sind und durch den Konkurrenzkampf die Preise sicherlich weiter sinken. Ein Zusammenwachsen der klassischen Telekommunikation Sprache mit dem dynamischen Internet scheint nur eine Frage der Zeit zu sein. |
|||||
Dabei ist das Internet momentan kurz vor seiner logischen Wachstumsgrenze. Das Internet-Protokoll definiert einen festen, also endlichen Adressbereich, in dem sich alle Mitglieder des Internet bewegen müssen. Dieser schien bei der Entwicklung von TCP/IP vollkommen überdimensioniert, doch die tatsächlich eingetretene Expansion des Netzes konnte wohl zur Entwicklungszeit niemand vorhersehen. Daher wurde ein Nachfolger geschaffen, der unter den Namen "Internet-Protokoll Next Generation" oder "Internet-Protokoll Version 6" bekannt wurde. Dieses neue Protokoll bietet u. a. einen riesigen Adressbereich (soweit eine solche Einschätzung nicht durch die Realität wieder eingeholt wird). Alle namenhaften Hard- und Softwarehersteller sind inzwischen dabei, entsprechende Produkte bereitzustellen, so dass demnächst das Internet Zug um Zug auf "IP NG" umgestellt werden dürfte, wobei alte Protokollwelten zu diesem neuen Standard kompatibel bleiben sollen. |
|||||
Zusätzlich gibt es derzeit zahlreiche Ansätze, die überwältigende, aber auch vollkommen chaotische Informationsflut für die Endkunden übersichtlicher zu gestalten. Wie von den Mailinglisten und Newsgroups her bekannt, kann der User sich bei den entsprechenden Providern für einen Themenschwerpunkt entscheiden, z.B. "Wassersport", "Astronomie", usw. Der Provider durchforstet das Netz dann nach interessanten aktuellen Seiten zu diesen Themen und stellt diese seinen Usern täglich zu. Ein Wenig funktioniert das Ganze wie ein reiner Nachrichtensender im Rundfunk oder Fernsehen, wobei nur Nachrichten zu interessierenden Themen übertragen werden. Natürlich sind diese Dienste oft nur gegen ein entsprechendes zusätzliches Entgelt zu beziehen, es gibt auch auch qualitativ hochwertige kostenlose Angebote. |
|||||
Sehr spannend ist auch die aktuelle Diskussion um das "Domain Name System" DNS. Nach Ablauf der Verträge zwischen den Betreibern der Root-Server und den US-Behörden tobt hinter den Kulissen z.Zt. ein Verhandlungsmarathon zwischen staatlichen Institutionen und allen namenhaften Providern weltweit. Eine abschließende Regelung ist dabei noch nicht in Sicht. Mein Artikel über das DNS geht sowohl auf die Technik des DNS, als auch die Schwierigkeiten einer einvernehmlichen Regelung näher ein. |
weiterführende Links |
|||||
Weiterführende Links zum Thema. Sollten Sie auf weitere interessante Quellen stoßen und feststellen, diese fehlen hier, tragen Sie "Ihren Link" einfach hier ein. |
Schlußwort |
|||||
Natürlich hat sich in der Zwischenzeit (die erste Fassung dieser Seite entstand Anfang 1997!) einiges im Netz getan. Auch entsprechen einige der hier dargestellten Dinge nicht mehr ganz dem derzeitigen (Mitte 1999) Wissenstand. So hat man z.B. die Rolle von RAND bei der Entwicklung des Internet anfangs deutlich überbewertet. Auch geht man nun davon aus, daß die englischen Pioniere gar nicht von den amerikanischen Forschungen wussten, als sie ihr Projekt realisierten. Erst später bemerkte man, daß beide Parteien völlig unabhängig voneinander dieselbe Lösung des gleichen Problems entdeckt hatten! |
|||||
Ich habe trotzdem darauf verzichtet, den Text an diese neuen Erkenntnisse anzupassen. Das hat einmal mit der begrenzten Zeit zu tun, die ich für dieses Hobby zur Verfügung habe, andererseits meine ich, auch die vielen neuen Erkenntnisse haben es nicht vermocht, die grundlegenden Zusammenhänge entscheidend zu verändern. Und um die ging es mir hier. |
|||||
Ich hätte diese vielen neuen Entwicklungen aber nicht so leicht im Auge behalten können, wenn es nicht Sie - die Leser - gegeben hätte, die mit reichlich konstruktiver Kritik auf diese Seite reagiert haben. Vielen Dank! Damit dieser Dialog erhalten bleibt und eventuell ausgebaut werden kann, habe ich hier die Möglichkeit geschaffen, daß Sie mir öffentlich die Meinung sagen können. Ich bin sehr gespannt, wie das angenommen wird. Viel Spaß auch mit den anderen Seiten. |
Einleitung
Wie es begann...
Der Grundgedanke
Erste Schritte...
...und Resultate
"Das Internet" entsteht...
...und wächst
Probleme
die Entwicklung geht weiter
und wen interessierts? (und warum?)
und was interessiert?
Die Zukunft
Links
Das Internet dringt in immer zunehmenderen Masse in den gewerblichen aber auch privaten Bereich vor. Keine Mensch kann es sich noch leisten, dieses Netz der Netze zu ignorieren. Kein Tag vergeht, an dem nicht irgendwo eine Schlagzeile zum Thema "Internet" auftaucht. Gerade die Berichterstattung der traditionellen Medien Zeitungen, Funk und Fernsehen malt immer wieder Schreckgespenster und Horrorszenarien von Gewaltverbrechen im und durch das Netz an die Wand. Vielleicht ist dabei auch ein klein wenig Sorge um die eigene Existenz im Spiel.
Daraus hat sich eine negative Grundstimmung in der Bevökerung und bei den Parteien ergeben, die diesem neuen Medium m. E. nicht gerecht wird. Doch gerade die Parteien und die Gesetzgebung sind durch das neue Medium "Internet" im höchsten Maße gefordert. Dabei lässt sich vermutlich die rasante Entwicklung in keiner Weise aufhalten. Um so größer müssen die Anstrengungen Aller sein, diese Entwicklung in die richtigen (im Sinne von gesellschaftlich vertretbaren und nützlichen) Bahnen zu lenken. Dies kann aber nur auf der Basis eines allgemeinen Verständnisses der grundlegenden Zusammenhänge, die dieses neue Medium steuern und vorantreiben, geschehen.
In diesem Sinne bemüht sich dieser Teil um eine möglichst wertungsfreie Analyse des Internet. Mir erschien dabei eine Annäherung über die historische Entwicklung an diese komplexe Materie der einzig gangbare Weg. Dieser Text wendet sich gleichermassen an vollkommene Neueinsteiger, als auch an jene, die schon erste Erfahrungen im Internet sammeln konnten. Ich hoffe, dass einige Schlagworte nach der Lektüre dieses Textes verständlicher erscheinen.
Für weitergehende Fragen zum Thema sei immer wieder das Internet selbst empfohlen.
Anfang der 60er Jahre machte sich eine der Denkfabriken des "Kalten Krieges", die "RAND Corporation" in den USA Gedanken über ein strategisches Problem: Wie sollten die US - Machtinhaber, - Behörden und - Militärs nach einem Nuklearkrieg untereinander die Kommunikation aufrecht erhalten?
Ein atomar verwüstetes Amerika würde ein Kommando- und Steuerungsnetzwerk benötigen, das alle Städte und Staaten, sowie alle militärischen Stützpunkte miteinander verbindet. Wie schwer auch die Verwüstungen (auch des Netzes selber) gewesen wären, die funktionsfähigen Teile sollten nach wie vor in der Lage sein, untereinander zu kommunizieren.
Wie aber sollte dieses Netzwerk selbst gesteuert werden? Jede zentrale Behörde oder jede zentrale technische Einheit würde naturgemäss das Risiko des Ausfalls in sich tragen, egal wie gut sie geschützt wäre. Sie wäre selbst wahrscheinlich ein bevorzugtes Ziel gegnerischer Angriffe geworden. Unter höchster militärischer Geheimhaltung begann die "RAND Corporation" - vermutlich im Jahre 1962 - damit, dieses Problem zu untersuchen. Die von Paul Baran (ein damaliger Mitarbeiter der RAND Corporation) erarbeiteten Lösungsvorschläge wurden erstmalig 1964 veröffentlicht. Das wichtigste daran waren zwei Punkte:
1. Das Netzwerk sollte keine zentrale Steuerung und damit auch keine zentrale
Autorität erhalten.
2. Das Netzwerk sollte von Beginn an so ausgebildet werden, dass schon kleinste
Komponenten komplett funktionsfähig wären.
Die Prinzipien waren einfach. Das Netzwerk selbst musste dafür Sorge tragen, dass es zuverlässig arbeitete. Alle Knotenpunkte des Netzes mussten daher denselben Status im Netz haben, jeder Knoten ausgestattet mit seiner eigenen Berechtigung, Nachrichten zu erzeugen, zu empfangen und zu übertragen. Die Nachrichten selbst sollten in einzelne Pakete unterteilt werden, wobei jedes Paket einzeln mit Absender und Adressat versehen werden sollte. Das hatte den Vorteil, dass bei Ausfall einzelner Pakete nur diese und nicht die gesamte Nachricht wiederholt werden musste. Jedes Paket wurde an einem Startknoten in das Netz eingebracht und an einem Zielknoten entgegengenommen. Jedes Paket sollte einem individuellen Weg durch das Netz folgen können.
Die genaue Route eines Pakets war also vollkommen unwichtig, wichtig war ausschliesslich, dass das Paket am Zielort eintreffen würde. Jedes Paket wurde also, ähnlich eines Wassereimers in einer Menschenkette, von Knoten zu Knoten weitergereicht, immer in die ungefähre Richtung des Zieles, bis es am genauen Zielpunkt angekommen war. Auch wenn grosse Teile des Netzes ausgefallen wären, sollte dieses Prinzip nach wie vor funktionieren, solange der Empfänger nur überhaupt noch irgendwie Kontakt zum Netz hätte, da immer nur direkte Nachbarn miteinander kommunizierten. Dieses System erscheint zwar sehr ineffizient, da Kriterien, wie Laufzeiten der Pakete oder Dauer der gesamten Nachrichtenübermittlung nicht berücksichtigt wurden, aber es war und ist im höchsten Masse ausfallsicher.
In den 60er Jahren wurde dieses Konzept ohne wirklichen Fortschritt zwischen RAND, MIT und UCLA herumgereicht, aber das erste kleine Testnetz, das wirklich auf diesen Grundlagen realisiert wurde, stand in Grossbritannien. 1968 wurde es vom dortigen National Physical Laboratory in Betrieb genommen. Aber nur kurze Zeit später entschied das Pentagon, ein wesentlich grösseres Projekt in den USA zu realisieren. Als Knoten sollten seltene und sehr teure Hochgeschwindigkeits-Supercomputer eingesetzt werden (oder was man damals dafür hielt).
Im Frühjahr 1969 wurde der erste dieser Computer in der kalifornischen Universität installiert. Im Dezember waren dann schon 4 Universitäten mit so einem Knotenrechner ausgestattet und über schnelle Datenleitungen miteinander verbunden. Die Advanced Research Projects Agency war federführend bei dem Aufbau und gleichzeitig Namensgeber des Netzes: das ARPA-Net war geboren. Mit Hilfe des ARPA-Netzes waren die Wissenschaftler in der Lage, Computerdaten und -programme auf fremden Rechnern über weite Entfernungen direkt zu nutzen und diese Rechner Ihren Wünschen entsprechend zu steuern. Dieses Netz entwickelte sich schnell weiter, so dass 1972 bereits 37 Knoten existierten und man stellte fest, dass es hervorragend funktionierte. Ebenfalls 1972 verschärfte das Pentagon die Zugangskontrollen zum Netz. Um dieses auch nach aussen zu demonstrieren, wurde es zusätzlich umbenannt. Es entstand das "DARPA-Net", wobei das "D" für "Defense" stand. Heute wird trotzdem auch für den Zeitraum nach 1972 oftmals vom ARPA-Net gesprochen.
Bereits im zweiten Jahr hatte sich gezeigt, dass sich das ARPA-Net zu einer staatlich subventionierten elektronischen Post entwickelt hatte. Der hauptsächliche Datenverkehr entstand nicht durch das Fernbedienen von Computern, sondern durch den Austausch von Neuigkeiten und persönlichen Nachrichten. Die Forscher nutzten das ARPA-Net, um Projekte abzusprechen, um Erfahrungen auszutauschen und vielleicht auch, um den einen oder anderen Witz zu verbreiten. Die Leute hatten ihren persönlichen Netzzugang und ihre persönliche Adresse für ihre elektronische Post. Sie nutzten das Netz zwar nicht ausschliesslich zu diesem Zweck, aber sie waren geradezu enthusiastisch über die ihnen dadurch entstandenen Möglichkeiten; wesentlich enthusiastischer jedenfalls, als über die Möglichkeit der Fernbedienbarkeit von Computern. So hatte man die ersten sog. "Mailing-Listen" entwickelt; eine Technik des Rundsendens im Netz, bei der dieselbe Nachricht an alle Abonnenten einer solchen Liste verschickt wurde. Das mussten nicht zwangsläufig beruflich bezogene Listen sein. Bezeichnenderweise entstand eine der ersten wirklich grossen Mailinglisten im ARPA-Net als Zusammenschluss der SF-Fans im Netz und trug den Namen "SF-LOVERS". Die Netzadministratoren der einzelnen Knotenrechner verfolgten das Geschehen zwar eher skeptisch, konnten es letztendlich aber nicht verhindern.
In den 70er Jahren wuchs das Netz beständig. Teils in Form des DARPA-Netzes und teilweise in Form des neuen "CSNET" (Computer Science Research Network), das von den US-Universitäten ab 1973 parallel aufgebaut wurde, da durch die restriktiven Zugangskontrollen der Militärs zum DARPA-Net die Möglichkeiten der Wissenschaftler stark eingeschränkt wurden. Es gab allerdings viele Verbindungen zwischen den beiden Netzen (Die Wissenschaftler nutzten einfach die damals enormen übertragungskapazitäten des DARPA-Net mit!) . Die dezentrale Struktur des Netzes machte eine Erweiterung sehr einfach. Solange neu hinzukommende Maschinen nur die paketorientierte "Sprache" dieses neuen "anarchischen" Netzwerks beherrschten, war es gleichgültig, wem sie gehörten, welchen Inhalt sie hatten, oder wie ihr Name war.
Die ursprünglich entwickelte "Sprache", das Protokoll, mit dem sich zwei Nachbarknoten unterhalten, wurde NCP genannt, "Network Control Protocol". Doch bereits 1972 hatte sich die INTER-Network Working Group formiert, um auf der Grundlage von NCP ein gemeinsames Protokoll zu erstellen, dass die Datenübertragung zwischen unterschiedlichsten Hardware-Plattformen und vor allem zwischen autonomen Netzen ermöglichen sollte. Es entstand ein befriedigenderer Standard, der bekannt wurde unter dem Namen: TCP/IP. TCP, oder "Transmission Control Protocol", beschreibt, wie Nachrichten in Pakete zerlegt werden und am Ziel wieder zur Originalnachricht zusammengesetzt werden können. IP, oder "Internet Protocol", wird benötigt, um die Pakete zu adressieren, damit sie über diverse Knoten oder auch Netzwerke mit verschiedensten übertragungsstandards (also nicht nur DARPA's NCP, sondern auch andere, wie z.B.: Ethernet, X.25,...) ihren Weg (ihre Route) finden.
Ab 1977 wurde nur noch TCP/IP benutzt, um andere Netzwerke mit dem DARPA-Net und untereinander zu verbinden. Das DARPA-Net blieb bis 1983 unter strengster Pentagon-Kontrolle, dann wurde der militärische Bereich komplett aus dem Netz entfernt und als autonomes MILNET weitergeführt. Gleichzeitig wurde das ARPA-Net auch intern auf das TCP/IP-Protokoll umgestellt. Um das ARPA-Net herum wuchs eine immer grössere Anzahl an neuen Netzmitgliedern (und natürlich auch Netzen) heran, die die ursprüngliche Bedeutung dieses Ur-Netzes mit der Zeit immer mehr relativierten.
Im Laufe der 70er und noch mehr im Laufe der 80er Jahre erhielten immer mehr unterschiedliche Gesellschaftsgruppen Zugang zu leistungsfähigen Computern. Die Netzgemeinde war nicht mehr auf Militärs, Regierung und Universitäten beschränkt. Es wurde schliesslich immer einfacher, diese Computer an das ständig wachsende "Netz der Netze" anzuschliessen. Durch die zunehmende Verbreitung von TCP/IP kamen immer mehr Netze an "das Internet" heran, indem Datenleitungen von bisher autonomen Netzen zu bereits im Internet integrierten Netzknoten geschaltet wurden, wodurch die darin enthaltenen Netzknoten ihrerseits wiederum zu Internet-Netzknoten wurden. Da die Software (also das Programm), die das Protokoll TCP/IP realisierte, sog. "Public-Domain" war, also für jedermann gegen Zahlung von marginalen Beträgen zu erwerben war, und die physikalische Struktur des Netzes von Natur aus dezentral ist, war es schwierig, die Leute davon abzuhalten, sich an jeder beliebigen Stelle in das Netz "einzuklinken". Eigentlich wollte das auch niemand. So wuchs also ein vollkommen chaotischer Verbund von unterschiedlichsten lokalen Netzwerken aus der ganzen Welt zu etwas zusammen, das dann unter dem Namen "Internet" bekannt wurde.
1984 begann die National Science Foundation, einen Nachfolger für das vollkommen überlastete ARPA-Net aufzubauen. Das NSF-Net hatte grössere und schnellere Knotenrechner, mehr und schnellere Datenleitungen und wurde permanent aus- und umgebaut. So hatte man bereits 1986 ein (in den USA) flächendeckendes Netz aufgebaut, in dem die Netzknoten mit 56kbit/sec miteinander kommunizierten. Dieses Netz wurde bekannt als "das Internet-Backbone".Im Jahre 1990 wurde dann endgültig das Ende des ARPA-Net verkündet (Wobei das NSF-Net natürlich weitergeführt wurde). Andere Organisationen schlossen sich dem NSF-Net an, oder bauten eigene Netze auf, so z.B. die NASA, die amerikanische Gesundheitsbehörde, usw....
Die Masse der Netze und Knoten wurde schnell unüberschaubar und man versuchte, die Netze nach ihrer geographischen Zugehörigkeit mit Namen zu unterteilen, so steht z.B. das Kürzel "de" für Deutschland. Zusätzlich gründete man sechs Basisbereiche, die sog. "Domains": gov, mil, edu, com, org und net (solche Abkürzungen sind von Anfang an fester Bestandteil des TCP/IP Protokolls gewesen). Gov, mil und edu standen für die drei Pioniere des ARPA-Net: Government (Regierung), Military (Militär) und Education (Bildung/Universitäten). "Com" markierte den Bereich der Commercials, also der Wirtschaft, die explosionsartig und mit brutaler Gewalt das Netz expandierte. Die org-Domain blieb anderen Organisationen vorbehalten, die nicht auf Profitbasis arbeiteten. Mit "net" schliesslich wurden alle Computer bezeichnet, die als "Gateways", also als Zugang zu anderen Netzen fungierten. Um die Verwendung weiter unterteilender Domain-Namen zu ermöglichen, wurden weltweit diverse sog. "DNS-Server" aufgebaut, die die Zuordnung von Namen zu Netz-(IP-)nummern ermöglichten.
Einen ungeheuren Wachstumsschub bekam das Internet durch die Entwicklung des "World Wide Web" in den Jahren 1989/1990. Durch eine abstrakte Seitenbeschreibung konnte man ein relativ einheitliches Erscheinungsbild der gleichen Seite auf unterschiedlichen Rechnern erreichen. Mit der Entwicklung und Verbreitung sog. "Browser-Software" zur Anzeige dieser sowohl Text als auch Grafik enthaltenden Seiten, war der Siegeszug des WWW nicht mehr aufzuhalten. Zusätzlich können diese Seiten "Hyperlinks" enthalten, die auf andere WWW-Seiten verweisen und diese durch Anklicken mit der Maus dem Benutzer direkt verfügbar machen.
Heutzutage geht man von mehreren hunderttausend Knotenrechnern im Netz aus und die Nutzerzahl hat zweistellige Millionenbeträge erreicht. Schätzungen gehen z. Z. von 40 Millionen Usern aus. Jede Angabe muss dabei aber pure Schätzung bleiben, da auf Grund seiner dezentralen Struktur nirgendwo im Netz erfasst werden kann, welche Knoten wo in diesem gigantischen Netzwerk aufgebaut wurden und wieviele User dann auf ihnen arbeiten (Zumal sich diese Angaben vermutlich auch noch im Sekundentakt ändern!).
Die Wachstumsraten des Internet sind beeindruckend. 1991 z.B. wuchs das Netz um 20% MONATLICH. Von 1988 bis 1992 verdoppelte sich die Anzahl der Netzknoten jedes Jahr. Inzwischen hat das Internet lange den traditionellen Bereich der Hochschulen verlassen und ist auf immer breiterer Basis allgemein verfügbar.
Das Internet ist natürlich nach wie vor besonders beliebt bei Forschern und Computertechnikern, da es auf Grund seiner Geschichte diesen beiden Gruppen besonders viel Nutzen bringt. Wahrscheinlich ist das Netz mindestens unterstützend, wenn nicht gar ursächlich verantwortlich für die immer kürzer werdenden Innovationszyklen in Wissenschaft und Industrie, da neue Erkenntnisse, sobald sie im Internet veröffentlicht werden, praktisch sofort Jedem zu Verfügung stehen und somit oftmals Fehl- und Doppelentwicklungen verhindert werden können.
Faszinierend ist mit Sicherheit auch die absolute Freiheit im Netz. Das Internet ist ein Beispiel einer wirklich funktionierenden Anarchie. Es gibt keine Firma "Internet GmbH", es gibt keine Aktionäre und keine Zensoren. Trotz aller gegenteiliger Bemühungen ist das Internet nach wie vor frei von jeglicher staatlicher Reglementierung. Prinzipiell kann Jeder mit jedem Mitglied der Netzgemeinde beliebige Nachrichten austauschen, solange er sich nur an die Regeln der Protokolle TCP/IP hält. Diese Regeln sind allerdings vollkommen technikbasierend und berücksichtigen in keiner Weise soziale, ökonomische oder politische Belange. (Anfänglich gab es grosse Diskussionen im Netz darüber, ob Wirtschaftsunternehmen ihre Geschäfte überhaupt über das Internet abwickeln durften, oder ob man ihnen den Zugang verwehren sollte. Die Unternehmen beendeten diese Diskussion, indem sie ihre eigene Infrastuktur aufbauten) Das Internet ist eine Institution, die keiner Institutionalisierung unterliegt.
Zusätzlich ist es unmöglich, entfernungsabhängige Entgelte zu erheben, bedingt durch das Prinzip des Netzes, dass nur direkte Nachbarn miteinander kommunizieren und der Weg eines Datenpaketes nicht klar definiert ist. D.h., egal an welchem Punkt oder über welche Institution jemand an das Internet angeschlossen ist, kostet es ihn dasselbe Geld, eine Nachricht an IBM Deutschland zu schicken oder dieselbe Nachricht an die IBM-Zentrale in den USA zu senden. Jeder Anbieter ("Provider") von Internetzugängen kalkuliert immer nur seinen eigenen, lokalen Bereich und entwickelt daraus seine eigene Gebührenstruktur.
Trotz dieser Freiheiten verfolgt natürlich jede Organisation mit dem und im Internet ihre eigenen Interessen. Geschäftsleute wollen das Internet professioneller im ökonomischen Sinne betrieben sehen, staatliche Stellen wollen mehr Kontrolle ausüben, Forscher möchten gerne wieder zurück zum rein wissenschaftlichen Forschungsnetz, Militärs wollen noch mehr Kontrolle und Sicherheit im Netz, usw., usw...
Diese ganzen sich teilweise wiedersprechenden Interessenlagen ergeben heute eine empfindliche Balance, so dass das Internet noch in seinem "anarchischen" Zustand verbleibt. Eine Zeitlang dominierte bereits das NFS-Net mit seinem riesigen High-Tech-Park die Szene, doch nachdem andere Institutionen ähnliche oder noch grössere und noch schnellere Netze aufbauten, entstanden jede Menge "Backbones", so dass der Einfluss von NFS zurückging. Heute kann jeder mit relativ geringem Aufwand einen vollwertigen Internet-Knoten aufbauen. Den Rechner, der dazu benötigt wird, kann er dabei unter dem Arm von einem Ort zum anderen tragen. Mittlerweile gewinnen aber wirtschaftliche Interessen im Netz immer mehr die Oberhand, da immer mehr Unternehmen das Internet nicht nur als Kommunikationsplattform nutzen, sondern auch direkt mit dem Netz Geld verdienen wollen.
Obwohl immer von "dem Internet" gesprochen wird, ist es auch in der möglichen Nutzungsweise in keinem Fall ein homogenes Ganzes. Die Dienste, die über das Internet genutzt werden können, sind ähnlich unterschiedlich, wie die geographische Struktur des Netztes. Hier einige Beispiele:
E-Mail: Die elektronische Post im Internet. Jeder hat im Internet eine eindeutige Mail-Adresse. Darüber kann er für ihn auf einem Netzknoten hinterlegte Post abholen, bzw. dort oder bei jedem anderen Netzknoten Post für andere abliefern. So ist es möglich, weltweit persönliche Nachrichten zu übermitteln, wobei die Zustellgeschwindigkeit nur von der Abfragehäufigkeit des Empfängers bestimmt wird. Dadurch ist sie in vielen Belangen der traditionellen Briefpost weit überlegen.
Mailing-Listen: Bedienen sich der E-Mail-Technik. Internetnutzer mit gleichen Interessen lassen sich in entsprechende Mailinglisten eintragen. E-Mails zu diesem Thema werden dann nur noch an eine Adresse gesendet, ein Rechner übernimmt dann die Verteilung der Nachricht an alle in der Liste eingetragenen Empfänger.
News: Auch bezeichnet als "Usenet". Auch hier wird eine Nachricht in Form einer E-Mail an eine zentrale Stelle gesandt, hier die "News-Group". Im Unterschied zu Mailinglisten, wo Interessenten eingetragen sind und dann zwangsläufig jede Nachricht der Liste übermittelt bekommen, kann hier jeder den Inhalt der News-Gruppe vor übermittlung sichten und nur ihm wirklich interessant erscheinende Nachrichten abrufen. So ist es in einer News-Group ausreichend, einfach nicht die Gruppe aufzusuchen (z.B. bei Urlaub, etc.) und der eigene Rechner wird nicht mit ungelesenen Nachrichten belastet. Bei Mailing-Listen ist hier eine Nachricht an den entsprechenden Server nötig. Für die Zeit, in der man nicht Mitglied einer Mailingliste ist, bekommt man entsprechend auch keine Nachrichten, während News-Groups auch später noch eingesehen werden können.
File Transfer: Spezieller Dienst, dessen Protokoll geschwindigkeitsoptimiert arbeitet, um auch die übertragung grosser Dateien im Internet in annehmbarer Zeit zu ermöglichen.
Telnet: Einer der Dienste, für die das Konzept des Internet ursprünglich entwickelt wurde, ermöglicht das Fernbedienen von fremden Rechnern.
World Wide Web: Ein passiver Dienst auf grafischer Basis zur Informationsabfrage. Der besondere Reiz des Web liegt in seiner abstrakten Seitenbeschreibungssprache, die es ermöglicht, mit einfachen Befehlen Text, Grafik und sog. "Hyperlinks" auf einer B....
http://www.bbs-varel.de/internet.htm