Glossar
ALLGEMEIN

Internet

INHALT

Definition und Abgrenzung

Der Begriff Internet wird heutzutage umgangssprachlich als Oberbegriff für eine Vielzahl unterschiedlicher Technologien, Dienste, (Unterhaltungs-) Angebote, soziale Netzwerke und vieles anderes mehr verwendet. Ursprünglich wurde der Begriff ausschließlich für die technische Basis dessen benutzt, was heute unter dem Begriff Internet subsumiert wird. Internet oder Internetworking meint(e) die Verbindung unabhängiger und autonom betriebener Rechner oder Rechnernetze mithilfe standardisierter Protokolle, d. h. das Internet in seiner ursprünglichen Definition ist ein Netz von autonomen Netzen.

Geschichte

Die Geschichte des Internets geht zurück in die 1960er-Jahre [1]. In dieser Zeit waren das Time-Sharing von Computern, d. h. die gleichzeitige Nutzung eines Rechners durch mehrere Personen, sowie der Wechsel von der leitungsvermittelten Kommunikation hin zur Paketvermittlung Themen im wissenschaftlichen Diskurs. Das amerikanische Verteidigungsministerium mit seiner militärischen Forschungsagentur Defense Advanced Research Projects Agency (DARPA) förderte diese beiden Forschungsthemen. In den Jahren 1966/67 begann die Förderung des Netzprojektes „Advanced Research Projects Agency Network“ (ARPANET).

Die Entwicklung des ARPANET muss aber auch vor dem Hintergrund des Kalten Krieges betrachtet werden. Laut dem stellvertretenden ARPA-Direktor Stephen Lukasik wurde das ARPANET auch gefördert, um den Erfordernissen der militärischen Führung und der Kontrolle nuklearer Bedrohungen gerecht zu werden [und] eine überlebensfähige Kontrolle der US-Kernstreitkräfte zu erreichen [2]. Die Stabilität und Resilienz des Netzes war ein wichtiges Designkriterium. Das Netz wurde auch entwickelt, um Ausfälle in großen (Teil-) Netzen überstehen und die Unzuverlässigkeit von Knoten und Netzverbindungen kompensieren zu können.

In dieser frühen Phase wurde auch bereits die leitungsvermittelte versus die paketvermittelnde Kommunikation für das ARPANET diskutiert. Im ersten Fall sollten alle Mainframe-Rechner direkt über Leitungen miteinander verbunden werden. Beim paketvermittelnden Ansatz sollten Nachrichten, bzw. Pakete, zwischen den Rechnern ausgetauscht werden. Zu diesem Zweck wurden paketvermittelnde Knoten, die sogenannten Interface Message Processors (IMPs), eingeführt, die einzelne Rechner oder ganze Netze mit dem ARPANET verbinden sollten. In den frühen Phasen des ARPANET, als das Netz noch aus wenigen Knoten bestand (s. Abbildung 1), wäre ein Schalten dedizierter Leitungen zwischen den Rechenknoten möglich gewesen. Aber erst die Technik der Paketvermittlung und die Einführung spezialisierter Vermittlungsrechner – die IMPs der frühen Phase wurden später als Router bezeichnet – ermöglichten das extreme Wachstum, die Skalierbarkeit, die Robustheit und damit letztendlich den Erfolg des modernen Internets.

Abbildung 1: Netztopologie des ARPANET im Dezember 1972 [3]

Die Kommunikationsnetze zu dieser Zeit waren proprietär und abhängig vom Hersteller der entsprechenden Rechner. Um diese heterogenen Netze zu koppeln, war es erforderlich, sich auf einen einheitlichen Satz von Regeln und Datenstrukturen zu einigen, die als Protokolle bezeichnet werden.

Die Spezifikationen dieser Protokolle und Technologien wurden als sogenannte RFCs (Request for Comments, dt. Bitte um Kommentare) veröffentlicht, zur Diskussion gestellt und einem Peer-Review der Community unterworfen. Dieses Verfahren demokratisierte die Entwicklung, diente dazu, die Protokolle zu verbessern, und sollte dazu führen, dass die beste Lösung gemeinsam entwickelt würde. Dieser Ansatz war ganz bewusst als Abgrenzung des klassischen Standardisierungsprozesses durch schwerfällige Standardisierungsorganisationen zu verstehen. Bis heute kann jeder an diesem Prozess teilhaben und einen RFC veröffentlichen. Der RFC mit der Nummer 1 wurde von Stephen D. Crocker im April 1969 publiziert [4] und bis heute (2021) sind mehr als 9.000 RFCs veröffentlicht worden. Häufig wurde von den Autoren mit dem RFC auch eine Referenzimplementierung des entsprechenden Protokolls veröffentlicht. Dadurch war es auf einfache Weise möglich, das entsprechende Protokoll für den eigenen Rechner zu verwenden, und auch dies hat zum Erfolg der Internet-Protokolle beigetragen.

Die wichtigsten und namensgebenden Internet-Protokolle TCP, IP und UDP wurden in dieser Zeit erstmals veröffentlicht. Vinton Cerf veröffentlichte 1974 das Internet Transmission Control Protocol (TCP, [5]) und gilt deshalb als einer der „Väter des Internets“. TCP ist ein Protokoll für die IMPs, das eine zuverlässige Ende-zu-Ende-Verbindung zwischen beliebigen Knoten auf einem paketvermittelten Netz realisierte. Mit dem User Datagram Protocol (UDP, [6]) wurde ein verbindungsloser und ungesicherter Datenaustausch definiert. Im September 1981 veröffentlichte die DARPA mit dem Internet Protocol (IP, [7]) ein Protokoll, das die verbindungslose, paketorientierte und nicht garantierte Übertragung von Datenpaketen (auch als Datagramme bezeichnet) von einem Sender über mehrere Netze hinweg zu einem Empfänger ermöglicht. Bereits mit diesem RFC wurde das Grundprinzip des heute immer noch gültigen Adressierungsschemas des Internets eingeführt.

Anfang der 1980er-Jahre wurden universitäre Netze etabliert: BITNET (Because It’s Time NETwork) und CSNET (Computer Science Network) im Jahr 1981, EUnet (European Unix Network) kurz darauf 1982. In demselben Jahr erklärten ARPA und das Verteidigungsministerium (Department of Defense, DoD) TCP/IP zu Standardprotokollen in ihren Netzen. Dies führte zur ersten Definition des Begriffs Internet, einerseits aufgrund der (Internet-) Protokollfamilie TCP/IP, andererseits wegen der Verbindung zwischen den autonomen Subnetzen durch ein verbindendes „Internet“.

1983 wurde das EARN (European Academic and Research Network) gegründet, das dem BITNET sehr ähnlich war, und das ARPANET in einen zivilen und einen militärischen Teil (MILNET) aufgespalten. Im Jahr 1984 dann wurde das Domain Name System (DNS) spezifiziert, mit dessen Hilfe (Rechner-) Namen in IP-Adressen (und umgekehrt) übersetzt werden können. Damit war es nicht mehr erforderlich, sich 32 Bit lange IP-Adressen zu merken, um einen Rechner zu adressieren. Die Rechner konnten nun mittels eines Namens adressiert werden. Für Menschen ist es deutlich einfacher, sich www.lrz.de zu merken anstatt 129.187.254.9 (oder im Fall von IPv6: 2001:4ca0:0:103::81bb:fe09). Und in demselben Jahr noch, 1984, wurde die Schwelle von 1.000 vernetzten Hosts (Rechnern) überschritten.

Das Münchner Wissenschaftsnetz und das Leibniz-Rechenzentrum (LRZ) wurden im Jahr 1985 an EARN und BITNET angeschlossen [8]. Damit war es erstmals möglich, einen E-Mail-Dienst zwischen Europa und den USA anzubieten. Im darauffolgenden Jahr wurde das Hochgeschwindigkeits-Backbone NSFNET der National Science Foundation (NSF) etabliert. Es verband fünf Supercomputing-Zentren in den USA mit der damals sagenhaften Geschwindigkeit von 56 kbps (Kilobit pro Sekunde). Ein durchschnittlicher DSL-Anschluss im Jahr 2021 hat eine Download-Geschwindigkeit von 136 Mbps [9], d. h. er ist um mehr als den Faktor 2000 schneller als das NSFNET des Jahres 1986. Im Folgejahr wurde dann die erste Verbindung zwischen China und Deutschland geschaltet und am 20. September 1987 die erste E-Mail von China nach Deutschland geschickt. 1989 überschritt die Zahl der Hosts die 100.000er-Marke.

1990 hörte das ARPANET auf zu existieren. Weltweit gab es Forschungsnetze, die miteinander verbunden waren, und diese bildeten das frühe Internet. 1991 hob die National Science Foundation (NSF) die Restriktionen für die kommerzielle Nutzung ihres Netzes auf, und die erste Firma, die davon profitierte, war Commercial Internet eXchange (CIX), die namensgebend wurde für sehr viele Internet-Knotenpunkte. Die Firma DeCIX, die einen der größten Internet-Austauschpunkte Europas in Frankfurt betreibt, hat das CIX im eigenen Firmennamen. Nur drei Jahre nach 1989 wurde 1992 die nächste Marke mit 1 Million Hosts erreicht.

Ab 1989 wurde von Tim Berners-Lee am Forschungszentrum CERN in der Nähe von Genf ein sogenanntes Hypertext-System und das Protokoll HTTP entwickelt sowie die Sprache HTML zur Darstellung elektronischer Dokumente. Das erste von Berners-Lee geschaffene Programm, um HTML anzuzeigen und Hypertext-Links zu folgen (heute als Browser bekannt), wurde von ihm als World Wide Web bezeichnet.

Das Münchner Wissenschaftsnetz wurde 1992 über das vom Deutschen Forschungsnetz Verein betriebene nationale Forschungsnetz (WIN) mit dem Internet verbunden [10].

1993 gab das Direktorium des CERN das World Wide Web kostenlos für die Öffentlichkeit frei, und damit begann der Boom des Internets, wie wir es heute kennen. In demselben Jahr wurde der erste grafikfähige Webbrowser Mosaik veröffentlicht. Auf Mosaik folgten viele weitere Browser und das World Wide Web wurde zur „Killerapplikation“ für das Internet. Die Anzahl der Nutzer ebenso wie die Zahl der angebotenen Webseiten stiegen rasant und die Kommerzialisierung des Internets begann deutlich Fahrt aufzunehmen. Im Juli 1995 etwa startete eine Webseite names Amazon und verkaufte weltweit Bücher über das Internet.

Jeglicher Inhalt im Web, also Webseiten, Dokumente etc., ist über sogenannte Uniform Ressource Locators (URLs) abrufbar. Die Informationen über neue, interessante Inhalte und URLs wurden geteilt oder in anderen Medien publiziert. Einen bestimmten Inhalt (wieder) zu finden konnte sich damit zu einer sehr zeitaufwendigen Aufgabe auswachsen. Dann wurde am 15. September 1997 eine Suchmaschine unter dem Namen Google online gestellt, und damit war es auf einfache Art und Weise möglich, das gesamte Internet zu durchsuchen.

Bis Anfang der 2000er-Jahre standen im Web wenige Anbieter, die (meist statische) Inhalte erzeugten, sehr vielen Nutzern gegenüber, die diese Inhalte „konsumierten“, man spricht auch von Web 1.0. Mit Web 2.0 änderte sich das dramatisch: Die Inhalte wurden dynamischer und plötzlich konnten Nutzer eigene Inhalte erzeugen und aktiv am Web teilhaben. Man spricht auch von Participatory Web oder Social Web. Exemplarisch wären hier Wikipedia (2001), Facebook (2004), YouTube (2005), Twitter (2006), Instagram (2012), TikTok (2016) und viele weitere zu nennen.

Anwendung und Beispiele

In Forschungseinrichtungen und Universitäten war zu Zeiten des ARPANET Unix als Betriebssystem für Rechner weitverbreitet und zeichnete sich dadurch aus, dass die Internet-Protokollfamilie integraler Teil des Betriebssystems war und deshalb einfach genutzt werden konnte. Die wichtigsten Anwendungen in den 1970er-Jahren waren die Übertragung von Dateien (File Transfer Protocol, FTP) zwischen Rechnern und das Versenden von Nachrichten und News. In Unix wurde dazu ein Programm mit dem Namen uucp (Unix-to-Unix copy) verwendet. Damit wurde dann das Usenet System, ein weltweit verteiltes System zur Diskussion beliebiger Themen, aufgebaut. Die Nutzer konnten damit Nachrichten (engl. posts oder news) schreiben, die von allen anderen gelesen und kommentiert werden konnten. Mithilfe thematischer und hierarchischer Gliederungen in Newsgroups erfolgte eine inhaltliche oder organisatorische Strukturierung. Die Newsgroups wurden als fachliche Diskussionsforen für verschiedenste Themen genutzt und stellten eine bedeutende Wissenssammlung dar.

Als das MWN ans EARN und später ans Internet angeschlossen wurde, waren die wichtigsten Internet-Dienste: E-Mail, News, File Transfer und Gopher. Gopher ist ein Protokoll, das 1991 entwickelt wurde und mit dem Dokumente über das Internet abgerufen werden konnten. Gopher wurde mit dem Aufkommen des World Wide Web völlig verdrängt und spielt heute keine Rolle mehr. Weltweit gesehen waren bis zum Anfang der 1990er-Jahre das File Transfer Protocol (FTP) und Telnet die am meisten genutzten Internet-Anwendungen. Telnet ist ein Protokoll, um sich auf einem entfernten Rechner anzumelden und dort Kommandos auszuführen. Beide Protokolle wurden 1994/95 in der Häufigkeit der Nutzung vom World Wide Web überholt. Damit begann auch der Wandel des Internets vom Netz der Forscher, Informatiker und Administratoren hin zu Web 2.0 sowie zur Kommerzialisierung und breiten Nutzung.

Die Internet-Protokollfamilie wurde als Basis für viele weitere Dienste und Anwendungen genutzt. Radiostationen begannen über das Internet zu „senden“. Selbst Dienste, die jahrzehntelang traditionell leitungsgebunden waren, nutzten das Internet und die Paketvermittlung. Ein Beispiel ist die klassische Telefonie. Mit ISDN wurde die analoge Telefonie zwar digitalisiert, aber für die Verbindung zwischen Anrufer und Angerufenem musste eine „Leitung“ geschaltet werden. Mit Protokollen für Voice over IP (VoIP) wurde mit der Leitungsvermittlung gebrochen und das Telefongespräch über paketvermittelte Netze wie das Internet ermöglicht. Damit müssen Internet- und Telefonie-Provider nicht zwei Infrastrukturen – für Internet und ISDN – parallel betreiben, sondern können eine Netzinfrastruktur – auf IP basierend – für beide bzw. beliebige Dienste nutzen. Diese Konvergenz der Netze spart sowohl Investitions- als auch Betriebskosten aufseiten der Provider.

Kritik und Probleme​​

Das ARPANET und die Basis des Internets wurden als offene Forschungsnetze konzipiert. Das Thema IT-Sicherheit spielte lange überhaupt keine Rolle, denn mithilfe des Internets kommunizierten Gleiche mit Gleichen und keiner wollte etwas Böses. Im Jahr 1988 führte der Student Robert T. Morris mit dem von ihm entwickelten Internet-Wurm schmerzlich vor Augen, wie verwundbar das Internet war. Innerhalb weniger Tage konnte der Wurm ca. 6.000 Hosts infizieren, das entsprach ca. 10 % des damaligen Internets. Als Folge davon wurden weltweit CERTs (Computer Emergency Response Teams) gegründet, das Thema Sicherheit rückte in den Fokus und wurde immer wichtiger.

Das Internet und die Protokolle sind eine gewachsene Infrastruktur, deren Basis bis in die 1970er-Jahre zurückreicht. Zur damaligen Zeit konnte sich niemand vorstellen, dass es einmal Milliarden von Rechnern oder internetfähigen Geräten geben könnte. So wurde beispielsweise zunächst ein Adressierungsschema mit 32 Bit langen Adressen festgelegt, bei dem maximal gut 4 Milliarden (232) Adressen vergeben werden konnten. Am 25.11.2019 wurde die letzte freie IPv4-Adresse vergeben [11]. Auch die Sicherheitsmechanismen im IP-Protokoll Version 4 (IPv4) waren allenfalls rudimentär vorhanden. Dies führte zur Entwicklung von IPv6 und einem teils erbitterten Streit, welches Protokoll das bessere oder überhaupt noch notwendig sei. Heute werden in sehr vielen Netzen beide Versionen parallel betrieben.

Fragen des Datenschutzes wurden immer wichtiger. Die Enthüllungen von Edward Snowden in den USA und die Klagen von Max Schrems gegen Facebook haben wie ein Katalysator auf diese Diskussion gewirkt. Die Einführung der EU-Datenschutzgrundverordnung, die verbindlich für alle Mitgliedsstaaten 2018 in Kraft getreten ist, versucht, ein einheitliches Datenschutzniveau für ganz Europa zu erreichen.

Seit Web 2.0 und der stark gestiegenen Nutzung von Social Media wurde es für Anbieter (und insbesondere für die Marketingindustrie) immer wichtiger, den Nutzenden Inhalte zu präsentieren, die möglichst gut auf sie zugeschnitten sind und ihre Interessen treffen. Dies führt zu Algorithmen, die dazu dienen, vorauszusagen, welche Informationen die Nutzenden sehen möchten. Dadurch besteht die Gefahr, dass Nutzende nur noch Informationen angezeigt bekommen, die ihrem Standpunkt entsprechen, und sie damit informationstechnisch isoliert werden. Man spricht hier auch von einer Filterblase, in der sich Nutzende im Web bewegen.

Forschung

Das Internet ist riesig, dementsprechend sind es auch die Forschungsfragen, die sich mit dem Internet beschäftigen. An dieser Stelle ist eine vollständige Aufzählung oder Klassifizierung unmöglich. Deshalb werden selektiv nur einige Forschungsgebiete als Schlagwörter aufgeführt:

  • Forschung zu Hardware, Netzkomponenten, Verkabelung, Übertragungstechniken, Mobilfunk, Funktechnologien
  • Protokolle
  • Hochgeschwindigkeitsnetze
  • Energieeffizienz
  • Autonome Systeme
  • Internet of Things, Smart Homes
  • Standardisierung
  • IT-Management, Prozessorientiertes Management
  • Self-X: Self-Healing, Self-Operation, Self-Management etc.
  • IT- und Netzsicherheit
  • Robustheit und Resilienz
  • Automation
  • Weiterentwicklung des Netzes: Green-Slate-Ansatz versus evolutionäre Forschung
  • und vieles andere mehr
AUTOR
Prof. Dr. Helmut Reiser

Weitere Beiträge

Glossar: Open Data

Erfahren Sie im Glossar-Artikel von Daniel Schnurr mehr über Open Data.

Alle Glossar-Beiträge

NEWSLETTER

Neuigkeiten zur digitalen Transformation

Jetzt abonnieren
2021-12-15T17:54:34+01:00
Nach oben