Das Soros-Netzwerk


Handelt es sich bei der Finanzkrise um ein Marktversagen oder Politikversagen oder um beides?

Fallstudie zur Ethik in Wissenschaft, Wirtschaft, Technik und Gesellschaft


Ein Authentifizierungsverfahren wird primär danach bewertet wie zuverlässig es bei der Identitätsfeststellung ist. Es gibt verschiedene Ansätze die Authentifizierung durchzuführen.

Die einfachste sind Passwörter. Die Entscheidung ob das Recht gewährt wird oder nicht wird anhand von Richtlinien policies gefällt. Es dürfen keine Personen authorisiert werden, die eigentlich keinen Zugang haben sollen.

Auf der anderen Seite darf der Zugang auch nicht berechtigten Personen verwehrt werden. Dies ist dann meist auf widersprüchliche oder sich überschneidene Richtlinien zurückzuführen. Die policies müssen also eindeutig und klar gewählt und umgesetzt werden. Es gibt durchaus auch dezentralisierte Modelle, die sich besonderns für ad-hoc Netzwerke eignen.

Diese kennt unter Umständen Informationen die der Dienstanbieter nicht kennt und wird deswegen in den Vorgang eingebunden. Dies können zum Beispiel Daten und der Server auf dem die Daten liegen sein [7]. Authorisierungsmethoden Es gibt verschiedene Methoden für den Authorisationsvorgang: Diese werden im folgenden vorgestellt [7]: Dieser stellt dann den Dienst zur Verfügung.

Das Bild veranschaulicht die Authorisation mit der pull-methode: Die Schritte im einzelnen: Diese Daten dienen dazu bei gebührenpflichtigen Diensten den Nutzern korrekte Rechnungen zu stellen, Trends aufzuzeigen und so Vorhersagen zu ermöglichen, um die Kapazitäten zu planen, Fehler und Ausfälle aufzudecken und die eigenen Kosten zu erfahren. Man kann das Accounting in zwei Bereiche unterteilen: Zum einen in das Intra Domain Accounting, das innerhalb administrativer Grenzen liegt und das Inter Domain Accounting, das administrative Grenzen überschreitet, wobei letzteres ein lohnenderes und anfälligeres Ziel für Angriffe und Betrugsversuche ist.

Deshalb ist eine Robustheit gegen eine mittlere Packetverlustrate im intra-domain Fall und gegen eine hohe Packetverlustrate im inter-domain Fall ausreichend. Bei letzterem spielen die gesammelten Daten keine Rolle. Die Abrechnung erfolgt hier nicht über das in Anspruch genommenen Datentransfervolumen, sondern meist durch eine logische Unterteilung.

Ein Beispiel wäre hier eine Flatrate bei der im Monat ein feststehender Betrag berechnet wird-unabhängig davon wieviel Datenverkehr von dem Nutzer in Anspruch genommen wurde und wie lange oder oft er mit dem Netz verbunden war. Ein weiteres Beispiel wäre video-on-demand oder ähnliches bei dem das Produkt nicht der Datentransfer, sondern der komplette digitale Film ist. Bei usage-sensitive billing wird die Datenmenge oder Zeit gemessen, die der Nutzer transferiert hat beziehungsweise den Dienst in Anspruch genommen hat.

In der Praxis wird ein archivierender und verzögender Ansatz gewählt um das finanzielle Risiko zu minimieren, da man hier mehr Reaktionszeit und eine finanzielle Einlage hat [3] Buchführung Die Daten werden auch zur Buchhaltung des Dienstleisters genutzt.

Sie müssen somit korrekt sein, um tatsächlich entstandene Kosten und Einnahmen beziehungsweise einzufordernde Gebühren zu berechnen. Fehlertoleranz, Resourcenbedarf und das Modell, nach dem Daten gesammelt werden.

Typische Gründe für ein Versagen der Abrechnung sind: Packetverluste, Netzwerk-und Serverausfälle und Neustarts der Hardware. Die Möglichkeiten diesen Fehlerquellen zu begegnen sind die gleichen, die aus den entsprechenden Dokumenten oder Vorlesungen zu Netzwerken allgemein ersichtlich sind.

Die Abrechnung des Resourcenverbrauchs verbraucht selber Resourcen. Es gibt verschiedene Modelle zur Datensammlung. Vier davon sind polling, event driven no batching, event driven with batching und event driven with polling. Bei event driven no batching schickt die Messtelle sobald sie Daten zum senden hat. Quasi als Weiterentwicklung gibt es dann event driven with batching. Bei diesem Verfahren warten die Messtellen bis ein bestimmtes Datenvolumen sich angehäuft hat und schickt es dann gebündelt an den Accounting Manager.

Bei event driven with polling wartet der Accounting Manager auf ein bestimmtes Ereignis. Tritt dieses ein, so wird eine Sendeaufforderung an die Messtelle bezeihungsweise Messtellen gesendet. Ereignisse können beispielsweise das Eintreten einer günstigen Netzauslastung oder eine Datenaktualisierung beim Accounting Manager sein. Messtellen können ein Ereignis senden, wenn zum Beispiel eine gewisse Zeit überschritten wurde oder ein Packet bereit liegt.

Der Accounting Manager entscheidet dann, wann er die Messtelle zum Senden auffordert [10]. Der Nutzer möchte einen Dienst nutzen. Ist der Server für den Dienstleister nicht zuständig, so leitet der Server die Anfrage weiter. Ist der Nutzer authorisiert schickt der Server eine Nachricht Access Accept Resonse , sowie Konfigurationsdaten an den Dienstleister, der dann den Nutzer benachrichtigt sobald der Dienst zur Verfügung steht.

Implementiert ist der Identifier meist als ein einfacher Zähler. Ihre Anzahl ist freiwählbar, jedoch sind der Name und das Passwort des Nutzers unumgänglich. Dies kann sich durch die Anzahl der Attribute ändern [18]. Dem Client werden dabei Passwort und Name des Nutzer übermittelt. In Authenticator-Feld wird ein zufälliger 16 x 8 Bit String geschrieben.

Das Packet bleibt bis auf das Passwort ungesichert. Wenn dies nicht so ist wird das Packet ohne Benachrichtigung verworfen. Sollte der Server ein Shared Secret haben, so benutzt er dieses um das Passwort in Klartext zu übersetzen.

Beide Packete unterscheiden sich lediglich im Codefeld. Der Indentifier ist der gleiche wie bei dem Access-Request Packet. Sobald der Client das Packet erhält vergleicht er den Identifier mit den Identifieren, die zu bis dato ausgebliebenen Packeten gehören. Steht keine Antwort mit dem angegebenen Identifier aus, so wird das Packet stillschweigend verworfen. Der Response- Authenticator wird durch den Client mit demselben Verfahren wie beim Server erstellt und mit dem angekommenen verglichen.

Bei Gleichheit wird die Antwort ausgewertet und der Nutzer bekommt die Antwort und wird authentifiziert beziehungsweise zurückgewiesen. Es werden zwei Weiterleitungsmethoden unterstützt: Hier werden die Daten einfach von einem Knoten zum nächsten weitergeschickt. Ein AVP besteht aus drei Hauptfeldern: Jegliche Daten werden in dieser Form versendet. Jeder Knoten kann eine Anfrage oder Anforderung an einen anderen Knoten senden.

Es definiert allerdings kein eigentliches Protokoll, das benutzt wird. Eine SA ist eine Absprache zwischen zwei Kommunikationspartnern welche Verfahren benutzt werden um die Sicherheit beim Datentransfer zu gewährleisten. Viele Sicherheitsprotokolle sind nicht in der Lage sich selbst einzurichten und zu starten. Es kann eingesetzt werden, um eine IPSec gesicherte Verbindung aufzubauen. Der Prozess beinhaltet challenge-response-paare, die für jedes Authentifizierungsprotokoll spezifisch ist.

Als Beispiel für ein solches Authentifizierungsprotokoll werden wir im nächsten Abschnitt Kerberos vorstellen. Der Datenverkehr der Authentifizierung findet dann in der zusätzlichen Sicherheitsschicht statt und aller nachfolgende Kommunikation findet verschlüsselt statt. Zum anderen ist Kerberos ein Netzwerkauthentifizierungs-und authorisierungsprotokoll, das an dem MIT Massachusetts Institute of Technology entwickelt wurde.

Es ist frei und sogar als Quellcode erhältlich; es gibt allerdings auch zahlreiche kommerzielle Varianten. Kerberos geht von folgenden Annahmen aus: Dieses kann Tickets austellen, welche zur Benutzung eines bestimmten Dienstes berechtigen. Sie gelten aber nur für einen Dienstleister und einen Dienst und sind zeitlich begrenzt. Schlüssel werden bei Kerberos oft aus Passwörtern des Nutzers generiert.

Der Ablauf einer Authentifizierung und Authorisierung sieht wie folgt aus: Nutzer fordert ein Ticket vom KDC an. KDC schickt eine Antwort. Die Antwort wird mit einem Schlüssel chiffriert. Dieser Schlüssel wird aus dem Passwort des Nutzers generiert. Alle anderen potentiellen Empfänger können mit der Antwort nichts anfangen. Ticket ist mit dem Schlüssel des Dienstleisters verschlüsselt.

Der Nutzer hat zwar das Ticket, kann dieses aber nicht entschlüsseln. Das Ticket enthält auch den Sitzungschlüssel. Der Server dechriffiert mit seinem Schlüssel das Ticket und kommt somit auch an den Sitzungsschlüssel. Nun kann er den Authentifizerer entschlüsseln und kennt den Nutzer. Dienstleister und Nutzer können nun über eine mit dem Sitzungschlüssel gesichtere Verbindung kommunizieren.

Kerberos Optional kann der Server sich noch mit dem Senden des mit dem Sitzungsschlüssel verschlüsselten Nonce an den Nutzer bei diesem authentifizieren. Sie verknüpfen Schlüsseln direkt mit der Authorisation für bestimmte Aktionen, im Gegensatz zu den älteren Systemen wie zum Beispiel X. Ein Nutzer hat also bestimmte Rechte wenn er einen bestimmten Schlüssel vorweisen kann, während bei den Zertifikatsystemen die Rechte erst gebilligt werden, wenn der Nutzer identifiziert ist und seiner Identität das Recht zugeordnet wurde.

Das macht die Vertrauensmanagementsysteme unkomplizierter. Ein Vertrauensmanagementsystem besteht aus fünf Teilen: Ein Dienstanbieter kann sich mit wenig Aufwand und Datenverkehr an eine Prüfinstanz wenden und anfragen, ob eine bestimmte Aktion erlaubt ist oder nicht [15].

Seine Stärke liegt in dem einfachen Aufbau, der es ihm ermöglicht aufgrund seiner Geschwindigkeit auch bei Echtzeitanwendungen eingesetzt zu werden. Die Verwendeten Sprachen und Modelle sind auch für den Menschen verständlich, was eine Programmierung und Wartung erleichtert.

Es codiert Aktionen als Schlüssel-Wert-Paare. Nutzer werden mit IDs beschrieben. Ein Nutzer kann ein Mensch, ein Prozess, ein Netzwerkknoten oder eine andere sinnvolle Abstraktion sein.

Die Nutzer können entweder ein bestimmtes Recht anfordern oder sie können andere Nutzer zu Aktionen in ihrem eigenen Bereich ermächtigen.

Dazu wird eine Liste an die Prüfinstanzen geschickt, die enthält von wem sie erstellt wurde und welche Nutzer welche Aktionen durchführen dürfen. Wird jetzt eine Anfrage gestellt, so kann der Nutzer, der den Dienst anbietet, die Prüfinstanz fragen, ob die Aktion erlaubt werden soll oder nicht.

In dem Netz existiert noch ein spezieller Knoten, der alle Aktionen ausführen darf. Dieser wird Policy genannt. Um diese Listen fälschungssicher zu machen und notfalls auch durch unsichere Netze zu schleusen können die Nutzer ihre Listen mit einem Schlüssel signieren [15].

Die Netztopologie besteht in der Regel aus mehreren Knoten, die alle lokal Entscheidungsgewalt haben und für ihren Bereich Rechte billigen oder nicht billigen. Die Mechanismen zur Entscheidungsfindung sind von den Richtlinien getrennnt.

Es nimmt als Eingabe Beglaubigungen, die lokalen Entscheidunsgrichtlinien und einen String der die geforderte Handlung definiert. Richtlinien und Beglaubigungen sind als Filter realisiert. Die Richtlinien und Beglaubigungen werden mit einem öffentlichen Schlüssel verbunden. Der Filter erlaubt Aktionen dann in Abhängigkeit davon, ob der Nutzer, der den Dienst anfordert, den entsprechenden privaten Schlüssel besitzt.

Zu Verzögerungen kann es kommen, wenn die benötigten Informationen lokal nicht vorhanden sind. Die Informationen müssen dann von einem vertrauenswürdigen Knoten geholt werden.

Erst dann kann die Entscheidung gefällt werden. PolicyMaker kann mit den meisten anderen Authentifizierungs und Sicherheitsprotokollen kollaborieren, da es nicht versteht, was in dem String, der die Aktion bezeichnet, steht. Mit der Entscheidung, ob die Aktion genehmigt wird hat die Aktion selbst nichts zu tun. Die Entscheidung fällt nur durch die Filter, wie oben beschrieben [16]. Dies wird durch die Anonymität des Internets und die unter Umständen wechselnden Geräte, mit denen der Nutzer die Dienste in Anspruch nimmt, erschwert.

Um trotzdem die Sicherheit in den oben genannten Bereichen zu erzielen sind spezielle Konzepte erforderlich. Idealerweise erledigt ein Konzept allein die drei Hauptanforderung Authentication, Authorising und Accounting. Doch obwohl die Anforderungen erkannt wurden sind in der Vergangenheit nur sehr weniges AAA-Protokolle entwickelt worden.

Auch braucht ein Protokoll eine gewisse Erfahrungsphase, wie alle neuen Produkte, in der nicht bedachte Schwächen und Fehler in der Praxis aufgedeckt und behoben werden.

Zuletzt wurde die Notwendigkeit aber erkannt und es wurden diverse Arbeitsgruppen eingerichtet, die sich mit dem Ausarbeiten von Konzepten beschäftigen. Aus diesen werden dann hoffentlich in nächster Zukunft brauchbare und vielseitige AAA-Protokolle und Programme entstehen. Wie es in der Geschäftswelt allgemein üblich ist, die benötigten Dienstleistungen von einem Unternehmens vertraglich zu regeln, so hat dieses Konzept nun auch im IT-Dienstleistungsbereich Einzug gehalten.

Sie stellen die einzelnen verhandelten Verbindlichkeiten dar. Weiter wird darauf eingegangen, wie mit Verletzungen der Vereinbarungen bei Nichterfüllung der Dienstleistungen umgegangen wird und wie Service Provider sanktioniert, aber auch motiviert werden können, um den Kunden zufriedenzustellen. Es wird gezeigt, wie ein SLA formuliert wird und wie man ihn mit Hilfe formaler Sprachen ausdrücken kann, um sich der Doppeldeutigkeiten menschlicher Sprache zu entledigen und um SLAs technisch einfacher umsetzen zu können.

Da er diesen Aufgaben aber nicht alle alleine nachkommen kann, beauftragt er verschiedene Personen und Firmen, die diese wahrnehmen.

So stellt er Hausmeister ein, die die Gebäude in Stand halten, setzt Sicherheitspersonal ein, um den Zugang zu regeln und die Sicherheit der Anlage zu gewährleisten. Es werden Firmen zu Reinigung verpflichtet, genauso wie ein Unternehmen, welches die Müllabfuhr erledigt. Betrachtet man so eine Firma genauer, z. Der Gebäudeverwalter wird, damit er sich nun selber nicht mehr um die Aufzüge zu sorgen braucht, diese besagte Firma verpflichten.

Die Firma wird wohl nicht nur diese eine Wohnanlage betreuen, sondern derer vieler, da sie sich ja direkt darauf spezialisiert hat. Natürlich kommt sie auch mit mehr als einer Art Aufzügen zurecht. Der Verwalter wiederum hat sich, bevor er diesen Auftrag an die Firma vergeben hat, am Markt erkundigt, welche Unternehmen diese Aufgabe wahrnehmen können, deren Angebot studiert und die Preise verglichen.

Er hat einen Vertrag mit der Aufzugsfirma geschlossen, in dem die Pflichten niedergeschrieben sind, z. In der Literatur findet man auch oft den Begriff Vertrag statt schriftliche Vereinbarung, was aber genau genommen nicht ganz richtig wäre, da z.

Da ein Vertrag rechtliche Konsequenzen nach sich zieht, wäre so etwas an dieser Situation in den seltensten Fällen sinnvoll. So sind sie z. Dies erfolgt, weil den Firmen das nötige Know-How fehlt, selbst eine dafür zuständige Abteilung zu unterhalten, externe Dienstleister mehr spezialisiert sind und kostengünstiger arbeiten können.

Es besteht somit eine eindeutige gegenseitige Erwartungshaltung. Dieses Konzept sollte, wenn es richtig umgesetzt wurde, die Kundenzufriedenheit erhöhen und den Kunden an den IT-Dienstleister binden. Dieser regelt wichtige Fragen der Leistung, Verfügbarkeit, Sicherheit etc. Dies liegt am best effort Charakter des Internets.

Im folgenden werden die wichtigsten Aspekte zur Charakterisierung eines Netzwerkes angesprochen. Bei einem Unternehmen kann ein Ausfall während der Geschäftszeit viel gravierender nachteilige Folgen haben, als nachts um 2 Uhr.

Hier bietet es sich durchaus an im Interesse des Kundens verschieden Level zu definieren. So hat ein Netzwerk um Video- oder Audiostreams in Echtzeit darstellen zu können z. Auch die Benutzung von öffentlichen oder privaten Verschlüsselungsverfahren gehört hier dazu. Man versteht gewöhlich darunter die Verfügbarkeit, Administrierung und Backup von Servern. Die Leistung steht eher im Hintergrund. Daneben gibt es auch mean-time-torestore MTTR.

Auch deren Aufbewahrungsort kann verhandelt werden, z. Dafür gibt es verschiedene Möglichkeiten, was das Eigentum an der Applikation betrifft.

Beispiele für solche Applikationen sind z. Es ist nun nicht mehr so einfach den Service und die dazu passenden Garantien zu bestimmen, die in einem SLA hineingehören. Wie auch bei den vorherigen Arten steht die Verfügbarkeit ganz oben auf der Liste. Da die Applikationen zumeist über das Netzwerk. Anderseits sollte der Begriff Leistung im Zusammenhang mit der Applikation stehen. So könnte die Zeit zwischen einer Kundeneingabe und einer Antwort der Applikation genau festgelegt werden, da im Falle des Überschreitens dieser Zeitdauer der Kunde nicht mehr sinnvoll arbeiten kann.

Mögen 3 Sekunden für den normalen Anwender von Webapplikationen genügen, so gibt es genauso Anforderungen für Echtzeit, z. Um beim Beispiel mit den erfolgreichen Downloads zu bleiben, es ist sicher nicht befriedigend, wenn dieser mehrere Stunden dauert, auch wenn er am Ende erfolgreich war.

Die Sicherheit der Applikation, insbesondere der zu übertragenden Daten spielt genauso eine Rolle, wie Authentifikationsmechanismen. Auch die Speicherung und Sicherung von Nutzerkonfigurationen, sowie dessen Herstellung gehören betrachtet.

Wenn diese Betreuung in technischer Form erfolgt, so spricht man von Help Desk. Nichttechnische Unterstützung wird als Costumer Care bezeichnet. Probleme werden oft in Abhänigkeit ihrer Bedeutung priorisiert und mit unterschiedlichen Zeiten behandelt. Dazu gehören weiter auch die Erreichbarkeiten von Ansprechpartnern für die Kunden per , Telefon, Web-Formular, Fax und die Zeiträume, in denen diese Ansprechpartner erreichbar sind.

Für spezielle Anforderungen werden mitunter Eskalationsprozeduren vereinbart. In Abhänigkeit von der Benachrichtigungsart und der Priorität des Problems werden zwar oft kurze Zeitangaben für die Registrierung des Problems angegeben, aber wichtiger wäre Zeitangaben, bis wann es gelöst ist.

Die Kundenzufriedenheit richtet sich im allgemeinem nach der Richtigkeit der Information zur Problemlösung, Schnelligkeit von Antwort- und Reaktionszeiten und einem angemessenem Umgangston. Diese benötigen eigene Applikationsmetriken, die wiederum von Resoucemetriken abhänig sein können. Sie bilden sozusagen ihre Metriken auf die Parameter ab, wobei ein Parameter durchaus mit mehreren Metriken beschrieben wird, was für den Kunden aber von weniger Interesse ist. Ihn interessiert dieser Parameter, ob er den eigenen Bedürfnissen, seinen Service Level Requirements, entspricht.

Ist dies nicht der Fall kann er ausgehandelt werden. So kann ein Überschreiten von Schwellwerten bei den einem Parameter für den Kunden wesentlich nachteiligere Auswirkungen haben, als bei einem anderem Parameter. Dies hat unmittelbare Folgen für die Art der Strafen gegen den Provider und dieser kennt die Schwerpunkte seitens der Kundenanforderungen.

Meistens wird das Angebot des Providers ohne Verhandlung akzeptiert, oder der Kunde wünscht nur ausgewählte Daten zu wissen. Bis jetzt wurde die Implementierung behandelt, wobei noch der Aspekt für die Eskalations- und Belohnungsmechanismen fehlt, der natürlich auch vorher verhandelt wird, damit diese Mechanismen während eines bestehenden SLA greifen können.

Um das jetzige Wissen kurz zusammenzufassen: Provider stellen Dienstkataloge für ihre potentiellen Kunden auf, die mit den schon vorgearbeiteten SLA Parametern, die Bedürfnisse und Anforderungen der Kunden treffen sollen.

Wie jetzt der SLA formuliert wird und welchen genauen Inhalt er hat, folgt noch. Stellen Kunden nach gewisser Zeit Verbesserungsmöglichkeiten oder -notwendigkeiten fest, so kann durch Nachverhandlung des SLA das Angebot des Providers für den Kunden verbessert werden.

Noch viel besser wäre, wenn der Provider solche Zusammenhänge erkennt und selbst handelt. So kann er z. Da viele Kunden ihre eigenen Anforderungen haben, gibt es mitunter viele spezielle SLAs, die ein Provider zu berücksichtigen hat. Das kann im Extremfall zu Skalierungsproblemen führen. Genauso besteht dieses Skalierungsproblemen eher noch bei den Kunden, wenn einmal verhandelte SLAs aufgrund von Wachstum nicht mehr die Anforderungen erfüllen können.

Diese Strafe steht aber in Konkurrenz zum finanziellen Verlust des Kunden durch die Vertragsverletzung. Soll und kann ein Provider z. Wie würde dieser Verlust gemessen werden?

Inwieweit wären solche Szenarien kalkulierbar? Soll er dann noch zusätzlich bestraft werden, weil er Vereinbarungen im SLA nicht eingehalten hat? Service Provider werden sich deshalb aus gutem Grund wehren bei einem Schaden mit legal tender zu begleichen.

Unternehmen haben aber gute Gründe extra darauf zu bestehen, kann doch der Ausfall der IT-Dienstleistung im schlimmsten Fall heute schon in den Ruin führen. Anderseits sind finanzielle Strafen aus Sicht des Kunden nicht immer unbedingt vorteilhaft. Bei firmeninternen Dienstleistern z. Eine Budgetkürzung wird aber wohl eher ein Schnitt ins eigene Fleisch sein.

Es besteht auch die Möglichkeit den Provider zu belohnen, wenn bestimmte Vorgaben übererfüllt wurden. So etwas ist z. Erst nach Überschreiten dieses Wertes würde er aktiv werden. Das rechte Diagramm dagegen besteht nicht mehr aus einem Schwellwert, sondern derer vieler. Dies könnte den Provider veranlassen seinen Dienst in Richtung der niedrigeren Schwellwerte zu verbessern, um mehr Mehrwert zu erzielen.

Eine einheitliche Sprache könnte weiter für viele verschiedene SLAs angewendet werden. Durch genaue Spezifikationen könnten z. Monitoringaufgaben leichter an darauf spezialisierte Provider übertragen werden. Die Frage der Quantität neben der Qualität ist wichtig. Vereinbarungen bei Überschreitung von Quantitätsgrenzen hinsichtlich der Qualität müssen getroffen werden. Messungen des Providers stehen nicht immer direkt im Bezug zum Kunden.

Beim Provider gibt es wiederum Monitoring und Management Schnittstellen, auf die weitere Dienste aufsetzen können. Diese speziellen Dienste sind für Monitoring und Enforcement zuständig. Dies kann durch den Einsatz der angesprochenen formalen Sprachen realisiert werden.

Die folgende Bedeutung der einzelnen Dienste sollte das Konzept erklären: Der Vergleich kann periodisch oder ereignisgesteuert, wenn z. Es wurde Gründe aufgezeigt, warum in Zeiten steigender Inanspruchnahme und damit verbundener Abhänigkeit von IT-Dienstleistungen, es für den Servicenehmer von Interesse ist, einen auf seinen Bedarf zugeschnittenen Service in Anspruch zu nehmen. Durch das Aufstellen von Dienstleistungkatalogen haben Kunden die Möglichkeit diese Dienstleistungsangebote mit ihren Bedürfnissen zu vergleichen oder gar neu zu entdecken und am Markt nach wirtschaftlichen Gesichtspunkten zu vergleichen.

SLA werden in nichttechnischer Sprache formuliert und beinhalten trotz unterschiedlichster Dienstleistung gewisse Mindestanforderungen, die in jedem SLA wiederzufinden sind. Mit deren Hilfe können SLA insbesondere überwacht und durchgesetzt werden.

It was designed as a means of communication between a few computers, but quickly became a mesh of research networks and later on a collection of several networks making its commercial facet more appealing. Due to the fast growth of the Internet and to the fact, that it is almost impossible to control the way it develops, it is almost impossible to deploy a generic end-to-end pricing framework.

The aim of this document is two-fold. First, the document provides an overview of the topology of the Internet and second, it expands on the subject of who is to be held responsible for different developments concerning the Internet and what entities make it possible for the Internet to stay accessible for everyone across the world in order to maintain its international character. A Worldwide Perspective Inhaltsverzeichnis 4.

However, its exponential growth and self-regulatory nature lead to a lack of control. Currently, it is hard to have a clear picture about all of the different networks that compose the Internet. This means, that ISPs are in fact holders of Internet pieces and commercially offer the possibility to users of connecting to their network to gain access to the worldwide community named Internet. This is possible for single users as well as companies, which can be given the opportunity to connect their whole network through the one of a provider ISP, thus gaining Internet access The TIER hierarchy Abbildung 4.

The Tier hierarchy is simply a model of the relationships between ISPs. Tier-1 ISPs are the largest and peer with each other to provide access to the Internet routing table. However, they can also buy upstream transit directly both from a Tier-1 and a Tier-2, and may peer with a Tier In an ideal environment this scheme is quite simply applicable.

It all starts at the bottom of the hierarchy: Nevertheless, when one talks about the ISP TIER hierarchy, it usually only means Tier-1 and Tier-2 ISPs for there are very many levels below that and it is in most cases not possible to differentiate as clearly between the levels that lie deeper in this structure than between the higher levels.

In the real world there may also be several other differences to this picture of the ideal TIER hierarchy. These three ISPs have their networks spread all over the world. Their backbones interconnect across different continents as well as across different countries.

This results in a There are several voluntary. The most important of them are: The Internet Engineering Task Force The Internet Engineering Task Force IETF [1] is a large open and volunteer international community of network designers, operators, vendors, and researchers concerned with the evolution of the Internet architecture and the smooth operation of the Internet. It is open to any interested individual. The actual technical work of the IETF is done in its working groups WG , which are organized by topic into several areas e.

Much of the work is handled via mailing-lists. The IETF holds meetings three times per year. To become a participant in the IETF, one merely becomes active in one or more working groups by asking the responsible area director to be added to the mailing-list of a specific WG.

W3C has around Member organizations from all over the world and has earned international recognition for its contributions to the growth of the Web [2].

The W3C has set its own goals for the Web to build the following three items: It doesn t consist of several members in the sense of people but rather of different organizations which have made theirs the three goals mentioned. Therefore it is open to any organization, providing for it a seat in the W3C Advisory Committee, which is a committee consisting of one representative for every member organization.

It provides leadership in addressing issues that confront the future of the Internet, and is the organization home for the groups responsible for Internet infrastructure standards, including the IETF and the IAB [3].

The ISOC can be referred to as a mediator between its member organizations. It coordinates the work of its members and tries to solve conflict between them by providing guidelines.

The ISOC is lead and governed by its Board of Trustees, which is elected by all of its members around the world and thus providing the member organizations with a much stronger role than its single members. Additionally, the IAB also documents the network structure and basic operations of the Internet. Defence Information Systems Agency in order to regulate and maintain the domain path throughout the network.

IANA was responsible for assigning unique addresses to each computer connected to the Internet. It is essential for these tasks to be performed internationally, so the ICANN charter has to be adjusted in a proper manner. These services were originally performed under U. Government contract by IANA and other entities. Moreover, it deals with the question of how to obtain IP addressing space What are Autonomous Systems Directly connected to the term Internet is the one of Autonomous Systems ASes [13], which are independent systems within the Internet under a local administration.

This is usually known as the Core network. Given that these machines are under the same administration, they are considered to be trusted by the ISP that manages the AS.

BGP is a distance-vector routing protocol: The message exchanged is about reachability. As mentioned each AS chooses and manages its own protocols, so there is no common routing strategy in the Internet. The AS-level topology of the Internet provides a macroscopic view of its routing.

Moreover, further division is necessary for it is impossible for one single computer or gateway. A Worldwide Perspective to maintain the routing information for every other end system in one table. This is the reason why the Internet uses a hierarchical routing structure: What are Autonomous Systems? Who provides Autonomous Systems There are several ways to gain access to an Autonomous System, namely: In order to do so one first has to contact two other ASes and agree on peering arrangements with them.

This information has to be contained in the forms in addition to what entity will use the AS and the assigned IP addressing space. The current four RIRs are: They are the ones, one will usually turn to when trying to obtain IP addressing space.

They are divided into groups sorted by size starting with extra small via small and large to extra large Traffic Policies between ISPs As mentioned in chapter 1, the Internet is not the finely structured system it seems to be concerning the TIER hierarchy. In fact, the Internet is a mesh of ASes spread all over the world, each connected to several others either temporarily or over a longer period of time.

Therefore, there must be some way to handle traffic between different ISPs owning ASes so constant traffic flow is made possible. In order to get packets from on ISP to the other one, they both have to use intermediaries as transit providers.

That way, the mutually exchanged traffic can reach the other side. The interconnection from one of the two to the transit providers can be categorized again;. In this scenario, one ISP the supplier clearly has more traffic coming into and through his system from the customer than going out of it towards the customer. Nevertheless, the supplier in this relationship may as well be the customer or a peer in several other ones.

Each ISP has about the same traffic going into and through his system from the other one as going out of his system towards the other one. If this is the case, the two ISPs often mutually agree on a peering arrangement, each routing the traffic of the other on through their own system without charging the other one. As mentioned above none of these relationships are static.

In an ideal environment This is because behind every action on the Internet, one may not forget the commercial aspect, so every customer s goal would be to lower the cost and thus become a peer. Once being a peer, the next step would be to go from having no cost at all to earning money by becoming a supplier. However, in the real world, a customer may not have any interest in becoming a peer. This might be due to different reasons.

For one, the client ISP might not even have the capacity to route traffic through its network. Another one might be, that the ISP follows a strict security policy, letting in as little traffic as possible into its own network, trying to avoid security breaches Research Networks Research networks are networks providing high speed networking to universities, research institutions, schools, cultural entities.

Research networks have their own backbone and provide Internet access to their customers. The US Research Network. These two research networks will be introduced shortly for their representative nature for all research networks. The company was established in in Cambridge. It is a Not for Profit organization and has a special tax-exempt status that has been granted by the UK government [6].

It provides a bandwidth up to 10 Gbps and thus allowing very complex calculations and research activity like DNA Sequencing or Distributed Computing. The network has become the most advanced native IP backbone network available to universities participating in Internet2 [8]. It provides high speed networking at up to 10 Gbps to universities and research institutions across the USA. The wide dimensions in connection with the big differences in population density across the USA make it seem as if there are only a few institutions connected to ABILENE, but as mentioned above, there are about The Internet in Different Parts of the World This chapter deals with the international aspect of the Internet.

It points out differences in percentage of users, broadband access and worldwide growth of the Internet. Another concern addressed is the aspect of different languages across the Internet, showing which impact English has on it Who Uses the Internet There is a significant difference between different world regions concerning the number of users.

In contrast, the worldwide Internet growth shows that world regions with a lower Internet access penetration are catching up to countries like the USA and have a much higher growth rate. This can be explained by just pointing out that developments in Internet accessibility that were made years ago in the USA and Europe are now reaching other parts of the world. Fortunately, this can be achieved by a quite simple method also used by [10].

The method uses different search engines on the Internet and evaluates the results. Since it is not possible to enter an empty search string in Google, the search string was set to pdf in order to evaluate all pdf documents on the web for most of the have the suffix pdf.

Allteweb allows empty search strings and could therefore be used to determine the languages used on web sites themselves. This lead to interesting results: The most commonly used language on web sites is English with The fact that is more astonishing is that German is the second most used language in Web sites.

Another interesting fact is that Japanese web sites are only on position 4 with 4. Another aspect of the Internet usage is the display of different languages and characters. On one hand, there is the possibility to design each web page with a specific character set, having as major disadvantage the need for browsers to support the character set.

On the other hand there is the alternative to use Unicode. Unicode [16] is an encoding system providing each character of each character set a unique identifier. Configuring each web browser to support unicode and to publish web pages only using this character encoding would solve the issue of displaying different character sets Broadband Internet Access Across the World Worldwide broadband Internet access statistics show a similar result to statistics related to the number of Internet users around the world.

This is not surprising since the number of broadband Internet connections around the world is already contained in the number of Internet connections over all. One thing must be pointed out namely, the fact that although Internet access is considered almost natural in the USA, broadband Internet access is sparsely spread. This can be explained two-fold: A Worldwide Perspective Tabelle 4.

Major Pricing schemes are introduced as well as differences in pricing between providers, and end-to-end pricing Pricing schemes Although there are a lot of different pricing schemes for Internet access there are basically three major ones in use, though they may be combined. Volume-based charging as well as time-based charging belong to the so-called parameterbased charging methods, whereas flatrate charging is a group on its own.

Volume-based charging prices Internet access by the volume of data transferred as can be seen in the name. An ISP charges a fixed price per data unit transferred.

This pricing scheme is quite popular among DSL users in Germany, for it is quite inexpensive for the user who just uses the Internet for etc. Time-based charging makes Internet access dependent on the time being connected to the Internet.

This pricing scheme was very common in the beginning of the fast growth of the Internet, since most people used modems to access the Internet. Flatrate is the most commonly used pricing scheme these days, since it s easy to charge for the supplier and easy to use for the customer, who does not have to worry about how long to stay on the Internet. Flatrates can be divided into two different types of implementation: The first one is the real flatrate, which allows unlimited access to the Internet charging.

The second one is the flatrate in connection with a limited transfer volume. The customer is still charged a monthly fee, but the data volume transferred is limited to a specified value. Once the customer has exceeded this limit, he is then charged using Volume-based charging. Another pricing scheme, which has evolved, although it is not used very often is called Burst-Rate-Charging.

This type of charging can be used when there is the wish not to charge a customer for the amount of data transferred or the time connected, but rather for the bandwidth used. The ISP periodically measures the volume of data transferred over the connection. For each charging interval, all samples are then sorted by Volume and a fixed percentage from the top of the list is discarded.

This is done to eliminate unusual peaks in the data Volume transferred. The highest remaining sample is then taken as the bandwidth used in this charging interval, and based upon a fixed price per bandwith, the connection is then being charged Pricing Between Providers This section tries to answer the question how providers would set their prices when they have to work together to offer a service.

One must never forget that each provider acts in his own interest and therefore generally tries to keep its own capacity constraints as private information. There are several parallels between pricing between providers and traffic policies between ISPs as described in chapter two.

As long as two providers have a peering arrangement, there will be no need for either of them to pay the other one for his service. This section deals with the situation where one Provider acts as a supplier and the other on as a customer. This requires either the possibility to limit the data transferred through the network to a certain bandwidth or to measure the customer s data transferred by the supplier e. Although bandwidth prices have been decreasing, another pricing scheme has become popular: Neither of them to be concerned about the amount of data transferred through the suppliers network, they just agree on a monthly fee and the supplier can route the customers traffic without further thought.

This of course isn t quite what happens. The customer may have a strong interest in lowering the fee and therefore presenting the customer with new usage statistics showing a decrease in traffic sent through the suppliers network. The supplier on the other hand profits from presenting the customer statistics showing an increase in traffic flow and therefore trying to raise the fee.

Pricing between providers In end-to-end pricing, all major pricing schemes are used. Nevertheless, flatrates become more and more popular, since they not only are the easiest way of gaining Internet access for the customer but are also an easy and very profitable way for the ISP, for though there may be people exceeding the limit, of what is still profitable for the provider, there are still a lot more, who don t nearly reach this limit and thus finance the Volume peaks of others.

This clearly show the unfair aspect of flatrate charging concerning fairness among different users. On the other hand, flatrate charging is a very social pricing scheme meaning that every user has to pay the same no matter what social background, income, etc. Neue Kleidung kann man aus dem gesamten Sortiment von Quelle oder Otto online zusammenstellen. Alte oder neue Gegenstände handelt man auf virtuellen Marktplätzen wie Ebay. So stellt ein Autohändler nach den Wünschen des Käufers ein Auto zusammen und schickt die Anfrage gleich zum Hersteller weiter.

Auch Produktionsabläufe in Firmen sind gesteuert, fehlende Teile werden automatisch bei anderen Unternehmen geordert. Web Service ist eines der Schlagwörter, die erst seit kurzer Zeit die Welt der Wirtschaft beherrschen um die verschiedenen Geschäftsabläufe, die die vernetzte Steuerung von Produktions- und Verkaufsabläufen betreffen, zu ökonomisieren.

Die Netzdienste sollen es ermöglichen, standardisierte Daten zu übertragen und entfernte Funktionen durch einen Client auf einem Server auszuführen.

Kompatibel soll der Service sein, das heisst mit jeder Programmierschnittstelle soll man einen Dienst konnektieren und nutzen können. Sicher soll der Service ebenfalls sein, das heisst kein Unbefugter kann die übertragenden Daten ausspähen oder verfälschen. Zusätzlich dürfen auch Wartezeiten nicht zu lang werden, um auch die Interaktivität zu wahren.

Web Services haben das Potential alle proprietären Lösungen für verteiltes Rechnen abzulösen und damit zu standardisieren. Dieser Teil des Seminares wird sich im Folgenden nun mit den technischen Grundlagen von Web Services befassen und anschliessend auf die wirtschaftlichen Konsequenzen der Einführung von Netzdiensten eingehen.

A Technical and Economical Snapshot Inhaltsverzeichnis 5. Its definition can be discovered by other software systems. These systems may then interact with the Web service in a manner prescribed by its definition, using XML based messages conveyed by Internet protocols.

Dieses Softwaresystem kann aber mehr als nur reinen Datenausttausch. Es ist immer noch in der Version 1. Die praktische Umsetzung für Version 1. Dokumente einer Markupsprache enthalten neben der reinen Information, also zum Beispiel einer normalen Textinformation, Zusatzinformationen, die die Textinformation näher attributieren.

Hierbei wird die Textinformation durch eine Escapesequenz vom normalen Text getrennt. Man unterscheidet dabei mehrere Stufen einer Markupsprache. Die Anweisungen einer Sprache mit graphischem Markup sind fest vorgegeben und müssen vom Verarbeitungsprogramm richtig interpretiert werden. Bedeutender ist aber der Verlust an Wissen, die zur Markierung der Information führte.

Es ist nicht mehr sofort ersichtlich, warum eine Information fett gedruckt wurde oder warum sie kursiv ist. Vielleicht weil es sich um eine Überschrift handelt, oder um eine wichtige Textstelle? Semantisches Markup bietet einen Vorrat an Bedeutungen, die verschiedenen Informationen mit gleicher Semantik zugeordnet werden. Überschriften sind als Überschriften erkennbar und haben alle das gleiche Attribut.

Mit Hilfe von Stylesheets kann einer Bedeutung eine feste graphische Darstellung zugeordnet werden. Das Dokument ist einheitlich strukturiert. Der Nachteil des festen Pools von Semantiken bleibt aber. Das Verarbeitungsprogramm muss alle Bedeutungen kennen und richtig verarbeiten. Auch die Frage nach der Granulierung der Bedeutungen kann nicht beantwortet werden, wie fein weise ich Rollen zu, wann höre ich auf, den Inhalt zu zerlegen?

Die Summe von logischen Elementen und von Verarbeitungsanweisungen nennt man Dokumententyp. Ein Dokumententyp kann zum Beispiel ein Buch sein. Dieses habe die logischen Elemente Inhaltsverzeichnis, Kapitel, Überschrift, Abschnitt und darüber hinaus die Regeln zur Strukturierung dieser Elemente. Nach der Versionsangabe, kann eine Information über die verwendete Zeichenkodierung folgen.

Nach dem Prolog folgt der eigentliche Inhalt des Dokuments. Dieser Inhalt ist eine Schachtelung von Elementen. Elemente haben wie der Prolog eine fest vorgegebene Struktur.

Ein komplettes Elment wird wie folgt dargestellt: Elementbezeichner ist dabei ein frei wählbarer Identifikator für ein Element. Der Inhalt eines Elementes kann die reine Textinformation oder eine Liste von weiteren Elementen sein. Um ein Element näher zu beschreiben, ist es möglich, dieses Element zu attributieren. Direkt nach dem Elementbezeichner kann eine Liste von Attributen folgen: Die Schachtelung von Elementen bewirkt die Bildung eines Strukturbaumes, wie das folgende Beispiel zeigt.

Man stelle sich ein banales Beispiel vor: Er verwendet dabei einfache Strukturen wie Buch, Überschrift, Abschnitt, etc. Ein anderer Verlag tut dies ebenso. Weiterhin existiere eine Bibliothek, die diese Bücher im Rechner führt. Bei der Verwendung von Elementnamen kann es nun vorkommen, dass die beiden Verlage gleiche Namen genutzt haben. Um diese Elemente aber eindeutig zu bestimmen, bzw.

Ein Namensraum wird im einfachsten Fall im Element selbst durch das xmlns-attribut festgelegt: Das Kürzel tml vorangestellt an Elementnamen: Man kann dann Elemente mit gleichem Namen, aber verschiedenen Namensräumen auseinanderhalten. A Technical and Economical Snapshot Abbildung 5. Strukturbaum zur Visitenkarte sein muss. Als korrekt wird das Dokument bezeichnet, wenn die innere Struktur eingehalten wurde. Es dürfen nur fest vorgegebene Elemente verwendet werden und die Schachtelung der Elemente ist ebenfalls zu berücksichtigen.

Darüberhinaus werden Attribute definiert. Es wird hierbei keine Unterscheidung zwischen Text und Zahl gemacht. Diese Angabe erfolgt durch eine Listenangabe. Das Element enthält eine Menge weiterer Elemente der aufgezählten Typen. Das Element enthält ein beliebiges Element der Liste mit einem der aufgeführten Typen. Sie steht für eine undefinierte Angabe des Inhaltstypes, basierend auf den beiden obigen Typen.

XML-Parser können hier aber keinen exakten Syntaxcheck durchführen. Kein Zeichen meint genau ein Subelement. Fragezeichen legt eine optionale und einfache Verwendung von Elementname fest. Attribut-x ist eine beliebiger Name zur Beschreibung des Attributes. Liste-x definiert eine Menge von Werten, die das Attribut annehmen kann. Wert-x steht für den Standardwert. Weitere Werte für Attribute können unter [3] nachgelesen werden.

Neben diesen Anweisungen existieren noch: Mit der Anweisung können Referenzen auf andere Dokumente bzw. Teile von Dokumenten angelegt werden, z. Bilder, die innerhalb eines XML-Dokuments verwendet werden. Dies liegt zum einen an den fehlenden Datentypen. Es gibt eigentlich nur zwei Datentypen für Elemente: Bei Attributen gibt es mehr Typen, aber insgesamt ist die Auswahl ungenügend. Zum anderen fehlt die XML- Konformität. Es bietet die Mächtigkeit von Programmiersprachen, was die Typenbildung betrifft: Die Erstellung von Arrays beispielsweise ist ebenso möglich.

Namensräume werden ebenso unterstützt wie auch die XML-Spezifikation. Mittlerweile integrieren viele Hersteller von Software, z. Theoretisch ist es dann möglich, die Informationen, des in Office gespeicherten Dokumentes, mit gleicher Darstellung auch in Konkurrenzprodukten anzuschauen. XSL besteht aus den drei Teilen: Die Spezifikationen von XSL können hier [13] nachgelesen werden. Die besonderen sprachlichen Konstrukte dieser Form können nicht von herkömmlichen Browsern verstanden werden.

Eine genauere Beschreibung dieser Technik ist unter [12] nachzulesen. Ein kurzes Beispiel verdeutlicht die Wirkung einer einzelnen Transformationsanweisung:. Genau dieser Absatz muss noch mit Inhalt gefüllt werden. Das Ausgabedokument wird also von aussen nach innen aufgebaut. Diese Transformation kann beim Server selbst stattfinden. Apache-Webserver können hierfür z. Die Konvertierung auf Client-Seite hat natürlich Vorteile für den Benutzer, kann er doch mit einstellbaren Standards die Umwandlung nach seinen Bedürfnissen beeinflussen.

Der folgende Abschnitt beschäftigt sich in einem groben Überblick mit den Spezifikationen der Version 2. Ein Vergleich mit der Recommendation 1. A Technical and Economical Snapshot wsdl Hier werden Datentypen deklariert.

Es ist das Kernstück des Web Services. Hier werden alle Nachrichten definiert und ihre Verwendung zwischen Server und Client vorgeschrieben. Das Interface besteht aus einer Menge von Operationen.

Die Operationen wiederum bestehen aus einer Menge von Eingabe- und Ausgabenachrichten. Die Vererbung von Interfaces ist möglich. Ein Unterinterface erhält mindestens die Mächtigkeit des Oberinterfaces, es kann erweitert werden. Sie besteht aus ein oder mehreren der folgenden Elementen: Diese Elemente können für nutzerspezifische Daten und Funktionen verwendet werden.

Die beiden Elemente sind in fast jeder Ebene für spätere Erweiterungen vorgesehen. Es werden passend für jedes Interface mit seinen Operationen konkrete Transport- und Serialisierungsdetails festgelegt. Hier werden die Entry-Points für jedes Interface festgelegt. Dieses enthält das komplette Regelwerk zur Verarbeitung der Nachricht und auch die erforderlichen Daten. Dies hat eine globale Wirkung auf die gesamte Nachricht. Enthalten sind zum Beispiel: Was passiert beim Verlust von Antworten auf Anfragen, was passiert bei fehlenden Nachrichten, etc.

Welchen Weg soll die Nachricht innerhalb von Application Servern nehmen. Teile einer Nachricht könnten für einen als Router genutzten Application Server interessant sein. Die Interpretation der verbundenen Aktion liegt dann beim Empfänger. Parameterübergabe ist natürlich nur Call-by-Value möglich, da die Programme der beteiligten Rechner in verschiedenen Speichern oder Adressräumen laufen.

Der Server-Stub entpackt die übertragenden Informationen in Nutzdaten. RPC mit verschiedenen Betriebssystemen oder verschiedenen Hardwareplattformen wirft Kompatibilitätsprobleme bezüglich der Datenformate auf. Zahlenkonvertierungen wegen verschiedenen Ganzzahl oder Fliesskommatypen oder Bitshift-Operationen wegen verschiedener Byteordnungen z. Big-Endian und Little-Endian sind nötig. Grundsätzlich existieren zwei verschiedene RPC Ansätze: RPC fest integriert in eine Programmiersprache.

Die Nachteile beider Architekturen sind auffällig. Erstere ist auf die jeweilige Programmierumgebung beschränkt. Zweitere hat Probleme in der Internetwelt, speziell im Routing von Paketen. Daher wird oft Tunneling der Pakete verwendet. Aktuelle Webcasts im Überblick: Sicherheit und Datenschutz in der mobilen Cloud-Welt Webcast.

Anzeige Intelligenter Storage, der sich selbst optimiert Webcast. Anzeige Intelligent Edge Webcast. Anzeige Data Center als Innovationsbeschleuniger Webcast. Viele unserer Experten würden gern zu ihrem Fachgebiet mehr Beiträge veröffentlichen, als uns das derzeit möglich ist.

Kommen Sie zu uns - als Experte. Das sind die wichtigsten Meilensteine in der Geschichte von Microsoft. Dafür wurde das Innenleben ordentlich aufgemöbelt - unter anderem mit den i7-Prozessoren der achten Generation. Daneben zeigt Microsoft auch eine neue, leistungsstärkere Version des Surface Book.

Eines der wichtigsten Updates: Mit Paint 3D soll künftig Jedermann in der Lage sein, 3D-Grafiken ganz einfach zu erstellen, zu bearbeiten und zu teilen. Im November wird eine Kooperation mit der Deutschen Telekom angekündigt.

Einige Monate nach dem Release des Betriebssystems stellt Microsoft zudem neue Devices vor, die auf Windows 10 zugeschnitten sind. Highlight ist das erste Notebook 'made by Microsoft' - das "Surface Book". Steve Ballmer hatte im August seinen Rückzug als Chef von Microsoft erklärt - auch weil die Kritik an seiner Geschäftsstrategie immer lauter wurde. Doch der von Steve Ballmer eingefädelte Deal floppt: Nettogewinne seit Allein im Geschäftsjahr Ende: Juni erwirtschaftete Microsoft einen Nettogewinn von 21,86 Milliarden Dollar.

Das Gerät konkurriert mit Sonys Hochleistungskonsole Playstation 4. Es unterstreicht das Bestreben des Unternehmens nach Vereinheitlichung seiner Produkte. Das komplett in Eigenregie gefertigte Gerät erhält mit starker Rechenleistung, hochwertiger Verarbeitung, aber auch hohem Gewicht und kurzer Akkulaufzeit gemischte Kritiken. Inzwischen ist die dritte Generation des Tablets verfügbar. Microsoft setzt sich durch Am Mai war Schluss mit den jahrelangen Spekulationen über die Zukunft von Skype.

Windows 7 geht schnell ins Rennen kommt Windows 7 auf den Markt. Windows Vista Windows Vista kommt in die Läden.

Im Jahr drohte die Europäische Union Microsoft, einen Verkaufsstopp des Betriebssystems zu erzwingen, falls Auflagen der EU etwa die Offenlegung von Kommunikationsschnittstellen nicht endlich umgesetzt würden.

In der Folge entwickelt sich ein jahrelanger Hickhack um die Erfüllung der Sanktionen. Microsoft dominiert den Markt für Heimcomputer-Betriebssysteme jetzt unbestreitbar. Windows XP wird, wie auch andere Versionen zuvor, kritisiert, weil es erneut Programmtypen beinhaltet, die sich nicht deinstallieren lassen und bis dato von anderen Anbietern vertrieben wurden.

Mit dem Visualisierungsprogramm lassen sich mit einfachen Werkzeugen und Vorlagen grafische Darstellungen erzeugen. Visio steht in einer langen Reihe von Softwarezukäufen, mit denen Microsoft viel Geld verdient. Das Programm ist nicht Teil des Office-Pakets und muss separat erworben werden. Mitte wurde Hotmail vollständig durch Outlook.

Kurze Zeit später wird das Programm in der Version 1. Der Internet Explorer soll dem bis dahin erfolgreichen Netscape Navigator Marktanteile streitig machen. Die Strategie geht auf, auch weil Microsoft den eigenen Browser durch Koppelung an Windows schnell verbreiten kann. Netscape verliert und wird von AOL geschluckt. Das Bild zeigt Version Der Erfolg bleibt nicht aus, Windows 95 verkauft sich in den ersten Wochen mehr als sieben Millionen Mal.

Auch weil Microsoft die Zeichen der Zeit erkannt hat: Internet-Unterstützung und Plug-and-Play-Funktionen sind erstmalig enthalten.