Re: Donau Universität Krems


Später gelang es, Widerstände und Kondensatoren aus Halbleitermaterial zu fertigen und zusammen mit dem Transistor auf dem Halbleiterstück unterzubringen. Holz oder Beton federn erheblich weniger, was die Überlebenswahrscheinlichkeit minimiert. Um den schnellen internen SATA-Anschluss auch für externe Festplatten nutzen zu können, gibt es auf manchen Hauptplatinen einen speziell abgeschirmten d. MB trac turbo V 1.

Die besten DVB-T2 HD-Fernseher


Willst du deine Wunschlisten verwalten, klicke hier! Account-Wunschlisten stehen nur registrierten Benutzern zur Verfügung. Melde dich an, um Produkte in deinen Wunschlisten zu speichern und von überall auf deine Wunschlisten zugreifen zu können. Mobiltelefone Handys ohne Vertrag unter 4" ab 4" ab 5" ab 5. Besuche doch unsere Forum-Rubrik: Verfügbarkeit beliebige Verfügbarkeit lagernd beim Händler kurzfristig lieferbar bis 4 Werktage aktualisieren.

Vorkasse, Kreditkarte, PayPal, sofortüberweisung. Dieser Händler hat keine gültigen Bewertungen Händler bewerten! Lieferung nur innerhalb Deutschlands. Lieferung in weitere Länder auf Anfrage. Abholung möglich D Friedberg. Abholung möglich D Gottmadingen. Für ein perfektes Ergebnis bei jedem Bild. Abholung möglich D Aspach. Gewöhnlich versandfertig in 24 Stunden. Abholung möglich A Hornstein. Lieferung EU-weit auf Anfrage. Abholung im Ladengeschäft möglich A Wien.

Abholung möglich D Wilhelmshaven. Die angezeigten Preise sind nur bei direktem Einstieg über diese Seite gültig. Huawei P20 Pro 6. Lieferzeit Tage Superstore Siegburg: Ab Lager Zentrallager Stand: Abholung möglich D Siegburg. Lagernd im Versandlager - Lieferzeit Werktage. Abholung nach Online-Bestellung möglich D Mainz. Ab Lager lieferbar - Lieferzeit Werktage. Huawei P20 Pro Teardown. Das Smartphone mit Dreifach-Kamera im Test netzwelt.

Huawei P20 Pro im Test: Dieses Smartphone kostet zurecht Euro techstage. Test Huawei P20 Pro Smartphone areamobile. Huawei P20 Pro Testbericht computerbase. Mit der besten Smartphone-Kamera zum König der Nacht giga. Kamera-Monster mit langem Atem allround-pc. Huawei P20 Pro derstandard. Manchmal die beste Smartphone-Kamera futurezone. Huawei P20 Pro review translate anandtech. Huawei P20 Pro Review — the triple-camera smartphone translate engadget.

Dieser Wert wäre von der "Zwei" genau so weit wie von der "Drei" entfernt. Die Elektronik könnte nicht mehr zwischen benachbarten Ziffern unterscheiden. Das erste Hindernis ist die extreme Temperaturempfindlichkeit aller Halbleiter. Zehn Grad Temperaturerhöhung kann die Zahl der freien Ladungsträger verdoppeln. Damit steigt die Stromstärke und der Halbleiter wird immer wärmer, wenn der Strom nicht begrenzt wird, z. Das zweite Problem ist die Nichtlinearität aller Halbleiterelemente.

Wenn man die Eingangsspannung von Null beginnend allmählich erhöht, würde bei einem Bauelement mit linearer Kennlinie der Strom proportional zunehmen. Im Bereich von 1,5 bis 3 Volt hängt der Ausgangsstrom fast linear von der Eingangsspannung ab. Egal wie weit man die Eingangsspannung erhöht, der Ausgangsstrom steigt nicht mehr. Betrachten wir als Beispiel ein einfaches Halbleiterelement: Allerdings schafft es noch immer keiner der Hersteller, Transistoren genau mit den gewünschten Eigenschaften herzustellen.

Beachten Sie die gewaltige Streuung des Stromverstärkungsfaktors von bis ! Der Kunde wird mit den Transistoren aus Gruppe B beliefert. Der geht ins Lager. Bei entsprechender Preisgestaltung wird sich das meiste verkaufen lassen. In der Gütekontrolle würden die Autos sortiert und in mehrere Klassen eingeteilt, die dann zu verschiedenen Preisen verkauft werden. Nun, vielleicht habe ich ein wenig übertrieben, jedenfalls würden sich die Autobauer unter Ihnen schon bei viel kleineren Qualitätsunterschieden in Grund und Boden schämen.

Doch so verfährt die Halbleiterindustrie mit ihren Erzeugnissen. Bei der Einführung einer neuen Produktgeneration kann anfangs deutlich mehr als die Hälfte der Produktion unbrauchbar sein. Auch die brauchbaren CPUs unterscheiden sich.

Ja, unter den zehntausenden Transistoren könnte man einige wenige finden, die genau genug wären. Allerdings wäre die Ausbeute extrem niedrig und demzufolge der Preis hoch. Bezahlbare Computer könnte man so nicht bauen.

Wenn allerdings ein Transistor nicht zehn, sondern nur zwei Zustände unterscheiden braucht, vereinfacht das die Konstruktion eines Computers enorm. Das Dualsystem ist ein Zahlensystem, das mit zwei Ziffern auskommt: Das macht es fehlerresistent. Da die Elektronik nur zwei Zustände zu unterscheiden braucht, sind auch nichtlineare Elemente mit schwankenden Parametern geeignet. Eingangsspannungen zwischen 0,8 V und 2,0 V sind undefiniert und dürfen nicht auftreten.

In jedem Schaltkreis werden die Signale regeneriert: Selbst wenn diese Spannung von Null bis 0,8 V schwankt, und wird sie trotzdem von der nachfolgenden Schaltung einwandfrei als Null erkannt. Nur auf der Basis des binären Zahlensystems kann man bezahlbare Computer bauen, und deshalb müssen wir uns hier mit dem Binärsystem herumschlagen.

Erst durch die Reduzierung aller Schaltelemente auf nur noch zwei Spannungsstufen konnten die Toleranzanforderungen an die elektronischen Bauelemente so sehr verringert werden, dass die preiswerte Massenfertigung von Schaltkreisen möglich wurde.

Binärzahlen sind allerdings sehr lang und unübersichtlich. Jeweils 8 Bit werden zu einem Byte zusammengefasst. Programmierer haben oft mit Bit-Zahlen 4 Byte zu tun. Können Sie sich so eine Zahl merken oder sie wenigstens fehlerfrei abschreiben?

Deshalb benutzen Programmierer aushilfsweise das Hexadezimalsystem. Es handelt sich also um ein Zahlensystem mit 16 Ziffern. Mit den Ziffern 0 bis 9 hat man aber nur 10 Ziffern zur Verfügung. Um nicht sechs weitere Ziffernsymbole neu erfinden zu müssen und weltweit neue Computertastaturen mit sechs zusätzlichen Tasten einführen zu müssen , verwendet man die Zeichen A, B, C, D, E und F als Ziffern.

Zählen wir einmal im Hexadezimalsystem, beginnend mit der Ziffer Null:. Wie wandelt man Binärzahlen in Hexadezimalzahlen um und umgekehrt? Nehmen wir das Beispiel mit der Darstellung einer Million. Die Umrechnung von Binärzahlen in Hexadezimalzahlen ist ganz leicht. Man unterteilt die Binärzahl von Rechts beginnend in Vierergruppen und ersetzt jede Vierergruppe durch eine Hexadezimalziffer. So hat eine Hexadezimalzahl viermal weniger Stellen als die gleiche Binärzahl.

Das ist der Vorteil des Hexadezimalsystems: Um Texte zu schreiben, benutzen wir ein Alphabet aus einigen Dutzend Buchstaben sowie zahlreiche Sonderzeichen. Für Zahlen haben wir zehn Ziffern zur Verfügung. Wie kann man damit auskommen? Die Methode ist einfach und wurde schon vor langer Zeit erfunden. Denken Sie bitte mal an das Morsealphabet: Eine ähnliche Codetabelle gibt es auch für die Darstellung von Buchstaben im Computer.

In dieser Tabelle sind alle wichtigen Zeichen der englischen Sprache aufgezählt und von Null bis durchnummeriert. Auch die Zeichen für die Ziffern haben eine Nummer: In der nebenstehenden Tabelle sind einige Werte aufgeführt. Nun gibt es zahlreiche Buchstaben in anderen Sprachen, die im englischen Alphabet nicht vorkommen. Dazu kommen diverse kaufmännische und wissenschaftliche Zeichen. Weitere Erweiterungstabellen gibt es für griechische, slawische, nordische und einige andere Sprachen.

Nun reichen auch Zeichen noch nicht für alle Sprachen aus. Japaner, Chinesen und zahlreiche andere Völker mit nicht-lateinischen Schriftzeichen waren benachteiligt und forderten eine praktikable Möglichkeit, die vielen Zeichen ihrer Sprache genau so selbstverständlich benutzen zu dürfen, wie wir das lateinische Alphabet am Computer benutzen.

Unicode kann derzeit über 1,1 Millionen unterschiedliche Zeichen darstellen. Je nachdem, welches der vielen Zeichen man darstellen möchte, braucht man dafür 1 bis 4 Byte.

Mark I benutzte das Dezimalsystem. Er schaffte 35 Multiplikationen pro Sekunde, fast das Doppelte wie der Z3. Jeden Monat wurden Elektronenröhren prophylaktisch ausgewechselt.

Software-Kompatibilität bedeutet, dass ein Programm auf Computern unterschiedlicher Hersteller funktioniert, ohne dass irgendwelche Anpassungen nötig sind. Für Wetterprognosen, Klimasimulationen, Erdbebenvorhersagen und Crashtests werden Supercomputer mit gewaltigen Rechenleistungen eingesetzt. Pharmazie, Genforschung, theoretische Chemie, Astrophysik und viele andere Forschungen kommen nicht ohne Supercomputer aus.

Sie sind besonders gut für stark parallelisierbare Berechnungen geeignet. Der Energiebedarf beträgt etwa acht Megawatt. Ein moderner Supercomputer kostet gegenwärtig eine halbe Milliarde Euro. Diese Isolationsschicht ermöglicht es den Anwendern seit zwanzig Jahren, die Hardware zu modernisieren oder auszuwechseln, ohne dass irgendeine Änderung an der Software nötig ist — und umgekehrt.

Die Zuverlässigkeit ist beeindruckend. Allerdings kostet so ein System etwa ein- bis dreihunderttausend Euro. Oft sind mehrere Prozessoren eingebaut, jeder mit mehreren Prozessorkernen. Workstations werden vorzugsweise für CAD-Systeme und für wissenschaftlich-technische Berechnungen eingesetzt. Als Betriebssystem werden vorzugsweise Unix- und Linuxsysteme eingesetzt. Die Bedeutung von Workstations hat im letzten Jahrzehnt abgenommen, weil sehr gut ausgestattete PC sich der Leistung von Workstations annähern.

In diesem Buch geht es nur um einen einzigen Typ von Computern, der normalerweise nur einen einzigen Prozessor enthält: Von allen bezahlbaren Computern ist es der Typ mit den vielseitigsten Verwendungsmöglichkeiten. Ende gab es immerhin schon eine Milliarde PCs. Seitdem sind Milliarden Smartphones und Tablets dazugekommen. Wikimedia betreibt insgesamt Server Der wichtigste und meist auch teuerste Teil eines PC-Systems ist die graue Kiste, die als Systemeinheit oder Grundgerät bezeichnet wird.

Darunter ist der Prozessor versteckt. Prozessor, ist die oberste Steuerung für den PC. Die Firma Intel ist der Marktführer und bestimmt seit Jahrzehnten entscheidend die technologische Entwicklung.

Jede Prozessorfamilie hat im Vergleich zur vorhergehenden Generation neue, erweiterte Eigenschaften und zusätzliche Befehle. Dadurch läuft Ihre vertraute Software auf jedem neuen Prozessor. Er kostet Dollar. In der nachfolgenden Tabelle sind wichtige historische Prozessorfamilien des Herstellers Intel, deren Taktfrequenzen und deren Bezeichnungen als Beispiel dafür aufgeführt, in welchen Schritten sich die Prozessortechnik entwickelt hat.

Auf einen Vergleich konkreter aktueller Prozessoren von Intel, AMD und anderen Herstellern wird hier verzichtet, da die Entwicklung sehr schnell fortschreitet. Der Intel-Ingenieur Gordon Moore prognostizierte schon , dass die Transistoranzahl in integrierten Schaltkreisen alle zwei Jahre verdoppelt werden kann. Es handelt sich dabei allerdings nicht um ein wissenschaftliches Naturgesetz, sondern um eine durch empirische Beobachtung begründete Faustregel, die auf langfristigen Planungen der Halbleiterindustrie beruht und die bis heute zutrifft.

Alle Vorgänge in einem Prozessor laufen getaktet , also synchron ab. Die Taktfrequenz gibt an, wie oft die Taktsignale erfolgen.

Jeder Takt dauert also ns Nanosekunden. Jede einzelne Schaltung des i war so entworfen, dass sie niemals länger als ns für einen einfachen Befehl braucht. Auch ein Speicherzugriff dauerte damals genau einen Takt. Das ist allerdings eine vereinfachte Darstellung. Einige Befehle sind komplizierter auszuführen als andere und ihre Ausführung dauert deutlich länger.

Nehmen wir als Beispiel die Division. Einerseits ist sie viel aufwändiger als eine Addition, andererseits kommt sie sehr selten vor. Um nicht wegen einiger selten benutzter Befehle den Takt für alle Befehle reduzieren zu müssen, hatten die Entwickler eine andere Idee: Immer neue CPUs wurden entwickelt. Wer hat den schnellsten Prozessor? Eine Steigerung auf das zwanzigfache in zwölf Jahren! Eine weitere Steigerung schien fast unmöglich, denn es wurde immer schwieriger, die CPUs ausreichend zu kühlen.

Wenn die CPU einen Programmfaden nicht weiter ausführen kann z. Einerseits kann mit der Mehrkerntechnologie der Energiebedarf der CPU und damit die Wärmeentwicklung drastisch reduziert werden, indem z.

Andererseits steigt die Rechenleistung drastisch an. Seine Geschwindigkeit ist wichtig für die Leistung des Computers. Pro Befehl müssen durchschnittlich ein bis vier Datenbyte aus dem RAM gelesen werden, der Befehl selbst ist weitere ein bis vier Byte lang. Der RAM wurde zunehmend zur Bremse. Je schneller die CPUs wurden, desto öfter mussten sie für einige Takte pausieren sogenannte Wartetakte einlegen, engl: Während des Umschaltens zwischen den Zuständen steigt der Strombedarf steil an.

Je öfter die Umschaltung erfolgt also je höher der Takt , desto höher ist die Wärmeentwicklung. Also doppelte Frequenz bei fast verdoppelter Verlustleistung.

Wie kann die Geschwindigkeit noch weiter gesteigert werden? Eine Kochplatte mit 18 cm Durchmesser hat eine Fläche von etwa cm 2. Ich hoffe, es ist jetzt verständlich, wie wichtig eine gute Kühlung ist. Es wurde faktisch unmöglich, durch Erhöhung der Taktfrequenz mehr Leistung zu erreichen.

Intel und AMD mussten deshalb das Wettrennen um die meisten Gigahertz etwa gleichzeitig im Jahr beenden und nach neuen Wegen zur Leistungssteigerung suchen. Eine der Möglichkeiten ist die Verkleinerung der Strukturen.

Eine weitere Möglichkeit sind Mehrkernprozessoren: Die am höchsten belasteten Baugruppen in der CPU wie z. Die CPU kühlt dadurch ein wenig ab. Wenn die Belastung steigt, kann sie den Turbomodus etwas länger durchhalten. Prozessoren zu entwickeln ist aufwändig. Intel gibt an, dass die Kosten für die Entwicklung des ersten Pentium höher waren als der Kaufpreis eines komplett ausgerüsteten Flugzeugträgers.

Nur noch wenige Firmen können sich die hohen Entwicklungskosten leisten. Marktanteile zu erringen ist nicht einfach. Befehlskompatibel bedeutet, dass alle Befehle das gleiche Resultat liefern müssen wie das Intel-Original. Für einen nicht kompatiblen Prozessor würde es keine Software geben, der Hersteller müsste ein eigenes Windows und alle Anwendungsprogramme selbst entwickeln.

Jeder Hersteller kann natürlich zusätzliche Befehle einbauen und darauf hoffen, dass die Softwarehersteller diese auch benutzen werden.

Diese Vereinbarung ist längst ausgelaufen. Heute muss jeder Prozessorhersteller die interne Schaltung und die Anschlüsse seiner CPU anders aufbauen als die Konkurrenz, um nicht wegen Patentverletzung verklagt zu werden. Deshalb gibt es zunehmende Unterschiede in der internen Architektur der Prozessoren verschiedener Hersteller. Intel favorisiert ein Design, bei dem die Recheneinheiten des Prozessors pro Takt etwas weniger leisten und deshalb weniger warm werden , wodurch man den Prozessor etwas höher takten kann.

Bei anderen Architekturen ist der Fall eher umgekehrt: Das macht es nicht einfach, die Leistung konkurrierender Prozessoren zu vergleichen. AMD verwendet deshalb einen Umrechnungsfaktor: Ein Athlon mit nVidia-Chipsatz dürfte die zweitbeste Paarung sein. Zur Zeit werden sie häufig mit dem Betriebssystem Android von Google ausgeliefert und zeichnen sich durch besonders geringe Anschaffungskosten und minimalen Stromverbrauch aus.

Auch ihre Rechenleistung ist nicht zu unterschätzen. Das Betriebssystem Windows ist zur Zeit nicht für Geräte dieser Art verfügbar, auch wenn der Hersteller verlauten lässt, daran zu arbeiten. Für Benutzer, die sich durch ihr Smartphone bereits an Android gewöhnt haben, können diese Geräte jedoch eine echte Alternative darstellen. Normale Büroluft enthält einige hunderttausend feinster Staubteilchen pro Liter. Wenn es trifft, verursacht es verheerende Schäden.

Ist nur einer von Millionen Transistoren defekt, ist der Chip unbrauchbar. Es gibt allerdings eine Ausnahme: Wenn der Schaden nur eine Hälfte des internen Cache betrifft und die andere Hälfte des Cache fehlerfrei ist, wird die defekte Hälfte des Cache abgeschaltet. Das kommt nicht selten vor, denn der interne Cache belegt etwa die Hälfte der Schaltkreisfläche und ist von Fehlern relativ oft betroffen.

Für viele Büro- und Heim-PC reicht das aus. Die dafür benötigte Zeit wird gestoppt und mit der Konkurrenz verglichen. Fachzeitschriften sind voll mit solchen Tests. Leider kann man keinen der vielen Benchmarks als den besten empfehlen. Betrachten wir zwei Beispiele. Dieser Beschleunigungsspeicher wird als Cache-Speicher bezeichnet.

Seit dem ersten Pentium laufen das Heranschaffen der Daten und deren Verarbeitung weitgehend gleichzeitig ab. Wenn nein, wird die Anforderung an den Hauptspeicher weitergegeben. Der Prozessor muss warten, d. Welche Daten im Cache gespeichert werden und wie lange sie im Cache verbleiben, wird von der Vorschau-Elektronik vollautomatisch entschieden.

Die folgenden Kriterien werden dabei berücksichtigt:. Wie kann die Elektronik voraussehen, was zukünftig benötigt werden wird? So nennt man die Befehle, bei denen die CPU in Abhängigkeit von einem Zwischenergebnis entscheiden muss, wie es weitergeht.

Beispiel bei der Musikausgabe: Ist die nächste Note eine Achtel-, Viertel- oder ganze Note? Kommt noch eine weitere Note oder ist das Ende des Musikstückes erreicht? Dadurch tritt allerdings eine Pause ein, weil die Vorausschaueinheit erst die Daten für die Weiterarbeit heranschaffen muss.

Sie haben für etwa 5 bis 15 Befehle im Voraus analysiert, welche Daten für diese Befehle benötigt werden, um diese Daten frühzeitig heranzuschaffen. Dadurch kann das Rechenwerk meistens mit voller Geschwindigkeit arbeiten. Wenn das Ergebnis eines Rechenschrittes in einem der nachfolgenden Rechenschritte weiterverwendet wird, kann die CPU ohne Wartezeit darauf zugreifen.

Zwar muss das Ergebnis irgendwann in den langsamen Arbeitsspeicher abtransportiert werden, aber das wird vorzugsweise dann erledigt, wenn es mal keine Leseanforderungen an den Arbeitsspeicher gibt.

Ob sie die Bytes einzeln oder in Gruppen anfordert, hängt vom ausgeführten Programm ab. Die Bits im Speicher sind zu Gruppen von 64 Bit zusammengefasst. Die 8 Byte einer solchen Gruppe werden stets gleichzeitig gelesen oder geschrieben. Falls die CPU bald darauf Byte 4 benötigt, bekommt sie es aus dem Cache und die Bytes 0 bis 7 brauchen nicht erneut gelesen zu werden.

Das ist vorteilhaft, denn es gibt viele Arten von Daten, die Byte für Byte benötigt werden: Der er war der erste Prozessor, der mit einem Cache arbeitete. Der Cache bestand aus vier oder acht einzelnen Speicherchips, die auf der Hauptplatine untergebracht waren.

Mit dem er gab es einen Fortschritt. Der Cache fand direkt im Prozessorchip seinen Platz. Die kurzen Datenwege erhöhten die Geschwindigkeit stark. Die Leiterzüge und Strukturen wurden immer weiter verkleinert. Deshalb entschieden die Ingenieure, den Cache zweistufig zu organisieren. Durch diese Miniaturisierung gelang es nun endlich, auch den L2-Cache im Inneren des Prozessors unterzubringen.

Neuere CPUs haben einen dreistufigen Cache, z. Auf den ersten Blick scheint das ausreichend. Tatsächlich sind die meisten Daten eher zufällig im RAM verteilt, also dauert der Zugriff viel länger. Die schnelle Ableitung der Wärme ist höchst problematisch. Der Kühlkörper muss gut anliegen. Weil Luft die Wärme schlecht leitet, muss dieser Luftspalt mit einer kleinen Menge Wärmeleitpaste gefüllt werden. Verdoppelt man die Taktfrequenz, entsteht näherungsweise die doppelte Wärmemenge.

Teilweise kann man das durch bessere Kühlung ausgleichen. Sie arbeitet wie eine Wärmepumpe. Die wärmeleitenden Teile sind aus Kupfer — teuer, aber ein hervorragender Wärmeleiter.

Prozessorhersteller zeigen manchmal auf Messen, dass eine aktuelle CPU, die mit flüssigem Helium gekühlt wird, durchaus die dreifache Leistung wie bei normaler Kühlung erreichen kann allerdings wird sie das wohl nur wenige Wochen überleben.

Es hängt auch von der Arbeit ab, welche der Prozessor gerade erledigt. Spätestens jetzt sollten Sie in eine bessere Kühlung investieren! Anfangs normalisiert sich die Drehzahl einige Minuten nach dem Einschalten und das Geräusch verschwindet wieder. Wenn sich das Lager noch weiter verschlechtert, gibt es auch beim Einschalten kein Geräusch mehr. Vermutlich steht der Lüfter jetzt für immer still. Jetzt wird es gefährlich. Zweierlei kann jetzt passieren:. Wir erwarten von der Halbleiterindustrie, dass unsere Computer leistungsfähiger werden.

Welche Wege gibt es, um dieses Ziel zu erreichen? Jahrzehntelang bestand sie aus Siliziumdioxid. Mit der Verwendung von Hafnium als Isoliermaterial konnten trotz dünnerer Isolierung die Leckstrom-Verluste auf ein Fünftel reduziert werden.

Als Strukturbreite wird der halbe Abstand zweier Leiterbahnen bezeichnet. Kleinere Strukturen bringen drei Vorteile:. Im November hat Intel begonnen, Prozessoren mit 22 nm Strukturbreite herzustellen [2].

Was kann man mit so vielen Transistoren anfangen? Er wird in nm-Struktur gefertigt, soll die nm-Version folgen. Es gibt neue Stromsparfunktionen. Je nach Auslastung kann für jeden Kern die Versorgungsspannung erhöht oder verringert werden.

Zeitweilig unbenutzte Kerne können sogar komplett abgeschaltet werden, um Strom zu sparen und die Wärmeentwicklung zu verringern. Sie begrenzen die Taktfrequenz, denn je höher der Takt, desto mehr Wärme entsteht. Heutige Prozessoren schalten ungenutzte Funktionsgruppen ab und reduzieren den Stromverbrauch bei geringer Auslastung. Es gibt eine weitere Möglichkeit. Die gewaltige Rechenleistung heutiger CPUs wird nicht immer gebraucht.

Noch kleinere Strukturen als 32 Nanometer sind problematisch [5]. Wenn die Leitungen noch schmaler sind, wird der Elektronentransport zu langsam. Optische Datenleitungen wären der Ausweg: Die Informationen werden mit Lichtblitzen übertragen. Die Lichtblitze sollen mit Miniaturlasern erzeugt werden.

Auf der Oberfläche der Platte sind Leiterzüge aus Kupfer angeordnet. Zur besseren Leitfähigkeit wird das Kupfer meist versilbert oder vergoldet.

Wenn die Trägerplatte auf beiden Seiten Leiterzüge hat, wird die Leiterplatte zweilagig genannt. Für komplexe Schaltungen werden mehrere Leiterplatten aufeinandergeklebt, was vier- und sechslagige Leiterplatten ergibt. Die Platte wird gebohrt und die Bohrlöcher werden innen verzinnt, um die Leiterebenen miteinander zu verbinden. Zum Abschluss werden Widerstände, Kondensatoren und elektronische Bauelemente in die Bohrungen gesteckt und verlötet.

Damit ist eine Platine englisch: Meist ist sie achtlagig, um mehr Leiterzüge auf der Fläche unterzubringen. Die Schaltkreise können zusammenrücken, was einen Geschwindigkeitsvorteil ergibt: Die Hauptplatine wird mit Abstandsbolzen im Gehäuse befestigt. Die Position der Befestigungspunkte ist durch den so genannten Formfaktor definiert. Die Hauptplatine ist Träger für zahlreiche Steckplätze, Schaltkreisfassungen, externe und interne Anschlüsse und elektronische Baugruppen.

Auf der Hauptplatine befindet sich ein Schaltkreis-Sockel englisch: Socket , in den der Prozessor gesteckt wird. Null-Kraft-Sockel verwendet, die mit einem Schwenkhebel im Bild: Weil die Prozessoren immer mehr Anschlusskontakte brauchen, gibt es zahlreiche Sockeltypen. Die Andruckplatte ist hochgeklappt im Bild: Einige hier vorkommende Fachbegriffe und Abkürzungen werden erst in späteren Kapiteln ausführlich erläutert.

Manchmal ist eine einfache Grafikkarte in die Northbridge integriert. Sie ist nicht direkt mit der CPU verbunden, sondern kommuniziert mit der Northbridge. Manchmal kommt sie ohne Kühlkörper aus. Die beiden hochintegrierten Bausteine zusammen werden als Chipsatz bezeichnet. Die Erweiterungskarten stecken senkrecht auf der Hauptplatine. Eine typische Hauptplatine hat drei bis sieben Steckplätze Slots für Erweiterungskarten.

Auf aktuellen Hauptplatinen gibt es zwei Arten von Steckplätzen: PCI-Express gibt es seit Das ist für Netzwerkkarten, USB 2. PCIe x16 bündelt 16 Kanäle und und wird vor allem für Grafikkarten verwendet. Man kann kürzere Karten in längere Slots stecken.

Direkt auf der Hauptplatine sind der Taktgeber, die Uhr, der Chipsatz und andere Bauteile aufgelötet. Dass die Festplatte, die Grafikkarte und der Brenner einen solchen Festwertspeicher benötigen, ist wenig bekannt.

Der PC startet nach dem Einschalten mit dem darin gespeicherten Programm. Aus solchen Bausteinen wird die Computeruhr und ein kleiner Speicher gefertigt.

Uhr und Speicher befinden sich im gleichen Chip. Das Betriebssystem und andere Software fragt bei Bedarf diese Daten ab. Bei ausgeschaltetem PC übernimmt das eine Batterie. Diese reicht etwa drei bis fünf Jahre. Wenn der PC Datum und Uhrzeit vergisst, wenn er ausgeschaltet ist, muss vermutlich die Batterie gewechselt werden.

Am hinteren Rand der Hauptplatine befinden sich die Anschlüsse für die Peripherie: Anzahl und Typ der Anschlüsse sind bei jeder Hauptplatine anders. Deshalb liegt jeder Hauptplatine eine Blende mit passenden Öffnungen für die rückwärtigen Anschlüsse bei.

Neuere Hauptplatinen haben meist mehr Anschlüsse, als sich in der rückwärtigen Blende unterbringen lassen. Zusätzliche Anschlüsse werden an der Frontseite oder an der Rückseite herausgeführt und mit der Hauptplatine verbunden. Diese Anschlüsse sind nicht verwechslungssicher!

Wenn Sie die Beschriftung und die Farbmarkierung beachten Tastatur violett, Maus grün , kann nichts schief gehen. Wenn keine Markierung zu finden ist: Der Anschluss, welcher der Hauptplatine näher liegt, ist der Tastaturanschluss. Wenn Sie die Stecker trotz allem verwechseln, brennt zumindest nichts durch. Sie müssen Tastatur und Maus vor dem Einschalten des Computers angesteckt haben, sonst erkennt und benutzt er sie nicht.

Parallel bedeutet, dass alle Bits eines Zeichens gleichzeitig über ein dickes Kabel übertragen werden. Dieser Anschluss wurde und wird hauptsächlich für Drucker verwendet. Weil die polige Buchse viel Platz benötigt, wird bei Notebooks immer häufiger auf den Parallelport verzichtet. Diese Schnittstellen wurden für langsame Geräte verwendet, wie zum Beispiel Maus, externes Modem, Rechnerkopplung und für die Programmierung von Telefonanlagen und anderen Geräten.

Zunehmend werden Geräte, die früher mit seriellen Anschlüssen ausgestattet waren, auf USB umgestellt. Neuere PC haben oft noch einen seriellen Anschluss. Bei neueren Notebooks fehlen die seriellen Anschlüsse meist ganz. Um den schnellen internen SATA-Anschluss auch für externe Festplatten nutzen zu können, gibt es auf manchen Hauptplatinen einen speziell abgeschirmten d.

USB in der Version 2. Ab Windows sind Treiber im Betriebssystem enthalten. Die USB-Kabel sind nicht symmetrisch: Bei stationären PCs ist das kaum ein Problem, aber einige Notebooks haben Probleme, diesen Maximalstrom zu liefern und sie schalten wegen Überlastung des Anschlusses sicherheitshalber ab.

Günstigstenfalls schaltet der PC ab. In extremen Fällen kann ein minderwertiges PC-Netzteil überlastet und sogar zerstört werden! Sie sollten unbedingt beide Stecker einstecken, sonst kann es zu Fehlfunktionen kommen.

Bei externen Festplatten kann eine mangelhafte Stromversorgung zu totalem Datenverlust führen. Im Jahr wurde USB 3. Alte und neue Stecker und Buchsen sind kompatibel: Man kann USB 2. Man erkennt Superspeed-fähige Stecker und Buchsen daran, dass innen blaue Plaste verwendet wird. Die hohe Geschwindigkeit macht USB 3. Dieser Anschluss wurde ursprünglich vorzugsweise für den Anschluss von Filmkameras verwendet. Mittlerweile gibt es viele externe Geräte mit diesem Anschluss, z.

Die maximalen Übertragungsraten sind in der Tabelle aufgeführt. Die Geräte wählen automatisch diejenige Übertragungsrate aus, die von allen angeschlossenen Geräten beherrscht wird. Donnerkeil wurde gemeinsam von Intel und Apple als Nachfolger von Firewire entwickelt.

Die elektrischen Kabel dürfen drei Meter lang sein. Wenn in beiden Steckern eine Konvertierung der elektrischen in Lichtsignale erfolgt, können die Stecker mit Glasfaserleitung verbunden werden. Diese optischen Kabel dürfen zehn Meter lang sein.

Peripheriegeräte können bis zu 2 Ampere abfordern. Es gibt erste Geräte mit Thunderbolt-Schnittstelle, z. Rechts ist eine alte Netzwerkkarte abgebildet. Bei den vielen roten Vierecken handelt es sich um Steckbrücken, sogenannte Jumper. Sie können sich bestimmt vorstellen, wie kompliziert und fehleranfällig es war, ein halbes Dutzend Komponenten auf diese Art zu konfigurieren. Windows 95 brachte eine Neuerung: Bei diesem Verfahren hat jede nichttriviale Komponente einen eigenen Speicher, in dem deren Anforderungen und Möglichkeiten abgelegt sind.

Mittlerweile funktioniert PnP gut und erspart eine Menge Stress. Bei Stromausfall gehen die gespeicherten Bits nicht verloren. Es stellt einfache Treiber für die wichtigsten PC-Komponenten bereit. Diese Speicherbausteine können ohne Spezialgeräte gelöscht und neu beschrieben werden, dadurch kann der Benutzer ein sogenanntes BIOS-Update selbst durchführen. Das Betriebssystem liest diese Daten vor allem beim Hochfahren. Meist wird die Taste Del bzw.

Entf oder F2 dafür verwendet. Beobachten Sie den PC beim Booten genau. Wenn Sie den Moment verpasst haben, müssen Sie Windows herunterfahren und es erneut versuchen. Das Anschauen der Einstellungen ist völlig ungefährlich, aber bitte nicht planlos die Einstellungen verändern und dann speichern, denn falsche Einstellungen können den PC ausbremsen oder stilllegen.

Wenn das Booten mehrmals nicht gelingt weil Sie den Startvorgang absichtlich unterbrochen haben oder weil einer der eingestellten Parameter nicht funktioniert , werden Sie beim Start gefragt, ob Sie die Standardeinstellungen zurückhaben möchten. Meist müssen Sie dann die Taste F1 drücken.

Das Betrachten der Einstellungen ist ungefährlich, aber bitte nicht planlos die Einstellungen verändern, denn falsche Einstellungen können den PC ausbremsen oder stilllegen. Am rechten oder unteren Bildrand finden sie eine Erläuterung, mit welchen Tasten Sie Einstellungen vornehmen können.

Ein Bit ist Speicherplatz für die kleinstmögliche Informationsmenge: Jedes weitere Bit verdoppelt die Zahl der Kombinationen. Eine Gruppierung von acht Bit nennt man ein Byte. Man kann in einem Byte also eine Zahl zwischen Null und oder ein Zeichen einen Buchstaben des Alphabets oder ein Sonderzeichen speichern.

Da der PC im Binärsystem rechnet, werden auch die Speichereinheiten binär adressiert. Jeder Speicherchip und jeder Speichermodul hat eine Kapazität, die eine Zweierpotenz ist: Eine Speicherkapazität von z.

Dann entstünden aber ungenutzte Bereiche, die aber natürlich dennoch hergestellt werden müssen; ein Byte-Chip würde genausoviel kosten wie ein Byte-Chip. Den kleinen Unterschied nahm man in Kauf. Beim magnetischen und optischen Speicher gibt es dagegen keine fertigungsbedingten Einschränkungen auf Zweierpotenzen. Der Anwender ohne das Wissen aus diesem Artikel meint nun, zwar eine 1 Terabyte-Festplatte gekauft zu haben, aber davon nur 0, Terabyte nutzen zu können.

Gern wird dabei dem Hersteller aufgrund dieser schon beträchtlichen Differenz Betrug unterstellt. Darüber hinaus sollten gespeicherte Informationen bei Bedarf jahrzehntelang verlustfrei haltbar sein. Leider gibt es keine Speichertechnologie, welche diese Anforderungen auch nur näherungsweise erfüllt. Daher gibt es in einem PC mehrere Arten von Speicher, die abgestimmt zusammenarbeiten. Deshalb werden gleichartige Daten zu Blöcken zusammengefasst. Mehrere Cluster hintereinander bilden eine Spur der Festplatte.

Nehmen wir an, eine Spur enthält Sektoren zu je Byte, das ergibt gerundet Byte. Das zeigt aber auch, dass die Reihenfolge der Daten auf einem Massenspeicher optimiert werden sollte, um bessere Geschwindigkeiten zu erzielen.

Windows bemüht sich, alle für eine Anwendung benötigten Programmteile und Daten im Arbeitsspeicher bereitzuhalten. Wenn der Arbeitsspeicher nicht ausreicht, muss Windows Teile des Arbeitsspeichers auf die viel langsamere Festplatte auslagern.

Die Festplatten, Diskettenlaufwerke, Flash-Speicher und optischen Speicher werden etwas später behandelt. ROM verliert die Daten nicht, wenn der Strom abgeschaltet wird. Mit speziellen Mitteln, Geräten oder Programmen ist das möglich. Leider ist RAM ein flüchtiger Speicher.

Strom weg - Daten weg. Vor dem Ausschalten des PC müssen die veränderten Daten auf Festplatte zurückgeschrieben gespeichert werden, sonst gehen sie verloren. Der Arbeitsspeicher ist eine Baugruppe auf der Hauptplatine, die über schnelle Datenwege mit dem Prozessor verbunden ist.

Der Prozessor benutzt den Arbeitsspeicher als Ablage für operative Daten, Zwischenergebnisse und auch für die Liste der nächsten Befehle. Die RAM-Speicherbausteine lassen sich in zwei Arten unterteilen, die auf ganz unterschiedlichen Technologien beruhen und dementsprechend in allen Kenndaten sehr unterschiedlich sind.

Jede Speicherzelle besteht aus einem Kondensator das ist ein Kurzzeitspeicher für Elektrizität und einem Transistor. Wenn die CPU wissen will, was gespeichert ist das nennt man eine Leseanforderung , gibt der Transistor die elektrische Ladung frei.

Deshalb muss in einem zweiten Schritt der frühere Speicherinhalt wiederhergestellt werden. Das Lesen der Daten beansprucht etwa die Hälfte dieser Zeit, die andere Hälfte wird für das Zurückschreiben Wiederherstellen gebraucht. Halbleitermaterial ist kein perfekter Isolator. Wie der Name sagt, leitet es elektrischen Strom, wenn auch wenig.

Darum muss die Ladung der winzigen Kondensatoren einige tausend Male in der Sekunde aufgefrischt nachgeladen werden. DRAM ist wegen des simplen Funktionsprinzips günstig zu produzieren, wobei man hohe Packungsdichten erreicht.

Stellen Sie sich den Aufwand vor, wenn einer davon defekt war und man durch Auswechseln ermitteln muss, welcher der defekte ist! Pro Speichertakt werden viermal Daten übertragen. Dadurch verdoppelt sich die Datenübertragungsrate erneut: Die Datenübertragungsrate verdoppelt sich zum dritten Mal: Pro Takt werden achtmal Daten übertragen. Bei niedriger Temperatur verlieren die Speicherzellen weniger Elektronen und die Refresh-Häufigkeit kann verringert werden.

Im Jahr soll die Spezifikation fertig sein: DDR4-Speicher haben eine wesentlich verbesserte und schnellere Fehlerkorrektur. Wozu ist das nötig? Es gibt zufällige Störungen, z.

Überall auf der Erde gibt es eine natürliche Radioaktivität. Dazu ein interessantes Fundstück aus den 70er Jahren:. Dazu muss man wissen, dass Los Alamos auf ca. In Los Alamos ist die kosmische Neutronenstrahlung fünfmal stärker als auf Meereshöhe. Einzelbitfehler führen nur selten zu Abstürzen: Meist trifft es ungenutzte Programmteile oder Massendaten. Wenn in einer Video- oder Audiodatei ein Bit falsch ist, können Sie das unmöglich sehen oder hören.

Sehen Sie im Handbuch nach, welcher Typ passt. Meist ist die schnellste der gängigen Geschwindigkeiten gleichzeitig die beliebteste und aufgrund der hohen Verkaufszahlen auch die günstigste. Damit verbunden ist bei kompletter Neubestückung ein messbarer, aber kaum spürbarer Geschwindigkeitsvorteil. Läuft ein neues Modul im Verbund mit einem älteren, so wird es automatisch auf dessen Takt gebremst, um einen stabilen Betrieb zu gewährleisten. Schnellere Speichertypen als in der Tabelle gelistet benötigen manuelle Einstellungen, da sonst nur der vom Hauptplatinen-Hersteller freigegebene Maximaltakt benutzt wird.

Wenn der Arbeitsspeicher knapp wird, muss das Betriebssystem prognostizieren, welche Programmkomponenten demnächst vermutlich nicht benötigt werden, und diese auf die vieltausendmal langsamere Festplatte auslagern.

Wenn Sie einen vom Betriebssystem nicht vorausgeahnten Klick machen, muss das Betriebssystem ganz schnell irgendein ungenutztes Programmteil auslagern, um das von Ihnen gewünschte Programmteil laden zu können. Zu wenig Arbeitsspeicher bremst deshalb auch den schnellsten PC aus. Komplettsysteme sind mit RAM eher knapp ausgestattet, um einen günstigen Preis zu erreichen.

Für ein wenig Surfen, Musik hören und Videos betrachten reicht das auch. Windows muss zunehmend oft ungenutzte Programmteile auslagern. Doch das gilt nur für die jeweils neueste Technologie. Veraltete Technologien werden nicht mehr weiterentwickelt und die Produktionsmengen sinken, deshalb bleiben die Preise für ältere RAM-Typen auf hohem Niveau. Wesentlich länger als zwei Jahre mit dem Nachkauf zu warten kann riskant sein, weil dann die passende RAM-Sorte möglicherweise nicht mehr hergestellt wird oder in so geringer Menge, dass wegen andauernder Nachfrage die Preise nicht sinken.

Aber so eine Investition ist teuer weil Sie die ausgebaute CPU nicht weiterverwenden können und bringt vermutlich ein bescheidenes Resultat. Dieser hohe Schaltungsaufwand bringt einen deutlichen Geschwindigkeitsvorteil:. Je schneller der Prozessor ist, desto öfter muss er auf Daten warten.

Schnellerer Speicher wäre wunderbar. Es wird intensiv nach alternativen Technologien gesucht, aber bisher ist keine der neuen Erfindungen in Massenproduktion gegangen. Die benötigte Leiterplattenfläche wäre riesig und die Datenwege würden zu lang werden. Um eine Strecke von 30 cm zu durchlaufen, braucht ein Lichtstrahl eine Nanosekunde. Elektrische Signale sind geringfügig langsamer als das Licht. Darüber hinaus hat es sich für viele Verwendungen als nützlich erwiesen, die Daten in ROM-Bausteinen nachträglich ändern zu können.

Der Rohling wird zum Beschreiben in ein sogenanntes Programmiergerät gesteckt. Man kann übrigens den Chip etappenweise brennen: Zuerst einen Adressbereich, dann den nächsten Bereich. Wie erfolgt das Löschen? Ultraviolettlicht ist sehr energiereich. Nun hat man nur selten einige Wochen Zeit. Leider muss der Chip zum Löschen und Beschreiben ausgebaut werden. Man kann in den Chip hineinsehen. Weil die aggressive UV-Strahlung entfällt, halten diese Chips mehr als Die weitere Beschleunigung des Schreibvorganges führte zu den sogenannten Flash-Speichern.

Die Leitfähigkeit des Control Gate hängt davon ab, ob sich in der Speicherzelle eine Ladung befindet oder nicht. Man kann den Speicherinhalt beliebig oft lesen, ohne dass sich die Ladung der Speicherzelle dabei verändert.

Es gibt dabei zwei Probleme: Das Schreiben dauert deutlich länger als das Lesen. Schlimmer ist, dass die Isolierschicht dabei Schaden nimmt. Nach einigen hunderttausend Schreib- oder Löschvorgängen ist die Speicherzelle kaputt. Deshalb muss die Anzahl der Schreibvorgänge durch geeignete Software und die Ansteuerlogik minimiert werden.

Das wird auf mehreren Wegen erreicht. Lässt sich ein Stick wegen "Abnutzung" nicht mehr beschreiben, kann er zumindest noch gelesen werden. Lesen und Schreiben kann dadurch nur in ganzen Blöcken erfolgen, wie z. Die geringere Zahl von Datenleitungen spart Platz auf dem Chip. Der technologische Aufwand ist höher, doch die Zugriffszeit ist erheblich kürzer. Leider herrscht bei den Bauformen der Speicherkarten ein unglaubliches Chaos. Es fehlt ein Standard. UFS ist schnell und stromsparend.

Leider stemmte sich die Firma Sandisk gegen den Standard: Sandisk wollte das hauseigene Format nicht aufgeben. Das sind Speicherzellen, in denen mehr als ein Bit pro Zelle gespeichert wird. Erinnern Sie sich an die Erklärung, dass das Dezimalsystem für Computer ungeeignet ist, weil es schwer ist, zehn verschiedene Spannungen präzise zu unterscheiden? Je mehr Ladungszustände pro Zelle unterschieden werden müssen, desto wahrscheinlicher ist das Auftreten von Bitfehlern.

Der Aufwand für Fehlerkorrekturschaltungen steigt. MLC sind zu empfehlen, wenn Daten nur selten geschrieben werden, z. Kontaktprobleme am Stecker können ebenfalls zu Datenverlusten führen.

Manchmal genügt ein Wackeln am eingesteckten Stick. Nur wenn Sie Windows von Ihrer Absicht informieren, den Stick zu entfernen, können Sie sicher sein, dass alle zu schreibenden Daten tatsächlich auf dem Stick ankommen. Gleiches gilt für Linux. Andernfalls können die zuletzt geschriebenen Daten oder der ganze Inhalt des Speichersticks verloren gehen. Warum das so gefährlich ist, können Sie am Ende des Kapitels über externe Festplatten genauer nachlesen.

Wie lange bleiben die gespeicherten Daten erhalten, wenn keiner dieser Unfälle geschieht? Sie sind langlebiger und haben kürzere Zugriffszeiten. Es gibt sie in zwei Bauformen: In hochwertigen Notebooks sind sie häufig anzutreffen. Vor mehr als 50 Jahren, am Die Festplatte war ein echtes Erfolgsmodell: Das Laufwerk wurde nicht verkauft, sondern für ca. Kleiner wurden die Abmessungen. Gleichzeitig fiel der Preis: Der Festplatte und ihrem Inhalt drohen zahlreiche Gefahren.

Die meisten dieser Fehler führen nur zu kleineren Schäden. Hardwarefehler sind vergleichsweise sehr selten, aber wenn sie auftreten, sind die Folgen verheerend.

Kein anderer Schaden verursacht so viel Stress wie ein Totalausfall der Festplatte. Die Schäden sind vielfältig:. Es folgt ein Abschnitt über Pflege und Wartung der Festplatte. Für weitergehende Informationen gibt es einen Anhang. In der heute meistverwendeten Unicode-Darstellung werden zwei Byte pro Zeichen benötigt. Diese Zahlen gelten für Text ohne Illustrationen.

Bilder benötigen - je nach Qualität - zehn- bis hundertfach mehr an Speicherplatz als Text. Das reicht für eine drei Jahre dauernde Stunden Beschallung. Auch Glas wird manchmal als Trägermaterial verwendet, weil eine Glasoberfläche glatter poliert werden kann als Metall. Man kann sich das wie einen flachen Stabmagneten vorstellen.

Ein Spindelantriebsmotor sorgt für eine hohe konstante Drehzahl. Das verringert ein wenig den Strombedarf, den Geräuschpegel und den Datendurchsatz. Teure Profi-Festplatten bringen es auf Je dichter die Spuren beieinander liegen, desto mehr Daten passen auf die Platte.

Aktuelle Festplatten haben Die Schwenkarme sind untereinander starr verbunden und bewegen sich stets gemeinsam zur gewünschten Spur. So sind stets mehrere Spuren gleichzeitig verfügbar, ohne dass die Köpfe weiterbewegt werden müssen. Das Betriebssystem speichert umfangreichere zusammenhängende Informationen nach Möglichkeit in den Spuren eines Zylinders, um die Anzahl der Kopfbewegungen zu minimieren.

In der Mathematik ist ein Sektor ein tortenähnlicher Ausschnitt aus einem Kreis, auf der Festplatte sind damit gebogene Linien gemeint. Jede Spur ist in einige Tausend Sektoren Bogenstücke geteilt.

Die dadurch entstehenden Datenblöcke sind die kleinste adressierbare Datenmenge. Bei der schnellen Rotation wird die Luft über den Scheiben mitgerissen. Mit der Zugriffszeit wird angegeben, wie schnell eine Festplatte arbeitet. Die Zugriffszeit setzt sich aus folgenden Faktoren zusammen:.

Nicht nur der Prozessor benutzt einen Cache-Speicher, auch die Festplatte hat einen. Das ist mehr, als die ersten Festplatten als Gesamtkapazität hatten. Der Cache wird auf drei Arten genutzt:. Allerdings hat diese Zwischenspeicherung einen gefährlichen Nachteil. Wenn Sie den PC versehentlich ausschalten, ohne ihn herunterzufahren, verlieren Sie möglicherweise Daten.

Oft sind die Verwaltungstabellen betroffen, das bedeutet: Der gesamte Inhalt der Festplatte kann weg sein. Besonders gefährlich ist es in der ersten Minute nach dem Ende eines Schreibvorgangs.

Sie verlieren merklich Geschwindigkeit, aber Sie verlieren Ihre Daten nicht. Sie haben vorhin gelesen, wie gering der Abstand der Magnetköpfe von der Festplatte ist. Das ist fache Schallgeschwindigkeit! Sie sollten besser nicht einsteigen: Sie würden mit einer Beschleunigung von Angenommen, der leere Sitz wiegt 4 Kilogramm. Er könnte innerhalb einer Stunde die Erde umrunden oder - wenn die Geschwindigkeit konstant bleiben würde - in neun Stunden den Mond erreichen.

Haben Sie nun eine Vorstellung davon, warum Erschütterungen so gefährlich für die Festplatte sind? Kopfaufsetzer können Ihre Festplatte in Sekundenbruchteilen zerstören. Wenn der Kopf bei einem stärkeren Aufsetzer die Schutzschicht verdampft oder durchdringt, wird die Magnetschicht beschädigt und der Kopf vielleicht gleich mit.

Die Daten, die sich dort befunden haben, sind weg. Den Datenverlust bemerkt man meist erst später. Wenn irgendwann ein Programm diesen beschädigten Bereich zu lesen oder zu beschreiben versucht und das nicht gelingt, wird der Bereich automatisch für die weitere Benutzung gesperrt. Wie nennt man es, wenn bei voller Drehzahl ein Kopf die Oberfläche der Scheibe berührt?