Personen - Telefon / E-Mail-Verzeichnis


Dieses „Hardware-Anfängerbuch“ vermittelt grundlegende Hardware-Kenntnisse, die jeder PC-Benutzer haben sollte. Das Buch ist aus Lehrgängen für Verkäuferinnen, Apothekerinnen, Anwälte und Steuerberater entstanden.

Wie rechnet man im Binärsystem? Magnetplatten wegen der Fragmentierung und SSDs wegen des oben beschriebenen aufwändigen Löschvorgangs. Kommen Sie aber bitte nicht auf die Idee, nach jeweils drei Minuten Leerlauf die Festplatte abzuschalten, um Strom zu sparen! Eine Untersuchung zur Struktur und Strukturentwicklung des kleinflächigen privaten Waldeigentums unter den Bedingungen der gesellschaftlichen Transformation am Beispiel des Freistaates Sachsen. Unternehmertum und Public Private Partnership.

Primärmenü

Dieses „Hardware-Anfängerbuch“ vermittelt grundlegende Hardware-Kenntnisse, die jeder PC-Benutzer haben sollte. Das Buch ist aus Lehrgängen für Verkäuferinnen, Apothekerinnen, Anwälte und Steuerberater entstanden.

August , wie aus der Abbildung 5 hervorgeht. Dann kam der Oktober und die Abwärtsbewegung. Die US Präsidentenwahl mit Donald Trump als Gewinner hat mit seinem geplanten Wirtschaftsprogramm die Inflationserwartung nach oben getrieben und den Eurokurs in den Kursabschwung gedrückt. Der Eurokurs im Abwind: Wir wollen auf dieser Seite nicht nur einen Überblick über die am Markt abgegebenen Dollar Kursprognosen geben, sondern auch deren Güte und die Treffergenauigkeit der einzelnen Institute untersuchen und quantifizieren.

Dazu werden die abgegebenen Kursprognosewerte mit den tatsächlichen Kurwerten zum angegebenen Stichdatum verglichen und die Abweichung berechnet. Jede kleiner die Differenz desto besser ist die Güte des verwendeten Modells.

Um die realen Fehlerraten des betrachteten Kollektivs zu ermitteln, werden auch der Median, Mittelwert, Fehler des Mittelwertes und die Standardabweichungen aller Prognosen ermittelt. Auf eine Modellvalidierung nach der Bootstrap-Methode oder mittels multipler logistischer Regressionsmodelle wird hier verzichtet, da die zugrundeliegenden Modelle bzw. Modellparameter überwiegend nicht veröffentlicht sind.

Entweder ignoriert der Finanzmarkt die Daten, oder er traut der FED diese Leitzinsanhebungen nicht zu, denn andernfalls müsste der Dollar gegenüber dem Euro weiter aufwerten. Die bedeutendsten Ergebnisse sind:. Was in einem Umfeld, das von niedrigen und sinkenden Zinsen in der Eurozone geprägt ist, nicht verwundert. Eine auffällige Entwicklung war die rund zehnprozentige Abwertung des nominalen effektiven Euro Wechselkurse in den 12 Monaten bis Mai Finanzmarktanalyse und -prognose mit innovativen quantitativen Verfahren.

Das Buch ist eine wissenschaftliche Analyse der alten Kunst der Wahrsagerei. Tetlock, der an der Wharton School of Business lehrt, wurde berühmt für einen Jahres-Prognose Wettkampfes, der von bis lief.

Seine Ergebnisse waren subtiler als das, und sein neues Buch ist ein Versuch, die Sache richtig zu stellen. Es zeigt, dass die Zukunft zwar vorgesehen werden kann, zumindest was die nahe Zukunft betrifft. Noch interessanter ist, zeigt es, dass einige Leute viel besser sind als andere auch als die beruflichen Prognostiker.

Und entscheidend ist, dass Prophezeiung ist nicht eine göttliche Gabe sind und auch keine wissenschaftliche Disziplin, aber eine Fähigkeit, die geübt und verbessert werden kann. Auf der Webseite von P. Und mehr noch, für stellt die Notenbank 3 weitere Zinsanhebungen in Aussicht. Hier die aktuellen Projektionen vom März getagt und die Federal Funds Rate nicht verändert. Dies entsprach den Erwartungen der meisten Analysten und Ökonomen. Dafür gab es eine wichtige Veränderung bezüglich der Leitzinsprojektionen: Auch nach dieser Pressekonferenz gab es heftige Bewegungen an den Finanzmärkten, der Eurokurs konnte deutlich zulegen.

Der Hauptrefinanzierungssatz beträgt mit Wirkung zum Die Reaktion am Devisenmarkt war wie gewohnt heftig, wie aus der Abbildung rechts zu sehen ist. Mario Draghi zeigte sich aber besorgt über die stark schwankenden Bewertungen an den Finanzmärkten und über die geringe Inflationserwartung in der Eurozone. Der Euro fällt unmittelbar nach der Eurostat Pressemitteilung um Commerzbank Economic Research Wie schnell der Euro auf kürzere Sicht nachgeben wird, dürfte davon abhängen, wie gut es der EZB gelingt, die Fantasie auf weitere Schritte überzeugend zu vermitteln.

Die Prognose für Der Euro geht am Ende der Woche am September erklärt, warum sie die Zinsen noch nicht anheben wird: Der Dollar verlor daraufhin und der Eurokurs konnte erstmals im September wieder über 1,14 steigen. Ob die Arbeitsmarktdaten in Anbetracht der globalen Kapitalmarktunsicherheiten für die FED ausreichen die Leitzinsen zu erhöhen bleibt bis zur Sitzung am Der aktuelle Dollarkurs kann jedenfalls von den Daten leicht profitieren: Der Markt stuft die Wahrscheinlichkeit einer baldigen US Zinserhöhung bei den aktuellen Börsenturbulenzen als gering ein.

Der Euro wertet gegenüber dem Dollar Intraday von 1, auf temporär 1, auf. Der Kapitalmarkt wertet dies offenbar als Schwäche der chinesischen Wirtschaft, der die die Regierung durch eine Abwertung des Yuan Exportpreisvorteile verschaffen will.

Ein Währungskrieg ist nicht ausgeschlossen. Der aktuelle Dollarkurs geht daraufhin gegenüber dem Euro auf Tauchstation. Im Mittelpunkt stehen die Bemühungen zum Natur- und Artenschutz am Spitzberg und ebenso eine Situations- und Problemanalyse, die für die zukünftige Naturschutzarbeit die Grundlagen liefern und wichtige Akzente setzen kann.

Die Ergebnisse des Projektes münden in ein Buch mit dem Titel: Die Vielfalt der Beiträge des Buches reicht von der Nutzungs- und Landschaftsgeschichte, der Geschichte der Unterschutzstellung, der touristischen Bedeutung des Spitzberges, den abiotischen Gegebenheiten und der Dokumentation der Biodiversitätsmuster und deren Veränderung anhand ausgewählter Tier- und Pflanzengruppen des Spitzberges. Transferprojekt in Kooperation mit den Dachverband Deutscher Avifaunisten e. Ziel des Projektes ist es, praxisnahe Optionen für die Erhöhung der Artenvielfalt in den Agrarlandschaften Deutschlands aufzuzeigen.

Das Projekt ist von bundesweiter Bedeutung, da es direkt die Ziele der Nachhaltigkeitsstrategie der Bundesregierung aufgreift und versucht Lösungen aufzuzeigen. Der Nachhaltigkeitsindikator für die Artenvielfalt stellt einen von 21 Schlüsselindikatoren der Nachhaltigkeitsstrategie der Bundesregierung dar. Im Rahmen des Projektes sollen entsprechend der nationalen Strategie zur Biologischen Vielfalt für eine Erhöhung der Artenvielfalt entscheidende Parameter, z.

Zur Berechnung des Teilindikators werden bundesweite Bestandsentwicklungen von zehn Vogelarten u. Für das Projekt werden Am Beispiel von 50 ausgewählten Brutvogelarten sollen die möglichen klimainduzierten Verbreitungsveränderungen der Vogelwelt Sachsen-Anhalts prognostiziert und dargestellt werden. Hierbei werden erstmals in einer Auflösung von 10 x 10 m die heutige und die Verbreitung der Vögel in Sachsen-Anhalt für das Jahr mit Hilfe hochauflösender Modelle modelliert.

Mit dem Forschungsprojekt soll eine wichtige Grundlage für die naturschutzfachliche Bewertung und die Ableitung von Handlungsempfehlungen und Anpassungsstrategien zur Abwendung negativer Folgen des Klimawandels auf die Biodiversität Sachsen-Anhalts gelegt werden. Aktuell hier zum Download: An normalen Arbeitstagen ständig. Längere Unterredungen nach vorheriger Vereinbarung. April , ist Vater von drei Kindern Lukas geb. Seit ist Prof.

Im Juli wurde er von den Mitgliedern der Rektorenkonferenz erstmals zu deren Vorsitzenden gewählt und inzwischen zwei Mal in dieser landesweiten Funktion bestätigt. Kaiser nach wie vor lehrend und forschend in seiner Professur tätig. Seine Arbeitsschwerpunkte liegen auf der Ökonomie der Forst- und Holzwirtschaft, auf Arbeiten zur Organisation, Struktur und Reform öffentlicher und privater Forstbetriebe, auf Studien zur wirtschafts-, gesellschafts- und energiepolitischen Bedeutung von Wäldern im nationalen und im internationalen Kontext sowie auf hochschulpolitischen Arbeiten und Impulsen bei der Übertragung der Erfahrungen und des Modells anwendungs- und umsetzungsorientierter Forschung und Lehre in Hochschul- und Wissenschaftssysteme anderer Länder.

Vermittlung von Praxisplätzen, Kontakt und Schriftverkehr mit Praxisbetrieben. Während der Vorlesungszeiten i. August , verheiratet und Vater von drei Kindern, studierte nach Abitur und Zivildienst Forstwirtschaft an der Hochschule für Forstwirtschaft in Rottenburg.

FH Forstwirtschaft und mit der Staatsprüfung für den gehobenen Forstdienst ab. Die Waldbesitzervereinigung Kempten gründete mit ihren Nachbarvereinigungen die in. Silva eG und Herr Petkau übernahm die Geschäftsführung dieser Holzhandels- und Logistikgenossenschaft heute ist er Aufsichtsratsvorsitzender der Genossenschaft. Strategie- und Netzwerkforschung, Sozioökonomie in der Forst- und Holzwirtschaft, Institutionen nationaler und internationaler Waldpolitik, Holzbereitstellungsprozesse, Waldvermögensoptimierung, Bewertung von Ökosystemleistungen.

Liegenschaften und Recht — 95 ; Leiter Abt. Betriebswirtschaft, Waldarbeit, Haushalt — 98 ; Gebietsinspektion — Eine Untersuchung zur Struktur und Strukturentwicklung des kleinflächigen privaten Waldeigentums unter den Bedingungen der gesellschaftlichen Transformation am Beispiel des Freistaates Sachsen.

Forschungsförderung des Sächsischen Staatsministeriums für Umwelt und Landwirtschaft. Oktober in Sohland a. Setzer, Frank; Schurr, Christoph Schurr, Christoph; Schöne, Christian Gerold, Denie; Schneider, Marco Hrsg. Reihe forum ifl Heft Chancen zur Überwindung von Strukturhemmnissen.

Realgenossenschaft Oberkochen — Eigenverlag der Realgenossenschaft Oberkochen. Qualitätssicherung der Lehre; Akkreditierung der Studiengänge; Evaluation der Lehrveranstaltungen, Erstsemesterbefragung, Absolventenbefragung. Hausmeister; Verkehrssicherungspflicht, Energiefragen, Betreuung d. Professur für Maschinenbau und Verfahrenstechnik; Wissenschaftlicher Sicherheitsbeauftragter; Datenschutzbeauftragter der Hochschule nach Art.

Hausmeistergehilfe; Verkehrssicherungspflicht, Betreuung d. Thorwarth als wissenschaftlicher Mitarbeiter am Institut für Verfahrenstechnik und Dampfkesselwesen heute: Nach der Promotion wechselte Prof. Er ist dort wissenschaftlicher Leiter des Zentrallabors der Hochschule. Thorwarth ist aktiv in verschiedenen Gremien und Arbeitskreisen. Nachhaltiges Regionalmanagement 31 B. Erneuerbare Energien 34 B. Ressourcenmanagement Wasser M. Ressourceneffizientes Bauen 35 M.

Monika Bachinger Professur für Tourismus T. April - März , abgeschlossen Stakeholder Value in Regionalentwicklungsprozessen — der Einfluss von Sozialkapital auf die Entstehung von kooperativen Kernkompetenzen Laufzeit: Das Beispiel der Nationalparkregion Schwarzwald, in: How may interdisciplinary research inform destination governance?

Regional Governance zwischen Netzwerk und Hierarchie. Das Beispiel der Region Ingolstadt, in: Keine Strategie ohne Verantwortung. Gründungschancen für Frauen durch Nationalparks? Bausteine für integrierte und nachhaltige Zukunftsstrategien. Vom Einzelkämpfer- zum Netzwerkdenken, in: Transdisziplinär und transformativ forschen. Anforderungen an die Governance von transdisziplinären Lernprozessen in Reallaboren.

Gesundheit in der entwickelten Erlebnisgesellschaft. What Drives Resource Efficiency in Tourism? Stakeholder Value in Regionalentwicklungsprozessen. Eine relationale Perspektive, in Pechlaner, H. Innovation, Qualität und Kooperation, Wiesbaden, S. Cooperative core competencies in tourism: Combining resource-based and relational approaches in destination governance, European Journal of Tourism Research, Vol 8, S. Identification and development of core competencies as a basis for regional development with special focus on health tourism, in Voigt, C.

A destination perspective, New York, S. Regional core competencies as a basis for entrepreneurship? Lebensqualität als Standortfaktor für Hochqualifizierte: Stakeholder Value in Regionalentwicklungsprozessen: Netzwerke und regionale Kernkompetenzen.

Kooperationsmodelle zur branchenübergreifenden Kompetenzentwicklung, Wiesbaden: Ein netzwerkbasierter Definitionsansatz, in Pechlaner, H. Management von Netzwerken in Regionen und Destinationen, Wiesbaden: Standortmanagement und Lebensqualität, in Pechlaner, H.

Kultur, Mobilität und regionale Marken als Erfolgsfaktoren, Berlin: Den Wandel antizipieren und aktiv gestalten, Wiesbaden: Knowledge networks of innovative businesses: The change corridor in transition from region to destination, in Keller, P. Managing change in tourism: Unternehmertum und Public Private Partnership. Auf der Hauptplatine befindet sich ein Schaltkreis-Sockel englisch: Socket , in den der Prozessor gesteckt wird.

Null-Kraft-Sockel verwendet, die mit einem Schwenkhebel im Bild: Weil die Prozessoren immer mehr Anschlusskontakte brauchen, gibt es zahlreiche Sockeltypen. Die Andruckplatte ist hochgeklappt im Bild: Einige hier vorkommende Fachbegriffe und Abkürzungen werden erst in späteren Kapiteln ausführlich erläutert.

Manchmal ist eine einfache Grafikkarte in die Northbridge integriert. Sie ist nicht direkt mit der CPU verbunden, sondern kommuniziert mit der Northbridge. Manchmal kommt sie ohne Kühlkörper aus. Die beiden hochintegrierten Bausteine zusammen werden als Chipsatz bezeichnet. Die Erweiterungskarten stecken senkrecht auf der Hauptplatine. Eine typische Hauptplatine hat drei bis sieben Steckplätze Slots für Erweiterungskarten. Auf aktuellen Hauptplatinen gibt es zwei Arten von Steckplätzen: PCI-Express gibt es seit Das ist für Netzwerkkarten, USB 2.

PCIe x16 bündelt 16 Kanäle und und wird vor allem für Grafikkarten verwendet. Man kann kürzere Karten in längere Slots stecken.

Direkt auf der Hauptplatine sind der Taktgeber, die Uhr, der Chipsatz und andere Bauteile aufgelötet. Dass die Festplatte, die Grafikkarte und der Brenner einen solchen Festwertspeicher benötigen, ist wenig bekannt. Der PC startet nach dem Einschalten mit dem darin gespeicherten Programm. Aus solchen Bausteinen wird die Computeruhr und ein kleiner Speicher gefertigt. Uhr und Speicher befinden sich im gleichen Chip. Das Betriebssystem und andere Software fragt bei Bedarf diese Daten ab.

Bei ausgeschaltetem PC übernimmt das eine Batterie. Diese reicht etwa drei bis fünf Jahre. Wenn der PC Datum und Uhrzeit vergisst, wenn er ausgeschaltet ist, muss vermutlich die Batterie gewechselt werden. Am hinteren Rand der Hauptplatine befinden sich die Anschlüsse für die Peripherie: Anzahl und Typ der Anschlüsse sind bei jeder Hauptplatine anders. Deshalb liegt jeder Hauptplatine eine Blende mit passenden Öffnungen für die rückwärtigen Anschlüsse bei.

Neuere Hauptplatinen haben meist mehr Anschlüsse, als sich in der rückwärtigen Blende unterbringen lassen. Zusätzliche Anschlüsse werden an der Frontseite oder an der Rückseite herausgeführt und mit der Hauptplatine verbunden.

Diese Anschlüsse sind nicht verwechslungssicher! Wenn Sie die Beschriftung und die Farbmarkierung beachten Tastatur violett, Maus grün , kann nichts schief gehen. Wenn keine Markierung zu finden ist: Der Anschluss, welcher der Hauptplatine näher liegt, ist der Tastaturanschluss. Wenn Sie die Stecker trotz allem verwechseln, brennt zumindest nichts durch. Sie müssen Tastatur und Maus vor dem Einschalten des Computers angesteckt haben, sonst erkennt und benutzt er sie nicht. Parallel bedeutet, dass alle Bits eines Zeichens gleichzeitig über ein dickes Kabel übertragen werden.

Dieser Anschluss wurde und wird hauptsächlich für Drucker verwendet. Weil die polige Buchse viel Platz benötigt, wird bei Notebooks immer häufiger auf den Parallelport verzichtet. Diese Schnittstellen wurden für langsame Geräte verwendet, wie zum Beispiel Maus, externes Modem, Rechnerkopplung und für die Programmierung von Telefonanlagen und anderen Geräten.

Zunehmend werden Geräte, die früher mit seriellen Anschlüssen ausgestattet waren, auf USB umgestellt. Neuere PC haben oft noch einen seriellen Anschluss.

Bei neueren Notebooks fehlen die seriellen Anschlüsse meist ganz. Um den schnellen internen SATA-Anschluss auch für externe Festplatten nutzen zu können, gibt es auf manchen Hauptplatinen einen speziell abgeschirmten d.

USB in der Version 2. Ab Windows sind Treiber im Betriebssystem enthalten. Die USB-Kabel sind nicht symmetrisch: Bei stationären PCs ist das kaum ein Problem, aber einige Notebooks haben Probleme, diesen Maximalstrom zu liefern und sie schalten wegen Überlastung des Anschlusses sicherheitshalber ab. Günstigstenfalls schaltet der PC ab. In extremen Fällen kann ein minderwertiges PC-Netzteil überlastet und sogar zerstört werden! Sie sollten unbedingt beide Stecker einstecken, sonst kann es zu Fehlfunktionen kommen.

Bei externen Festplatten kann eine mangelhafte Stromversorgung zu totalem Datenverlust führen. Im Jahr wurde USB 3. Alte und neue Stecker und Buchsen sind kompatibel: Man kann USB 2. Man erkennt Superspeed-fähige Stecker und Buchsen daran, dass innen blaue Plaste verwendet wird. Die hohe Geschwindigkeit macht USB 3. Dieser Anschluss wurde ursprünglich vorzugsweise für den Anschluss von Filmkameras verwendet. Mittlerweile gibt es viele externe Geräte mit diesem Anschluss, z.

Die maximalen Übertragungsraten sind in der Tabelle aufgeführt. Die Geräte wählen automatisch diejenige Übertragungsrate aus, die von allen angeschlossenen Geräten beherrscht wird.

Donnerkeil wurde gemeinsam von Intel und Apple als Nachfolger von Firewire entwickelt. Die elektrischen Kabel dürfen drei Meter lang sein. Wenn in beiden Steckern eine Konvertierung der elektrischen in Lichtsignale erfolgt, können die Stecker mit Glasfaserleitung verbunden werden. Diese optischen Kabel dürfen zehn Meter lang sein. Peripheriegeräte können bis zu 2 Ampere abfordern. Es gibt erste Geräte mit Thunderbolt-Schnittstelle, z.

Rechts ist eine alte Netzwerkkarte abgebildet. Bei den vielen roten Vierecken handelt es sich um Steckbrücken, sogenannte Jumper. Sie können sich bestimmt vorstellen, wie kompliziert und fehleranfällig es war, ein halbes Dutzend Komponenten auf diese Art zu konfigurieren. Windows 95 brachte eine Neuerung: Bei diesem Verfahren hat jede nichttriviale Komponente einen eigenen Speicher, in dem deren Anforderungen und Möglichkeiten abgelegt sind.

Mittlerweile funktioniert PnP gut und erspart eine Menge Stress. Bei Stromausfall gehen die gespeicherten Bits nicht verloren. Es stellt einfache Treiber für die wichtigsten PC-Komponenten bereit. Diese Speicherbausteine können ohne Spezialgeräte gelöscht und neu beschrieben werden, dadurch kann der Benutzer ein sogenanntes BIOS-Update selbst durchführen.

Das Betriebssystem liest diese Daten vor allem beim Hochfahren. Meist wird die Taste Del bzw. Entf oder F2 dafür verwendet. Beobachten Sie den PC beim Booten genau. Wenn Sie den Moment verpasst haben, müssen Sie Windows herunterfahren und es erneut versuchen. Das Anschauen der Einstellungen ist völlig ungefährlich, aber bitte nicht planlos die Einstellungen verändern und dann speichern, denn falsche Einstellungen können den PC ausbremsen oder stilllegen.

Wenn das Booten mehrmals nicht gelingt weil Sie den Startvorgang absichtlich unterbrochen haben oder weil einer der eingestellten Parameter nicht funktioniert , werden Sie beim Start gefragt, ob Sie die Standardeinstellungen zurückhaben möchten. Meist müssen Sie dann die Taste F1 drücken.

Das Betrachten der Einstellungen ist ungefährlich, aber bitte nicht planlos die Einstellungen verändern, denn falsche Einstellungen können den PC ausbremsen oder stilllegen. Am rechten oder unteren Bildrand finden sie eine Erläuterung, mit welchen Tasten Sie Einstellungen vornehmen können. Ein Bit ist Speicherplatz für die kleinstmögliche Informationsmenge: Jedes weitere Bit verdoppelt die Zahl der Kombinationen.

Eine Gruppierung von acht Bit nennt man ein Byte. Man kann in einem Byte also eine Zahl zwischen Null und oder ein Zeichen einen Buchstaben des Alphabets oder ein Sonderzeichen speichern. Da der PC im Binärsystem rechnet, werden auch die Speichereinheiten binär adressiert. Jeder Speicherchip und jeder Speichermodul hat eine Kapazität, die eine Zweierpotenz ist: Eine Speicherkapazität von z. Dann entstünden aber ungenutzte Bereiche, die aber natürlich dennoch hergestellt werden müssen; ein Byte-Chip würde genausoviel kosten wie ein Byte-Chip.

Den kleinen Unterschied nahm man in Kauf. Beim magnetischen und optischen Speicher gibt es dagegen keine fertigungsbedingten Einschränkungen auf Zweierpotenzen.

Der Anwender ohne das Wissen aus diesem Artikel meint nun, zwar eine 1 Terabyte-Festplatte gekauft zu haben, aber davon nur 0, Terabyte nutzen zu können. Gern wird dabei dem Hersteller aufgrund dieser schon beträchtlichen Differenz Betrug unterstellt.

Darüber hinaus sollten gespeicherte Informationen bei Bedarf jahrzehntelang verlustfrei haltbar sein. Leider gibt es keine Speichertechnologie, welche diese Anforderungen auch nur näherungsweise erfüllt. Daher gibt es in einem PC mehrere Arten von Speicher, die abgestimmt zusammenarbeiten. Deshalb werden gleichartige Daten zu Blöcken zusammengefasst.

Mehrere Cluster hintereinander bilden eine Spur der Festplatte. Nehmen wir an, eine Spur enthält Sektoren zu je Byte, das ergibt gerundet Byte. Das zeigt aber auch, dass die Reihenfolge der Daten auf einem Massenspeicher optimiert werden sollte, um bessere Geschwindigkeiten zu erzielen. Windows bemüht sich, alle für eine Anwendung benötigten Programmteile und Daten im Arbeitsspeicher bereitzuhalten. Wenn der Arbeitsspeicher nicht ausreicht, muss Windows Teile des Arbeitsspeichers auf die viel langsamere Festplatte auslagern.

Die Festplatten, Diskettenlaufwerke, Flash-Speicher und optischen Speicher werden etwas später behandelt.

ROM verliert die Daten nicht, wenn der Strom abgeschaltet wird. Mit speziellen Mitteln, Geräten oder Programmen ist das möglich. Leider ist RAM ein flüchtiger Speicher. Strom weg - Daten weg. Vor dem Ausschalten des PC müssen die veränderten Daten auf Festplatte zurückgeschrieben gespeichert werden, sonst gehen sie verloren.

Der Arbeitsspeicher ist eine Baugruppe auf der Hauptplatine, die über schnelle Datenwege mit dem Prozessor verbunden ist. Der Prozessor benutzt den Arbeitsspeicher als Ablage für operative Daten, Zwischenergebnisse und auch für die Liste der nächsten Befehle.

Die RAM-Speicherbausteine lassen sich in zwei Arten unterteilen, die auf ganz unterschiedlichen Technologien beruhen und dementsprechend in allen Kenndaten sehr unterschiedlich sind. Jede Speicherzelle besteht aus einem Kondensator das ist ein Kurzzeitspeicher für Elektrizität und einem Transistor. Wenn die CPU wissen will, was gespeichert ist das nennt man eine Leseanforderung , gibt der Transistor die elektrische Ladung frei.

Deshalb muss in einem zweiten Schritt der frühere Speicherinhalt wiederhergestellt werden. Das Lesen der Daten beansprucht etwa die Hälfte dieser Zeit, die andere Hälfte wird für das Zurückschreiben Wiederherstellen gebraucht. Halbleitermaterial ist kein perfekter Isolator. Wie der Name sagt, leitet es elektrischen Strom, wenn auch wenig. Darum muss die Ladung der winzigen Kondensatoren einige tausend Male in der Sekunde aufgefrischt nachgeladen werden. DRAM ist wegen des simplen Funktionsprinzips günstig zu produzieren, wobei man hohe Packungsdichten erreicht.

Stellen Sie sich den Aufwand vor, wenn einer davon defekt war und man durch Auswechseln ermitteln muss, welcher der defekte ist!

Pro Speichertakt werden viermal Daten übertragen. Dadurch verdoppelt sich die Datenübertragungsrate erneut: Die Datenübertragungsrate verdoppelt sich zum dritten Mal: Pro Takt werden achtmal Daten übertragen. Bei niedriger Temperatur verlieren die Speicherzellen weniger Elektronen und die Refresh-Häufigkeit kann verringert werden. Im Jahr soll die Spezifikation fertig sein: DDR4-Speicher haben eine wesentlich verbesserte und schnellere Fehlerkorrektur. Wozu ist das nötig?

Es gibt zufällige Störungen, z. Überall auf der Erde gibt es eine natürliche Radioaktivität. Dazu ein interessantes Fundstück aus den 70er Jahren:.

Dazu muss man wissen, dass Los Alamos auf ca. In Los Alamos ist die kosmische Neutronenstrahlung fünfmal stärker als auf Meereshöhe. Einzelbitfehler führen nur selten zu Abstürzen: Meist trifft es ungenutzte Programmteile oder Massendaten.

Wenn in einer Video- oder Audiodatei ein Bit falsch ist, können Sie das unmöglich sehen oder hören. Sehen Sie im Handbuch nach, welcher Typ passt. Meist ist die schnellste der gängigen Geschwindigkeiten gleichzeitig die beliebteste und aufgrund der hohen Verkaufszahlen auch die günstigste.

Damit verbunden ist bei kompletter Neubestückung ein messbarer, aber kaum spürbarer Geschwindigkeitsvorteil. Läuft ein neues Modul im Verbund mit einem älteren, so wird es automatisch auf dessen Takt gebremst, um einen stabilen Betrieb zu gewährleisten. Schnellere Speichertypen als in der Tabelle gelistet benötigen manuelle Einstellungen, da sonst nur der vom Hauptplatinen-Hersteller freigegebene Maximaltakt benutzt wird.

Wenn der Arbeitsspeicher knapp wird, muss das Betriebssystem prognostizieren, welche Programmkomponenten demnächst vermutlich nicht benötigt werden, und diese auf die vieltausendmal langsamere Festplatte auslagern. Wenn Sie einen vom Betriebssystem nicht vorausgeahnten Klick machen, muss das Betriebssystem ganz schnell irgendein ungenutztes Programmteil auslagern, um das von Ihnen gewünschte Programmteil laden zu können.

Zu wenig Arbeitsspeicher bremst deshalb auch den schnellsten PC aus. Komplettsysteme sind mit RAM eher knapp ausgestattet, um einen günstigen Preis zu erreichen.

Für ein wenig Surfen, Musik hören und Videos betrachten reicht das auch. Windows muss zunehmend oft ungenutzte Programmteile auslagern. Doch das gilt nur für die jeweils neueste Technologie. Veraltete Technologien werden nicht mehr weiterentwickelt und die Produktionsmengen sinken, deshalb bleiben die Preise für ältere RAM-Typen auf hohem Niveau.

Wesentlich länger als zwei Jahre mit dem Nachkauf zu warten kann riskant sein, weil dann die passende RAM-Sorte möglicherweise nicht mehr hergestellt wird oder in so geringer Menge, dass wegen andauernder Nachfrage die Preise nicht sinken.

Aber so eine Investition ist teuer weil Sie die ausgebaute CPU nicht weiterverwenden können und bringt vermutlich ein bescheidenes Resultat. Dieser hohe Schaltungsaufwand bringt einen deutlichen Geschwindigkeitsvorteil:. Je schneller der Prozessor ist, desto öfter muss er auf Daten warten.

Schnellerer Speicher wäre wunderbar. Es wird intensiv nach alternativen Technologien gesucht, aber bisher ist keine der neuen Erfindungen in Massenproduktion gegangen. Die benötigte Leiterplattenfläche wäre riesig und die Datenwege würden zu lang werden. Um eine Strecke von 30 cm zu durchlaufen, braucht ein Lichtstrahl eine Nanosekunde. Elektrische Signale sind geringfügig langsamer als das Licht.

Darüber hinaus hat es sich für viele Verwendungen als nützlich erwiesen, die Daten in ROM-Bausteinen nachträglich ändern zu können. Der Rohling wird zum Beschreiben in ein sogenanntes Programmiergerät gesteckt. Man kann übrigens den Chip etappenweise brennen: Zuerst einen Adressbereich, dann den nächsten Bereich.

Wie erfolgt das Löschen? Ultraviolettlicht ist sehr energiereich. Nun hat man nur selten einige Wochen Zeit. Leider muss der Chip zum Löschen und Beschreiben ausgebaut werden. Man kann in den Chip hineinsehen. Weil die aggressive UV-Strahlung entfällt, halten diese Chips mehr als Die weitere Beschleunigung des Schreibvorganges führte zu den sogenannten Flash-Speichern.

Die Leitfähigkeit des Control Gate hängt davon ab, ob sich in der Speicherzelle eine Ladung befindet oder nicht. Man kann den Speicherinhalt beliebig oft lesen, ohne dass sich die Ladung der Speicherzelle dabei verändert. Es gibt dabei zwei Probleme: Das Schreiben dauert deutlich länger als das Lesen. Schlimmer ist, dass die Isolierschicht dabei Schaden nimmt. Nach einigen hunderttausend Schreib- oder Löschvorgängen ist die Speicherzelle kaputt. Deshalb muss die Anzahl der Schreibvorgänge durch geeignete Software und die Ansteuerlogik minimiert werden.

Das wird auf mehreren Wegen erreicht. Lässt sich ein Stick wegen "Abnutzung" nicht mehr beschreiben, kann er zumindest noch gelesen werden. Lesen und Schreiben kann dadurch nur in ganzen Blöcken erfolgen, wie z. Die geringere Zahl von Datenleitungen spart Platz auf dem Chip. Der technologische Aufwand ist höher, doch die Zugriffszeit ist erheblich kürzer. Leider herrscht bei den Bauformen der Speicherkarten ein unglaubliches Chaos.

Es fehlt ein Standard. UFS ist schnell und stromsparend. Leider stemmte sich die Firma Sandisk gegen den Standard: Sandisk wollte das hauseigene Format nicht aufgeben. Das sind Speicherzellen, in denen mehr als ein Bit pro Zelle gespeichert wird. Erinnern Sie sich an die Erklärung, dass das Dezimalsystem für Computer ungeeignet ist, weil es schwer ist, zehn verschiedene Spannungen präzise zu unterscheiden?

Je mehr Ladungszustände pro Zelle unterschieden werden müssen, desto wahrscheinlicher ist das Auftreten von Bitfehlern. Der Aufwand für Fehlerkorrekturschaltungen steigt. MLC sind zu empfehlen, wenn Daten nur selten geschrieben werden, z. Kontaktprobleme am Stecker können ebenfalls zu Datenverlusten führen.

Manchmal genügt ein Wackeln am eingesteckten Stick. Nur wenn Sie Windows von Ihrer Absicht informieren, den Stick zu entfernen, können Sie sicher sein, dass alle zu schreibenden Daten tatsächlich auf dem Stick ankommen.

Gleiches gilt für Linux. Andernfalls können die zuletzt geschriebenen Daten oder der ganze Inhalt des Speichersticks verloren gehen. Warum das so gefährlich ist, können Sie am Ende des Kapitels über externe Festplatten genauer nachlesen. Wie lange bleiben die gespeicherten Daten erhalten, wenn keiner dieser Unfälle geschieht?

Sie sind langlebiger und haben kürzere Zugriffszeiten. Es gibt sie in zwei Bauformen: In hochwertigen Notebooks sind sie häufig anzutreffen. Vor mehr als 50 Jahren, am Die Festplatte war ein echtes Erfolgsmodell: Das Laufwerk wurde nicht verkauft, sondern für ca. Kleiner wurden die Abmessungen. Gleichzeitig fiel der Preis: Der Festplatte und ihrem Inhalt drohen zahlreiche Gefahren. Die meisten dieser Fehler führen nur zu kleineren Schäden.

Hardwarefehler sind vergleichsweise sehr selten, aber wenn sie auftreten, sind die Folgen verheerend. Kein anderer Schaden verursacht so viel Stress wie ein Totalausfall der Festplatte. Die Schäden sind vielfältig:. Es folgt ein Abschnitt über Pflege und Wartung der Festplatte. Für weitergehende Informationen gibt es einen Anhang. In der heute meistverwendeten Unicode-Darstellung werden zwei Byte pro Zeichen benötigt.

Diese Zahlen gelten für Text ohne Illustrationen. Bilder benötigen - je nach Qualität - zehn- bis hundertfach mehr an Speicherplatz als Text. Das reicht für eine drei Jahre dauernde Stunden Beschallung. Auch Glas wird manchmal als Trägermaterial verwendet, weil eine Glasoberfläche glatter poliert werden kann als Metall.

Man kann sich das wie einen flachen Stabmagneten vorstellen. Ein Spindelantriebsmotor sorgt für eine hohe konstante Drehzahl. Das verringert ein wenig den Strombedarf, den Geräuschpegel und den Datendurchsatz. Teure Profi-Festplatten bringen es auf Je dichter die Spuren beieinander liegen, desto mehr Daten passen auf die Platte. Aktuelle Festplatten haben Die Schwenkarme sind untereinander starr verbunden und bewegen sich stets gemeinsam zur gewünschten Spur.

So sind stets mehrere Spuren gleichzeitig verfügbar, ohne dass die Köpfe weiterbewegt werden müssen. Das Betriebssystem speichert umfangreichere zusammenhängende Informationen nach Möglichkeit in den Spuren eines Zylinders, um die Anzahl der Kopfbewegungen zu minimieren.

In der Mathematik ist ein Sektor ein tortenähnlicher Ausschnitt aus einem Kreis, auf der Festplatte sind damit gebogene Linien gemeint. Jede Spur ist in einige Tausend Sektoren Bogenstücke geteilt. Die dadurch entstehenden Datenblöcke sind die kleinste adressierbare Datenmenge. Bei der schnellen Rotation wird die Luft über den Scheiben mitgerissen.

Mit der Zugriffszeit wird angegeben, wie schnell eine Festplatte arbeitet. Die Zugriffszeit setzt sich aus folgenden Faktoren zusammen:.

Nicht nur der Prozessor benutzt einen Cache-Speicher, auch die Festplatte hat einen. Das ist mehr, als die ersten Festplatten als Gesamtkapazität hatten. Der Cache wird auf drei Arten genutzt:. Allerdings hat diese Zwischenspeicherung einen gefährlichen Nachteil.

Wenn Sie den PC versehentlich ausschalten, ohne ihn herunterzufahren, verlieren Sie möglicherweise Daten. Oft sind die Verwaltungstabellen betroffen, das bedeutet: Der gesamte Inhalt der Festplatte kann weg sein.

Besonders gefährlich ist es in der ersten Minute nach dem Ende eines Schreibvorgangs. Sie verlieren merklich Geschwindigkeit, aber Sie verlieren Ihre Daten nicht. Sie haben vorhin gelesen, wie gering der Abstand der Magnetköpfe von der Festplatte ist. Das ist fache Schallgeschwindigkeit! Sie sollten besser nicht einsteigen: Sie würden mit einer Beschleunigung von Angenommen, der leere Sitz wiegt 4 Kilogramm. Er könnte innerhalb einer Stunde die Erde umrunden oder - wenn die Geschwindigkeit konstant bleiben würde - in neun Stunden den Mond erreichen.

Haben Sie nun eine Vorstellung davon, warum Erschütterungen so gefährlich für die Festplatte sind? Kopfaufsetzer können Ihre Festplatte in Sekundenbruchteilen zerstören. Wenn der Kopf bei einem stärkeren Aufsetzer die Schutzschicht verdampft oder durchdringt, wird die Magnetschicht beschädigt und der Kopf vielleicht gleich mit.

Die Daten, die sich dort befunden haben, sind weg. Den Datenverlust bemerkt man meist erst später. Wenn irgendwann ein Programm diesen beschädigten Bereich zu lesen oder zu beschreiben versucht und das nicht gelingt, wird der Bereich automatisch für die weitere Benutzung gesperrt. Wie nennt man es, wenn bei voller Drehzahl ein Kopf die Oberfläche der Scheibe berührt? Auch kleinste Schäden addieren sich und verringern die Lebensdauer. Darüber hinaus wird hierdurch die Wahrscheinlichkeit eines plötzlichen Totalausfalls gesteigert.

Es handelt sich dabei um einen Durchschnittswert. Eine 3,5"-Festplatte ist vermutlich kaputt. Holz oder Beton federn erheblich weniger, was die Überlebenswahrscheinlichkeit minimiert. Das ist das Drei- bis Vierfache der üblichen 3,5"-Laufwerke.

Solange die Festplatte dreht, darf sie keinesfalls bewegt werden! Bewegt man das Gehäuse der Festplatte, versucht die Scheibe, ihre Lage im Raum beizubehalten, und verformt sich dabei. Es kann zu Kopfaufsetzern kommen. Und wenn Sie einmal auf einer alten Festplatte die Daten vernichten wollen — stecken Sie ein Stromversorgungskabel an und drehen Sie die Festplatte zügig auf den Rücken.

Das Kreischen ist gut zu hören Beim Ausströmen des für die Feuerlöschung benutzten Halongases entstanden laute Geräusche, welche die Festplatten ruinierten [16].

Gaslöschanlagen können einen Schalldruck von dB verursachen. Bereits eine Lautstärke von dB kann zu Datenverlusten führen. Da haben Sie Glück gehabt. Die Festplatten werden jedes Jahr empfindlicher. Der Schwenkarm ist etwa 2,5 Millionen mal länger als der Abstand des Magnetkopfes von der Festplatte.

Was glauben Sie wohl, wie stark sich dieser lange Arm bei Erschütterungen durchbiegt? Haben Sie eine externe Festplatte? Gehören Sie zu den Leuten, welche die Festplatte hochheben, um das Kabel vom Netzteil leichter einstecken zu können? Oder um sie bequemer einschalten zu können? Der Energiebedarf moderner 3,5"-Festplatten liegt durchschnittlich bei 5 bis 10 Watt, unter hoher Last und beim Anlaufen dreimal mehr. Im Ruhezustand sinkt der Bedarf auf ein Watt. Die kleineren 2,5"-Platten brauchen etwa die Hälfte davon.

Der Strom wird von der Elektronik und den Antrieben in Wärme umgewandelt. Die meiste Wärme entsteht an der Unterseite. Die Wärme steigt auf. In der Mitte der Platte geht das kaum: Also kann die Wärme nur über die Seitenwände der Festplatte abgeleitet werden. Festplatten werden so konstruiert, dass sie bei einer normalen Betriebstemperatur die maximale Lebensdauer erreichen.

Die Oberfläche der Magnetscheiben ist mit einem speziellen Polymer beschichtet. Diese hauchdünne Schicht etwa 1 nm schützt die darunterliegende Magnetschicht vor Beschädigungen, falls doch einmal ein Kopf aufschlägt, z. Leider verdunstet dieses Polymer bei dauerhaft höheren Temperaturen [19]. Jedes Grad Celsius über der zulässigen Betriebstemperatur erhöht die Wahrscheinlichkeit eines Ausfalls um zwei bis drei Prozent.

Es ist also recht schwierig, die Wärme zu beseitigen. Daraus sind die folgenden Empfehlungen abgeleitet:. Andere Festplatten sollten zusätzlich gekühlt werden. Sie können selbst prüfen, ob eine Zusatzkühlung nötig ist.

Fühlt sich die Oberfläche deutlich wärmer an als Ihr Finger? Dann ist Zusatzkühlung ratsam. Sie können auch ein Diagnoseprogramm installieren, z. Zwei Arten der Kühlung haben sich bewährt: Ein Lüfter an der Stirnseite oder an der Unterseite der Festplatte. Ein Festplatten-Zusatzlüfter kostet 10 bis 15 Euro. Lüfter mit einem Durchmesser unter 3 cm sollten Sie nicht mal geschenkt nehmen. Sie sind laut und halten nicht lange. Ein Lüfter mit 6 cm Durchmesser hat die vierfache Lüfterfläche und befördert etwa die dreifache Luftmenge.

Das erlaubt die Verringerung der Lüfterdrehzahl auf ein Drittel, wodurch sich die Lebensdauer der Lager verdreifacht. Durch die geringere Drehzahl ändert sich das Geräusch von einem lauten, unangenehmen hohen Sirren zu einem viel leiserem Ton in einer angenehmeren Tonlage.

Die Strömungsgeräusche der Luft werden praktisch unhörbar. Achten Sie beim Kauf eines Lüfters auf die Lager. Viele Festplattenlüfter haben leider ein Gleitlager um es deutlich zu sagen: Lange hält das nicht. Kaufen Sie nur Lüfter mit Kugellager, auch wenn sie ein wenig teurer sind. Sie gewinnen Laufruhe und eine längere Lebensdauer.

Die Festplatte muss so eingebaut sein, dass die erwärmte Luft wegströmen kann. Insbesondere muss über und unter der Festplatte genügend Platz sein! Das verringert die mittlere Positionierzeit und erlaubt es, die Drehzahl zu verdoppeln.

Serverplatten sind für Dauerbetrieb zugelassen und haben fünf Jahre Garantie. Allerdings kosten sie das fünf- bis zehnfache einer Desktop-Festplatte und haben eine relativ geringe Kapazität.

Gönnen Sie Ihrer Festplatte Pausen! Lassen Sie die Festplatte in längeren Pausen automatisch abschalten! Das Problem hierbei ist die Wärmeentwicklung. Wenn diese Betriebsbedingungen eingehalten werden, erreichen viele Festplatten eine Lebensdauer von mehr als fünf Jahren.

Der Zusatzlüfter, falls vorhanden, sollte aber überwacht und bei Bedarf gewechselt werden, damit die Temperatur der Festplatte niedrig bleibt. Das ist natürlich ein Scherz! Wie geht das ohne Head-Crash ab? Aber auch wenn der Strom unvermittelt ausfällt, gibt es keinen Headcrash. Der Antriebsmotor wird zu einem Dynamo umgeschaltet. Mit der Schwungmasse der Spindel wird Strom erzeugt, um die Köpfe in die Parkposition in der innersten Spur zu bewegen.

Sobald sich die Köpfe über der Landeposition befinden, erfolgt die nächste Umschaltung: Der Spindelmotor arbeitet jetzt als Generatorbremse [20] und bremst die Scheiben sehr schnell ab.