Datensicherung in der Fotografie: Fotos und Filme sichern
Das Wertvollste langfristig schützen.
Ein Inhaltsverzeichnis mit direkten Sprungmarken und Überblick über alle bei der Datensicherung behandelten Themenbereiche finden Sie als Pop-Up.
Für den korrekten Fachausdruck Datensicherung verwenden manche Fotografen und Videografen auch die Bezeichnung Backup, Dateisicherung, Fotosicherung, Video-Backup, Filmsicherung, Foto-Backup, Video-Sicherung, Sicherungskopie.
Wunsch und Wirklichkeit
Was würden Sie tun, wenn Sie nach Hause kämen und alle Ihre Fotos wären durch Diebstahl, Feuer, Wasser, einen Computer-Virus, PC-Schaden oder Anwenderfehler plötzlich weg?
Allen Lesern, denen bei diesem Gedanken an den Verlust aller Fotos und Filme ein kalter Schauder den Rücken herunterläuft, bietet dieser Artikel viele Tipps und Hilfen für die Sicherungs-Praxis.
Ideal wäre es, wenn einmal aufgenommene Fotos und Filme für die Ewigkeit halten würden.
De facto war oder wird jeder Fotograf und Videograf jedoch von Datenverlusten betroffen.
Der einzige Schutz vor unwiederbringlichen Verlusten liegt in einer ausgeklügelten Datensicherung.
Hier erfahren Sie, wie Sie schnell, leicht und erfolgreich Ihre Daten (Fotos und Videos) langfristig sichern und schützen.
Optische Speicher-Medien
CD - Compact Disc - CD-ROM
Vorteile
CDs gelten als optische Speicher in Fachkreisen übereinstimmend als sehr sicheres Speichermedium. Die Speicherprotokolle der CDs sehen u.a. zahlreiche Redundanzen und Prüfsummen vor, welche auch einzelne Bits schützen. Dies ist für Fotos lebenswichtig, da ein einziges falsches Bit bereits das Foto zerstören kann. Zur Technik siehe u.a. Compact Disc - Deutsch und Compact Disc - Englisch sowie CD-ROM - Deutsch und CD-ROM - Englisch
CDs stellen heute ein sehr preiswertes Massenmedium dar.
CDs gelten als sehr langlebiges Speichermedium. Optimisten sprechen von bis zu 100 Jahren. Andere neigen eher zu konservativen Angaben zwischen 10 und 50 Jahren. Das ist zwar noch nicht für Museen ausreichend, dürfte jedoch den Normalanwendern genügen.
Bei CDs handelt es sich um ein extrem kompatibles Speichermedium. Der Standard ist nun bereits über 30 Jahre vertreten und kann noch immer von jedem Nachfolgegerät gelesen und beschrieben werden, da die Musikindustrie CDs bis heute als Kernmedium verwendet.
Ursprünglich als reiner Audio-Ersatz für Musik-LPs gedacht, wurde daraus bald ein Datenträger für alle denkbaren Datenformate.
Obwohl inzwischen sehr viele Untervarianten des Hauptmediums CD entwickelt wurden: CD-DA, CD-ROM, CD-R, CD+R, CD-RW, CD+RW..., bleiben alle lesbar und werden weiterhin unterstützt.
Die Lesbarkeit über viele Jahre mag auf den ersten Blick für den Laien und in unserer schnelllebigen Zeit irrelevant erscheinen. Aber mir ist kein einziges anderes Speichermedium bekannt, das so lange Zeit ohne Veränderungen überlebt hat.
Wer kennt heute noch 5 1/4 Zoll-Floppy Disks, oder 2,5-Zoll-Disketten-Laufwerke, oder IDE-Festplatten, oder SCSI-Festplatten, oder die Bildplatte, oder VHS, oder Videorekorder überhaupt? Alle stammten aus den 1980er Jahren - wie die CD. Alle darauf gespeicherten Daten mögen zwar sicher sein. Aber man findet dafür heute kaum mehr Lese-/Abspielgeräte. D.h. man muss mit vielen alten Datenträgern ständige Umkopiervorkehrungen auf die jeweils aktuellen Medien durchführen, welche regelmäßig enorme Zeit beanspruchen.
CDs sind leicht verstaubar. Dank ihrer genormten Größe und geringen Dicke sind sie sowohl in alten 5,25-Zoll-Kästen als auch in den heute üblichen CD-/DVD-Spindeln platzsparend stapelbar.
CDs vertragen Erschütterungen und auch Stürze aus großer Höhe meist anstandslos.
Nachteile
Mit nur ca. 650-900 MB Netto-Speicherkapazität ist die klassische CD für Panoramaaufnahmen oder größere Videos nicht mehr geeignet - es sei denn, man teilt die Dateien mühsam mit Spezialwerkzeugen in Einzelteile auf.
Meine Panorama-Aufnahmen der Fresken im Inselhotel besitzen z.B. teilweise über 1 GB. Für 360-Grad Rund-um-Panoramen fallen noch viel größere Datenmengen an.
Es sind sehr viele CDs zur Sicherung heutiger Datenmengen erforderlich.
In der Folge ist der Zeitaufwand für eine komplette Datensicherung sehr hoch.
CDs müssen lichtgeschützt im Dunkeln gelagert werden.
CDs müssen trocken und bei gemäßigter Temperatur (ideal sind konstant maximal 20 °C) gelagert werden. Ein verschließbarer Schrank eignet sich hierzu gut.
Die Beschriftung ist aufwändig und komplex, sowie bei Etiketten angesichts der verwendeten Klebstoffe auch umstritten.
Eine schnelle Übersicht über alle gesicherten Dateien wird aufgrund der großen Anzahl der Hardware (CDs) sehr erschwert. Selbst Programme, welche den Überblick über viele CDs angeblich erleichtern sollen, sind fehleranfällig und langsam. D.h. ein Wiederfinden und Zurückspielen der gesicherten Fotos und Videos kann erhebliche Zeit in Anspruch nehmen.
Zwar werden kleinere Kratzer ignoriert, aber breitere und tiefere können durchaus zu Lesefehlern und somit Datenverlust führen. CDs dürfen somit keinesfalls auf staubigen Flächen abgelegt oder gar darauf gedrehte oder gezogen / verschoben werden.
Auch Fingerabrücke sollte man vermeiden, da damit ein Gemisch aus säurehaltigem Fett und Schmutz auf die Oberfläche der CD gebracht werden kann, welches langfristig zu Lesefehlern und somit Datenverlust führen kann.
Beim Beschriften der Rückseite einer CD darf man keinen hohen Druck ausüben, da die Datenträgerschicht sich direkt darunter befindet. So könnte ein Kugelschreiber z.B. eine CD beschädigen.
Für die meisten Nutzer unerwartet gilt die beschreibbare Rückseite der CD als empfindlicher als die durchsichtige Frontseite. Während man auf der klaren CD-Seite kleine Kratzer evtl. auffüllen oder herauspolieren kann, so führen Kratzer auf der Rückseite nicht selten zu irreparablen Schäden, da die der Rückseite sehr nahe liegenden Gruben (Pits) beschädigt werden.
Da jeder Brenner mit jedem CD-Rohling andere Ergebnisse liefert, muss die Qualität jeder Sicherung nach dem Brennen unbedingt mit einem Inhaltsvergleich der Quell- und Ziel-Dateien geprüft werden. Eine reine Meldung des erfolgreichen Brennvorgangs allein heißt niemals, dass auch alle Daten auf der CD mit denjenigen auf dem Quelldatenträger übereinstimmen.
Hochwertige moderne Brennprogramme bieten diesen Datenvergleich nach dem Brennen an. Nutzen Sie ihn unbedingt, auch wenn sich dadurch der zeitliche Aufwand verdoppelt. - Nichts ist schlimmer als der Irrglaube, man hätte die Daten perfekt gesichert.
Billige CDs sind teilweise am Rand nicht sauber abgedichtete, wodurch es zum Gas-Eintritt und zur Korrosion bis hin zur Ablösung ganzer Schichten kommen kann.
Ferner fand sich bei Untersuchungen ein Pilz, der sowohl die Polycarbonat-Schicht als auch die Aluminiumbeschichtung zerstört.
Nicht selten kommt es beim mehrfachen Brennen auf nicht abgeschlossenen CDs zu Problemen beim Lesen in anderen Laufwerken.
Bei den in der Endphase der Entwicklung aus dem Hut gezauberten CAV-Brennern (sie schreiben und lesen mit einer konstanten Winkelgeschwindigkeit, wie bei der früheren LP) mit bis zu 52-facher Geschwindigkeit der ursprünglichen linear arbeitenden CD-Brenner, führte bereits die geringste Unwucht (z.B. falsch angebrachte Etiketten oder leicht deformierte / dejustierte Laufwerke) zu lautstarken Vibrationen, Schreib- sowie Lesefehlern und Datenverlust bis hin zu Schäden am Laufwerk selbst.
Sogar bei hohen Brenngeschwindigkeiten ist die Datensicherung bei heutigen Datenmengen auf CDs ein zeitaufwändiges Unterfangen.
Vor allem ältere Lesegeräte haben Probleme mit neueren CD+ Medien.
CDs hatten in der Produktion ihren Höhepunkt vor ca. 15 Jahren überschritten und die Produktionszahlen waren seitdem rückläufig. Ferner steigen immer mehr Musikliebhaber auf die Download-Dienstleister um, sodass der Wert der Audio-CD für die Musikbranche kontinuierlich abnimmt. D.h. man muss davon ausgehen, dass die CD irgendwann ersetzt wird oder schlichtweg entfällt. Als Folge würde dann auch die hardware-seitige Unterstützung für Lesegeräte spürbar eingeschränkt werden.
Fazit CD
Die CD war bisher das unempfindlichste und langlebigste Medium, zeigt aber heute aufgrund ihres Alters in der Anwendung deutliche Einschränkungen beim Arbeitsaufwand für die Datensicherung.
Heute lohnt sich der zeitliche Aufwand m.E. nur noch für kleine Datenmengen wichtiger Dateien.
Bereits vorhandene CDs sollte man bei relativ gemäßigten Zimmertemperaturen trocken im Dunkeln lagern.
DVD - digital video disc - Digital Versatile Disc
Vorteile
Seit 1995 kamen die DVDs als Speichermedium hinzu, das von der Filmindustrie als Nachfolger der VHS-Cassette gefordert wurde.
DVDs bieten gegenüber CDs eine ca. 6-Mal so große Speicherkapazität (4,7 GB).
Bei seltenen und teuren Dual-Layer-DVDs (DL) mit 8,5 GB werden die Daten auf zwei Ebenen geschrieben.
Heute sind die DVD-Brenn-Laufwerke sowie die DVD-Rohlinge preiswert und weit verbreitet.
Die Datenspeicherpreise (Euro je GB) liegen heute (je nach Hersteller und Verkäufer) meist sogar günstiger als bei CDs.
Dank heute bis zu weit über 20-facher Brenngeschwindigkeit moderner DVD-Laufwerke führen die wesentlich höheren Brenngeschwindigkeiten zur schnelleren Datensicherung großer Datenmengen bei DVDs als bei CDs.
Dank der Anbringung der Datenträgerschicht in der Mitte der Scheibe ist die DVD unempfindlicher gegen manuelles Beschreiben auf der Rückseite als eine CD.
Heute ist die DVD bei Endanwendern das beliebteste optische Medium, da es derzeit den besten Kompromiss aus Leistung, Preis und Handhabbarkeit darstellt.
Temperaturen von 18 oder sogar deutlich weniger Grad Celsius und eine Luftfeuchtigkeit unter 40% werden für die Langzeitlagerung empfohlen. Unter diesen Bedingungen behaupten manche Hersteller, dass man Daten durchschnittlich 30-100 Jahre auf DVDs lagern könnte.
Nachteile
DVDs gelten als optische Speicher in Fachkreisen meist als nicht ganz so sicheres Speichermedium. Die Speicherprotokolle wurden ursprünglich für (aus menschlicher Sicht) relativ störunempfindliche Videos konzipiert. Kleinere Bildfehler in Filmen werden von den meisten Menschen nicht bewusst wahrgenommen. Zur komplexen Technik siehe u.a. DVD - Deutsch und DVD - Englisch Allerdings ist diese Thematik der geringeren Sicherheit umstritten. Ein Grund könnte darin liegen, dass einige Details der DVDs nicht veröffentlicht oder von den Firmen sogar als geheim eingestuft werden.
Fakt ist jedoch, dass ein kurzwelligerer Laser (650 nm gegenüber 750 nm bei der CD) die nicht einmal halb so großen Pits (Gruben) abtastet. D.h. es ist bei allen Bauteilen eine wesentlich höhere Präzision erforderlich als bei CDs.
Was jedoch immer wieder auffällt - und auch bei meinen diversen Laufwerken an unterschiedlichen PCs der letzten 15 Jahre nachweisbar war -, ist, dass DVDs, welche in einem Laufwerk beschrieben und dort auch problemlos überprüft und zurückgelesen wurden, nicht immer fehlerfrei auf allen anderen DVD-Laufwerken gelesen werden können. Ob dies an Dejustierungen der Laser oder Laufwerke oder den Qualitätsschwankungen bei den DVD-Medien selbst liegt, ist umstritten, jedoch in der Praxis für den Anwender irrelevant. Es kann zu Datenverlusten kommen. Deshalb sollte man die DVDs nach dem Brennen zumindest testweise in einem zweiten Laufwerk einlegen und kurz anhand einer oder zweier Dateien prüfen. - Ganz konkret: Laden Sie 1-2 Fotos direkt von der DVD in das Grafikprogramm Ihrer Wahl ein.
Auch bei DVD-Brennern und DVD-Rohlingen schwankt die Serienstreuung je nach Hersteller und Produkt oft erheblich. Dies ist nachteiliger als bei CDs, da im DVD-Bereich die physikalischen Toleranzen für den fehlerfreien Betrieb geringer sind.
Der Einstiegspreis der DVD-Brenner sowie der DVD-Rohlinge lag viele Jahre über dem Niveau, welches private Endanwender zu bezahlen bereit waren, sodass sich das Medium zuerst im PC-Bereich kaum verbreitete. Dies war ein Hemmnis, denn bald wurde das Nachfolgemodell Blu-ray-Disc angeboten.
Die Zahlreichen Untertypen der DVD: DVD-RAM, DVD-R, DVD+R, DVD+-, DVD-RW, DVD+RW, DVD-R DL, DVD+R DL können oft nicht von allen DVD-Brennern und Lesegeräten verwendet werden.
Selbst oft für bestimmte Untergruppen der DVD zugelassene Brenner und Daten-Leser kommen dennoch nicht mit allen derartigen Medien klar. D.h. das Beschreiben führt zu unerklärlichen Fehlern oder das Lesen der gebrannten Daten funktioniert (insbesondere auf anderen DVD-Geräten) plötzlich nicht.
Vor allem die DVD+-R reagieren aufgrund der organischen Farbstoffe als Datenträger empfindlich auf Hitze und Sonnenlicht sowie UV-Strahlung. Sie müssen noch sorgfältiger als CDs in kühlen, dunklen Räumen gelagert werden.
Andere DVDs, wie die DVD+-RW (also die selteneren wiederbeschreibbaren DVDs), reagieren oft sehr empfindlich auf Temperaturschwankungen. Eine Lagerung unter dem ungedämmten Dach / im Speicher ist ihr sicherer Tod.
Im Grunde bieten nur die seltenen und teuren DVD-RAMs eine hohe Datensicherheit. Allerdings können bei weitem nicht alle Brenner und DVD-Lesegeräte diese DVD-RAMs lesen.
Besondere Vorsicht muss man beim Bekleben der DVDs mit Folien walten lassen. Sowohl aufgrund der unterschiedlichen Hitzeausdehnung (Folie und DVD) als auch der meist entstehenden Unwucht bei hohen Drehzahlen kann die DVD beschädigt werden. Oft treten die Daten-/Lesefehler erst nach einiger Zeit bei großer Erhitzung auf.
Vor allem ältere Lesegeräte haben Probleme mit neueren DVD+ Medien.
Aus mehreren Statistiken geht hervor, dass die DVD zwischen ungefähr 2007 und 2010 ihren Höhepunkt bei der Produktion erreichte. Dies betrifft jedoch eher den Video- als den PC-Speicherbereich. Dennoch sehen viele Analytiker und Hersteller die DVD bereits als Auslaufmodell. Dies gilt umso mehr, als die Filmindustrie kontinuierlich auf Blu-rays umsteigt.
Als Folge werden reine DVD-Brenn- und Lesegeräte immer seltener. Oft finden sich hochwertige Produkte nur noch in den Blu-ray-Brennern. Der Markt der DVD-Brenner ist inzwischen derart hart umkämpft, dass man nicht selten für wenig Geld auch nur noch sehr wenig Qualität erhält.
Nach über 25 Jahren Produktion hat die DVD zwar eine relativ weite Verbreitung, aber auch mehr Konkurrenz. In der Mitte eingeklemmt zwischen CD und Blu-ray, könnte sie von Herstellern sowie der Filmindustrie schnell geopfert werden.
Fazit DVD
Die DVD kann wesentlich mehr als die CD, aber sie ist in zahlreichen Details auch deutlich empfindlicher.
Für die normale Datensicherung empfehlen sich preiswerte DVD+ oder -R mit einem kompletten Prüftest nach dem Brennen sowie im Anschluss einem kurzen Lesetest in einem fremden Laufwerk. Danach müssen die DVDs unbedingt kühl, trocken und dunkel gelagert werden.
Nur im Einzelfall bei wertvollen Daten lohnt sich für den Privatanwender die wesentlich teurere Sicherung auf DVD-RAMs.
Blu-ray - BD - Blu-ray Disc
Vorteile
Der Name rührt vom blauen (eigentlich violetten) Laserstrahl her, mit dem man noch enger geschriebene Daten aus dem optischen Medium auslesen kann.
Ab 2006 wurde die Blu-ray als High Definition (HD) Nachfolgerin der DVD angepriesen. Ziel war es, Full-HD-Spielfilme mit 1920*1080 Pixeln mit bis zu 60 Bildern / Sek. in voller Länge auf einer Scheibe anzubieten.
Die Blu-ray besitzt eine noch höhere Datenspeicherkapazität - einlagig bis zu 25 GB, zweilagig bis zu 50 GB und mehrlagig bis zu theoretisch 200 GB und praktisch 128 GB (brutto).
Ferner sind Beschreibraten bis zu theoretischen 72 Mbit/Sek. und praktischen 53 Mbit/Sek. möglich.
Inzwischen finden sich BD-Abspiel und BD-Brenner mit bis zu 16-facher Geschwindigkeit. Das ergibt bis zu 72 MByte/Sek.
Nachteile
Obwohl das System seit 2008 weltweit in großen Stückzahlen verfügbar war, konnte es sich als beschreibbares Medium im privaten PC-Bereich noch immer nicht durchsetzen. Die überall gepriesenen Absatzzahlen betrafen fast ausschließlich reine Blu-ray-Abspielgeräte für das Fernsehen.
Die Preise der Blu-ray-Brenn-Laufwerke sind sehr hoch.
Die Preise der Blu-ray-Rohlinge sind noch immer hoch. Nur solche mit max. 6-facher Schreibgeschwindigkeit sind zu halbwegs akzeptablen Preisen erhältlich.
Die Verbreitung sowohl der Blu-ray-Laufwerke als auch der Blu-ray-Rohlinge ist im PC-Bereich bis heute sehr gering geblieben.
Inzwischen entwickelte man diverse Unterkategorien BD-ROM, BD-R, und BD-RE (wiederbeschreibbar).
Es finden sich nur drei wichtige Untervarianten der Blu-rays BD-ROM (nur abspielbar), BD-R (einmal beschreibbar) und BD-RE (wiederbeschreibbar). Daneben finden sich jedoch zahlreiche Sondervarianten für Spezialanwendungen mit sehr geringer Verbreitung.
Der Laser der Blu-rays benutzt nur noch 405 nm Wellenlänge, kann folglich halb so große Pits wie bei der DVD auslesen und erfordert somit eine noch höhere Präzision bei allen Bauteilen.
Vor allem wird dem Medium insgesamt durch die Internet-Filmbranche mit preiswerten Downloads on Demand (je nach Bedarf) und Video-Plattformen im Internet zunehmend Konkurrenz gemacht.
Die Schutzschicht ist auf der Laserseite nur noch 0,1 mm dick (DVD: 0,6 mm) und somit - trotz angeblicher Oberflächenvergütung (Durabis) - sehr empfindlich.
Der BD-Standard wird laufend weiterentwickelt, was die Übersicht der Kompatibilität der Schreib- und Lesegeräte erheblich erschwert.
Die Nachfolgestandard für Ultra HD ist bereits vorhanden und erste Produkte sind zu allerdings hohem Preis verfügbar.
Auf der Datensicherungsebene der PCs sind die Festplatten preiswerter und ergonomischer in der Anwendung.
Auch wenn Marktanalysten seit 2005 ständig die kurz bevorstehende große Zukunft der Blu-ray prognostizieren, die im Übrigen bisher nicht eintrat, sehe ich bereits das baldige Ende voraus - und zwar bevor die Blu-ray-Brenner sowie schnell beschreibbare BD-Medien (12-16-fach) einen akzeptablen Preis für den Massenmarkt erreicht haben.
Fazit Blu-ray
Für besonders große Filme / Videos sowie für große Datenmengen eignen sich Blu-rays.
Vergleichen Sie etwas die Preise der Medien, damit die Kosten sich zumindest in halbwegs erträglichen Grenzen halten.- Persönlich habe ich gute Erfahrungen mit den folgenden Typen gemacht.
Verbatim 6-fach Blu-rays - Diese kann man auch mit 12-facher Geschwindigkeit brennen. Real misst man dabei etwa 8-fach. Aber 12 Minuten sind für 25 GB in Ordnung.
Vorsicht: Achten Sie hier etwas auf den Lieferanten. Ich kaufe als in Deutschland Wohnender keine Waren mehr von Schweizer Firmen / aus dem Nicht-EU-Raum, da dies entweder einen hohen Zollzuschlag mit Laufereien zum Zollamt erforderlich macht, oder bei Vergessen eine Strafanzeige des Finanzamtes / Zolles nach sich ziehen kann.
Sony 6-fach Blu-rays
Wer lieber Markenware bevorzugt, wird dafür auch mehr bezahlen müssen: nur 10 Blu-rays je Packung. Mir gelangen damit mit meinem Brenner 8-fach-, 10-fach- und vereinzelt sogar 12-fach-Brenngeschwindigkeiten.
Sparen Sie nicht an einem guten Blu-ray-Brenner. Billige Brenner kommen mit vielen Medien nicht klar und vernichten oft derart viele Medien beim Brennen, dass sich das binnen eines Jahres bereits finanziell bei den Medien wieder rächen könnte. Vom Ärger und Zeitverlust ganz abgesehen.
Bei M-Discs handelt es sich um zertifiziert längerlebige Datenträger. Diese finden sich derzeit für DVDs als auch Blu-rays. Selbstredend sind sie teurer aber auch langsamer als herkömmliche Blu-rays. Aber angeblich sollen sie bis zu 1.000 Jahre halten.
Sofern Sie Ihre Datensicherung beim eigentlichen Brennvorgang auf optische Medien abschließen, sind spätere Anwenderfehler durch z.B. versehentliches Löschen ausgeschlossen.
Dieser Vorteil führt jedoch dazu, dass man sich nur durch mühsames Umkopieren auf neue Sicherungen von einzelnen Dateien (z.B. doppelte oder nicht mehr erwünschte Versionen) auf einem Datenträger trennen kann, wodurch mit der Zeit die Dateiverwaltung ineffizient werden kann.
Da alle optischen Medien die runde Normgröße von 12 Zentimeter Durchmesser besitzen (seltene Sonderformen sind generell für die Datensicherung ungeeignet), existiert ein umfangreiches und preiswertes Zubehörangebot, zur Lagerung (angefangen bei Papierhüllen, Weich- und Hart-Plastikhüllen, bis hin zu Boxen etc.).
Manche moderne (meist kostenpflichtige) Brennsoftware kann inzwischen auch medienübergreifend brennen. D.h. der bisher große Speicherverlust am Ende des Mediums wird zumindest etwas reduziert.
Alle optischen Medien sind beim Zurückspielen der Daten sehr langsam, da der Zeitaufwand zum Wechseln der Datenträger und zum Einlesen der Daten im Laufwerk erstaunlich hoch ist.
Alle optischen Datenträger sollte man dennoch nach ca. 10 Jahren wieder einmal auf Lesbarkeit prüfen. Falls sich dabei Lesefehler zeigen, so kann man dann meist noch viele Dateien retten und umkopieren. Ob dies nach 50 Jahren noch so problemlos funktioniert, sei dahingestellt.
Unterschätzen Sie den Zeitaufwand nach einem Festplattenschaden für eine evtl. erforderliche Rücksicherung der Daten von optischen Datenträgern auf eine neue Festplatte nicht. Obwohl ich der Meinung war, dass meine früheren Beschriftungen der CDs und DVDs ausreichen sollten, war ich tagelang nur mit dem Sichten und Zurückkopieren beschäftigt.
Wer gebrannte optische Datenträger komplett - sowohl bezüglich der Disk-Qualität als auch der geschriebenen Daten - überprüfen möchte, kann das kostenlose Werkzeug Nero Discspeed verwenden.
Magnetische Speichermedien - Festplatten
Externe Festplatten - USB-HDD
Vorteile
Externe Festplatten ermöglichen die schnelle Datenspeicherung (schnelles Schreiben der Daten auf die Festplatte), wodurch das Sichern großer Datenmengen spürbar beschleunigt wird.
Externe Festplatten erlauben einen schnellen Lesezugriff. D.h. auch das Zurückschreiben im Falle eines Datenverlustes auf der originären HDD des PCs kann sehr schnell erfolgen.
Sehr große Datenmengen sind auf externen Festplatten speicherbar (4-8 TB waren 2015 bereits Standard im Endanwenderbereich. 2020 boten mehrere Firmen bereits 14-16 TB-Festplatten und sogar eine 20 TB-Festplatte war verfügbar.).
Mit Festplatten ist es sehr leicht, die schnelle Übersicht über riesige Datenmengen zu erhalten.
Externe Festplatten sind relativ klein sowie leicht und somit mobil verwendbar.
Externe Festplatten sind gemessen an der Speicherkapazität sehr preiswert im Vergleich zu optischen Datenträgern.
Externe Festplatten erlauben das kontinuierliche Sichern sehr großer Datenmengen - ganzer Verzeichnisse mit hunderten Filmen und tausenden Fotos.
Sie bieten eine effiziente Speicherplatznutzung: Vor allem bei großen Foto- und Film-Dateien wird (im Vergleich zu optischen Medien) wesentlich weniger ungenutzter leerer Platz am Ende verschwendet.
Externe Festplatten besitzen eine wesentlich höhere Speicherdichte und verbrauchen deshalb weniger Platz zur Lagerung (als optische Medien).
Auf angeschlossenen externen Festplatten kann auch jeder Laie effizient die Dateien verschieben, kopieren und Duplikate oder nicht mehr benötigte Versionen löschen.
Zur Benutzung externer Festplatten ist (im Gegensatz zu optischen Medien) keine Software (Brennprogramme) erforderlich. Der betriebssysteminterne Datei-Explorer reicht in allen Fällen aus.
Die externe Festplatte wird von den meisten Nutzern als die am einfachsten zu handhabende Sicherungs-Lösung angesehen. Diesen banalen Punkt sollte man nicht unterschätzen: Was man als leicht empfindet, wird man im Zweifel auch öfter anwenden.
2,5-Zoll-externe Festplatten kommen meist ohne eigene Stromversorgung / eigenes Netzteil aus.
Selbstredend eignen sich auch optische Medien zum Einlagern in Bankschließfächern. Aber mit der Speicherdichte von Festplatten können sie nicht mithalten. Deshalb eigenen sich (externe) Festplatten eher für die feuersichere Unterbringung in einer Bank. Sie eignen sich ebenfalls auch eher zum externen Einlagern bei einem Freund in dessen Haus.
Sofern man externe Festplatten nur selten - d.h. zum Sichern und ggf. Zurückspielen - an den PC anschließt, sind sie sicherer als ständig im PC angeschlossene interne Festplatten, da sie nicht so lange den Ein-Ausschaltprozessen und der Erwärmung / Abnutzung sowie potentiellen Viren und Anwenderfehlern ausgesetzt sind.
Externe Festplatten sind - wie optische Medien - sicherer, da sie selten zusammen mit einem Laptop / PC und dessen internen Speichermedien gestohlen werden.
Das Zurückspielen der Daten geschieht viel schneller mit einer externen Festplatte als mit dutzenden oder sogar hunderten optischer Datenträger.
Nachteile
Als elektromagnetische Datenträger vertragen die externen Festplatten, insbesondere diejenigen mit nur einer Plastikhülle - keinerlei störende magnetische Felder. Starkstromleitungen sollte man deshalb beim Transport meiden. Auch in der Nähe von Lautsprechern sollte man sie weder lagern noch betreiben.
Nur USB 3.#, 4.# Festplatten, oder solche mit speziellen eSATA-Anschlüssen, sind wirklich schnell beim Lesen sowie Schreiben. Alte externe Festplatten mit USB 1 sind sehr langsam und solche mit USB 2 relativ langsam.
Zahlreiche Festplatten sind trotz USB 3.# Anschlüssen sowohl beim Lesen als auch beim Schreiben unerwartet langsam. Das hängt meist am billigen Controller. 2,5-Zoll-Festplatten sind oft nochmals deutlich langsamer als 3,5-Zoll-Laufwerke. Vor allem die Zugriffszeiten sind sehr langsam.
Schnelle externe USB 3-Festplatten kann man nur an modernen PCs mit schnellen integrierten Controllern sowie schnellen internen Festplatten voll ausreizen. So erziele ich mit einem etwas älteren Windows 7 PC und nachträglich eingebauter zusätzlicher USB 3 PCI-Steckkarte nur 1/4 bis 1/3 der maximal möglichen Leistung.
Zahlreiche externe Festplatten werden beim Schreiben und Lesen sehr warm bis heiß, da sie meist keine Kühlungsventilatoren besitzen. Während viele alte externe Festplatten noch ein mit der HDD verbundenes Metallgehäuse besaßen, das die Wärme ableitet, sind heutige externe Festplatten oft mit weitgehend luftdicht abgeschlossenen Plastik-Gehäusen umgeben, welche keine Wärmabfuhr ermöglichen.
Die meisten Festplatten sind sehr empfindlich und verkraften in der Regel keinen Fall aus 1 Meter Höhe. Manche senkrecht aufgestellten externen Festplatten werden bereits durch einfaches Umkippen auf dem Tisch zerstört. - Dies gilt vor allem, wenn sich die Scheiben drehen, also die Festplatte angeschaltet ist.
Auch externe Festplatten müssen sorgfältig gelagert werden. So darf man sie nicht in der Nähe (elektro-) magnetischer Felder lagern. Hitze, Kälte, hohe Luftfeuchtigkeit oder Erschütterungen vertragen sie ebenfalls nicht. Selbst wenn einige Fotografen und Filmer dies tun, und es im Internet auch empfohlen wird, so sollten Sie externe Festplatten nicht zu den Aufnahmen mitnehmen oder bei Sonne im Auto / Kofferraum liegen lassen.
Die Herstellerangaben für Schreibfehler klingen riesig und vertrauenserweckend: 1 zu 10 hoch 14 Bit. Allerdings bedeutet dies einen Schreibfehler je ca. 10 TB. Bei zweimaligem Beschreiben hat man somit einen Fehler auf einer 5 TB Festplatte.
Während interne Festplatten ständig im Luftzug eines oder mehrerer Ventilatoren liegen, werden externe Festplatten meist nicht gekühlt und überhitzen deshalb schnell.
Während interne Festplatten für den jahrelangen Dauerbetrieb ausgelegt sind, neigen externe dazu, bereits nach einigen Minuten bei Überhitzung ab- oder herunter zu schalten. Dann bricht der Datentransfer ein.
Externe Festplatten hingegen darf man nur als Kurzstreckenläufer bezeichnen. Sie zeigen auch kaum Einzelfehler an, sondern fallen nach kurzer Zeit (unter 1.000 Stunden) oder sogar bereits nach sehr kurzer Zeit (unter 100 Stunden) plötzlich total aus. Für den Nutzer zeigen sie bis dahin kaum erkennbare Symptome, sodass man sich auf den Ausfall kaum vorbereiten kann.
Für externe Festplatten kann man keine Haltbarkeitsdaten angeben, da das Spektrum extrem ist und sehr von der Nutzung abhängt.
Falls der GAU eintritt und die externe Festplatte den Betrieb einstellt, ist eine Reparatur oder auch nur Datenrettung entweder sehr schwierig = sehr teuer, oder nicht möglich.
Fast alle externen Festplatten benötigen einen separaten Stromanschluss / Netzadapter mit Kabel. Mit der Zeit (sprich: weiteren externen Festplatten) sammeln sich so ziemlich viele Netzstecker / Transformatoren an, die jedoch nicht alle zueinander kompatibel sind.
Auch die USB-Stecker werden inzwischen in derart vielen zueinander inkompatiblen Varianten (vor allem die Steckergröße auf der Seite der externen Festplatte) angeboten, dass man einen Standard vermisst.
Hier finden Sie den Ausfallbericht 2020 eines Datencenters (Backblaze) mit über 160.000 Festplatten. Dieser Datensatz darf nicht gegen ein Modell oder eine Firma verwendet werden, sondern er zeigt nur, dass alle Festplatten mehr oder weniger ausfallgefährdet sind.
Warnung vor Überhitzung geschlossener Festplatten
Zwar erhält man dafür keine Herstellerbestätigung. Aber in PC-Zeitschriften und Foren finden sich zahlreiche Artikel darüber, dass in externen Festplatten oft nur die sogenannten 'B-Ware' aller Hersteller verwendet wird.
Trotz hunderter Artikel und Rezension im Internet über die geringe Qualität der meisten externen Festplatten, war ich so unklug, und musste die negativen Erfahrungen erst selbst sammeln.
Die Marke scheint hierbei nebensächlich zu sein. Alle Marken sind m.E. davon betroffen.
Moderne externe Festplatten werden sehr schnell extrem warm bis heiß. Meine erhitzen sich pro Minute um bis zu 1 Grad, wobei es keinen Unterschied spielt, ob sich die externe Festplatte im Leerlauf oder Schreib- resp. Lesemodus befindet.
Da man seine Festplatten nicht mit mehr als 50 Grad betreiben sollte, ist somit bei Zimmertemperatur nach maximal 30 Minuten Betrieb das Ende erreicht. Danach besteht die Gefahr der völligen Zerstörung der geschlossenen externen Festplatte durch Überhitzung.
Bei sehr vielen Anwendern - so auch bei mir - meldete sich die 4 TB Festplatte mit über 100.000 Fotos sowie über 1.000 Filmen ohne jegliche Vorwarnung mit zwei Klack ab - Totalschaden.
Zwar zerstören sich zahlreiche Festplatten bereits nach wenigen Stunden, Tagen, Wochen oder Monaten. Erstaunlich oft - wie bei mir - tritt dies jedoch exakt wenige Tage nach Ablauf der Gewährleistung / Garantie ein.
Da es sich bei meinen Daten um unwiederbringliche Aufnahmen handelt, gehe ich immer extrem vorsichtig mit externen Festplatten um und transportiere, verwende und lagere sie so vorteilhaft und schonend, wie nur möglich. Ferner hatte ich diese 4 TB-Festplatte nur maximal 100 Mal in Betrieb genommen (fast nur zum Sichern = Schreiben vorhandener Dateien), wobei der Zeitaufwand = Gesamtbetriebsdauer insgesamt deutlich unter 100 Stunden lag (vermutlich sogar unter 50 Stunden).
Sehr erfreulich war in meinem Fall der gute Service des Herstellers, der mir kulanzhalber die Garantie verlängerte und somit zumindest den direkten materiellen Schaden ersetzte.
Da alle externen Festplatten von diesem Überhitzungsphänomen betroffen sind, werde ich aufgrund des kulanten Services bei meinen Seagate-Platten bleiben und auch weiterhin diese Marke erwerben.
Aber ich werde mir nun bei jeder Sicherung und dem Zurückspielen von Daten die Temperaturen der externen Festplatte genau ansehen, d.h. die ganze Zeit anwesend sein und im Zweifel rechtzeitig abbrechen - bei spätestens 45 Grad Celsius.
Tests zur Wärmeentwicklung externer Festplatten
Falls Sie sich nur für das Fazit meiner umfangreichen Testreihen interessieren, können Sie die folgenden Details überspringen.
Details zum Sichern / Daten speichern / Daten schreiben
Angeschlossen wurde die kaufneue belüftete externe USB 3.0 Festplatte an einem 6 Jahre alten PC, der über eine nachträglich eingebaute Schnittstellenkarte nur 50 MB/Sek auf den USB 3-Stecker liefern kann. D.h. die Festplatte wurde nur mit 1/3 der potentiellen Leistung belastet. De facto wurden Transferraten von nur rund 40 MB/Sek. Gemessen. Das ist 1/4 der Leistung guter USB 3-Festplatten. Ferner wurden als Vorsichtsmaßnahme nur relativ kleine Ordner kopiert, damit man bei Überhitzung gefahrlos hätte abbrechen können. D.h. zwischen den Kopierbefehlen traten erhebliche Pausen ein. Umso erschreckender sind die Daten zur Hitzeentwicklung.
Testreihe 1: Zimmertemperatur während des längeren Tests zu Beginn: 14 - am Ende: 18 Grad Celsius.
Fabrikneue 4 TB Festplatte mit Belüftungsschlitzen an der Unterseite:
Test 1: Schreiben / Sichern auf die externe Festplatte
Test 1: Temperaturvergleich Schreiben
Minuten
Temperatur in Celsius
0
18
4
22
7
24
12
27
26
32
200
45
Aus Sicherheitsgründen erfolgte dann der Abbruch.
Test 2: Schreiben / Sichern auf die externe Festplatte - 80 GB Datenvolumen
Test 2: Temperaturvergleich Schreiben
Minuten
Temperatur der externen Festplatte in Celsius
Umgebungs-Temperatur der Luft
0
15
9
30
30
10
Pause.
Test 3: Schreiben / Sichern auf die externe Festplatte - 436 GB Datenvolumen
Test 3: Temperaturvergleich Schreiben
Minuten
Temperatur der externen Festplatte in Celsius
Umgebungs-Temperatur der Luft
0
30
10
60
39
15
Pause.
Test 4: Schreiben / Sichern auf die externe Festplatte - 436 GB Datenvolumen
Test 4: Temperaturvergleich Schreiben
Minuten
Temperatur der externen Festplatte in Celsius
Umgebungs-Temperatur der Luft
0
31
15
59
39
15
168
41
18
Dann Abkühlung 75 Minuten lang: auf 25 Grad Festplattentemperatur bei 19 Grad Umgebungsluft Umgebungstemperatur.
Test 5: Schreiben / Sichern auf die externe Festplatte - 53 GB Datenvolumen
Test 5: Temperaturvergleich Schreiben
Minuten
Temperatur der externen Festplatte in Celsius
Umgebungs-Temperatur der Luft
0
25
19
20
33
19
Pause.
Test 6: Schreiben / Sichern auf die externe Festplatte - 212 GB Datenvolumen
Test 6: Temperaturvergleich Schreiben
Minuten
Temperatur der externen Festplatte in Celsius
Umgebungs-Temperatur der Luft
0
33
19
10
36
19
28
39
19
45
40
19
69
42
19
Pause.
Test 7: Schreiben / Sichern auf die externe Festplatte - 85 GB Datenvolumen
Test 7: Temperaturvergleich Schreiben
Minuten
Temperatur der externen Festplatte in Celsius
Umgebungs-Temperatur der Luft
0
42
20
15
43
20
31
43
21
Pause.
Test 8: Schreiben / Sichern auf die externe Festplatte - 24 GB Datenvolumen
Test 8: Temperaturvergleich Schreiben
Minuten
Temperatur der externen Festplatte in Celsius
Umgebungs-Temperatur der Luft
0
43
21
2
44
21
Pause.
Test 9: Schreiben / Sichern auf die externe Festplatte - 115 GB Datenvolumen
Test 9: Temperaturvergleich Schreiben
Minuten
Temperatur der externen Festplatte in Celsius
Umgebungs-Temperatur der Luft
0
44
21
30
44
21
55
45
21
Aus Sicherheitsgründen erfolgte dann der Abbruch.
Test 10: Rücksichern / Lesen auf der externen Festplatte - 146 GB Datenvolumen. Die Datenbandbreite schwankte erheblich, erreichte jedoch mit USB 3 bis zu 180 MByte/Sek. unter Windows 10 64 Bit auf einem neuen PC.
Test 10: Temperaturvergleich Schreiben
Minuten
Temperatur der externen Festplatte in Celsius
Umgebungs-Temperatur der Luft
0
21
23
1
22
23
3
23
23
6
26
23
8
27
23
11
29
23
14
30
23
15
31
23
20
33
23
23
34
24
Aus Sicherheitsgründen erfolgte dann der Abbruch.
Test 11: Schreiben / Sichern auf die externe Festplatte - 42 GB Datenvolumen, bei bis zu 160 MB/Sek.
Test 11: Temperaturvergleich Schreiben
Minuten
Temperatur der externen Festplatte in Celsius
Umgebungs-Temperatur der Luft
0
20
15
1
21
15
3
22
15
4
23
15
5
24
15 ENDE des Kopiervorganges
6
25
15
13
26
15
Pause. Obwohl das Kopieren beendet war, heizte sich die Festplatte weiter auf. Einerseits scheint es sich um einen Nachglüheffekt zu handeln, andererseits um das Aufheizen bereits durch den normalen Stand-by-Betrieb.
Man mag sich kaum vorstellen, wie sich eine nicht belüftete externe Festplatte im Hochsommer erhitzt.
Test mit neuer Austauschfestplatte (= einer reparierten Festplatte, welche Seagate als Ersatz für die defekte externe Festplatte mir zuschickte): Schreiben / Sichern auf die externe Festplatte - 265 GB Datenvolumen, 15.765 Dateien, bei 50 bis zu 160 MB/Sek. Übertragungsrate. Diese Festplatte war mit Plastik ummantelt, besaß jedoch hinten und oben zahlreiche Lüftungsschlitze.
Test 12: Temperaturvergleich Schreiben
Minuten
Temperatur der externen Festplatte in Celsius
Umgebungs-Temperatur der Luft
0
19
17
1
20
17
2
21
17
3
22
17
4
23
17
5
24
17
7
25
17
10
26
17
11
27
17
12
28
17
14
29
17
16
30
17
19
31
17
20
32
17
24
33
17
26
34
17
27
35
17
33
36
17
34
37
17
39
38
17 ENDE des Kopiervorganges
40
39
17 Auch nach dem Kopieren wurde die Festplatte im Leerlauf immer heißer.
Am Folgetag: Ein wirklich kalter, nasser und windiger Tag, an dem klar war, dass es Herbst wurde. Weiterer Test mit der neuen Austauschfestplatte (= einer reparierten Festplatte, welche Seagate als Ersatz für die defekte externe Festplatte mir zuschickte): Schreiben / Sichern auf die externe Festplatte - 494 GB Datenvolumen, 17.758 Dateien, bei 50 bis zu 160 MB/Sek. Übertragungsrate. Diese Festplatte war mit Plastik ummantelt, besaß jedoch hinten und oben zahlreiche Lüftungsschlitze.
Test 13: Temperaturvergleich Schreiben
Minuten
Temperatur der externen Festplatte in Celsius
Umgebungs-Temperatur der Luft
0
14
10
1
15
10
2
16
10
3
17
10
4
18
10
6
19
10
8
20
10
9
21
10
10
22
10
13
23
10
15
24
10
17
25
10
19
26
10
21
27
10
22
28
10
25
29
10
29
30
10
31
31
10
32
32
10
36
33
10
40
34
10
47
35
10
51
36
10
52
37
10
59
38
10 ENDE des Kopiervorganges
Derartige Raumbedingungen von 10 Grad Celsius bei gleichzeitigem Durchzug dürften jedoch selten sein.
Danach folgten weitere 7 Schreibvorgänge (= Sicherungen) mit insgesamt 548 GB Daten auf die externe Festplatte. Dabei erhitzte Sie sich auf 44 Grad Celsius bei immer noch nur 10 Grad Raumtemperatur und Durchzug, der die Kühlung verbesserte.
Deshalb erfolgte dann der Abbruch wegen zu hoher Temperatur. Wobei bezweifelt werden darf, dass die meisten Fotografen in ihrer Wohnung 10 Grad Zimmertemperatur halten können.
Eine erforderliche Temperaturdifferenz von über 30 Grad zur Festplattenkühlung halte ich jedoch im Sommer für absolut illusorisch und das kontinuierliche Sichern von großen Datenmengen darauf folglich für tödlich für die Festplatte.
Nachtrag: Bis heute führte ich dutzende weiterer Tests mit anderen Festplatten bis hin zu 10 TB Speicherkapazität durch, wobei ich sie an einem modernen Windows 10 PC mit extrem schneller interner m2.SSD betrieb. Ich kam - cum grano salis - auf dieselben Ergebnisse. Selbst bei einem Test im September 2018 unter Idealbedingungen mit einer neuen Festplatte und nur USB-2-Transfer-Leistung waren es 27 Grad in 65 Minuten (von 22 auf 49 Grad). Im Extremfall muss man mit 1 Grad Erhitzung der externen Festplatte je Minute rechnen.
Fazit:
Alle durchgeführten Tests unter für die Kühlung der Festplatten sehr günstigen Raumtemperaturbedingungen ergaben, dass moderne externe USB-3-Festplatten, welche mit Plastik ummantelt sind (sei dieser mit Lüftungsschlitzen versehen oder nicht), binnen kurzem überhitzen.
Deshalb startete ich eine völlig neue Testreihe mit der Austauschfestplatte, wobei ich das Plastik-Gehäuse komplett entfernte und die Festplatte an der freien Luft betrieb (siehe Foto unten).
Test mit der neuen Austauschfestplatte (= der reparierten Festplatte, welche Seagate als Ersatz für die defekte externe Festplatte mir zugeschickt hatte): Schreiben / Sichern auf die externe Festplatte - 980 GB Datenvolumen, 70.447 Dateien, bei 40 bis zu 140 MB/Sek. Übertragungsrate. Diese Festplatte stand senkrecht völlig frei im Luftzug. - Warnung: Führen Sie solch einen extremen Schreibtest von fast 1 TB niemals im Sommer bei einer mit Plastik umschlossenen externen Festplatte durch. Sie würde dabei überhitzen.
Test 14: Temperaturvergleich Schreiben
Minuten
Temperatur der externen Festplatte in Celsius
Umgebungs-Temperatur der Luft
0
15
12
1
16
12
2
17
12
3
18
12
4
19
12
6
20
12
8
21
12
9
22
12
12
23
12
14
24
12
16
25
12
17
26
12
21
27
12
24
28
12
26
29
12
32
30
12
35
31
12
48
32
12
61
33
12
96
34
12
102
33
12 - Extremer Durchzug mit ca. 4 Bft. im Zimmer.
108
32
12 - Extremer Durchzug, für die Gesundheit des Fotografen unzuträglich. Deshalb wieder reduziert.
112
33
12
124
34
12
155
34
12
156
33
12 ENDE des Kopiervorganges
Ohne Plastikumhüllung wärmte sich die externe Festplatte langsamer auf, stabilisierte sich bei knapp 35 Grad - etwa 10 Grad unter der geschlossenen Variante - und hielt mehr als zweieinhalb Stunden ununterbrochene Schreibvorgänge durch.
In zahlreichen weiteren Schreibvorgängen / Testreihen konnten diese Zahlen bestätigt werden. Niemals stieg die Temperatur der externen Festplatte im offenen Zustand über 35 Grad Celsius.
Es gelang somit der Beweis, dass:
Die Plastikummantelung der externen Festplatte die Wärmeabfuhr extrem behindert.
Die offene Festplatte um mindestens 10 Grad besser kühlt und auch bei extremen Dauerschreib-Betrieb in einem akzeptablen Temperaturbereich verblieb.
Dass kein ernst zu nehmender Fotograf stundenlang bei solchen Zimmertemperaturen von 10-12 Grad Celsius arbeiten will. (Nach den Testreihen hatte ich eine ernst zu nehmende Erkältung mit Halsschmerzen. Aber was tut man nicht alles für die Wissenschaft.)
Selbst im geöffneten Zustand der externen Festplatte würde die erforderliche Temperaturdifferenz zur Umgebungsluft jedoch für einen Dauerbetrieb im Hochsommer nicht ausreichen. D.h.: Im Sommer muss man entweder Dauerbetrieb mit externen Festplatten vermeiden oder diese irgendwie kühlen.
Externe Festplatten werden umso heißer, je schneller die PCs sind, an die man sie anschließt. Denn erst sie ermöglichen die mit USB 3.# und 4.# hohen Datentransferraten. D.h. ein hochmoderner PC mit SSD wird sowohl im Lese- als auch im Schreibmodus die externe Festplatte eventuell sehr viel schneller erhitzen, während man mit einem langsamen alten Laptop diese Temperaturgrenze kaum erreicht.
Tipps zur Nutzung externer Festplatten
Da für die meisten Nutzer keine Alternative zu externen Festplatten existiert, hier einige Vorsichtsmaßregeln.
Externe Festplatten sollten heute über den modernen Standard USB 3.# oder 4.# verfügen.
Kaufen Sie keine zu kleine externe Festplatte. Die immer wieder empfohlenen 500 GB sind heute viel zu klein, wenn Sie einen Sensor mit mehr als 20 Mega-Pixeln in der Kamera haben, RAW-Dateien speichern oder die bearbeiteten Bilder als TIFF oder PSD mit 16-Bit-Farbtiefe sichern wollen.
Bei den heute oft in mehreren Größen angebotenen Modellen rechnen Sie sich mit einem Taschenrechner den jeweils günstigsten Preis je GB oder besser TB aus. Diese Plattengröße ist dann einerseits groß genug und andererseits auch derzeitiger technisch relativ ausgereifter Marktstandard. 2020 lagen die Festplattengrößen bei 3,5 Zoll-Laufwerken mit dem günstigsten Preis/Speicher-Verhältnis meist zwischen 4 und 10 Tera-Byte (TB).
Externe 2,5-Zoll-Laufwerke sind meist deutlich teurer, bieten dafür jedoch weniger Volumen und Gewicht, sodass sie evtl. sinnvoller für einen mobilen Einsatz zusammen mit dem Laptop sind. Wer solche Festplatten jedoch wirklich mobil verwenden will, sollte sie durch eine weich gepolsterte Ummantelung auch gut schützen.
Oder man muss die Dateien zumindest mit einem weiteren Medium sichern. Auf jeden Fall muss verhindert werden, dass mit dem Ausfall eines Systems alle Dateien verloren gehen können.
Vor allem bei der Sicherung auf externen Festplatten müssen Sie 2 komplette Datensätze besitzen:
Man kann alle Dateien auf zwei externen Festplatten identisch sichern.
Oder man kann einen vollständigen Datensatz auf einer internen Festplatte im PC belassen.
Dass zwei Festplatten zur selben Zeit ausfallen, ist eher unwahrscheinlich.
Alternativ bietet sich evtl. eine zweite Sicherung auf Blu-rays an.
Legen Sie sich zum Betrieb der externen Festplatte unbedingt die kostenlose Kontrollsoftware CrystalDiskInfo zu.
Mit F6 integrieren Sie die neu angeschlossene externe Festplatte in das Mess-System.
Mit F5 können Sie Daten ständig aktualisieren.
Stellen Sie ferner in der Rubrik Optionen, Auto-Aktualisierung den Zeitraum auf 1 Minute ein.
Für fortgeschrittene Anwender ist evtl. auch Smartmontools geeignet.
Führen Sie längere Sicherungen auf externe Festplatten eher zu frühen Morgenstunden durch, wenn die Umgebungstemperatur noch gering ist. Meiden Sie die heißeste Tageszeit, vor allem in den Sommermonaten für lange Sicherungen und das Zurückspielen großer Datenmengen, oder sorgen Sie dann für ausreichend kühle Belüftung (z.B. Klimaanlage / Klimagerät).
Halten Sie während aller Arbeiten die Temperatur der externen Festplatte immer unter 50 Grad. - Um bei langen Sicherungen (ganzer Ordner) keine Daten zu verlieren, breche ich bereits vorher - spätestens bei ca. 45 Grad - ab.
Bei umfangreichen Datensicherungen muss man die externe Festplatte herunterkühlen lassen.
Ich nutze die erforderliche Zeit dazu, die identischen Daten auf eine zweite Festplatte zu kopieren oder DVDs / Blu-rays zu brennen.
Andere Anwender legen ihre überhitzte externe Festplatte in das Gefrierfach ihres Kühlschrankes. Jedoch sollte man die Festplatte dazu in eine dichte Plastikfolie (einen Gefrierbeutel) einwickeln. (siehe Kondensation).
Allerdings ist das extreme Herunterkühlen der externen Festplatten heftig umstritten. In einem Langzeittest fand man heraus, dass Temperaturen unter 20 Grad für Festplatten sogar schädlich sein können.
Im Zweifel hilft nur Warten, bis sie wieder auf Zimmertemperatur heruntergekühlt ist. Das kann je nach Exemplar oder Zimmer-/Umgebungsluft Stunden dauern. Siehe meine Tests.
Man muss somit während der gesamten Sicherungsdauer anwesend sein und den Vorgang kontrollieren. Dies gilt insbesondere an heißen Sommertagen.
Lassen Sie die externen Festplatten niemals ständig am Strom-Netz oder am PC. Die meisten überhitzen dabei auch ohne Benutzung.
Schließen Sie die externe Festplatte nur kurzzeitig zum Sichern oder Rücksichern von Dateien an den PC an.
Sofern es sich bei Ihrem Exemplar um eine stehende externe Festplatte handelt, so sichern Sie diese unbedingt vor ungewolltem Umfallen während des Betriebes. - Im Zweifel keilen Sie die Festplatte zwischen liegenden Büchern ein.
Trennen Sie die USB-Steckverbindung erst nachdem Sie die externe Festplatte im Betriebssystem mit dem Befehl Hardware sicher entfernen / Medium auswerfen / USB-Datenträger etc. auswerfen sauber getrennt haben.
Ziehen Sie auch erst danach den Stromstecker. Die meisten externen Festplatten besitzen heute keinen Ein-Aus-Schalter mehr.
Transportieren Sie die externe Festplatte langsam sowie mit höchster Konzentration vorsichtig und lagern Sie sie sicher, trocken und kühl.
Verlassen Sie sich nicht darauf, dass Ihre externe Festplatte morgen noch arbeitet.
Alte externe Festplatten bezüglich der Belüftung optimieren
Externe Festplatte mit geschlossenem Plastik-Gehäuse. Hier ist die Unterseite zu sehen. Was so aussieht, wie Belüftungsschlitze, sind überwiegend Löcher für die Fußhalterung dieser Festplatte. Diese Seagate gehört zur der Klasse, welche man vor einigen Jahren mit einem speziellen Fuß für die Stromzufuhr und den USB 3-Anschluss verwendete. Eigentlich war das eine sinnvolle Idee, da man so nur einen Fuß mit Stromzufuhr und USB-Stecker samt zweier Kabel mit Stromstecker hatte und nur noch die vielen externen Festplatten aufstecken musste. Das sparte Platz, Geld, schonte die Umwelt und konnte sich deshalb nicht durchsetzen.
Sofern Sie ältere Festplatten besitzen, welche komplett von Plastik umhüllt sind, welches die Belüftung einschränkt oder sogar völlig verhindert, so kann das Folgende selbst und leicht Durchzuführende die Kühlung drastisch verbessern und so die Lebensdauer der externen Festplatte erheblich verlängern.
Prüfen Sie zuerst, ob noch Gewährleistung / Garantie auf der Festplatte ist. Dies funktioniert für zahlreiche Festplatten (Seagate, Samsung, Maxtor) bei:
Externe Festplatte mit geschlossenem Plastik-Gehäuse. Hier ist die Oberseite zu sehen. Diese hier rot umrandeten Schlitze sind die einzige Luftabfuhr oben im Deckel. Sie sind weniger als einen halben Millimeter dick. Und selbst solch dünne Luftschlitze sind bereits bei vielen modernen externen Festplatten nicht mehr vorhanden.
Machen Sie die folgenden Dinge nur mit Festplatten, deren gesetzliche Gewährleistung und Firmen-Garantie bereits deutlich abgelaufen sind. Nach diesen Eingriffen verlieren Sie auch jede Hoffnung auf Kulanz. Alle Eingriffe erfolgen ohne Gewähr und ausdrücklich auf Ihr eigenes Risiko.
Falls Ihre Festplatte eine schraubbare Plastikumhüllung besitzt, so öffnen Sie diese.
Externe Festplatte mit offenem Plastik-Gehäuse. Hier erkennt man sogar Öffnungslöcher im Metallchassis der Festplatte für die Lüftung.
Externe Festplatte mit offenem Plastik-Gehäuse. Deutlich erkennt man, dass die eigentliche Festplatte rund herum mit Metall umschlossen ist, das zum Kühlen dient.
Meine neueren (so etwa seit dem Jahr 2010) externen Festplatten bestehen jedoch nur noch aus zusammengepresstem Plastik. Siehe Fotos.
Suchen Sie zuerst die Öffnungs-Naht /-Nut. Diese ist heute oft sehr versteckt / verdeckt angebracht. Benutzen Sie zum Aufstöbern Ihre langen Fingernägel.
Bei mir ist die Naht meist an der Seite, wobei ein Plastik-Deckel den anderen Gehäuseteil leicht überdeckt. Darunter befindet sich die Nahtstelle. Prüfen Sie die Durchgängigkeit der Nahtstelle mit ihrem Fingernagel.
Erst danach sollten Sie mit einem flachen Schraubendreher/-zieher mit ca. 5 mm breiter Fläche von unten (dem Anschlussteil der Festplatte) langsam durch leichtes Rütteln öffnen.
Gehen Sie dabei vorsichtig vor, da man nie genau weiß, wo welche Haken im Innern befestigt sind.
Schieben Sie die flache Schraubendreherspitze nur wenige Millimeter in das Gehäuse hinein, damit Sie auf keinen Fall die Festplatte (HDD) oder den Controller berühren.
Normalerweise springt das Gehäuse von selbst auf, wenn man mit der Schraubendreherspitze der Nahtstelle entlangfährt.
Kompliziert ist oft das Kopfsegment, da manche Hersteller dort irgendwelche Sonderformen an Deckeln verwenden. Entweder wurden zwei unsymmetrische Plastikteile verwendet oder drei. In Einzelfällen finden sich auch 4 Teile, wobei das 4. dann die Bodenpartie / den Anschlussteil mit den Steckern bildet.
Geöffnet lässt sich die Festplatte meist ohne Schrauben entfernen. Heute wird fast nur noch auf billigste Weise zusammengepresst. Schrauben erfordern zu viel Zeit beim Zusammenbau. Und Arbeitszeit ist heute selbst in den ärmsten Ländern der Welt für Festplattenhersteller zu teuer.
Offenes Plastik-Gehäuse mit Deckel. Nur mit abgenommenem Deckel sind ausreichend Lüftungsschlitze vorhanden.
Nun kommen wir zum Bohren der Belüftungslöcher:
Da ich das Splitterverhalten von Plastik nicht einschätzen kann, bohre ich immer mit einem kleinen Bohrer (3 mm) vor und dann mit einem großen (6,5 mm) nach. Selbstverständlich sind diese Angaben variabel. Sie dürfen gerne kleinere oder größere Löcher bohren.
Wie viele Löcher Sie in welchem Abstand bohren, ist Ihnen freigestellt. Ich habe in meinem Beispiel an den großflächigen Seitenteilen ein Raster von 2 cm mit dem Lineal aufgetragen und an den Schnittstellen gebohrt.
Anschließend sollte man die Plastikteile ausblasen, die Ränder der Bohrungen entgraten und nochmals perfekt reinigen.
Offenes Plastik-Gehäuse mit gebohrten Luftlöchern - Außenseite.
Offenes Plastik-Gehäuse mit gebohrten Luftlöchern - Innenseite.
Danach kann man die Teile wieder zusammenbauen.
Wieder zusammengebautes Plastik-Gehäuse mit gebohrten Luftlöchern. Die Deckkappe (rechts vorne) ließ ich weg, um die Belüftung zu optimieren.
Wie man auf den Fotos erkennt, sind einige Löcher an den schmalen Seitenflächen asymmetrisch gesetzt, da sich dahinter die Haken / Sperrmechanismen des Plastik-Gehäuses verbergen. Dort sollte man nicht bohren.
Die Abdeckung oben habe ich zum Schluss völlig entfallen lassen, da nur so ausreichend warme Luft nach oben abziehen kann.
Fazit: Diese Verpackung á la schweizer Käse ist für die Festplatte sicher und kühlt gut. Ein gelungener Kompromiss.
Ganz Mutige können auch das gesamte Plastik-Gehäuse entfallen lassen und nur die nackte Festplatte verwenden. Alle Anschlüsse sind vorhanden. So kühlt die Festplatte am optimalsten. Man darf über die metallene Außenhaut dann jedoch keinen leitenden Kontakt zu anderen Stromquellen herstellen. Auch entfällt so jeglicher Vibrationsschutz, weshalb die glatte metallene Festplatte auf der Tischoberfläche wandern kann.
Offene Festplatte - hier in einem USB-3-Steckadapter als Fuß von Seagate. Der diagonal eingeschobene hellblaue Riegel zwischen Festplatte und Fuß dient nur der sicheren Stabilisierung der Festplatte, welche ohne Plastik-Gehäuse nicht mehr so stabil steht. Und die zwei quer gelegten Stifte unter dem schwarzen Fuß / Sockel sollen nur die Lüftungsschlitze des Festplattenfußes anheben / freigeben, da die Bauteile im Fuß auch heiß werden.
Zur Klarstellung: Die Festplatte funktioniert so einwandfrei. Aber sie wird - aufgrund des aufgebrochenen Gehäuses - außerhalb der Garantie betrieben. Man darf auch nicht daran stoßen oder einen elektrisch leitenden Kontakt zu anderen Geräten herstellen. Kurzum: Zur optimalen Kühlung sollte dieses Konstrukt frei im Raum stehen. Diese kühlungsoptimierte Nutzung eignet sich wirklich nur für Mutige ohne Haustiere und Kinder. - Aber die Kühlleistung ist so am höchsten.
Externe Festplatten selbst bauen
Wer seine alten Festplatten zur Kühlung aufbohrt oder frei betreibt, kann auch noch einen Schritt weitergehen: Bauen Sie sich eine externe Festplatte selbst.
So können Sie die Festplatte unter vielen Herstellern, Modellen, Speicherkapazitäten, Qualitäten, Preisen, Transferleistungsklassen, Zugriffszeiten etc. selbst frei auswählen.
Sie erhalten so eine höhere Qualität, mehr Speicherplatz und eine längere Lebensdauer, zu einem akzeptablen Preis.
Variante 2 - nur der USB-3-Adapter: LogiLink AU0013 USB Adapter - Hiermit kann man sogar nicht mehr verwendete SSDs extern betreiben. - Eine externe 2,5-Zoll-Festplatte benötigt so kein zusätzliches Netzteil.
Der einzige Nachteil scheint mir die bei Billigprodukten geringe Haltbarkeit der Steckverbindungen zur Festplatte zu sein. Die USB-Stecker auf der anderen Seite können fast beliebig oft ein- und ausgesteckt werden. Jedoch sind billige - d.h. für interne (im PC liegende) Festplattenanschlüsse gedachte - SATA-Stecker nur auf ca. 25 Anwendungen ausgelegt. Sie werden vermutlich mehr Steckverbindungen als angegeben aushalten, aber bei weitem nicht für das ständige Einstecken und Abziehen externer Festplatten ausgelegt sein. D.h.: entweder investiert man etwas mehr Geld in externe SATA-Stecker oder man belässt die billigen Adapter dauernd an der externen Eigenbau-Festplatte.
Wenn ich das früher bereits gekannt und gewusst hätte, wie einfach es funktioniert, hätte ich mir viel Ärger erspart.
Weitere interne Festplatten
Die wenigsten Nutzer denken wohl daran, dass man in heutige Tower-Gehäuse auch intern zahlreiche weitere Festplatten als Sicherungs-Datenträger / Backup-HDDs einbauen kann.
Vorteile
Interne Festplatten sind normalerweise über sehr schnelle Datenverbindungen an das Motherboard und an die anderen internen Festplatten sowie SSDs angeschlossen, sodass sich hier deutlich höhere Datentransferleistungen sowohl beim Schreiben (Sichern) als auch beim Lesen (= Zurückspielen) ergeben.
Interne Festplatten sind immer verfügbar. D.h. Backups und Rücksicherungen sind viel schneller durchzuführen als mit erst anzuschließenden externen Festplatten.
Interne Festplatten benötigen keine weitere Stromversorgung / Steckdose.
Interne Festplatten benötigen keinen weiteren Platz, da sie in die vorhandenen Schubfächer eingebaut werden.
Interne Festplatten sind preiswerter als externe, da viele Komponenten entfallen.
Hochwertige interne Festplatten sind für den jahrelangen Dauerbetrieb geeignet. Meine Festplatten in einem PC laufen seit 13 Jahren fast ununterbrochen Tag und Nacht - also nun bereits über 80.000 Stunden. Sie altern dabei nur langsam, wobei sich dies in nacheinander auftretenden einzelnen defekten Clustern zeigt, die fast jedes Programm / Betriebssystem beheben kann.
Für interne Festplatten gelten heute 10 Jahre Lebensdauer als durchaus realistisch. Die durchschnittliche Lebensdauer einer Festplatte soll laut diverser Angaben zumindest bei fünf bis sieben Jahren liegen, wobei die genauen Benutzungsumstände meist unklar bleiben.
Will man zwei interne Festplatten automatisch im Hintergrund synchronisieren (das funktioniert auch ohne RAID), dann empfehlen sich kostenlose Programme wie Ascomp Synchredible.
Damit kann man also vollautomatisch im Hintergrund - je nach eingestellten Zeiträumen - die Fotos und Filme der ersten internen Festplatte auf eine zweite interne Festplatte sichern. Das funktioniert sogar in kurzen Abständen, sodass man bei der Versionierung auch auf erst kurz zurückliegende Datenzustände zurückgreifen kann. Damit meint man Extremfälle, bei welchen eine Datei während der Bearbeitung meist durch Anwenderfehler - zerstört wird. Dann kann man auf der 2. Festplatte die - sagen wir im 10-Minuten-Rhythmus gesicherten - vorausgehende Version wieder zurückkopieren. Somit gehen auch große, aufwändige Arbeitsschritte nicht verloren.
Nachteile
Durch die ständige Verbindung mit dem laufenden PC sind interne Festplatten auch von Viren und sonstigen Störangriffen auf den PC direkt und sofort bedroht.
Interne Festplatten sind immer an, wenn der PC angeschaltet ist, und werden somit unter Strom und am Laufen gehalten, erwärmt und belastet, auch wenn man sie nicht zum Sichern benötigt.
Interne Festplatten sind nur schwierig auszubauen und dann extern zu lagern. Überhaupt lassen sich interne Festplatten nur sehr aufwändig mobil einsetzen.
Die Anzahl der Schubfächer / Steckplätze und internen Anschlüsse ist heute in hochwertigen PCs zwar größer als früher, aber nicht unbegrenzt, während man theoretisch eine unbegrenzte Anzahl an externen Festplatten (nacheinander) an den PC anschließen kann. D.h. langfristig gesehen ist die externe Speicherkapazität größer.
Interne Festplatten werden ggf. mit dem PC / Laptop zusammen gestohlen.
RAID - Festplattenbündel
Vorteile
Eine Software kümmert sich um das sichere Verteilen der Daten auf mehrere (mindestens 2) Festplatten.
Unter den zahlreichen weiteren systemimmanenten technischen Vorteilen des RAID ist für die Datensicherung die Redundanz wichtig. D.h. die Daten werden so abgespeichert, dass es bei Ausfall eines Teils des Festplattenverbundes zu keinem Datenverlust kommt.
Je nach RAID-Stufe/-Klasse können sehr hohe Sicherheitsstufen erreicht werden, bei denen sogar mehrere Festplatten gleichzeitig ausfallen dürfen, ohne dass man einen Datenverlust erleidet.
Vor allem beim Lesen lassen sich heute Beschleunigungen mit RAID erzielen. D.h. Ihre Festplatten werden im Verbund beim Lesen der Daten etwas schneller.
Für den Endanwender ist ein RAID-System völlig transparent. D.h. er arbeitet damit, wie mit einer einzelnen Festplatte.
Im RAID lassen sich theoretisch riesige Speichermengen zusammenschalten, welche keine einzeln kaufbare Festplatte erreichen könnte.
Hochwertige Hardware-RAIDs bieten eigene Controller (leistungsstarke Prozessoren) mit eigenem Cache, welche den Datentransfer erheblich beschleunigen können.
Gepufferte Hardware-RAIDs können sogar bei einem Stromausfall die PC-Daten noch auf die Festplatten speichern.
Man kann unterschiedliche Festplatten unterschiedlicher Größe und von verschiedenen Herstellern miteinander kombinieren. So kann das System auch mit den eigenen Bedürfnissen langsam wachsen.
Nachteile
Für die Datensicherung ist das nur beschleunigende RAID 0 (Striping) unbedingt zu meiden. Erst ab RAID-Stufe 1 findet eine mindestens doppelte Datenvorhaltung statt.
Bei RAID-Systemen handelt es sich fast immer um sehr proprietäre Systeme.
D.h. bei internen RAID-Systemen ist das ganze System meist an das Motherboard und den dort integrierten RAID-Controller gebunden. Fällt das Motherboard aus, oder wollen Sie den PC erneuern resp. wechseln, kann dies zu erheblichen Problemen bis hin zum völligen Datenverlust führen.
Bei externen RAID-Systemen (gemeint ist außerhalb des eigentlichen PCs) handelt es sich ebenfalls um proprietäre Systeme, bei denen Sie vom Hersteller abhängen. Geht er in Insolvenz oder gibt er Ihr altes System auf, dann erhalten Sie keine weitere Unterstützung.
PC-intern kommen meist Software-RAIDs zum Einsatz, die etwas langsamer und vor allem anfälliger sind als teurere Hardware-RAIDs.
Datenverlust ist nicht völlig ausgeschlossen: Vor allem Stromschwankungen, Blitzschläge, Feuer und Wasser können noch immer zum Totalverlust führen. Ebenso Sabotage durch Viren oder menschliche Fehler - klassische Anwenderfehler beim Bearbeiten.
Vor allem externe RAID-Systeme sind diebstahlgefährdet. Bereits die Festplattenansammlung an sich ist wertvoll. Und jeder Dieb geht davon aus, dass Sie den finanziellen Aufwand nur für wirklich wertvolle Daten treiben.
Interne (im Tower-PC eingebaute) RAID-Systeme unterliegen den direkten Einflüssen des PCs und können dadurch auch Schaden nehmen.
Technische Transparenz bedeutet für den Endanwender jedoch auch, dass er nicht sieht, wie viel Festplatten er im Verbund besitzt und was diese genau machen. Das RAID ist für Laien völlig undurchschaubar. Vieles ist für Laien hierbei eine Vertrauensfrage.
I.d.R. können technische Laien kein RAID-System erstellen. Dazu muss man sich zumindest in die Materie einarbeiten.
Viele moderne RAID-Systeme können Einzelfehler auf Bit-/Festplattenebene nicht mehr erkennen und prüfen diese auch nicht mehr.
Manche RAID-System können keine SMART-Daten über die Einzelfestplatten liefern. D.h. Sie erkennen nicht, wie warm jede einzelne Festplatte ist oder in welchem allgemeinen Gesundheitszustand sie sich befindet.
Bereits Software-Raids sind oft mit Mehrkosten bei den Platinen / Main-/Motherboards verbunden. Hardware-RAIDs können je nach Qualität und Cache-Speicher sehr teuer werden.
Software-RAIDs belasten die Rechenleistung des PCs erheblich und können ältere PCs spürbar ausbremsen.
Software-RAIDs produzieren bei Stromausfall einen Datenausfall, da die zur Speicherung bereits abgeschickten Daten nicht mehr (alle) korrekt auf die Festplatten geschrieben werden können. D.h. man sollte einerseits zusätzlich eine Unterbrechungsfreie Stromversorgung anschaffen und andererseits das einzelne Festplattencache abschalten.
Etwaige Fehlermeldungen einzelner Festplatten beim Booten dürfen bei RAID-Systemen nicht übergangen werden, da es sonst zu Schreibfehlern im ganzen System kommen kann. D.h. die Daten werden evtl. doch nicht redundant gesichert.
Vor allem Mischungen verschiedener Festplatten und verschiedener Hersteller führen oft zu Problemen. Entweder drosselt das System auf die Leistung der schlechtesten Platte herunter, oder es kommt zu unerklärbaren Fehlern. D.h. oft muss man identische Festplatten einbauen, um einen reibungslosen Betrieb zu gewährleisten. D.h. eine spätere Erweiterung wird durch die dann oft nicht mehr gegebene Verfügbarkeit der alten Festplatten deutlich eingeschränkt. Das Gleiche gilt bei defekten Festplatten, die man später nicht immer leicht ersetzen kann.
Vor allem darf bei einem Festplattendefekt die neue Festplatte auch nicht ein einziges Byte kleiner sein als der defekte Vorgänger. Exakt hierin unterscheiden sich jedoch fast alle Modelle aller Hersteller. D.h. man benötigt im Zweifel eine größere Festplatte als Ersatz.
Keineswegs alle RAID-Systeme erlauben nachträglich eine Erweiterung der Festplattenanzahl. D.h. man ist von Anfang an fest gebunden und muss sich den zukünftigen Bedarf vorher überlegen. Im Zweifel muss man dann erst alle Daten extern sichern, das RAID um neue Festplatten erweitern, alles - das gesamte RAID-System - neu Aufsetzen und dann alle Daten zurückspielen.
Ein defekter Hardware-Controller muss durch einen identischen oder den höheren einer gleichen Familie ersetzt werden. Dies ist bei On-board-Systemen der Motherboards nach ein paar Jahren fast unmöglich.
Bei RAID 1, dem einfachen Spiegeln (Mirroring) wird der maximale Speicherplatz der beiden Festplatten von der kleineren bestimmt. Alles, was die größere Festplatte mehr an Speicherplatz besitzt, wird nicht verwendet.
Serienhafte Hardware-Fehler können zu schnell hintereinander auftretenden Festplattenfehlern und -ausfällen führen, wenn man z.B. alle Festplatten des RAIDs aus einer solchen Produktionsserie gekauft hat.
Vor allem bei RAIDs aus billigen, kleinen Festplatten kommt es zu einem statistisch begründeten sich kumulierenden Grenzwert bei Schreibfehlern. Größere Festplattenverbünde mit solchen Consumer-Festplatten im RAID 5 oder 6 sind de facto fehleranfällig. Einfach ausgedrückt bedeutet dies, dass mehr Festplatten und höheres RAID nicht sicherer sind.
Fazit RAID
RAIDs bieten eine deutlich höhere Ausfallsicherheit als einzelne Festplatten.
Einrichtung, Wartung und Ausbau von RAIDs sind relativ kompliziert. Für den Laien oder Privatanwender kann man es kaum empfehlen.
Nur RAID 1 kann privaten Normalanwendern empfohlen werden, da man die Festplatten auch einzeln herausnehmen und in anderen PCs einsetzen kann. RAID 1 spiegelt nur die Dateien identisch auf zwei Festplatten.
RAIDs erhöhen eher die Ausfallsicherheit produktiver Systeme. D.h. sie sichern Ihre ständige Arbeitsfähigkeit an Ihrem PC, was für beruflich tätige Fotografen und Videografen durchaus wichtig sein kann.
RAIDs ersetzen jedoch keine Datensicherung auf anderen Medien.
NAS - Network Attached Storage sowie NDAS - Network Direct Attached Storage
Die Übergänge zwischen RAID und NAS sind fließend, und manche Nutzer vermischen und verwechseln dies auch. Aber der Ansatz für NAS (Network Attached Storage - an ein Netzwerk angeschlossener Speicher) war prinzipiell ein anderer.
Vorteile
NAS beschreibt vereinfachend ausgedrückt einen durch (Funk- oder Kabel-, also meist Ethernet- und W-LAN-) Netzwerk mit dem PC verbundenen flexiblen externen Speicher.
Im Gegensatz dazu bezeichnet man den direkt im PC verbauten Speicher gerne als Direct Attached Storage (DAS).
Salopp ausgedrückt handelt es sich um kühlbox- bis kühlschrank-große Systeme, die irgendwo untergebracht werden.
Zwar würde eine einzige zentrale Festplatte für ein NAS bereits ausreichen. Aber in der Regel handelt es sich bei NAS um RAID-Systeme vieler Festplatten und zwar meist um Hardware-RAIDs. Folglich gelten fast alle oben genannten Vor- und Nachteile der RAID-Systeme auch für NAS.
Der Hardware-RAID-Controller befindet sich mit den Festplatten meist in einem separaten Gehäuse.
Die zentrale Datenspeicherung mit NAS erlaubt es, die Endgeräte klein und auch mobil zu halten. D.h. auch das kleinste Smartphone kann auf die # Terabyte an Fotos und Filmen in jenem zentralen Speicher zugreifen.
NAS erlaubt auch, dass alle Personen in dem Netzwerk jederzeit von jedem Ort und jedem Gerät aus auf dieselben aktuellen Daten zugreifen können. Für Firmen und auch Familien kann dies von erheblichem Vorteil sein.
Zentrale Datenspeicher lassen sich idealer anbringen, warten und schützen.
Für den einzelnen Anwender im Netzwerk steht der riesige Speicher ganz einfach wie ein weiteres Laufwerk in seinem Computer zur Verfügung.
NAS können auch zu Servern ausgebaut werden, sodass allen Anwendern alle Drucker, Scanner etc. zur Verfügung stehen.
Sofern man das NAS zur redundanten Datenspeicherung der Originaldaten auf dem eigenen PC verwendet, kann man sie als Sicherungs-System / Backup ansehen.
Der NAS lässt sich im optimalen Raum perfekt geschützt unterbringen, sodass die Sicherheit der Daten deutlich erhöht wird.
Nachteile
Oft fehlt eine effektive Geräuschdämmung der NAS-Systeme, wie sie bei PCs schon lange üblich ist. Unterschätzen Sie deshalb den durch zahlreiche Festplatten entstehenden Lärm nicht. Die meisten Nutzer stellen diese NAS folglich weit weg von sich auf - evtl. sogar in einen separaten Raum.
Ein NAS ist nur von Spezialisten betreibbar. Als technisch unbedarfter PC-Laie benötigen Sie hierzu einen Fachmann.
Nicht jedes NAS ist auch ein RAID. D.h. Billigangebote bestehen oft aus nur parallel geschalteten Festplatten. Das allein bietet keinen Schutz vor Datenverlust. Es sei denn, Sie verwenden das NAS wie eine externe Festplatte nur zur Datensicherung, also zur doppelten Speicherung / Backup der Dateien auf dem PC.
Nur in den seltensten Fällen wird man ein NAS nur für Foto- und / oder Video-Dateien anlegen. D.h. dort werden auch noch viele andere oft persönliche Daten jedes Einzelnen gespeichert.
Da viele auf diesen zentralen Speicher zugreifen können, können theoretisch auch viele einen Anwenderfehler produzieren und so Daten zerstören. Dies muss man mit komplizierten Zugriffsrechten einschränken, welche einerseits bereits nach kurzer Zeit nur noch von Fachleuten verstanden werden und andererseits die Endanwender in der täglichen Arbeit behindern. Zumindest empfinden viele dies so, wenn man wieder einmal die Meldung erhält: Sie besitzen keine Zugriffsrechte. Bitte wenden Sie sich an Ihren Administrator.
Bereits die reine Datenanbindung eines NAS an das (Firmen-/ Haus-) Netzwerk und somit die anderen PCs ist relativ kompliziert und dürfte in vielen Fällen einen Fachmann erforderlich machen.
Dass NAS-Systeme schnell wären, ist übrigens ein Märchen. Die durchschnittlichen Datenraten bezahlbarer NAS liegen deutlich unter USB 3 und weit unter SATA oder eSATA-Festplatten.
Als reines Sicherungssystem sind NAS überdimensioniert.
NAS-Systeme stellen sowohl in der Anschaffung als auch im Unterhalt eine ganz andere Kategorie dar als sonstige Sicherungssysteme.
Dass man mit NAS angeblich Strom oder sogar Geld sparen würde, ist hanebüchener Unsinn. Bereits die Tatsache, dass diese Systeme rund um die Uhr das ganze Jahr laufen, sollte jedem dies auch ohne Taschenrechner verdeutlichen. Ein NAS ist purer Luxus, den man sich gönnt.
Dabei handelt es sich cum grano salis um abgespeckte aber auch deutlich einfacher zu handhabende NAS für kleine Firmen und Familien.
Allerdings werden NDAS-Systeme im Privatbereich heute gerne als NAS beworben und verkauft.
Im ungünstigsten sogenannten Basis-Fall besteht das System nur aus einer externen Festplatte, die mit Netzwerkkabel an das Heimnetz, den Internet-Router angeschlossen ist.
Ein großes Problem besteht in dem proprietären Protokoll (LPX: Lean Packet Exchange), das dabei verwendet wird. Letztendlich macht man sich so von einem Hersteller abhängig.
Die Einschränkungen und Probleme können vielfältig sein: Oft ist z.B. W-LAN nicht möglich.
Letztendlich wird meist nur weitere Speicherkapazität im eigenen LAN zur Verfügung gestellt. Das kann jedoch als Sicherungsmedium ausreichen.
Und man benötigt auf jedem angeschlossenen PC spezielle Treibersoftware.
Aufgrund der seit 2016 steigenden Nachfrage nach NDAS gehen die Anbieterfirmen inzwischen zumindest die gravierendsten Nachteile an und bieten - für entsprechendes Geld - auch hochwertigere Lösungen an.
Fazit NAS und NDAS
NAS erscheinen mir zur reinen Datensicherung im privaten Umfeld überdimensioniert.
Für kommerzielle Zwecke und vor allem kleine bis mittelgroße Firmen kann sich solch ein System jedoch lohnen.
NDAS sind selbst für den Heimbereich als reines Backup-Medium keine ernst zu nehmende Alternative zu externen Festplatten.
Wer NAS und NDAS zu weiteren Zwecken als zur reinen Datensicherung verwendet, kann sich den Luxus jedoch selbstverständlich auch privat gönnen.
Selbstverständlich finden sich zahlreiche weitere magnetische, optische und magneto-optische Datenspeicher (z.B. Magnetbänder). Fast alle leiden jedoch unter dem Problem der geringen Marktdurchdringung sowie extrem proprietärer Software. Dies hat zu Folge, dass sie sich für Privatanwender kaum als langfristiges, preiswertes Medium zur massenhaften Sicherung großer Daten eignen.
Flash-Speicherkarten
Flash-Speicherkarten sind schnell aber teuer und halten nicht sehr lange. Als Backup-Medium sind sie m.E. ungeeignet.
Nur als extrem leichtes und mobiles Speichermedium kann man sie als kurzfristigen Zwischenspeicher im Feld / vor Ort empfehlen.
USB-Sticks
USB-Sticks sind relativ klein, relativ teuer und definitiv auf Verschleiß gebaut.
Manche Quellen behaupten, dass USB-Sticks sehr empfindlich gegen Überspannung (vom PC/Laptop ausgehend) sowie stoßempfindlich sind. Allerdings konnte ich beides auch bei ruppigem Umgang bisher nicht nachweisen.
Bei mir hielt bisher jedoch kein Medium länger als 3 Jahre. Andere Fachleute geben optimistisch 5 Jahre Lebensdauer an.
Während zahlreiche Quellen von einem völlig unvorhersehbaren, abrupten Abbruch jeglicher Schreib- und Lesemöglichkeit sprechen, traten bei mir die Fehler meist eher langsam schleichend und sich stetig verstärkend auf, bis irgendwann nichts mehr ging. D.h. zuerst traten beim Einstecken in den PC/Laptop Meldungen auf wie: Bei diesem Datenträger liegt ein Problem vor. Überprüfen Sie den Datenträger.... Oder ein Fenster springt auf: Möchten Sie den Wechseldatenträger (#:) überprüfen und reparieren? Überprüfen und reparieren empfohlen.... Das Überprüfen und reparieren hilft oft. Dennoch ist dies das erste Zeichen, dass die Lebensdauer begrenzt ist. Durch Neuformatieren kann man die Lebensdauer des USB-Sticks oft verlängern. Dabei verliert man jedoch alle darauf befindlichen alten Dateien. D.h. man muss sie vorher noch auf einen anderen Datenträger kopieren, sofern dies noch funktioniert. - Wer aufmerksam ist, kann also den Datenverlust meist vorhersehen und noch rechtzeitig handeln. Wer alle Hinweise missachtet, wird hingegen irgendwann abrupt bestraft.
Externe SSD
Externe SSDs sind meist sehr leicht.
Externe SSDs benötigen über einen USB-3-Stecker teilweise keine weitere Stromversorgung.
Externe SSDs sind generell sehr verschleißbehaftet.
Die derzeit angebotenen Speichermengen sind relativ gering.
Der Preis ist je GB / TB sehr hoch.
Auch mit USB-3 ist der Datentransfer eher gering.
Seit einigen Jahren sind größere Speicherkapazitäten zu halbwegs erträglichen Preisen verfügbar, sodass sie sich z.B. für Videografen zur Sicherung bei langen Aufträgen vor-Ort (beim Kunden) eignen können. - Meine Empfehlung wäre derzeit die Samsung Portable SSD.
Kamera-Speicher
Wer berufsmäßig fotografiert oder filmt, kann die Datensicherung bereits in die Kamera vorverlegen, indem er sicherheitshalber auf zwei Karten simultan speichert,
oder mittels Tethered Shooting mit Eye-Fi-Karten (im Grunde eine SD-Karte mit eingebautem Funksender Wi-Fi), oder Kabelnetzwerken auf anderen Speichermedien sichert.
Funk-Verbindungen
Funk meint hier kabellos, wobei zahlreiche unterschiedliche Funksysteme (von Nahfeld bis Großnetzen) existieren.
Man erspart sich die (bei vielen Festplatten) teilweise aufwändige Verkabelung.
Zu den Problemen der obigen Speichermedien, welche identisch bleiben, kommen funktechnische Nachteile hinzu.
Die Datentransferraten sind sehr gering im Vergleich zu kabelgebundenen Systemen.
Es handelt sich bei Funkverbindungen zur Datensicherung m.E. eher um eine Spielerei oder Notlösung für Smartphone- und Tablet-Besitzer, welche keine Kabel an ihr Gerät anschließen können.
Generelle Vor- und Nachteile aller magnetischen Medien
Sie können nachträglich doppelte oder nicht mehr gewünschte Dateien entfernen und somit den Speicherplatz effizienter verwalten, sowie die Suche darin vereinfachen und beschleunigen.
Diese nachträgliche Veränderbarkeit ist jedoch auch der größte Nachteil, da so Anwenderfehler oder Verluste durch Viren eintreten können.
Cloud - Fremde Dienstleister
Vorteile
Der fremde Cloud-Dienstleister übernimmt - je nach Servicepaket - viele oder alle Datensicherungsleistungen. D.h. konkret: Nach dem einmaligen Hochladen in die Cloud sorgt der Dienstleister für die redundante Verteilung aller Daten auf mehrere Rechenzentren, sodass auch bei Feuer, Erdbeben und Natur- sowie politischen Katastrophen die Daten gesichert bleiben.
Die in der Cloud gelagerten Daten sind überall abrufbar. D.h. Sie können auf den gesamten Datenbestand auch im Auslandsurlaub zugreifen.
Die in der Cloud gelagerten Daten sind mit jedem internet-fähigen Gerät abrufbar.
Man muss weder eigene Festplatten selbst kaufen, noch lagern, noch betreuen.
Die Bedienung des Cloud-Speichers ist oft sehr einfach und sogar für Laien ergonomisch über den Browser durchführbar.
Nachteile
Der prinzipielle Hauptnachteil besteht darin, das Cloud Computing im Grunde viel mehr meint, als nur Datenspeicher zu Sicherungszwecken für riesige Foto- und Filmarchive. Sicherungen kann man zwar auch damit anlegen. Aber dafür war es ursprünglich nicht gedacht. Im Grunde war es für kleinere Dateien und vor allem für lauffähige Programme (also Software) konzipiert (Rechnen in der Wolke, Skalierung der benötigten Rechenleistung).
In der Cloud vertraut man relativ blind einem fremden Dienstleister.
Die Rechtslage ist oft sehr komplex und ändert sich ständig:
Je nach Land und Firma sind bestimmte Dinge erlaubt oder verboten. So können manche Fotos und Filme in prüden oder politisch anders orientierten Ländern oder bei prüden Firmeninhabern schnell zur fristlosen Kündigung oder sogar Datenverlust durch Sperrung, Löschung oder im Extremfall Strafanzeigen gegen den Fotografen / Videografen führen.
Bei den häufigen Firmenübernahmen in dieser Branche, Rechtsänderungen und politischen Wechseln ist so etwas vom Endanwender nicht vorhersehbar.
Falls der Cloud-Dienstleister seine AGB ändert oder in fremde Hände übergeht, oder in Insolvenz geht, hat man keinen direkten Einfluss auf den weiteren Service.
Unklar ist meist, welche Folgen eine mögliche Insolvenz des Cloud-Dienstleisters auf die Datenspeicherung hat. Im schlimmsten Fall sind alle dort gesicherten Daten schlagartig unzugänglich. Das wäre ein K.O.-Kriterium für jedes Backup.
Aber die Firmen geben auch aus reinem Desinteresse häufig ihre Cloud-Services auf:
Selbst bei großen Firmen kann man bezüglich Cloud-Dienstleistungen nicht sicher sein:
Aus Microsoft Live Sync wurde Windows Live Mesh und schließlich Microsoft Live SkyDrive und Microsoft OneDrive
Und Google integrierte Picasa Web Album ohne Vorankündigung in Google+. Und dann ging der Konzern zu Google Photos über.
Auch können die Cloud-Dienstleister als private Firmen ihre Geschäftsbedingungen kurzfristig ändern - insbesondere, wenn sie ihren Firmensitz in irgendwelchen dubiosen Staaten haben, in denen man im Zweifel sowieso sein Recht nicht durchsetzen kann. So werden die Nutzer eventuell erpressbar und müssen sich auch extremen Preissteigerungen oder Vertragsänderungen zu ihren Ungunsten fügen, da ein Umzug angesichts der langen Down- und vor allem Upload-Ladezeiten ab einem bestimmten Datenumfang zur noch teureren und nervenaufreibenderen Qual wird.
Noch ungünstiger sieht die Sache aus, wenn man als Kunde irgendwann die sich ständigen ändernden extrem umfangreichen und oft nur in Englisch verfügbaren AGB überhaupt nicht mehr durcharbeitet, und so gravierende Rechtsänderungen wie z.B. den Übergang aller Nutzungsrechte an Fotos und Filmen nicht erkennt. Wer das Feld Neue AGB Akzeptieren einmal angeklickt hat, hat dann bereits alles verloren.
Prüfen Sie bei dem anvisierten Cloud-Dienstleister, ob er wirklich deutschem Recht unterliegt. Ein deutscher Web-Auftritt ist z.B. keine Garantie dafür. Abgesehen davon, dass es Privatkunden sehr schwer fallen wird, im Ausland etwas einzuklagen, ist die Rechtslage dort oft deutlich abweichend. D.h. evtl. wird noch nicht einmal die Verfügbarkeit des Speicherplatzes geschweige denn der jederzeitige Zugriff garantiert. - Eine im SLA (Service Level Agreement = AGB) versprochene sehr anspruchsvolle Uptime von 99.9% bedeutet rund 9 Stunden Ausfall im Jahr. Die übliche 99% Verfügbarkeit ergibt bereits dreieinhalb Tage Ausfall im Jahr.
Auch die Einstellungen zum Urheberrecht sowie sonstigen Rechten sind je nach Land und Firma unterschiedlich streng. Dies kann auch im Nachhinein erhebliche Auswirkungen auf Kunden haben.
Um nicht immer den Fall Assange und WikiLeaks anzuführen, bei dem alle im Cloud-Bereich relevanten Firmen sich unter klarem Rechtsbruch sich von allen derartigen Kunden fristlos trennten und alle Dienste sofort einstellten, lassen Sie uns einen rein fiktiven Fall konstruieren, der allerdings überhaupt nicht so abwegig ist.
Angenommen es gäbe einen Kunden eines Cloud-Dienstleisters, der seine Fotos / Filme mit einer teuren Software einer großen Firma bearbeiten würde, deren Produkte er nicht offiziell erworben, sondern - nennen wir es einmal vorsichtig - im Internet gefunden hätte.
Der Cloud-Dienstleister bietet seine Speicherkapazität jedem an, schreibt jedoch im Kleingedruckten (wie übrigens alle derartigen Anbieter), dass man mit den dort gelagerten Daten nicht gegen geltende Rechte verstoßen darf. Unser naiver Kunde denkt hierbei nur an die üblichen strafrechtlichen Dinge z.B. aus dem pornografischen Bereich, die er sowieso nicht macht, und lädt fleißig die bearbeiteten Fotos und Videos mit der Software-Endung in die Cloud.
Durch einen unglücklichen aber in der Praxis alltäglichen Vorgang der freien Marktwirtschaft erwirbt nun exakt jene reiche Software-Firma Anteile dieser Firma oder übernimmt sogar den gesamten Cloud-Dienstleister.
Die wenigsten Nutzer derartiger Software wissen vermutlich, dass in jeder damit bearbeiteten (Foto- und Video-) Datei die Signatur der Software inklusive der Seriennummer (sowie meist auch noch ganz spezifische Hardware-Daten, wie Prozessor, Motherboard etc.) eingetragen sind.
Nach der (anteilsmäßigen) Firmenübernahme beginnt der Cloud-Dienstleister damit, alle bei ihm gelagerten Dateien mit einem Suchprogramm automatisch zu überprüfen und stellt fest, dass bestimmte Dateien / bestimmte Seriennummern der dafür verwendeten Software nicht legal sind.
Für die meisten Kunden überraschend - ist die Rechtslage gemäß der AGB der Cloud-Anbieter sowie der internationalen Urheberrechte meist völlig eindeutig. Die Cloud-Anbieter dürfen diese Dateien sperren, löschen, sowie dem Kunden fristlos kündigen und gegen ihn straf- sowie zivilrechtliche Schritte einleiten. Vor allem die Schadenersatzforderungen bei Software-Piraterie (so wird das Finden von Software genannt) sind oft sehr hoch.
Das Geringste, das dem Kunden widerfahren kann, ist, dass man ihn (mit einem rechtsanwaltlichen Schreiben) höflich bittet die Software für die letzten Jahre seit Erstellen der ersten Foto-/Video-Datei nachträglich zu lizensieren.
Wie gesagt, ist dies ein rein fiktiver Fall.
Ziemlich real liegen jedoch Probleme beim Datenschutz vor, wenn Sie in den Exif-Dateien zu Fotos und Videos Personendaten vermerkt haben und diese in Cloud-Rechenzentren im Ausland lagern. Da keineswegs alle anderen Staaten sich an deutsches Datenschutzrecht halten, wäre dies ein Verstoß des Fotografen gegenüber dem Fotografierten, der Sie dafür belangen könnte. Für eine Speicherung von Personendaten Dritter im Ausland benötigen Sie die vorherige Genehmigung der aufgenommenen Person.
Der Fotograf und Videograf verlässt sich beim Cloud-Dienst darauf, dass dieser auch Urheberschutz-/Datenschutzrechtliche Sicherungen für den Kunden eingebaut hat. Falls nicht, oder falls diese nicht wirkungsvoll sind, so werden Sie als Kunde eventuell die schmerzliche Erfahrung machen, dass Ihre dort gelagerten Fotos und Videos plötzlich irgendwo sonst auftauchen, veröffentlicht, verkauft und verwendet werden, wobei die dortigen Nutzer Ihre Originaldateien besitzen, und es in einem Gerichtsprozess nicht so einfach wird, den tatsächlichen Urheber zu eruieren. Die Beweislast liegt bei Ihnen - beim Kläger - und der Besitz der Rohdaten / Ursprungsdaten beim Beklagten wird von Gerichten bisher als Urheberschaftsbeweis gewertet.
Noch schlimmer trifft es Kunden, die Opfer eines Einbruches mit Datendiebstahl und Datenlöschung beim Cloud-Anbieter werden. So etwas hat schon die größten und angeblich sichersten Firmen getroffen. Aber darüber spricht niemand gerne. Dann sind die Originaldaten nur noch im Besitz des Diebes.
Ganz unglücklich sind Fälle, in denen unterbezahlte, bei Beförderungen übergangene, gemobbte, korrupte oder kriminelle Mitarbeiter eines Rechenzentrums / Systemadministratoren sich selbst bedienen. Das ist übrigens die häufigste, für den Datendiebstahl einfachste und am schwierigsten zu beweisende Situation.
Sicherlich ist den meisten Internet-Nutzern nach WikiLeaks und NSA-Skandal auch bewusst, dass viele IT- und Internet-Firmen mit den jeweiligen nationalen Geheimdiensten zusammenarbeiten (müssen). D.h. Sie können davon ausgehen, dass alle Ihre Fotos und Videos in Cloud-Diensten dem direkten und unkontrollierten Zugriff der jeweiligen Sicherheitsorgane unterliegen. Die meisten Fotografen und Videografen wären wohl erstaunt, was man aus Ihren Fotos alles über Ihr Leben, Handeln und Denken (auch für die Zukunft) herauslesen kann.
Eines der wichtigsten Argumente der Cloud-Dienstleister ist, dass der Kunde durch die Nutzung der Cloud-Dienste sämtliche menschlichen Anwenderfehler ausschließt, welche die Hauptursache für Datenverlust sind. Das ist jedoch blanker Unsinn:
Die gesamte Bearbeitung bis hin zum Hochladen unterliegt weiterhin dem Kunden. Und vor allem dabei unterlaufen Anwenderfehler.
Und auch der Cloud-Dienstleister beschäftigt Menschen, welche Anwenderfehler machen.
Man verlagert mit Cloud-Diensten somit nur das Problem Anwenderfehler etwas von sich auf andere Personen.
Selbstredend handelt es sich bei den dortigen Beschäftigten um geschulte Spezialisten. Aber auch diese sind eher mittelmäßig bezahlt und leisten oft unbezahlte Überstunden. Dabei kommt es trotz aller Vorsichtsvorkehrungen zu Fehlern. Das Problem ist dann oft die Tragweite. Mir sind Fälle bekannt, in denen ein Systemadministrator kurz vor Dienstschluss eine Datenbank zur Steuerung eines Sicherungssystems abschoss. Daraufhin zerstörte der noch laufende Sicherungsmechanismus die gesamten Daten des Rechenzentrums beim Sichern. - Das manuelle Rücksichern alter Daten dauerte Tage.
Mit anderen Worten lässt sich festhalten: Es unterlaufen den Menschen in den Rechenzentren der Cloud-Betreiber dank der Prozessvorschriften und Sicherheitsmechanismen sowie der großen Erfahrung und Routine weniger Fehler. Wenn jedoch ein menschlicher Fehler eintritt, dann hat er meist dramatische Auswirkungen für viele. Und vor allem die stumpfsinnige Routine führt zu klassischen Anwenderfehlern.
Im Übrigen lesen sich die utopischen Versprechen über die gewährte Datensicherheit der Cloud-Dienstleister geradezu traumhaft. Da werden vielfache Redundanzen aller Daten in verschiedenen Rechenzentren an verschiedenen Orten genannt. Mir sind jedoch Fälle bekannt, wo zwar verschiedene Rechenzentren sogar tatsächlich an verschiedenen Orten vorhanden waren, die Daten der Nutzer jedoch einfach (ohne Redundanz auf nur einer Instanz) und nur in einem Rechenzentrum gespeichert wurden. Die anderen Rechenzentren wurden aus diversen Gründen für andere Dinge verwendet. In einem Fall handelte es sich sogar um existenzielle Kunden- und Kontodaten einer Großbank. Bei einem nie auszuschließenden Datenunfall wird das vollmundige Versprechen dann zum Alptraum.
Lesen Sie sich deshalb die AGB und die tatsächlich vertraglich gewährten Schadenersatzansprüche der Kunden bei Datenverlust durch. Es ist erstaunlich, wie wenig Schadenersatz man bei Datenverlust der Cloud-Betreiber überhaupt erhält. Nicht selten wird auch bei Totalverlust kein Schadenersatz gewährt.
Im Kleingedruckten findet sich auch nicht selten der Passus, dass keineswegs die ständige Verfügbarkeit zugesichert wird. D.h. im Zweifel redet sich der Cloud-Dienstleister damit heraus, dass es gerade der Tag oder die wenigen Stunden waren, in denen er die zwingend notwendigen Wartungsmaßnahmen durchführen musste. Ein denkbarer Schadenersatz für derartige Nichtverfügbarkeit wird ebenfalls oft deutlich eingeschränkt.
Unterschätzter Zeitbedarf für den Daten-Upload - Das lange Hochladen der Dateien in die Cloud:
Bei den heute anfallenden Datenmengen insbesondere der RAW-Dateien der modernen Mega-Pixel-Boliden und deren 16-Bit-Derivaten werden die Upload-Zeiten zum Cloud-Dienstleister meist völlig unterschätzt. Angenommen Sie besäßen einen VDSL-Anschluss mit 50 Megabit, dann ist damit die Download-Rate gemeint. Der Upload beträgt max. 10 Mbit (sofern die Bandbreite nicht durch Fernsehen oder andere Internet-Nutzer im eigenen Netz reduziert wird.) Das sind de facto 1 Megabyte Nettodaten je Sekunde. Für den heute weit verbreiteten 32-Gigabyte-Chip mit Fotos oder Filmen der Kamera beträgt die Upload-Zeit zum Cloud-Betreiber im Idealfall 32.000 Sekunden. Da sind rund 9 Stunden. So etwas lässt sich nur im Automatikmodus in der Nacht durchführen.
Zum Spaß hatte ich mir 2014 einmal das für meine derzeit 4 TB Fotos und meiner VDSL 25 Leitung (5 MBit/Sek. Upload) ausgerechnet. Ich wäre im Idealfall mindestens 3 Monate ununterbrochen mit dem Hochladen beschäftigt. Ende 2017 besaß ich bereits über 7 TB zu sichernde = wertvolle Daten. Das wären unter realistischen Bedingungen rund 6 Monate Upload. 2020 wurde ich zwar auch endlich mit Nominal 50 MBit/Sek. beglückt. Aber inzwischen besitze ich auch deutlich mehr Fotos und Filme, sodass sich das Verhältnis kaum verbessert hat.
Obwohl ich als langjähriger Kunde eine Flat-Rate bei meinem ISP (Internet-Service-Provider) besitze, die ich kaum jemals auch nur annähernd ausreize, bin ich mir nicht sicher, ob er einen kontinuierlichen Upload von mehreren TB kontinuierlich über mehrere Monate erlauben würde.
Wer mit dem Gedanken spielt, mehrere Terabyte an Filmen und alten Fotos hochzuladen, sollte sich vorher über eine wesentlich teurere Standleitung mit garantierten hohen Upload-Leistungen informieren. Denn ansonsten wird dies ein extrem zeitaufwändiges und nervenaufreibendes Unterfangen.
Wohlgemerkt gilt dies alles nur, wenn hinter dem eigenen Provider dann auch die Fernleitungen existieren, da sehr viele Cloud-Dienstleister ihre Rechenzentren im Ausland haben. Und selbst heute sind Datenleitungen z.B. nach China (fast modemhaft) langsam.
Gleichgültig, welche Datenleitung Sie besitzen, der Upload der Daten zum Cloud-Anbieter wird niemals so schnell sein, wie das Brennen einer DVD oder Blu-ray oder der Datentransfer zu einer externen USB 3.# Festplatte. - Deshalb wird jeder Anwender nach einer wochenlangen Upload-Orgie plötzlich Verständnis für die so heftig umstrittene Forderung der Provider nach schnellen Datendiensten / Leitungen für bestimmte (bevorzugte und natürlich extra zu bezahlende) Dienstleistungen haben.
Selbst wenn die Download-Leistung deutlich besser ist als das Hochladen, so dürfte das Zurückspielen der Daten aus der Cloud im Falle eines Unfalles der Originaldateien auf dem eigenen PC je nach Volumen und Download-Kapazität dennoch Tage, wenn nicht Wochen dauern.
Nicht selten finden sich Beschränkungen der Dateigrößen der einzelnen Dateien beim Upload. Sind größere Dateien erlaubt, so bedarf es dazu meist spezieller Befehle. Deshalb ist es durchaus üblich, dass man Dateien über z.B. 100 MB nur mit einer Art Multipart (zerlegten Dateiteilen) hochladen kann. Ohne Spezialsoftware dürfte dies Laien überfordern.
Teilweise können Sie nur Einzeldateien, nicht jedoch ganze Ordner hochladen.
Erkundigen Sie sich bei großen Datenbeständen der heute üblichen Foto- und Filmformate auch einmal über die jährlichen Gesamtkosten. Die meisten Privatanwender werden vermutlich bereits bei keineswegs übertriebenen 10 Terabyte Cloud-Speicher erstaunt über den tatsächlichen Preis sein. Lassen Sie sich nicht von den Einstiegspreisen ohne Service täuschen oder von angeblich kostenlosen Speicherplatz-Angeboten, die jedoch nur sehr langsame Datenanbindung bieten.
Prüfen Sie besonders die sogenannte Aufpreisliste. Viele Cloud-Anbieter verlangen neben der Grundgebühr für die reine Datenspeicherung zusätzlich erhebliche Zuschläge für den Datentransfer, die Uploads (Put) je Datei, Abrufe (Get) je Datei, Zugriffe, Dauer der Nutzung (Zeit in der die Verbindung zum Datentransfer gehalten wird), Anzahl der verwendeten IPs, Löschungen, Kopiervorgänge, Datenwiederherstellung und so weiter. Gehen Sie davon aus, dass Sie für jedes Detail extra bezahlen müssen, auch für Dinge, die Sie sich als Laie überhaupt nicht vorstellen können. Dabei werden dann zwar oft minimale Beträge je GB genannt. Aber diese sind zu multiplizieren.
Vorsicht: Obwohl dies in Deutschland oder für deutsche private Endkunden verboten ist, werben einige Cloud-Anbieter nur mit Netto-Preisen. Dazu kommt dann noch die Mehrwertsteuer.
Hinweis: Viele Cloud-Anbieter rechnen auf US-$-Basis ab. Angesichts eines seit Anfang 2015 dramatisch verfallenden Euros kommen so monatlich unkalkulierbar höhere Gebühren auf Sie zu.
Bei nicht wenigen Cloud-Anbietern kommen Sie so auf jährliche Gesamtkosten, für die Sie auch eine wesentlich schnellere Festplatte hätten erwerben können, die Sie dann noch die nächsten Jahre kostenlos benutzen können.
Seit Herbst 2017 bietet auch Adobe im Zusammenhang mit seiner Online-Miet-Software einen Cloud-Speicher speziell für Fotos an. Aber der Online-Speicher für alle Bilder ist bewusst sehr klein gehalten. Alles kostet nun in der Mobilversion extra: Für 10 Tera Byte Speicher (das reicht knapp für je eine Version meiner Fotos und Filme) soll man nun $100 im Monat bezahlen. In Deutschland werden das mit Mehrwertsteuer vermutlich über 1.300 Euro im Jahr. Das ist überteuert. Jeder halbwegs seriöse Cloud-Anbieter ist preiswerter. Und für die Mietgebühren eines Jahres können Sie sich wirklich ein gutes eigenes Sicherungssystem aufbauen.
2018 baute Google in den USA einen preiswerten Cloud-Service auf, der evtl. später auch nach Europa kommt.
Preisvergleich Cloud-Speicher - Alle sonst immer wieder genannten und beworbenen kostenlosen Cloud-Angebote darf man getrost als Datenspeicher vergessen. 1, 2, 5 oder selbst 10 Gigabyte sind für Fotos oder Filme nicht einmal den Aufwand der Einrichtung wert.
Ferner ist es noch immer Fakt, dass selbst global Players keine deutsche Sprachunterstützung anbieten. D.h. zumindest profunde technische Englischkenntnisse sind dort erforderlich.
Manche, aber bei weitem nicht alle, Cloud-Dienstleister bieten - selbstredend gegen Aufpreis - eine Verschlüsselung der Daten an. Und dann ist damit auch nicht garantiert, dass ein Administrator die Dateien nicht doch wieder entschlüsseln kann. Das könnte man nur mittels sehr komplexer eigener Algorithmen oder einer Dezentralisierung der verschlüsselten Dateien (Verteilung über mehrere Cloud-Anbieter) erzielen. Diesen Aufwand wird sich wohl kaum jemand antun wollen.
Vor allem habe ich bisher keine vom Cloud-Betreiber garantierte Lebensdauer für Daten erhalten / gefunden. Für optische Medien erhält man Werte der Hersteller und aus Tests, für Festplatten werden immerhin MTBF (statistische Mean Time Between Failure - nach wie viel Stunden Betrieb eine Festplatte im Durchschnitt ausfällt) angegeben und man besitzt Erfahrungswerte.
Cloud Sync Services
Vor allem aus den USA kamen Cloud Sync Services, welche Sicherungen in der Cloud im Hintergrund automatisch durchführen.
Sogenannte Cloud Sync Services sind:
crashplan - Der empfehlenswerteste Anbieter, allerdings eher für die USA.
Oft werden auch explizit RAW-Files, PSD oder manche Video-Formate verboten, und nur Endungen wie JPEG, GIF, PNG erlaubt.
Sie eignen sich jedoch eher für kleine Fotos in geringer Stückzahl (z.B. vom Smartphone).
Viele dieser Dienstleister bieten an, Daten automatisch im Hintergrund zu sichern, sobald eine Datei neu oder neu bearbeitet ist.
Der Vorteil liegt darin, dass dies vollautomatisch abläuft.
Die Nachteile liegen jedoch darin, dass man ständig online sein muss, und man einem fremden Programm völlige Zugriffsrechte auf den eigenen PC erteilt.
Im Hintergrund automatisch ablaufende Software hat ferner den gravierenden Nachteil, dass man es nicht bemerkt, wenn Sie aufgrund eines Systemfehlers nicht sichern. Das führt zu einem unbegründeten Vertrauen, bis der GAU eintritt.
Derartige Systeme / Dienstleister sind relativ teuer - für sehr wenig Speicherplatz.
Wenige Anbieter, wie Crashplan, erlauben für eine dreistellige Summe das Zusenden einer Festplatte, deren Daten dann in den Cloud-Speicher eingespielt werden.
Im Falle des GAUs senden sie einem auch eine Festplatte mit den gesamten Daten für ein paar hundert US-Dollar zu.
Web-Auftritte
Den eigenen Internet-Auftritt / Web-Host könnte man theoretisch als Speicher-Medium verwenden, vor allem, da man heute kaum mehr die angebotenen großen Speicherpakete mit reinem HTML voll bekommt.
Das ist allerdings oft verboten, da er nur für Web-Dateien gedacht ist. (Siehe unbedingt die dortigen AGB).
Zusätzlich bieten einige Web-Hoster inzwischen jedoch nochmals mehrere hundert GB Webdrive, WebDisk, Onlinespeicher, Onlinefestplatte etc. an, den man als Sicherungsspeicher verwenden kann. Aber auch das ist letztendlich zu wenig.
Fazit Cloud
Solange die Cloud-Betreiber nicht vertraglich zusichern, dass die Datenspeicherung mindestens die 10 Jahre aller anderen Medien beträgt, steht ein riesiger Aufwand für das Hochspielen der Dateien einer nur vagen Zukunft gegenüber.
Zur Klarstellung: Ich halte Cloud-Dienste für beeindruckend - aber nicht auf dem Gebiet der Datensicherung großer Datenmengen bei unserem heutigen Internet.
Migration
Einmal gesichert ist nicht sicher. Denn durch jede technische Innovation droht evtl. Unlesbarkeit der alten Sicherungen.
Sobald Sie den PC ersetzen oder auch nur Teile davon erneuern, kann eine Datenmigration auch der bis dahin gesicherten Daten erforderlich werden.
Dies kann die Hardware (Festplatte, CD-, DVD-, Blu-ray-Brenner, das Motherboard) oder die Software (Brenn-, Abspiel-, Lese-, Konvertier-Programme, Betriebssysteme) betreffen.
Führen Sie bei jeder derartigen Änderung einen Test durch. Ansonsten droht Ihnen evtl. nach Jahren Ungemach, der dann nicht mehr zu korrigieren ist, weil dann die Mittel (Hard- wie Software) evtl. nicht mehr verfügbar sind.
Viele mag die hier gemachte Auflistung der Software irritieren. Aber im Zuge der Rechtsstreite um Inhaberrechte gehen immer mehr Firmen dazu über, in Folgeversionen - oft ohne Vorankündigung - plötzlich Kopierschutzvorkehrungen einzubauen, die auch Einfluss auf die Lesbarkeit alter Daten bzw. alter Datenträger haben können. Bei Hardware sind derartige Kopierschutzvorkehrungen schon lange bekannt und üblich. Man denke nur an die länderspezifischen Kopierschutzvorkehrungen bei zahlreichen Videos.
Dies kann auch bei Umzügen ins fernere Ausland schnell zum Problem werden, da nicht selten dort andere Hard- und Software verwendet wird, welche anderen Kopierschutzbestimmungen unterliegen.
Das ist im Übrigen auch ein Grund, weshalb vermeintlich billige Grauimporte aus anderen Ländern für Endanwender nicht selten teuer werden, weil sie in hiesigen PCs nicht so arbeiten, wie erwartet.
Datensicherungsarten - Strategie
Die eine perfekte Datensicherungsstrategie für alle existiert nicht. Jeder Anwender muss sein Sicherungsprofil und Backup-Verhalten selbst festlegen.
Fragen
Liegen die Daten nur digital vor? Oder besitzen Sie auch noch Negative, Dias, (Papier-) Ausdrucke der Fotos? Letztere könnten durch Einscannen zumindest teilweise wieder hergestellt werden.
Handelt es sich um unbearbeitete Rohdaten oder um Varianten der bearbeiten Fotos / Filme? Sollen alle Varianten, nur Anfangs- und Endzustand oder nur eine Variante gesichert werden?
Wie ist der materielle Wert der Daten anzusehen? Das kann von unwichtigen privaten dokumentarischen Fotos bis hin zu unersetzlichen bereits im Voraus bezahlten Firmenfotos rangieren, für die Sie bei Nichtlieferung ggf. Schadenersatz leisten müssen.
Wie hoch setzen Sie den ideellen Wert der Daten an? Ein altes Foto oder Video des eigenen Kleinkindes, das heute erwachsen ist, oder der verstorbenen Eltern hat schon so manchen Inhaber nachträglich ein Vermögen zur Wiederherstellung verlorener Daten investieren lassen.
Wie viele Daten und in welcher Größe wollen Sie sichern?
Wie häufig soll die Datensicherung erfolgen? Jährlich, monatlich, wöchentlich, täglich, stündlich? Regelmäßig oder unregelmäßig nach Bedarf?
Damit zusammen hängt auch die Änderungshäufigkeit der Daten.
Soll die Datensicherung automatisch oder manuell ablaufen?
Wie lange sollen die Daten gelagert werden?
Wie schnell ist eine Wiederbeschaffung / ein Zurückspielen / ein Zugriff auf die Sicherungen erforderlich?
Wie ist die Verfallsdauer der Daten zu bewerten? Sicherlich sind Fotos des aktuellen Zeitgeschehens heute oder in den folgenden Tagen sehr viel Wert. Die meisten Zeitungen werden den Wert jedoch bald darauf eher als nur noch historisch bezeichnen. Welchen Einfluss hat dies oder soll dies auf die Sicherungen haben? Sollen alte Daten evtl. nach einem Ablaufdatum gelöscht werden?
Existieren in Ihrem Fall gesetzliche Vorschriften zu Datenaufbewahrung (z.B. Fotos und Filme für bezahlte Gutachten)?
Bestehen in Ihrem Fall evtl. Personenschutzrechte Dritter, die zu beachten sind (Recht am Bild, Urheberrecht)?
Wie sind die folgenden Gefahren einzuschätzen: Feuer, Wasser, elektromagnetische Wellen, Blitzschlag, Stromausfall, Hitze, Kälte, Feuchtigkeit, Einbruch, Diebstahl, Lichteinstrahlung, UV-Strahlung, Röntgenstrahlung etc.?
Sind in der Folge der Speicherort oder die Speicherorte wichtig? Wie sollen sie beschaffen sein? Wie weit müssen sie auseinander liegen?
Wie viel Datensicherungen sollen / müssen angelegt werden? Reicht eine Sicherung aus oder sollen mehrere identische Versionen an unterschiedlichen Orten gelagert werden?
Wie viel Zeit wollen Sie tatsächlich für die Datensicherung verwenden? Berücksichtigen Sie: Diese monotone und eher unbefriedigende Arbeit hält Sie vom Fotografieren und Filmen ab.
Müssen alle Daten oder Teile davon regelmäßig oder ständig auf Integrität überprüft werden? D.h. müssen Sie diese regelmäßig zum Test zurückspielen?
Müssen die Daten im Rohformat vorliegen oder dürfen sie komprimiert abgespeichert werden? Dies hat direkten Einfluss auf die Dateigröße, aber auch auf die schnelle Sichtung der Einzeldateien.
Tipps
Dennoch kann man aus der (oft leidvollen) Erfahrung einige Tipps zur optimalen Datensicherung geben:
Erfahrungsgemäß ist es sinnvoller, sich ein handhabbares Sicherungskonzept zu überlegen, das man dann auch regelmäßig und konsequent umsetzt, als an einer Ideallösung zu basteln, die dann in der Praxis kaum durchgeführt wird.
Man sollte auch auf durchgängige Stimmigkeit des Sicherungskonzeptes achten. So ergibt es wenig Sinn, sich für tausende Euros ein NAS mit RAID 5 für zu Hause anzuschaffen, wenn man im Vorfeld - so nebenbei zwischen den Aufnahmen - die vorherigen Fotos und Videos in der Kamera sichtet und alles vermeintlich Unbrauchbare vor Ort schnell löscht, nur um etwas Speicherplatz auf dem Chip zu sparen. Was so versehentlich vorab gelöscht wird, kann man auch nachträglich nicht mehr sichern.
Legen sie zwei Sicherungen an (das Speicher-Medium ist nicht so wichtig. Ideal wären nach derzeitigen Erkenntnissen eine Festplatte und ein optischer Datenträger) und lagern Sie eine davon außerhalb Ihres Hauses (z.B. bei einem Freund, Verwandten etc.).
Prüfen Sie Ihre Daten auf allen Datenträgern nach dem Kopieren / Sichern zumindest in Einzelteilen: Rufen Sie manche Fotos oder Filme auf, sei dies auf dem externen Festplattenlaufwerk oder der CD. Falls Sie in der Grafik-Software angezeigt werden, ist das ein gutes Zeichen. Im Grunde ist dies der einzig verlässliche Test, dass die Sicherung funktionierte.
M.E. lohnt es sich nicht, alte / volle Festplatten nach doppelten oder nicht mehr benötigten Fotos oder Filmen zu durchsuchen, um so Platz zu schaffen für neue Dateien. Solch eine Suche kann Stunden oder ganze Tage verschlingen. Und, wenn man in der Hektik die falsche Datei löscht, ist der Schaden groß. Eigentlich sollte man auf Sicherungsmedien niemals löschen. Kaufen Sie sich eher eine neue Festplatte. Das gängige Standardmodell jedes Herstellers erhalten Sie generell zwischen 100 und 200 Euro, etwas größere Topmodelle kosten meist bis 300 Euro. Das sollten die Fotos und Filme einem Wert sein.
Backups sind teuer und zeitaufwändig. - Aber: Überlegen Sie sich, wie viel Geld Sie ausgeben würden, um Ihre wichtigsten Fotos im Verlustfall wieder zu retten. - Im Vergleich dazu sind Sicherungskopien und der Zeitaufwand dafür preiswert.
Bedenken Sie: Unfälle können jedem Fotografen und Filmer jederzeit und überall passieren. Lassen Sie sich von einem Datenunfall nicht überraschen. Bereiten Sie sich jetzt vor.
Software
Selbstverständlich findet sich inzwischen umfangreiche Software für Backups.
Allerdings sind die meisten auf allgemeine Daten ausgerichtet und komprimieren diese.
Wenn Sie solch ein Programm verwenden wollen, dann versuchen Sie zuerst einmal das kostenlose Paragon. Damit sichere nicht nur ich seit Langem ganze SSD-Festplatten.
Allerdings ist Paragon wie alle derartigen Tools eher für die Sicherung des Betriebssystems mit vielen unterschiedlichen Programmen und sehr heterogenen Dateien gedacht. Für relativ homogene Dateien wie Fotos und Videos halte ich alle diese mächtigen Werkzeuge für überdimensioniert.
Ferner wird dabei meist alles zusammen gesichert. D.h. Betriebssystem, Software, und alle möglichen Dateien aller denkbaren Dateiformate, von Texten über Spiele bis hin zu Fotos. Man spricht deshalb auch oft von einem Image (komplettes Abbild der Festplatte), das gesichert wird. Meist sind jedoch sowohl das Betriebssystem und die Software nicht so häufig zu sichern, wie die laufend bearbeiteten Videos und Fotos. Und letztere will man meist auch separat abspeichern.
Auch das kostenlose Personal Backup von Dr. Jürgen Rathlev ist empfehlenswert. Man muss sich zwar in die Bedienung einarbeiten. Dafür kann man das Programm dann an seine persönlichen Bedürfnisse sehr genau anpassen.
Der Vorteil derartiger Backup-Software liegt in der Schnelligkeit und Automatisierbarkeit großer Sicherungen.
Der für Fotos und Filme gravierendste Nachteil liegt darin, dass man meist zuerst alles - mit exakt dieser Software - zurückspielen muss, um eine einzige Datei auszulesen, anzuschauen, zu prüfen und dann auf das alte Medium zurück zu speichern. So kann man keinen schnellen Überblick darüber gewinnen, was sich hinter Foto Nik_1234 oder Can_5678 verbirgt. Im Grund kann man meist noch nicht einmal genau vorhersagen, welche Dateien sich in welchem komprimierten Backup befinden.
Ferner sollte man auch das Problem der Fehleranfälligkeit der Kompression als solcher sowie der höheren Fehleranfälligkeit der komprimierten Daten bei einem defekten Cluster auf dem Zielmedium berücksichtigen. Zwar kann man auch bei Fotos durch Kompression noch Platz sparen. Aber Clusterfehler treten überall statistisch gesehen vorhersagbar auf. Während man dann oft das unkomprimierte Foto noch mit dem Grafikprogramm öffnen kann, so ist die komprimierte Datei eventuell nicht mehr entpackbar.
Software wie Lightroom etc. bieten bereits Sicherungsmechanismen an, die jedoch ebenfalls proprietär sind. D.h. man benötigt meist exakt jene Programme auch wieder zum Zurückspielen der Dateien.
Persönlich halte ich das einfache Kopieren / Brennen (1:1) der Video- und Film-Dateien mit dem Betriebssystem für die schnellste, einfachste und zur Rücksicherung im Privatbereich effizienteste Methode.
Auf dem Speichermedium sieht man die Dateien im Originalzustand und kann sie von diesem Datenträger auch sofort aufrufen und betrachten. Wie wichtig das sein kann, zeigt sich bei Varianten von bearbeiteten Fotografien, die alle irgendwie gleich heißen.
Professionelle Datenrettung oder Selbsthilfe
Falls man dennoch einmal selbst Daten versehentlich gelöscht hat oder einen Schaden erlitten hat, siehe die ausführlichen Informationen zur Selbsthilfe und Hilfe von Dritten im neuen Artikel Datenrettung.
Mein derzeitiges Arbeits- und Sicherungskonzept
Ich fotografiere immer, ohne mir Sorgen über den Speicherplatz zu machen. Im Zweifel nehme ich mehr Speicherchips mit. Aber niemals lösche ich während des Fotografierens Dateien, um Platz zu schaffen.
Bei wichtigen Gelegenheiten speichere ich parallel auf 2 Karten in der Kamera simultan.
Zu Hause angekommen wird der Chip - je nach Temperatur - vor dem Betreten des Raumes oder darin aus dem Kameragehäuse geholt. (Zur Kondensationsvermeidung siehe Hitze und Kälte.)
Auch, wenn ich noch so in Eile bin, kopiere ich diese wertvollen Daten des Kamera-Chips zuerst auf einen weiteren Datenträger.
Dank eines neuen PCs kopiere ich als Erstes die Daten des Kamera-Speichers auf die interne HDD im PC in das Verzeichnis z:\Fotos\Jahr\Monat, wobei ich den neuen Unter-Ordner sinnvoll benenne mit TT-MM-Fotoereignis-Rohdaten (also z.B. 20-08-Feuerwerk-Rohdaten).
Danach kopiere ich diese Dateien von dieser internen Festplatte auf eine externe USB 3 Festplatte mit Roh-Fotos.
Erst danach lösche ich die Dateien auf dem Kamera-Chip.
Zum Bearbeitung kopiere ich die Fotos/Filme von der internen HDD auf eine interne moderne ultraschnelle SSD und führe dort alle Bearbeitungen bis zur Endstufe durch. D.h. hier lösche ich auch aus qualitativen Gründen verworfene Dateien sofort. - Zur Erinnerung: Auf der internen HDD sowie auf der externen Festplatte liegen ja alle Rohdaten doppelt gesichert.
Danach kopiere ich diesen kompletten Ordner der SSD mit den bearbeiten Endergebnissen der Fotos und Filme wieder auf die interne Festplatte und nenne ihn aber um, indem ich die Endung -Rohdaten entfallen lasse. MM-TT-Fotoereignis.
Danach sichere ich diesen Ordner auf eine zweite externe Festplatte (nicht die erste mit den Rohdaten).
Sind externe Festplatten voll, kaufe ich neue. Es ist sinnvoller, den Mehrpreis auszugeben, als die Zeit mit dem fehleranfälligen Löschen nicht mehr benötigter alter Fotos und Filme zu verschwenden.
Wertvolle Dateien brenne ich zusätzlich auf Blu-ray, DVD oder CD. Dabei schließe ich jeden einzelnen Brennvorgang immer ab. M.E. ist es sinnvoller, Platz zu verschwenden, als nach ein paar Jahren festzustellen, dass die nichtabgeschlossenen optischen Medien dann in einem neuen Brenner nicht mehr gelesen werden können.
Abschließend schicke ich die guten Fotos zum Druckdienst und erstelle mir so einen Ausdruck in beliebigen Größen. Meist jedoch zumindest 10*15. Von den besten Fotos darf es auch ein größeres Format sein. So habe ich selbst im Fall eines elektromagnetischen GAUs zumindest noch ein Foto. Papier hält im Übrigen viel länger, als jeder heutige Datenspeicher. - Sie lachen? Ja, ich bin altmodisch. Aber Vince Cerf, mit über 70 Jahren einer der Vordenker des Internets und noch immer Mitarbeiter bei Google setzt ebenfalls auf den Datenträger Papier.
Viele Fotografen haben sich einen Tag in der Woche oder im Monat festgelegt, an dem Sie immer alle Dateien sichern. Diese Routine hilft ihnen, etwas regelmäßig durchzuführen. Aber in der Zwischenzeit können wenig oder auch viele Daten angefallen sein, was einen erheblichen Einfluss auf den Datenverlust ausüben kann, der (gemäß Murphy) oft kurz vor einem geplanten Backup eintritt. Das ist mir zu riskant. Ich sichere immer, wenn ich eine Arbeit erledigt habe. Manchmal sichere ich sogar z.B. nach einem langen, anstrengenden Tag harter Arbeit auch derartige Zwischenstände. Diese überflüssigen Zwischenschritte / Zwischensicherungen kann man dann am Ende der Produktion bei Bedarf als komplette Ordner wieder von der externen Festplatte löschen.
Sie müssen diesen Aufwand nicht treiben. Aber vielleicht regt er Sie dazu an, Ihr Sicherungsverhalten zu optimieren. Denn die Hauptaussage zur Datensicherung bleibt bestehen: Weg ist weg.
Wenn Sie auf die Eingangsfrage nach dem plötzlichen Verlust aller Daten nun ganz gelassen Antworten können: Ich spiele eines meiner mehreren (redundanten), aktuellen Backups ein, dann sind Sie zukünftig gewappnet.
Hilfe / Feedback
Liebe Leserinnen und Leser,
damit diese umfangreichen, kostenlosen, wissenschaftlich fundierten Informationen weiter ausgebaut werden können, bin ich für jeden Hinweis von Ihnen dankbar.
Deshalb freue ich mich über jede schriftliche Rückmeldung, Fehlerkorrekturen, Ergänzungen, Neue Informationen etc. Ihrerseits per E-Mail oder Kontakt-Formular.
Um meine Neutralität zumindest auf dem hier beschriebenen Feld der Fotografie und Videografie wahren zu können, nehme ich bewusst von keinem Hersteller, Importeur oder Vertrieb irgendwelche Zuwendungen jeglicher Art für das Verfassen der absolut unabhängigen Artikel an. Auch von Zeitschriften oder Magazinen aus dem Fotobereich erhalte ich keinerlei Zuwendungen.
Deshalb freue ich mich, wenn Sie mein unabhängiges Engagement für Sie durch einen gelegentlichen Kauf bei Amazon über die hier angegebenen Links unterstützen. Es ist gleichgültig, welches Produkt Sie über diesen Link kaufen. - Es kann auch jede andere Ware außerhalb des Fotobereiches sein. Alle Preise sind und bleiben für Sie gleich niedrig, wie wenn Sie direkt zu Amazon gehen. Aber durch Ihren Klick auf meinen Link erhalte ich evtl. Monate später eine sehr kleine prozentuale Prämie (Cents je Kauf), welche mir hilft, die hohen Kosten bei der Erstellung der Artikel zumindest teilweise zu decken. - Bitte starten Sie Ihre Einkäufe bei mir.
Herzlichen Dank an alle für Ihre bisherige Unterstützung.
Ja, ich möchte die Unabhängigkeit dieser Seite unterstützen und kaufe über diesen Link bei Amazon
Pflichtangabe: Als Amazon-Partner verdiene ich an qualifizierten Verkäufen. Alle derartigen sogenannten 'bezahlten Links' zu Amazon sind farblich in Rot gekennzeichnet.
Ich wünsche Ihnen weiterhin viel Freude beim Fotografieren und Filmen.