Schlagwort-Archive: Backup

Raspberry Pi als OwnCloud Server

Ich habe mir vor einigen Wochen nun auch einen Raspberry Pi gekauft und war nun auf der Suche nach einem guten Einsatzort für den Kleinen. Da seit den letzten Veröffentlichungen von Edward Snowden wirklich jedem klar sein sollte, dass man public Clouds nicht trauen sollte, habe ich damit begonnen erneut OwnCloud zu testen.

OwnCloud ist ein auf PHP basierendes Open Source Projekt welches mit einfachen Mitteln eine private Cloud aufbaut und damit den Sync von Dateien, Kontakten, Musik etc. ermöglicht. Die Systemanforderungen sind dabei denkbar einfach. Man braucht an sich nur einen Apache Webserver unter Linux der das PHP Modul geladen hat.

Ein Rasberry Pi erfüllt die Systemvoraussetzungen für OwnCloud ohne Probleme und braucht gleichzeitig fast kein Strom (selbst bei Dauerbetrieb). Die Anschaffungskosten sind ebenfalls recht gering – man bekommt ein Gerät (ohne Festplatte) für unter 50 € z. B. bei amazon. Die Installation des Basis Betriebssystems ist ebenfalls denkbar einfach. Es gibt fertige Images die man einfach mit einem kleinen Tool auf die SD Karte überträgt und danach bootet. Ausführliche Anleitungen und verschiedene Distributionen findet man direkt auf den Projektseiten von RaspberryPi. In meinem Beispiel hier habe ich mir für Raspbian entschieden (ein Debian Port).

Installation des Apache

Den Apache Webserver installiert man unter Debian mit nur wenigen Befehlen:

Nach der Installation läuft bereits ein normaler Webserver ohne SSL. Da wir eine sichere private Wolke haben wollen, aktivieren wir selbstverständlich auch SSL. Mit Nachfolgendem Befehl laden wir das notwendige Modul in unseren Webserver:

Das war es bereits, der Webserver spricht nun auch SSL allerdings mit einem selbst signierten Zertifikat welches ggf. nicht den externen DNS Namen enthält. Wie man dies ändert zeige ich in den nächsten Tagen.

Installation von OwnCloud

Man kann sich entweder den ownCloud Server Installer direkt von der OwnCloud Webseite herunter laden und diesen in /var/www/ ablegen und aufrufen oder man verwendet das vorhandene Debian Paket:

In beiden Fällen hat man nach wenigen Minuten seine eigene Cloud startklar und kann das Webfrontend über https://[IP oder DNS]/owncloud aufrufen.

image

Will man den Dienst auch vom Internet aus Benutzen, so ist es noch notwendig am Router eine Portweiterleitung einzurichten. Ich habe meinen PI in meine DMZ gestellt und einen high-port auf den SSL Port meines PI weiter geleitet. Damit wird man nicht alle paar Sekunden sondern nur alle paar Minuten gescannt…

Clients

Neben einem Windows Client mit dem man einstellen kann, welche Dateien / Ordner gesynct werden sollen, gibt es auch noch einen iOS Client (kostet 0,89 €) bzw. einen Android Client.

SNAGHTML3dda444

Datenabgleich bzw. Backup in die eigene Cloud

Nachem Micrsoft in den nächsten Wochen Live Mesh leider einstellen wird musste ich mich auf die Suche nach einer altnativen Lösung machen. Meine Anforderungsprofil sah dabei wie folgt aus:

  • Sicherheit meiner Daten (Verschlüsselung der Daten und der Übertragung)
  • Unterstützung großer Datenmengen
  • Selektion von Verzeichnissen die pro Gerät in Sync gehalten werden sollen

Nach etwas hin und her habe ich mich dazu entschlossen meinen alten HP Homeserver EX470 zu meiner neuen Cloud-Plattform zu befördern. Das Projekt “OwnCloud” bietet hierfür eine perfekte Basis. An sich muss man auf dem System nur einen Webserver installieren und kann danach bereits durchstarten. Die Anleitungen des Herstellers sind dabei recht einfach umzusetzen und bedürfen keiner umständlichen Einrichtung. Der Client zu der Lösung kann danach auch in wenigen Schritten installiert und eingerichtet werden.

Installation:

SNAGHTML89d3d99SNAGHTML89d8b89SNAGHTML89dd813SNAGHTML89e3d2bSNAGHTML89e7ead

Konfiguration:

SNAGHTML89f0a97SNAGHTML8a30d36

Verwaltung:

imageSNAGHTMLa04fd75image

Webfrontend:

image

 

Bis jetzt bin ich mit dieser Lösung absolut zufrieden. Ich werde das ganze in den nächsten Wochen noch etwas weiter testen und auf meine Familie erweitern – mal sehen wie groß das Leistungsangebot noch ist – bis jetzt blieben keine Wünsche offen.

Mit CrashPlan auf einen neuen PC umziehen

Vor ein paar Tagen habe ich mir einen neuen PC zusammen gebaut (8 Cores, 16 GB RAM, SATA2 etc) um ohne meine großen Server anschmeißen zu müssen auch etwas testen zu können. Da ich bereits ein paar TB zu Crashplan gesichert habe, wollte ich natürlich verhindern diese Daten erneut hochladen zu müssen.

Crashplan macht einem dies zum Glück sehr einfach. Direkt nach der Installation auf dem neuen PC und dem Login mit dem bestehenden Konto erhält man diese Meldung:

image

Im nächsten Schritt wählt man einfach den PC von welchem die Daten übernommen werden sollen. Hat man wie ich einen eigenen Key zur Veschlüsselung der Daten eingesetzt, so muss man auch diesen noch eingeben. Kurz darauf ist Crashplan wieder wie gewohnt einsatzfähig.

image

—–

Hat man Crashplan schon etwas länger auf dem PC und erhält deshalb nicht die initiale Meldung zur Übernahme eines bestehend PC’s so kann man Crashplan mit folgenden Schritten eine neue GUID erstellen lassen.

1. CrashPlan öffnen

2. Doppelklick auf das CrashPlan Logo rechts oben

image

3. In dem sich öffnenden Fenster oben “guid new” eingeben

image

4. Eingabe mit Enter bestätigen

SBS 2011 – Fehler bei der Datensicherung nach Installation Sharepoint SP1

Seit ein paar Tagen funktioniert auf meinem SBS 2011 das automatische Backup nicht mehr. Auch das Sichern über die Funktion “Jetzt sichern” fördert nur den Fehler “Fehler bei einem Volumenschattenkopie-Dienst-Vorgang. Unkonw error (0x800423f0)” zu tage.

image

Das Logfile des Server fördert dabei zwei mit dem VSS (wird für das Backup verwendet) in Verbindung stehende Meldungen hervor:

image

image

image

Die MS Knowledge Base ist bei diesem Fehler nicht sehr hilfreich: http://support.microsoft.com/kb/2483007 Hier steht nur:

image

Der Hinweis eines guten Freundes war da schon viel besser – dieser Fehler entsteht wohl durch das Upgrade des Sharepoints auf 2010 SP1. Sharepoint erwartet danach eine Konfiguration über PSCONFIG. Diesen Schritt fürht das SP1 nicht selbständig durch.

Zuerst muss man in das Sharepoint bin-Verzeichnis wechseln:

Der Auszuführende Befehl (in einer administrativen CMD) lautet:

image

Durch das Upgrade wird auch die lästige Fehlermeldung im Log des Sharepoints mit der Event IDs 6398 mit dem Aussagekräftigen Fehler: “Ausnahme der Methode ‘Execute’ der Auftragsdefinition ‘Microsoft.SharePoint.Administration.SPUsageImportJobDefinition’ (ID b7ac2a8a-1cbe-408f-a2ab-5c4e82c3291a). (…) Der Zugriff auf den Pfad “C:\Program Files\Common Files\Microsoft Shared\Web Server Extensions\14\LOGS” wurde verweigert” beseitigt.

image

Online Backup zur sicheren Auslagerung von Daten–Update

Danke für die vielen Antworten auf meinen letzten Beitrag zu dem Thema. Ich habe mir die weiteren Vorschläge angesehen und meine Liste entsprechend erweitert. Die folgenden Vorschläge habe ich nach einem kurzen Review der Preise wieder fallen lassen:

  • SpiderOak: 1 TB würde 100 USD pro Monat kosten.
  • Wuala: Die Preise auf der Webseite gehen schon nur bis 250 GB – wir sind bei dieser Datenmenge aber schon bei 229 EUR (pro Jahr).
  • DropBox: 1 TB würde 199,99 USD pro Monat kosten.

Die beiden Vorschläge Crashplan und IDrive habe ich in der Liste ergänzt.

image

Nach meinem letzten Posting habe ich Carbonite bereits als Test auf meiner Workstation installiert und habe einen Sicherungsauftrag für einen Teil meiner Bilder (177 GB) gestartet. Das Ergebnis nach 4 Tagen (Rechner war 24 h am Tag an) war, dass gerade 19,1 GB der Daten zu Carbonite hoch geladen waren. Sad smile

Ich habe daher einen weiteren Test mit Crashplan gestartet. Dieser Upload läuft deutlich schneller. Nach jetzt 5 Tagen sind bereits 64 GB dort gesichert. Der Upload läuft also gut doppelt so schnell wie der von Carbonite. Dazu ist Crashplan noch günstiger und hat eine kürzere Vertragsbindung. Nach aktuellem Stand wird also Carshplan das Rennen machen.