pommes
(Tim)
3
Ich bin inzwischen auf Docker umgestiegen, da auf meinem Server einige Dienste laufen, die ich so von einander trenne und mir dadurch erhoffe, alles viel schneller neu aufzusetzen, bei einem Umzug oder Neuinstallation.
Ein Cronjob packt mir regelmäßig die Datenverzeichnisse meiner Dienste (Wordpress-Installation, pod Verzeichnis und Datenbank getrennt), verschlüsselt die Archive noch mit gpg und legt sie in einem Backup-Verzeichnis ab.
Dann verwende ich genau wie @johmue auch sshfs, da der Backup-Server meines Hosters so konfiguriert ist, dass er zwar ‘sftp’ zulässt, aber nicht ssh. Auf das gemountete Remote-Verzeichnis mache ich dann ein rsync vom lokalen Backup-Verzeichnis.
Ich sichere momentan per Cron jede Woche 1x. Das liegt einfach nur daran, dass der Platz auf dem Remote Backup-Server begrenzt ist. Ich habe noch ein Script in Planung, das ältere Backups zuerst ausdünnt (z.b. nur noch 1 pro Woche und noch früher 1 pro Monat) und irgendwann ganz löscht. Vielleicht stelle ich dann auf tägliches Backup um. Durch das rsync werden die alten Backups dann auch auf dem Backup-Server gelöscht.
Die Datenbank sichere ich übrigens nicht via mysqldump, sondern locke die Tabellen, packe /var/lib/mysql und unlocke die Tabellen anschließend wieder. Das mache ich, weil ich mehrere Anwendungen in der gleichen Datenbank habe und es schneller geht. mysqldump finde ich aber für geringere Datenmengen eigentlich sympatischer, weil man dann einzelne Datenbanken wieder einspielen kann und die Sicherheit der Daten nicht davon abhängt, dass die mysql Binärdaten auch beim Restore z.B. in eine neue mysql-Version noch funktionieren.
2 „Gefällt mir“