Forum: PC Hard- und Software Neuer PC plus Backup-Konzept


You were forwarded to this site from EmbDev.net. Back to EmbDev.net
von Hubert (hilfsadmin)


Lesenswert?

Hallo,

als Hilfsadmin im Bekanntenkreis bin ich aktuell auf der Suche nach 
einem neuen PC und einem Backup-Konzept.

Es geht um einen Arbeitsplatz für eine selbstständige Übersetzerin.

Anforderungen PC:
- Desktop/Tower (kein Laptop)
- Windows (aktuell Win 10, bei Update würde ich aber gleich auf Win 11 
gehen wollen)
- min 16 GB RAM (aktuell 8 GB und beim Starten der Anwendungen fängt der 
PC an zu swappen), Ideal 1x16 GB damit die Option besteht auf 2x16 GB 
aufzurüsten
- Anschlussmöglichkeit von 2 Monitoren (DisplayPort oder HDMI)
- SSD >= 512 GB

Fragen zum PC:
- Gibt es einen Grund Win 11 Pro statt Home zu nehmen? (kenne mich mit 
Windows nicht gut aus)
- Gibt es noch Anforderungen an einen PC auf die ich achten sollte? 
(Abgesehen von läuft mit Win 11)



Backup
Hier gibt es aktuell noch nichts... :(
Meine Idealvorstellung wäre ein pull von einem NAS, so das die 
Ransomware keinen Zugriff auf das Backup hat.
(Mache das unter Linux mit einem einfachen rsnapshot/rsync über ssh mit 
Key-Auth)

Backups wären natürlich Snapshots der letzten X-Tage und werden nicht 
mit jedem Backup überschrieben.

- Lässt sich so etwas mit Windows umsetzen?
- Gibt es da etwas fertiges von Synology/QNAP?

von Oliver S. (oliverso)


Lesenswert?

PCs für solche Anwendungen kauft man direkt bei den üblichen 
Verdächtigen (Dell, Lenovo, ...), nicht im Mediamarkt. Alles weitere 
findest du dann dort.

Oliver

von Michael L. (nanu)


Lesenswert?

Hubert schrieb:

> Anforderungen PC:

Die Anforderungen an den PC richten sich nach der Software, die drauf 
laufen soll, nicht nach den Ideen des Hilfsadmim.

> Backup
> Hier gibt es aktuell noch nichts... :(
> Meine Idealvorstellung wäre ein pull von einem NAS, so das die
> Ransomware keinen Zugriff auf das Backup hat.

NAS IST KEIN BACKUP und ein Konzept schon mal gar nicht. Kann man 100x 
schreiben und der Hilfsadmin wird's trotzdem nicht glauben. Wer als 
Selbstständiger so einen Mist dastehen hat, spielt mit seiner 
beruflichen Existenz.

von Peter D. (peda)


Lesenswert?

Hubert schrieb:
> (aktuell 8 GB und beim Starten der Anwendungen fängt der
> PC an zu swappen)

Wie merkst Du das?
Das letzte mal, wo ich einen PC swappen gehört habe, war der Aldi-PC mit 
XP und 512MB.
Windows versucht immer den Speicher voll auszunutzen. Egal, ob Du 4GB, 
8GB oder 16GB hast, unter "Verfügbar" wird immer nur eine kleine Zahl 
stehen, unter "In Verwendung" >80%.

Ich hatte letztes Jahr einen neuen PC mit 8GB bekommen, der alte hatte 
4GB. Keine einzige Anwendung läuft spürbar schneller. Eine SSD hatte ich 
schon vorher, die hatte richtig den Löwen geweckt.

von Re D. (Gast)


Lesenswert?

Peter D. schrieb:
> Egal, ob Du 4GB, 8GB oder 16GB hast, unter "Verfügbar" wird immer nur
> eine kleine Zahl stehen, unter "In Verwendung" >80%.

Viel Meinung, wenig Ahnung. Lies noch mal, was Windows so anzeigt.

von Re D. (Gast)


Lesenswert?

Michael L. schrieb:
> Die Anforderungen an den PC richten sich nach der Software, die drauf
> laufen soll, nicht nach den Ideen des Hilfsadmim.

Jeder Depp, der freihändig bis 3 zählen kann, kann abschätzen, was für 
eine Software bei einer Übersetzerin läuft. Und jeder Depp weiß, das 
sich die Software fortentwickelt, es heute aber noch keine 
Systemanforderungen für die Version von morgen gibt. Du kanns 
nichts,außer schwätzen.

Michael L. schrieb:
> NAS IST KEIN BACKUP und ein Konzept schon mal gar nicht.

Nichts verstanden aber so tun als ob.

von Peter D. (peda)


Lesenswert?

Re D. schrieb:
> Viel Meinung, wenig Ahnung. Lies noch mal, was Windows so anzeigt.

Ich hab mir einfach WinLED auf die Taskleiste gelegt. Ungewöhnlich 
häufige Schreibzugriffe würde ich merken.

von Steve van de Grens (roehrmond)


Lesenswert?

Wenn die Software jetzt mit 8 GB so gerade klar kommt, damm macht es 
doch total Sinn, den nächsten Rechner mit doppelt so viel RAM zu kaufen. 
Oder willst du aus 12 GB gehen? Das würde bestimmt nicht viel billiger.

Die home Version von Windows 10 (11 weiß ich nicht) installiert manchmal 
eigenmächtig Updates ohne zu fragen und obwohl man Updates pausiert hat. 
Manchmal rebooted der Rechner dabei sogar ohne Rückfrage.

: Bearbeitet durch User
von Hubert (hilfsadmin)


Lesenswert?

Michael L. schrieb:
> Die Anforderungen an den PC richten sich nach der Software, die drauf
> laufen soll, nicht nach den Ideen des Hilfsadmim.

und

Peter D. schrieb:
> Wie merkst Du das?

Das ist halt MS Office, Browser und Übersetzung SW. Läuft auf aktuellem 
System "ok", aber wird mit jedem Update der Übersetzungs-SW (Name ist 
mir gerade entfallen) etwas langsamer.
Wenn man im Taskmanager schaut hat die CPU nicht viel zu tun, aber RAM 
ist am Anschlag und "Ausgelagerter Pool" steigt an.
Das habe ich als swappen interpretiert, oder liege ich hier schon 
falsch?

Michael L. schrieb:
> NAS IST KEIN BACKUP und ein Konzept schon mal gar nicht. Kann man 100x
> schreiben und der Hilfsadmin wird's trotzdem nicht glauben. Wer als
> Selbstständiger so einen Mist dastehen hat, spielt mit seiner
> beruflichen Existenz.

Warum nicht?
Auf dem NAS wird nicht gearbeitet, es zieht sich nur immer einen 
Stand, z.B. beim Runterfahren des PC, und sichert den.
Hätte ich besser beschreiben soll.
Im Sinne von 3-2-1 müsste man davon noch eine Kopie ziehen und an einen 
anderen Ort verbringen, aber eine Kopie ist im ersten Schritt immer 
besser als keine ;)

von Steve van de Grens (roehrmond)


Lesenswert?

Auf jeden Fall sollten die Backups nicht ständig (schreibend) zugreifbar 
sein. Ein Passwort würde mir nicht reichen.

von Hubert (hilfsadmin)


Lesenswert?

Noch mal ergänzt um das ganze etwas klarer zu machen:

Die SW Anforderungen sind mit dem aktuellen PC (ca. 8 Jahre alt, wohl 
mal RAM erweitert und SSD eingebaut) soweit erfüllt, aber es hakt/ist 
langsam und RAM ist am Anschlag (siehe vorherigen Post).

Deshalb die Anforderung 16 GB, Ideal mit einem Riegel, dann könnte noch 
auf 32 GB aufgerüstet werden sollte es nicht reichen.
Prozessor sollte egal sein, interne Grafik reicht auch völlig, so lange 
zwei Monitore angeschlossen werden können.

Meine Frage als Ahnungsloser was Windows angeht:
Ist aktuell schon absehbar das auf bestimmte Eigenschaften bei Rechnern 
die mit Win 11 kommen geachtet werden sollte?

Und beim Backup:
Kann man bei Windows ein pull von einem NAS (oder was auch immer) 
umsetzen, ohne das der Rechner Zugriff auf dieses Gerät hat?

Oliver S. schrieb:
> PCs für solche Anwendungen kauft man direkt bei den üblichen
> Verdächtigen (Dell, Lenovo, ...)
Dell und Lenovo hatte ich mir angeschaut.
Bin selber Thinkpad "Fan", zumindest bei den alten.
Aber mir scheint Dell ein deutlich besserer Preis/Leistungsverhältnis zu 
haben.

von Εrnst B. (ernst)


Lesenswert?

Hubert schrieb:
> Deshalb die Anforderung 16 GB, Ideal mit einem Riegel,

"Ein Riegel" ist selten Ideal. Desktop-CPUs haben zwei Channels für den 
RAM, da sollte schon jeder seinen Riegel haben. Erweiterbar (dann auf 4 
gesteckte Riegel) ist das trotzdem, zumindest bei "normalen" Mainboards.

Deshalb: Gleich zwei 16GB-Module (~85€ für beide zusammen, DDR5) 
stecken, für 32GB gesamt. DDR5-8GB-Module gibt's zwar auch, damit kommst 
du dann auf 50-60€ für den halben Speicher, lohnt m.M.n. nicht...

Wenn du eine CPU-Generation in die Vergangenheit gehst, und damit auf 
DDR4-Speicher, schauen die Preise wieder anders aus. Wäre eine 
Überlegung, wenn das Geld so knapp ist.

von Steve van de Grens (roehrmond)


Lesenswert?

Hubert schrieb:
> Ist aktuell schon absehbar das auf bestimmte Eigenschaften bei Rechnern
> die mit Win 11 kommen geachtet werden sollte?

Für Windows 11 brauchst du diesen TPM Chip. Ich gehe mal stark davon 
aus, dass der selbstverständlich in jedem neuen PC vorhanden ist.

von Peter D. (peda)


Lesenswert?

Hubert schrieb:
> Wenn man im Taskmanager schaut hat die CPU nicht viel zu tun, aber RAM
> ist am Anschlag und "Ausgelagerter Pool" steigt an.

Wie gesagt, RAM ist nach einiger Zeit immer >80%, egal wie viel.

Hubert schrieb:
> Das habe ich als swappen interpretiert, oder liege ich hier schon
> falsch?

Eine verständliche Erklärung der Werte habe ich nirgends gefunden.
Es ist aber meine Erfahrung bei 4GB, 8GB und 16GB, daß sie recht 
nichtssagend sind.
Lade Dir dochmal eine Programm in die Taskleiste, was die SSD-Aktivität 
anzeigt.

Wenn man eine Anwendung das erste mal startet, dann gibt es heftige 
Zugriffe auf die SSD. Daran ändern auch 256GB RAM nichts.
Viel überflüssiges RAM merkt man erst, wenn man viele Anwendungen 
startet und wieder schließt. Öffnet man sie nochmal, dann holt Windows 
sie aus dem RAM und sie starten schneller. Wenn dann die 10. Anwendung 
wieder gleich langsam startet, dann konnte Windows sie nicht mehr im RAM 
halten.

Es mag Poweruser geben, die immer >100 Anwendungen offen halten müssen. 
Ich verliere da schnell den Überblick und schließe unbenötigte Fenster.

Kauf ruhig 16GB, aber erwarte keine Wunder.

: Bearbeitet durch User
von Ein T. (ein_typ)


Lesenswert?

Michael L. schrieb:
> Die Anforderungen an den PC richten sich nach der Software, die drauf
> laufen soll, nicht nach den Ideen des Hilfsadmim.

1. Hat der TO nichts davon gesagt, wer diese Anforderungen gestellt hat.

2. Wer meine Hilfe will, hält sich an meine Empfehlungen.

3. Wer sich nicht an meine Empfehlungen halten möchte, muß sich im 
Zweifel jemand anderen suchen, der seinen Mist supportet. Meine 
Lebenszeit ist mir zu kostbar, um sie auf Ignoranten zu verschwenden.

> NAS IST KEIN BACKUP und ein Konzept schon mal gar nicht.

... aber immer noch besser als der aktuelle Zustand, nämlich gar nichts.

> Kann man 100x schreiben und der Hilfsadmin wird's trotzdem nicht glauben.
> Wer als
> Selbstständiger so einen Mist dastehen hat, spielt mit seiner
> beruflichen Existenz.

Ganz schön vorlaut für einen, den offensichtlich schon das verstehende 
Lesen stark herausfordert (siehe dazu oben unter 1.).

von Peter D. (peda)


Lesenswert?

Hubert schrieb:
> Die SW Anforderungen sind mit dem aktuellen PC (ca. 8 Jahre alt, wohl
> mal RAM erweitert und SSD eingebaut) soweit erfüllt, aber es hakt/ist
> langsam und RAM ist am Anschlag (siehe vorherigen Post).

Meiner geht ins 10. Jahr (AMD FX-8350), tut alles, was er soll und hakt 
nicht.

von Ein T. (ein_typ)


Lesenswert?

Peter D. schrieb:
> Hubert schrieb:
>> (aktuell 8 GB und beim Starten der Anwendungen fängt der
>> PC an zu swappen)
>
> Wie merkst Du das?

Also unter Linux und verschiedenen anderen unixoiden Systemen kann man 
zum Beispiel mit den Werkzeugen free(1) oder top(1) anzeigen, mit 
welcher Art von Daten der Arbeitsspeicher belegt ist. free(1) gibt dann 
zum Beispiel etwas aus wie:
1
               total        used        free      shared  buff/cache   
2
Mem:        32749988    17432468      307972     4379596    15009548    Swap:       31250428      279040    30971388
3
Total:      64000416    17711508    31279360

(Spalte "available" hier aus Platzgründen gelöscht.)

Gibt es so etwas unter Windows etwa nicht?

> Ich hatte letztes Jahr einen neuen PC mit 8GB bekommen, der alte hatte
> 4GB. Keine einzige Anwendung läuft spürbar schneller.

Das hängt halt auch vom verwendeten Betriebssystem ab. Ohne viel eigene 
Ahnung von Windows zu haben, scheint es meines Wissens dankbarer für 
mehr CPU-Leistung, Linux dagegen eher für mehr RAM zu sein.

> Eine SSD hatte ich
> schon vorher, die hatte richtig den Löwen geweckt.

Wen wunderts -- die Persistenz- und Netzwerklayer gehören üblicherweise 
zu den langsamsten Subsystemen handelsüblicher PCs. Wenn Du den Löwen 
brüllen hören möchtest, probier' mal eine NVMe aus... ;-)

von Ein T. (ein_typ)


Lesenswert?

Re D. schrieb:
> Jeder Depp, der freihändig bis 3 zählen kann, kann abschätzen, was für
> eine Software bei einer Übersetzerin läuft.

... und wer sogar bis fünf zählen kann, weiß, daß PCs und ihre Benutzer 
ausgesprochen individuell sind. Wenn die Dame etwa noch andere Dinge mit 
ihrem Computer anstellt, als ihn nur rein beruflich zu benutzen, kann da 
alles Mögliche drauf laufen.

von Ein T. (ein_typ)


Lesenswert?

Peter D. schrieb:
> Re D. schrieb:
>> Viel Meinung, wenig Ahnung. Lies noch mal, was Windows so anzeigt.
>
> Ich hab mir einfach WinLED auf die Taskleiste gelegt. Ungewöhnlich
> häufige Schreibzugriffe würde ich merken.

Ein modernes Betriebssystem merkt sich üblicherweise, wie oft auf welche 
Daten zugegriffen wird, und lagert nur die am seltensten genutzten aus. 
Obendrein wird freier Arbeitsspeicher für den Dateisystempuffer genutzt, 
welcher die Schreibzugriffen minimieren und optimieren soll. Deswegen 
liefern (virtuelle und reale) Disk-LEDs höchstens einen groben Anhalt.

von Ein T. (ein_typ)


Lesenswert?

Hubert schrieb:
> Und beim Backup:
> Kann man bei Windows ein pull von einem NAS (oder was auch immer)
> umsetzen, ohne das der Rechner Zugriff auf dieses Gerät hat?

Unter WSL (Windows Subsystem for Linux) könntest Du einen OpenSSH sshd 
nutzen, dann sollte auch rsnapshot(1) über rsync(1) gehen.

von Frank K. (fchk)


Lesenswert?

Hubert schrieb:
> - Gibt es einen Grund Win 11 Pro statt Home zu nehmen? (kenne mich mit
> Windows nicht gut aus)
- Remote Desktop Server
- Einhängen in einer Domäne
- Lokaler Account bei W11 ohne MS-Cloud-Account (? bei Pro kann man das 
noch umgehen, bei Home glaube ich nicht mehr, aber da bin ich mir nicht 
sicher)

> - Gibt es noch Anforderungen an einen PC auf die ich achten sollte?
> (Abgesehen von läuft mit Win 11)

Die Maschine soll leise sein.

Nichts fertig zusammenbauen. Bei Dell/Lenovo/HP gibt es kleine, leise 
Desktops, die Du fertig vorkonfiguriert kaufst und im Bedarfsfall (wenn 
der Rechner beruflich verwendet wird) gleich das passende Servicepaket 
dazubuchst.

> Backup
> Hier gibt es aktuell noch nichts... :(

Meine Überlegungen:

1. Mehrere Backup-Medien verwenden. Wenn eine externe Festplatt 
runterfällt , ist sie hin. Und das Backup dadrauf auch.

2. Backup-Medien offline lagern. Wenn ein Blitz den PC schrottet, wird 
er auch das NAS, was dauernd mitläuft, schrotten. Deswegen externe 
Wechselmedien verwenden, die üblicherweise im Schrank liegen.

3. Einige Backupmedien räumlich getrennt lagern. Damit überleben die 
Daten auch, wenn das Haus abbrennt oder überflutet (Ahrtal) wird oder 
unbefugt komplett ausgeräumt wird.

Als Backupsoftware verwende ich gerne DriveSnapshot. Das macht 
Komplettbackups, die nachher auch wieder bootfähig sind. Du kannst auch 
eine Recovery-CD kaufen, von der Du booten kannst, wenn nichts mehr 
funktioniert.

http://www.drivesnapshot.de/de/

Du must aber selber ein Konzept machen, vor welchen Gefahren DU Dich 
schützen willst.

fchk

von Peter G. (ham)


Lesenswert?

Hallo

abgesehen von zwei oder drei (für mich als stillen Mitleser) hilfreichen 
bzw. informativen und freundlichen Kommentaren und Empfehlungen darf ich 
wieder mal feststellen:

Es wird nicht auf die Frage des TOs eingegangen, die Frage wird nicht 
genau und in jedem Detail wahrgenommen (vermutlich vorsätzlich).
sich in andere und das aus dem Zusammenhang klar erkennbare "Normal" 
hineinzuversetzen, ist vielen "nicht möglich" (vermutlich wird es  aber 
bewusst ignoriert, damit die Vorwürfe auch schön passen)

Wenn der TO  entsprechende Voraussetzungen und Programme erwähnt, dann 
läuft halt nichts anderes auf dem PC - ganz einfach, im Zweifelsfalle 
wird der TO noch nachträglich Informationen geben  (die sich erst 
ergeben  - nein das ist nicht die "Salamitaktik" sondern ganz Normal für 
Leute die nachfragen müssen)

Wenn den TO (der Anwenderin) ein einfaches Backup ausreicht, dann ist es 
so - nicht überall muss es die reine Lehre sein, nicht überall muss es 
"Atombombenfest" sein.
Mich würde sowieso interessieren, ob bei euch persönlich (nein nicht 
irgendeine Story aus dem Netz oder was euer AG, eine Behörde für eine 
Backupstrategie fahren muss - ihr ganz persönlich zu Hause oder das 
Kleinstunternehmen ...) ein Backup nach der reinen Lehre die Rettung war 
- also die  HDs kaputt und gleichzeitig die Bude abgebrannt, die Cloud 
ist pleite und oder das erste "Vorortbackup" auch defekt...

Schade das es so oft (nicht nur in diesen Thread) genauso abläuft.

Ist es denn so schwer sich in andere hineinzuversetzen, mal seine Blase 
zu verlassen und einfach die Frage des TOs vollständig in allen Details 
durchzulesen und die Vorgaben zu akzeptieren?

von Klaus H. (klummel69)


Lesenswert?

Peter G. schrieb:
> Ist es denn so schwer sich in andere hineinzuversetzen…

Nein. Daher sind Backups wichtig. Zwei Fälle von Randsom-Ware 
Verschlüsselungen ohne Backup gesehen. Alles weg. Und ein Freund hatte 
bereits ein Brand mit verkohltem PC.
Meine Empfehlung für Backups:

A)  Automatische Backups durch ein kleines Linux System (Raspi o.ä.) mit 
Restic als Backupsoftware. Diese greift auf die Windows Dateien per 
Datei-Freigabe zu. Restic hat den Vorteil dass es u.a. versioniert 
speichert. Selbst wenn die letzten Datei Versionen zerstört sind, hat 
man alte Versionen zum Zurückspielen. Hat bei mir rsync verdrängt.

B)  Da das Ganze ein PC werden soll, kann ich ein BlueRay oder DVD 
Brenner empfehlen.
Backups können nicht überschrieben werden und ein Blitzeinschlag kann 
dem Backup auch nichts antun. Nachteil: Man muss halt per Hand die Disks 
einlegen und man sollte sich auf Nutzerdokumente beschränken (statt 
Komplettbackup).

Und wegen Brand oder Diebstahl gehört ein einigermaßen aktuelles Backup 
sowieso außer Haus.
Wer keine Angst vor Cloud hat, kann es natürlich auch dorthin machen.

von Daniel A. (daniel-a)


Lesenswert?

Seit einer weile synchronisiere ich meine Daten mit Syncthing mit meinem 
Server (und weiteren Geräten). Geht erstaunlich gut. Als Backup habe ich 
ein Raspberry PI, der dann mir rsync Hardlink Backups macht.

Eventuell kannst du ja was ähnliches machen. Eine Idee wäre, Syncthing 
die Daten mit dem NAS Syncen lassen, auf irgend ein FS mit Snapshot 
Support, und dann mit einem Shellscript & Cron Job Snapshots machen / 
verwalten oder so. Eventuell kann man die ja sogar als readonly share 
bereitstellen, um jederzeit ganz einfach wieder an Daten von Gestern / 
letzte Woche, etc. zu kommen.

Bei meinem Server kann ich alles so aufsetzen, wie mir das passt. Mit 
NAS habe ich aber keine Erfahrungen, keine Ahnung, was sich mit denen so 
alles machen lässt.

Das wichtigste bei Backups ist, von zeit zu zeit mal nachzusehen, ob sie 
noch gehen. Irgendwas passiert immer, sei es eine defekte Platte, ein 
kaputtes Netzteil, oder sonst was.

von Oliver S. (oliverso)


Lesenswert?

Peter G. schrieb:
> Wenn den TO (der Anwenderin) ein einfaches Backup ausreicht, dann ist es
> so - nicht überall muss es die reine Lehre sein, nicht überall muss es
> "Atombombenfest" sein.

Natürlich. Die will nix atombombenfestes, die will einfach nur ein 
Backup, daß verschlüsselungstrojanerfest ist, und jederzeit nach was 
auch für immer einer Katastrophe eine einfache Wiederherstellung der 
Daten erlaubt. Vielleicht auch noch dazu die Möglichkeit, die eben 
ausversehen gelöschte Datei wiederherzustellen.
Das ganze natürlich DGSVO-Gerecht, wegen Kundendaten.

Also nur ein ganz einfaches Backup, nicht fancy. Was man halt so unter 
Backup versteht.

Und jetzt bist du wieder dran.

Oliver

von Peter D. (peda)


Lesenswert?

Ein T. schrieb:
> Wenn Du den Löwen
> brüllen hören möchtest, probier' mal eine NVMe aus... ;-)

Man liest aber häufig, das den Unterschied zu SATA bei praktischen 
Anwendungen niemand mehr merkt, sondern nur noch bei speziellen 
Benchmarks angezeigt bekommt.

von Oliver S. (oliverso)


Lesenswert?

Peter D. schrieb:
> Man liest aber häufig, das den Unterschied zu SATA bei praktischen
> Anwendungen niemand mehr merkt, sondern nur noch bei speziellen
> Benchmarks angezeigt bekommt.

Das liest man nicht nur, das ist so. Ausnahmen bestätigen, wie immer, 
die Regel. Die Anwendungen auf dem PC, um des es hier geht, gehören 
nicht dazu.

Oliver

von Peter D. (peda)


Lesenswert?

Hubert schrieb:
> Meine Idealvorstellung wäre ein pull von einem NAS, so das die
> Ransomware keinen Zugriff auf das Backup hat.
> (Mache das unter Linux mit einem einfachen rsnapshot/rsync über ssh mit
> Key-Auth)

Das Wichtigste ist aber, daß die Dame überhaupt damit umgehen kann. Wenn 
sie aber nur Windows kennt, habe ich da so meine Zweifel, ob sie mit 
Linux klarkommmt. Und ein extra NAS, was 24/7 rödelt und Strom 
verbraucht, wäre auch nicht mein Ding.

Wenn man mit dem PC sein Geld verdient, sollte man selber regelmäßig 
prüfen können, ob das Backup überhaupt noch funktioniert. Dazu sollte 
man sich einen 2. PC hinstellen und z.B. alle 6 Monate die SSD komplett 
formatieren, mit Recovery CD starten, das Backup einspielen und damit ne 
Weile arbeiten, ob auch alles läuft.
Erst bei einer Kaltinstallation merkt man, ob das Backup was taugt.

Ich hatte früher das Systemabbild von W7 benutzt. Damit konnte man bei 
noch startendem W7 das Backup einspielen, aber irgendwann nicht mehr mit 
der Recovery CD, weil Microsoft was geändert hatte.
Ich hab dann zu AOMEI gewechselt. Das unterstützt sogar einen Recovery 
Stick.

Beitrag #7424528 wurde vom Autor gelöscht.
von G. K. (zumsel)


Lesenswert?

Peter G. schrieb:

> abgesehen von zwei oder drei (für mich als stillen Mitleser) hilfreichen
> bzw. informativen und freundlichen Kommentaren und Empfehlungen darf ich
> wieder mal feststellen:

Allerdings hat in diesem Thread noch niemand von der guten alten Zeit 
erzählt als Computer noch mit Dampf und Kohle liefen und nur in 
Assembler zu programmieren waren.

Insofern läuft dieser Thread doch noch recht gut :-)

von Norbert (der_norbert)


Lesenswert?

Peter D. schrieb:
> Man liest aber häufig, das den Unterschied zu SATA bei praktischen
> Anwendungen niemand mehr merkt,

Doch doch, das merkt man.

Ich kann hier zB. eines meiner Projekte bauen und der komplette Lauf 
dauert ca. 18½ Sekunden auf einer 850 EVO (SATA).

Mache ich das Ganze auf der 970 EVO (NVMe), dann geht's gut eine drittel 
Sekunde schneller. Und zwar Reproduzierbar, möchte ich hinzu fügen.

von Oliver S. (oliverso)


Lesenswert?

Norbert schrieb:
> Ich kann hier zB. eines meiner Projekte bauen und der komplette Lauf
> dauert ca. 18½ Sekunden auf einer 850 EVO (SATA).
>
> Mache ich das Ganze auf der 970 EVO (NVMe), dann geht's gut eine drittel
> Sekunde schneller. Und zwar Reproduzierbar, möchte ich hinzu fügen.

Irgendwie fehlt mir da das Ironie-Tag ;)
1,8% schneller, und das bei einer der Benchmarkanwendungen, die da 
überhaupt einen Effekt zeigen. Das kann man messen, aber nicht merken. 
Dafür braucht es schon ganzzahlige Faktoren, oder gleich 
Größenordnungen.

Oliver

von (prx) A. K. (prx)


Lesenswert?

Oliver S. schrieb:
> Dafür braucht es schon ganzzahlige Faktoren, oder gleich
> Größenordnungen.

Wenn man Geräte nicht bewusst auf Unterschiede testet, braucht man schon 
mindestens ein Drittel bessere Leistung, bis es auffällt.

von Peter D. (peda)


Lesenswert?

Norbert schrieb:
> Mache ich das Ganze auf der 970 EVO (NVMe), dann geht's gut eine drittel
> Sekunde schneller.

Ich hab auch gemerkt, daß die Transferrate bei SSDs sehr von der Größe 
abhängt. Z.B. eine 1TB SATA ist deutlich schneller, als eine 256GB SATA.
Es lohnt sich also eine größere SSD zu kaufen, als man braucht. 
Heutzutage sollte eine 2TB SSD optimal sein.
Große SSDs enthalten mehr Chips, die der Controller parallel ansteuern 
kann. Er kann damit auf mehrere Chips parallel schreiben und andere 
Chips im Hintergrund löschen.

: Bearbeitet durch User
von (prx) A. K. (prx)



Lesenswert?

Peter D. schrieb:
> Es lohnt sich also eine größere SSD zu kaufen, als man braucht.

Bezogen auf SSDs mit SATA Interface ist das Schnee von gestern. Die 
werden durch  SATA schon so weit gedrosselt, das ein Unterschied 
allenfalls noch bei durchgängigen schnellen Schreibtransfers jenseits 
des SLC-Caches auftritt.

von Norbert (der_norbert)


Lesenswert?

Peter D. schrieb:
> Ich hab auch gemerkt, daß die Transferrate bei SSDs sehr von der Größe
> abhängt. Z.B. eine 1TB SATA ist deutlich schneller, als eine 256GB SATA.

Wenn es nicht eine extrem olle Gurke ist, dann hängt die 
(Lese)Geschwindigkeit einzig und allein vom SATA Interface ab. Wenn der 
Rechner nicht eine extrem olle Gurke ist, dann ist's SATA-III. Mithin 
etwas   unterhalb 600MB/s. (Meist im 570er Bereich)
Beim Schreiben cachen die Dinger ebenfalls reichlich, so das auch bei 
»normaler« Arbeit kein Unterschied festzustellen ist.
Erst wenn man viele GB (oder sogar GiB) schreibt, wird man einen 
bestenfalls mäßigen Unterschied feststellen.

von Norbert (der_norbert)


Lesenswert?

Oliver S. schrieb:
> Irgendwie fehlt mir da das Ironie-Tag ;)

Na der war doch wohl hoffentlich implizit! ;-)

von Hubert (hilfsadmin)


Lesenswert?

Εrnst B. schrieb:
> "Ein Riegel" ist selten Ideal. Desktop-CPUs haben zwei Channels für den
> RAM, da sollte schon jeder seinen Riegel haben.

Stimmt, daran habe ich nicht gedacht.
Bei Dell/Lenovo springt bei Auswahl von 32 GB RAM leider auch Prozessor, 
SSD Größe oder ähnliches mit hoch. Damit wird die Option gleich einige 
100 € teurer.
Werde voraussichtlich mit einem Riegel bestellen und dann nachrüsten.

Ein T. schrieb:
> Unter WSL (Windows Subsystem for Linux) könntest Du einen OpenSSH sshd
> nutzen, dann sollte auch rsnapshot(1) über rsync(1) gehen.

Das wäre super, werde mal schauen ob ich irgendwie an eine 
Windowsversion zum testen komme.

Klaus H. schrieb:
> A)  Automatische Backups durch ein kleines Linux System (Raspi o.ä.) mit
> Restic als Backupsoftware. Diese greift auf die Windows Dateien per
> Datei-Freigabe zu.

So in etwa habe ich mir das auch vorgestellt, wollte nur kein Raspi 
nehmen wo per USB noch ein HDD dran hängt, sondern alles in einem 
Gehäuse damit es etwas ordentlich aussieht.
Rastic schaue ich mir noch mal an, aber auf den ersten Blick würde ich 
bei rsnapshot bleiben. Das ist einfach und im Fall der Fälle kann man 
einfach auf das Backup zugreifen da kein extra Programm notwendig ist.

Klaus H. schrieb:
> B)  Da das Ganze ein PC werden soll, kann ich ein BlueRay oder DVD
> Brenner empfehlen.
> Backups können

Das wäre ideal, wird aber sehr wahrscheinlich nicht funktionieren. Ich 
bin schon froh wenn es überhaupt ein Backup gibt. Und das wird nur 
funktionieren wenn es vollautomatisch läuft.

von Hubert (hilfsadmin)


Lesenswert?

Aktuell ist folgendes geplant:
Ein DELL Vostro Small Desktop
https://www.dell.com/de-de/shop/desktops-all-in-ones-pcs/vostro-klein-desktop/spd/vostro-3020-sff/s2028vdt3020sffbts01sb?view=configurations

Dazu ein NAS (vermutlich Synology DS120j).

Auf den Rechner kommt ein Script zum runter fahren. Das schaltet per WOL 
das NAS ein.
Das NAS zieht sich dann die Daten vom PC und rotiert die Backups.
(Beim ziehen bin ich mir noch nicht ganz sicher, aber Laut Datenblatt 
geht das wohl [rsync over SSH]. Und rotierende Backups der letzten x 
Tage/Wochen/Monate wird ein NAS ja wohl auch können...)

Nach Abschluss des Backup-Vorgang (den das Script erkennt) fährt der PC 
runter.
Hier bin ich mir noch nicht sicher wie der PC erkennt das der 
Backup-Vorgang abgeschlossen ist. Meine Idee ist aktuell das der PC 
prüft ob die letzten x Minuten keine Verbindung zum SSH Server bestanden 
und dann davon ausgeht dass das Backup abgeschlossen ist.

Im Idealfall kann dann noch eine USB Festplatte mit dem NAS gesynct 
werden die nach dem Sync getrennt (und einem anderem Ort) gelagert wird.
Zur Not muss ich das alle paar Monate beim nächsten Besuch machen...

Was haltet Ihr davon?
Ist das machbar und ein einigermaßen robuster Prozess?

von Steve van de Grens (roehrmond)


Lesenswert?

Hubert schrieb:
> Das wäre super, werde mal schauen ob ich irgendwie an eine
> Windowsversion zum testen komme.

Die kannst du mit jedem Windows PC einfach auf einen (8 GB) USB Stick 
herunterladen. Zum Testen brauchst du keinen Lizenz-Key. Dessen Eingabe 
kann man bei der Installation einfach überspringen.

Offiziell für 3 Monate, inoffiziell offenbar unbeschränkt.

https://www.microsoft.com/de-de/software-download/windows10%20

: Bearbeitet durch User
von Stephan S. (uxdx)


Lesenswert?

Michael L. schrieb:
> Hubert schrieb:
>> Backup
>> Hier gibt es aktuell noch nichts... :(
>> Meine Idealvorstellung wäre ein pull von einem NAS, so das die
>> Ransomware keinen Zugriff auf das Backup hat.
> NAS IST KEIN BACKUP und ein Konzept schon mal gar nicht. Kann man 100x
> schreiben und der Hilfsadmin wird's trotzdem nicht glauben. Wer als
> Selbstständiger so einen Mist dastehen hat, spielt mit seiner
> beruflichen Existenz.

Das ist Blödsinn, Du weisst offensichtlich nicht, was ein Pull-Backup 
ist und wie es angewendet wird. Ein Pull-Backup ist sehr sicher, wenn 
der Backup-Server (das kann auch ein NAS sein) von aussen nicht 
erreichbar ist, ggf. noch eine Firewall z.B. UFW dazu. Der Backup-Server 
muss dann aber lokal administriert werden, da ein Zugriff von aussen ja 
nicht möglich ist.

von C-hater (c-hater)


Lesenswert?

Stephan S. schrieb:

> Das ist Blödsinn, Du weisst offensichtlich nicht, was ein Pull-Backup
> ist und wie es angewendet wird. Ein Pull-Backup ist sehr sicher

Bezüglich Angriffen aus dem zu sichernden System: bedingt. Der Agent 
ist lokal angreifbar, das Backup-System möglicherweise indirekt via LAN.

Bezüglich Angriffen aus dem LAN: bedingt. Das Backup-System selber ist 
möglicherweise angreifbar.

Bezüglich physischen Zugriffen bzw. physischer Zerstörung des 
Backup-Systems: NEIN.

Also ist es nach den üblichen Ansprüchen erstmal kein wirkliches Backup. 
Es kann aber eine clevere Vorstufe für ein echtes Backup sein. Aber 
nicht mehr.

von Peter G. (ham)


Lesenswert?

Hallo

Mit all dem hast du (wahrscheinlich - ich bin kein Experte) recht.

Aber hier kommen wir mal wieder zum Kernproblem vieler in dieses (vielen 
technischen) Forum zurück:

Das Lesen der Vorgaben des TO und hineinversetzen der Situation des TO 
(hier der Nutzerin)  bzw. den "normalen Menschenverstand".

Es geht um eine selbstständige Übersetzerin und nicht einen 
Hochschulserver, nicht eine Steuerbehörde, nicht der Sozialhilfebehörde, 
ein Krankenhaus, von Tesla,..

Sprich:
Ein großer Aufwand für Kriminelle (und erst recht "Hobbystörer"  oder 
"Aktivisten") muss in einem vernünftigen Verhältnis zur erpressbaren 
Summe (einfacher Krimineller), den perfiden Spaß am Schaden und Leid 
(Hobbystörer) oder den nach außen getragen Auswirkungen("Aktivisten") 
sein.

Eine freie Übersetzerin bietet da doch eher ein wenig interessantes Ziel 
- da reicht eine "Grundabsicherung", das automatische System und 
"fertige Software" welche durch den Kriminellen nur bedient, werden 
muss, abhält doch in der gelebten Wirklichkeit vollkommen aus.

von C-hater (c-hater)


Lesenswert?

Peter G. schrieb:

> Es geht um eine selbstständige Übersetzerin

Und deren Wohnung ist z.B. gegen einen Wohnungsbrand gefeit? (=physische 
Zerstörung des Backup-Systems).

Hinweis: Die Versicherung ersetzt (mit ein wenig Glück) das NAS selber. 
Die Daten sind aber immer noch wech...

von Hubert (hilfsadmin)


Lesenswert?

C-hater schrieb:
> Und deren Wohnung ist z.B. gegen einen Wohnungsbrand gefeit? (=physische
> Zerstörung des Backup-Systems).

Ist alles richtig, nur wenn es überhaupt kein Backup gibt hilft das auch 
bei einem Randsomwarebefall/Hardwarefehler nicht.
Und wenn es das eine erst ein mal gibt, kann der nächste Schritt gemacht 
werden.

Siehe:

Hubert schrieb:
> Im Idealfall kann dann noch eine USB Festplatte mit dem NAS gesynct
> werden die nach dem Sync getrennt (und einem anderem Ort) gelagert wird.
> Zur Not muss ich das alle paar Monate beim nächsten Besuch machen...

von C-hater (c-hater)


Lesenswert?

Hubert schrieb:

> Ist alles richtig, nur wenn es überhaupt kein Backup gibt hilft das auch
> bei einem Randsomwarebefall/Hardwarefehler nicht.
> Und wenn es das eine erst ein mal gibt, kann der nächste Schritt gemacht
> werden.

Du hast einfach nicht kapiert, dass jedes sinnvolle Backup-Konzept vom 
worst case ausgehen muss und im Kern versucht, das Risiko zu minimieren, 
dass eben dieser eintritt.

Trennung des physischen Aufenthaltsorts der Daten und der OFFLINE-Status 
des Backups ist dabei die ERSTE und VORDRINGLICHSTE Maßnahme, nicht 
erst die zweite oder gar dritte...

Wenn man die kritischen Punkte des Backups (nämlich Erstellung und 
Restore) mit einbezieht, kann das nur zu einem Generationen-Konzept 
führen. Nur dadurch wird nämlich gewährleistet, dass auch in diesen 
kritischen Phasen immer mindestens ein Backup existiert, was OFFLINE und 
physisch an einem anderen Ort ist.

von Oliver S. (oliverso)


Lesenswert?

Peter G. schrieb:
> Sprich:
> Ein großer Aufwand für Kriminelle (und erst recht "Hobbystörer"  oder
> "Aktivisten") muss in einem vernünftigen Verhältnis zur erpressbaren
> Summe (einfacher Krimineller), den perfiden Spaß am Schaden und Leid
> (Hobbystörer) oder den nach außen getragen Auswirkungen("Aktivisten")
> sein.
>
> Eine freie Übersetzerin bietet da doch eher ein wenig interessantes Ziel

Ach je. Diejenigen, die einzelne PCs angreifen, haben doch weder Lust 
noch Zeit, erst einmal zu prüfen, ob sich das "lohnt". Da laufen 
automatisierte Angriffe nach Schema F. Erst mal verschlüsseln, dann 
schauen, was man daraus machen kann.

Oliver

von Michael L. (nanu)


Lesenswert?

Stephan S. schrieb:
> Michael L. schrieb:

>> NAS IST KEIN BACKUP und ein Konzept schon mal gar nicht. Kann man 100x
>> schreiben und der Hilfsadmin wird's trotzdem nicht glauben. Wer als
>> Selbstständiger so einen Mist dastehen hat, spielt mit seiner
>> beruflichen Existenz.
>
> Das ist Blödsinn, Du weisst offensichtlich nicht, was ein Pull-Backup
> ist und wie es angewendet wird. Ein Pull-Backup ist sehr sicher, wenn
> der Backup-Server (das kann auch ein NAS sein) von aussen nicht
> erreichbar ist, ggf. noch eine Firewall z.B. UFW dazu. Der Backup-Server
> muss dann aber lokal administriert werden, da ein Zugriff von aussen ja
> nicht möglich ist.

Egal, wie sicher ein Pull-Backup sein mag, es ändert sich nix an der 
konzeptuellen Schwäche. Ich hätte ebenso schreiben können: Ein Backup 
ist kein Backup.

von Michael L. (nanu)


Lesenswert?

Peter G. schrieb:
> Aber hier kommen wir mal wieder zum Kernproblem vieler in dieses (vielen
> technischen) Forum zurück:

Und wenn hier jemand nach Möglichkeiten fragt, sich am besten ins Knie 
zu schießen..

> Das Lesen der Vorgaben des TO und hineinversetzen der Situation des TO
> (hier der Nutzerin)  bzw. den "normalen Menschenverstand".

..dann soll man ihm diese liefern, anstatt ihn davon zu überzeugen, es 
besser bleiben zu lassen?

> Es geht um eine selbstständige Übersetzerin und nicht einen
> Hochschulserver, nicht eine Steuerbehörde, nicht der Sozialhilfebehörde,
> ein Krankenhaus, von Tesla,..

Das Konzept Nas als Backup taugt nicht mal zum Sichern von Foren-Opas 
Daten, wie zahlreiche Anfrage nach Datenrettung hier im Forum zeigen. 
Aber für jemand, der vermutlich von seiner Arbeit leben will, zumindest 
eine minimale Buchhaltung führen muß, Aufbewahrungspflichten unterliegt, 
womöglich Terminarbeiten erledigt, für den soll's dann langen.

> Eine freie Übersetzerin bietet da doch eher ein wenig interessantes Ziel
> - da reicht eine "Grundabsicherung", das automatische System und
> "fertige Software" welche durch den Kriminellen nur bedient, werden
> muss, abhält doch in der gelebten Wirklichkeit vollkommen aus.

Der weitaus häufigste Fall bei Datenverlust sind Anwenderfehler, nicht 
Viren, Kriminelle, Hardwareausfall o.ä. Oft wissen, egal ob Private oder 
Firma, nicht mal wie, wann und warum es passiert ist, wenn Daten fehlen.

von Stephan S. (uxdx)


Lesenswert?

C-hater schrieb:
> Bezüglich Angriffen aus dem zu sichernden System: bedingt. Der Agent
> ist lokal angreifbar, das Backup-System möglicherweise indirekt via LAN.
Das Wesen eines Pull-Backups ist u.a., dass der Agent auf dem 
Backup-Server sitzt.

> Bezüglich Angriffen aus dem LAN: bedingt. Das Backup-System selber ist
> möglicherweise angreifbar.
100% sicher ist nie etwas. Aber ein Backup-Server ohne Freigaben hinter 
einer Firewall ist schon SEHR sicher.

> Bezüglich physischen Zugriffen bzw. physischer Zerstörung des
> Backup-Systems: NEIN.
Das ist klar, da muss eine externe Kopie des Backups her.

von C-hater (c-hater)


Lesenswert?

Stephan S. schrieb:

> Das Wesen eines Pull-Backups ist u.a., dass der Agent auf dem
> Backup-Server sitzt.

Nein, das tut er nicht. Der "Agent" sitzt auf dem zu sichernden System. 
Er kann ein allerdings ein extra Stück Software sein oder auch nur eine 
generische "Freigabe".

Beides ist jedenfalls auf dem Target selbst angreifbar, weil es halt auf 
dem Target selbst läuft.

>> Bezüglich physischen Zugriffen bzw. physischer Zerstörung des
>> Backup-Systems: NEIN.
> Das ist klar, da muss eine externe Kopie des Backups her.

Wenn du wenigstens das begriffen hast, ist schon viel gewonnen...

von Stephan S. (uxdx)


Lesenswert?

C-hater schrieb:
> Stephan S. schrieb:
>
>> Das Wesen eines Pull-Backups ist u.a., dass der Agent auf dem
>> Backup-Server sitzt.
>
> Nein, das tut er nicht. Der "Agent" sitzt auf dem zu sichernden System.
> Er kann ein allerdings ein extra Stück Software sein oder auch nur eine
> generische "Freigabe".

Du weisst offensichtlich immer noch nicht was ein Pull-Backup ist: da 
sitzt der Agent nicht auf dem zu sichernden Rechner, sondern auf dem 
Backup-Rechner. Der Name sagt es bereits. Beschäftige Dich mal damit und 
Du wirst sehen, dass das eine ziemlich sichere Methode ist.

von C-hater (c-hater)


Lesenswert?

Stephan S. schrieb:

> Du weisst offensichtlich immer noch nicht was ein Pull-Backup ist: da
> sitzt der Agent nicht auf dem zu sichernden Rechner, sondern auf dem
> Backup-Rechner.

Nein. Der Backup-Rechner initiiert das Backup. Und benutzt dazu entweder 
einen speziellen "Agent" oder halt eine ganz normale Freigabe des zu 
sichernden Rechners. In beiden Fällen muß er sich der darauf verlassen, 
dass der Agent/die Freigabe authentische Daten liefert.

Kann er aber eben nicht wirklich, weil Malware, die hinreichende Rechte 
erlangt hat, beides beliebig manipulieren kann, weil sie halt auf dem zu 
sichernden System selber läuft.

Das kann doch nicht so schwer zu begreifen sein?

von (prx) A. K. (prx)


Lesenswert?

Bezieht sich die Feststellung der Unmöglichkeit absolut zuverlässiger 
Backups noch auf die Originalfrage?

Letztlich ist die Aufgabe von Backups, jene Daten zu sichern, die sich 
auf dem zu sichernden System befinden. Es ist i.A. nicht die Aufgabe, 
festzustellen, ob sich beispielsweise die darin befindlichen Fotos noch 
im Originalzustand befinden, oder ob sie zwischenzeitlich von einem 
Hacker subtil manipuliert wurden, oder ob der Hacker den 
Agent/Fileserver/... so manipulierte, dass nur beim Backup jedesmal 
Pumuckl durchs Bild stapft. Analog dazu gilt das für viele 
Manipulationen am zu sichernden System.

Es gibt schlichtweg Grenzen, in denen reale System arbeiten müssen. 
Besonders bei einer so harmlosen Frage wie jener des Threads. Sonst 
landen wir am Ende bei beweisbar absolut manipulationssicheren Systemen. 
Viel Vergnügen damit.

: Bearbeitet durch User
von Andreas M. (amesser)


Lesenswert?

Stephan S. schrieb:
> 100% sicher ist nie etwas. Aber ein Backup-Server ohne Freigaben hinter
> einer Firewall ist schon SEHR sicher.

Die Synology kann aber nur per Weboberfläche aus dem LAN administriert 
werden. Kann eben auch über dieses angegriffen werden.

Ansonsten geht ein rsync backup über ssh von Windows problemlos, da 
brauchts auch kein WSL, Windows 10 hat selber SSH im Bauch. Mache ich 
jeden Tag so. Allerdings von einem Linux-Backupserver aus.

Ich würde trotzdem eher (zusätzlich?) auf Festplatten sichern. 
Mindestens zwei Stück damit eine immer physisch getrennt ist. Es gibt 
nicht nur Blitzschlag, ein lose angeklemmter Nullleiter reicht auch. 
Wasser und Brandschäden wurden ja schon genannt. Blue-Rays/DVDs sind 
ungeeignet. Zu klein, zu langsam und vor allem zu kurzlebig. Die 
vergessen die Daten nach ein paar Jahren. Außerdem ne aussterbende 
Technologie.

von (prx) A. K. (prx)


Lesenswert?

Um Backups aus der Zone der physischen Gefährdung heraus zu bekommen, 
ohne USB-Medien schleppen zu müssen, und weil NAS mit in der Betrachtung 
ist: Online-Replikation mit Versionierung im Ziel. NAS wie z.B. QNAP 
haben sowas schlüsselfertig an Bord. Wer also keine Insel ist...

: Bearbeitet durch User
von Re D. (Gast)


Lesenswert?

C-hater schrieb:
> In beiden Fällen muß er sich der darauf verlassen, dass der Agent/die
> Freigabe authentische Daten liefert.

Du bist etwas wirr im Kopf. Ab dem Zeitpunkt, wo die Daten nicht mehr 
authentisch sind, sind sie zerstört. Sinn des Backups ist es die Daten 
bis zu dem Zeitpunkt zu haben. Skizzier doch mal ein System, wo man 
einen infizierten PC hat und noch authentische daten sichern kann?

von (prx) A. K. (prx)


Lesenswert?

Re D. schrieb:
> Skizzier doch mal ein System, wo man
> einen infizierten PC hat und noch authentische daten sichern kann?

Da dieser Laden gerade heute mit ein paar Buzzwords aufwarten konnte, in 
denen selbstredend die aktuelle Sau "KI" nicht fehlen durfte:
https://www.heise.de/news/Veeam-Backup-Replication-v12a-beherrscht-Objektspeicher-als-Backup-Quelle-9076610.html

Natürlich hat auch das mit der Übersetzerin und ihrem geplätteten 
Hilfsadmin nichts zu tun. Aber es ist tatsächlich nicht völlig absurd, 
Backup-Software eine Manipulation von Daten auf dem Ursprungssystem 
erkennen zu lassen.

: Bearbeitet durch User
von Re D. (Gast)


Lesenswert?

(prx) A. K. schrieb:
> Backup-Software eine Manipulation von Daten auf dem Ursprungssystem
> erkennen zu lassen.

Erkennen <> Sichern

Der Nächste bitte.

von Ein T. (ein_typ)


Lesenswert?

Peter G. schrieb:
> Mich würde sowieso interessieren, ob bei euch persönlich (nein nicht
> irgendeine Story aus dem Netz oder was euer AG, eine Behörde für eine
> Backupstrategie fahren muss - ihr ganz persönlich zu Hause oder das
> Kleinstunternehmen ...) ein Backup nach der reinen Lehre die Rettung war
> - also die  HDs kaputt und gleichzeitig die Bude abgebrannt, die Cloud
> ist pleite und oder das erste "Vorortbackup" auch defekt...

Bei mir privat rsync(1)t rsnapshot auf einen Remote-Server.

von Ein T. (ein_typ)


Lesenswert?

Peter D. schrieb:
> Ein T. schrieb:
>> Wenn Du den Löwen
>> brüllen hören möchtest, probier' mal eine NVMe aus... ;-)
>
> Man liest aber häufig, das den Unterschied zu SATA bei praktischen
> Anwendungen niemand mehr merkt, sondern nur noch bei speziellen
> Benchmarks angezeigt bekommt.

Man liest auch häufig, daß die Erde eine Scheibe und Corona ein Trick 
von Bill Gates sei, um den Leuten per Impfung einen Chip zu 
implantieren, mit dem er sie dann fernsteuern könne... :-)

Fakt ist: ich bemerke die Performanceunterschiede insbesondere beim 
Booten des Systems und bei meiner Arbeit mit verschiedenen Datastores 
und größeren Datenmengen, jedenfalls sind die Unterschiede unter Linux 
deutlich spürbar. Andere Anwendungsfälle, gerade solche, deren Daten in 
den Dateisystempuffer passen, profitieren naturgemäß weniger von 
schnellem I/O.

von Steve van de Grens (roehrmond)


Lesenswert?

Ich benutze zuhause unter Linux ein Backup Programm, das auf rsync 
basiert. Damit kopiere ich meine persönlichen Dateien einmal pro Monat 
auf eine externe Festplatte, die ich in einem Feuerfesten Safe lagere.

Also ganz einfach, mir reicht das so. Ab und zu teste ich, ob das letzte 
Backup noch lesbar ist.

Da fällt mir gerade ein: Die Festplatte ist schon 8 Jahre alt, 
vielleicht sollte ich sie erneuern. Andererseits "never change a running 
system". Wer weiß ob die neue so zuverlässig funktioniert, wie die alte. 
Deswegen ist sie ja so alt geworden.

: Bearbeitet durch User
von Hubert (hilfsadmin)


Lesenswert?

Andreas M. schrieb:
> Ansonsten geht ein rsync backup über ssh von Windows problemlos, da
> brauchts auch kein WSL, Windows 10 hat selber SSH im Bauch. Mache ich
> jeden Tag so. Allerdings von einem Linux-Backupserver aus.

Danke für den Tipp, habe etwas gegoogled und das hier gefunden:
https://learn.microsoft.com/en-us/windows-server/administration/openssh/openssh_install_firstuse?tabs=gui

Ist das die von Dir angesprochene Lösung oder gibt es noch einen anderen 
Weg?

von Oliver S. (oliverso)


Lesenswert?

Ein T. schrieb:
> Fakt ist: ich bemerke

DAS Totschlagargument jedes Esoterikers...

Oliver

von Εrnst B. (ernst)


Lesenswert?

Das beste Backup-Konzept nutzt nix, wenn es zu kompliziert und aufwändig 
für den Anwender ist, und das Sichern deswegen öfters mal ausfällt.

Ich würde mir auf jeden Fall mal die in Windows integrierten 
Backup-Funktionen mal anschauen, unter "Dateiversionsverlauf" versteckt.

Das dann (meinetwegen stündlich) auf das NAS sichern lassen, geht völlig 
unauffällig im Hintergrund.

Bonus: Der Anwender kann ohne Support-Aufwand selber alte 
Datei-Versionen aus dem Backup wiederherstellen.

Den komplizierten Part, nämlich die NAS-Freigabe selber (die dann ja für 
den Windows-Rechner erreichbar sein muss) gegen 
Ransomware/Verschlüsselung/Löschen zu schützen, kann man dann komplett 
auf das NAS verlagern, wo man dank Linux mehr Möglichkeiten hat.
z.B. regelmäßige Read-Only-Snapshots ziehen, und/oder (verschlüsselt, 
rclone) in die Cloud hochladen.

von Hubert (hilfsadmin)


Lesenswert?

Εrnst B. schrieb:
> Das beste Backup-Konzept nutzt nix, wenn es zu kompliziert und aufwändig
> für den Anwender ist, und das Sichern deswegen öfters mal ausfällt

Full ack

Εrnst B. schrieb:
> Ich würde mir auf jeden Fall mal die in Windows integrierten
> Backup-Funktionen mal anschauen, unter "Dateiversionsverlauf" versteckt.

Danke, super Hinweis, die kannte ich nicht.

Εrnst B. schrieb:
> Den komplizierten Part, nämlich die NAS-Freigabe selber...

Über den Ansatz hatte ich auch schon nachgedacht, ihn aber verworfen 
weil das heißen würde das NAS/Server/... müsste 24x7 laufen.

Ich denke aber noch mal drüber nach.

von (prx) A. K. (prx)


Lesenswert?

Εrnst B. schrieb:
> Das beste Backup-Konzept nutzt nix, wenn es zu kompliziert und aufwändig
> für den Anwender ist, und das Sichern deswegen öfters mal ausfällt.

... oder wenn er keinen blassen Schimmer hat, wie er an den Backup heran 
kommt, sollte er ihn einmal benötigen.

Hubert schrieb:
> Über den Ansatz hatte ich auch schon nachgedacht, ihn aber verworfen
> weil das heißen würde das NAS/Server/... müsste 24x7 laufen.

Hochfahren, danach wieder runterfahen. Sollte man beides automatisieren 
können. Hochfahren per Timer, wenn das System das vorsieht, oder auch 
per WakeOnLAN.

Ich hatte das auch schon andersrum gemacht. Pull-Backup per RasPI, der 
nachts den zu sicherenden PC per WoL aktivierte, die Files zog, und 
danach den PC per ssh wieder runter fuhr. Auf die Stände vom Backup 
konnte man per R/O-Share vom PCs aus zugreifen.

: Bearbeitet durch User
von Hubert (hilfsadmin)


Lesenswert?

(prx) A. K. schrieb:
> Ich hatte das auch schon andersrum gemacht. Pull-Backup per RasPI, der
> nachts den zu sicherenden PC per WoL aktivierte, die Files zog, und
> danach den PC per ssh wieder runter fuhr.

So herum habe ich da noch nicht drüber nachgedacht.
Hat den unheimlichen Vorteil das die Komplexität komplett auf 
NAS/Server/... liegt und dieser nicht 24x7 laufen muss.

Bonus:
Optional kann eine Firewall zwischen NAS/Server/... und dem restlichen 
Netz geschaltet werden die nur Ausgehenden Verkehr vom NAS/Server/... 
zulässt.

Werde mal nachfragen ob es ok ist wenn der PC nachts aufwacht ;)

: Bearbeitet durch User
von Peter D. (peda)


Lesenswert?

(prx) A. K. schrieb:
> Ich hatte das auch schon andersrum gemacht. Pull-Backup per RasPI, der
> nachts den zu sicherenden PC per WoL aktivierte, die Files zog, und
> danach den PC per ssh wieder runter fuhr.

Und wenn man dabei gerade am PC sitzt, werden dann alle Anwendungen 
geschlossen?
Ich fahre meinen PC nie runter, sondern drücke nur die Schlummertaste.

von (prx) A. K. (prx)


Lesenswert?

Peter D. schrieb:
> Und wenn man dabei gerade am PC sitzt, werden dann alle Anwendungen
> geschlossen?

Niemand in diesem Haushalt pflegte sich nachts um 2 Uhr an den PC zu 
setzen. Und um sicherzugehen kann man kann den Shutdown abblasen, wenn 
zu diesem Zeitpunkt jemand angemeldet ist. Man kann es auch so halten, 
dass der ganze Backup abgeblasen wird, wenn die Kiste vorher schon läuft 
und vielleicht tagelang an irgendwas rumackert. Bissel Kreatitivät 
bitte!

: Bearbeitet durch User
von Andreas M. (amesser)


Lesenswert?

Hubert schrieb:
> Danke für den Tipp, habe etwas gegoogled und das hier gefunden:
> 
https://learn.microsoft.com/en-us/windows-server/administration/openssh/openssh_install_firstuse?tabs=gui
> Ist das die von Dir angesprochene Lösung oder gibt es noch einen anderen
> Weg?

Ja genau. Auf der Windowsmaschine läuft ein OpenSSH Server. Ich habe 
dann die Login Shell auf PowerShell umgestellt. Dazu ist auf dem Server 
ein rsync für Windows installiert. Der Linuxrechner führt dann rsync aus 
was sich per SSH und Key anmeldet und das Backup zieht, einfach komplett 
in einen Ordner. Ich habe damit dann zeitlich abgestuft tägliche, 
wöchentliche und monatliche Stände. Die Backups könnte man theoretisch 
per ReadOnly Freigabe und Samba im Netz noch bereitstellen. Das Backup 
von ca 40 GB auf etwa 4 Mio.(!) Dateien verteilt dauert so ca 2 Stunden. 
(Ist ein Jenkins Server mit hunderten Projekten)

von Hubert (hilfsadmin)


Lesenswert?

Andreas M. schrieb:
> Ich habe
> dann die Login Shell auf PowerShell umgestellt. Dazu ist auf dem Server
> ein rsync für Windows installiert.

Habe etwas gegoogled zu Windows und rsync und habe nichts "natives" 
gefunden. Das geht dann nur über das WSL richtig?

Liege ich mit der Vermutung richtig das wegen der rsync/WSL Nutzung die 
Login Shell umgestellt werden muss?

von Ein T. (ein_typ)


Lesenswert?

Oliver S. schrieb:
> Ein T. schrieb:
>> Fakt ist: ich bemerke
>
> DAS Totschlagargument jedes Esoterikers...

Hast Du auch etwas zum Thema beizutragen, mein kleiner Held?

von Andreas M. (amesser)


Lesenswert?

Hubert schrieb:
> Habe etwas gegoogled zu Windows und rsync und habe nichts "natives"
> gefunden. Das geht dann nur über das WSL richtig?

Das geht auch ohne WSL:

https://github.com/WayneD/rsync/actions/workflows/build.yml

Da muss es bei den builds ein ZIP geben, sehe ich auf dem Handy gerade 
nicht. Ansonsten kann man es auch über msys installieren.

Hubert schrieb:
> Liege ich mit der Vermutung richtig das wegen der rsync/WSL Nutzung die
> Login Shell umgestellt werden muss?

Nein, das ist mein persönlicher Geschmack. Der DOS Befehlsprompt kann ja 
fast nichts.

Mir ist noch eine Idee gekommen. Du könntest auf der Synology auch 
Nextcloud installieren und auf dem PC den zugehörigen Clienten. Damit 
bekommst Du Dann ein Laufwerk/Ordner der automatisch mit der Synology 
synchronisiert. So ähnlich wie Onedrive nur mit der NAS als Cloudserver. 
Backup läuft dann nur noch intern in der NAS.

von Sheeva P. (sheevaplug)


Lesenswert?

Andreas M. schrieb:
> Hubert schrieb:
>> Liege ich mit der Vermutung richtig das wegen der rsync/WSL Nutzung die
>> Login Shell umgestellt werden muss?
>
> Nein, das ist mein persönlicher Geschmack. Der DOS Befehlsprompt kann ja
> fast nichts.

Naja, der TO schrieb ja, daß er sich eher unter Linux zuhause fühlt, und 
dann ist die Powershell ja schon ein bisschen gewöhnungsbedürftig. Daher 
könnte es für den TO möglicherweise einfacher sein, die im WSL 
enthaltene Bash zu nutzen, die er ja von Linux schon kennen dürfte.

Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.