Leider ist mir ein gravierender Fauxpas unterlaufen, als ich die Systemplatte meines FreeNAS Servers klonen wollte, um das Update auf 9.10 zu testen. Weil ich unbedacht das DVD Laufwerk aktiviert habe, bevor ich mit dd den Inhalt der System SSD auf eine neue übertragen habe, habe ich statt der SSD eine der 3 Platten des ZFS RaidZ überschrieben. Natürlich hat ein Abbrechen des dd nicht mehr geholfen. Die Daten waren zwar nicht verloren, aber der ZFS Pool war logischerweise Degraded:
[root@freenas] ~# zpool status
pool: daten
state: DEGRADED
status: One or more devices could not be opened. Sufficient replicas exist for
the pool to continue functioning in a degraded state.
action: Attach the missing device and online it using 'zpool online'.
see: http://illumos.org/msg/ZFS-8000-2Q
scan: scrub in progress since Sun Apr 3 00:00:01 2016
2.80T scanned out of 5.68T at 156M/s, 5h22m to go
0 repaired, 49.30% done
config:
NAME STATE READ WRITE CKSUM
daten DEGRADED 0 0 0
raidz1-0 DEGRADED 0 0 0
gptid/9f68b9bd-5b9e-11e3-98ec-001b210ff370 ONLINE 0 0 0
gptid/9fd6a91e-5b9e-11e3-98ec-001b210ff370 ONLINE 0 0 0
15598684992044849509 UNAVAIL 0 0 0 was /dev/gptid/a0957d41-5b9e-11e3-98ec-001b210ff370
errors: No known data errors
Da meine Erfahrungen mit ZFS noch nicht so groß sind, mußte ich lange recherchieren, bis ich eine auf meine Situation anwendbare Anleitung gefunden habe. Letztlich waren es nur ein paar Befehle bis zum Rebuild des Raids:
[root@freenas] ~# zpool offline daten /dev/gptid/a0957d41-5b9e-11e3-98ec-001b210ff370
[root@freenas] ~# zpool status daten
pool: daten
state: DEGRADED
status: One or more devices has been taken offline by the administrator.
Sufficient replicas exist for the pool to continue functioning in a
degraded state.
action: Online the device using 'zpool online' or replace the device with
'zpool replace'.
scan: scrub in progress since Sun Apr 3 00:00:01 2016
4.28T scanned out of 5.68T at 139M/s, 2h55m to go
0 repaired, 75.40% done
config:
NAME STATE READ WRITE CKSUM
daten DEGRADED 0 0 0
raidz1-0 DEGRADED 0 0 0
gptid/9f68b9bd-5b9e-11e3-98ec-001b210ff370 ONLINE 0 0 0
gptid/9fd6a91e-5b9e-11e3-98ec-001b210ff370 ONLINE 0 0 0
15598684992044849509 OFFLINE 0 0 0 was /dev/gptid/a0957d41-5b9e-11e3-98ec-001b210ff370
errors: No known data errors
[root@freenas] ~# zpool status daten
pool: daten
state: DEGRADED
status: One or more devices is currently being resilvered. The pool will
continue to function, possibly in a degraded state.
action: Wait for the resilver to complete.
scan: resilver in progress since Sun Apr 3 08:59:58 2016
55.7M scanned out of 5.68T at 6.19M/s, 267h11m to go
16.1M resilvered, 0.00% done
config:
NAME STATE READ WRITE CKSUM
daten DEGRADED 0 0 0
raidz1-0 DEGRADED 0 0 0
gptid/9f68b9bd-5b9e-11e3-98ec-001b210ff370 ONLINE 0 0 0
gptid/9fd6a91e-5b9e-11e3-98ec-001b210ff370 ONLINE 0 0 0
replacing-2 OFFLINE 0 0 0
15598684992044849509 OFFLINE 0 0 0 was /dev/gptid/a0957d41-5b9e-11e3-98ec-001b210ff370
ada3 ONLINE 0 0 0 (resilvering)
errors: No known data errors